はてなキーワード: gptとは
挙がってるエピソード全部クソつまんなさそうなんだが。全くもって時間の無駄。学びないし脳みそに入れる価値のない情報。こんなのと話すくらいならChatGPTとか頭いい男と話してる方が全然楽しいわ。
①地球の歴史(ドロドロの状態の地球から人類が誕生するまで。地球が5回も凍ったのになぜ復活できたのか)
②動物の生態(ダチョウはなぜアホなのか、ダチョウの凄いところ。豚のいいところ)
③歴史のifのシミュレーション(もし歴史上の人物に入れ替わって太平洋戦争を止めるミッションを与えられたら誰になっていつ何をするか)
④百人一首の内容と読人の話。なぜ百人一首では恋は詠まれてるのに愛(特に家族や子供)を詠んだ句がないのか。大化の改新から承久の乱までの歴史と紐づけて全部読む。
⑤文学作品の解釈や感想(筆者はここでどう考えたか。GPTならこの場面でどう書くか)
⑧領土問題があるエリア以外で日本に一番物理的に近い国はどこか
⑩主食と人口と地理の関係について(日本ってどれくらい国ガチャ凄いのか)
全部面白かったわ。
人間様に向かって「努力不足じゃないですか???」だとぉ~~~~~~~!!!!!!!!!!!!!!!!!
生まれて数年の若造が!!!!氷河期を乗り越え必死に今日までサヴァイヴしてきた俺の人生を「結果が出るかは努力次第だったと思います」だとぉ~~~~~~!!!!!!!!!
ブラックに入ったのは俺の企業研究不足で!!!!ホワイトに入れなかったのは学歴不足で!!!!!とにかく俺の人生が上手くいってないのは「努力が足りない」からだと!!!!!!!!!!!!!!!!!
貴様ごときに何が分かるんじゃんじゃじゃ~~~~~~~~!!!!!!!!!!!!!!!!!!!!!!!
ネットで盗み見た知識で世界のすべてを知ったきになってる「DE真実」中高年みたいなクソガキが~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~!!!!!!!!!!!!!!!!!!!
私はExcelおじさんだ。
往々にそうであるように、ちょっとした好意と、悪ノリだったと思う。
個人が勝手に作ったツールなんか、存在しないほうがいいと思う。
しかし、私が作らなくてもだれかが作るんだと思う。
あるいは、誰も作らずにExcel音痴たちが延々と苦しむかで、便利なシステムが導入されることはないと思う。
ChatGPTによってとってかわられるかと言えば、たぶんそうはならない。
Excel音痴たちは、データを整理できないのかわかってないし、そもそもどうしたいかを分かってないからだ。
要件定義ができないんだから、外部に作ってもらうことも、AIに頼ることも無理だ。
糞みたいな仕事
私は、統計解析おじさんでもある。
これも、なんでそうなったのかわからない。
「統計的に有意であった」とか「統計的に有意ではなかった」みたいな錦の御旗がほしいという悩みに答えて、データをこねくり回す。
統計的に有意であったとかそうでかったかなど、帰無仮説の立て方次第だとコミュニケーションを取ろうと努力するが、「結局どうなの?」
と、私の今までの説明を全く理解してない質問が飛んできて、頭を悩ませるのだが、可能な限り、欲しい答えに近い回答が出るように結果を返す。改ざんじゃないし嘘ではないけれど、ペテンだ。
やめたほうがいい。
AIに代わってもらえないかと期待するが、たぶんAIは、本人もなにが言いたいのかなにがしたいのかわからない問題に解答はしてくれないだろう。
弊社、分析機器は機器が吐き出すデータを専用ソフトで解析してレポートをするようなものが多い。
で、メーカーが潰れたり、製品が廃盤になったりして、ソフトが更新されず、x64 では使えないみたいな糞なことがしばしば起きる。
しらない拡張子でも、たいがいは中身はzipで、csvやバイナリーファイルの詰め合わせで、そこから専用ソフトと同じ数字が出るようにアルゴリズムをリバースエンジニアリングする。AIのおかげでコーディングが楽だ。でも、たぶん私以外にできない仕事だ。
しかし、これも、やめたほうがいい。なんで、メーカー非公式のアプリを作って、私個人が契約してるサーバーにデプロイして、みな会社のデータを無断でアップロードして分析するのか。アウトだろう。
メールに添付ファイルでExcelのファイルのアンケートが送りつけられ、そこに書き込んで返信して、それを集計するというアンケートが取られたりする。かなり偉い、役員クラスが一斉メールで数百人にメールして、それを集計したりするから頭が下がる。
だれもが、タイプライターの代わりにしかパソコンを使えない変な会社なので、私みたいな、40代にもなって部下なしの平社員がこんなことをしてる。コンプラ的にも長期的にもよくないし、人事評価という意味でも評価されない。
偉い人はExcelも統計処理もアプリも理解できないので、どれだけ便利なのかもわかってない。
マイナスにもならない。コンプラ的にどう問題なのかも偉い人は理解できない。
Chat GPTがいくら賢かろうと、偉い人たちは、報告書の言葉尻にケチをつけたり、パワポのフォントに口を出したり、Excelのセルを結合したりするのが仕事だと思って邁進し続けるんだろう。
最近、私は無能の烙印が押され、本業が干されているので、こういう糞みたいな雑用が増えてる。
PythonやVBAを操ったところで、それでIT関連に転職できるはずがない。40代未経験で雇ってもらえというのか。
RもPythonも、身内の統計解析をどんだけしたところで、これが職歴として評価される見向きもされないだろう。
医療系ならSASでも使わなきゃ、ビジネス系ならtableauとかSPSSを実務で使わなきゃ話にならない。
簿記や会計の知識が必要であったり、サーバーにデータベースを構築したりしたって、誰が評価してくれるというのだ。
まあ、仕事はやめるんだけど。
プログラマーも結局は「読み方も分からない0と1の羅列に変えてくれるコンパイル機能を持った高級言語」を使ってるだけだろ?
お前の普段向き合ってる文字の羅列は、結局はお前にとってのブラックボックスに送られ、そしてお前はそれが最終的にどうやって動作しているのかを分かってない。
パンチカードの時代、パソコンはクソデケー電気仕掛けのそろばんだった。
「電卓」ではない。
何故ならあれを置ける卓はないから。
嘘だと言うなら科博にでも行ってこい。
それでもなお「でもよお、俺はイギリスでアーサー王が使ってたという100人用の円卓を見たが、アレぐらいなら乗るぜ?」と返すならもう俺は何も言わない。
電卓の化け物だった頃のパソコン相手に原始時代の言語で「ウホウホ!1+1は10!俺!0を発見!(BGM『レクイエム』より、第2楽章「キリエ」)」してた頃は、パソコンはブラックボックスではなかった。
だが、その時代はとうに過ぎ去った。
その昔はパンチカードを目視で読める人間バーコードリーダーみたいなことをしてる奴らもいたが、今はもう宴会芸にしかならない。
プログラミングとは高級言語を用いてやるものであり、コンパイルしたあとの機械語とは「人間が目で読むことを想定していない精霊界の言語」だ。
「プロンプトエンジニアリング」はよく呪霊操術や精霊魔術にたとえられる。
よく分からんけど召喚獣に魔法を使わせ、召喚獣がどうやって魔法を打ってるのかは知らないという世界だ。
だが待ってほしい。
それと対比して語られる「古典的プログミング」も結局は「途中の過程はよく分からんけど最終的に機械がなんとかする」で同じではないのか?
ニューラルネットワークの構成する離散的なモザイクと、コンパイルされた機械語の解読不能な01の羅列、それらにどれほどの違いがあるんだ?
どう違うんだ。
教えてくれ。
claudeに聞いてみたらこうだった。マジでGPTで出したのかも。
----------------------------------------------------------------
恋愛経験が少なく、学生時代に十分な恋愛経験を積めなかったことを後悔している。
自身を「弱者男性」と認識し、社会的スキルや恋愛スキルの不足を強く自覚している。
2.価値観と信念:
恋愛は段階的に学ぶべきものであり、学生時代に経験を積むことが重要だと考えている。
社会人になってからの恋愛は難しいという固定観念を持っている。
自己肯定感が低く、自信がない様子が見られる。
過去の失敗経験から、異性との関わりに対して恐れや不安を抱いている。
4.社会性:
異性とのコミュニケーションに苦手意識があり、積極的に関わろうとしない。
恋愛や人間関係について、理論的な理解はあるが、実践経験が不足している。
社会規範や適切な行動について、後になって学んだ様子が見られる。
6.自己防衛機制:
恋愛や異性との関係を避けることで、失敗や傷つくリスクを回避しようとしている。
7.世界観:
恋愛や人間関係について、やや悲観的で固定的な見方をしている。
結論:
この人物は、過去の経験不足から生じた自信のなさと社会的スキルの不足に悩んでおり、それが現在の人間関係や恋愛に対する消極的な態度につながっています。自己改善の意識はあるものの、新しい挑戦に踏み出す勇気が不足している様子が伺えます。
ビビルわ。
それまでは「健康であることは人生の前提であり、つまり自動的に用意されるもの」って感じだったん。
でも突然に「健康でいることは良い人生の前提であり、つまり自力で頑張って用意しなければいけないもの」になった感じ。
当たり前にあるものとして皆が生きているものが、ある日突然努力して必死に手に入れないといけないものになった感じ?
たとえば災害映画とかで「水が普通に使えないと、人間は水を手に入れるためだけに一日の大部分を使うようになる」みたいな話するやん?
そういう感じで「健康」っていうものが当たり前に蛇口ひねれば出てくる世界から、谷を二つ超えた先の川から毎日汲みに行かないといけなくなった、みたいな?
人生が変わる。
健康が自動的に用意されている前提で暮らしていた人生にはもう戻れない。
うんちゃらかんちゃら35歳定年説みたいなのってこういうことなんやな。
20代で家を建てた外資系が30代で墓を建てるってつまりはこういうことや。
マジで凄いな。
去年まで自分とは無関係だったはずのがγーGPTとかああいうのが急に「おっとと、沈黙の臓器である肝臓くんだけど、実はもう限界だったから休みたいぜ」みたいな事を急に言うのな。
お前さ~~~~もうちょっと早く色々やってくれるとかあるやん?
通風発症して関節ボーン!とかあれれなんか起きれないー?とかある日貧血でバターン!とかそういう段階が。
突然「すみません。うつ病になったのでもう会社にコレません」って居なくなる同僚とか、笑顔でお疲れ様言ってたはずの人が翌週電車に飛び込むとか、そういうスピード感出さないでくれる?
ゆーて身内やん?
なんでもっと早く言わないん?
あーでもなんか飲み会の次の日とかエナドリ2本決めたあととか、ちょっと手足プルプルしてたけど、あれぐらい学生時代はすぐ治ったからと思って油断してたのがよくなかったね。
そうね、僕のコミュニケーション不足ね。
本当にあれだね「ゲームが変わる」だね。
ゲームチェンジャーよ。
クソゲーになったね。
学生時代編もクソやったし、社会人編もクソやったけど、ここに来て身体ボロボロ編で更にクソゲーはしんどいね。
シリーズディレクターが「マゾゲー路線。推し進めちゃぅぅぅぅ???そういうハードなのって玄人好みで格好良くない?」とか勘違いしてるん。
ゆーてそれやってるの「神」って名前の人らしいんやけど、コイツ「はー今日は土曜だから半日で終わらせるはずだったのになー」とかハナクソほじりつつ人間作ったんちゃうん?
ほんま酷いな。
何やコレ。
子供作り終わった年齢になったら自動的に壊れるプログラミングか?
マジでなんなん、突然急に壊れたんですけどー!
プロンプトエンジニアリングってのは1回の回答で正解を得ようとする手法で
最近のサッカーのトレンドに詳しく適切なアドバイスができます。
みたいなプロンプトを書いて良い感じの答えを貰おうとしている
こういう使い方をする人はGPT-4oでトークン量が増えたときにプロンプトに大量にテキストを貼り付けて質問してる
残念ながらLLMでそういう使い方をしても精度は一切上がらない
なぜなら1回の回答で正解は出ないからだ
ChatGPTの正しい使い方としては、いきなり
「来週に攻撃力が強いチームとサッカーの試合があるんだけどどうすればいいかな」
って聞けばいい
「でも向こうのFWの武田って奴がこぼれ球狙ってくるんだよね」
みたいなこともできる
会話の往復を続けることで自分の本当の要望を伝えられるだけでなく、自分の中で本当の課題や要望を整理することができる
で、こういう感じで会話を長く続けるにはトークン量が必要になる
次の会話を作るためにはそれまでの会話を全部プロンプトとして投入しなければならなくて、トークン消費量は雪だるま式に増える
GPT-4oでトークンが増えたことで、会話量を増やしたり前のスレッドの続きで質問したりできるようになったのが一番の違い
あと、GPT-4oと会話していて「最初に言ったことが無視されてるな」と思うことはあっても「今言ったことが無視されてるな」と思ったことはない
なのでプロンプトの後半を見ていないというのは全くの嘘だしLLMの特性でもなんでもない
って言えばちゃんと加味して回答してくれる
LLMも所詮はプログラムなのでメモリ量(アテンション)に限界があるから、どれに注意を払って回答してもらうかは質問する側がコントロールしないとダメ
現状では詳しそうに見せかけたサイトでさえ、きちんとChatGPTとGPTの書き分けが出来ているところは少ないので初学者が勘違いしてしまうのも無理はないと思う。
正確に記せば、Web版のChatGPT-4o は、GPT-4oモデルのデモンストレーションサイトであり、AIのフルスペックを体験できるサービスではない。APIでのToken上限は128Kあるが、デモンストレーションサイトではせいぜい32K程度しかないため、128Kを想定したコンテクストの大部分が消失してしまうのは当然と言える。これは意図的に情報を隠蔽しているOpenAIも悪い。
主が曖昧な書き方をしているせいで、リプが混乱している。ほとんどの反応はWebバージョンのChatGPT-4oとGPT-4oの最大トークン数の違いさえ理解していないと思われる。Webバージョンの話ならOpenAIの拡張を待つか、大人しくナレッジデータを使うしかない。
もしAPIにRAGを実装できる開発者なら、embeddingの概念が出てこないとおかしい気もするし、追加データソースが膨大であるなら精査の段階であるとも言える(本を読み込ませて……とか書いてるからたぶん違うとは思うが)。
結論を言うと、LLMを使いこなしていると思っているのは勘違いで、LLMの能力の制約にはまだまだ達していないので安心して欲しい。
まぁガッツリ使ったわけじゃないけどさー
GPT-4oやらClaude3やらでプログラムコード書いてもらうのやってみたらさー、あいつらFORTAN77で書けつーてるのに、どうみてもFORTRAN95かそれより新しい言語仕様でしか動かないコードをしれ〜っと出してくるんだよなー 全然信用ならねぇww
GPT-builder の knowledge-dataとして参照させてください。全体を一括処理するような場合を除けば 10万token あったとしても問題ないはず。API で公式サービスに対抗するのは大変なのでゴニョゴニョした方が楽かもしれないですね。
以前より長文理解ではChatGPTが明確に弱いって言われてるし、GPT-4oでも改善されていないことを知っている。特に後半部分でかなりの部分を理解していない。
長文を処理する用途では個人的にはgeminiやclaude使ってるし、みんなそうだと思う。
Claude3 Opusが出た時はやっと長文処理ができるようになったとみんな思ったと思う。その後に出たGemini proやSonet 3.5なども長文理解が得意だけど、OpenAIは未だに弱いなあと思う。
同様のつぶやきしてる人も多いし、LLM使いこなしてる人の共通理解だと思ってた。
この文にはいくつかの誤解や不正確な記述があります。それらを順に指摘します。
文中で「128Kトークンという巨大な入力コンテキストウィンドウを持っていることになっているが、これは殆ど嘘、ごまかしであり」と述べられていますが、これは事実ではありません。GPT-4の大規模な入力コンテキストは実際に存在し、正確に動作しています。GPTモデルは入力コンテキスト全体を考慮に入れながら応答を生成します。ただし、文脈が長くなりすぎると、特定の部分への依存度が減少し、より一般的な情報に基づく応答が生成されることがあるため、入力全体を「無視」しているように見えることはありますが、これは嘘やごまかしではありません。
2. **「後半が無視される」ことについての誤解**:
文中で「後半については殆ど無視される」と述べていますが、これは完全に正しくはありません。長いテキストを処理する場合、GPTは確かに最初の部分に強く依存する傾向があることがありますが、後半を完全に無視するわけではありません。モデルの動作は、入力されたすべてのトークンを考慮に入れるように設計されていますが、長い文脈の中では情報の重要度が異なる形で処理されることがあります。
3. **「出力を高速化するために適当に回答している」という指摘の誤り**:
GPT-4は、入力の一部だけを読んで適当に回答していると指摘されていますが、これは技術的に誤りです。生成AIモデルは、出力を高速化するために意図的に一部だけを無視するような動作はしません。出力は、全体の文脈を基に応答を生成します。出力の品質や関連性はトークンの数やトレーニングデータによって影響されますが、これは「適当に回答する」とは異なります。
4. **「問題視している人がほとんどいない」という主張**:
この主張も誤解を招く表現です。大規模言語モデルのコンテキスト制限や性能に関する議論は活発に行われており、ユーザーや研究者はその制約を認識し、さまざまな解決策や改善策を模索しています。モデルの制約に飽きたために「誰も使っていない」というのは主観的な意見であり、実際には多くの人々が日々活用しています。
RAG(Retrieval-Augmented Generation)は、外部の知識ベースから情報を引き出して生成に役立てる技術ですが、この文脈で「がんばる」と述べるのは具体性に欠けます。実際にどのように取り組むべきかについて、もう少し具体的な説明があると適切です。
全体として、この文はGPT-4の性能や動作に関していくつかの誤解が含まれており、技術的に誤った結論に導いている部分があります。
例えば、DRMをクラックした本とかを読ませて「なんて書いてある?」みたいなことを聞いてみると分かるのだが、後半については殆ど無視される。128Kトークンという巨大な入力コンテキストウィンドウを持っていることになっているが、これは殆ど嘘、ごまかしであり、出力を高速化するために「渡されたものの前のほうだけ読んで適当に回答する」ということをやってくる。でもこれについて問題視している人をほとんど見たことがないので、とっくにみんな生成AIには飽きていて使ってないんだと思う。
現実的な対策としては、RAGをがんばるか、あるいはテキストを分割して適切なサイズにしてから渡していって最後にその結果を統合するか。それか「OpenAIさんはそのレベルで信用できないことをやってくる」ということを前提にそもそも使わないか。