はてなキーワード: 無視とは
「いや、発達障害に見えるかどうか?という話ですよね?」
横だけど、それはちがうだろ
・まず3回同じ質問をさせた(つまり2回相手の質問を無視して暴走した)ことをわびろ
って書いてるだけ
おまえが発達障害かどうかなんて話は誰もしてないぞ
プロンプトエンジニアリングってのは1回の回答で正解を得ようとする手法で
最近のサッカーのトレンドに詳しく適切なアドバイスができます。
みたいなプロンプトを書いて良い感じの答えを貰おうとしている
こういう使い方をする人はGPT-4oでトークン量が増えたときにプロンプトに大量にテキストを貼り付けて質問してる
残念ながらLLMでそういう使い方をしても精度は一切上がらない
なぜなら1回の回答で正解は出ないからだ
ChatGPTの正しい使い方としては、いきなり
「来週に攻撃力が強いチームとサッカーの試合があるんだけどどうすればいいかな」
って聞けばいい
「でも向こうのFWの武田って奴がこぼれ球狙ってくるんだよね」
みたいなこともできる
会話の往復を続けることで自分の本当の要望を伝えられるだけでなく、自分の中で本当の課題や要望を整理することができる
で、こういう感じで会話を長く続けるにはトークン量が必要になる
次の会話を作るためにはそれまでの会話を全部プロンプトとして投入しなければならなくて、トークン消費量は雪だるま式に増える
GPT-4oでトークンが増えたことで、会話量を増やしたり前のスレッドの続きで質問したりできるようになったのが一番の違い
あと、GPT-4oと会話していて「最初に言ったことが無視されてるな」と思うことはあっても「今言ったことが無視されてるな」と思ったことはない
なのでプロンプトの後半を見ていないというのは全くの嘘だしLLMの特性でもなんでもない
って言えばちゃんと加味して回答してくれる
LLMも所詮はプログラムなのでメモリ量(アテンション)に限界があるから、どれに注意を払って回答してもらうかは質問する側がコントロールしないとダメ
Switchの有機EL版が実売で38000円くらいだから次世代機は4万越えはほぼ確定だし、本体もソフトも滅多に値下げしないことで有名な任天堂が初手から為替レート無視して安く売る可能性も低いから、現在の1ドル140円換算で400ドル・56000円くらいにしてくる可能性もある
またSwitchやPS5のときは発売から2年近く品薄でまともに買えない事態が続いてたから、次世代機もそうなる可能性は極めて高い
とある国内IT企業大手で組織が崩壊しつつあり、1人の社員として、それを目の前で目の当たりにしている。
もともと縦割りの組織に課題を感じていた会社は、部門横断的なプロジェクトを走らせるラジアルウェブ型の組織体制を導入することになった。アイデアとしては素晴らしい。縦の壁を壊し、部門間の連携を強化することで、効率的なプロジェクト推進を目指すはずだった。
しかし、実際に始まってみると、その理想とは程遠い現実が待っていた。各社員が自分の意向や得意分野に関わらず、プロジェクトに次々とアサインされていった。特にやりたいことやできることが反映される余地はなく、誰もが組織全体の目標に従わなければならなかった。結果的に、やりたくない仕事を任される社員が増え、退職者が続出していった。
退職者が増えると、彼らが持っていた業務を他のメンバーが引き継ぐことになり、さらに余裕がなくなる。負担が増し、社員は自分が本来やりたい業務に専念できない状況に追い込まれていった。皮肉なことに、縦割り組織を解消しようと導入されたはずのラジアルウェブが、かえって社員のモチベーションを奪い、組織の崩壊を加速させている。プロジェクトを企画する上位層が残り、現場層は次々と退職している。組織が望んだラジアルウェブではなく、それは蜘蛛の巣のように、スカスカの組織になってしまっている。
私はこの状況を、ラジアルウェブの負の側面だと感じている。社員一人ひとりの意向や能力を無視してプロジェクトを割り振ることは、短期的には成果を上げるかもしれないが、長期的には組織を破壊する原因となりうる。目の前でそれが起こっている今、組織の未来が見えなくなってきた。
水ダウのコロナのやつとか、何なら茶化してるまであるし、「インターネットの声なんて無視したら何も問題ないし影響もない」という事に業界が気づき出してる気がする
アメリカではニンテンドースイッチの通常版が約300ドル、有機EL版が約350ドルで売られている
前提となるデータを多めに読み込ませるようなケースだと、途中から前提を無視するよね。
前提情報は細かいとこまで指示するような使い方を私はしてるので、4oの方が4よりも精度下がるケース結構多いなと感じてた。
返答に時間かかっても良いから私の指示したことをことを忘れるなと言いたい。
正直、本件は結構むかついている。
これ、生成AIの中身を理解していない人がこういうことをよく言う
128kトークン入れて後半が無視されるのはアテンションが前半の方で固定化されてしまってるから
そもそも128kトークン入れるときに後半まで加味して使わせようとすると無理なのは仕組み上当たり前
例えば長文の文章の要約をさせようとしても無理で長文の変換なら使える
この文にはいくつかの誤解や不正確な記述があります。それらを順に指摘します。
文中で「128Kトークンという巨大な入力コンテキストウィンドウを持っていることになっているが、これは殆ど嘘、ごまかしであり」と述べられていますが、これは事実ではありません。GPT-4の大規模な入力コンテキストは実際に存在し、正確に動作しています。GPTモデルは入力コンテキスト全体を考慮に入れながら応答を生成します。ただし、文脈が長くなりすぎると、特定の部分への依存度が減少し、より一般的な情報に基づく応答が生成されることがあるため、入力全体を「無視」しているように見えることはありますが、これは嘘やごまかしではありません。
2. **「後半が無視される」ことについての誤解**:
文中で「後半については殆ど無視される」と述べていますが、これは完全に正しくはありません。長いテキストを処理する場合、GPTは確かに最初の部分に強く依存する傾向があることがありますが、後半を完全に無視するわけではありません。モデルの動作は、入力されたすべてのトークンを考慮に入れるように設計されていますが、長い文脈の中では情報の重要度が異なる形で処理されることがあります。
3. **「出力を高速化するために適当に回答している」という指摘の誤り**:
GPT-4は、入力の一部だけを読んで適当に回答していると指摘されていますが、これは技術的に誤りです。生成AIモデルは、出力を高速化するために意図的に一部だけを無視するような動作はしません。出力は、全体の文脈を基に応答を生成します。出力の品質や関連性はトークンの数やトレーニングデータによって影響されますが、これは「適当に回答する」とは異なります。
4. **「問題視している人がほとんどいない」という主張**:
この主張も誤解を招く表現です。大規模言語モデルのコンテキスト制限や性能に関する議論は活発に行われており、ユーザーや研究者はその制約を認識し、さまざまな解決策や改善策を模索しています。モデルの制約に飽きたために「誰も使っていない」というのは主観的な意見であり、実際には多くの人々が日々活用しています。
RAG(Retrieval-Augmented Generation)は、外部の知識ベースから情報を引き出して生成に役立てる技術ですが、この文脈で「がんばる」と述べるのは具体性に欠けます。実際にどのように取り組むべきかについて、もう少し具体的な説明があると適切です。
全体として、この文はGPT-4の性能や動作に関していくつかの誤解が含まれており、技術的に誤った結論に導いている部分があります。
まあ発達障害も約6.5%程度いるらしいから日本全体だと780万人いることになるし
例えば、DRMをクラックした本とかを読ませて「なんて書いてある?」みたいなことを聞いてみると分かるのだが、後半については殆ど無視される。128Kトークンという巨大な入力コンテキストウィンドウを持っていることになっているが、これは殆ど嘘、ごまかしであり、出力を高速化するために「渡されたものの前のほうだけ読んで適当に回答する」ということをやってくる。でもこれについて問題視している人をほとんど見たことがないので、とっくにみんな生成AIには飽きていて使ってないんだと思う。
現実的な対策としては、RAGをがんばるか、あるいはテキストを分割して適切なサイズにしてから渡していって最後にその結果を統合するか。それか「OpenAIさんはそのレベルで信用できないことをやってくる」ということを前提にそもそも使わないか。