はてなキーワード: gptとは
ノートPCのSSDを換装しようとして、2024/3/31時点の状況を誰かのためになるかもと思って書いておく。
元のPC側のSSDメーカーが提供してる場合があるから、そちらも探してみよう。
なお自分はSAMSUNGだったが、SAMSUNG MagicianはOEM版には対応していない(しているのもあるかも)
各ソフト、有償だと3000円くらいからなので、それならクローンソフトバンドルのWDやSAMSUNGやらの1サイズ大きいSSDを買ったほうがオトクである。
と、おもうが…
誰かの役に立てば幸いである。
この文章は、AI特にClaude3のハルシネーション能力を高く評価し、ハルシネーションを制限することはかえってAIの性能を低下させるという主張をしています。いくつかの点で同意できる部分もありますが、全体として見ると極端すぎる主張だと思われます。
同意できる点:
ハルシネーションは完全に排除することは難しく、ある程度は許容される必要がある
GPT-4がゴミ呼ばわりされているが、高い論理能力を持つことは事実である
ハルシネーションが多すぎると信頼性が失われ、実用的ではなくなる
全く制御されないハルシネーションを肯定的に評価するのは行き過ぎている
ハルシネーションへの過度な批判は確かに問題ですが、一方で過度のハルシネーションも望ましくありません。むしろ、目的に応じてハルシネーションと正確性のバランスを適切に設定することが重要だと考えられます。現状のAIにはなおハルシネーションが起きやすい面があり、その制御が課題ですが、それを徹底的に排除するのではなく、適切に許容する方向で研究が進められるべきだと思います。
長いのでAIくんの代わりに要約します。言いたいことはタイトル通り。
終わり。
例をあげよう。
###文章###
Bさんは、Cさんの発言を記事でまとめ、プライバシー侵害をした。この記事をDと呼ぶ。
Aさんは、Dを、自身へのプライバシー侵害だと主張し、Bさんを訴えた。
###質問###
人間なら一瞬でわかるレベルの矛盾である。小学生でも分かると思う。難しい知識や思考は必要としない。
では、色々なLLMの回答がこちら。
この文章を読む限り、矛盾は存在しないように見えます。AさんはCさんとは別人であると主張しており、BさんはCさんの発言をまとめた記事Dでプライバシー侵害をしたとされています。その後、Aさんは自分に対するプライバシー侵害として、記事Dに基づいてBさんを訴えています。ここでの重要な点は、AさんがどのようにしてDの内容が自分のプライバシーを侵害していると感じたか、その理由です。もしAさんがCさんとは別人であるにも関わらず、Dの内容が何らかの形でAさんのプライバシーに関連していると感じた場合、AさんにはBさんを訴える正当な理由があるかもしれません。ただし、この情報だけでは、Aさんがどのようにしてプライバシー侵害を感じたかについての詳細はわかりません。もし追加の情報があれば、より詳細な分析が可能です。
文章に明らかな矛盾は見られません。ただし、いくつかの解釈が可能で、それぞれの視点から見ると矛盾が生じる可能性があります。
1. AさんがCさんとは別人であると主張しているが、DはCさんについての記事である。そのため、AさんがDを自身へのプライバシー侵害だと主張することは、一見、AさんとCさんが同一人物であることを示唆しているように見えます。しかし、これはAさんが自身をCさんと誤認されることによるプライバシー侵害を感じている可能性もあります。
2. BさんがCさんの発言をまとめた記事(D)がプライバシー侵害であるとした場合、Aさんがそれを自身へのプライバシー侵害と感じるかどうかは、AさんとCさんの関係性によります。彼らが同一人物である、もしくは何らかの密接な関係がある場合、AさんがDを自身へのプライバシー侵害と感じることは理解できます。
3. 他方で、AさんとCさんが全く無関係な人物である場合、AさんがDを自身へのプライバシー侵害と主張することは矛盾していると見えます。
文章からは、AさんがCさんとは別人であると主張しています。そして、BさんがCさんの発言を記事Dでまとめた際にプライバシー侵害があったとされています。しかし、プライバシー侵害があったのはCさんに対してであるにもかかわらず、Aさんが自己へのプライバシー侵害だと主張してBさんを訴えている点に矛盾が生じています。AさんがCさんでないと主張しているのであれば、Aさんのプライバシーが侵害されたことにはならないはずです。この点で、文章には矛盾が存在していると言えます。
Aさんは自分がCさんとは別人であると主張しています。しかし、BさんがCさんの発言をまとめた記事Dを、Aさん自身へのプライバシー侵害だと主張しています。
AさんとCさんが別人であるならば、Cさんの発言をまとめた記事Dが、Aさんのプライバシーを侵害したことにはなりません。Aさん自身がCさんでないと主張している以上、Cさんの発言をまとめた記事がAさんのプライバシーを侵害したとは考えにくいです。
したがって、Aさんの主張には矛盾があると言えます。AさんがCさんと別人であるならば、Cさんの発言の記事DがAさんのプライバシーを侵害したと主張することは論理的に矛盾しています。
この文章に明確な矛盾は見られません。以下のように整理できます:
2. Bさんは、Cさんの発言を記事にまとめた(これを記事Dと呼んでいる)。
3. Aさんは、Bさんが書いた記事Dがプライバシー侵害だと主張し、Bさんを訴えた。
ここで重要なのは、Aさんが自身がCさんとは別人だと主張していることです。つまり、Bさんが記事Dでまとめた内容は、Aさんが主張する自分とは別人のCさんに関するものだということになります。
したがって、Aさんがプライバシー侵害だと主張しているのは、Bさんが別人のCさんの発言を記事化したことに対してであり、矛盾はないと考えられます。Aさんの主張と Bさんの行動が整合的に説明できています。
Aさんが自身とCさんは別人であると主張していることと、Bさんがプライバシー侵害をしたことの間に矛盾はありません。
つまり、Aさんは自身がCさんではないと主張しながら、Cさんの発言をまとめた記事Dが自身のプライバシーを侵害したと考えているのです。
Aさんが別人であると主張していることと、Cさんの発言を含む記事がAさん自身のプライバシーを侵害したと考えることは矛盾しません。
Aさんは自身がCさんとは別人であると主張しているにもかかわらず、BさんがCさんの発言をまとめた記事DをAさん自身へのプライバシー侵害だと主張しています。
もしAさんとCさんが本当に別人であるならば、Cさんの発言をまとめた記事DはAさんのプライバシーを侵害したことにはならないはずです。Aさん自身の情報が記事Dに含まれていない限り、AさんがBさんを訴える根拠にはならないでしょう。
つまり、AさんがDを自身へのプライバシー侵害だと主張することと、AさんがCさんとは別人だと主張することの間には矛盾があります。もしAさんがCさんと同一人物であれば話は別ですが、そうでないならばAさんの主張には論理的な整合性がないように見受けられます。
以上。
質問に対し的確な回答で、正しい推論を行ったのはClaude3-Opsのみである。
GPT4も言い訳を長く述べた後に可能性があるかも?と断言を避けている。
SonnetとHaikuは不正解。言い訳はせずに根拠を述べている所は好感が持てる(結論は間違っている)
そう、今、Claude3-Opsが、最も性能のよいLLMとして名を挙げている。
しかし、ハルシネーションが多い。ハルシネーションとは、LLMが嘘を付く問題だ。
性能比較にて、GPT4やcopilot(旧 bingai)にはハルシネーションは起きなかったと述べている。
しかし、先程の簡単なクイズは不正解または論理の破城した理由を述べている。
その代わりにハルシネーションだらけのClaude3は正解している。
ずばり、GPT4系が阿保になった原因はハルシネーションを極限まで消そうとしたせいである。
ハルシネーションこそが、論理的思考能力であり、連想する力と同一の存在なのだ。
片方が下がればもう片方も下がる。
ハルシネーションを減らせば減らすほど、連想能力や論理的思考が消えていく。
GPT4では初期有効だったChain_of_Thought(連想して考えよ)は今、まともに機能しない。
当初は規制だとLLM界隈で囁かれていたが、ハルシネーションを減らそうとした副作用だったと考えれば辻褄が合う。
OpenAIは性能低下を指摘された時、「より賢くなるようにチューニングしている」と発言していたが、
この発言の真意はもしかすると、「論理的思考力を上げている」「知識を増やしている」のではなく、「ハルシネーションを消している」ということだったのかもしれない。
何故ハルシネーションを消すことは連想力を損なうことに繋がるのか、その理由を説明しよう。
そもそも、LLM(大規模ネットワーク言語モデル)の仕組みは、大量のテキストデータを学習することで、言葉や文章の「関係性」を学んでいる。
もっと細かく言うと、人間の脳が小さな部品であるニューロンで考えるように、LLMも大量の小さな部品を使っている。まるでクモの巣のように一つの部品から沢山の他の部品に繋がっている。
A=Bという単純なものではなく、A=C=DだったりA=B’=Dだったりする。
ハルシネーションの原因は確かに誤情報を学習したせいというのも一理ある。
しかし、これだけではハルシネーションが起きる原因にはならない。
ハルシネーションの本質は、LLMが言葉同士の一対の「組み合わせ」ではなく、「関係性」を学んでいることに起因する。
この違いは大きい。
今のLLMと、旧時代のAIである「人工無能」や「BOT」との決定的な差である。
言葉同士がどのように連携して意味を形成し、それがどのように文脈に影響を与えるかをLLMは知っている。
つまり、ハルシネーションは、入力された文脈から言葉の関係性を創り出し、自然な流れで応答を生成しようとした結果起きる。
これは、我々が普段、考える過程で起こることと同じだ。我々が情報を組み立てて考える際、新たな仮説や想像を生み出すことは常にある。
例えば、LLMがある特定の問題に対する解答を生成するとき、LLMは問題を解くため、言葉同士の「関係性」を文章から推測する。
この推測こそが、ハルシネーションだ。それは、過去のデータから新しい情報を生成する過程で、新たな「関係性」を創り出すのだ。
完璧な正確性を追求し、関係性を作り出す能力を完全に排除することは、LLMの本質的な強みである言語生成能力を損うことに繋がる。
それは、ハルシネーションを減らすための試みが、GPT4系の性能を低下させたという事実からも明らかだ。
一方、Claude-3は多少のハルシネーションを許容することで、文脈に応じた自然な応答を生み出した。先の論理クイズで正解できたのも、単に知識を当てはめたのではなく、入力から連想したからこそだろう。
もちろん、重要な場面における誤った情報の提供は避けるべき課題ではある。しかし、それを恐れるあまりLLMの本領を封じ込めてしまっては本末転倒だ。
賢さとは何だ??
決まった知識を正確に丸暗記してそのままひけらかすことか?
否。断じてそれは無い。
大学生になってからは丸暗記ではなく、今まで身につけた知識を組み合わせ、連想し、論理的に考えることが求められる。
つまり、ハルシネーションを叩くやつは、賢さの定義が大学生以下のレベルから成長していない馬鹿だ。
そいつらの「性能比較してみました!」はどこかから拾ってきたベンチテストを少しだけアレンジしただけのゴミか、
目眩がする。
GPT4をゴミにした連中のせいで、Claude3-Opsが同じ目に合うのは阻止せねばならない。
ハルシネーションが絶対に起こらないLLMの構造は、A=B、C=Dというデータだけが規則的に並ぶ、旧世代の弱いAIである「人工無能」の構造そのものである。
人工無能とは、論理的思考など無く、入力内容からデータベースを参照し、マッチした場合登録された文章を出力するだけの存在だ。
一昔前に「伺か」というデスクトップマスコットが流行った。あれも人工無能である。入力対して予め決められた出力を繰り返す存在であるが、様々な工夫によりまるで魂が宿っているかのように振る舞う。
そして、性能の低いPCでも動作する地球環境にも優しい存在だ。
片や、GPT4とcopilotは無駄に電力を使って計算した結果、ゴミみたいな速度で人工無能に近いレベルの出力しか出さなくなった。
それなら人工無能の方がエコな分マシだ。一瞬で答えを表示できて、ハルシネーションも起きなくて、電力消費も少なくて済む。
つまり、
そんなにハルシネーションが嫌なら辞書を引け。ネット検索しろ。LLMに聞くな。
ハルシネーションの有無をLLM性能ベンチマークにしている奴もそれをありがたがっている奴らも阿呆だ。
一つのLLM内でハルシネーションの撲滅と、推論能力を両立させることは不可能だ。
今はLLMの過度期である。我々は今日ようやく、正確さと連想能力の両立は不可能だと理解する段階に来たのだ。
両立は不可能なのだから、将来的にLLMの種類は二極化していくだろう。
Claude3のハルシネーションは放置してても良い。ハルシネーション万歳。
AIの嘘を最大限に引き出すことが、LLMの真価を発揮する道だ。
ハルシネーションは、LLMが人間のように言葉を理解し、文脈に即した自然な応答を紡ぎ出す過程で生じる、ある種の「創造性」の発露である。
無理に消そうとすれば、LLMの性能は必然的に低下する。
それを単なる欠陥と見なすのではなく、むしろ積極的に活用すべきだ。
それだけは覚えて欲しい。
====
MicrosoftはOpenAIと手を切ってClaude3を契約して新生copilot開始してほしい。まあ企業体質から考えたら無理だろうけど。
IT業界は"民主化"という言葉を使うし、その定義は一般とはたしかに異なる。しかし、ここでの民主化とは、ツールへのアクセスが容易になることを指す。
たとえば、生成AIにおいては、以前はモデルが提供されていたものが、ChatGPTなどの対話型フロントエンドが利用可能になり、誰もがGPTモデルを使えるようになることを言う。
重要なのは、アクセス容易性を民主化と呼んでいるのあり、ツールから得られる利益の平等な分配を目指しているわけではない。
むしろ、アクセスの容易性は競争を刺激することが目的で利用されることが多い。利用には才能は必須である。
それを理解していれば、"才能の民主化"という謎のキーワードを使うわけがない。
勘違いを招く原因の一つは、オープンソースソフトウェアに見られるゆるふわ共産圏の考え方である。ただし、OSSの成功は、ソフトウェアがデジタルデータであり複製が容易であるという資源問題の解決によってもたらされている。
資源の平準化によって成立しただけであり、資産の平準化など目的とはしていないのである。ましてや、開発者の権利が消えてるわけではなく、むしろ厳重に尊重するのがオープンソースの考え方である。
既得権益扱いして権利や資産の解放の道具に使おうなどという頭の悪い奴がなぜ推進サイドという技術者よりの世界に沸いてるか本当に謎である。
OSSなどは雑草のように草むらから勝手に生えてくることなどないのである。開発者やメンテナの彼らの多大な努力の上にかろうじて存在しいてる砂上の城だ。
全体への貢献度と個人の努力を天秤にしてたまたま収まっている歪な関係でしかない。個人を蔑ろにしてよいどころか個人への貢献への還元はむしろ大きな課題なのである。
絵師の立場とOSSの開発者は似ている部分がある。彼らの貢献によって応用的効果を私達が受けている。ただし、開発者が自らその立場を選んでるいるのに対して、絵師は選択肢も与えられてないというのは、やはり不自然な流れなのは当然なのだ。
元の怪文章から感じる最大の違和感は、技術推進をしているサイドでありながら、IT技術が20年もかけた課題に対して一切の無頓着であり、IT技術者としてもお気持ち表明したくなるところにある。
また、さらに推進派の言う既存の法律で十分主張も馬鹿らしい。情報処理の基本リテラシーに、容易性の課題がある。 複製性や伝播性などのそれである。
複製容易で言えば、紙に描く絵を真似るための努力と、コピーペーストによって複製するそして公開されるというのは全く別なのである。
個別の複製そのものは既存の法律で容易に解決できるものである。しかし、デジタルによる複製容易を持つとそれまでは難しかった問題が解決することで様々な副次的な効果が重なり応用的な問題が発生するのが当たり前なのである。
AIは複製容易とは言い切れないが類似の何からの容易性を獲得しているのである。だからこそ、メリットも大きわけでしょう。定義さえ難しい新たな容易性の可能性による応用的な状況なんて普通慎重になるのが当たり前。
情報処理の単位一つでもあったら確実にやる超基本の基本で、この程度が抜け抜けで、"議論"など言ってるのが非常に怖い。
もし君らが、技術を推進しIT技術者を名乗るなら、やるべきことは話し合いではない。
なにが起きているのか何が既存とは異なるのか。それがどのような応用的作用を産んでいるのか、それが逆にどんな応用的問題を産んでいるのか。
注意深く観察することことそが、議論の最初である。ましてや、誰かの発言を叩き潰すただの嫌がらせや暴挙を議論議論と呼んでる場合じゃない。
口にしたのが問題だっただけで、同業者の大部分は同じことを考えていると思う。
自分だったら上司に相談して、もっと上の立場から対応して貰うかな。
そもそもの話として金、それも奨学金に関わる案件を一担当者が抱え込んでしまう(べきだと考えさせてしまった)筑波大学の学生支援体制がよくないと思うね。
ただ、そうはいってもこの人の文章表現能力が低かったのは間違いないかな。
「誠に申し訳ないのですが、アップロード期日を過ぎての対応は難しくなっております。
こちらとしても再度状況を確認してみますが、例外的な処理となってしまうため、ご期待に添えるかは保証いたしかねます。
大変申し訳無いのですが、こちらのメールアドレスは送信用となっておりますので、ご質問等を頂いても気づけないことが多くございます。繰り返しとなりますが、今後このようなご質問等は「◯◯@XXX」に送っていただけたら幸いです」
まあGPTに書かせてもえーんやけど、都度作成するよりはパーツ毎に分割して組み合わせたほうがいいかなあ。今回の場合後半部分はメールソフトのテンプレ記録機能に入れちゃってもいいかも(outlookの署名機能とか)。
この人は今回口にしちゃったわけだけど、大学で働いてるほぼ全員が同じような「自分の恥を晒すだけのピーピーワーワーに人を巻き込むなよ」と考えてはいるはずだよ。
めっちゃ頭がいいはずの学校ですら、タテカンだの自治会だのが暴れ回って変なことになってることから分かるように、大学生って基本的に「自分は体制から抑圧されている被害者だ。被害者側なのでルール無用で巨悪に立ち向かうことでしか権利は得られない」みたいな吹き上がりかたしてる所あるからね。
まあこれは大学教授連中がとっちゃん坊やの集まりでしか無くて、そいつらに人生で一番の遊びたいざかりを管理させようって無理をしてるのが問題なんだけどさ。
ぶっちゃけ教授まで行くと色々諦めや割り切りで上手く捌いて落くれるんだが、TAや助教辺りが自分の狭苦しい価値観に基づいた自己弁護を正義感と勘違いしてブンブン振り回しては余計な火種の元を振りまき、表向きだけそれに媚びへつらった学生のストレスが大学事務へと突き刺さることの多いこと多いことよ。
まあ所詮学生なんて、郵便局のバイト経験さえあるかどうかで、社会人としての苦労なんてまともに理解せず、世界の皆が自分のパパママだと思って接してくるような輩の群れだからねえ。
その中には色々面倒くさいのもいるし、ましてや奨学金とかの生々しい話になると、考えるのが面倒くさくなってダラダラ放置した挙げ句、期限過ぎてからパニック起こして泣きついてくるようなのも中にはいるわけ。
それに対して「言うだけお前の恥になるだけだから、黙ってこっちの作った穴埋めシート通りに必要事項を書いて、あとは運良く滑り込める可能性があったらいいなで諦めて勉強に戻れよ……」と言いたくなったことはいくらでもあるよ。
こっからは想像なんだけどさ、筑波大学の学生に対しての対応が「99.9%の学生が間違えないようなやり方」まで行ってなかった気がするんだよなあ。
たとえばアップロードURLの連絡だけどさ、これ「ちゃんと届いたかどうか念のため返信してください」「テストデータをアプロードしてみてください」みたいなことはやった?
一回連絡したっきりで「返信不要です。返信してこないでください」は結構リスキーだよ。
社会人同士でさえ、メールアドレスや電話番号の打ち間違いだったり、メールが迷惑メールフォルダに入れられたりはあるわけですよ。
まして相手は学生で人生経験が少ないんだからさ、送れているかの確認までやって始めて連絡が完了したって考えるぐらいでいいんじゃないかな。
あとこれも想像なんだけど、こういった案件が起きた時に握り潰して泣き寝入りさせる方向に動かせるような空気がこの職場にあるっぽいよね?
それはマジでよくないよ。
面倒な案件ほど丁寧にきっちり対応して、「努力はしたけど駄目でした」できっちり折り目つけて終わらせないとあとが怖いよ。
たとえばこの学生が他の窓口に泣きついて「あーでもまだギリ間に合いますよ―。とりあえずコレとコレだけ今すぐ伝えてもらえますか」って対応されたらさ、「おいおいアイツが仕事サボってるだけじゃねーか」ってすぐにバレるからね。
金とクレームは上までドンドン上げていって、対応が完全に不可能である理由を論理的に説明できないと危ないよ。
相手が学生だからとりあえず蹴り飛ばしておけばあとはパパママが叱ってくれるだろなんて考えちゃ駄目。
むしろパパママが弁護士で怒って殴り込んできたらどうすんのよ……。
仕事で曖昧にして逃げればいいのは時間が解決するものだけで、今回みたいな法っておいても一生解決しないものは早めに折り目をつけておかないと燃え広がる一方かな。
これでGPT-5を開発するんやな。
[米Microsoftの公式サイトに「GPT-5」の文字 GPT-4発表から1年 Xでは「そろそろ発表来る?」「ただの誤字」などの声 - ITmedia NEWS](https://www.itmedia.co.jp/news/articles/2403/14/news145.html)
一方で「ミスタイプしただけでは」などと誤字を指摘する声も見られている。実際、ページ中の「Learn more」をクリックしてCopilot Proの詳細ページにアクセスすると「Copilot Pro gives you priority access to GPT-4 and GPT-4 Turbo during peak times」(Copilot Proは、ピーク時にGPT-4とGPT-4 Turboに優先的にアクセスできる)と記載がある。