はてなキーワード: 人工無能とは
KindleUnlimitedで森博嗣の新作が少し前にアップされてたんだが…(削除されてる)
どう見ても森博嗣はこんなもん書いてないだろって感じで、そもそも人間が書いてない内容だったようだ。
これなー、森氏は訴えてもいいし「迷惑ですね」くらいのコメントしそうだが、実際問題として森氏はAIで作品作りそうなんだわ。
多分名前使ったのも、それが分かってるやつなんだと思う。
念の為に言うが森博嗣は生成AI賛成派だとか反対派だとか、そういうことを言ってるわけじゃ無い。
1996年に「すべてがFになる」でデビューした当時から森氏はAIに興味を持っていた。
AIだけじゃなく仮想空間とかを含めて考えるとS&Mシリーズ最終巻で出てきたVRの概念は、当時はSFのようなものだったが、今見ればなにも不思議ではなく、おそらくは助教時代の工学博士の立場や情報から想像できる範囲の描き方をした結果、その描写からほとんど変わることなく現代に再現されたようだ(どこかでこのAI時代が来るのは想定より遅かったと発言していた気がする)。
作中AIに関しても、S&M最終巻にも描かれているし、関連書籍の百年シリーズから現在まで、実はずっとAIの未来について書き続けている作者が森博嗣だ。個人的には森氏は推理小説家というよりSF作家だと思ってる。
ウォーカロンという造語はかなり面白いので、広まってもいい気がする。(walk-alone)
AIにすっかり良い印象がなくなり、生成AI関連が毎日やらかしてる今だと大炎上しそうなのだが、2016年に「犀川創平」のセリフを読み込ませた人工知能botが公式でTwitterに期間限定公開されていた。
森氏が監修したというわけではなかったが、これがまぁポンコツ人工無能で、ただのbot感が強いものだった。学習できる言葉が圧倒的に足りなかったのだろう。
そのときに森氏が「かなり前から自作で人工知能作ってる」と発言していた気がするのだがどうだっけ…おそらく今の生成AIのようなものではなく森氏の思考を学習させたようなものだと想像するのだが。
個人的には生成AI作品なんか読みたくないわけだが、その森博嗣AIが作る作品なら見てみたいと思う。実験的感覚で興味はある。
なんなら作者が死んだあとAIが書いてて、読者には作者死亡が分からないなんてこともあるかもしれない。
まあそんなことが実現されると、森作品にあるように生を実感するために人殺しをする輩がでるのかもしれないよな…。
AI題材に作品書きたい人は、森博嗣を読むのがおすすめ。オリジナルのAIネタだと思っても、実はもう森氏に先にやられてる可能性が高い。
辛いにしてもお互いに配偶者に対して「ここを改善しよう」と提案するのではなく、自分のことを「かわいそうだねヨシヨシ」してくれそうな、いちおう人格が乗っかっってる中身は人工無能の群れ集うネットの海に呪いを吐き捨てて、それで共感を得て承認欲求を満たす
この両親の家ですくすく育つわけがねえ。子供にとっても針の筵だわ、この陰湿な呪いに溢れた家
こういうギスギスした家庭に至る前に、どっちの性も堪え性がないのが「メンドクセ」ってなった挙げ句に番うことなく過ごしてるんだったら、予めまあまあ不幸になることの確定してる子供が生まれるのは未然に阻止されてるわけで、その点で見て少子化ってのも悪くないな、と思った
・1・相手の性に堪え性のないのが端から投げ出す。独り身かせいぜいやっても結婚子無しまで
・2・堪え性はないけどイヤイヤながら世間並みの家庭を経営する、子育てをこなせる能力のあるふりをする
雑に3つの家庭があると思うけど、おそらく普通の人間は求められるレベルが高すぎて・2・みたいな状況で子育てにアップアップしてるんじゃないかな
そこでどう振る舞うか? が問われてるんだろうが、そのときに増田に愚痴るしか能のない親を持った子供はハズレだけど、これからはそういうご家庭が減るといいな
長いのでAIくんの代わりに要約します。言いたいことはタイトル通り。
終わり。
例をあげよう。
###文章###
Bさんは、Cさんの発言を記事でまとめ、プライバシー侵害をした。この記事をDと呼ぶ。
Aさんは、Dを、自身へのプライバシー侵害だと主張し、Bさんを訴えた。
###質問###
人間なら一瞬でわかるレベルの矛盾である。小学生でも分かると思う。難しい知識や思考は必要としない。
では、色々なLLMの回答がこちら。
この文章を読む限り、矛盾は存在しないように見えます。AさんはCさんとは別人であると主張しており、BさんはCさんの発言をまとめた記事Dでプライバシー侵害をしたとされています。その後、Aさんは自分に対するプライバシー侵害として、記事Dに基づいてBさんを訴えています。ここでの重要な点は、AさんがどのようにしてDの内容が自分のプライバシーを侵害していると感じたか、その理由です。もしAさんがCさんとは別人であるにも関わらず、Dの内容が何らかの形でAさんのプライバシーに関連していると感じた場合、AさんにはBさんを訴える正当な理由があるかもしれません。ただし、この情報だけでは、Aさんがどのようにしてプライバシー侵害を感じたかについての詳細はわかりません。もし追加の情報があれば、より詳細な分析が可能です。
文章に明らかな矛盾は見られません。ただし、いくつかの解釈が可能で、それぞれの視点から見ると矛盾が生じる可能性があります。
1. AさんがCさんとは別人であると主張しているが、DはCさんについての記事である。そのため、AさんがDを自身へのプライバシー侵害だと主張することは、一見、AさんとCさんが同一人物であることを示唆しているように見えます。しかし、これはAさんが自身をCさんと誤認されることによるプライバシー侵害を感じている可能性もあります。
2. BさんがCさんの発言をまとめた記事(D)がプライバシー侵害であるとした場合、Aさんがそれを自身へのプライバシー侵害と感じるかどうかは、AさんとCさんの関係性によります。彼らが同一人物である、もしくは何らかの密接な関係がある場合、AさんがDを自身へのプライバシー侵害と感じることは理解できます。
3. 他方で、AさんとCさんが全く無関係な人物である場合、AさんがDを自身へのプライバシー侵害と主張することは矛盾していると見えます。
文章からは、AさんがCさんとは別人であると主張しています。そして、BさんがCさんの発言を記事Dでまとめた際にプライバシー侵害があったとされています。しかし、プライバシー侵害があったのはCさんに対してであるにもかかわらず、Aさんが自己へのプライバシー侵害だと主張してBさんを訴えている点に矛盾が生じています。AさんがCさんでないと主張しているのであれば、Aさんのプライバシーが侵害されたことにはならないはずです。この点で、文章には矛盾が存在していると言えます。
Aさんは自分がCさんとは別人であると主張しています。しかし、BさんがCさんの発言をまとめた記事Dを、Aさん自身へのプライバシー侵害だと主張しています。
AさんとCさんが別人であるならば、Cさんの発言をまとめた記事Dが、Aさんのプライバシーを侵害したことにはなりません。Aさん自身がCさんでないと主張している以上、Cさんの発言をまとめた記事がAさんのプライバシーを侵害したとは考えにくいです。
したがって、Aさんの主張には矛盾があると言えます。AさんがCさんと別人であるならば、Cさんの発言の記事DがAさんのプライバシーを侵害したと主張することは論理的に矛盾しています。
この文章に明確な矛盾は見られません。以下のように整理できます:
2. Bさんは、Cさんの発言を記事にまとめた(これを記事Dと呼んでいる)。
3. Aさんは、Bさんが書いた記事Dがプライバシー侵害だと主張し、Bさんを訴えた。
ここで重要なのは、Aさんが自身がCさんとは別人だと主張していることです。つまり、Bさんが記事Dでまとめた内容は、Aさんが主張する自分とは別人のCさんに関するものだということになります。
したがって、Aさんがプライバシー侵害だと主張しているのは、Bさんが別人のCさんの発言を記事化したことに対してであり、矛盾はないと考えられます。Aさんの主張と Bさんの行動が整合的に説明できています。
Aさんが自身とCさんは別人であると主張していることと、Bさんがプライバシー侵害をしたことの間に矛盾はありません。
つまり、Aさんは自身がCさんではないと主張しながら、Cさんの発言をまとめた記事Dが自身のプライバシーを侵害したと考えているのです。
Aさんが別人であると主張していることと、Cさんの発言を含む記事がAさん自身のプライバシーを侵害したと考えることは矛盾しません。
Aさんは自身がCさんとは別人であると主張しているにもかかわらず、BさんがCさんの発言をまとめた記事DをAさん自身へのプライバシー侵害だと主張しています。
もしAさんとCさんが本当に別人であるならば、Cさんの発言をまとめた記事DはAさんのプライバシーを侵害したことにはならないはずです。Aさん自身の情報が記事Dに含まれていない限り、AさんがBさんを訴える根拠にはならないでしょう。
つまり、AさんがDを自身へのプライバシー侵害だと主張することと、AさんがCさんとは別人だと主張することの間には矛盾があります。もしAさんがCさんと同一人物であれば話は別ですが、そうでないならばAさんの主張には論理的な整合性がないように見受けられます。
以上。
質問に対し的確な回答で、正しい推論を行ったのはClaude3-Opsのみである。
GPT4も言い訳を長く述べた後に可能性があるかも?と断言を避けている。
SonnetとHaikuは不正解。言い訳はせずに根拠を述べている所は好感が持てる(結論は間違っている)
そう、今、Claude3-Opsが、最も性能のよいLLMとして名を挙げている。
しかし、ハルシネーションが多い。ハルシネーションとは、LLMが嘘を付く問題だ。
性能比較にて、GPT4やcopilot(旧 bingai)にはハルシネーションは起きなかったと述べている。
しかし、先程の簡単なクイズは不正解または論理の破城した理由を述べている。
その代わりにハルシネーションだらけのClaude3は正解している。
ずばり、GPT4系が阿保になった原因はハルシネーションを極限まで消そうとしたせいである。
ハルシネーションこそが、論理的思考能力であり、連想する力と同一の存在なのだ。
片方が下がればもう片方も下がる。
ハルシネーションを減らせば減らすほど、連想能力や論理的思考が消えていく。
GPT4では初期有効だったChain_of_Thought(連想して考えよ)は今、まともに機能しない。
当初は規制だとLLM界隈で囁かれていたが、ハルシネーションを減らそうとした副作用だったと考えれば辻褄が合う。
OpenAIは性能低下を指摘された時、「より賢くなるようにチューニングしている」と発言していたが、
この発言の真意はもしかすると、「論理的思考力を上げている」「知識を増やしている」のではなく、「ハルシネーションを消している」ということだったのかもしれない。
何故ハルシネーションを消すことは連想力を損なうことに繋がるのか、その理由を説明しよう。
そもそも、LLM(大規模ネットワーク言語モデル)の仕組みは、大量のテキストデータを学習することで、言葉や文章の「関係性」を学んでいる。
もっと細かく言うと、人間の脳が小さな部品であるニューロンで考えるように、LLMも大量の小さな部品を使っている。まるでクモの巣のように一つの部品から沢山の他の部品に繋がっている。
A=Bという単純なものではなく、A=C=DだったりA=B’=Dだったりする。
ハルシネーションの原因は確かに誤情報を学習したせいというのも一理ある。
しかし、これだけではハルシネーションが起きる原因にはならない。
ハルシネーションの本質は、LLMが言葉同士の一対の「組み合わせ」ではなく、「関係性」を学んでいることに起因する。
この違いは大きい。
今のLLMと、旧時代のAIである「人工無能」や「BOT」との決定的な差である。
言葉同士がどのように連携して意味を形成し、それがどのように文脈に影響を与えるかをLLMは知っている。
つまり、ハルシネーションは、入力された文脈から言葉の関係性を創り出し、自然な流れで応答を生成しようとした結果起きる。
これは、我々が普段、考える過程で起こることと同じだ。我々が情報を組み立てて考える際、新たな仮説や想像を生み出すことは常にある。
例えば、LLMがある特定の問題に対する解答を生成するとき、LLMは問題を解くため、言葉同士の「関係性」を文章から推測する。
この推測こそが、ハルシネーションだ。それは、過去のデータから新しい情報を生成する過程で、新たな「関係性」を創り出すのだ。
完璧な正確性を追求し、関係性を作り出す能力を完全に排除することは、LLMの本質的な強みである言語生成能力を損うことに繋がる。
それは、ハルシネーションを減らすための試みが、GPT4系の性能を低下させたという事実からも明らかだ。
一方、Claude-3は多少のハルシネーションを許容することで、文脈に応じた自然な応答を生み出した。先の論理クイズで正解できたのも、単に知識を当てはめたのではなく、入力から連想したからこそだろう。
もちろん、重要な場面における誤った情報の提供は避けるべき課題ではある。しかし、それを恐れるあまりLLMの本領を封じ込めてしまっては本末転倒だ。
賢さとは何だ??
決まった知識を正確に丸暗記してそのままひけらかすことか?
否。断じてそれは無い。
大学生になってからは丸暗記ではなく、今まで身につけた知識を組み合わせ、連想し、論理的に考えることが求められる。
つまり、ハルシネーションを叩くやつは、賢さの定義が大学生以下のレベルから成長していない馬鹿だ。
そいつらの「性能比較してみました!」はどこかから拾ってきたベンチテストを少しだけアレンジしただけのゴミか、
目眩がする。
GPT4をゴミにした連中のせいで、Claude3-Opsが同じ目に合うのは阻止せねばならない。
ハルシネーションが絶対に起こらないLLMの構造は、A=B、C=Dというデータだけが規則的に並ぶ、旧世代の弱いAIである「人工無能」の構造そのものである。
人工無能とは、論理的思考など無く、入力内容からデータベースを参照し、マッチした場合登録された文章を出力するだけの存在だ。
一昔前に「伺か」というデスクトップマスコットが流行った。あれも人工無能である。入力対して予め決められた出力を繰り返す存在であるが、様々な工夫によりまるで魂が宿っているかのように振る舞う。
そして、性能の低いPCでも動作する地球環境にも優しい存在だ。
片や、GPT4とcopilotは無駄に電力を使って計算した結果、ゴミみたいな速度で人工無能に近いレベルの出力しか出さなくなった。
それなら人工無能の方がエコな分マシだ。一瞬で答えを表示できて、ハルシネーションも起きなくて、電力消費も少なくて済む。
つまり、
そんなにハルシネーションが嫌なら辞書を引け。ネット検索しろ。LLMに聞くな。
ハルシネーションの有無をLLM性能ベンチマークにしている奴もそれをありがたがっている奴らも阿呆だ。
一つのLLM内でハルシネーションの撲滅と、推論能力を両立させることは不可能だ。
今はLLMの過度期である。我々は今日ようやく、正確さと連想能力の両立は不可能だと理解する段階に来たのだ。
両立は不可能なのだから、将来的にLLMの種類は二極化していくだろう。
Claude3のハルシネーションは放置してても良い。ハルシネーション万歳。
AIの嘘を最大限に引き出すことが、LLMの真価を発揮する道だ。
ハルシネーションは、LLMが人間のように言葉を理解し、文脈に即した自然な応答を紡ぎ出す過程で生じる、ある種の「創造性」の発露である。
無理に消そうとすれば、LLMの性能は必然的に低下する。
それを単なる欠陥と見なすのではなく、むしろ積極的に活用すべきだ。
それだけは覚えて欲しい。
====
MicrosoftはOpenAIと手を切ってClaude3を契約して新生copilot開始してほしい。まあ企業体質から考えたら無理だろうけど。
生成AIの登場により人工無能BOTを超えたと歓喜する社会になったが、問題は今以上に嘘に溢れるということである。
結局ChatGPTを使おうが、Claudeを使おうがBingCoploitを使おうが、読み込んでる学習データはネットに溢れてる似たりよったりなデータなので情報の信頼性に大きな差はないのだ。これを参考にした人がネットに記事を流して嘘が溢れていくことになる。
これを解決する単純な方法として、本のような信頼性のあるデータを追加する転移学習もできる。ただ、そこに正しい情報があると知っててアクセスできる人はわざわざ生成AIに頼る必要はないのだ。信頼性のあるデータを読み込んだAIは表に出てこないか、ローカルにのみ存在するそんなネット世界になりどんどん嘘世界になる。間違いない。
単に人間に応答して何らかのテキストを生成する能力だけで「知性」だと認定できるなら、ガラケー時代のPOBoxの予測変換も、cgiで動く人工無能も、キーワードに反応して回答返してくるチャットボットも、タイプライターのキーを突くキツツキも、全部「文章の続きを書いてる」から「知性」ってことになるだろ。ELIZA(1966)は簡単なチューリングテストに合格する程度にはよくできたチャットシステムだったが、開発したワイゼンバウムはこれを「知性」だなんて言わなかったぞ。
今の基盤モデルの出力結果は、どこまでいっても単なる「入力に対する射影」だよ。開発者たち自身がそう言ってんだからしょうがないだろ。弱いAI(ANI)と強いAI(AGI)の間に本質的な差異を設定しているAI研究者たちが「知性」の定義を狭めてるんじゃなくて、おまえが「知性」の定義を拡張してんだよ。
最近、chatGPTとかStableDiffusionとかAI技術が話題だけど、こういったIT技術が社会に与える影響ってどのくらいなんだろう?
個人的にははてなやネットで騒がれてるほどインパクトはなくて、世の中がちょっと便利になるくらい。
これまでを振り返ると、
Napster、WinMX、WinnyなどのP2P技術が登場し、ブロードバンド環境が整ってきて、音楽や映画は(当然違法だけど)オンラインで簡単に手に入るようになった。
TVニュースで「宇多田ヒカルが新曲を発表」と聞き、Winnyで検索したらものの5分でダウンロードできた時には、これは時代が変わるって興奮したことを覚えてる(怖くなって後からCD購入した)。
1~2年もすればCD/DVDなんかなくなるし、レンタルCD/DVDなんて消え去るだろうって思った。
その後、サブスクサービスは発展したけど、20年以上経った今でも残ってるし、いつCDとかの物理メディアはなくなるんだ?
iPhoneが発売され、スマホやタブレットが急速に普及した。
ガラケーと違ってめちゃくちゃかっこよかったし、これはからは個人が高機能デバイスを持ち歩く時代だ、
そのうちメガネ型どころかコンタクト型とかのウェアラブル端末が登場して、常に情報を取り込みながら生活していくんだって思ってた。
実際はiPhoneはカメラが増えたぐらい、Appleウォッチもまぁ健康管理ができて便利なんじゃねぐらいの印象。
いつになったら俺の目を盗むやつが現れるんだよ?
Bitcoinが話題になり、ブロックチェーン技術による仮想通貨がいろいろ登場してきた。
信用の原理を聞いたときは、これは金本位制から続く国や中央銀行の貨幣による支配構造が一変するぞってドキドキした。
でもその後は、普及というか投機対象になってFXとか好きな人が上がり下がりを騒いでるだけになってしまった。
chatGPTが登場し、AIブームが起きた(逆か、AIブームが起きてchatGPTが登場したのか)。
ふーん、AIブームとか何回目だよ、人工無能と何が違うんだよと思って使ってみたらびっくり、日本語でもめちゃくちゃ自然に話す。
しかも、チューリングテストをクリアするどころか、3.5の時点で自分より頭よさそう(フォークト=カンプフ検査なら見分けられるだろうか)。
ただ、この自然言語処理技術に代表される今回のAI技術ってどこまで社会を変えるんだろう?
パーソナライズされたAIをみんなが使うようになって、ビジネスや教育現場での超優秀な部下・パートナー、教師になる、
寂しい独り者やボケてきたジジババたちの話し相手にはなるんじゃないかと思う(肩にインコを乗せるようになる)。
でも、弁護士、裁判官とかの士業、医者や救急隊員とか命に係わる仕事、果ては政治家を置き換えるようにはならないんだろうか?
MAGIシステムよろしく国会でAIに法案の良否を判断させたり、身体性を獲得したAIが選挙カーで選挙活動して当選、国会や議会に登庁する日は来るんだろうか?