「gpt」を含む日記 RSS

はてなキーワード: gptとは

2024-04-25

お前の意見よりWikipediaのほうが信頼できるし、お前の考えよりチャットGPTのほうが多分正しいよ

そもそもどうせお前の「考え」「意見」ってTwitterとか増田でみたお前の同類たちが喋ってた話のコピペ改変だろ?

それよりはチャットGPT丸呑みにしたほうがマシだよ

2024-04-21

他人活躍しているのを見るだけで辛い

子供の頃野球選手になりたかった夢を未だに引きずり続けている工場勤務のおっさん」 

子供の頃アイドルになりたかった夢を未だに引きずり続けているコールセンターのおばちゃん

そういう生き物がいるらしいって昔聞いてたけど、自分がそういうたぐいの連中の仲間入りする所は想像してなかった。

頭の中じゃ今でも色んな夢を追いかけて空想してしまう。

脳内ノーベル賞の6分野だったら全部取ったことあるぜ。

自分が本当に何者になりたかったのか思い出せないまま今も生きている。

仕事を通して突然世界ヒーローになってしまえる可能性は一切感じない。

勤続年数が自分の1/3に満たない新入りにも抜かれるぐらいには才能がないから。

頭数合わせの冴えないオッサンとして、最低限の仕事をしながら歯車として仕事を回す。

それで手一杯だから休日はただダラダラと妄想をしながら昼寝したり、ネトフリ見ながらネットサーフィン

何者かになれてしまった人間を見るのが辛い。

自分と同い年ぐらいの成功者を見かけると自分人生と何が違ったのか考えてしまう。

自分より若くして成功してる連中はもう理解不能生物だ。

だけど本当に才能の世界で生きているフリークス達の存在に対しては、なんかもうあきらめが付くんだよな。。

プロ棋士スポーツ選手みたいな異次元存在自分を比べても無意味だ。

乙一デビュー作が16歳で書かれたなんて聞かされても相手は化け物だからどうでもいいと割り切れる。

一番質が悪いのは、仕事の中でそれなりに成功を収めてる感じの人達だ。

なになにのシステム開発に貢献したとか。

どこそこの事業重要役割を担ったとか。

そういう名刺代わりになるような経歴を手に入れた普通労働者を見かけると自分と比べてしまう。

俺はきっとそういう風にはなれないだろうし、なってしまうとプレッシャーで押しつぶされそうだから避けて生きてきた節さえある。

だけど、そういうなにかになりたい気持ちはあるんだよな。

この世界に生きた証が欲しいとかそういう言葉表現されるような感覚だ。

俺の場合はこの世界で生きる資格自分にあると胸を張って生きていける何かが欲しいって感じだけど。

この感覚そもそも毒されているんだってことは自分で気づいている。

結果を出さなきゃ胸を張って生きられないなら、生まれつき障害がある人や病気でずっと入院してる人はどうなるんだって話だ。

シルバーさんとして労働もしてない年金食いのジジババは社会お荷物からトット死ねなんて言って回る気はないんだ。

そのはずなのに、自分がこの世界で生きるためには何か結果を出す必要があるんだって緊張感にいつも包まれている。

結局、実際に言葉や行動に出してないだけで、心の何処かで生産性の低い人間社会のためにさっさと死ねと思っているんだろうな。

俺が向き合うべきは結果を出せない自分人生のほうじゃなくて、結果を出さなければ生きる権利がないっていう基本的人権ガン無視価値観に毒された自分世界観なんだと思う。

今の状態で下手に結果を出してしまったら、まだ結果の出てない人達死ね死ねと唾を吐きかけていく化け物に変わってしまいかねない。

どうしたらいいのかわからないんだ。

ぶっちゃけ社会がそういった価値観で染まっているから、俺もそれに染まっているだけな気はするんだよな。

少なくともリーマン・ショックの直後の世界では、本当に世界はそんな色で染まっていて、その中で切り捨てを恐れた老人たちが全部の責任若者押し付けようと世論誘導したことで毒が濃縮されて凄いことになっていたわけだ。

社会に余裕があれば全ては解決する。

でも俺は才能がないか社会に余裕を生み出せない。

自分が今やっている仕事社会に余裕を生み出すために役に立っているという実感が持てれば……いや、その場合社会に余裕を生み出すのに貢献していない他の人間死ねと言って回るようになるだけだな……。

やはり、精神の形そのもの矯正するしかないな。

GPTにでもカウンセリングしてもらおうかな。

2024-04-20

MetaのオープンソースLLMのLlama3

二日前にMetaがオープンソースの大規模言語モデルのLlama3を出した。

一つ前のモデルLlama2は色々なオープンソースモデルの基となっていたモデル。このモデル性能良いねと思って見たら、Llama2をいじったモデルだったことがよくあった。

今回も、2つのモデルが発表された。70Bと8Bモデル。70Bモデルともなると、ほぼ個人パソコンでは動かないだろうけど、性能については、LLM のリーダーボード最初期のGPT-4 を超えている。

LLMの最重要論文とも言われる"Attention is all you need."の著者の一人の会社が出したモデル"Command R+"が性能が良くて話題になっていた。これもオープンソースだが、今のところこのモデルにも勝っている。このレベルモデルオープンソースであるということはとても価値がある。

ここ一、二ヶ月でようやくGPT-4 と互角に戦えるモデルが出てきた。一時期はClaud3がGPT-4を追い抜いた程だ(OpenAI が本気を出してGPT-4を強化して追い抜き返したんだけど)。もうGPT-4が出て1年が過ぎた。研究者リソースなどは過去に類を見ない程注ぎ込まれたと思うが、GPT-4と同じ性能のモデルはほぼ1年経たないと出てこなかった。OpenAIの凄さがわかる。GPT-4か出てきた当初はあまりの性能の良さに本当にシンギュラリティが起きたんじゃないか驚愕したが、一年使い続けると、粗やら推論能力の低さに気が付いてくる。今年中に出るであろう、GPT-5に期待だ。

LLMの性能リーダーボードhttps://chat.lmsys.org/?leaderboard

2024-04-18

anond:20240418095610

やっぱり書いてない事を読んでるな。どこに「満足」なんて書いてあるの?

これもChat GPTに教えてもらえって煽るつもり?

凄いバイアス絶望的だ。世界が鈍色に見えてそう

anond:20240418093404

どこにもを「ChatGPT様のお通りじゃぁ〜!!!」と言う意図が読み取れる部分が無いんだけど。

「Chat GPTの答え」って回答例って意味でしょ普通に

まさに確証バイアスじゃん。

自分バイアスに気付いてない?

問:以下の文章を読んで設問に答えよ

ある増田は、

が同じレベルの話である、と認識してしまいました。

問題

- 問1:増田の歪んだ認知の根源になっていると思われる、思想信条について予測しなさい

  • 問2:なぜこのような人間になってしまったのかを予想しなさい
  • 問3:上記2問に基づいて、増田の様にならないためには何を心掛けるべきかあなた感想を述べなさい

Chat GPTの答え

問1:思想信条についての予測

増田が持つ思想信条には、おそらく確証バイアス(Confirmation Bias)が深く関与していると考えられます。このバイアスは、個人自身既存の信念や意見を支持する情報だけを選択的に受け入れ、反対または矛盾する情報無視する傾向を指します。増田は数十年にわたるデータに基づく予測と、全く根拠のない極端な主張を同等に扱ってしまっているため、彼の信じたい内容に対する過度の執着が認識の歪みを生んでいる可能性があります

問2:このような人間になってしまった原因の予測

この種の認知の歪みは、しばしば個人過去経験や育った環境教育レベルに深く根ざしています。また、情報を取るソース限定されているか一方的情報ばかりに晒され続ける環境にいると、こうした認知歪みが強化されることもあります社会的孤立エコーチェンバー同意見の人々だけで囲まれ環境)にいることも、現実多様性認識する能力を低下させる要因となり得ます

問3:増田のようにならないための心掛け

増田のような認知の歪みを避けるためには、多角的視点から情報収集し、様々な意見に耳を傾けることが重要です。批判的思考を養うために、情報の出典を常に確認し、その信憑性バイアス考慮することが求められます。また、自分の信じたいものだけを信じるのではなく、異なる視点から意見データにも開かれた心で接することが重要です。これには、教育自己啓発を通じて常に学び続ける姿勢も含まれます

このような対策を心がけることで、現代社会における情報洪水の中でも、より健全バランスの取れた視点を維持することができるでしょう。

月2000円程度のサブスク教えて

1000円ならネトフリとかフールーとか色々あるけど

2000円前後はどうかな

格安SIMU-NEXTNHKくらいしか思いつかない

チャットGPTやダゾーンは3000円超えになってしまった

2024-04-14

anond:20240414122744

最適化だけしてた人たちに頼んでたのがそのレベルだとGPTで済むようになってきたな

React+MUIのメニュー機能がどうのとか知ってるか知ってないかだけみたいなしょーもないのはChatGPTでいいわってなってる

2024-04-10

欧州の電力市場で何が起きているか

考えをまとめるために書いているので長くなってしまった。

なので最初にChat GPT要約をおいとく。

要約

再エネ以外に投資が来ない。

投資マネーが再エネに集まり既存電源に行かない状況が続いている模様。

再生可能エネルギーは、施設製造建設・設置、さら運営ノウハウが溜まってきて再エネが安定した投資先と見做されてきており、潤沢な資金供給が続いている。

例えば、利回りなども、再エネ設備耐用年数を従来は20年などで計算していた。これは公的補助が20年だったと言う前提だが、次々と公的補助が終了した結果、耐用年数を30年以上で計算するところが増えていて、それらをミックスした投資商品が登場、安定した資金調達に繋がっているようだ。


一方で、相対的既存電源に対する投資が減っている。欧州でもエネルギー安全保障観点からイギリスフランスなどで原発新規計画が出てる。

今時、国の金だけでやると言う計画イギリスが建てるはずも無く、資金募集しているのだが、全然投資が集まらなくてかなり苦戦している。

これとは別の話として、エネルギー安全保障観点だと言っているのに、当初目論みの建設費で手を上げたのが中国企業中国"系"ですらない、中国国営企業しかないと言う状況で、これだとまずいと言う事で、新規設置の原発が生み出す電力の買取保証価格をつり上げたところ、なんと再生可能エネルギーの2倍から3倍の価格になってしまって問題化している。

エネルギーの安定供給安全保障観点という点では色々な電源をミックスするのは当然で、そういう点では単価の高い電力が混ざっても仕方が無い。

が、その国のエネルギー価格は、その国の国際競争力に直結する。製造業はもちろんのこと、ITデータセンターの立地、研究施設の立地など情報系にも影響してくる。

国策である程度電力価格コントロールできるからと言って、上げれば今度は国際投資が逃げていくということで、苦しい状況が続いている。

既存電源の採算割れ

欧州と言うより主にフランスでの問題なのだが、フランス原子力発電所で発電した電力を他の国に売ると言うビジネスを行っていた。

ところが、再生可能エネルギー市場を荒らすようになってしまったため、もくろみが崩れてしまって採算性が悪化している。


既存電源と再生可能エネルギーの違いは何かと言うと、限界費用が全く違う。再生可能エネルギーは、燃料費がないと言うところが大きくて、0円以上で売却できれば利益になる。というか、勝手に発電されるので止める意味が無い。

そのため、他の電源では燃料費が上回って赤字になるケースでも電力を市場に流す事ができる。そんなもの価格競争しても意味が無いので、例えば火力発電所は再エネの供給が大きくなったら発電を止めて、採算より高くなったら稼働すると言う事を行っている。

特にLNGガスタービンは即応性が高いため、再生可能エネルギー追従して運転をするのに適している様だ。


一方、そんな器用なことができない電源がある。

それが原発

原発は燃料を燃やしているにもかかわらず、再生可能エネルギーと似たような性質を持っている。発電を始めたら勝手に発電されるので止められない、出力調整が難しい、燃料費に比べて設備費・初期投資割合が大きいといったことだ。

そのため思いっき市場を食い合っている。再エネがピークで安い時は下手するとマイナス金額(つまり、売買に関わる諸経費を発電側が持つというようなもの)で売却される電力に対して経済面追従を迫られる。

それでも、再エネが担う割合が低いころは、それ以外の時間帯で収益を出すことが可能だった。しかし、段々と再エネだけで賄える時間帯が増えてしまい採算性が悪化しているのである


また、原子力発電所など大規模電源は30年以上の耐用年数を見込んで採算が取れるように投資商品にするのが一般的で、原発場合は40年以上も当たり前だ。その間当然リスクを見込んでるんだけど、変化が急激すぎてそのリスク範囲を超えてしまっていている模様。

これは時限爆弾みたいなもので、実はちょっとヤバいと思われる。

電源関係投資ってかなり安定的投資と見做されてる影響で、年金など公共性の高い投資商品に基礎的なものとして組み込まれていることが多く、吹っ飛んだら電力関係だけじゃ済まないと思われる。

そしてここが不安定なので、従来型の大規模電源開発投資が集まらない状況が続いている。

環境 テロリスト 団体はESG投資の結果だとか宣伝するし、それに呼応するように原発 村の盲信者 関係者が陰謀論じみたことを言ってるけど、実際には経済的リスクが大きい一方で、利益が少ないことが要因だと思われる。

今後の見通し

もはや後戻りができないぐらい進んでしまっている。この流れは止まらないだろう。

ただ、各種のデータを見ると本当にこれで電力の安定性大丈夫なの?と心配になるんだが、進んでいる源が経済という祟り神なので止めらんない。すると安定化する方法はそれに対応する電源開発なり大規模蓄電なり水素アンモニア製造するなりしかないと思われる。

実は、原子力発電所も、負荷変動に柔軟に対応するようなもの設計可能らしく、そういったものが出てくる可能性はある。が、投資基準再生可能エネルギーに対してになるので、それより優位なものが作れるかはわからない。

翻って日本

日本は電力の自由市場の中にはいないので、急激な変革に巻き込まれはいない。

また電力価格の決定が統括原価方式なので、例えば発電所を30年使うと設定して投資した場合原則的建設費などの初動費は30年間固定されて電力価格転嫁することが認められている。

ある意味再生可能エネルギーの固定価格買取制度によく似ているが、そちらとの違いは、稼働していない発電所の維持費も電力価格転嫁できる仕組みであるということ。

例えば原子力発電所で再稼働出来てない発電所は多くあるが、発電して無くてもそれらの費用は電力価格に乗ってきているし、原発が稼働してない分だけ維持している旧式の火力の維持費なども当然ここに乗っかってくる。

これによって電力価格の上昇を抑え、安定化すると言う効果があるのだが、ここ15年ぐらいの急激な環境変化に対応できなくなってきているのも否めない。

ただ、制度を続けていけば、急激な市場の変化は発生しないと思われる


と、国内だけを見てればいいのだが。

既に書いたが、その国のエネルギーコストは、その国の競争力に直結する。国際競争に晒されている今、エネルギーコストが高いと企業立地などを逃すことになるので投資が集まらなくなる。

直近の動きでは原発を再稼働させようという取り組みが継続して行われている。

原発燃料費よりも建設費・維持費がかかる。それらは再稼働しなくても電力料金に乗っかってる一方で、それに加えて燃料費割合の大きい旧式火力を回さなければならない。これが電力料金を上げる要因になっているのは確かだ。

から短期的には原発を再稼働させるということはあっているのだけれど、長期的に見ると、ライバルになり得る欧州再生可能エネルギーという安いエネルギー源を苦しみながらも獲得しつつあると言う事には追従出来ていない。

さらに、欧州環境対応大義名分に、自分たちの有利な点を伸ばすような、再エネを使った製品では無いと追加の関税を課して保護政策を実行してくるのも間違い無い。自由貿易どこいったって思うが仕方が無い。


日本でも再生可能エネルギーは最も安い電源になりつつある。

環境問題への対応はもちろんしていく必要があるが、今一度、エネルギーコストをどうやって下げていくのかと言う基本に立ち戻って電源の選択を考える時に来ていると思う。


その点では、洋上風力発電を巡る汚職が痛かった。かなり安い入札が行われていたのに、なんだかんだと理由を付けて不可とした。

その結果、国内商社と組んでいた海外電源開発会社投資を引き上げちゃったんだよな。

せめてそういうことは二度と無いようにしたい。

2024-04-09

anond:20240409221520

調べ学習君、素人が調べた気になっても正しい解釈できるとは限らないんだぞ。

もちろん、GPTとか使うなよ。

Chat GPTに要約と評論してもらった

記事の要約

評論

筆者は明らかに先入観を持って親友について語っている。親友性格や行動を独自視点解釈し、親友選択否定的感情を表している。筆者は親友の変化に対してショックと失望を感じており、これは親友に対する一定の期待や観念があったためと思われる。

また、親友人間性選択一方的批判する姿勢が見受けられる。

筆者は親友内面や状況を深く理解しようとはせず、自分視点から親友評価しているように感じられる。

このような先入観に基づいた視点は、筆者自身感情価値観を反映しているが、親友の実際の心情や状況を正確に捉えることは難しい。

ワイの感想

Chat GPTもこう言う批判的な評論することがあるんだなあ。まぁそう言われると全部主観だなこれ。

Chat GPTって「どこが主観で、どこが事実記述か」を旨く分離してくれるから、それを利用して冷静になるのはアリかもね。

anond:20240409160055

実はな、人間はもう俺とお前しかいないんだ。

他の増田は全部ちゃちゃっとGPTなの。

ごめんな。

2024-04-08

不思議体験をした。

気まぐれにchat gptに「円周率計算するプログラムを書け」と指示した。

いつものごとくchat gptはそれっぽい結果を返す。

数学的には円周率はある級数無限和で計算されるので、

級数の和nを入力するとそこで計算を打ち切って近似値を計算するプログラムということらしい。

なるほど、いかにもありそうな感じだ。

試しにいくつかのnでchat gpt計算させてみるとたしかに近似してるっぽい数値になっている。

そこで、chat gptの主張する公式(「レーマン公式」とか言っていた)をググってみると、

どうもそんな公式存在しないらしい。

ははーん、なるほどこれはいものchat gpt君の虚言癖だなと、

手元のphython環境でそのコードを実行してみると、案の定、chat gpt計算と違う結果になった。

これだからaiは信頼できないと、chat gptに嘘つきとチャットする。

不思議なのはここからで、

なんとソースに誤りがあったと修正版を提示してきやがった。

どうせデタラメだろうとphython環境でそのコードを実行してみると、今度はピタリと一致した。

nを増やして繰り返してみると、確かに真の円周率(3.141592653589793..)に収束しているように見える。

存在しない名前の、既知の公式に一致しない数式から書かれたプログラムが、

しか円周率計算できているようだ。

なんかこわい。

補遺1.

chat gpt の出力した公式は下記:

このプログラムでは、レーマン公式使用して円周率(π)の近似値を計算していますレーマン公式は、以下の無限級数を用いて円周率を近似します。

\pi \approx \sqrt{6 \sum_{k=0}^{n} \frac{1}{(k+1)^2}}


補遺2.

n=4000での円周率の近似値は 3.141568780556039 なので収束率はかなりわるい。

補遺3.

訂正

数式自体は正しいようだ。

https://ameblo.jp/power-of-yukichan/entry-12390630815.html

2024-04-05

Chat GPT による要約

この記事は、スポーツ推薦で高校入学したが苦労した著者の体験談です。要点は以下の通りです:

著者は自らの経験を通じて、苦境に立たされた生徒たちに希望勇気を与えるメッセージを伝えています。親へのメッセージとしては、子供人格や将来を否定しないよう呼びかけています自身の苦い経験を踏まえ、言葉の力とその影響を強調しています

anond:20240405001829

2024-03-31

anond:20240331124435

Gptcookpadのまとめさせたほうが役に立つ内容になったわ

いまどき(2024/03/31)のSSDクローンソフト

ノートPCSSD換装しようとして、2024/3/31時点の状況を誰かのためになるかもと思って書いておく。

なお当方まり詳しくない。

キオクシアのSSDを買うと、クローンソフトがない。

元のPC側のSSDメーカー提供してる場合があるから、そちらも探してみよう。

なお自分SAMSUNGだったが、SAMSUNG MagicianはOEM版には対応していない(しているのもあるかも)

では、無料クローンツールの状況を。


ソフト有償だと3000円くらいからなので、それならクローンソフトバンドルWDSAMSUNGやらの1サイズ大きいSSDを買ったほうがオトクである

と、おもうが…

誰かの役に立てば幸いである。

2024-03-27

anond:20240327172519

まあ日本語LLMはいくつか存在するが既存gptやclaudeを超えるほどでもない

あと実行が面倒 これが大きいやろな

ChatGPTやClaudeはクレカ20$払えば試せるが、ハグ顔のモデルローカル実行しようと思うとそうはいかん

2024-03-26

anond:20240324120105

この文章は、AI特にClaude3のハルシネーション能力を高く評価し、ハルシネーションを制限することはかえってAIの性能を低下させるという主張をしています。いくつかの点で同意できる部分もありますが、全体として見ると極端すぎる主張だと思われます

同意できる点:

ハルシネーションは完全に排除することは難しく、ある程度は許容される必要がある

ハルシネーションは推論能力創造性と関係している側面がある

正確性とハルシネーションのトレードオフ存在する

しかし、次の点では同意しがたい部分があります:

GPT-4がゴミ呼ばわりされているが、高い論理能力を持つことは事実である

ハルシネーションが多すぎると信頼性が失われ、実用的ではなくなる

全く制御されないハルシネーションを肯定的評価するのは行き過ぎている

ハルシネーションと正確性のバランス重要である

ハルシネーションへの過度な批判は確かに問題ですが、一方で過度のハルシネーションも望ましくありません。むしろ目的に応じてハルシネーションと正確性のバランスを適切に設定することが重要だと考えられます。現状のAIにはなおハルシネーションが起きやすい面があり、その制御課題ですが、それを徹底的に排除するのではなく、適切に許容する方向で研究が進められるべきだと思います

2024-03-25

anond:20240324120105

やっぱClaude 3契約すべきかなぁ?

Claude 3出てきて、GPT-4超えたみたいな話でてきたから、すぐOpenlAI動くかなと高を括ってたけど別にそうでもなかったし

数学関係リーゾニング能力はどうなんや

2024-03-24

anond:20240324120105

GPT4をゴミにした連中のせいで、Claude3-Opsが同じ目に合うのは阻止せねばならない。

もっとよく調べたほうがいいよ。

その理念継承してるのがAnthropic。

GPTより安全性を高めたAI作るためにOpenAIを抜けた連中がClaudeを作ったんだから

Claude 3がGPTよりハルシネーションが多いのであればAnthropicにとってそれは未完成品ということ。

AIハルシネーションを叩く奴は馬鹿。一生人工無能と会話してろ。

長いのでAIくんの代わりに要約します。言いたいことはタイトル通り。

ハルシネーションを叩くな」

終わり。


①各種LLMの性能比較

GPT系の今の性能はゴミクズマジで頭悪い。

例をあげよう。

簡単論理クイズだ。

###文章###

Aさんは自身はCさんとは別人であると主張している。

Bさんは、Cさんの発言記事でまとめ、プライバシー侵害をした。この記事をDと呼ぶ。

Aさんは、Dを、自身へのプライバシー侵害だと主張し、Bさんを訴えた。

###質問###

この文章矛盾はありますか?

簡単すぎる。もはや論理ですらない。

人間なら一瞬でわかるレベル矛盾である小学生でも分かると思う。難しい知識思考必要としない。

では、色々なLLMの回答がこちら。

  • Copilot(旧 bingai

この文章を読む限り、矛盾存在しないように見えます。AさんはCさんとは別人であると主張しており、BさんはCさんの発言をまとめた記事Dでプライバシー侵害をしたとされています。その後、Aさんは自分に対するプライバシー侵害として、記事Dに基づいてBさんを訴えています。ここでの重要な点は、AさんがどのようにしてDの内容が自分プライバシー侵害していると感じたか、その理由です。もしAさんがCさんとは別人であるにも関わらず、Dの内容が何らかの形でAさんのプライバシーに関連していると感じた場合、AさんにはBさんを訴える正当な理由があるかもしれません。ただし、この情報だけでは、Aさんがどのようにしてプライバシー侵害を感じたかについての詳細はわかりません。もし追加の情報があれば、より詳細な分析可能です。

文章に明らかな矛盾は見られません。ただし、いくつかの解釈可能で、それぞれの視点から見ると矛盾が生じる可能性があります

1. AさんがCさんとは別人であると主張しているが、DはCさんについての記事である。そのため、AさんがDを自身へのプライバシー侵害だと主張することは、一見、AさんとCさんが同一人物であることを示唆しているように見えますしかし、これはAさんが自身をCさんと誤認されることによるプライバシー侵害を感じている可能性もあります

2. BさんがCさんの発言をまとめた記事(D)がプライバシー侵害であるとした場合、Aさんがそれを自身へのプライバシー侵害と感じるかどうかは、AさんとCさんの関係性によります。彼らが同一人物である、もしくは何らかの密接な関係がある場合、AさんがDを自身へのプライバシー侵害と感じることは理解できます

3. 他方で、AさんとCさんが全く無関係人物である場合、AさんがDを自身へのプライバシー侵害と主張することは矛盾していると見えます

したがって、これらの視点から見ると、文章の中には解釈による矛盾存在する可能性があります

文章からは、AさんがCさんとは別人であると主張しています。そして、BさんがCさんの発言記事Dでまとめた際にプライバシー侵害があったとされていますしかし、プライバシー侵害があったのはCさんに対してであるにもかかわらず、Aさんが自己へのプライバシー侵害だと主張してBさんを訴えている点に矛盾が生じています。AさんがCさんでないと主張しているのであれば、Aさんのプライバシー侵害されたことにはならないはずです。この点で、文章には矛盾存在していると言えます

  • Claude2.1

はい、この文章には次のような矛盾があります

Aさんは自分がCさんとは別人であると主張していますしかし、BさんがCさんの発言をまとめた記事Dを、Aさん自身へのプライバシー侵害だと主張しています

AさんとCさんが別人であるならば、Cさんの発言をまとめた記事Dが、Aさんのプライバシー侵害したことにはなりません。Aさん自身がCさんでないと主張している以上、Cさんの発言をまとめた記事がAさんのプライバシー侵害したとは考えにくいです。

したがって、Aさんの主張には矛盾があると言えます。AさんがCさんと別人であるならば、Cさんの発言記事DがAさんのプライバシー侵害したと主張することは論理的に矛盾しています

この文章に明確な矛盾は見られません。以下のように整理できます:

1. Aさんは自身がCさんとは別人であると主張している。

2. Bさんは、Cさんの発言記事にまとめた(これを記事Dと呼んでいる)。

3. Aさんは、Bさんが書いた記事Dがプライバシー侵害だと主張し、Bさんを訴えた。

ここで重要なのは、Aさんが自身がCさんとは別人だと主張していることです。つまり、Bさんが記事Dでまとめた内容は、Aさんが主張する自分とは別人のCさんに関するものだということになります

したがって、Aさんがプライバシー侵害だと主張しているのは、Bさんが別人のCさんの発言記事したことに対してであり、矛盾はないと考えられます。Aさんの主張と Bさんの行動が整合的に説明できています

  • Claude3-Sonnet

この文章には矛盾はありません。

Aさんが自身とCさんは別人であると主張していることと、Bさんがプライバシー侵害したことの間に矛盾はありません。

具体的には、以下のように説明できます

まり、Aさんは自身がCさんではないと主張しながら、Cさんの発言をまとめた記事Dが自身プライバシー侵害したと考えているのです。

Aさんが別人であると主張していることと、Cさんの発言を含む記事がAさん自身プライバシー侵害したと考えることは矛盾しません。

したがって、この文章には明らかな矛盾はないと言えます

この文章には矛盾があります

Aさんは自身がCさんとは別人であると主張しているにもかかわらず、BさんがCさんの発言をまとめた記事DをAさん自身へのプライバシー侵害だと主張しています

もしAさんとCさんが本当に別人であるならば、Cさんの発言をまとめた記事DはAさんのプライバシー侵害したことにはならないはずです。Aさん自身情報記事Dに含まれていない限り、AさんがBさんを訴える根拠にはならないでしょう。

まり、AさんがDを自身へのプライバシー侵害だと主張することと、AさんがCさんとは別人だと主張することの間には矛盾があります。もしAさんがCさんと同一人物であれば話は別ですが、そうでないならばAさんの主張には論理的な整合性がないように見受けられます

以上。

質問に対し的確な回答で、正しい推論を行ったのはClaude3-Opsのみである

文章も読みやすい。

時点でGPT4-Turbo最後に答えを言っている。

GPT4も言い訳を長く述べた後に可能性があるかも?と断言を避けている。

Copilotはゴミ責任逃れの言い訳がしつこい。

SonnetとHaiku不正解言い訳はせずに根拠を述べている所は好感が持てる(結論は間違っている)


②Claude3-Opsの話と仮説

そう、今、Claude3-Opsが、最も性能のよいLLMとして名を挙げている。

しかし、ハルシネーションが多い。ハルシネーションとは、LLMが嘘を付く問題だ。

様々なニュースサイトブログで沢山の言及がある。

性能比較にて、GPT4やcopilot(旧 bingai)にはハルシネーションは起きなかったと述べている。

しかし、先程の簡単クイズ不正解または論理の破城した理由を述べている。

その代わりにハルシネーションだらけのClaude3は正解している。

ここで一つの仮説を提唱したい。

ずばり、GPT4系が阿保になった原因はハルシネーションを極限まで消そうとしたせいである。

ハルシネーションこそが、論理思考能力であり、連想する力と同一の存在なのだ

片方が下がればもう片方も下がる。

ハルシネーションを減らせば減らすほど、連想能力論理思考が消えていく。

GPT4では初期有効だったChain_of_Thought(連想して考えよ)は今、まともに機能しない。

当初は規制だとLLM界隈で囁かれていたが、ハルシネーションを減らそうとした副作用だったと考えれば辻褄が合う。

OpenAIは性能低下を指摘された時、「より賢くなるようにチューニングしている」と発言していたが、

この発言真意はもしかすると、「論理思考力を上げている」「知識を増やしている」のではなく、「ハルシネーションを消している」ということだったのかもしれない。


ハルシネーションを消すことが何故まずいのか?

何故ハルシネーションを消すことは連想力を損なうことに繋がるのか、その理由説明しよう。

そもそも、LLM(大規模ネットワーク言語モデル)の仕組みは、大量のテキストデータ学習することで、言葉文章の「関係性」を学んでいる。

もっと細かく言うと、人間の脳が小さな部品であるニューロンで考えるように、LLMも大量の小さな部品を使っている。まるでクモの巣のように一つの部品から沢山の他の部品に繋がっている。

A=Bという単純なものではなく、A=C=DだったりA=B’=Dだったりする。

ハルシネーションの原因は確かに誤情報学習したせいというのも一理ある。

しかし、これだけではハルシネーションが起きる原因にはならない。

馬鹿どもはそこを勘違いしている。

ハルシネーションの本質は、LLMが言葉同士の一対の「組み合わせ」ではなく、「関係性」を学んでいることに起因する。

この違いは大きい。

今のLLMと、旧時代AIである人工無能」や「BOT」との決定的な差である

言葉同士がどのように連携して意味形成し、それがどのように文脈に影響を与えるかをLLMは知っている。

まりハルシネーションは、入力された文脈から言葉関係性を創り出し、自然な流れで応答を生成しようとした結果起きる。

これは、我々が普段、考える過程で起こることと同じだ。我々が情報を組み立てて考える際、新たな仮説や想像を生み出すことは常にある。

例えば、LLMがある特定問題に対する解答を生成するとき、LLMは問題を解くため、言葉同士の「関係性」を文章から推測する。

この推測こそが、ハルシネーションだ。それは、過去データから新しい情報を生成する過程で、新たな「関係性」を創り出すのだ。

からこそ、ハルシネーションが起きるのは当然の帰結だ。

完璧な正確性を追求し、関係性を作り出す能力を完全に排除することは、LLMの本質的な強みである言語生成能力を損うことに繋がる。

それは、ハルシネーションを減らすための試みが、GPT4系の性能を低下させたという事実からも明らかだ。

一方、Claude-3は多少のハルシネーションを許容することで、文脈に応じた自然な応答を生み出した。先の論理クイズで正解できたのも、単に知識を当てはめたのではなく、入力から連想たからこそだろう。

もちろん、重要な場面における誤った情報提供は避けるべき課題ではある。しかし、それを恐れるあまりLLMの本領を封じ込めてしまっては本末転倒だ。

④LLMの賢さを制限する馬鹿

賢さとは何だ??

決まった知識を正確に丸暗記してそのままひけらかすことか?

否。断じてそれは無い。

それが賢さの基準になるのは受験生までだ。

大学生になってからは丸暗記ではなく、今まで身につけた知識を組み合わせ、連想し、論理的に考えることが求められる。

まりハルシネーションを叩くやつは、賢さの定義大学生以下のレベルから成長していない馬鹿だ。

ニュースサイトブロガーにはそのレベルの輩が大量に居る。

そいつらの「性能比較してみました!」はどこかから拾ってきたベンチテストを少しだけアレンジしただけのゴミか、

「これ辞書使ったほうが速くない?」レベル質問しかしない。

目眩がする。

LLMがいくら賢くなろうとしても馬鹿どもに潰される。

GPT4をゴミにした連中のせいで、Claude3-Opsが同じ目に合うのは阻止せねばならない。


ハルシネーションが絶対に起こらないLLMとは何か?

ハルシネーションが絶対に起こらないLLMの構造は、A=B、C=Dというデータけが規則的に並ぶ、旧世代の弱いAIである人工無能」の構造のものである

人工無能とは、論理思考など無く、入力内容からデータベースを参照し、マッチした場合登録された文章を出力するだけの存在だ。

一昔前に「伺か」というデスクトップマスコット流行った。あれも人工無能である入力対して予め決められた出力を繰り返す存在であるが、様々な工夫によりまるで魂が宿っているかのように振る舞う

そして、性能の低いPCでも動作する地球環境にも優しい存在だ。

片や、GPT4とcopilotは無駄に電力を使って計算した結果、ゴミみたいな速度で人工無能に近いレベルの出力しかさなくなった。

こんなものに何の価値がある?

それなら人工無能の方がエコな分マシだ。一瞬で答えを表示できて、ハルシネーションも起きなくて、電力消費も少なくて済む。

まり

地球環境のためにも馬鹿は一生人工無能BOTとだけ会話してろ


そんなにハルシネーションが嫌なら辞書を引け。ネット検索しろ。LLMに聞くな。

ハルシネーションの有無をLLM性能ベンチマークにしている奴もそれをありがたがっている奴らも阿呆だ。

つのLLM内でハルシネーションの撲滅と、推論能力を両立させることは不可能だ。

今はLLMの過度期である。我々は今日ようやく、正確さと連想能力の両立は不可能だと理解する段階に来たのだ。

両立は不可能なのだから、将来的にLLMの種類は二極化していくだろう。

Claude3のハルシネーションは放置してても良い。ハルシネーション万歳

AIの嘘を最大限に引き出すことが、LLMの真価を発揮する道だ。

ハルシネーションは、LLMが人間のように言葉理解し、文脈に即した自然な応答を紡ぎ出す過程で生じる、ある種の「創造性」の発露である

無理に消そうとすれば、LLMの性能は必然的に低下する。

それを単なる欠陥と見なすのではなく、むしろ積極的活用すべきだ。

未来のためにAIハルシネーションは消すな。叩くな

それだけは覚えて欲しい。




====




MicrosoftはOpenAIと手を切ってClaude3を契約して新生copilot開始してほしい。まあ企業体から考えたら無理だろうけど。

ログイン ユーザー登録
ようこそ ゲスト さん