俺程度でも余裕で解ける初球の論理パズルはスルスル回答してくれるけど
難しくなってくると平気で破綻した理論ぶっこんでくるわ。
有名な3人の門番の問題なんかまともに答えられないくせに、
なんかそれっぽいことだけは言ってくるから始末に負えない。
Permalink | 記事への反応(3) | 11:11
ツイートシェア
そりゃ論理で文章つくってないんだから当然でしょ
それだけ人間に近づいたってことさ。 嘘もつくし、間違いもする。 それがAI研究の目的。
GPTは言語推論であって論理的に考えてるわけじゃねーのよ A+B=?って聞かれた時にA+B=Xって書いてる学習データが多いからXって回答のスコアが高くなるみたいな事をやってる……みたい