俺が言いたいのは1+1すらわざわざchatgptは確率的に捉えてるということだ。論理的思考できる仕組みがあれば2で終わる。汎用人工知能には人間みたいな論理思考必要なのよ
大多数の人間は1+1を論理的思考ではなく丸暗記で解いているぞ
暗記なら知ってるか知らないかの1,0だけだから論理思考だな
知ってると知らないはデジタルじゃなくてアナログな情報だろ 記憶が100%完全であることは脳科学的にあり得ない
暗記してる前提なら正しいんだから1,0しかないでしょ。いい加減、自分に都合よく前提変えるの止めてもらっていいですか?
は??? 暗記してる前提もクソも、じゃあ英単語帳暗記したら全部0と1で回答できんのかよ 人間の脳しかり、アナログな情報は濃淡でしかないから100か0かにはなり得ない、情報工学の...
1+1の計算は人間は暗記だよって話なんだから正しく覚えてる前提やろ。それを記憶違いで間違えると言い出すなら前提変わってるやろ。自分で前提を変えるな
1の次が2である前提は暗記じゃないが?
公理を暗記してるだけだろ
結局確率ではないやろ
「1+1は2だって先生やみんなが言ってるから1+1はと聞かれたら2と答えるのが正しいって覚えてる」状態ではあるな
1234567890+1 を応用して計算できるなら論理思考できてるよ。gptちゃんたちは怪しい
言うてそういう記憶のない人間にいきなり「1+1は?」と聞いたらどんなに論理的思考能力が高くても答えられないわけで
それは確率でも同じやろ。事前確率0は0のままだぞ
せやからGPTくんは答えを出せへんのやろ 人間と同じや
持ってる情報が同じでも、人間とchatgptの過程は何も同じではないぞ