人間が「確率的な思考」をしていないかというとそうでもないと思う むしろ曖昧なこと、どうでもいいことに対しては常に確率的だし GPT-3.5からGPT-4にただ学習量を増やしただけで論理...
そういうことではない。今のchatgptは三段論法レベルですら確率的に捉えてる。だから変な答えが出るときがある。もっと論理的思考の仕組みが必要なのよ。人間の確率的思考は行動経済...
人間が三段論法を確率的に捉えていないという根拠は?
確率的に捉えてると「ある」ことを主張したいなら早く根拠出せよ
誰も「ある」と主張してませんよね?
別物と言いたいんだから「ある」という主張やろ。シーライオニングしかできんの?
論理的に考えろよ低能
このスレッドを見たぼく「うーん人間は愚か、AIのがかしこい!」
この話の論理を理解してない低能はお前だぞ
ない証明は難しいので、先にあるほうを見たいのだが?
では「人間は三段論法を論理的に捉えている」という根拠を述べてください。
人間には論理的思考能力があるから。 逆に三段論法的文章を読んだときどんな感じで期待値とか計算しながら読んでるのか教えてほしい
本当に論理的思考能力があるなら「人間が論理的思考をしている根拠を述べてください」と言われて「人間には論理的思考能力があるから」なんて答えません。証明終了。論破完了。
確率的に書いてるならどういう期待値で計算してその文章書いてんの?
確率的というと計算しているように感じるが要は「これまで勉強してきた内容からこういうことを言われたらこういうふうに返すのがおそらく正しいと思っている」という話だろ。
それ文脈見てるだけで確率ではないのでは?
おまえは同じ現象を指して人間のときは「論理」「文脈」と言いChatGPTのときは「計算」「確率」と言ってそこに何らかの違いがあると主張している。しかしその違いを説明できていない...
論破マンはどの答え言っても納得できなさそう
言うて「Aである根拠は?」「Aだからです」はさすがに納得できへんやろ
むしろ、Aである能力を持ってるで納得できないならその証拠を出すしかないと思うが
循環論法では説明になってへんやろ
Aだと思ってたものが実はBならその根拠を出せよ
Bだとは言ってませんよね?
たとえ人間が三段論法を確率的に捉えているとしても、それは明らかに欠点なんだから、それをAIが真似する必要は無かろう
言いたいことはわかる、1+1=レベルの初歩的な内容ですら彼らは間違えることはある ただ、AI分野では(人間と逆で)抽象的思考よりも直接的な問題の方が難易度が高いって発見もある ...
1+1なんて暗記問題じゃん。
ああ、それはかなり近いと思う 実際のところ膨大な暗記量からそれらしい答えを導き出してるわけだからね、AIは むしろ「確率的」を失わせるのは簡単で、プラグインや外部ツールで「...
俺が言いたいのは1+1すらわざわざchatgptは確率的に捉えてるということだ。論理的思考できる仕組みがあれば2で終わる。汎用人工知能には人間みたいな論理思考必要なのよ
大多数の人間は1+1を論理的思考ではなく丸暗記で解いているぞ
1の次が2である前提は暗記じゃないが?
公理を暗記してるだけだろ
結局確率ではないやろ
「1+1は2だって先生やみんなが言ってるから1+1はと聞かれたら2と答えるのが正しいって覚えてる」状態ではあるな
1234567890+1 を応用して計算できるなら論理思考できてるよ。gptちゃんたちは怪しい
言うてそういう記憶のない人間にいきなり「1+1は?」と聞いたらどんなに論理的思考能力が高くても答えられないわけで
暗記なら知ってるか知らないかの1,0だけだから論理思考だな
知ってると知らないはデジタルじゃなくてアナログな情報だろ 記憶が100%完全であることは脳科学的にあり得ない
暗記してる前提なら正しいんだから1,0しかないでしょ。いい加減、自分に都合よく前提変えるの止めてもらっていいですか?
は??? 暗記してる前提もクソも、じゃあ英単語帳暗記したら全部0と1で回答できんのかよ 人間の脳しかり、アナログな情報は濃淡でしかないから100か0かにはなり得ない、情報工学の...
1+1の計算は人間は暗記だよって話なんだから正しく覚えてる前提やろ。それを記憶違いで間違えると言い出すなら前提変わってるやろ。自分で前提を変えるな