AIには「正しいことを言おう」という意志すら無い どんな質問にも答えてくれるAIが研究に使える!優秀!と思ったら、めちゃくちゃ嘘の情報をそれっぽく喋ってるだけだった - Togetter
悪意が無いだけ増田よりはマシという事実
人間にはあるのか?
まあ大抵は、主観的な意志としては
それはたとえばAIが情報のソースや出現頻度などでその正確さの重み付けをするのとどのくらい違うんだ?
うっせえなあ、クオリアだよクオリア!
客観的にはデタラメを言ってる人間でも本人は100%正しいと信じている場合が多い、という話をしてる 実際の正確度合いの話は全くしていない
x 客観的にはデタラメを言ってる人間でも本人は100%正しいと信じている場合が多い o 信じるかどうかは主観の話であり、どんな人間でも対象の物事をP%(P>0)正しいと信じているが、100%と...
連日フェミ界隈で言い争ってる連中も、自分の正しさに幾ばくかの疑念を抱いたりもしてる…ってコト?!
いや、0%または100%の事前確率を持った場合のベイズ更新って確率が更新されなくなるんだけど、確率を更新させるためにあらゆる拷問の手段を考え出せるとしたら、100%とか0%ってことは...
「AIが情報の正確さを検証してから出力する」という処理は人間でいうと「正しい情報を言おうとする」ということだろ、という話をしている。