AI専門家の人でも分からんってどういうことなんだ?
再現してAIが何を考えてこういう結論に至ったかのプロセスのチェックが出来ないってことなん?
アタマ悪いんでさっぱり分からんのだが、「何考えてこう答えたのか分からんけど答えはすごいあってる」
ってすごいSF的じゃないか? ふんいきが。
そしてそれにいろいろ判断任せてみてはどうかってのはちょビットまずい方向ではないか?
いや結果として出てくる答えは信頼性高いのかも知んないけど、なんか腑に落ちない感じがしないか?
誰か分かりやすくAI説明してみ?
Permalink | 記事への反応(0) | 18:27
ツイートシェア