なんとなくは理解できる話で助かる。
で、やっぱり課題は「人類の役に立て」って部分だと思うわけ。
ロボット三原則だのなんだので、
人間を傷つけてはならないだとかなんとかって話になると思うけど、
「人間を傷つけない」ってルールが矛盾した場合にどうするか、
人間同士で利害が対立して争いが生じた場合にどうするか、
みたいなことが起こり得ると思う。
個人を守るのか、人類全体を守るのか、みたいな選択だってあり得るでしょ。
そうなったときの判断基準をAIにどうやって与えるのかが、興味あるところ。
上の俺のトラバでは禁則処理って書いたけど、
あなたの言葉でいえば「不可侵の部分」とか「貢献欲」の部分をどうやって設定したらいいのかな。
(あなた個人に問いかけているのではなくて、俺個人の疑問点の提示です。)
ツイートシェア