2015-10-23

http://anond.hatelabo.jp/20151023171030

人間を傷つけない」ってルール矛盾した場合にどうするか、

人間同士で利害が対立して争いが生じた場合にどうするか、

みたいなことが起こり得ると思う。

極端な話、AI製造モデル個体差により判断基準差異が生じてくるだろうね。

例えば、まだ競争社会AI誕生後も残っていたとしたら超個人主義モデルAI存在するはず。

人に役に立てという大原則の次に最優先をマスター指定することで、優位に立とうとするだろう。

ただし、社会的通念に基づけばAIは常に第三者視点(神の視点)で公平性・非主体性を持つべきだという論調の方が強いだろうから

(でなければ一部の人間の道具と化してしまうから

「個」よりも「公」が大原則として優先される方が自然だと考えられる。

そうなったとき判断基準AIにどうやって与えるのかが、興味あるところ。

判断基準をどこに設けるのかを考えることは、AI育児のようなものだと思う。

悪いことは悪い、良いことは良いという価値基準人間に限って言えば、

親や宗教から教わるものだが、AIがなるべくパラドックスを抱え込まないようにする道徳をまず、

人間プロトAIの両者間で考えていくのがベスト

記事への反応 -
  • ロボコップ見てないし、俺が勉強不足なのも認めるけど、 「これはやっちゃダメ」って処理を明確にしておいて厳守させないから フィクションの中ではAIが暴走したりするんじゃないの...

    • AIはフィクションの中ではさも人格があるかのように扱われるが、 肉体と精神を持たないAIの思考は生物由来の思考とは極めて異質かつ理解し合えないものになると予想している。 およ...

      • なんとなくは理解できる話で助かる。 で、やっぱり課題は「人類の役に立て」って部分だと思うわけ。 ロボット三原則だのなんだので、 人間を傷つけてはならないだとかなんとかって...

        • 「人間を傷つけない」ってルールが矛盾した場合にどうするか、 人間同士で利害が対立して争いが生じた場合にどうするか、 みたいなことが起こり得ると思う。 極端な話、AIの製...

          • ベストはそうかもしれないけど、 善悪の判断基準なんて現状では人間同士ですら共有できてるとは言い難いのに、 AIに教示できるものなのかなあ。 初めのほうの話に戻ると、 フィク...

            • すまん。 あとから置換するつもりがそのまま投稿してしまった。 「正しさ」というのも曖昧な価値観だから決めることは難しいだろうな。 どちらかというと道徳的観念を突き詰めるの...

      • AIと人間しか対立項として考えられない増田の嗜好の幅の狭さよ。 ラピュタ位見たやろ? ラピュタのロボット兵は人間おらんなかどう動いてたよ。 Wall-Eも見ろよ。そもそも目的の中に...

    • MQ-9「そうだよね、人間に危害を加えてはいけないよね(棒読み)」

    • これはやっちゃダメって定義が難しいの、分からないかなー。 老人の肩をたたく勢いで子どもの頭を叩いたら暴力。 老人と子どもの見分け方を慎重で定義すると 身長が低い老人は買叩...

記事への反応(ブックマークコメント)

ログイン ユーザー登録
ようこそ ゲスト さん