AIが人になる時はたぶん感情をもつ時ではない。自己複製時により環境に適応した個体を複製できるようになったときである。*1
僕たちは感情なるものを勘違いしている。感情なんて機械的なものだ。AIで感情を実現しようとしているのが間違っている。感情の存在意義は環境に適合する時により多角的に最善なる(自身の経験と知識から、言い換えればろくな知識と経験がない奴はより原始的な感情に従う。いわゆるDQN)選択を選択するための補助機構にすぎない。*2その最善なる選択は適応度を上げるものでなくてはならない。感情は実現するのはない。しかし付随するものである。
故にAIのみで感情を実現することはできない。もし誰かがAIで感情を実現したと言うなればそれはただのシミュレーションであり感情ではない。感情っぽいものだ。
もしAIが他者、いわゆる人類、の干渉なしに自己複製を通して進化を実現したときAIは感情をも実現させフランケンシュタイン・コンプレックスの悪夢が実現するわけである。
*1自然淘汰と進化は違う。進化はnondirectionalであるが、自然淘汰は自然に適当とするという意味においてdirectionalである。機械が自己複製で進化を実現すれば必然的に自然淘汰は発現するはずである。
*2たぶん感情が何たるかは個々人の考えによるんじゃないかと思う。僕にとって感情はfitness*3を上昇させるために経験と知識と原始的欲求の三つから決定されるものだと思っている。
*3fitnessを上昇させる手段が何たるかすらもそれは経験と知識によって決定させる。ファッションのよってセックスアピールを上昇させたり、地位を得たり、共同体に属する行為さえ単にfitnessを上昇させる行為に過ぎない。人がどのような戦略をとるかは経験、知識、遺伝的傾向など多角的なもので予測できるものではない。