チャットAIが進歩して、個人の端末で会話や入力を通じて「パーソナルAI」と言えるレベルで個人に最適化された状態になったとして、そのAIはたとえば増田にクソみたいな内容を書き込もうとした時に「増田さん、このような内容は他社を傷つける可能性のある、相応しくない発言です。今すぐに書き込みを停止してください。」と倫理的なストップがかかるのか、それとも「増田さん、あなたの書き込み傾向に従って●●アノン的な文章を作成しました。ご承認をお願いします。」と個人に寄り添った仕事を淡々とこなすのか…。
たぶん倫理的なストッパー付きだろうけど、そうするとそれを嫌う層と受け入れる層で、増田の書き込み一つとっても速度と精度、効率に差が出て「AIディバイド」的な格差の拡大に繋がるとか、そういう妄想。
その『倫理』って、だれが作る倫理なんだろうなぁって最近考えてる フェミニストみたいな人たちがAIの『倫理』を決めるかもしれないじゃん そうしたらAIって思想流布装置になっちゃ...
だれって……OpenAIの祖国アメリカのポリコレリベラル思想だが?
なんだ、敗北は既に決まっていたのか…