某サイトで児童ポルノ問題になってるのはAI生成そのものではなく、それをエサにモノホン販売に誘導する輩がいることと認識している。AI生成そのものがアウトというわけではないはずだ。
AI生成による写実的な非実在青少年の絵が児童ポルノであるとは言えない。
一方で写実的なAIが描く人物とは非実在なのか?ここはなかなか難しい。そもそも人物のデータがあるから人が生成されるわけだが、描かれた人は合成された何かであり実在はしないはずだ。だが元となった人物がいないことを示すのも難しい。元データをかっさらっても、AIアルゴリズムを解析してもおそらく無理だ。ディープラーニング等のビッグデータ解析は結果はわかるが過程はわからないからだ。
主観的にこれに似てる!とは言えるかもしれない。しかしそれではこれがクロかシロかは各論だろう。裁判所判断になる。少なくともAI生成ツールとして使った場合、その利用者は実在するとある人物を作ろうとしたと言えるか?写真を取る、イラストを描く、と比較しても行為として微妙だろう。
過去の世界の事例から見ると、非実在青少年のポルノ絵は有罪になったケースがいくつかある。大筋としては、それが存在しうる、という判決だ。
日本で争われたケースとしては、被告は絵であるとしたが、判決としては実在する少女がいることが理由で有罪となったものがある。ここでもあくまで、実在することが争点だった。絵が写実的で写真と見間違うものかどうかは論点ではなかったはず。
論点を間違ってはいけない。AIが写真と同じクオリティの絵を生成するから児童ポルノとなるわけではない。存在する、つまり被害者がいるかどうかがシロクロの分かれ目である。
これを写実的かどうかで議論すると間違ったことが起こる。例えば、出力を調整して写真ではないことを明らかにすればセーフになるのか、等。つまり、明らかに被害者がいるが一次ソースの写真でなくAI加工したイラストだった場合は?それはアウトだろう。
何かこうだという結論があるわけではないが、まあ、言えることとしては、AI絵によってアウトセーフの判断が難しくなった世の中だ。だが現状でAI絵による非実在青少年はクロとは言えない、たとえあってもケースバイケースである。
この状況でAI絵を起点に非実在青少年の規制が進むのはまずいし、逆に、リアルでないイラストによる加害が見逃されても問題である。印象でAI規制議論や非実在青少年イラスト規制議論が加熱することだけは避けておきたいところだ。