2023-12-14

実在ロリ写真区別がつかない

生成AI非実在架空少女ヌード

これを容認でいいだろってブクマカたちがギャンギャン吠えてる。

実際に被害を受けた、実在ロリ写真こそ規制しろよって。

あのね。

架空非実在ロリ写真と、実在ロリ写真区別がつくと思ってんの?

今は確かに区別できる。

だけどテクノロジーに詳しい人ならスグわかると思うけど、一年経たずに状況は変わるよ?

区別なんて付かなくなる。

そしたら警察は、どうやって実在ロリ写真を取り締まるの?

まぎらわしい。

区別がつかない。

から被害者を守れない。

フィクションのフォトリアルに埋もれてしまったら、もう誰も少女を男の性的まなざしから守れない。

  • 被害者(の親)が告発・告訴すればいいだろ

  • そもそも写真と区別つかないぐらいの児ポ生成画像の裏では大量の実在児ポ画像が学習されているはずで、 そちらをどうにかするのが先のような気がする

    • まぁこれだよな 実際に現場で撮影されて裸を晒されてる女児を救うのが先手 作品取り締まりは後手に回ってしまってる いくら取り締まっても撮影され流出する短い時間が存在し続けて...

  • シス女性とまぎらわしいからってトランス女性を女子風呂に入れなくするのかっていう話 区別がつかないからってスポーツの競技会から排除するのか 不審者と区別がつかないからって弱...

  • ロリコン男性だけど、もう本当に勘弁してくれ。 自覚してから二十年以上ずっと我慢してきたんだ。 AIのおかげでようやく解放されて桃源郷にたどり着ける。 たのむ、架空なら幼女は誰...

    • なら実在・非実在の区別をつける必要がある。 さもなくば被害児童を救済できない=見捨てることになります。

  • ウォーターマークを義務付ければいい。 非実在児童の生成AIによるフォトリアルイラストには、ウォーターマーク(透かし)を入れることを法律で義務づける。 それならば区別はつく。

記事への反応(ブックマークコメント)

ログイン ユーザー登録
ようこそ ゲスト さん