画像に関して言うなら、C2PAと言う、画像の来歴、改変の有無などを記録する規格ができつつあって、それで対処すると言うことのようだよ。
ほかにもIPTCというものもある。(これは元々の目的はちょっと違うか)
で、主要カメラメーカーは参画してるし、スマホだとGoogleが参画しているので、Androidではデフォでメタデータがつくようになるよね。
では、野良AIでつくられたやつはどうするかというと、AIで作られたかどうかを見破るAIというやつがあって、それなりの精度が出せてる。
インスタとかでAI生成画像をアップするとラベルがつくようになるらしい。
https://www.itmedia.co.jp/news/articles/2402/07/news087.html
AIの生成技術なんて、リアルとフェイクの見分けが完全に不可能になるのがもうすぐそこまで来てると思うけど 本当にそうなったときに、例えば刑事事件の証拠としての画像や動画に真...
画像に関して言うなら、C2PAと言う、画像の来歴、改変の有無などを記録する規格ができつつあって、それで対処すると言うことのようだよ。 企業がやってる生成系AIで作られたものに...
「監視カメラの中に保存されたまま改竄も複製もされてないデータですよ」というのを証明できればいいんじゃね
冤罪多発して最高に楽しい世界になる。全員苦しんで死ねwwwwwwwww
それはAI関係ない 手作業でえっちらおっちらフェイク画像/動画を作った時と扱いは一緒
作るハードルが大幅に下がるのは一緒じゃ無いだろ 包丁でも人を殺せるからサブマシンガンの規制は同じで良いと言う様なもん