stable diffusionはごく一部だが学習データをほぼそのまま出力する能力があるらしい
学習でやってることは画像圧縮の一種だから、あえて復元してやろうと思えば復元できるんだと
まあ人間だって過去に見たものから無意識に盗作することはあるし、極論あらゆるお絵描きツールは「盗作を実行することが可能」なのでそれすなわちギルティとは限らん
ただSDを「特定の手順を踏むと画像が出てくるソフトウェア」と考えると、元の著作物とほぼ同一のものが出てくるソフトウェアを配るという複製行為の法的な扱いは少し面白そう
復元可能性なんていちいち検証してられないから一括でオッケーということになるのか、発覚次第個別対応しろということになるのか、あるいは出力のみを問題とし圧縮状態での配布無罪となるのか
SD使わなくてもファイルコピーすれば同一の著作物作れるやんという話
著作物を想定していたわけではないが、著作物にしろなんにしろ直接配布するとそれは複製行為やらなんやにあたるから現状法でもアウトなのよ 一方で生成系のAIは、作成は基本合法、...
人間がニューロンの中でやっていることを圧縮と呼ぶならそうだね
SDはじめ拡散モデルの畳み込み層がやってることは圧縮だよ 非可逆ではあるけど というか圧縮かどうか決めるのに人間と比較する必要はないよ 記憶保持のアーキテクチャ違うし