一応StableDiffusionの動作原理についての解説読みながら書いたんだが
そもそも「手を入れた部分が極端に少ないか無」というのは要するに「既存の絵とそっくり」ということだが、人間がわざわざ寄せるようにプロンプトしない限りそんなことは基本起きない
まさか開幕から「AIの学習は人間の学習と同じ」前提に立った部分を置いてオペレーターの人間の介在について出してくるとは思わなかったが、この言い方では「人間がそう指示を出せば"既存の絵とそっくり"な出力ができる」から事例次第では権利者が訴え出られるとも考えられる
引用の適法性の観点に立って「手を入れた部分が極端に少ないか無」を考えたのはそういうことではない。学習モデルに入ってる画像とテキストの組み合わせが合計6組だろうが100億組だろうが、動作として"入ってるデータのみ"を使った出力ならば、盛り込んだデータ数に関わらず「引用部分が従である」が成立しないので引用が成り立たないという話。つまり無断転載の可能性が出てくるということ
追えない
ここについては「生成済みのAI出力のJPEGかPNGを見せられても内部処理は追えない」という意味であれば正しい
ただ生成AIのシステムもコンピュータープログラムである以上「プログラム動作時のデータ処理の流れを追うログ出力コードを盛り込むことは不可能」なんてことはない(開発者がソースの段階でコードを足せる)ので「内部処理を追うことができない」は正しくない
人間からすればログを読んでどのデータがどう処理されたかを理解するのが困難、かつデータ数と処理の手数が膨大なので手に負えないというだけの話
実際は「学習モデルに入ってる画像とテキストの組み合わせ」が0個だからその経路では「転載」になんざなりようがねーんだよ 1組でも入ってると主張するならcivitaiから適当な.safetensor...