2023-11-22

anond:20231122032758

一応StableDiffusionの動作原理についての解説読みながら書いたんだが

そもそも「手を入れた部分が極端に少ないか無」というのは要するに「既存の絵とそっくり」ということだが、人間がわざわざ寄せるようにプロンプトしない限りそんなことは基本起きない

まさか開幕からAI学習人間学習と同じ」前提に立った部分を置いてオペレーター人間の介在について出してくるとは思わなかったが、この言い方では「人間がそう指示を出せば"既存の絵とそっくり"な出力ができる」から事例次第では権利者が訴え出られるとも考えられる

引用適法性観点に立って「手を入れた部分が極端に少ないか無」を考えたのはそういうことではない。学習モデルに入ってる画像テキストの組み合わせが合計6組だろうが100億組だろうが、動作として"入ってるデータのみ"を使った出力ならば、盛り込んだデータ数に関わらず「引用部分が従である」が成立しないので引用が成り立たないという話。つまり無断転載可能性が出てくるということ

AI自体は内部処理を把握してるんで「どこにどの既発作品を持ってきた」か追えるんで

追えない

ここについては「生成済みのAI出力のJPEGPNGを見せられても内部処理は追えない」という意味であれば正しい

ただ生成AIシステムコンピュータープログラムである以上「プログラム動作時のデータ処理の流れを追うログ出力コードを盛り込むことは不可能」なんてことはない(開発者ソースの段階でコードを足せる)ので「内部処理を追うことができない」は正しくない

人間からすればログを読んでどのデータがどう処理されたか理解するのが困難、かつデータ数と処理の手数が膨大なので手に負えないというだけの話

そもそも追えなかったとしても、やってることはロンダリングじゃなかろうか

  • 実際は「学習モデルに入ってる画像とテキストの組み合わせ」が0個だからその経路では「転載」になんざなりようがねーんだよ 1組でも入ってると主張するならcivitaiから適当な.safetensor...

記事への反応(ブックマークコメント)

ログイン ユーザー登録
ようこそ ゲスト さん