数学的な手法を使って実在しない人物やイラストを生成しているといた旨の説明がされるが、
本当に違っていると証明したのを見たことがなく、本当か?という疑問がある。
(元のデータ量が膨大なので類似画像の証明が困難なのは承知している)
本当に「実在しない人物」が生成されるのであれば、有名人の名前を入れても再現されないはずだが、
エマ・ワトソン、トランプ、イーロン・マスクなどは大量に作られている。
例えばdiffusionモデルだと、元の画像全体に対してノイズを加えていったもので学習させている。
これだけ見ると、「学習元画像をどれだけ再現できるか」、というのは学習しているが、
学習時の指標としてエラー率を下げるというのもあるが、こちらも「学習元画像をどれだけ再現できるか」だろう。
「学習元と違う画像を生成」しているが、人の目で見た時に全体としてバランスが取れているという指標ではない。
ではないだろうか。
だが、より詳細な画像を出そうとした場合、パラメータ数や演算精度を上げていった場合、
学習元の画像と非常に近い画像が偶然生成される可能性は、別に否定されてないだろ