2022-12-15

画像生成AI、本当に元の画像から変わっている画像を出してくれてるのか

例えば人物イラストを生成する画像生成AIだと、

数学的な手法を使って実在しない人物イラストを生成しているといた旨の説明がされるが、

本当に違っていると証明したのを見たことがなく、本当か?という疑問がある。

(元のデータ量が膨大なので類似画像証明が困難なのは承知している)


本当に「実在しない人物」が生成されるのであれば、有名人名前を入れても再現されないはずだが、

エマ・ワトソントランプイーロン・マスクなどは大量に作られている。


例えばdiffusionモデルだと、元の画像全体に対してノイズを加えていったもの学習させている。

これだけ見ると、「学習画像をどれだけ再現できるか」、というのは学習しているが、

学習元と違う画像を生成する」というのは学習していない。


学習時の指標としてエラー率を下げるというのもあるが、こちらも「学習画像をどれだけ再現できるか」だろう。

学習元と違う画像を生成」しているが、人の目で見た時に全体としてバランスが取れているという指標ではない。


違う画像が出ることについて、想像では、

  1. 何段階かノイズをかけていくと、類似した画像になる画像同士が混ざる。
  2. U-net解像度ダウンサイジングした時に、類似した画像になる画像同士が混ざる。
  3. 演算精度の丸め誤差から、近い値になって混ざる

ではないだろうか。


だが、より詳細な画像を出そうとした場合パラメータ数や演算精度を上げていった場合

元の画像再現されてしまうのではないか


  • 学習元の画像と非常に近い画像が偶然生成される可能性は、別に否定されてないだろ

記事への反応(ブックマークコメント)

ログイン ユーザー登録
ようこそ ゲスト さん