Stable Diffusionは23億枚の画像を学習したっていうのだけど、使っているとクオリティが低い画像が大量に生成される。
自分が書いたプロンプトが悪くて、内部のベクトルが散らばってしまっている可能性はあるのだけど、使用感はStyleGANに近い。
大量に画像学習しているはずだけど、2枚の画像を合成してる感じ。
seedを固定してtext2imgすると元絵っぽいのがなんとなくわかるのだけど、構図が元絵に引っ張られる。
Midjourneyの方だとわりと適当に入れても「凄い」ってなるし、
〇〇をモチーフにと2つ組み合わせれると意外性も含めて画像を出力してくれる。
(もちろんデータセット側で低レベルなのはaestheticで切っているのだろうけど)
スクレイピング