一枚の画像生成にかかった電力を計算したいなら、モデルの訓練にかかった電力を、そのモデルを使って推論した回数で頭割りした後に、推論コスト(これは小さいので0とみなしてよい)と、あとそもそものモデルのサーバ分の電力やらファインチューニングぶんやらの雑費を足していかないといけないと思う。
で、それが液タブの消費電力を下回るかどうかって、一つのモデルをどれだけ繰り返し使ったかって話じゃない?で、現実問題として、全部の画像生成AIユーザーが既存のモデルで満足できるわけはなくて、次々新しいモデルが生まれてくるわけじゃん。
だから、推論が安いことと、学習コストがかかる構造にあることは別問題じゃないかなって思ってる。
もし、世界に唯一これだけの基盤モデルができて、それを秘伝のタレのように使うなら、いつかは液タブより省電力になるかもね。結果的に。