2024-06-14

anond:20240614002332

推論と学習区別がついてないのかなって思ってた。ごめんね。

一枚の画像生成にかかった電力を計算したいなら、モデルの訓練にかかった電力を、そのモデルを使って推論した回数で頭割りした後に、推論コスト(これは小さいので0とみなしてよい)と、あとそもそもモデルサーバ分の電力やらファインチューニングぶんやらの雑費を足していかないといけないと思う。

で、それが液タブの消費電力を下回るかどうかって、一つのモデルをどれだけ繰り返し使ったかって話じゃない?で、現実問題として、全部の画像生成AIユーザー既存モデルで満足できるわけはなくて、次々新しいモデルが生まれてくるわけじゃん。

から、推論が安いことと、学習コストがかかる構造にあることは別問題じゃないかなって思ってる。

もし、世界に唯一これだけの基盤モデルができて、それを秘伝のタレのように使うなら、いつかは液タブより省電力になるかもね。結果的に。

記事への反応(ブックマークコメント)

ログイン ユーザー登録
ようこそ ゲスト さん