2024-07-29

anond:20240729164943

データが膨大になって、企業しか開発できなくなってるのが難点かな。利用者API利用料払うか、数百万円かけて自宅に環境整えるかしないといけないかハードルが高い。

今はゲームでいうMOD的な、マイクラでいう軽量化MODみたいなもの個人開発者が作ってくれてて、少ないVRAMでも最低限動かせるようになってたりはする。

他にも有用MOD、いわゆるLoRAやLLMは24GBくらいあれば作れるっぽくて、それなりに進展してる。案外その情報を追うのは楽しいぞ。イラストの指問題、背景問題修正用LoRAとかあるからほとんど解決してるしな。

後、NVIDIAいつまでも高い値段でゴミスペックグラボ出してるのもダメ(VRAM24GB以上のやつ)。界隈では、そのうち、今よりも安い値段でVRAM64GBとか128GBが使える時代来るから、今はVRAM12GBで動かすのがコスパ良いとされてる。

NPUも期待されてて、NPU次第でNVIDIA祭りは終わるけどAI祭りは再開すると言われてる。ちなみに、MACとかならRAMの方で動かせるらしく、64GBくらい使って、最新のLLM動かしてる人もいる(出力速度は人には耐えられないレベルで遅くてゴミ)。

記事への反応 -
  • 2年前は3か月ごとにイノベーションが起きてて 3年後にはどうなってるんだって感じてたけど、現状言ってしまえばchatGPT4登場のころがピークって感じで そこから動画の生成なんかもでて...

    • データが膨大になって、企業しか開発できなくなってるのが難点かな。利用者はAPI利用料払うか、数百万円かけて自宅に環境整えるかしないといけないからハードルが高い。 今はゲーム...

      • なんでNPUでNVIDIAが覇権取らないって言い切れるんですかぁ?

        • 処理速度も使える領域も多いってなったらグラボいらなくなるだろ。だから、NPUに期待されてんの。グラボ高えから。

          • 間違えた。なんでNVIDIAがNPU出さないって言い切れるんですかぁ? 今でさえH100とか出してるのに

            • NPUってGPUの簡易版みたいなもんだからGPUより性能は低いよ、電源切れるから省エネなだけ

    • 自動運転の方がコケたの先でしょ、次はなんかコンパイラ技術とかじゃね

記事への反応(ブックマークコメント)

ログイン ユーザー登録
ようこそ ゲスト さん