2024-07-29

anond:20240729164943

データが膨大になって、企業しか開発できなくなってるのが難点かな。利用者API利用料払うか、数百万円かけて自宅に環境整えるかしないといけないかハードルが高い。

今はゲームでいうMOD的な、マイクラでいう軽量化MODみたいなもの個人開発者が作ってくれてて、少ないVRAMでも最低限動かせるようになってたりはする。

他にも有用MOD、いわゆるLoRAやLLMは24GBくらいあれば作れるっぽくて、それなりに進展してる。案外その情報を追うのは楽しいぞ。イラストの指問題、背景問題修正用LoRAとかあるからほとんど解決してるしな。

後、NVIDIAいつまでも高い値段でゴミスペックグラボ出してるのもダメ(VRAM24GB以上のやつ)。界隈では、そのうち、今よりも安い値段でVRAM64GBとか128GBが使える時代来るから、今はVRAM12GBで動かすのがコスパ良いとされてる。

NPUも期待されてて、NPU次第でNVIDIA祭りは終わるけどAI祭りは再開すると言われてる。ちなみに、MACとかならRAMの方で動かせるらしく、64GBくらい使って、最新のLLM動かしてる人もいる(出力速度は人には耐えられないレベルで遅くてゴミ)。

記事への反応 -
  • 2年前は3か月ごとにイノベーションが起きてて 3年後にはどうなってるんだって感じてたけど、現状言ってしまえばchatGPT4登場のころがピークって感じで そこから動画の生成なんかもでて...

    • データが膨大になって、企業しか開発できなくなってるのが難点かな。利用者はAPI利用料払うか、数百万円かけて自宅に環境整えるかしないといけないからハードルが高い。 今はゲーム...

    • 自動運転の方がコケたの先でしょ、次はなんかコンパイラ技術とかじゃね

記事への反応(ブックマークコメント)

ログイン ユーザー登録
ようこそ ゲスト さん