データが膨大になって、企業しか開発できなくなってるのが難点かな。利用者はAPI利用料払うか、数百万円かけて自宅に環境整えるかしないといけないからハードルが高い。
今はゲームでいうMOD的な、マイクラでいう軽量化MODみたいなものを個人開発者が作ってくれてて、少ないVRAMでも最低限動かせるようになってたりはする。
他にも有用なMOD、いわゆるLoRAやLLMは24GBくらいあれば作れるっぽくて、それなりに進展してる。案外その情報を追うのは楽しいぞ。イラストの指問題、背景問題は修正用LoRAとかあるからほとんど解決してるしな。
後、NVIDIAがいつまでも高い値段でゴミスペックのグラボ出してるのもダメ(VRAM24GB以上のやつ)。界隈では、そのうち、今よりも安い値段でVRAM64GBとか128GBが使える時代来るから、今はVRAM12GBで動かすのがコスパ良いとされてる。
NPUも期待されてて、NPU次第でNVIDIAの祭りは終わるけどAIの祭りは再開すると言われてる。ちなみに、MACとかならRAMの方で動かせるらしく、64GBくらい使って、最新のLLM動かしてる人もいる(出力速度は人には耐えられないレベルで遅くてゴミ)。
2年前は3か月ごとにイノベーションが起きてて 3年後にはどうなってるんだって感じてたけど、現状言ってしまえばchatGPT4登場のころがピークって感じで そこから動画の生成なんかもでて...
データが膨大になって、企業しか開発できなくなってるのが難点かな。利用者はAPI利用料払うか、数百万円かけて自宅に環境整えるかしないといけないからハードルが高い。 今はゲーム...
自動運転の方がコケたの先でしょ、次はなんかコンパイラ技術とかじゃね