機械学習はRTX関係ないからCPUでもララビーでも問題なく動く ただしデータが全部一度に処理器直結のRAM(GPUならVRAM)に入らない場合はシンプルに動かない
ただし現実にCPUで動かせるのはせいぜい数字認識のサンプルコードくらいで画像変換なんか無理だし、GPUで16GBとかの潤沢なVRAMを積んでるのは最近の70番台80番台だし、GPUで動かしたかったら大体は謎の半導体メーカーのミドルウェアしか対応してないからそういう感じになる
多分お前は「RTX3000シリーズなら何GB以上積んでる60番台以上が必要」みたいな条件を「RTX3000番台が必要」と節約思考してる 計算スループットではなくメモリ搭載量が必要
せっかく課金したのにユーザが増えまくっているのか滅茶苦茶重くなっていて最悪。 だから流出したモデルを使ってローカルでNAIの環境を構築する。 ネットには情報もだいぶ転がってる...
rtx3000番台でしか使えないみたいな話みたけどそんな前でも使えんのか
機械学習はRTX関係ないからCPUでもララビーでも問題なく動く ただしデータが全部一度に処理器直結のRAM(GPUならVRAM)に入らない場合はシンプルに動かない
VRAM少なくてAI自体諦めてたけど試すだけならこれでもいいんだな ありがとう
1060のゴミPCでも全然いけた 書いてある通りで構築できたサンクス
この「アスカが足を組んでる画像」はもはやNovelAI流出の象徴画像になってきてるな……
lnachの書き換えとかAMDとか載せてないから まじ初めてですって人は最初のリンクをググ翻でいいからちゃんと見ろよ
> ちなみにmoduleディレクトリの中身は\models\hypernetworksに移動させて使う。 ちなみにmoduleディレクトリの中身は\modules\hypernetworksに移動させて使う。 の間違い?