2023-02-10

GPUのVRAM24GB以上にならないもの

StableDiffusion系はbf18,fp16,8-bit adamなどで8GB程度でも動くようになったが、追加学習をしようとすると足りない。

日々HuggingFaceに投稿される言語AIや音声、言語画像動画を組み合わせといったのになると、24GBでは足りない。

80GBで足りないのも出てきている。、

GPUは8枚まで並列に出来るので、80GBx8枚=320GBといったのになっている。


個人向けと企業向けで違うだろ、というのはそうだが、

結局チューニングしないとそれほど役に立たず、お高めのパソコンで個々人でチューニング出来るとありがたいのだ。


CXL(Compute Express Link)というメモリ拡張用のバス規格が数年前にでき、製品も出始めている。

今までだとCPUからGPU側のメモリコピーだったのが、アクセラレータから参照も出来るようになるらしいのだが、今の所サーバー向けらしい。


まぁ手段はなんでもいいんだが、VRAMの容量が増えればいい。

PCIeスロットメモリ載ったボードさしたらGPUから拡大して見えるとかでもいい。

記事への反応(ブックマークコメント)

ログイン ユーザー登録
ようこそ ゲスト さん