2020-07-22

GPT-3学習できるようなスパコン日本でも必要

はてブホットエントリーに上がったGPT-3だが、マイクロソフトデータセンターを使っていて、

85,000のCPU10,000のGPUと400Gbpsのネットワーク接続されたクラウドを使っていると言われている。

1750億個のパラメータがあるので、メモリ必要だわ、学習時間必要だわになっている。

ムーアの法則を超えたスピードパラメータが増加しているので、AIチップが出てくればなんとかなる、にはならない。


気になるのは日本語対応するかどうかだが、アメリカからすると、そんな日本語データ用意するモチベーションがない。

スパコン富岳もAI考慮したといわれているが、どちらかというと使いやすさ重視だし。

  • CPUやGPUを大量に並べて並列で殴る学習、収束がゆるやかにでもいい方向に進み続ける学習アルゴリズムさえ見つければ…って感じでロマンあっていいよね 1750億のパラメータはどうあがい...

記事への反応(ブックマークコメント)

ログイン ユーザー登録
ようこそ ゲスト さん