はてなキーワード: データセンターとは
未だに「謎の半導体メーカー」程度の認識の方になぜNVIDIAが時価総額世界4位なのかをあれこれ説明する必要があるので短めにメモ。半導体業界のすみっこの人間なので機械学習まわりの説明は適当です
・~1993年 AI冬の時代。エージェントシステムがさほど成果を挙げられなかったり。まだ半導体やメモリの性能は現代とくらべてはるかに劣り、現代のような大規模データを用いた統計的処理など考えられなかった。2006年のディープラーニングの発明まで実質的な停滞は続く。
・1995年 NVIDIAが最初のグラフィックアクセラレータ製品NV1を発売。
・1999年 NVIDIAがGeForce 256発売。GPUという名が初めて使われる。以降、NVIDIAはGPU業界1位の座を守り続ける。
・2006年 GPGPU向け開発基盤CUDAを発表。以降、その並列計算に特化した性能を大規模コンピューティングに活用しようという動きが続く。
・2006年 ディープラーニングの発明。のちのビッグデータブームに乗り、これまでよりはるかに高性能なAIを模索する動きが始まる(第3次AIブームのおこり)
・2006年 CPU業界2位のAMDがGPU業界2位のATIを買収、チップセットにGPUを統合することで事実上自社製品をNVIDIAと切り離す戦略に出る。CPU業界1位のインテルも、同じく自社CPUに自社製GPUを統合する動きを強める。NVIDIAはこれまでの主力だったGPUチップセット製品の販売を終了し、データセンター向けGPGPUのTeslaシリーズ、ゲーム用外付けGPUのGeForceシリーズ、ARM系CPUと自社GPUを統合したTegraシリーズの3製品に整理する。このうちTeslaシリーズが性能向上やマイクロアーキテクチャ変更を経て現代のAIサーバ製品に直接つながる。GeForceシリーズはゲーマー向け需要や暗号通貨マイニング向け需要も取り込み成長。Tegraシリーズは後継品がNintendoSwitchに採用される。
・2012年 ディープラーニングが画像認識コンテストで圧倒的な成績を収め、実質的な第3次AIブームが始まる。
・2017年 Transformerモデル発表。これまでのNN・DLと異なり並列化で性能を上げるのが容易=デカい計算機を使えばAIの性能が上がる時代に突入。
・2018年 IBMがNVIDIAと開発した「Summit」がスパコン世界ランキング1位の座を5年ぶりに中国から奪還。全計算のうち96%がGPUによって処理され、HPC(ハイパフォーマンスコンピューティング)におけるGPUの地位は決定的になる。NVIDIAの開発したCPU-GPU間の高速リンク「NVLink」が大規模に活用される。「Summit」は2020年に「富岳」にトップを奪われるまで1位を維持。
・2018~2021年 BERTやXLNet、GPT2など大規模言語モデルの幕開け。まだ研究者が使うレベル。
・2019年 NVIDIA CEOジェスン・ファン(革ジャンおぢ)が「ムーアの法則は終わった」と見解を表明。半導体のシングルスレッド性能の向上は限界に達し、チップレットを始めとした並列化・集積化アーキテクチャ勝負の時代に入る。
・2022年 NVIDIAがH100発表。Transformerモデルの学習・推論機能を大幅に強化したサーバ向けGPUで、もはや単体でもスパコンと呼べる性能を発揮する。H100はコアチップGH100をTSMC N4プロセスで製造、SK Hynix製HBMとともにTSMC CoWoSパッケージング技術で集積したパッケージ。※N4プロセスは最新のiPhone向けSoCで採用されたN3プロセスの1つ前の世代だが、サーバ/デスクトップ製品向けプロセスとモバイル製品向けプロセスはクロックや電流量が異なり、HPC向けはN4が最新と言ってよい。
・2022年 画像生成AIブーム。DALL-E2、Midjourney、Stable Diffusionなどが相次いで発表。
・2022年 ChatGPT発表。アクティブユーザ1億人達成に2カ月は史上最速。
・2023年 ChatGPT有料版公開。Microsoft Copilot、Google Bard(Gemini)など商用化への動きが相次ぐ。各企業がNVIDIA H100の大量調達に動く。
・2024年 NVIDIAが時価総額世界4位に到達。半導体メーカー売上ランキング世界1位達成(予定)。
こうして見るとNVIDIAにとっての転換点は「ディープラーニングの発明」「GPGPU向けプログラミング環境CUDAの発表」「チップセットの販売からコンピューティングユニットの販売に転換」という3つが同時に起こった2006年であると言えそう。以降、NVIDIAはゲーマー向け製品やモバイル向け製品を販売する裏で、CUDAによってGPGPUの独占を続け、仮装通貨マイニングやスパコンでの活躍と言ったホップステップを経て今回の大きな飛躍を成し遂げた、と綺麗にまとめられるだろう。
横だけどこれかー
https://www.bloomberg.co.jp/news/articles/2022-10-07/RJDCTCDWRGG201
まあ少なくともこういうのは円安だから作りました、みたいな単純な理由ではないよな。
調べるのめんどかったからChatGPTにグーグルはなんで千葉にデータセンター作ったの?って聞いてみたよ。
まあそんなとこやろな。っていう答えが返ってきたー
(以下ChatGPT)
Googleが千葉にデータセンターを開設することには、いくつかのメリットがあります。以下にその主な点を挙げます:
市場への近さ: 日本は世界の主要なテクノロジーマーケットの一つです。データセンターを日本に置くことで、Googleは日本市場へのサービス提供を改善し、レスポンスタイムを短縮できます。これにより、ユーザー体験が向上し、日本国内での競争力が強化されます。
信頼性とパフォーマンスの向上: 地理的に分散したデータセンターを持つことは、災害時のリスク分散にもなります。特に日本のような地震が多い地域では、データセンターの冗長性を高めることが重要です。また、複数のデータセンターを運用することで、システム全体の負荷分散が可能になり、全体のパフォーマンスと安定性が向上します。
規制への対応: データ保護法や国内でのデータ保存要件など、各国の規制への対応が必要な場合、国内にデータセンターを持つことが有利になります。日本国内にデータセンターを設置することで、Googleは日本の規制や法律に適合しやすくなります。
エコシステムの強化: ローカルのビジネスや開発者との連携を深めることができます。データセンターの存在は、Googleのクラウドサービスを使用する企業や開発者にとって、技術サポートや連携の面でメリットを提供します。
エネルギー効率と持続可能性: Googleは再生可能エネルギーへの投資を進めており、日本のように再生可能エネルギー源の利用が進んでいる地域でデータセンターを開設することは、その持続可能性の目標達成に貢献します。
これらのメリットは、Googleが日本国内、特に千葉にデータセンターを開設することの背景にある主要な動機となっています。日本市場へのサービス提供を最適化し、グローバルでのビジネス展開を強化するための戦略的なステップと言えるでしょう。
2点
次に「光」は遅い。ソフトの世界だからデータセンターなんてどこでもいいと勘違いする人がいるが、光の速度は遅いんだよ。だから地産地消で近い場所に作らないといけない
レックーッス
本日は世界エイズデー、日本においては映画の日、鉄の記念日、いのちの日、デジタル放送の日、カイロの日、カレー南蛮の日、下仁田ネギの日、データセンターの日、着信メロディの日となっております。
月初めでありながら年末を感じさせる時期となってまいりました。
ちょっと前まで高校に行ってたような気持ちになることや夢に見ることがなかなかに多いです。現実が嫌なんですかね?
高校時代もいい思い出なんて特になかったような気もしますが、何かを誤解したせいで高校生にでも戻ったら今の状況がもっと良くなってるのかもなんで勘違いをしてるのかもしれません。
というかまぁ、そういうのは結局のところ今すぐに改善をしようと考えるしかないんですよね。
とはいえ年末です、年末ではございますが何かをやり直すなり、取り戻すなり、別に大丈夫なら継続するなり、上手いことやっていきましょう。
ということで本日は【目標の再確認よいか】でいきたいと思います。