「アクセラレータ」を含む日記 RSS

はてなキーワード: アクセラレータとは

2024-03-21

anond:20240321185747

AI関係シリコンを見てると、今後起きそうなことは

と言うことで、NVIDA一強みたいなのは今がピークで、今後は変わってくるんじゃないかな。ただ需要全然満たせてないから、伸びるとは思うけど、多様化していくと思う。

2024-02-29

anond:20240229120549

実際今のRTXとかML用のアクセラレーターも混在してるから割高よな

AIハードウェアアクセラレーター、タイプ異なるボードを挿すってならないのか

GPUは描画に専念でよくて、AI向けチップは別のPCIeボードで挿して、

学習用、推論用とかでもボード分けて、といった構成にならんのだろうか。

2024-02-23

NVIDIAAIの小史

未だに「謎の半導体メーカー」程度の認識の方になぜNVIDIA時価総額世界4位なのかをあれこれ説明する必要があるので短めにメモ半導体業界すみっこ人間なので機械学習まわりの説明適当です

・~1993年 AI冬の時代エージェントシステムがさほど成果を挙げられなかったり。まだ半導体メモリの性能は現代とくらべてはるかに劣り、現代のような大規模データを用いた統計的処理など考えられなかった。2006年ディープラーニング発明まで実質的な停滞は続く。

1993年 NVIDIA設立

1995年 NVIDIA最初グラフィックアクセラレータ製品NV1を発売。

1999年 NVIDIAGeForce 256発売。GPUという名が初めて使われる。以降、NVIDIAGPU業界1位の座を守り続ける。

2006年 GPGPU向け開発基盤CUDAを発表。以降、その並列計算に特化した性能を大規模コンピューティング活用しようという動きが続く。

2006年 ディープラーニング発明。のちのビッグデータブームに乗り、これまでよりはるかに高性能なAI模索する動きが始まる(第3次AIブームのおこり)

2006年 CPU業界2位のAMDGPU業界2位のATIを買収、チップセットGPU統合することで事実上自社製品NVIDIAと切り離す戦略に出る。CPU業界1位のインテルも、同じく自社CPUに自社製GPU統合する動きを強める。NVIDIAはこれまでの主力だったGPUチップセット製品販売を終了し、データセンター向けGPGPUのTeslaシリーズゲーム用外付けGPUGeForceシリーズARMCPUと自社GPU統合したTegraシリーズの3製品に整理する。このうちTeslaシリーズが性能向上やマイクロアーキテクチャ変更を経て現代AIサーバ製品に直接つながる。GeForceシリーズゲーマー向け需要暗号通貨マイニング向け需要も取り込み成長。Tegraシリーズは後継品がNintendoSwitchに採用される。

2012年 ディープラーニング画像認識コンテストで圧倒的な成績を収め、実質的な第3次AIブームが始まる。

2015年 AlphaGoイ・セドル勝利

2016年 NVIDIA自動運転向けシステムを発表。

2017年 Transformerモデル発表。これまでのNN・DLと異なり並列化で性能を上げるのが容易=デカ計算機を使えばAIの性能が上がる時代突入

2018年 IBMNVIDIAと開発した「Summit」がスパコン世界ランキング1位の座を5年ぶりに中国から奪還。全計算のうち96%がGPUによって処理され、HPCハイパフォーマンスコンピューティング)におけるGPU地位は決定的になる。NVIDIAの開発したCPU-GPU間の高速リンク「NVLink」が大規模に活用される。「Summit」は2020年に「富岳」にトップを奪われるまで1位を維持。

・2018~2021年 BERTやXLNet、GPT2など大規模言語モデルの幕開け。まだ研究者が使うレベル

2019年 NVIDIA CEOジェスン・ファン(革ジャンおぢ)が「ムーアの法則は終わった」と見解を表明。半導体シングルスレッド性能の向上は限界に達し、チップレットを始めとした並列化・集積化アーキテクチャ勝負時代に入る。

2022年 NVIDIAがH100発表。Transformerモデル学習・推論機能を大幅に強化したサーバ向けGPUで、もはや単体でもスパコンと呼べる性能を発揮する。H100はコアチップGH100をTSMC N4プロセス製造SK HynixHBMとともにTSMC CoWoSパッケージング技術で集積したパッケージ。※N4プロセスは最新のiPhone向けSoC採用されたN3プロセスの1つ前の世代だが、サーバ/デスクトップ製品向けプロセスモバイル製品向けプロセスクロック電流量が異なり、HPC向けはN4が最新と言ってよい。

2022年 画像生成AIブーム。DALL-E2、Midjourney、Stable Diffusionなどが相次いで発表。

2022年 ChatGPT発表。アクティブユーザ1億人達成に2カ月は史上最速。

2023年 ChatGPT有料版公開。Microsoft Copilot、Google Bard(Gemini)など商用化への動きが相次ぐ。各企業NVIDIA H100の大量調達に動く。

2024年 NVIDIA時価総額世界4位に到達。半導体メーカー売上ランキング世界1位達成(予定)。

こうして見るとNVIDIAにとっての転換点は「ディープラーニング発明」「GPGPU向けプログラミング環境CUDAの発表」「チップセット販売からコンピューティングユニット販売に転換」という3つが同時に起こった2006年であると言えそう。以降、NVIDIAゲーマー向け製品モバイル向け製品販売する裏で、CUDAによってGPGPUの独占を続け、仮装通貨マイニングスパコンでの活躍と言ったホップステップを経て今回の大きな飛躍を成し遂げた、と綺麗にまとめられるだろう。

2024-01-10

anond:20240110194940

その場で何も言えずに黙ってたわ

夜にアクセラレータ一方通行)と同じ能力持った中学生になってそいつらぶっ殺す妄想してた

2023-11-21

anond:20231121093840

なんか勘違いしているのか知らんけど、AI系のアクセラレータ最初ラインナップに加えたのはARMで、ARMIPを売る会社から大工じゃない。

同時期にリッチGPUを入れ込もうとして失敗したのがNVIDIATegraでこっちは失敗している。

Apple最近になって話題になったので強弁しているに過ぎずない。

実際には開発能力が失われているが、イノベーションを起こす余地カットし、現状にだけ最適化した愚かなプロセッサを作ったために力を失っているが、シリコンを再設計しようにもキーとなるエンジニア退職し、当初手がけた企業も今は別の陣営についているので、数年は遅れると思われる。

2023-06-24

anond:20230624173310

より広い範囲文脈を見ているというのであれば、単にデータひっぱってくればいいだけじゃね?

それがまさしくトランスフォーマー、ってか自己注意機構

再帰接続みたいな洒落たことするのではなく、過去任意の地点と現在までに1ステップ接続作れば良いじゃんって発想

ただし文脈で重みは付けましょう、という工夫はする


あと、GPUはいわゆるBLAS演算(行列の積和演算)のアクセラレータだと思えば良い

2023-03-30

AI向けのコンピュータ構成って、どういうのが最適なんだ?

AIを使いたいと思った時の、パソコンの不満点がある

  1. VRAMが24GBでは足りない。1つのモデルも動かせない。VRAMが欲しい。
  2. 複数モデルを動かすのを考えると2枚くらい拡張したい。
  3. RTX4090などではクーラーが占めてしまって、CPUGPUどちらが本体かわからなくなっている。
  4. NVIDIAが強いのはわかるが、AIだけ考えるとAI専用のチップで速いのが欲しい。グラフィック系は最低限でいい。


AppleM2CPUチップの隣にAI向けアクセラレータを付けて、チップ-チップ接続AIアクセラレータの周囲にVRAM配置

という構成がいいのだろうか?

ニューラルネットデータの流れに沿ったハードが良いんだろうが、いまいちよく分からん

ゲームだとシーン変わるまで同じデータ使い回すのでキャッシュ効けばいいのだろうけど、

AI場合モデルが大きすぎてメモリ帯域勝負という理解だがあってるだろうか?

2023-03-17

anond:20230317150736

ビデオアクセラレーターやグラフィックアクセラレーターという呼び名も確かに使われていたな

元々はなんかあったかもしれんけど90年代には全部同じ意味表記ゆれみたいになってたよ

昔のコンピュータ用語解説のいい加減さがマジでやばかったからあの時代を挟んだ向こう側をまともに論じるのは無理じゃね

ROMなんかRead Only Member(今だと「半年ROMれ!」でかろうじて使われてるやつ)とRead Only Memoryが混同されて

チャット説明後者が出てきたりして混乱してたぞ

2023-02-10

GPUのVRAM24GB以上にならないもの

StableDiffusion系はbf18,fp16,8-bit adamなどで8GB程度でも動くようになったが、追加学習をしようとすると足りない。

日々HuggingFaceに投稿される言語AIや音声、言語画像動画を組み合わせといったのになると、24GBでは足りない。

80GBで足りないのも出てきている。、

GPUは8枚まで並列に出来るので、80GBx8枚=320GBといったのになっている。


個人向けと企業向けで違うだろ、というのはそうだが、

結局チューニングしないとそれほど役に立たず、お高めのパソコンで個々人でチューニング出来るとありがたいのだ。


CXL(Compute Express Link)というメモリ拡張用のバス規格が数年前にでき、製品も出始めている。

今までだとCPUからGPU側のメモリコピーだったのが、アクセラレータから参照も出来るようになるらしいのだが、今の所サーバー向けらしい。


まぁ手段はなんでもいいんだが、VRAMの容量が増えればいい。

PCIeスロットメモリ載ったボードさしたらGPUから拡大して見えるとかでもいい。

2022-11-14

IBMは、半導体について何をしてるのか?量産せず、先端だけ研究開発して何処で稼ぐのか?

IBMは先端プロセス研究はしているが、量産を自前でやってない。

持っていた半導体工場譲渡してしまった。

研究した先端プロセスサムスンと協力して量産につなげている。

日本で2nmが立ち上がったとしても、IBMからするとサムスンに+日本が加わるような形に見えるだろう。


でもいまいちIBM意図がわかりにくい。

量子コンピュータに力を入れているので、半導体プロセス技術研究対象として持っておきたいっての、なんとなくわかるが、

量子コンピュータ特化プロセスにならないってあたりがわかりにくい。

いくら量子コンピュータアクセラレータ扱いで、通常ロジックプロセス制御チップ必要だといっても、だ。

2022-09-28

大学スタートアップやれという煽りヤバイと思う。

結論

アイドルyoutuberと同じで、成功しようと失敗しようと黒歴史になるし、辞めたとしても一生監視されて下手したら刺されるリスクがある。

  

最近スタートアップ煽りの現状

・岸田さんがスタートアップ支援すると明言している。

大学研究の意義を示したいためか、研究成果によるスタートアップ煽りまくっている

・実際に、上位大学起業が盛り上がってきており、特にスタートアップが盛り上がっている。

  

モールビジネス起業否定しないが、スタートアップヤバい

モールビジネスでの起業というのは、ネットショップを開いてのハンドメイド製品販売baseで5分で開店できる)やyoutuberキュレーションサイトでアフィみたいなやつ。

モールビジネスは全く否定しない。普通にやればいい。変に目立たず、粛々とやって、お金が入ってきたら法人なりしてもいい。

  

一方で、スタートアップはこういったスモールビジネスとは全く違う。

スタートアップは、自社株を最終的に売ってお金にする。つまり企業価値を上げまくることが目的起業である

急成長させるためには、株を買ってもらってお金に変えるのだが、これを担って金を投資してるのが、ベンチャーキャピタルというやつ。

企業価値を上げるためには、メディア露出するし、投資を受けたらメディアに晒される。

ベンチャーキャピタルに金を投資してもらうために、ベンチャーキャピタルの言いなりになる。

当然、今後の一生は世間から監視される。

ちょっと悪いことしたら企業価値が落ちる」

起業が失敗したら一生ネットに晒される」

起業失敗したら、再就職しても一生陰口叩かれる」

一生だ。

アイドルアイドル辞めても一生粘着されたり、変な恨みを買うのと同じ。

  

最初はスモールビジネスでいい。スタートアップ支援ぶっちゃけモールビジネスでも受けられる。

はっきりいって、スタートアップ支援めっちゃ美味しい。

アクセラレータプログラムだの、オフィスが安くなるだの。

だが、これらはスタートアップでなくて、スモールビジネスでも普通に受けられる。

なんなら、大学が煽ってるスタートアップ支援普通に受けられる。

そう、「スタートアップ支援目的」ならスモールビジネスでいいんだ。

なんなら、ちょっと売上を伸ばしていけば、「売上があるスタートアップだ!」という顔ができる。

スタートアップでイキってる感じはスモールビジネスで十分やれる。

  

日本でスモールビジネスがうまく行ってからビジネスモデルを持ってアメリカスタートアップすればいい。

  

スタートアップ否定なのか?

日本国全体のことを考えると、スタートアップ絶対欲しい。スタートアップ以外の経済成長はありえないから。

・でも、日本スタートアップやるのは本当に個人には明確に損。失敗した時の一生監視されて苦痛を受けるリスクは誰も説明してない。

最近大企業でもスタートアップ支援だの、企業ベンチャーだのがあるけど、そこも手を出さないほうがいい。名前SNSに晒されたら終わりだぞ。

日本スタートアップして一生監視されるリスクおうくらいなら、アメリカのほうが経済規模も、ゴールまでの距離も圧倒的に有利だから、スモールビジネスがうまくいったら海外行ってスタートアップすればいい。

2022-08-24

インテルチップレットって良いん?

DARPAが次の半導体チップレットだと言って、インテルチップレットで作ったチップを出した。

チップレット間でやり取りするための規格も出来きた。

で、実際の所、良いのか?


チップレットのメリットは、複数テクノロジーチップを組み合わせることが出来るっていうので、

インテルの出したのもちょっと過剰じゃないかってくらい組み合わせている。

露光装置ショットよりも大きいサイズチップを作る場合には効果がありそうだってのは想像が付く。

ただ大きくなるとデータを移動させるだけで食う電力が馬鹿にならないってのは、最近プロセスではある話だ。


実際、どれくらい大きくできるのか?大きくしてコストに対してメリットあるのか?

CPUの隣にGPUをつけるくらいはありそうだし、実際目指しているだろう。

他のチップはあるのか?

ダークシリコン機械学習話題になった頃からアクセラレータは増えると言われていたが、増えてない。

2022-06-28

もう家庭向けにはGPUカード以外のPCIカードって出てこないのかな

色んなアクセラレータが出てくると楽しいのだけど

2022-02-13

anond:20211020231403

オプション」「詳細設定」の中の

ハードウェアグラフィックアクセラレータ無効にする」にチェック

マルチスレッド計算を行う」のチェック

をしてみてください。

2021-04-03

anond:20210403132339

たとえばサウンド1つ流すのに1つの基盤チップ必要だったとか。

こういうことを聞くと、現在我々が個別に載せているGPUアクセラレータとかも

20年後くらいには全部システムチップ上に載っているのかなと思って感慨深い。

2021-01-14

今のデスクトップパソコン中途半端

まずマザーボードだがATX規格があってない。

多くの人はGPUは1枚載せだ。2枚載せてもゲーム的にあまり性能が向上しない。

コンセントからの電源供給能力を考えると4枚挿しはできない。

4枚挿しをするのは機械学習に使うくらいだが、家庭だと2つのコンセントから供給する必要が出てくる。

拡張性があるようであまりない。サウンドカードももう載せないだろう。

かろうじてM.2を載せる板としての役割はある。

キャプチャーボードを載せる人もいるだろうが、ノートパソコンでも使いたいと考えると外付けを選ぶのではないだろうか。

8K動画編集するとなると、Blackmagic DesignのDeckLink 8K ProやAJAのKONA5を挿す必要があるが、必要な人はほとんどいないだろう。


CPUの性能はWebをするくらいならノートパソコンで足りていて、

デスクトップとなるとゲームくらいしかない。

機械学習をするとなると性能が足りない。3DCGでも足りてない。

2Dの絵を描くとなるとiPadになる。


DVDドライブを載せることもなくなり3.5インチベイは不要になってきている。

M.2になってSSD用の2.5インチベイも不要だろう。


冷却性能が向上すればいいが、CPUクーラー的伸ばせる方向がメモリーの上になる。


機械学習用のNPUのようなアクセラレータPCIeカードが出てくれば、また拡張性が必要になるかもしれないが、

今のところサーバー向けしかない。


2020-08-17

anond:20200817082601

Turbo Turger なんつーか。まぁ日本だと ターボで有名だけど 実際は アクセラレーターの仲間なんだけど シュレッドターボチャージャー だから はやい。AKBでもわかる理屈

シュレッドして 小さくして ターボチャージャーするから 32が64にふえる。速い。わかりやすい。

2020-07-30

日本はどうして半導体への投資諦めたのか

インテルAMDNVIDIAクアルコムARMAppleなど、日本語でも半導体話題になることが多いが、

国内では敗退色が強く、研究投資もない。


韓国国家を上げて半導体勝負しているし、サムスン投資金額は巨額だ。

中国も同じく国家戦略として国産しようとしている。

EUソフトバンクARMを買収したことによって、European Processor Initiative Research ProjectEUとしての半導体を持とうとしている。

imecという先端プロセスを開発してる拠点もある。


富岳で富士通が関わっていたが、どちらかというとARMアーキが使われたことと1位になったこと、TSMC製造したこと話題で終始しているし、

スパコン予算が取れなかった時点で設計者は消えてしまう。

設計用のEDAソフトウェア国産しようという動きもない。


これからハードではなくソフトウェア差別化だと言っている間に、AndroidiOSに見られるようにパクりパクられを繰り返して多少の使い勝手はあるもの差別化要因になっていない。

Androidスマホなんてカメラ性能とCPU性能とディスプレイ性能を比べてのハードウェアによる差別化しか残ってない。

iPhoneなんてApple siliconを独自SoCを作ることで差別化しようとしているし、GoogleはTPUv4で差別化しようとしている。

GoogleがBERTを学習できるのは大量のサーバーがあるからだし、OpenAIGPT-3を学習できるのはマイクロソフトに大量のサーバーを構築してもらったからだ。


ソフトウェア不要ということはないが、ハードウェアの性能以上のことができないし、より抽象度を上げて処理が重くなる方向に向かってるので、ハード進化するしかない。

それ以前にソフトウェアサービス国内市場しか取れず、Appleには手数料を30%から40%に上げようかと言われる始末だ。


からなら量子コンピュータだろうという意見もあるだろうが、下記の慶応量子コンピュータアーキテクチャの図1を見ればわかるように今のコンピュータがなくなるわけじゃない。

どちらかというとGPUのようなアクセラレータとしての域をまだ出ていない。

https://www.futurelearn.com/courses/intro-to-quantum-computing/0/steps/31566

RISC-Vが、という意見もあるだろうが、性能が突出してるわけでもなく、開発環境が整っているわけでもなく、無料という以外のメリットがない。




最後に謎の半導体会社を紹介しておく。プロセッサー業界情報が知りたければThe Linley Groupサイトニュースお勧めする。

  1. Groq社、GoogleのTPUのコア部分を作ったJonathan RossがCEOとなっている会社で、AI用のテンソルストリーミングプロセッサを作っている。
  2. Graphcore社、AIチップを作っている。Azure上で使えたり、デルサーバーに搭載されている。検索エンジンのQuantも画像処理に使ってる。
  3. GrAI Matter Labs社、エッジ向けAIプロセッサニューロモーフィックで低消費電力が売り。
  4. Cerebras社、215mm×215mmのウェーハレベルAIチップを作っている。
  5. 中国Cambricon Technologies社、サーバー向けの推論チップSiyuan 270を作っている。エッジ向けのSiyuan 220もある。
  6. SiMa.ai社、エッジ向けAIチップを作っている。画像処理用のISPコンピュータビジョン用のハードML
  7. BrainChip社、エッジ向けAIチップAkidaを開発。ニューロモーフィック。

2020-03-20

もっとPCIeアクセラレータカードを指す未来が良かった

GPUくらいしか今じゃ挿すことがない。

もう少し色んな処理を拡張できればよかったんだが。

ログイン ユーザー登録
ようこそ ゲスト さん