はてなキーワード: Nvidiaとは
AppleのM2のCPUチップの隣にAI向けアクセラレータを付けて、チップ-チップで接続、AIアクセラレータの周囲にVRAM配置
という構成がいいのだろうか?
ニューラルネットのデータの流れに沿ったハードが良いんだろうが、いまいちよく分からん。
・Fatal D3D error が発生して落ちる
・音割れする(その他のゲームやmp3再生、動画視聴で問題なし)
まともに遊べない
公式推奨
CPU:AMD Ryzen 5 3600 / Intel Core i7 8700
GPU:AMD Radeon RX 5700 / NVIDIA GeForce GTX 1070
追記事項:
グラフィックオプション「画面品質重視」設定で 1080p/60fps のゲームプレイか可能です。
レイトレーシングに対応する為にはAMD Radeon RX 6700 XTまたはNVIDIA GeForce RTX 2070のグラフィックボードが必要です。
に対して
解像度を下げる
イヤホンに関しては
とかいうtipsを見つけたが、96000Hzってオンボじゃ無理なのでわ?
steamのレビュー好評で埋め尽くされてるから遊べてる奴も多いんだろうが
RTX 4090でもこの現象が出てるという報告もある
これ、「相性」なのか?
ぐぐりゃ出てくるほどD3Dの事象上がってるのに
舐めてんのかって感じ
どうせ官主導ではうまく行かない。だが、理想論をぶち上げる意味はあるだろう。
※計算基盤を自作するのは非常に重要で、そうしないと、GPUクラスタ内での並列化や通信ネットワーキングなど、ChatGPT を動かすためのコアの機能を獲得することができない。正直、ここを外資に握られてたらどうしようもないんじゃないか。
AI絵生成で遊ぼうと思ったらいくらぐらいの予算のパソコンが必要なの?
AI絵生成には、大量の計算資源が必要です。一般的に、高性能のグラフィックスカード(GPU)が必要になります。また、大量のRAMと高速なストレージも必要です。
必要な予算は、使用するAIモデルや絵の生成に必要な解像度や複雑度によって異なりますが、一般的には、数千ドルから数万ドルまでの予算が必要になる場合があります。
AI絵生成に特化したPCを作る場合は、GPUとCPUをバランス良く選び、RAMとストレージも十分な容量を確保する必要があります。また、オペレーティングシステムやソフトウェアの設定も最適化することが重要です。
ただし、クラウドベースのサービスやプラットフォームを利用することもできます。これらのサービスには、類似の機能を提供するツールやアルゴリズムが組み込まれており、必要な計算資源を提供してくれます。この場合、使用料金は生成する画像の解像度や量によって異なる場合があります。
具体的にいくら掛かるの
AI絵生成に必要なコンピュータの具体的な予算は、多様な要因によって大きく異なります。以下にいくつかの例を挙げます。
- 中級ユーザー向け: NVIDIA GeForce RTX 3070 GPU、AMD Ryzen 7 5800X CPU、32GB RAM、1TB SSDを搭載した自作PC。予算は約2,000〜2,500ドル程度。
- 上級ユーザー向け: NVIDIA GeForce RTX 3090 GPU、AMD Ryzen 9 5950X CPU、64GB RAM、2TB SSDを搭載した自作PC。予算は約4,000〜5,000ドル程度。
クラウドベースのサービス: OpenAIのDALL-E 3DやDeepDreamGeneratorなど、AI絵生成のクラウドベースのサービスを利用する場合は、生成する画像のサイズや品質に応じて使用料金が変動します。多くの場合、無料プランや月額数十ドルからの有料プランが用意されています。
これらの予算は、あくまで一例であり、為替レートや地域によっても異なるため、ご参考にしていただくことをお勧めします。また、AI絵生成には様々なアプローチがあり、各アプローチに応じて必要な予算も異なるため、具体的な予算については専門家に相談することをお勧めします。
日本在住の場合、AI絵生成に必要なコンピュータを購入する場合には、以下のような方法があります。
- オンラインショッピングサイトを利用する:Amazonや楽天市場などの大手オンラインショッピングサイトで、必要なパーツやPCを購入することができます。
- パソコンショップで購入する:PCパーツや完成品のPCを扱っている専門店で、購入することができます。日本には、ドスパラやツクモなど、多数のパソコンショップがあります。
- 自作パソコンの専門店で購入する:自作PCに特化したショップで、必要なパーツを購入して自分で組み立てることができます。代表的な店舗には、TSUKUMOやパソコン工房があります。
これらの方法を比較し、価格やサポートなどの観点から最適な方法を選択することをお勧めします。また、インターネット上には、自作PCの組み立て方法を紹介した情報も多数ありますので、事前にリサーチしてから購入することをお勧めします。
上級ユーザー向け: NVIDIA GeForce RTX 3090 GPU、AMD Ryzen 9 5950X CPU、64GB RAM、2TB SSDを搭載した自作PC。予算は約4,000〜5,000ドル程度。の発注書を作成してください。
はい、了解しました。以下が、NVIDIA GeForce RTX 3090 GPU、AMD Ryzen 9 5950X CPU、64GB RAM、2TB SSDを搭載した自作PCの発注書になります。予算は4,000〜5,000ドル程度とのことでしたので、最大限予算内に収めるように構成しました。ご確認ください。
【1. マザーボード】
ASUS ROG Crosshair VIII Dark Hero
【2. CPU】
【3. GPU】
NVIDIA GeForce RTX 3090
【4. メモリ】
G.SKILL Trident Z Royal 64GB (4 x 16GB) DDR4 3600
【5. ストレージ】
【6. 電源ユニット】
【7. ケース】
Lian Li PC-O11 Dynamic XL ROG Certified
【合計価格】
【備考】
以上が、NVIDIA GeForce RTX 3090 GPU、AMD Ryzen 9 5950X CPU、64GB RAM、2TB SSDを搭載した自作PCの発注書になります。ご確認いただければ幸いです。
マザーボードは、コンピュータの各パーツを接続し、制御するための基盤です。ASUS ROG Crosshair VIII Dark Heroは、AMD Ryzenプロセッサーに対応し、高速なデータ伝送を実現するPCI Express 4.0をサポートしています。また、USB 3.2 Gen 2x2、Thunderbolt 3、WiFi 6、10G LANなどの最新の接続規格にも対応しています。
CPUは、コンピュータの中枢部分であり、プログラムの実行や演算処理を行います。AMD Ryzen 9 5950Xは、16コア32スレッドで動作し、最大ベースクロック3.4GHz、最大ブーストクロック4.9GHzを誇る高性能なCPUです。
- GPU: NVIDIA GeForce RTX 3090
GPUは、グラフィック処理を担当するパーツであり、ゲームや動画の再生などに必要です。NVIDIA GeForce RTX 3090は、最新のAmpereアーキテクチャを採用し、リアルタイムレイトレーシングやAI機能を実現します。また、24GBのGDDR6Xメモリを搭載し、高解像度や高フレームレートのゲームにも対応しています。
メモリは、コンピュータが処理するデータを一時的に格納するパーツであり、多くの場合、大量のメモリを搭載することで高速な処理が可能となります。G.SKILL Trident Z Royal 64GBは、高速なDDR4メモリであり、容量も64GBと多くのメモリを必要とするアプリケーションやタスクにも対応します。
ストレージは、データを保存するためのパーツであり、高速なストレージを使用することで、起動時間やアプリケーションの読み込み速度を向上させることができます。Samsung 970 EVO Plusは、高速なNVMeインターフェイスを採用し、最大読み込み速度が3,500MB/s、書き込み速度が3,300MB/sを誇る高性能SSDです。
電源ユニットは、コンピュータに電力を供給するためのパーツであり、高性能なパーツを使用する場合は、電力消費量が増加するため、高出力の電源ユニットが必要になります。CORSAIR RM1000xは、高効率で安定した電力供給が可能な1000Wの電源ユニットであり、高性能なパーツを安定して動作させることができます。
- ケース: Lian Li PC-O11 Dynamic
ケースは、コンピュータのパーツを収納するためのパーツであり、デザインや冷却性能などが重要なポイントとなります。Lian Li PC-O11 Dynamicは、高品質なアルミニウム素材を使用し、美しいデザインと高い冷却性能を両立させた人気のケースです。
CPUクーラーは、CPUを冷却するためのパーツであり、高性能なCPUを使用する場合は、十分な冷却が必要になります。Noctua NH-D15Sは、高い冷却性能を発揮する人気のCPUクーラーであり、静音性も高いため、長時間の使用にも適しています。
追加ファンは、ケース内の空気の循環を改善し、冷却性能を向上させるためのパーツです。Noctua NF-F12 PWMは、高い静音性と高い風量を実現する人気のファンであり、冷却性能を向上させるのに役立ちます。
CPUだったらintelとAMD、GPUだったらnvidiaとAMD、アメリカ企業は業界で基本的に2,3社、多くても4,5社に集約している
ルーターはシスコシステムズとジュニパーネットワークスとか、映像編集はAdobe、3D/CADはオートデスク、DBはオラクル,MS、クラウドはAWS,Azure,Google
寡占で儲けるのがアメリカ
それを頭に入れたうえでこれ見てほしい
自動車(トヨタ、ホンダ、日産、スズキ、マツダ、ダイハツ、スバル、三菱、日野、いすゞ)
造船(今治、ジャパンマリンユナイテッド、大島、三菱、名村、川崎、三井、定石)
複写機プリンター(フジ、リコー、コニカミノルタ、キヤノン、エプソン、ブラザー、京セラ、シャープ、東芝、富士通、NEC)
デジカメ(キヤノン、ニコン、ソニー、フジ、パナソニック、オリンパス、リコー(ペンタックス)、シグマ)
ミシン(ブラザー、ジャガー、ジャノメ、JUKI、ベビーロック、アックスヤマザキ)
化学(三菱ケミカル、住友化学、旭化成、信越化学工業、三井化学、昭和電工、東ソー、日東電工、三菱ガス化学)
どうですかこれ
どう思います?
同じ業界にいくつあるんだよって思いません?
日本企業だけでこれ。これに加えて海外の企業もあって競争してるわけだからそりゃ儲からない
まぁ化学に関しては一言で化学というのはかなり乱暴なんだけど、材料でみても結局同じことなのでわかりやすく化学にした
リストに載ってないけど、化学に関しては数千億円レベルに限っても、この倍くらい会社があって、再編が進んでない業界としてよく化学業界が挙げられる
https://gyokai-search.com/4-chem-uriage.htm
新しい産業がベンチャー企業でごった返してるっていうならアメリカでもあることだけど
成熟した業界でいつまでたっても再編が起きずに無駄な競争をしてるのが日本なんだよね
だから欧米企業が利益率10%~20%なのに、日本企業はいつも5%あたりでうろうろする
それが次の投資余力の差につながって成長に差が出てくる
何も知らない人が見たら7社もランクインはすごい!とか喜びそうなニュースだけど、
記事でも触れられているように、大手のほうが伸びが大きくて5位以下は伸びが小さい。
装置に関しては東京エレクトロンが大きいから例外ではあるけど、その他は「小さくて多い」だよね
パナソニック、東芝、三菱、日立なんでも屋の総合電機メーカーなんだよね
いわゆる複合型、コングロマリットってやつ
トヨタが冷蔵庫や洗濯機を作りだしたら、車の開発がおろそかになるだろってのは想像できると思う
無茶なたとえって思うかもだけど、今の日本にはそれくらい無茶がはびこってる
だから俺はソニーがホンダといっしょに車を作るって話を聞いたとき、まずいなぁって思ったよねw
ソニーって白物家電をやらないからほかの電機メーカーみたいに事業が「小さくて多い」問題がましだったんだけど、EVをやるのはどうだろうね
まぁ肝心の部分はホンダがやるからそこまでコングロマリット病を発症しないかもしれないけどね
文化が成熟し細分化された時代に、総合スーパーや百貨店やファミレスでは限界がある
服にこだわる人は原宿渋谷の店で買うし、そうでない人もユニクロみたいな専門店で買う時代
靴はABCマート、家電はヨドバシ、Appleにこだわる人はAppleストアみたいにね
家電量販店にしても郊外に店がぽつぽつある「小さくて多い」型のヤマダ電機より、駅前にでかい店たてて大量の客をさばく「大きくて少ない」型のヨドバシのほうが利益率がいい
ヤマダ電機 675店 売上 1兆6,005億8,300万円 経常利益 368億8,900万円
日本の家電は競争力がなくなったけど自動車はある程度競争力あるのは「小さくて多い」わけではないから
そしてホンダは2輪や船とか飛行機とかやってるからから4輪が不調なんだと思ってる
日本の電機業界は不調だけど、例外的にダイキンが好調なのは空調専業メーカーだからだよね
空調機器だけで3兆円という「大きくて少ない」をすれば十分戦えることがわかる
それに気づいて復活したのが日立
2012年
2014年
日立マクセル(電池、光学部品、理美容、磁気テープ、CD、DVD)をマクセルホールディングスに売却
日立機材をセンクシアに売却
2016年
日立物流(流通)を佐川急便に29.0%売却(追加売却の予定)
日立国際電気(通信機器、放送機器、監視カメラ)を米KKRに売却
2018年
クラリオン(カーオーディオ、カーナビ)を仏エナップ シス エスエーエスに売却
日立、日立物流を売却 KKRが6000億円超で買収へ - 日本経済新聞
https://b.hatena.ne.jp/entry/s/www.nikkei.com/article/DGXZQOUC199XJ0Z10C22A4000000/
だけど俺はいい方向だと思っているんだよね。
ちなみに富士通はPFU売ったし、新光電気工業や富士通ゼネラルも売却するって言ってるから
日本の半導体産業は元気がないって言われるけど、元気な分野があって、それがパワー半導体なんだけど
1位 infineon(独) 48億ル
8位 nexperia(蘭)6.7億ドル
そして総合電機メーカーの事業が「小さくて多い」もあるので、二重の「小さくて多い」問題が発生している
にも書かれているけど、総合電機メーカーの一事業にすぎない半導体は投資額が大きくなると
事業バランスを気にして思い切った判断ができなくなり投資負けして撤退するというパターンを繰り返している。
早く三菱富士東芝の総合電機は半導体事業をルネサスやロームみたいな専業メーカーに売却するか、事業統合して別会社として切り出すべき
今絶好調といわれてるのが京都企業で、「京都企業はなぜ強いのか」なんて特集がされたりするんだけど
任天堂、村田製作所、日本電産、ロームに共通してるのは複合メーカーではないってことね
「この分野ではだれにも負けません」みたいな専業型が京都企業の特徴
かつては京都といったら京セラみたいな時代があって、一時期アメーバ経営が注目されたけどこの10年くらい停滞している
せっかくセラミックじゃ負けませんな専業の強みがあったのに、なぜかスマホとか電動工具とかプリンターとか始めて複合化してしまって(あの悪名高きバルミューダのぼったくりスマホも京セラ製)
そんなことやってるから案の定、村田製作所においつかれ、そして離され始めている
https://www.nikkei.com/article/DGXZQOUF205NV0Q2A620C2000000/
"谷本社長は10人程度の小集団で業務改善を競う「アメーバ経営」の見直しや、16に分かれた事業の再編などの改革を進めてきた。"
任天堂は亡くなった山内元社長が他分野に手を出すなっていってたらしいけど、最近アニメとかテーマパークとかに手を出し始めてて、ゲーム事業がどうなるか心配ではある
でも岩田社長が素晴らしいのは、家庭用と携帯機の開発を統合しして「小さくて多い」問題を解消したこと
2つしかないものを「多い」っていうのも変な話だけど、作る側も買う側も一つに絞ったほうが助かるよね
フロムソフトウェアも2005年~2010年ごろは社員数250人で年に5~10本のペースでリリースする「小さくて多い」状態だったんだけど
フロム・ソフトウェア#ゲームソフトウェア
逆に今不調なのがスクエニ
スクエニは社員数3000人で年30~40本もリリースする「小さくて多い」路線で失敗している
社員数が同じくらいで業績好調なカプコンが年に5~6本、任天堂は社員数7000人で年10本程度なので
スクエニはカプコン任天堂の7、8倍ゲームを出している計算になる
スクエニのリリース数って毎週ゲーム出してることになる。スクエニは社内に自社のゲームを把握できてる人いないのでは?w
アニメ業界といえば、アニメーターの薄給問題が有名だけど、それも会社が600社もある「小さくて多い」問題だからだよね。
そういう構造的問題を無視して、オタクたちはアニメは日本の文化だ!国が補助金出して支えろ!とか言ってるからホラーだなって思う。
製作会社自体が「小さくて多い」し、製作委員会方式のせいでアニメの権利者が「小さくて多い」からヒットしても利益が分散してしまうし
見る側にしても年200本もアニメが製作されたら可処分時間が分散する「小さくて多い」だし
鬼滅の刃は委員会方式やめたからリスクは大きいけど利益も大きいだろうから、いい見本にしてほしいよね
今回は特定の業界に絞って言ったけど、農業も病院も「小さくて多い」で、根本的な問題は解決せずに補助金で何とかしてる状態なのがアニメ業界と似ているよね
地方自治体の行政システム問題も1700もあるからだし、知床遊覧船のKAZU1の問題も結局のところ、日本に950社以上あって過当競争だからだし
銀行のオーバーバンキング問題とかもそうだけど、とにかくこの国は小さいものが多すぎる
「大きくて少ない」が日本の目指す方向
https://www.itmedia.co.jp/business/articles/2208/23/news061.html
米巨大IT、複合企業化のツケ(The Economist)
https://www.nikkei.com/article/DGXZQOCB060OR0W2A101C2000000/
ASMLがEUV露光メーカーとして有名らしいってのはニュースでやっていたのでわかった。
EUV露光にレジストや、レーザー光によって生じるデブリからウェーハを守るシートなども必要だってのはわかった。
でも半導体ってそれ以外の工程もあって、ウェーハの洗浄や研磨、パッケージングなど色々あると思うのだけど、ニュースにならない。(装置メーカーの株の話はでるけど)
日本の半導体材料が凄いんだって出ている一方で、韓国への輸出制限したら韓国国産化始めて、技術的に凄くて真似できないんじゃなかったんかーいってなった。
装置を買ってくれば先端プロセスで製造できるのであれば、TSMC、サムスン以外にももっと沢山参入しているのでは?
TSMCはパラメータチューニングが凄いっていうのだと、どちらかというと装置メーカーの方が装置に詳しいのだから最高性能が出せる気がする。
Arm CPUコアはライセンス提供してるってのはニュースでやってるので知ってる。
でもCPU以外の、例えばUSBなどもオープンソースはないものなの?
プログラミングツールのように半導体ツールのオープンソースが出ていて、何かを作ったというのを聞いたことがない。
製造は金がかかるし、どこが個人で作ったのを製造してくれるんだってハードルがあるのはわかるけど、
設計ツールでデータを作る所まではできるんじゃ?って想像するのに聞かない。
3次元のチップ積層が排熱出来ないってニュースになったのが数年前。
SSDは積層しているのでメモリーはできるっぽいのと、チップレットで2層まではCPUもできるってのはわかった。
一方で、NVIDIA RTX4090なんてボードは小さいのにクーラーがデカい。
デスクトップケースなんて、中がスカスカなのになぜかデカくなっている。
家庭用に100GEtherが出るまで全然。
無線は速くなってるけど。
2009年11月のいわいる事業仕分けから、もう13年も経った。「2位じゃダメなんですか?」の質問の発言で非常に曰く付きとなったアレだ。
ところが最近、13年も経ってまだなおナゼ「2位」という言葉が出てきたかが理解できてない人がかなりいる事を知った。それどころか、スーパーコンピュータの京は、事業仕分け時点で世界一になることが明白だったなどという認識まで飛び出す始末である。
ただ、資料もなしにどこが変だと言っても仕方あるまい。何がどうして「2位」なのか、少し語ろうじゃないか。
初期の次世代スーパーコンピュータ (この時点では名前が付いていなかったが、以下わかりやすく京と呼ぶ) 計画 は、補助金を投入してのHPC産業育成に目を向けられていた[1]。世界一の性能を出していた海洋研究開発機構の地球シミュレータが、NECのSXシリーズをベースにしたベクトル型であり、ベクトル型のスーパーコンピュータは日本のお家芸とみなされていた。これを育成することが一つの目標。そして、立ち遅れていた当時の世界のスーパーコンピュータの潮流、スカラ型の開発に追いつくこと。これがもう一つの目標となった。結果、世界でも類を見ないベクトル型とスカラ型のハイブリットなどという中途半端な方式になる。実に日本的な玉虫色の決定と言えるだろう。しかし、補助金の注ぎ込みが不足し、事業者持ち出しの負担が大きくなってしまった。結果、事業費負担が高額になることを嫌い、NECと日立の撤退する[2]。これにより、世界の潮流通りのスカラ型とならざるをえなくなった。
CPUはというと、世界のスーパーコンピュータの潮流では当時から既に汎用のx86アーキテクチャのCPUが既に多くなってきていた中、富士通はSPARC64VIIIfxを採用した。よく国産CPUと表現されているが、SPARCの名で分かる通り、当然命令セットは米国Sun Microsystems (現 Oracle) のセカンドソースであり、端から端まで国産というわけではない。更に、業務用UNIXをささえるマシンとして一世を風靡したSPARCではあるが、当時ですらもう下火となっていた。京の事業費の約半分、実に600億円が、この専用CPUに注ぎ込まれることになった。なぜその選択をしたのか。富士通のサイトには省電力と安定性が理由として書かれている[3]。しかし、その省電力という目標も、後述するように微妙な結果となってしまった。また、ソフトウェアの使いまわしも微妙となった。
計画は2005年に始まる。世界でも類を見ないベクトル型とスカラ型のハイブリットという構成もあり、概念設計にはしっかり時間を費やした。2007年9月には性能目標は10P FLOPSと示した[4]。稼働開始は2010年、2012年に完成という工程も同時に示されている。直前の2007年6月のTOP500を見ると[5]、1位のIBM BlueGene/Lが370TFLOPS。5年後に30倍という性能を目指したことになる。当時の発表としては、世界一が取れるような計画だったが、しかし日進月歩の分野で5年は結果的に長かった。
さて、前述のように、ベクトル陣営は2009年5月に撤退を決めた。10P FLOPSの性能と決定した時には、ベクトル側も居たのに、そこがぽっかり空いた状態。10P FLOPSのあてはいつついたのだろうか? 2009年7月の報告書[6]では、スカラ単体で10P FLOPSを達成できること、ベクトル部は存在していても接続まわりの性能が不足していて問題があったことが表明されている。結果的に、なくなってよかったというトホホな内容だ。さて、同報告書では、稼働開始前の2011年6月に、ベンチマークだけでも10P FLOPSを達成してTOP500の1位を目指すと書いてある。どうしてこうなったのだろうか。
遡ること半年の2009年2月3日、米国国家核安全保障局(NNSA)はIBMと新しいスーパーコンピュータ Sequoiaを展開すると発表した[7]。性能は20P FLOPS、京の予定性能の実に2倍を達成するという発表だ。しかも、提供開始は2011年~2012年。京の1年も前になる可能性があるという。
そう、双方が計画通りなら、京は2012年、提供を開始する時には既に2位になっているという話題が出ていたのだ。なるほど、あせって2011年にベンチマークだけでも「トップを取った」という実績を残したいわけである。
さて、その後のSequoiaはというと?
ある意味計画通りだろう、2012年に提供が開始され、2012年6月のTOP500[8]では予定通り20P FLOPSを叩き出し、1位になる。しかし、2012年11月のTOP500[9]では、Crayとオークリッジ国立研究所が作ったTitanが叩き出した27P FLOPSという数字ににあっさりと抜き去られ、2位になる。まるで幽遊白書のラストのような展開だ。しかも、SequoiaはIBMのPower系アーキテクチャで構築されたA2プロセッサだったのに対して、TitanはAMD OpteronとNVIDIA K20Xの組み合わせ。汎用性でも差を開けられている。これはお手上げというものだろう。
さて、話は京に戻す。京が有名になったのは2009年11月13日の行政刷新会議、いわいる事業仕分けである(ここは参考文献は要るまい)。このときまで、そんな計画があることを知らなかった人の方が多かったのではないだろうか。どういうニュアンスで言ったかわからない、まるで日本を貶めているかのように聞こえる「2位じゃダメなんですか?」という言葉が非常にインパクトを与えたことだろう。
さて、じゃぁ何が2位なのか。だ。前述の通り、この時点ではIBMのSequoiaに追い抜かされることが見えていた。TitanはGPUの調達など細かい話が決まってきたのは2010年なので、この時点ではほとんど影がなかったはず。ということで、3位じゃなくて2位としたのは、Sequoiaを意識してのことだろう。つまり、「2位じゃダメなんですか?」というのは、1位を諦めて2位の性能で我慢するべきということではなく、客観的に見れば「2位になるのが見えているのだけど、何で1位と言ってるの?」という話になってくるのが見て取れる。蓮舫氏がそこを意識してたか知らんけど。
共同事業者が撤退し、一応強気に「大丈夫」と言ってはいるが、本当に達成できるかは周りからは疑問符が付くグダグダなプロジェクト状況、ほぼ専用設計で量産時にどういう問題が出るかわからないCPU、ソフトウェアも新規制作。税金の投入は中途半端で、産業を育成したいのか企業負担を増やしたいのかよくわからない(だから撤退する事業者が出る)。そもそもここで出来たスーパーコンピュータ、CPU抜きにしても売れるのか分からない。そりゃ、金田康正教授でなくても、京にはため息が出るというものだ。
さて、京は何を達成したのだろうか? 京は完成前ではあるもののベンチマークを実施し、見事11P FLOPSを叩き出し、2011年6月[10]と2011年11月[11]のTOP500でトップに躍り出る。この分野に日本ありと示した…かどうかはわからないが、一つの実績として言えるのは間違いない。いや、経緯のグダグダ感からして、見事なプロジェクト進行だったと称賛できる。しかし、前述の通り供用を開始した2012年9月[12]にはTOP500ではSequoiaに追い越されており、直後のTOP500ではTitanにも追い越されて3位となっていた。1位は、ベンチマークだけの存在だったと言える。
では目標の産業育成としてはどうだっただろうか。京をベースにしたスーパーコンピュータ PRIMEHPC FX10[13]やFX100は、東大[14]、名大[15]、キヤノン[16]、九大[17]、信大[18]、JAXA[19]、核融合科学研究所[20]、気象庁気象研究所と、調べるだけでも国内実績は多くある。国外実績は、台湾中央気象局[21]、シンガポールナショナルスパコンセンター、豪州 NCI、英国 HPC Walesと、それなりにある。ただどうだろう。産業としてうまくいったのだろうか。有価証券報告書を見ても、その他のセグメントに入ってしまっているため状況がつかめない[22]。謎ではある。とはいえもし、産業としてそれなりに育ったのならば、有価証券報告書で報告する事業セグメントとして独立したものを与えられてしかるべきだったのではなかろうか。少なくとも1000億も出したのだ。そのくらいではあってほしかった。更に言うなれば、特に競争の激しい国外市場をうまく取り込めたかというと、産業育成という視点では頑張ったとは思うものの心もとない結果だったように、少なくとも私には見える。
消費電力の面はどうだろうか。上述の通り、SPARCを使う理由には省電力が上げられていた。これをライバルのSequoia、Titanと比較してみよう。2012年11月のTOP500[9]で見ると、京は12.6MW消費するとある。Sequoiaは7.8MW、Titanは8.2MWだ。実はこの時の報告のあるスーパーコンピュータの中で、最大の電力消費量を誇っている。高いほうがいいのではなく、消費電力は低いほうがいいので、これはかなり問題がある。
費用面はどうだろうか。これもライバルと比較してみよう。京は日本円にして1120億円かかっている。対してSequoiaは2億5000万ドル[23]、Titanは9700万米ドル[24]だ。2012年11月で見るとドル円相場は82円なので、Sequoiaは約205億円、Titanは80億円となるだろうか。京のプロセッサ開発費を除いたとしても、数字が違いすぎるのだ。
纏めてみよう。京は、一時期でベンチマーク上だとしても、TOP500で1位を取った。これは「夢を与え」(平尾公彦氏)た結果だったろう。しかし、それは砂上の楼閣でもあった。しかしそれを実現するための費用は米国の5~10倍で、性能は実は半分、消費電力は1.5倍という結果になり、産業育成も盛り上がったかどうかは判然としない。こんなところだろうか。
近年のスーパーコンピュータを含めたHPC分野はどうなっているだろうか。近年のクラウドコンピューティングの流れを当然HPC分野も受けており、主要プレイヤーとしてAWSの名前が挙がっている[25]。またレポートでは挙がっていないものの、Google Cloudも猛追しており、円周率の計算では1位を叩き出している[26]。必要な時に、必要な規模で構築できるクラウドコンピューティングの波は、さてHPC分野でどこまで浸透していくのだろうか。産業育成の方向が、2009年時点では確かにハードウェア開発だったろう。しかし、事業仕分けへの反発により、日本は方向性を間違ってしまったのではないか。私は、そんな気がしてならない。
[1] ttps://www8.cao.go.jp/cstp/tyousakai/hyouka/kentou/super/haihu01/siryo2-3.pdf
[2] ttp://www.nec.co.jp/press/ja/0905/1402.html
[3] ttps://www.fujitsu.com/jp/about/businesspolicy/tech/k/whatis/processor/
[4] ttp://web.archive.org/web/20130207162431/https://www.riken.jp/r-world/info/release/press/2007/070914/index.html
[5] ttps://www.top500.org/lists/top500/2007/06/
[6] ttp://www.jaist.ac.jp/cmsf/meeting/14-3.pdf
[7] ttps://www.llnl.gov/news/nnsa-awards-ibm-contract-build-next-generation-supercomputer
[8] ttps://www.top500.org/lists/top500/2012/06/
[9] ttps://www.top500.org/lists/top500/2012/11/
[10] ttps://www.top500.org/lists/top500/2011/06/
[11] ttps://www.top500.org/lists/top500/2011/11/
[12] ttps://www.riken.jp/pr/news/2012/20120927/
[13] ttps://jp.reuters.com/article/idJPJAPAN-24020620111107
[14] ttps://pr.fujitsu.com/jp/news/2011/11/14.html
[15] ttps://pr.fujitsu.com/jp/news/2013/05/15.html
[16] ttps://pr.fujitsu.com/jp/news/2013/08/6.html
[17] ttps://pr.fujitsu.com/jp/news/2013/08/22.html
[18] ttps://pr.fujitsu.com/jp/news/2014/02/13.html
[19] ttps://pr.fujitsu.com/jp/news/2014/04/7.html
[20] ttps://nsrp.nifs.ac.jp/news/PS-next.html
[21] ttps://pr.fujitsu.com/jp/news/2012/06/25.html
[22] ttps://pr.fujitsu.com/jp/ir/secreports/2015/pdf/03.pdf
[23] ttps://arstechnica.com/information-technology/2012/06/with-16-petaflops-and-1-6m-cores-doe-supercomputer-is-worlds-fastest/
[24] ttps://web.archive.org/web/20120727053123/http://www.hpcwire.com/hpcwire/2011-10-11/gpus_will_morph_ornl_s_jaguar_into_20-petaflop_titan.html
[25] ttps://www.sdki.jp/reports/high-performance-computing-market/109365
[26] ttps://cloud.google.com/blog/ja/products/compute/calculating-100-trillion-digits-of-pi-on-google-cloud
思惑どおり2nmチップ作る技術が出来たとして、何向けのチップを作るかが重要だ。
車載はルネと被る。
富士通はスパコン向け作ったが国内民間市場まで作れなかったし、半導体から撤退ムードだ。
ソフトバンクArm CPU+AI演算処理+キオクシアメモリ+NTT光通信という構成。
NVIDIAがArm+GPUをやろうとしていたが、GPUをAI演算処理としたもの。
光通信になって処理速度が劇的に上がるわけではないが、発熱元を離すことが出来るので、
冷却の設計自由度が上がる。(もちろんサーバーとして集約したいニーズがあるので離し過ぎは出来ないが)
NECがサーバーと、PCIeボード担当(NVIDIAのようにPCIeじゃないボードかもしれないが)
NVIDIA RTX4090x8個だと3500ワットほどでで動作するが、これを超えないといけない。
数年後だからRTX4090の次の次が出ているはずだ。それも超えないといけない。
桁で性能を超えないと意味がない。
作れたとしても数を揃えれば上回れる性能であれば、わざわざ使いにくい物を使わないし、
世代が進めば追い越される。
あとは、京で分かっていることがだが、スパコン向けをシュリンクしたサーバーは性能良くても売れない。
GPUボードのような形で売りに出さないと、ソフトを書こうという人口も増えない。
圧倒的に足りてない物
cadence、synopsysという米国企業がほぼ独占している。
なんで重要かというと、色々理由はあるが、1例を上げると製造した時に問題が起こらないかをデザインルールをチェックする。
TSMCが新しい○nmプロセスを出すときは、必ずCacence、Synopsysが対応したとプレスリリースを出している。
デザインルールをチェックしない場合、配線間が短く設計し過ぎていてショートして最悪チップが動かないといった自体になる。
ちなみに中国もEDA企業は立ち上げ出来てない(一応中国国内EDAベンダーはあるが)
日本で独自に2nmプロセスを立ち上げるとして、当たり前だがCadenceかSynopsysに対応してもらう、ということになるはずだ。
日本のソフトウェアを立ち上げるのは流石に難しいのではないだろうか。
Cadence、Synopsysともライセンス量が馬鹿みたいに高い。
1チップ作るのに○億と量産前に飛んでいく。
CPUサーバー上でシミュレーターを動かす方法もあるが、先端ロジックだとトランジスタ数が多くなりすぎて、エミュレータを使わないとまともに検証が出来ない。
エミュレータはFPGAみたいなもので、実チップまでは早くならないがシミュレーターより断然早い。
Cadence、Synopsysともエミュレータも出しているが、こちらも高い。ポンポン買えるものでもない。
チップの次はボード設計する為のソフトや、熱シミュレーター、EMCなど必要になる。
ボードはなんとかしようと思えば出来るはず・・・。先端の高密度はCadence、Altium使いたいが。
ちなみにAltiumに関する書籍は日本にはないが、中国では何冊も出ている。
先端ロジックで設計する会社、製造する工場を作ったとして、作った物が売れないと意味がない。
何を作るのか、だ。
しかも今時の先端ロジックは金がかかりすぎて、グローバルで億単位で売らないと半導体にかかる費用がペイしない。
車に沢山半導体が使われるんだということで報道されるが、台数が少ないので、後回しにされて、半導体不足が解消しないってのは昨今の状況だった。
高温まで対応するなど要求スペックが厳しいわりに、数が売れないので半導体企業としては美味しくない。
PS5の台数でも厳しいはずだ。(PS5は売れば売るほど赤字だし)
スマホほど単価が高くて、体積が小さいの輸送費がかからない、そんなものがないといけない。
AI向けはまだまだどれだけ演算能力があっても足りないので、そっち向けはありかもしれない。
ただチップを作っただけでは動かず、ドライバー、ミドルウェアが必要になる。
インテルがやったようにCUDAからコンバートするソフトを用意するなども必要だろう。
相当性能高いチップを作ったとしても、国内市場だけでペイしないだろう。
ソフトウェアエンジニアの方々も、チップが相当性能高くても携わりたくないのではないか。
NVIDIAのGPUを8個とか、数増やしてどっこいどっこいの性能のチップなら、わざわざ国産チップ用にソフトを作る必要がない。
NVIDIA RTX4090を30万+インテルCPU諸々で50~60万。
ゲーム、ゲーム配信、動画製作、色々出来るじゃんっていう人もいるのはわかってるが、
それしか出来んのかって思うわけよ。
プログラミングだと、いや確かに出来るけど、計算リソース増えた分で新しく出来るようになったこと無くね?
みんな新しいガジェット買ってもTwitterかWeb見るくらいしかやってないって言ってるじゃん。
細かい所見ると便利になったとか、表現がリッチになったとか挙がるのはわかる。
一方でAIだとか、AIによるパーソナライズが進むとか言われるけど、個人で出来る計算リソースだと全然足りてない。
パーソナライズというけど、ターゲットとする層にいるかどうかで恩恵を受けられるかどうかが決まってる。
サービス開始が2019年11月にスタートして3年で終了を発表。
答え合わせと行きましょう。
コメントが多すぎるので抜けはご勘弁を。
速報:Googleのゲームサービス『STADIA』発表。YouTubeのゲーム動画から即プレイ開始 - Engadget 日本版
https://b.hatena.ne.jp/entry/s/japanese.engadget.com/jp-2019-03-19-google-stadia-youtube.html
Googleの新ゲームサービス「Stadia」まとめ:これは歴史に残るぞ
https://b.hatena.ne.jp/entry/s/www.gizmodo.jp/2019/03/google-stadia-unveil-summary.html
速報:Google Stadiaは月9.99ドル、日本含まぬ14か国で11月開始。初期タイトル発表 - Engadget 日本版
https://b.hatena.ne.jp/entry/s/japanese.engadget.com/jp-2019-06-06-google-stadia-9-99-14-11.html
348 users 2019/06/07
id:cardmics 任天堂の株が買い時である…ってところまでわかった。
最優秀賞は任天堂の株が買い時と見抜いたid:cardmics さんです。
本日2022年10月18日株価は6115円ということで倍以上になっています。
この時は10分割前でしたから、100株買っていれば300万円以上の利益が出ているということになります。
ちなみに、ソニーとマイクロソフトの株も同じ時期から現在株価で2倍になっているので、こちらを選んでも最優秀でした。
アルファベッドの株価は61ドルから101ドルなので2倍にはなってませんね。
この方は任天堂株を買ったのでしょうかね。
id:zinota88 夢みたいな話でもGoogleなら現実にしてくれるかも、ってのと同時にGoogleだからさっさとなかったことにするかも、ってのを同時に感じるw
id:z1h4784 砂上の楼閣でしょこれ。他の失敗したサービスから学んでないんだろうか
id:Panthera_uncia Googleプラスの終了とほぼ同時、ってのが味わい深い(またすぐ終わるんじゃないかって意味で)
id:outp 将来的にはスタンダードになる形式だけど、まだ早いような…。 割とすぐサービス辞めるグーグルが耐えられるかな。
割とポジティブなコメントが多い中、Stadiaの失敗を予感している人たち。
見事予想的中でございます。
id:kazuya53 成功の道筋がまるで見えない。欧米なら高性能なCS機普及してるのにわざわざ遅延や環境制限されるクラウドで遊ぶ人なんてそんなにいるのか?
id:kirarapoo あまり本気度を感じないので、日本に展開することなくひっそりと終わりそう
詳細な情報が出て全く成功するビジョンを見いだせなかった方々。
見事正解でございます。
id:kabuquery ついにゲームまでグーグルに支配されてしまうのか、、、
id:hanbey64 これで、地上波のテレビは完全に終わるなあ。ゲームだけじゃなくてアバターによるSNSとかで町の中にニュースサイトがあればもう誰もテレビなんかみないだろうなあ。
id:mogmognya NetflixみたいにテレビにSTADIAボタンがつくようになるのだろうか。いろんな産業が死ぬだろうが、でもこの流れは止められないだろうという気がする。パッケージ販売はエロゲだけになりそう。
id:lady_joker すべてがGになるという世界も嫌だなあ
id:vlxst1224 オンゲープレイヤーがいつか夢見た技術がついに実現した感がある。超高速回線あればこそのユートピアが眼前に迫ってきたな。野良クリエイターが自作ゲームを投稿できる日も来るだろう。Unity覚えてバカゲー量産すべし
id:sutannex グーグル様圧倒的強さ。プラットフォーム商売の権化みたいなもの出して来やがった。ソニーと任天堂のハード部門がヤバい。
id:bbbtttbbb 全てのゲーム会社を殺しにきたか
id:liinter7 Googleが日本のITゲーム会社DMMやGree、などを本気で潰しにかかっていることを感じます。
id:fieldragon これからのゲームシステムが変わる可能性を秘めている
Googleに夢を見すぎてしまったり、Googleを過大評価してしまった方々。
ネットワークトラフィックの心配をしていたその他の皆さん。
そこまでユーザーを獲得できませんでしたね。
なお
それから遅延問題を指摘する方々もたくさんいらっしゃいました。
これは他のクラウドゲーミングのプラットフォームでも同じ問題を現在も抱えていますので、まだ時代が追いついていないということでしょうか。
せっかく課金したのにユーザが増えまくっているのか滅茶苦茶重くなっていて最悪。
だから流出したモデルを使ってローカルでNAIの環境を構築する。
ネットには情報もだいぶ転がってるけど陳腐化した情報があまりに多いため増田にまとめることにした。
もしかしたらこの記事もすでに陳腐化しているかもしれないが…単純に間違ってたらトラバで教えてほしい。
もちろん自己責任。この記事を見て導入した結果何かあっても増田は何も保証しない。
英語がわかる人はこっちを見た方が早いと思う。今は導入RTAができるくらい導入は楽になっている。
https://rentry.org/nai-speedrun
VRAMが2GB以上あるNVIDIA製のグラフィックボードがあればローカル環境を構築できる。
GPUの世代はGTX700シリーズ以降。なので一昔前のミドル級ボードでも動作するらしい。
IntelのオンボードGPUでも実行する方法があるらしい(stable_diffusion.openvino)が今回は割愛する。自分で探してね。
その他の推奨環境は以下の通り。
対応OS:Windows7以上(と言うがM1Macでも動作する方法があるとかなんとか)
メインメモリ:16GB以上(VRAMもたくさん必要だが起動時にメインメモリも大量に食う。WebUI起動時にタスクマネージャを見ているとよくわかる)
スマホしか持ってないような人やこういうのがよくわからない人はNovelAIを使った方が良いと思う。
今は重いけど、きっとそのうちみんな飽きてサーバも軽くなるかもしれないし。
(追記)NovelAIがリソースを確保してサーバが軽くなったからリスクを背負ってまで導入しなくても良いかも
(追記)Pythonは当然3系。最新の奴を入れれば問題無い。
導入方法はいちいち書かないけど、「python --version」や「git -v」で
正常にバージョン情報が出る(パスがきちんと通っている)ことはちゃんと確認しよう。
Stable Diffusion web UIはStable Diffusionやそれをベースとした画像生成AIを利用するためのフロントエンド。
その中でも特に開発が活発でデファクトスタンダードとなっているのがAUTOMATIC1111版だ。
導入したい適当なディレクトリに対してPowerShellなどで
「git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git」
なお、AUTOMATIC1111版は数時間単位でコミットが行われるから
定期的に「git pull origin master」で更新しよう。
クライアントはqBitTorrentが一番楽だと思う。
ここにはさすがにmagnetリンクは書かないから各自ググって欲しい。
結構誤解されがちなことだが流出データ50GBを全部ダウンロードする必要は無い。
必要なファイルはanimefull-final-prunedディレクトリの中身とanimevae.ptだから5GBちょっとくらいなんじゃないかな。
もし余裕があるならmoduleディレクトリの中身もダウンロードすればいいけど、ぶっちゃけ必要無いんじゃないか?
まずはanimefull-final-prunedの中身のファイルをリネーム。
「model.ckpt」を「animefinal-full-pruned.ckpt」のようなわかりやすい名前にして、
「animevae.pt」を例えば「animefinal-full-pruned.vae.pt」のような拡張子以外は同じファイル名にする。
WebUI起動フォルダ配下の\models\Stable-diffusionにリネームしたファイルを移動させれば配置はOK。
ちなみにmoduleディレクトリの中身は\models\hypernetworksに移動させて使う。
それらのファイルを設定で適用させると画風が結構変わるがNovelAI再現とは関係無いみたいだ。
(追記)moduleディレクトリの中身の.ptファイルはhypernetworksという技術によって画風などを学習したものらしい。
すでに複数のイラストレーターの画風を学習したptファイルが作成されており議論を呼んでいる。
自分のグラボのVRAMが4GB未満の場合は「set COMMANDLINE_ARGS=」の後に
4GB未満の場合は「--medvram」、2GB未満の場合は「--lowvram」とパラメータを追加しておこう。
自分の持ってるグラボのVRAMがわからないときはGPU-Zなどで調べよう。
またGTX1600系固有のバグ(単色の画像が出力される)があるらしいので
その場合は「--no-half-vae」もしくは「--no-half」や「--precision full」とパラメータを追加。
ちなみにパラメータに「--xformers」を追加してxformersを導入・使用すると
消費VRAMが減って画像生成処理時間も短縮されるので是非導入しよう。
画像からdanbooruのタグをAIで調査するdeepdanbooruを利用する場合は「--deepdanbooru」を追加。
のようになる。
ターミナルやPowerShellなどでwebui-user.batを起動しwebUIの初期導入と起動を行う。
過去には手動でCUDA等を導入する必要があったが、現在はこの初期導入でだいたいの導入が行われる。
ずいぶん楽にはなったがその分初期導入の時間は結構長い。10分~20分くらいかかるかもしれない。
途中で導入処理がエラーで止まってしまった場合は管理者権限で実行するなどして対応して欲しい。
起動ができたらSettingで以下の設定を変更してNovelAIに近づける。
Stop At last layers of CLIP modelを2に、
Eta noise seed deltaを31337にする。
これで設定は完了!
設定を合わせて完全にNovelAIと同じ内容になったのかを確認するテストがある。
出力結果から海外じゃHallo Asuka Testなんて呼ばれている。
これは初期SEEDをはじめとする設定内容が完全に一致していれば同じ出力結果を得られる仕組みを利用している。
プロンプトの内容:masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair
ネガティブプロンプトの内容:lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts,signature, watermark, username, blurry, artist name
https://i.imgur.com/Bfl5qJB.jpg
なお、このテストはAUTOMATIC1111のバージョンやxformersの適用状態によっては微妙に違う画像が出力されることがあるらしい。
xformersを適用させている増田の環境だと確かに二つ並べると間違い探しレベルの違いがあった。
「Booru tag autocompletion for A1111」を導入すればNovelAIのように自動でdanbooruのタグを保管してくれる。
画像生成AIモデルはStable DiffusionがOSSのため派生が結構多い。
自前で追加学習もできるため自前で学習した追加AIモデルを4chanのような掲示板などで共有する人もいるらしい。
しかしそのようなモデルの中にウィルスのような悪意のある動作を行うものもあるらしい。
FBIがペドフィリアを一網打尽にするためにIPアドレスなどの個人情報を抜き出す動作を行うロリ特化AIモデルを掲示板で配布していて
しかもそれには本物の児童ポルノが教師データとして使われている…などという都市伝説的な話が今界隈を賑わせている。
インテル、AMD、Apple、クアルコム、NVIDIA各社毎年新しいCPUやGPUを発表してるけど、少なくとも家庭用に関しては別に3年に1回くらいで良くね?
毎年数十%早くなったとか言われてもその恩恵感じられること少ないし、消費者も買い換えるの数年に一回がデフォでしょ
これだけワッパ良くなりました!とか言われても買い替えのコストをペイできるわけでもないし
まぁサーバー向けならワンチャンワッパでコストメリット出せるかもしれないけど、家庭用じゃほぼほぼ無理
だから、毎年アップデートするのはXeonやスリッパだけにして、coreiやryzenは3年に1回くらいの更新でいいんじゃないかな
Mac使い呼称 | 正式名称 | 備考 |
---|---|---|
winOS | Microsoft Windows | |
dosOS | MS-DOSまたはMicrosoft Windows | |
andOS | Android | |
roidOS | Android | |
chrOS | Google ChromeOS | |
gooOS | Google ChromeOS | |
linOS | Linux | |
ubnOS | Ubuntu | |
debOS | Debian GNU/Linux | |
ubnOS | Ubuntu | |
bsdOS | FreeBSD | freeBSDと表記しないのが不思議(BSDIのBSD/OSではない) |
gChrome | Google Chrome | |
msEdge | Microsoft Edge | |
iEdge | Microsoft Edge | おそらくIEとEdgeを合成しているのだと思われる |
fireFox | Mozilla Firefox | |
Visual Studio | Visual Studio Code | CodeでないVisual Studioとは違うので注意 |
vStudio | Visual Studio Code | 同上 |
VStudio | Visual Studio Code | 同上 |
DOSV | いわゆるPC | |
ryPC | AMD Ryzen | Intel系CPUのMac使い呼称は見たことが無い |
eGPU | オンチップでないGPU | |
gForce | NVIDIA GeForce | |
nForce | NVIDIA GeForce | 懐かしチップセットではない(nvidia GeForce)という事? |
rad | AMD Radeon | 放射線量は関係ない |
radGpu | AMD Radeon | こちらも放射線量は関係ない |
andPhone | Anrdoid搭載のスマートフォン |