はてなキーワード: 地球シミュレータとは
2009年11月のいわいる事業仕分けから、もう13年も経った。「2位じゃダメなんですか?」の質問の発言で非常に曰く付きとなったアレだ。
ところが最近、13年も経ってまだなおナゼ「2位」という言葉が出てきたかが理解できてない人がかなりいる事を知った。それどころか、スーパーコンピュータの京は、事業仕分け時点で世界一になることが明白だったなどという認識まで飛び出す始末である。
ただ、資料もなしにどこが変だと言っても仕方あるまい。何がどうして「2位」なのか、少し語ろうじゃないか。
初期の次世代スーパーコンピュータ (この時点では名前が付いていなかったが、以下わかりやすく京と呼ぶ) 計画 は、補助金を投入してのHPC産業育成に目を向けられていた[1]。世界一の性能を出していた海洋研究開発機構の地球シミュレータが、NECのSXシリーズをベースにしたベクトル型であり、ベクトル型のスーパーコンピュータは日本のお家芸とみなされていた。これを育成することが一つの目標。そして、立ち遅れていた当時の世界のスーパーコンピュータの潮流、スカラ型の開発に追いつくこと。これがもう一つの目標となった。結果、世界でも類を見ないベクトル型とスカラ型のハイブリットなどという中途半端な方式になる。実に日本的な玉虫色の決定と言えるだろう。しかし、補助金の注ぎ込みが不足し、事業者持ち出しの負担が大きくなってしまった。結果、事業費負担が高額になることを嫌い、NECと日立の撤退する[2]。これにより、世界の潮流通りのスカラ型とならざるをえなくなった。
CPUはというと、世界のスーパーコンピュータの潮流では当時から既に汎用のx86アーキテクチャのCPUが既に多くなってきていた中、富士通はSPARC64VIIIfxを採用した。よく国産CPUと表現されているが、SPARCの名で分かる通り、当然命令セットは米国Sun Microsystems (現 Oracle) のセカンドソースであり、端から端まで国産というわけではない。更に、業務用UNIXをささえるマシンとして一世を風靡したSPARCではあるが、当時ですらもう下火となっていた。京の事業費の約半分、実に600億円が、この専用CPUに注ぎ込まれることになった。なぜその選択をしたのか。富士通のサイトには省電力と安定性が理由として書かれている[3]。しかし、その省電力という目標も、後述するように微妙な結果となってしまった。また、ソフトウェアの使いまわしも微妙となった。
計画は2005年に始まる。世界でも類を見ないベクトル型とスカラ型のハイブリットという構成もあり、概念設計にはしっかり時間を費やした。2007年9月には性能目標は10P FLOPSと示した[4]。稼働開始は2010年、2012年に完成という工程も同時に示されている。直前の2007年6月のTOP500を見ると[5]、1位のIBM BlueGene/Lが370TFLOPS。5年後に30倍という性能を目指したことになる。当時の発表としては、世界一が取れるような計画だったが、しかし日進月歩の分野で5年は結果的に長かった。
さて、前述のように、ベクトル陣営は2009年5月に撤退を決めた。10P FLOPSの性能と決定した時には、ベクトル側も居たのに、そこがぽっかり空いた状態。10P FLOPSのあてはいつついたのだろうか? 2009年7月の報告書[6]では、スカラ単体で10P FLOPSを達成できること、ベクトル部は存在していても接続まわりの性能が不足していて問題があったことが表明されている。結果的に、なくなってよかったというトホホな内容だ。さて、同報告書では、稼働開始前の2011年6月に、ベンチマークだけでも10P FLOPSを達成してTOP500の1位を目指すと書いてある。どうしてこうなったのだろうか。
遡ること半年の2009年2月3日、米国国家核安全保障局(NNSA)はIBMと新しいスーパーコンピュータ Sequoiaを展開すると発表した[7]。性能は20P FLOPS、京の予定性能の実に2倍を達成するという発表だ。しかも、提供開始は2011年~2012年。京の1年も前になる可能性があるという。
そう、双方が計画通りなら、京は2012年、提供を開始する時には既に2位になっているという話題が出ていたのだ。なるほど、それはあせって2011年にベンチマークだけでも「トップを取った」という実績を残したいわけである。
さて、その後のSequoiaはというと? ある意味計画通りだろう、2012年に提供が開始され、2012年6月のTOP500[8]では予定通り20P FLOPSを叩き出し、1位になる。しかし、2012年11月のTOP500[9]では、Crayとオークリッジ国立研究所が作ったTitanが叩き出した27P FLOPSという数字ににあっさりと抜き去られ、2位になる。まるで幽遊白書のラストのような展開だ。しかも、SequoiaはIBMのPower系アーキテクチャで構築されたA2プロセッサだったのに対して、TitanはAMD OpteronとNVIDIA K20Xの組み合わせ。汎用性でも差を開けられている。これはお手上げというものだろう。
さて、話は京に戻す。京が有名になったのは2009年11月13日の行政刷新会議、いわいる事業仕分けである(ここは参考文献は要るまい)。このときまで、そんな計画があることを知らなかった人の方が多かったのではないだろうか。どういうニュアンスで言ったかわからない、まるで日本を貶めているかのように聞こえる「2位じゃダメなんですか?」という言葉が非常にインパクトを与えたことだろう。
さて、じゃぁ何が2位なのか。だ。前述の通り、この時点ではIBMのSequoiaに追い抜かされることが見えていた。TitanはGPUの調達など細かい話が決まってきたのは2010年なので、この時点ではほとんど影がなかったはず。ということで、3位じゃなくて2位としたのは、Sequoiaを意識してのことだろう。つまり、「2位じゃダメなんですか?」というのは、1位を諦めて2位の性能で我慢するべきということではなく、客観的に見れば「2位になるのが見えているのだけど、何で1位と言ってるの?」という話になってくるのが見て取れる。蓮舫氏がそこを意識してたか知らんけど。
共同事業者が撤退し、一応強気に「大丈夫」と言ってはいるが、本当に達成できるかは周りからは疑問符が付くグダグダなプロジェクト状況、ほぼ専用設計で量産時にどういう問題が出るかわからないCPU、ソフトウェアも新規制作。税金の投入は中途半端で、産業を育成したいのか企業負担を増やしたいのかよくわからない(だから撤退する事業者が出る)。そもそもここで出来たスーパーコンピュータ、CPU抜きにしても売れるのか分からない。そりゃ、金田康正教授でなくても、京にはため息が出るというものだ。
さて、京は何を達成したのだろうか? 京は完成前ではあるもののベンチマークを実施し、見事11P FLOPSを叩き出し、2011年6月[10]と2011年11月[11]のTOP500でトップに躍り出る。この分野に日本ありと示した…かどうかはわからないが、一つの実績として言えるのは間違いない。いや、経緯のグダグダ感からして、見事なプロジェクト進行だったと称賛できる。しかし、前述の通り共用を開始した2012年9月[12]にはTOP500ではSequoiaに追い越されており、直後のTOP500ではTitanにも追い越されて3位となっていた。1位は、ベンチマークだけの存在だったと言える。
では目標の産業育成としてはどうだっただろうか。京をベースにしたスーパーコンピュータ PRIMEHPC FX10[13]やFX100は、東大[14]、名大[15]、キヤノン[16]、九大[17]、信大[18]、JAXA[19]、核融合科学研究所[20]、気象庁気象研究所と、調べるだけでも国内実績は多くある。国外実績は、台湾中央気象局[21]、シンガポールナショナルスパコンセンター、豪州 NCI、英国 HPC Walesと、それなりにある。ただどうだろう。産業としてうまくいったのだろうか。有価証券報告書を見ても、その他のセグメントに入ってしまっているため状況がつかめない[22]。謎ではある。とはいえもし、産業としてそれなりに育ったのならば、有価証券報告書で報告する事業セグメントとして独立したものを与えられてしかるべきだったのではなかろうか。少なくとも1000億も出したのだ。そのくらいではあってほしかった。更に言うなれば、特に競争の激しい国外市場をうまく取り込めたかというと、産業育成という視点では頑張ったとは思うものの心もとない結果だったように、少なくとも私には見える。
消費電力の面はどうだろうか。上述の通り、SPARCを使う理由には省電力が上げられていた。これをライバルのSequoia、Titanと比較してみよう。2012年11月のTOP500[9]で見ると、京は12.6MW消費するとある。Sequoiaは7.8MW、Titanは8.2MWだ。実はこの時の報告のあるスーパーコンピュータの中で、最大の電力消費量を誇っている。高いほうがいいのではなく、消費電力は低いほうがいいので、これはかなり問題がある。
費用面はどうだろうか。これもライバルと比較してみよう。京は日本円にして1120億円かかっている。対してSequoiaは2億5000万ドル[23]、Titanは9700万米ドル[24]だ。2012年11月で見るとドル円相場は82円なので、Sequoiaは約205億円、Titanは80億円となるだろうか。京のプロセッサ開発費を除いたとしても、数字が違いすぎるのだ。
纏めてみよう。京は、一時期でベンチマーク上だとしても、TOP500で1位を取った。これは「夢を与え」(平尾公彦氏)た結果だったろう。しかし、それは砂上の楼閣でもあった。しかしそれを実現するための費用は米国の5~10倍で、性能は実は半分、消費電力は1.5倍という結果になり、産業育成も盛り上がったかどうかは判然としない。こんなところだろうか。
近年のスーパーコンピュータを含めたHPC分野はどうなっているだろうか。近年のクラウドコンピューティングの流れを当然HPC分野も受けており、主要プレイヤーとしてAWSの名前が挙がっている[25]。またレポートでは挙がっていないものの、Google Cloudも猛追しており、円周率の計算では1位を叩き出している[26]。必要な時に、必要な規模で構築できるクラウドコンピューティングの波は、さてHPC分野でどこまで浸透していくのだろうか。産業育成の方向が、2009年時点では確かにハードウェア開発だったろう。しかし、事業仕分けへの反発により、日本は方向性を間違ってしまったのではないか。私は、そんな気がしてならない。
[1] ttps://www8.cao.go.jp/cstp/tyousakai/hyouka/kentou/super/haihu01/siryo2-3.pdf
[2] ttp://www.nec.co.jp/press/ja/0905/1402.html
[3] ttps://www.fujitsu.com/jp/about/businesspolicy/tech/k/whatis/processor/
[4] ttp://web.archive.org/web/20130207162431/https://www.riken.jp/r-world/info/release/press/2007/070914/index.html
[5] ttps://www.top500.org/lists/top500/2007/06/
[6] ttp://www.jaist.ac.jp/cmsf/meeting/14-3.pdf
[7] ttps://www.llnl.gov/news/nnsa-awards-ibm-contract-build-next-generation-supercomputer
[8] ttps://www.top500.org/lists/top500/2012/06/
[9] ttps://www.top500.org/lists/top500/2012/11/
[10] ttps://www.top500.org/lists/top500/2011/06/
[11] ttps://www.top500.org/lists/top500/2011/11/
[12] ttps://www.riken.jp/pr/news/2012/20120927/
[13] ttps://jp.reuters.com/article/idJPJAPAN-24020620111107
[14] ttps://pr.fujitsu.com/jp/news/2011/11/14.html
[15] ttps://pr.fujitsu.com/jp/news/2013/05/15.html
[16] ttps://pr.fujitsu.com/jp/news/2013/08/6.html
[17] ttps://pr.fujitsu.com/jp/news/2013/08/22.html
[18] ttps://pr.fujitsu.com/jp/news/2014/02/13.html
[19] ttps://pr.fujitsu.com/jp/news/2014/04/7.html
[20] ttps://nsrp.nifs.ac.jp/news/PS-next.html
[21] ttps://pr.fujitsu.com/jp/news/2012/06/25.html
[22] ttps://pr.fujitsu.com/jp/ir/secreports/2015/pdf/03.pdf
[23] ttps://arstechnica.com/information-technology/2012/06/with-16-petaflops-and-1-6m-cores-doe-supercomputer-is-worlds-fastest/
[24] ttps://web.archive.org/web/20120727053123/http://www.hpcwire.com/hpcwire/2011-10-11/gpus_will_morph_ornl_s_jaguar_into_20-petaflop_titan.html
[25] ttps://www.sdki.jp/reports/high-performance-computing-market/109365
[26] ttps://cloud.google.com/blog/ja/products/compute/calculating-100-trillion-digits-of-pi-on-google-cloud
年 | 名前 | 性能(PFLOPS) | 性能比 | 消費電力(MW) | 性能/MW(PFLOPS) | 性能比 |
2002 | 初代地球シミュレータ | 0.0359 | 6 | 0.0059833 | ||
2011 | 京 | 10 | 278.5倍 | 12.7 | 0.7874 | 131.599倍 |
2020 | 富岳 | 415 | 41.5倍 | 28.3 | 14.6643 | 18.623倍 |
年 | 名前 | 性能(TFLOPS) | 性能比 |
2000 | PS2 | 0.0062 | |
2006 | PS3 | 0.23 | 37.1倍 |
2013 | PS4 | 1.843 | 8倍 |
2020 | PS5 | 10 | 5.42倍 |
ゲーム機だとこうなる
だんだん性能が伸びなくなってるよな
ブコメにワットパフォーマンスの話が出たのでスーパーコンピュータのWとか調べてワッパで比べてみた
だけどPSにかんしては、調べるとみんな言うこと違ってて
新型コロナウィルスの流行で家で過ごす時間が長くなったので、暇を持て余して学生の時以来15年ぶりくらいに長時間はてなに入り浸っている。相変わらず、リアルの職場や友人とは話さないであろうネタが多くていい気分転換になるのだが、気になったのが、「全体的に話題が浅く内向きになった?」感だ。あまり上手く説明できないので箇条書きにするとこんな感じ。
・海外情勢の記事減ったよね?2000年代半ばだとシリコンバレーの文化や流行みたいなの記事が結構あったような。梅田望夫氏とか人気だったよね?今だと中国のIT企業の裏側とかのネタもっとあってもいいと思うけど、俺の観測範囲では見ていない。
・経済の話題が出なくなったよな?経済だと昔はリフレ派の主義主張を結構見た記憶が。最近だとMMTの話題や各国の中央銀行のコロナの経済対策とかの話題がありそうでない。
・科学技術もそうで、惑星探査機はやぶさに、地球シミュレータ、PS3のハード構成とかの考察記事や、IntelとAMDのアーキテクチャ比較とか技術オタク的な視点でわちゃわちゃ盛り上がっていた気が。
・新型コロナウィルスの流行でSNSの医療クラスタの発言は結構取り上げられているけど深さが物足りない。昔のノリなら通りすがりの研究者が海外でのワクチンの開発やレムデシビル、アビガンといった治療薬の治験データとかの論文解説記事を上げてただろうし、「僕の考えたコロナ封じ込めプラン」的な、青臭いけど熱のこもった医学部生の考察記事なんかがホットエントリに上がってた気がする。
・教養主義の衰退。昔はDankogai氏やfinalvent氏のような教養を感じさせるブロガーが目立っていたが、そういうノリがいつの間にかなくなっている。
・ライフハック。昔から若干うざいと思っていたから記事が減ってすっきり。
・自分語りというか、非モテ系のくねくねした自分語りのネタが昔は多かった気が。かつての自分語りが15年前は試験サービスだった増田にシフトした感だが、ブログでの自分語りは他人の人生をトレースしてる感があって増田よりもエモかったんだよな。なんだかんだで当時から生き残っているシロクマ先生の存在感。
・党派性が強くなった?昔から”はてサ”という言葉があったくらい、左派色の強いブコメが多かったが話題の幅が減ってる。なんていうかジェンダー論と政府批判に集中しすぎというか。ここ数日話題になっていた香港の国家安全法の話題が全然出てないのはリベラルとして感度が鈍くないか?
全体的な傾向を無理やりまとめると、昔は技術に強いインテリタイプが主なユーザーだったのが、すそ野が広がって良くも悪くも大衆化したという感じだろうか?大衆化したといっても芸能人のアメブロ読んでる層とは全然人種が違う感あるけども。例えば、会社や学校の同僚の8割方が知らないであろうジェンダーバイアスとかトーンポリシングとかの単語が普通に通じる空間はなんやかんやで異質。
昔の格言か何かで、『戦略レベルのミスは戦術レベルでは取り返せない』というのがある。
確かに、近年電機業界で大きな損失を出した会社を見てみると、この戦略レベルのミスが非常に目立っておりなるほどなと思う。
プラズマディスプレイに社運をかけて大赤字を出したPanasonicやPioneer、巨額の開発費をCell Processorに投資して爆死したSONY、Westinghouseの買収でやらかした東芝等。
ところが、最近増田で話題のNECを調べてみると、こうした会社とは不振の状況が違うように思えてきた。
なんというか各事業で競争力を失って徐々に敗退していくというような。言い換えれば戦術レベルの敗北を繰り返してじり貧になったとでもいうか。
昔半導体がらみの仕事をしていてNECの事業所にも出入りしていたことがあり、個人的にも興味があったので歴史を少しまとめてみた。
なお、この記事を書くのに参考にしたのは下記NECのIRで、1990年からの業績データと、1995年からの会社紹介資料が閲覧可能。
https://jpn.nec.com/ir/index.html
1999年 半導体メモリ事業を日立と統合して分社化。後のエルピーダメモリ。2012年に経営破綻。
2000年 家電部門のNECホームエレクトロニクス事業停止。
2001年 有機EL事業をサムスンSDIと合弁化。2004年に有機EL事業から撤退。
2004年 プラズマディスプレイ事業をパイオニアに売却。
2010年 半導体子会社のNECエレクトロニクスをルネサステクノロジと統合。半導体事業から事実上撤退。
2011年 液晶事業を天馬グループとの合弁化。2016年に完全売却。
1991年 NECの研究員だった飯島澄男がカーボンナノチューブを発見
2001年 スーパーコンピューター地球シミュレーターが世界一の性能を発揮
2001年 2000年度3月期決算で過去最高の売り上げ5兆4000億円達成。 ※バブル期の1990年度でも3兆7000億円程度。この時期までは比較的うまく経営ができていたと思われる。
NECに出入りしていたころに思ったが半導体事業部に新卒で入った社員は大体優秀かつ深夜残業休出当たり前なモーレツリーマンだった。
設備投資も研究開発費も年間3000億円コンスタントに投資しており、今の水準で考えても少ないことはなさそう。
しかも20世紀終わりから21世紀にかけて爆発的に伸びた情報通信産業に社内のリソースを集中してて、バックに住友財閥もついている。
会社の置かれた状況を考えると韓国のサムスン電子や中国のHuaweiみたいに、今でも世界を席巻できていただろうに。マジでどうしてこうなった…
当時気になったのは本業と関係ない関連会社が異様に多いことぐらい。(不動産のNECファシリティーズ、運送業のNECロジスティクス、食堂運営のNECライベックス、企業研修のNECラーニング等)
どうでもいいけど最近のスローガンのOrchestrating a brighter worldってのはマジで意味不明。迷走ぶりを象徴している。
精密計算科学/数値シミュレーションを行う研究者達にとっての基本インフラです。
突然なくなると大変な事態になる事はどうか把握しておいてください。
残念ながら京速を使っている企業は公開されていないようですが、
地球シミュレーターの利用企業からなんとなく推測できます。平成23年度まで常連だったトヨタ、住友などが京速稼働以降姿を消しています。スカラーマシンに適応した計算が京速に移行したカンジでしょうか。
基本的に有料で使用されており、得られた結果は企業秘密として扱われ公開されません。
(追記:
京速ではなく HPCI ですがこちらの産業利用をクリックすると論文リストが見れるようです。参考までに)
一般に、スパコンでは年1~2回の公募があり、そこに申請します。研究者向けに言うと「科研費のめっちゃ厳しい版」です。審査は書類(プロポーザル)とプレゼンです。ライバルが顔を合わせて殺し合うので厳しいし怖いです。
京の場合は特に競争が激しく、新学術を通すような大御所達がボコボコ落とされた事で一部で話題になりました。研究者同士で競争し合い勝ち残った一握りのエリートが京速を使っているのだということは理解しておいてください。政治家に叩かれるまでもなく、研究者同士で常に科学の文脈で議論し、叩き合っています。
ちなみにとある blogで「京速は何に使うか決まっていない」と叩かれたようですが、これは公募が出る前の話なので当たり前です。
京の目的は多数あるのですが、まずは
ということを押さえて以下を読んでください。
「日本で作ろう」というひとたちは「日本から出て行くお金」(貿易赤字)について気にしています。一方「輸入しろという人」は「政府から出て行くお金」(国の借金)を気にしています。前者は企業や経済産業省の人たちで、後者は財務省もしくは「国民目線」ですね。
かつて日本でスパコンを作り、シェアを斡旋して来た技術者達はまだ生きています。
彼らが引退する前に若手に技術継承をすることが京速の目的のひとつです。
(実は戦後、航空機の技術継承を巡って同様のプロジェクトがあったのですがこちらは失敗しています・・)
たしか外務省かなんかからの要請だったとおもいます(忘れた)。
「戦略資源」という意味がわからなかったので人に聞いたところによると
何があっても戦争に巻き込まれないため、いざというときには日本でスパコンを作れるようにしておきたい、といったかんじのことを説明されました。
日本各地に備蓄してある水とか石油とかと同じ扱いという事ですかね。
(追記:
要は日本の産業にダメージを与えるにはスパコン攻撃すれば良いという状況になっていて(関連企業はこんなかんじ)
「日本にはスパコン売ってやらねー」とやられることを恐れているようでした。誤解を生んですみません。
などで一部が公開されています。
それから各研究グループ毎に web ページをつくり広報しているのですが、
はっきりいうと、関わっている研究グループが多すぎてまとめ切る事は不可能だと思います。
今月も7個くらいあるんでどうぞ行ってみてください。
政府が全額出すのではなく、企業と半分ずつ費用を出し合うからです。
1から開発するのは大変なんでしょうね・・
ベクトル型に適した研究分野と、スカラーに適した研究分野があります。
前者は主に流体計算のようです。例えば気象、海洋、宇宙分野とか製品開発における空気抵抗の計算など。
後者はその他いろいろです。例えば素粒子の格子QCDやトヨタの物理シミュレーションなんかはおそらくこっちでもいいのでしょう。ここで
という状況があります。利用者を集めて京に関する議論があったのですが
といったカンジで大揉めしました。このあといろいろあったのですが最終的にスカラー派は京速で、ベクトル派は地球シミュレーターでと住み分けているようです。
当時のGPUは「良く間違える上に、間違えたかどうかチェック出来ない」精密科学計算にはちょっと使えない代物でした(当時の話です)。東工大のTSUBAMEがありましたが、あれは「GPUすごい」というより、「松岡さんスゴイ」なのではないかと思います。
最終的に民主は仕分けを撤回しましたし、今回のやつも「予算の削減努力を」という提言であってスパコン自体が仕分けられたわけではありません。そして企業側も削減したいとは思っているはずなのでたぶん誰も困らないはず。困るのはこの手のニュースで陰謀論を流され、国民の誤解を招く事です。(どうも政治が絡むと陰謀論が流れやすいようです)前回ひどい陰謀論を流されたのでちょっと警戒しています。自民も民主も両方かばったからね!喧嘩しないでね!
なんかまちがってたらごめんね
(追記)
があります。競争が激しかったのは無料コースの重点課題であり、有料コースはいつでも受け付けているはずです。
TSUBAMEは無料コースが以前までなかった、あってもハードルが高い 有料で使うには(僕の分野の計算の性質上)ちょっと気軽に申し込める値段じゃなかった、ということです。TSUBAMEの有料コースが特に高いというわけではありません。
誤解を生んですみません。
azure-frogs『世界一になる理由を説明できるようにしてください』という問いには最低限でこの程度の説明が必要なのに、例の仕分け当日に出てきた答えは『夢』だったわけでw
この記事は民主党批判の意図はありませんし、また、あのときスパコンを批判した人たちを決して馬鹿にしません。
あの仕分けを見ていたなら当然そうですよね。どうもすみません。
ところで上記の内容は、報道関係者向けに開かれた討論会の内容の一部です。仕分け直後に研究者達が企画したものです。
そこでの内容は結局、どこにも報道される事はありませんでした。そもそも報道関係者は2、3人しか来ませんでした・・
なので大変お手数なのですが、スパコンについて知って頂くには、各地で開催される一般公開や講演会に足を運んで頂くしかありません。
申し訳ありません。
うーん・・企業毎にスパコンを外国から購入するということですか? どうでしょうね・・・
スパコンを「購入する」といっても完成した製品がポンと来るわけではありません。
その場で組み立てて、バグ取りとかテストとか利用者も一緒になって手伝います。(一個ずつ基盤抜いてチェックとかも・・)バグ取りとチューニングでだいたい1年くらいかかります。スパコンの管理者も知識と技術を求められるのでどの企業にもできるというわけではないのかもしれません。一応、その辺りのスパコン利用リテラシーを企業の人たちに教えるというのも京速の目的の一つだったかと思います。
一方、素粒子や宇宙の研究者達は基盤Sなど取得して PACSシリーズやGRAPEシリーズを作ってきたので国策スパコンがなくなったら以前のように独自開発に戻るのだとおもいます。たぶん一番影響を受けるのは一般企業です。
komochishisyamoその辺は多分判ってる気がする。問題は1100億超、次はもっと掛かるという費用に対する説明の方なのでは?誰もスパコン要らないとは言ってないわけだし。
僕はあくまで利用者のひとりであってスパコン開発はド素人です。なのできちんとお答えできません・・すみません。
ところでスパコンの開発費はほぼ人件費です。新しいものを作るので開発期間の検討をつけるのはなかなか難しいのではないかと素人目にも思います。だいたい計画通りにいかなくてずるずる開発期間が延びた結果開発費が・・・というのはよくある話ですよね。
京速コンピュータは計画当初から確か10年ほどかけてつくられたので、110億を富士通の技術者の平均年収で割れば、関わった人数が概算できるかもしれませんね?
yum1271 人件費のみで、年収750万の専門技術者が1400人で10年開発=1050億円。末端まで含めて1400人は少ない気がする。あと人件費以外もかなり掛かるはず
HarnoncourtHarnoncourt費用は年収ではなく人月単価で計算すべき。1人月80万~マネージャで200万くらいです。この単価は、昔からあまり変わりません(汗)。スキル低い新人だと1人月60万くらいになりますが、そんな奴を連れてくるなと。
まさかの専門家さんですか! どうもありがとうございます。
gaudere 80年台に日本勢がシェアを「独占」していた、というのはちょっと無理があるのでは。もちろん、存在感はいまよりずっとあったけど。その頃の人がまだ残ってるのはその通り(定年間近だけど)。
どうもありがとうございます。ちょっとかき直しました。
日米スパコン貿易摩擦のイメージが強すぎて誤解していました。すみません。
他にも間違いがありましたらご指摘いただけたら嬉しいです。
bhikkhuなんか食料安全保障みたいな話になってる。結局は技術的に負けてる産業に国が補助金出すって話と理解していいんですかね。
京コンピュータは完成時に実行効率90%越えの化け物みたいな数字(本当にスカラー?!)をだしてTOP500 1位とって、多数の賞を獲得してたので国産スパコンプロジェクトとしては大成功だったように僕には見えました。あれだけあれば宣伝になるし売れたのでは?関係者じゃないのでわかりませんが。
filinionfilinionムーアの法則の21世紀にあってさえ、計算機資源ってそんなに足りてないものなのか…。実用品であるなら、コスト対効果のベストなあたりを何台も作る、というわけにはいかないんだろうか。一位でなきゃだめなの?
すみません、誤解を生んだようです。スパコンは京以外にもたくさんあります。
僕自身は京コンピュータと全く関わりのない人間ですが、他のスパコンのアカウントはありますし、計算時間も頂いています。
もし、京を潰したら現在京をつかっている人たちが他のスパコンを使い始めるでしょう。そうしたら僕のような末端の使えるスパコンは無くなってしまうかもしれません。京も含めて分野全体の計算資源の計画がなされているので突然無くなると困るという事です。
主に京が叩かれているのは「なんで日本でスパコン作るの?海外の買えば安いのに」というものなので
その辺りに焦点を絞って説明したつもりなのですが難しいですね・・・
http://anond.hatelabo.jp/20151113183705
その記事をみると河野さんが真面目にやっていることが伝わってきますね。悪い人ではないのでしょう。
でも難しいですね・・・僕自身も仕分けで上手く説明できる気がしません。
「根拠のない数字」とはおそらく経済効果のことですよね。一番経済効果があるのは一般企業の製品開発なのですが、
基本的にスパコンの計算結果は企業秘密になっているはずです(京の企業利用はよくわからないのですが、地球シミュレーターに習うとそのはずです)。公開されているのは無料利用した基礎研究で、こちらの経済効果はどうしても妄想になってしまう・・・
車よりも電車を例にとった方がいいかもしれません。
大勢の人が関わりすぎて把握できないのが難しさの原因の一つだからです。
中韓と高速鉄道ダンピング競争の果てにJRが赤字になり、鉄道撤退を表明しました。
日本政府が「半分出すから続けてくれ」とJRに頼む。すると「何で税金出すの?どのくらい経済に影響があるの?」と問われる。でも JR も国土交通省も答えられない。各企業に表明してもらうしかない。
バイオの今までの数年の動向と現状、そして進路について思うことを書いてみたよ。
受験生やバイオ系の学生さんに進路を考える点でちょっとでも参考になればうれしいよ。
数年前までバイオがとても注目されて、クローン技術、移植医療、ヒトゲノム計画、遺伝子組み換え食品などが
有名になったよね。
では今はどうかと言えば、そんな言葉見る影もない・・。
あれだけ騒いでいたマスコミ連中は「これからはナノテクの時代」などと別なことをほざくようになって、
バイオなどどこ吹く風・・・。当時、理工学系の学部で最もレベルが高かったのは紛れもなく「バイオ系学科」だったのに、
いまは最もレベルが低い学科に成り下がってしまっているみたい・・・。
受験生の間では、
クローン羊ドリーの誕生によってクローン技術が世界で騒がれ、はたまた脳死患者からの日本初の臓器移植、あるいは、
世界規模で行われていたヒトゲノム計画の激化、夢のような食品を作ろうと考え出された遺伝子組み換え食品、まさに
それと同時に「バイオは倫理観が伴う非常に難しいもの」と倫理性も問われるようになったんだ。
例えば、「クローン技術や遺伝子組み換えは自然が作ってくれた生物の存在を根底から覆すものだ!」って
非難を浴びたし、「脳死患者からの移植は倫理的に問題がある」ってお偉い方は慎重だったし、
ヒトゲノム計画は、「それによって人の遺伝子が分かることでその人の人間的な価値まで判断されてしまう!」
なんて言われていたんだ。
これを読んでいるみんなもこれらのことは知っている人も結構いるだろうね。
倫理観まで問われるってことはそれだけバイオが注目されていた証拠でもあるよね。
じゃあ、あれから数年経った今はどうかって言うと、悲しいけど全く言われなくなっているよね。
それともバイオはみんなを幸せにしたからもういらなくなっちゃったってこと?
繰り返すけど、1990年後半は紛れもなくバイオブームだった。
でもこの言葉って罠がある。
あくまで1990年後半はバイオ"ブーム"ってわけで、バイオの時代が来たっていみじゃなかったんだよね。
ここに大きな問題点がある!マスコミ連中が報じる「これからは○○の時代」って言葉には注意が必要なんだ。
(2)それを大々的に報じる
(3)そして世間がそれに食いついてきたら「これからは○○の時代」って報じる
と言うやり方があるんだよね。
だから「これからは○○の時代」と言われても本当にその時代が来るかどうか誰にも分からないよね。
確かにそれを報じた時やその数年後はその○○が注目されるけど、それ以降はまた別な◎◎が注目されるようになって、
「これからは◎◎の時代」ってふうに話題がすり替わっているものなんだ。
では、この前後で科学の世界ではどういったブームがあったかを振り返ってみよう。
年代 | ブーム |
---|---|
1985~1990 | バイオブーム(利根川先生のノーベル賞がきっかけ) |
1989~1994 | 地球環境ブーム(→農学部の大幅な改組) |
1995~1998 | 大型基礎研究施設ブーム(SPring-8、スーパーカミオカンデ、地球シミュレーター) |
1998~1999 | ITブーム(正確にはIT革命ブーム) |
1996~2000 | バイオブーム(クローン技術、移植医療、ヒトゲノム計画、遺伝子組み換え食品) |
2000 | ヒトゲノム計画のドラフト(概要)が完了 |
2000 | ITバブル崩壊(IT不況へ、しかし近年持ち直す) |
2001 | (このあたりからバイオが騒がれなくなる) |
2002~ | ナノテクブーム |
2003 | ヒトゲノム計画が完全終了(しかし世間はすでに見向きもしなくなっていた・・・) |
あれあれあれ??!1985~1990年にもバイオブームがあったんだ~。
実はこれ、利根川先生がノーベル賞を取ったことを機にかなり盛り上がったみたいなんだ。
当時バブル経済まっただ中で、いろいろな企業もこぞってバイオの研究をするようになっていたんだ。
電機メーカーが線虫っていう虫の脳神経を調べたり、神経細胞が伸びていく方法を利用して半導体の
でも、バブル経済が崩壊したらそれらのメーカーもバイオの研究をやめちゃったんだ。
バイオの研究って他の分野の研究とは違ってきちっとした方法論が確立されていなくて手探りでやるから、
本業で稼ぐのが一番ってことで電機メーカーは撤退しちゃったんだ。
その次の1995~1998の大型基礎研究施設ブームっていうのは主に物理学の世界で、宇宙とか素粒子
(原子を構成しているもの)を研究するのには大型の研究施設が必要ってことで各地に建設がされたということだよ。
当時マスコミ連中が言ってた言葉は当然「これからはITの時代」。
2000年にヒトゲノム計画のドラフトが完了したことで、当時マスコミ連中はバイオの倫理について大騒ぎしたんだよね。
でも、これを境にだんだんとバイオが騒がれなくなっていったんだ・・・。
これとは対照的に2002年くらいからナノテクがだんだんと報じられるようになってくる。
2003年にヒトゲノム計画が完了したときにはもう誰も世間の人は見向きもしなくなってしまっていたんだ・・・。
何でだろうね・・!?
2つ目は同じことの繰り返しで真新しさがなくなってしまった場合。
1つ目にあたるのは、ヒトゲノム計画だね。
当時は人の遺伝子が全部分かれば、病気の原因も分かるようになるって注目されたけどそんなことは全然ないよね。
結局、遺伝子解読したから何が分かると言えば、その遺伝子の配列が分かっただけ。
それ以降には全然進まない。
だってどの遺伝子が原因は結局は実験をしてみないと分からないものだから。
ヒトゲノム計画は学問的にも産業的にも利用価値がなかったってわけ・・・。
ヒトゲノム計画の時にアメリカのある企業ががんばっていたんだけど、終了後はこの計画にあまり意味がないことに
ヒトゲノム計画はそんな程度だったみたいだね。
2つ目の理由に当たるのは、クローン技術や脳死移植、遺伝子組み換え食品だね。
その後はあまり技術的な革新はないから(クローン技術はその対象を広げたけどそれ以上はないし)、マスコミ的には
何かフタを開けてみるとあっけないよね・・・。
それにしてもいろいろなブームがあったんだよね(皮肉/苦笑)。
ブームってのは確かに山があって頂上まで行ったら後は滑り落ちるだけってのは分かる。
でも科学の世界ってそんな短期間で語れるようなブームで動いているわけ!?答えは「それは正しくない」よね。
今まで言ったように科学の世界のブームは単純にマスコミが作り出しただけで、実際の科学の研究はもっとコンスタントに
行われていて、確かにある分野が注目されるときはあるけどそのあとは見向きもされなくなるなんてことは変なことだよ。
だって見向きもされなくなるってのはその研究が価値がなかったってことが分かったってことなんだからね。
でも、世間の人はそういうたった数年のブームにのせられてしまうし、多感な受験生なんてそれだけを信じて進路を
「これからは○○の時代」ってフレーズに載せられてその○○の分野に入学しても自分がいざ研究や就職を
しようとするときには世間は完全に見放していたなんてことになったら、いったい何のためにその分野を
バイオの研究者は生物をどのように解析するか?それは文字通り「ただやみくもに」って言葉がぴったりな方法なんだ。
びっくりしたでしょ?ぼくはバイオの研究の問題点は3つあると思っているよ。
1つ目は、生物学の研究方法では他の分野(特に物理学や化学、工学)のように原理原則を見いだそうとは
されていないこと。だから生物学の研究方法はまるで『錬金術』のように「訳の分からない遺伝子をやみくもに入れてみたら
どうなる?」とか、「この薬品とこの薬品を入れてみたらどうだろう?」ってふうに原理原則を見いだそうとせずに、
結果さえよければそれでいいって感じでやっているのが現状なんだ。
錬金術ってのはみんなが小学校・中学校で習ったと思うけど、昔の人は金属ごとに違う原子でできていることを
知らなかったから、鉄やアルミニウムから金を作ろうと必死にいろいろな方法を試していたんだ。
これらの原理原則を知っている現代の人から見ればバカバカしいことだけど、残念ながら生物学の研究は現在でも
2つ目は1つ目とも関連があるんだけど、生物学の源流が『博物学』であるから、その博物主義的な発想から
抜け出せないところ。みんなも博物館に行けばいろいろな昔のものが陳列してあってどの時代にどのようなものが
あったかよく分かるよね。でもそれが分かったところで今の自分の生活には活かせないでしょ?それと同じで生物学も、
その対象が動物・植物から細胞・分子レベルにまで移ったのに、やっていることは昔の生物学者がおもしろい生物種を
追い求めて野外を駆けめぐったように、今の生物学者も同じ発想で遺伝子や細胞の中で働いているタンパク質を
発見することに全力を注いでいるよ。そしてそれに名前を付けて陳列して「どうだ!オレはこんなにたくさんのものを
発見したんだぞ」って威張っている状態なんだ。
だから、そこから一般的な原理原則を見いだすことはないし、それを何かに役立てようって雰囲気も全くないんだ・・。
表向きは生物学は理系に属しているけど、理系らしさの証でもある数学・物理学・化学を駆使して数理的に
解析するなんてことは絶対にない。
そういった解析をしている学者は生物学者ではないんだ(苦笑)。
確かに生物と言えども自然界に存在するものはすべて物理化学的法則に縛られているから、その方向からの
解析が必要になるはずだけど、生物学は博物学の流れを持っているからそのような部分には生物学者は
見向きもしないんだ。
文系でも経済学や心理学、社会学では数学を結構使うから、生物学者は文系以上に
それだったら何のために大学入試で数学や理科をやってたんだよって感じだよ。
しかも、生物学の研究には多くの機械を使うけど、生物学者は機械の原理や中身の動作については
全く分かっていないんだ。機械のボタンを押せば何か分からないけど目的の研究ができるってふうにしか
機械を捉えていないから、機械がうまく動かないときは自分で直したりせずに修理を頼むんだ。
その間はだたぼぉ~って待つだけなんだ(笑)。他の理系の研究ではまず考えられないことだよね。
大事なのは、世界のバイオ機器を支えているのは電気工学と機械工学で、この2つがなければバイオは
ダメになるということ。でもバイオの人たちは、自分の研究が電気工学と機械工学に支えられていることに
全く気づいていないんだ。それなのに自分達だけでバイオの研究をしているって勘違いしている部分がヤバいんだよね。
バイオの人間はもっと発想を変えて、理系らしくすべきだと思うけど、みんなそんな意識はなくて毎日朝から晩まで、
続きは
事業仕分けのスパコンの話を国の下請けクソミソソフトウェア開発現場
・その118億円のスパコンは建物やインフラのコストは含まれてないんじゃないかな? 適当なビルにスパコン放り込んで電力的な問題は無いの? 空調はどうするの? 床は大丈夫?
・価格対性能比の良いCPUとやらは、必要な精度を上げたら能率が大幅に落ちたりしない? 何千個と組み合わせて性能が出せるシロモノなの?
・適当に選んだ安価な部品がディスコンになったら代品はどっから持ってくるの? スーパーコンピューターを一から組み直すの? ライセンスとファブをエライ値段で買わされるの?
・Linpackは得意でも実際にやりたい計算で2位と言える性能が出ないんじゃない? 地球シミュレーターとか、今でも部分的ではありますが上位に食い込んでるようですよ。
http://slashdot.jp/articles/09/12/18/0838221.shtml
本題であるボッタクリについては同意するけどねー。
そういう所の交渉力が無いのは制度から地味に改善してくべきだろうに、そういう方面のやる気の無さはかつて無いレベル。本当に語るだけの夢。そっから先は手も足も動かさない。事業仕分けとか素人がちょっとした助言もらいつつの思い付きで決定するようなどこのバカが考え出したんだかわかんない「ぼくのかんがえたさいきょうのせいじしゅほう」に振り回されたりとか、実際誰も幸せにならないんじゃないかな。
IntelだってItanium使えば高価だしAMDはx86しかやってない。あとはIBMのPOWERぐらいしか知らないけど結局三社とも買えても自分で作れない。それぞれ死滅しないだけの理由はあるんだろうけど詳しいことはよく知らない。俺は素人だし。ただ、x86に不向きな問題や課題が沢山あるのはよく聞く話。だからnVIDIAがTeslaに心血注いでるしAMDも後を追ってる訳で。
食料自給率がどうのとかはきっちり騒いでる癖に技術の自給率については無頓着。中国産の毒野菜食わされるような未来が産業にもやってくるのですね。よく分かります。
計算する問題が分割されたままで良い、という領域においては当然そうなる。分割したもの同士が相互作用しないのなら。
残念ながらシミュレーション系においてはそらGRAPEが扱うなかでもごくごく一部ぐらいだけがそうで(普通は共有メモリ内で参照できるからそんな高いコストを払わなくて良い)、それ以外はメッシュだろうが格子だろうがIBだろうが最低でも隣接する領域との相互作用計算のための共有メモリ外との通信が発生する。
スケールアウトできないのはものすごく雑に言うと、
・扱う問題が原理的に向いてない
・計算機同士のインターコネクトが今でも遅すぎるのにこれ以上遅くしたらまさに演算系の無駄
ってとこがものすごく大きい。
評価・統合などなどまあ使う方式で言い方も使い方もいろいろあるけど、分割しただけで統合したりする処理が要らないんだったら、まさにRoadrunnerのOpteronブレード部分は無用だよ。計算するだけならCellブレードとインターコネクトボードがあればいい。だがOpteronを使わなきゃいけない(というわけでも無いんだけどあれぐらいの処理能力とメモリバンドとローカルメモリはバランス的に欲しい)というところに何かがあると感じてくれ。これをかいてる自分増田は定量的に~とか言われると式をグダグダ書き連ねないと説明できない低脳なので。
長大ジョブを投入して計算中でも、計算を止めないままノードごと別のノードに引き継がせて、そのノードを捨てたり点検したり、ってのは超大規模クラスタではもちろんある。
(脱線するが、x86は縮退させにくいとか、信頼性が足りないとかいうのも最近みかけるけどそんなことはない。x86だからということはないし、ノードの設計とジョブの入れ方できまるようなもの。あとすべてのノードをVMにのせてジョブを続けながらLive Migrationした実証実験なんてのもある。x86系コア・メモリのRAS機能は充実してきてるとはいえまだ足りないが、RAS機能がホントに重要ならPOWERベースにすれば実績と性能の点で申し分ない。x86の出自云々をいうならsparcだって出自がアレだしね。zシリーズにまで同一コアが使われるPOWERとは違う。脱線終わり)
それにスケールアップといったときに地球シミュレータの例はあまり適切ではないとおもう。アレは元々いろいろとアップグレードしにくいシステムだったし。
どうせならアップグレードしやすいCray XT5や、今度のXT6あたりで比較しよう。ちょうどJaguarのコアアップグレードは4Phaseにわけて実行された。
http://www.nccs.gov/computing-resources/jaguar/road-map/
コアの入れ替えだけなんでかかった費用は支援費の二千万ドル含んで数千万ドル(ちょっと語弊があるけど)。
あとJaguarはNCCSの配下にあるというのは一つの特徴だろう。利用時のスケジュールポリシーなんかもほぼ全部載ってるので、読んでみるといいよ。ちなみにNCCSのトップページにはいつも今配下のクラスタに投入されてるジョブがでてる。
ついでにGoogleのシステムはパソコンがベースって言って良いのかわからないぐらい特化してるよ。だから省電力でもある。それを安く調達するのはまさに規模の経済。
ToRスイッチを完成品じゃなくてBroadcomからチップ買って自前で専用のスイッチつくっちゃうのも規模の力。
最近いろんなところで引き合いに出されるNACCのGPUクラスタはコスト面とアルゴリズムで比較対象にもいい。簡単にいうと「苦手」なものを対象としないことで他の問題に最適化したのが濱田先生のところのチームがつくったクラスタ。特性を把握して性能を引き出して、実際に運用したという意味でとても良い研究なんだけど、故に超大規模クラスタとかで走らせることになる巨大CFDモデルなんかは対象外のシステムだ。
だから最近のスパコンうんたらかんたらとやらでNACCの話を持ち出してる記事やらエントリやらを見かけたら、そこに書かれてることは無視するといい。持ち出してくる奴は、基本からして間違ってるか何でも繋げればスケールアウトすると勘違いさせたがってるだろうから。
分散コンピューティングやグリッドコンピューティングで計算が出来るからスーパーコンピュータが不要だという発言が、実際に計算を行っていない人からなされています。であれば世界中で一カ所に集めたスーパーコンピュータがるのはなぜか?分割した計算を最終的に集めて同期を取らないといけないから。
一方で、ウェブ分野では、分散コンピューティングによる並列計算や、それをサポートする技術に注目が集まっているのも事実。基本的には、PCで使ってるCPUコア単体での性能向上が見込めなくなってきたのが大きな原因ではあるけど、それだけじゃない。
早い話がGoogleのMapReduceで、全体の処理を部分に分割できるタイプの計算なら、並列計算を非常に簡単にプログラミングできるフレームワークが出てきている。この間同社がリリースした「Go」もそうだね。
Googleがこうしたアーキテクチャを用いるのは、基本的にはコストの問題。Googleのバックエンドは、新しいマシンを投入すれば投入しただけ規模を拡大できる「スケールアウト」型のアーキテクチャになっている。マシン自体もコモディティなパソコンがベースになっているので、新規導入コストが非常に安い。この辺は、典型的な「スケールアップ」であるスパコンとは対照的(例えば地球シミュレータは、アップグレードのために200億円近くのコストがかかったりしている)。
また、ランニングコストも非常に安くできる。壊れたマシンは自動的にシステムからパージされるので、後からそのマシンだけ取り替えればいい。省電力の意味でも結構有効らしい。
このシステムが苦手なのは、元増田が引用したように、まさに計算の同期が頻繁に必要なタイプの計算。ただ、そうでないタイプの計算に有効なのはもちろん、コスト面で総合的に上回ったりとか、アルゴリズムの改良で分散システムでも扱えるようになるとか、そういう可能性はないのかなぁ、ということは思っている。
というわけで、詳しい人突っ込んでくれ。
長崎大学が開発したコンピューターは、まともに開発したら数百億円もかかるような代物だったのかということ。元の記事を読むとそういう風にしか読めないように書いてるけど、そうじゃなくて、「数百億円」というのは事業仕分けで言ってる「スパコン」のことなんでしょう?
いや、普通に開発したら数百億するようなものですよ。
地球シミュレータ2と比較しているでしょう?
あれは、122TFLOPS(テラフロップス:1秒間に1兆回の浮動小数点演算性能)とか言っているけれど、その前身のシステムで600億を投じています。
そして、今回はそれを越えたと発表したんです。
もちろん、演算性能だけを比較しているので、一概に同じ土俵とは言えないけれど。
NECのベクトルコンピューティングの粋を集めた地球シミュレーターがすげえが流石に近年型落ち気味
→日本のスパコン三社(NEC・日立・富士通)の総力を結集してスカラー型とベクトル型の長所を併せ持つまったく新しいスパコン作ろうぜ!
→新しすぎて開発難航
→富士通単独なのでベクトル型云々の話はなかったことに。普通に富士通のスカラー型スパコンのごついのを開発することになる
→あれ? スカラー型ならいまどきSPARCでもなくね? PCアーティテクチャなものの巨大クラスタの方が安上がりかつ演算速度早くならね?<いまここ
って話だと理解してるんだが。
仕分け人の「スパコン無用!」に聞こえる発言は乱暴だし、いや実際研究活動に最新鋭スパコンは要るのは要るし早ければ早いほど良いのは確かなのだが、現状には問題ありすぎなのは確かなので、
「今の富士通との一社随意契約はご破算! 目標スカラー演算能力だけ示してIBMそのほか海外勢にも参加してもらって提案協議からやり直します(たぶん海外が勝つから」
って方向の『抜本的見直し』じゃいかんのかなあ、と。
あの騒動で騒いでいる連中が全員理系だというわけではないけれど
まぁ理系率は高いだろう
そして、良いリトマス試験紙になったんじゃないだろうか?
レンホウの1位うんぬん発言はバカ丸出しだが、それにつられてか、スパコン推進派も負けず劣らずのバカ揃いである。
スーパーコンピュータにもいろいろある。
重要なのは、アメリカが力を入れているものは価格にして100億~200億円くらいの、並列クラスタ型が一般的だ。
これは、インテルやAMDが作っている一般的なCPUを何万個も搭載して計算させるもの。
一方で日本の場合は、スーパーコンピュータのために開発した特注。
結果、アメリカのIBM製ロードランナーは150億円くらいで年間の電気代は数百万円程度。
比べて日本の地球シミュレーターは初期型は600億円、年間の電気代も20億円だ
加えてさらにこの前、190億円もかけて拡張した。6年間のレンタルで190億円だそうだwwwww
その金でアメリカは世界一のスパコン作ったんですけどwwって思うのが普通の神経。
はっきり言ってコストパフォーマンス最悪のクズコンピュータだ。これを無視して、無駄だとかどうとか論じるなと言いたい。
ちなみに京速計算機は価格1200億円だそうだ。もうアホだろ。
そのくせ、日本は理系を殺すんだとか、国外に逃げるしかないとか言ってる間抜け揃いで笑ってしまった。
ネズミかおまえらは
簡単なコスト計算をしないで、よくまぁここまで悲観ぶれるなと逆に感心するよ。
仕分け人<もっとやすく作れるだろう。事実他国はもっとやすく作ってる
そら削減されるわ。
日本は理系に冷たいわけでもなく、ごく当たり前の査定結果だったと俺は思う。
こんなの俺だけじゃなく、同じ気持ちの人が、同じようなことをブログで書いていた
そのたびにブクマ数が伸びていた
ブクマも伸びてたし、はてなのバカどもも分かってくれたのかなと思ったけど
今日も相変わらずバカがわめいてて呆れた。
まあLinpack走らせれば比べられるといえばいえるんだけどねえ。
なんかあのニュースに対する反応をいろいろなところで見て地球シミュレーターの凄さと京速計算機のしょぼさをわかってない人が結構いるなあと。
ESの凄いところは、NECにほぼ製品に近いものをつくってもらって買ってきて、気象予測に必要なだけ建物を埋め尽くして、気象予測のために改良がんばったら「原理的に不得意なはずの」ベンチマークソフトを走らせたときの性能ですらトップクラスに長いことい続けたということ。
製品に近いものを使ってるから、後継機が出てきて置き換えて電気代削減なんてできた。
京速はすごい一発狙いで「ぼくたちのかんがえるさいきょうこんぴゅーたをつくりたい」が先にたっちゃってる。すくなくとも今までのプレゼンはそうなってる。そういう場合、作るほうは何を基準に改良してよいかわからない。ベクトルとスカラー混在がだめになった時点ですでに死んでいるものを延命してどうする。
とりのこされた富士通が、開発費ジャブジャブ入れられて作ったとしてその個々の「何にも特化していない」ノードは外販できるのかよっていうね。
目的があっての演算能力と、そうでない演算能力はぜんぜん違うよね。前者が本来の目的のために出せる力と後者が想定していなかった特定の目的に使われたときの力では、ベンチマークソフトとはまったく異なる結果が出るものだよね。
やるからには世界一じゃないとダメだろと言われ続けてきたのが2002年くらいからの流れだったんじゃないかなーと思う。
なのにここ2年で急に「世界一でも意味がないよ」と言われたりしてきたような気がする。
しかし別の方面からはピーク性能よりも意味のない「ピーク性能の性能単価」で比較して批判されたりしてきた。
たとえばこの記事
http://blog.goo.ne.jp/ikedanobuo/e/7a0b5fd9f33ff6d2be7f8e8255b7007f
性能単価ではPS3とかPCに勝てるわけないのでそもそも無駄な比較だと思う。
RADEON5870を2枚つんだ20万のPCを作ればそれだけでピーク4TFLOPS。つまりTFLOPS単価は$500なのである。
だけどそんなPCを1000台つなげたところで烏合の衆であり、できる計算は限られているはずだし、そんな構成で速く計算をやろうとしてがんばってソフト書いた挙句うまく速度が出ないなんてことになったりしがちである。
スパコンの真価はピーク性能じゃなく実効性能であるべきだ。
1990年代には実行性能が高くてソフトが作りやすいのはベクトル計算機であるといわれていた。
今では違うのかもしれないけど、でも地球シミュレータはベクトルで高性能なスパコンを作ったというところに価値があって、
だからこそ地球温暖化シミュレーションなどでばんばん使われて成果を出したのではないかと思う。
しかしベクトルはピーク性能をあげにくい。実際には速く動いてもピーク性能は落ちるので世界トップを目指すのは難しかった。
地球シミュレータがしばらく世界一の座に君臨していたことで、今度も「作るからには世界一」という話になったのではないだろうかという気がする。
そして世界一を目指すためにはベクトルではダメでスカラーを混ぜる必要があったのだろう。
いろいろあって結局(唯一ベクトル計算機を作り続けていた)NECは今回のスパコンプロジェクトから離脱し、ベクトル部分はなくなった結果、
京速計算機は富士通のSparc64VIIIFXを複数組み合わせただけのスカラ型のものになった。
Sparc64VIIIFX自体はたぶん悪くないのだろうと思うが、新CPUを作った上でスカラ型で構築する以上、他のスカラ型に負けていてはダメで世界一でなければ意味がない、というのはわからなくもない。
一方で、ベクトルじゃなかったら正直どうでもいい、別に世界一目指さなくてもいいじゃん、という気もする。
スパコンの専門家が今回「別に世界一じゃなくていいんじゃないか」と言ったのはそういうバックグラウンドがあっての話だと思う。