ところが最近、13年も経ってまだなおナゼ「2位」という言葉が出てきたかが理解できてない人がかなりいる事を知った。それどころか、スーパーコンピュータの京は、事業仕分け時点で世界一になることが明白だったなどという認識まで飛び出す始末である。
ただ、資料もなしにどこが変だと言っても仕方あるまい。何がどうして「2位」なのか、少し語ろうじゃないか。
初期の次世代スーパーコンピュータ (この時点では名前が付いていなかったが、以下わかりやすく京と呼ぶ) 計画 は、補助金を投入してのHPC産業育成に目を向けられていた[1]。世界一の性能を出していた海洋研究開発機構の地球シミュレータが、NECのSXシリーズをベースにしたベクトル型であり、ベクトル型のスーパーコンピュータは日本のお家芸とみなされていた。これを育成することが一つの目標。そして、立ち遅れていた当時の世界のスーパーコンピュータの潮流、スカラ型の開発に追いつくこと。これがもう一つの目標となった。結果、世界でも類を見ないベクトル型とスカラ型のハイブリットなどという中途半端な方式になる。実に日本的な玉虫色の決定と言えるだろう。しかし、補助金の注ぎ込みが不足し、事業者持ち出しの負担が大きくなってしまった。結果、事業費負担が高額になることを嫌い、NECと日立の撤退する[2]。これにより、世界の潮流通りのスカラ型とならざるをえなくなった。
CPUはというと、世界のスーパーコンピュータの潮流では当時から既に汎用のx86アーキテクチャのCPUが既に多くなってきていた中、富士通はSPARC64VIIIfxを採用した。よく国産CPUと表現されているが、SPARCの名で分かる通り、当然命令セットは米国Sun Microsystems (現 Oracle) のセカンドソースであり、端から端まで国産というわけではない。更に、業務用UNIXをささえるマシンとして一世を風靡したSPARCではあるが、当時ですらもう下火となっていた。京の事業費の約半分、実に600億円が、この専用CPUに注ぎ込まれることになった。なぜその選択をしたのか。富士通のサイトには省電力と安定性が理由として書かれている[3]。しかし、その省電力という目標も、後述するように微妙な結果となってしまった。また、ソフトウェアの使いまわしも微妙となった。
計画は2005年に始まる。世界でも類を見ないベクトル型とスカラ型のハイブリットという構成もあり、概念設計にはしっかり時間を費やした。2007年9月には性能目標は10P FLOPSと示した[4]。稼働開始は2010年、2012年に完成という工程も同時に示されている。直前の2007年6月のTOP500を見ると[5]、1位のIBM BlueGene/Lが370TFLOPS。5年後に30倍という性能を目指したことになる。当時の発表としては、世界一が取れるような計画だったが、しかし日進月歩の分野で5年は結果的に長かった。
さて、前述のように、ベクトル陣営は2009年5月に撤退を決めた。10P FLOPSの性能と決定した時には、ベクトル側も居たのに、そこがぽっかり空いた状態。10P FLOPSのあてはいつついたのだろうか? 2009年7月の報告書[6]では、スカラ単体で10P FLOPSを達成できること、ベクトル部は存在していても接続まわりの性能が不足していて問題があったことが表明されている。結果的に、なくなってよかったというトホホな内容だ。さて、同報告書では、稼働開始前の2011年6月に、ベンチマークだけでも10P FLOPSを達成してTOP500の1位を目指すと書いてある。どうしてこうなったのだろうか。
遡ること半年の2009年2月3日、米国国家核安全保障局(NNSA)はIBMと新しいスーパーコンピュータ Sequoiaを展開すると発表した[7]。性能は20P FLOPS、京の予定性能の実に2倍を達成するという発表だ。しかも、提供開始は2011年~2012年。京の1年も前になる可能性があるという。
そう、双方が計画通りなら、京は2012年、提供を開始する時には既に2位になっているという話題が出ていたのだ。なるほど、それはあせって2011年にベンチマークだけでも「トップを取った」という実績を残したいわけである。
さて、その後のSequoiaはというと? ある意味計画通りだろう、2012年に提供が開始され、2012年6月のTOP500[8]では予定通り20P FLOPSを叩き出し、1位になる。しかし、2012年11月のTOP500[9]では、Crayとオークリッジ国立研究所が作ったTitanが叩き出した27P FLOPSという数字ににあっさりと抜き去られ、2位になる。まるで幽遊白書のラストのような展開だ。しかも、SequoiaはIBMのPower系アーキテクチャで構築されたA2プロセッサだったのに対して、TitanはAMD OpteronとNVIDIA K20Xの組み合わせ。汎用性でも差を開けられている。これはお手上げというものだろう。
さて、話は京に戻す。京が有名になったのは2009年11月13日の行政刷新会議、いわいる事業仕分けである(ここは参考文献は要るまい)。このときまで、そんな計画があることを知らなかった人の方が多かったのではないだろうか。どういうニュアンスで言ったかわからない、まるで日本を貶めているかのように聞こえる「2位じゃダメなんですか?」という言葉が非常にインパクトを与えたことだろう。
さて、じゃぁ何が2位なのか。だ。前述の通り、この時点ではIBMのSequoiaに追い抜かされることが見えていた。TitanはGPUの調達など細かい話が決まってきたのは2010年なので、この時点ではほとんど影がなかったはず。ということで、3位じゃなくて2位としたのは、Sequoiaを意識してのことだろう。つまり、「2位じゃダメなんですか?」というのは、1位を諦めて2位の性能で我慢するべきということではなく、客観的に見れば「2位になるのが見えているのだけど、何で1位と言ってるの?」という話になってくるのが見て取れる。蓮舫氏がそこを意識してたか知らんけど。
共同事業者が撤退し、一応強気に「大丈夫」と言ってはいるが、本当に達成できるかは周りからは疑問符が付くグダグダなプロジェクト状況、ほぼ専用設計で量産時にどういう問題が出るかわからないCPU、ソフトウェアも新規制作。税金の投入は中途半端で、産業を育成したいのか企業負担を増やしたいのかよくわからない(だから撤退する事業者が出る)。そもそもここで出来たスーパーコンピュータ、CPU抜きにしても売れるのか分からない。そりゃ、金田康正教授でなくても、京にはため息が出るというものだ。
さて、京は何を達成したのだろうか? 京は完成前ではあるもののベンチマークを実施し、見事11P FLOPSを叩き出し、2011年6月[10]と2011年11月[11]のTOP500でトップに躍り出る。この分野に日本ありと示した…かどうかはわからないが、一つの実績として言えるのは間違いない。いや、経緯のグダグダ感からして、見事なプロジェクト進行だったと称賛できる。しかし、前述の通り共用を開始した2012年9月[12]にはTOP500ではSequoiaに追い越されており、直後のTOP500ではTitanにも追い越されて3位となっていた。1位は、ベンチマークだけの存在だったと言える。
では目標の産業育成としてはどうだっただろうか。京をベースにしたスーパーコンピュータ PRIMEHPC FX10[13]やFX100は、東大[14]、名大[15]、キヤノン[16]、九大[17]、信大[18]、JAXA[19]、核融合科学研究所[20]、気象庁気象研究所と、調べるだけでも国内実績は多くある。国外実績は、台湾中央気象局[21]、シンガポールナショナルスパコンセンター、豪州 NCI、英国 HPC Walesと、それなりにある。ただどうだろう。産業としてうまくいったのだろうか。有価証券報告書を見ても、その他のセグメントに入ってしまっているため状況がつかめない[22]。謎ではある。とはいえもし、産業としてそれなりに育ったのならば、有価証券報告書で報告する事業セグメントとして独立したものを与えられてしかるべきだったのではなかろうか。少なくとも1000億も出したのだ。そのくらいではあってほしかった。更に言うなれば、特に競争の激しい国外市場をうまく取り込めたかというと、産業育成という視点では頑張ったとは思うものの心もとない結果だったように、少なくとも私には見える。
消費電力の面はどうだろうか。上述の通り、SPARCを使う理由には省電力が上げられていた。これをライバルのSequoia、Titanと比較してみよう。2012年11月のTOP500[9]で見ると、京は12.6MW消費するとある。Sequoiaは7.8MW、Titanは8.2MWだ。実はこの時の報告のあるスーパーコンピュータの中で、最大の電力消費量を誇っている。高いほうがいいのではなく、消費電力は低いほうがいいので、これはかなり問題がある。
費用面はどうだろうか。これもライバルと比較してみよう。京は日本円にして1120億円かかっている。対してSequoiaは2億5000万ドル[23]、Titanは9700万米ドル[24]だ。2012年11月で見るとドル円相場は82円なので、Sequoiaは約205億円、Titanは80億円となるだろうか。京のプロセッサ開発費を除いたとしても、数字が違いすぎるのだ。
纏めてみよう。京は、一時期でベンチマーク上だとしても、TOP500で1位を取った。これは「夢を与え」(平尾公彦氏)た結果だったろう。しかし、それは砂上の楼閣でもあった。しかしそれを実現するための費用は米国の5~10倍で、性能は実は半分、消費電力は1.5倍という結果になり、産業育成も盛り上がったかどうかは判然としない。こんなところだろうか。
近年のスーパーコンピュータを含めたHPC分野はどうなっているだろうか。近年のクラウドコンピューティングの流れを当然HPC分野も受けており、主要プレイヤーとしてAWSの名前が挙がっている[25]。またレポートでは挙がっていないものの、Google Cloudも猛追しており、円周率の計算では1位を叩き出している[26]。必要な時に、必要な規模で構築できるクラウドコンピューティングの波は、さてHPC分野でどこまで浸透していくのだろうか。産業育成の方向が、2009年時点では確かにハードウェア開発だったろう。しかし、事業仕分けへの反発により、日本は方向性を間違ってしまったのではないか。私は、そんな気がしてならない。
[1] ttps://www8.cao.go.jp/cstp/tyousakai/hyouka/kentou/super/haihu01/siryo2-3.pdf
[2] ttp://www.nec.co.jp/press/ja/0905/1402.html
[3] ttps://www.fujitsu.com/jp/about/businesspolicy/tech/k/whatis/processor/
[4] ttp://web.archive.org/web/20130207162431/https://www.riken.jp/r-world/info/release/press/2007/070914/index.html
[5] ttps://www.top500.org/lists/top500/2007/06/
[6] ttp://www.jaist.ac.jp/cmsf/meeting/14-3.pdf
[7] ttps://www.llnl.gov/news/nnsa-awards-ibm-contract-build-next-generation-supercomputer
[8] ttps://www.top500.org/lists/top500/2012/06/
[9] ttps://www.top500.org/lists/top500/2012/11/
[10] ttps://www.top500.org/lists/top500/2011/06/
[11] ttps://www.top500.org/lists/top500/2011/11/
[12] ttps://www.riken.jp/pr/news/2012/20120927/
[13] ttps://jp.reuters.com/article/idJPJAPAN-24020620111107
[14] ttps://pr.fujitsu.com/jp/news/2011/11/14.html
[15] ttps://pr.fujitsu.com/jp/news/2013/05/15.html
[16] ttps://pr.fujitsu.com/jp/news/2013/08/6.html
[17] ttps://pr.fujitsu.com/jp/news/2013/08/22.html
[18] ttps://pr.fujitsu.com/jp/news/2014/02/13.html
[19] ttps://pr.fujitsu.com/jp/news/2014/04/7.html
[20] ttps://nsrp.nifs.ac.jp/news/PS-next.html
[21] ttps://pr.fujitsu.com/jp/news/2012/06/25.html
[22] ttps://pr.fujitsu.com/jp/ir/secreports/2015/pdf/03.pdf
[23] ttps://arstechnica.com/information-technology/2012/06/with-16-petaflops-and-1-6m-cores-doe-supercomputer-is-worlds-fastest/
[24] ttps://web.archive.org/web/20120727053123/http://www.hpcwire.com/hpcwire/2011-10-11/gpus_will_morph_ornl_s_jaguar_into_20-petaflop_titan.html
[25] ttps://www.sdki.jp/reports/high-performance-computing-market/109365
[26] ttps://cloud.google.com/blog/ja/products/compute/calculating-100-trillion-digits-of-pi-on-google-cloud
]]>ぴーしーすりー いちまんにせんはっぴゃく (でぃーでぃーあーるすりー せんろっぴゃく) でぃーでぃーあーるすりー えすでぃーらむ
でぃーあーるでぃーらむ
しりあるえーてぃーえー
えすえーてぃーえー
さす
じーおん
あいてにあむ
こあ あいせぶん きゅうせんななひゃくけー
あすろん ろくよん えっくすつー
おぷてろん
えむつー えぬぶいえむいー えすえすでぃー
なんど
のあ
まっくすとあ
まとろっくす
らでぃおん
じーふぉーす
えいすーす
]]>データーセンターも当時は自前でやってたし。がんばってるんだと思うよ。
実際、稼働率を犠牲にしても良いんだったら、なんでもできる。
稼働率やメンテナンス性を犠牲にしないで、サービスを作るから難しい。 メンテナンス考えると出来ないことが増えてくるからね。
]]>残念ながらシミュレーション系においてはそらGRAPEが扱うなかでもごくごく一部ぐらいだけがそうで(普通は共有メモリ内で参照できるからそんな高いコストを払わなくて良い)、それ以外はメッシュだろうが格子だろうがIBだろうが最低でも隣接する領域との相互作用計算のための共有メモリ外との通信が発生する。
スケールアウトできないのはものすごく雑に言うと、
・扱う問題が原理的に向いてない
・計算機同士のインターコネクトが今でも遅すぎるのにこれ以上遅くしたらまさに演算系の無駄
ってとこがものすごく大きい。
評価・統合などなどまあ使う方式で言い方も使い方もいろいろあるけど、分割しただけで統合したりする処理が要らないんだったら、まさにRoadrunnerのOpteronブレード部分は無用だよ。計算するだけならCellブレードとインターコネクトボードがあればいい。だがOpteronを使わなきゃいけない(というわけでも無いんだけどあれぐらいの処理能力とメモリバンドとローカルメモリはバランス的に欲しい)というところに何かがあると感じてくれ。これをかいてる自分増田は定量的に~とか言われると式をグダグダ書き連ねないと説明できない低脳なので。
長大ジョブを投入して計算中でも、計算を止めないままノードごと別のノードに引き継がせて、そのノードを捨てたり点検したり、ってのは超大規模クラスタではもちろんある。
(脱線するが、x86は縮退させにくいとか、信頼性が足りないとかいうのも最近みかけるけどそんなことはない。x86だからということはないし、ノードの設計とジョブの入れ方できまるようなもの。あとすべてのノードをVMにのせてジョブを続けながらLive Migrationした実証実験なんてのもある。x86系コア・メモリのRAS機能は充実してきてるとはいえまだ足りないが、RAS機能がホントに重要ならPOWERベースにすれば実績と性能の点で申し分ない。x86の出自云々をいうならsparcだって出自がアレだしね。zシリーズにまで同一コアが使われるPOWERとは違う。脱線終わり)
それにスケールアップといったときに地球シミュレータの例はあまり適切ではないとおもう。アレは元々いろいろとアップグレードしにくいシステムだったし。
どうせならアップグレードしやすいCray XT5や、今度のXT6あたりで比較しよう。ちょうどJaguarのコアアップグレードは4Phaseにわけて実行された。
http://www.nccs.gov/computing-resources/jaguar/road-map/
コアの入れ替えだけなんでかかった費用は支援費の二千万ドル含んで数千万ドル(ちょっと語弊があるけど)。
あとJaguarはNCCSの配下にあるというのは一つの特徴だろう。利用時のスケジュールポリシーなんかもほぼ全部載ってるので、読んでみるといいよ。ちなみにNCCSのトップページにはいつも今配下のクラスタに投入されてるジョブがでてる。
ついでにGoogleのシステムはパソコンがベースって言って良いのかわからないぐらい特化してるよ。だから省電力でもある。それを安く調達するのはまさに規模の経済。
ToRスイッチを完成品じゃなくてBroadcomからチップ買って自前で専用のスイッチつくっちゃうのも規模の力。
最近いろんなところで引き合いに出されるNACCのGPUクラスタはコスト面とアルゴリズムで比較対象にもいい。簡単にいうと「苦手」なものを対象としないことで他の問題に最適化したのが濱田先生のところのチームがつくったクラスタ。特性を把握して性能を引き出して、実際に運用したという意味でとても良い研究なんだけど、故に超大規模クラスタとかで走らせることになる巨大CFDモデルなんかは対象外のシステムだ。
だから最近のスパコンうんたらかんたらとやらでNACCの話を持ち出してる記事やらエントリやらを見かけたら、そこに書かれてることは無視するといい。持ち出してくる奴は、基本からして間違ってるか何でも繋げればスケールアウトすると勘違いさせたがってるだろうから。
]]>Rank Site Computer/Year Vendor Cores Rmax Rpeak Power1 DOE/NNSA/LANL
United States Roadrunner - BladeCenter QS22/LS21 Cluster, PowerXCell 8i 3.2 Ghz / Opteron DC 1.8 GHz, Voltaire Infiniband / 2008
IBM 129600 1105.00 1456.70 2483.47
2 Oak Ridge National Laboratory
United States Jaguar - Cray XT5 QC 2.3 GHz / 2008
Cray Inc. 150152 1059.00 1381.40 6950.60
3 Forschungszentrum Juelich (FZJ)
Germany JUGENE - Blue Gene/P Solution / 2009
IBM 294912 825.50 1002.70 2268.00
4 NASA/Ames Research Center/NAS
United States Pleiades - SGI Altix ICE 8200EX, Xeon QC 3.0/2.66 GHz / 2008
SGI 51200 487.01 608.83 2090.00
5 DOE/NNSA/LLNL
United States BlueGene/L - eServer Blue Gene Solution / 2007
IBM 212992 478.20 596.38 2329.60
6 National Institute for Computational Sciences/University of Tennessee
United States Kraken XT5 - Cray XT5 QC 2.3 GHz / 2008
Cray Inc. 66000 463.30 607.20
7 Argonne National Laboratory
United States Blue Gene/P Solution / 2007
IBM 163840 458.61 557.06 1260.00
8 Texas Advanced Computing Center/Univ. of Texas
United States Ranger - SunBlade x6420, Opteron QC 2.3 Ghz, Infiniband / 2008
Sun Microsystems 62976 433.20 579.38 2000.00
9 DOE/NNSA/LLNL
United States Dawn - Blue Gene/P Solution / 2009
IBM 147456 415.70 501.35 1134.00
10 Forschungszentrum Juelich (FZJ)
Germany JUROPA - Sun Constellation, NovaScale R422-E2, Intel Xeon X5570, 2.93 GHz, Sun M9/Mellanox QDR Infiniband/Partec Parastation / 2009
Bull SA 26304 274.80 308.28 1549.00
11 NERSC/LBNL
United States Franklin - Cray XT4 QuadCore 2.3 GHz / 2008
Cray Inc. 38642 266.30 355.51 1150.00
12 Oak Ridge National Laboratory
United States Jaguar - Cray XT4 QuadCore 2.1 GHz / 2008
Cray Inc. 30976 205.00 260.20 1580.71
13 NNSA/Sandia National Laboratories
United States Red Storm - Sandia/ Cray Red Storm, XT3/4, 2.4/2.2 GHz dual/quad core / 2008
Cray Inc. 38208 204.20 284.00 2506.00
14 King Abdullah University of Science and Technology
Saudia Arabia Shaheen - Blue Gene/P Solution / 2009
IBM 65536 185.17 222.82 504.00
15 Shanghai Supercomputer Center
China Magic Cube - Dawning 5000A, QC Opteron 1.9 Ghz, Infiniband, Windows HPC 2008 / 2008
Dawning 30720 180.60 233.47
16 SciNet/University of Toronto
Canada GPC - iDataPlex, Xeon E55xx QC 2.53 GHz, GigE / 2009
IBM 30240 168.60 306.03 869.40
17 New Mexico Computing Applications Center (NMCAC)
United States Encanto - SGI Altix ICE 8200, Xeon quad core 3.0 GHz / 2007
SGI 14336 133.20 172.03 861.63
18 Computational Research Laboratories, TATA SONS
India EKA - Cluster Platform 3000 BL460c, Xeon 53xx 3GHz, Infiniband / 2008
Hewlett-Packard 14384 132.80 172.61 786.00
19 Lawrence Livermore National Laboratory
United States Juno - Appro XtremeServer 1143H, Opteron QC 2.2Ghz, Infiniband / 2008
Appro International 18224 131.60 162.20
20 Grand Equipement National de Calcul Intensif - Centre Informatique National de l'Enseignement Supérieur (GENCI-CINES)
France Jade - SGI Altix ICE 8200EX, Xeon quad core 3.0 GHz / 2008
SGI 12288 128.40 146.74 608.18
21 National Institute for Computational Sciences/University of Tennessee
United States Athena - Cray XT4 QuadCore 2.3 GHz / 2008
Cray Inc. 17956 125.13 165.20 888.82
22 Japan Agency for Marine -Earth Science and Technology
Japan Earth Simulator - Earth Simulator / 2009
NEC 1280 122.40 131.07
23 Swiss Scientific Computing Center (CSCS)
Switzerland Monte Rosa - Cray XT5 QC 2.4 GHz / 2009
Cray Inc. 14740 117.60 141.50
24 IDRIS
France Blue Gene/P Solution / 2008
IBM 40960 116.01 139.26 315.00
25 ECMWF
United Kingdom Power 575, p6 4.7 GHz, Infiniband / 2009
IBM 8320 115.90 156.42 1329.70
26 ECMWF
United Kingdom Power 575, p6 4.7 GHz, Infiniband / 2008
IBM 8320 115.90 156.42 1329.70
27 DKRZ - Deutsches Klimarechenzentrum
Germany Power 575, p6 4.7 GHz, Infiniband / 2008
IBM 8064 115.90 151.60 1288.69
28 JAXA
Japan Fujitsu FX1, Quadcore SPARC64 VII 2.52 GHz, Infiniband DDR / 2009
Fujitsu 12032 110.60 121.28
29 Total Exploration Production
France SGI Altix ICE 8200EX, Xeon quad core 3.0 GHz / 2008
SGI 10240 106.10 122.88 442.00
30 Government Agency
Sweden Cluster Platform 3000 BL460c, Xeon 53xx 2.66GHz, Infiniband / 2007
Hewlett-Packard 13728 102.80 146.43
31 Computer Network Information Center, Chinese Academy of Science
China DeepComp 7000, HS21/x3950 Cluster, Xeon QC HT 3 GHz/2.93 GHz, Infiniband / 2008
Lenovo 12216 102.80 145.97
32 Lawrence Livermore National Laboratory
United States Hera - Appro Xtreme-X3 Server - Quad Opteron Quad Core 2.3 GHz, Infiniband / 2009
Appro International 13552 102.20 127.20
33 Max-Planck-Gesellschaft MPI/IPP
Germany VIP - Power 575, p6 4.7 GHz, Infiniband / 2008
IBM 6720 98.24 126.34 1073.99
34 Pacific Northwest National Laboratory
United States Chinook - Cluster Platform 4000 DL185G5, Opteron QC 2.2 GHz, Infiniband DDR / 2008
Hewlett-Packard 18176 97.07 159.95
35 IT Service Provider
Germany Cluster Platform 3000 BL2x220, E54xx 3.0 Ghz, Infiniband / 2009
Hewlett-Packard 10240 94.74 122.88
36 EDF R&D
France Frontier2 BG/L - Blue Gene/P Solution / 2008
IBM 32768 92.96 111.41 252.00
37 IBM Thomas J. Watson Research Center
United States BGW - eServer Blue Gene Solution / 2005
IBM 40960 91.29 114.69 448.00
38 Commissariat a l'Energie Atomique (CEA)/CCRT
France CEA-CCRT-Titane - BULL Novascale R422-E2 / 2009
Bull SA 8576 91.19 100.51
39 Naval Oceanographic Office - NAVO MSRC
United States Cray XT5 QC 2.3 GHz / 2008
Cray Inc. 12733 90.84 117.13 588.90
40 Institute of Physical and Chemical Res. (RIKEN)
Japan PRIMERGY RX200S5 Cluster, Xeon X5570 2.93GHz, Infiniband DDR / 2009
Fujitsu 8256 87.89 96.76
41 GSIC Center, Tokyo Institute of Technology
Japan TSUBAME Grid Cluster with CompView TSUBASA - Sun Fire x4600/x6250, Opteron 2.4/2.6 GHz, Xeon E5440 2.833 GHz, ClearSpeed CSX600, nVidia GT200; Voltaire Infiniband / 2009
NEC/Sun 31024 87.01 163.19 1103.00
42 Information Technology Center, The University of Tokyo
Japan T2K Open Supercomputer (Todai Combined Cluster) - Hitachi Cluster Opteron QC 2.3 GHz, Myrinet 10G / 2008
Hitachi 12288 82.98 113.05 638.60
43 HLRN at Universitaet Hannover / RRZN
Germany SGI Altix ICE 8200EX, Xeon X5570 quad core 2.93 GHz / 2009
SGI 7680 82.57 90.01
44 HLRN at ZIB/Konrad Zuse-Zentrum fuer Informationstechnik
Germany SGI Altix ICE 8200EX, Xeon X5570 quad core 2.93 GHz / 2009
SGI 7680 82.57 90.01
45 Stony Brook/BNL, New York Center for Computational Sciences
United States New York Blue - eServer Blue Gene Solution / 2007
IBM 36864 82.16 103.22 403.20
46 CINECA
Italy Power 575, p6 4.7 GHz, Infiniband / 2009
IBM 5376 78.68 101.07 859.19
47 Center for Computational Sciences, University of Tsukuba
Japan T2K Open Supercomputer - Appro Xtreme-X3 Server - Quad Opteron Quad Core 2.3 GHz, Infiniband / 2009
Appro International 10368 77.28 95.39 671.80
48 US Army Research Laboratory (ARL)
United States Cray XT5 QC 2.3 GHz / 2008
Cray Inc. 10400 76.80 95.68 481.00
49 CSC (Center for Scientific Computing)
Finland Cray XT5/XT4 QC 2.3 GHz / 2009
Cray Inc. 10864 76.51 102.00 520.80
50 DOE/NNSA/LLNL
United States ASC Purple - eServer pSeries p5 575 1.9 GHz / 2006
IBM 12208 75.76 92.78 1992.96
51 National Centers for Environment Prediction
United States Power 575, p6 4.7 GHz, Infiniband / 2008
IBM 4992 73.06 93.85 797.82
52 Rensselaer Polytechnic Institute, Computational Center for Nanotechnology Innovations
United States eServer Blue Gene Solution / 2007
IBM 32768 73.03 91.75 358.40
53 Naval Oceanographic Office - NAVO MSRC
United States Power 575, p6 4.7 GHz, Infiniband / 2008
IBM 4896 71.66 92.04 782.48
54 Joint Supercomputer Center
Russia MVS-100K - Cluster Platform 3000 BL460c/BL2x220, Xeon 54xx 3 Ghz, Infiniband / 2008
Hewlett-Packard 7920 71.28 95.04 327.00
55 US Army Research Laboratory (ARL)
United States SGI Altix ICE 8200 Enhanced LX, Xeon X5560 quad core 2.8 GHz / 2009
SGI 6656 70.00 74.55
56 NCSA
United States Abe - PowerEdge 1955, 2.33 GHz, Infiniband, Windows Server 2008/Red Hat Enterprise Linux 4 / 2007
Dell 9600 68.48 89.59
57 Cray Inc.
United States Shark - Cray XT5 QC 2.4 GHz / 2009
Cray Inc. 8576 67.76 82.33
58 NASA/Ames Research Center/NAS
United States Columbia - SGI Altix 1.5/1.6/1.66 GHz, Voltaire Infiniband / 2008
SGI 13824 66.57 82.94
59 University of Minnesota/Supercomputing Institute
United States Cluster Platform 3000 BL280c G6, Xeon X55xx 2.8Ghz, Infiniband / 2009
Hewlett-Packard 8048 64.00 90.14
60 Barcelona Supercomputing Center
Spain MareNostrum - BladeCenter JS21 Cluster, PPC 970, 2.3 GHz, Myrinet / 2006
IBM 10240 63.83 94.21
61 DOE/NNSA/LANL
United States Cerrillos - BladeCenter QS22/LS21 Cluster, PowerXCell 8i 3.2 Ghz / Opteron DC 1.8 GHz, Infiniband / 2008
IBM 7200 63.25 80.93 138.00
62 IBM Poughkeepsie Benchmarking Center
United States BladeCenter QS22/LS21 Cluster, PowerXCell 8i 3.2 Ghz / Opteron DC 1.8 GHz, Infiniband / 2008
IBM 7200 63.25 80.93 138.00
63 National Centers for Environment Prediction
United States Power 575, p6 4.7 GHz, Infiniband / 2009
IBM 4224 61.82 79.41 675.08
64 NCAR (National Center for Atmospheric Research)
United States bluefire - Power 575, p6 4.7 GHz, Infiniband / 2008
IBM 4064 59.68 76.40 649.51
65 National Institute for Fusion Science (NIFS)
Japan Plasma Simulator - Hitachi SR16000 Model L2, Power6 4.7Ghz, Infiniband / 2009
Hitachi 4096 56.65 77.00 645.00
66 Leibniz Rechenzentrum
Germany HLRB-II - Altix 4700 1.6 GHz / 2007
SGI 9728 56.52 62.26 990.24
67 ERDC MSRC
United States Jade - Cray XT4 QuadCore 2.1 GHz / 2008
Cray Inc. 8464 56.25 71.10 418.97
68 University of Edinburgh
United Kingdom HECToR - Cray XT4, 2.8 GHz / 2007
Cray Inc. 11328 54.65 63.44
69 University of Tokyo/Human Genome Center, IMS
Japan SHIROKANE - SunBlade x6250, Xeon E5450 3GHz, Infiniband / 2009
Sun Microsystems 5760 54.21 69.12
70 NNSA/Sandia National Laboratories
United States Thunderbird - PowerEdge 1850, 3.6 GHz, Infiniband / 2006
Dell 9024 53.00 64.97
71 Commissariat a l'Energie Atomique (CEA)
France Tera-10 - NovaScale 5160, Itanium2 1.6 GHz, Quadrics / 2006
Bull SA 9968 52.84 63.80
72 IDRIS
France Power 575, p6 4.7 GHz, Infiniband / 2008
IBM 3584 52.81 67.38 572.79
73 United Kingdom Meteorological Office
United Kingdom UKMO B - Power 575, p6 4.7 GHz, Infiniband / 2009
IBM 3520 51.86 66.18 562.60
74 United Kingdom Meteorological Office
United Kingdom UKMO A - Power 575, p6 4.7 GHz, Infiniband / 2009
IBM 3520 51.86 66.18 562.60
75 Wright-Patterson Air Force Base/DoD ASC
United States Altix 4700 1.6 GHz / 2007
SGI 9216 51.44 58.98
76 University of Southern California
United States HPC - PowerEdge 1950/SunFire X2200 Cluster Intel 53xx 2.33Ghz, Opteron 2.3 Ghz, Myrinet 10G / 2009
Dell/Sun 7104 51.41 65.64
77 HWW/Universitaet Stuttgart
Germany Baku - NEC HPC 140Rb-1 Cluster, Xeon X5560 2.8Ghz, Infiniband / 2009
NEC 5376 50.79 60.21 186.00
78 Kyoto University
Japan T2K Open Supercomputer/Kyodai - Fujitsu Cluster HX600, Opteron Quad Core, 2.3 GHz, Infiniband / 2008
Fujitsu 6656 50.51 61.24
79 SARA (Stichting Academisch Rekencentrum)
Netherlands Power 575, p6 4.7 GHz, Infiniband / 2008
IBM 3328 48.93 62.57 531.88
80 SciNet/University of Toronto
Canada Power 575, p6 4.7 GHz, Infiniband / 2008
IBM 3328 48.93 62.57 531.88
81 IT Service Provider (B)
United States Cluster Platform 3000 BL460c, Xeon 54xx 3.0GHz, GigEthernet / 2009
Hewlett-Packard 7600 48.14 91.20
82 Moscow State University - Research Computing Center
Russia SKIF MSU - T-Platforms T60, Intel Quadcore 3Mhz, Infiniband DDR / 2008
SKIF/T-Platforms 5000 47.17 60.00 265.00
83 National Supercomputer Centre (NSC)
Sweden Neolith - Cluster Platform 3000 DL140 Cluster, Xeon 53xx 2.33GHz Infiniband / 2008
Hewlett-Packard 6440 47.03 60.02
84 IBM - Rochester
United States Blue Gene/P Solution / 2007
IBM 16384 46.83 55.71 126.00
85 IBM Thomas J. Watson Research Center
United States Blue Gene/P Solution / 2009
IBM 16384 46.83 55.71 126.00
86 Max-Planck-Gesellschaft MPI/IPP
Germany Genius - Blue Gene/P Solution / 2008
IBM 16384 46.83 55.71 126.00
87 Texas Advanced Computing Center/Univ. of Texas
United States Lonestar - PowerEdge 1955, 2.66 GHz, Infiniband / 2007
Dell 5848 46.73 62.22
88 HPC2N - Umea University
Sweden Akka - BladeCenter HS21 Cluster, Xeon QC HT 2.5 GHz, IB, Windows HPC 2008/CentOS / 2008
IBM 5376 46.04 53.76 173.21
89 Clemson University
United States Palmetto - PowerEdge 1950/SunFire X2200 Cluster Intel 53xx/54xx 2.33Ghz, Opteron 2.3 Ghz, Myrinet 10G / 2008
Dell/Sun 6120 45.61 56.55 285.00
90 Financial Services (H)
United States Cluster Platform 3000 BL460c G1, Xeon L5420 2.5 GHz, GigE / 2009
Hewlett-Packard 8312 43.75 83.12
91 Ohio Supercomputer Center
United States xSeries x3455 Cluster Opteron, DC 2.6 GHz/QC 2.5 GHz, Infiniband / 2009
IBM 8416 43.46 68.38
92 Consulting (C)
United States Cluster Platform 3000 BL460c G1, Xeon E5450 3.0 GHz, GigE / 2009
Hewlett-Packard 6768 43.00 81.22
93 National Institute for Materials Science
Japan SGI Altix ICE 8200EX, Xeon X5560 quad core 2.8 GHz / 2009
SGI 4096 42.69 45.88
94 IT Service Provider (D)
United States Cluster Platform 3000 BL460c, Xeon 54xx 3.0GHz, GigEthernet / 2009
Hewlett-Packard 6672 42.41 80.06
95 Maui High-Performance Computing Center (MHPCC)
United States Jaws - PowerEdge 1955, 3.0 GHz, Infiniband / 2006
Dell 5200 42.39 62.40
96 Commissariat a l'Energie Atomique (CEA)
France CEA-CCRT-Platine - Novascale 3045, Itanium2 1.6 GHz, Infiniband / 2007
Bull SA 7680 42.13 49.15
97 US Army Research Laboratory (ARL)
United States Michael J. Muuss Cluster (MJM) - Evolocity II (LS Supersystem) Xeon 51xx 3.0 GHz IB / 2007
Linux Networx 4416 40.61 52.99
98 University of Bergen
Norway Cray XT4 QuadCore 2.3 GHz / 2008
Cray Inc. 5550 40.59 51.06 274.73
99 Jeraisy Computer and Communication Services
Saudia Arabia Cluster Platform 3000 BL460c, Xeon 54xx 3 GHz, Infiniband / 2009
Hewlett-Packard 4192 39.70 50.30
100 R-Systems
United States R Smarr - Dell DCS CS23-SH, QC HT 2.8 GHz, Infiniband / 2008
Dell 4608 39.58 51.61
]]>下向いちゃうしww
男にはせめてマルチコアCPU使って欲しい・・・
VMwareとかで仮想PC使ったら・・・・もう最悪ww
せめて普通にCore 2 DuoやPhenomぐらいは使って欲しい。
常識的に考えて欲しいだけなんです!
Pentium4とかで仮想PCした時の動作の遅さとか分かる?
あのね?たとえば週末10??20人ぐらいでチャットとかするでしょ?
それぞれ彼氏のPCとかでするわけじゃない?
みんな普通にAthron 64 FXやOpteronやXeonやCore 2 Extreamでするわけでしょ?
Pentium4でノロノロ文字打ってたら大恥かくでしょうがww
]]>