「Opteron」を含む日記 RSS

はてなキーワード: Opteronとは

2022-12-04

2位とはなんだったのか

2009年11月のいわいる事業仕分けから、もう13年も経った。「2位じゃダメなんですか?」の質問発言で非常に曰く付きとなったアレだ。

ところが最近、13年も経ってまだなおナゼ「2位」という言葉が出てきたか理解できてない人がかなりいる事を知った。それどころか、スーパーコンピュータの京は、事業仕分け時点で世界一になることが明白だったなどという認識まで飛び出す始末である

ただ、資料もなしにどこが変だと言っても仕方あるまい。何がどうして「2位」なのか、少し語ろうじゃないか

アーキテクチャ

初期の次世代スーパーコンピュータ (この時点では名前が付いていなかったが、以下わかりやすく京と呼ぶ) 計画 は、補助金を投入してのHPC産業育成に目を向けられていた[1]。世界一の性能を出していた海洋研究開発機構地球シミュレータが、NECのSXシリーズベースにしたベクトル型であり、ベクトル型のスーパーコンピュータ日本お家芸とみなされていた。これを育成することが一つの目標。そして、立ち遅れていた当時の世界スーパーコンピュータの潮流、スカラ型の開発に追いつくこと。これがもう一つの目標となった。結果、世界でも類を見ないベクトル型とスカラ型のハイブリットなどという中途半端方式になる。実に日本的な玉虫色の決定と言えるだろう。しかし、補助金の注ぎ込みが不足し、事業者持ち出しの負担が大きくなってしまった。結果、事業負担が高額になることを嫌い、NEC日立撤退する[2]。これにより、世界の潮流通りのスカラ型とならざるをえなくなった。

CPUはというと、世界スーパーコンピュータの潮流では当時から既に汎用のx86アーキテクチャCPUが既に多くなってきていた中、富士通SPARC64VIIIfxを採用した。よく国産CPU表現されているが、SPARCの名で分かる通り、当然命令セットは米国Sun Microsystems (現 Oracle) のセカンドソースであり、端から端まで国産というわけではない。更に、業務UNIXをささえるマシンとして一世を風靡したSPARCではあるが、当時ですらもう下火となっていた。京の事業費の約半分、実に600億円が、この専用CPUに注ぎ込まれることになった。なぜその選択をしたのか。富士通サイトには省電力と安定性が理由として書かれている[3]。しかし、その省電力という目標も、後述するように微妙な結果となってしまった。また、ソフトウェアの使いまわしも微妙となった。

目標性能

計画2005年に始まる。世界でも類を見ないベクトル型とスカラ型のハイブリットという構成もあり、概念設計にはしっかり時間を費やした。2007年9月には性能目標10P FLOPSと示した[4]。稼働開始は2010年2012年に完成という工程も同時に示されている。直前の2007年6月のTOP500を見ると[5]、1位のIBM BlueGene/Lが370TFLOPS。5年後に30倍という性能を目指したことになる。当時の発表としては、世界一が取れるような計画だったが、しか日進月歩の分野で5年は結果的に長かった。

さて、前述のように、ベクトル陣営2009年5月撤退を決めた。10P FLOPSの性能と決定した時には、ベクトル側も居たのに、そこがぽっかり空いた状態10P FLOPSのあてはいつついたのだろうか? 2009年7月報告書[6]では、スカラ単体で10P FLOPSを達成できること、ベクトル部は存在していても接続まわりの性能が不足していて問題があったことが表明されている。結果的に、なくなってよかったというトホホな内容だ。さて、同報告書では、稼働開始前の2011年6月に、ベンチマークだけでも10P FLOPSを達成してTOP500の1位を目指すと書いてある。どうしてこうなったのだろうか。

強すぎたライバルたち

遡ること半年2009年2月3日米国国家安全保障局(NNSA)はIBMと新しいスーパーコンピュータ Sequoiaを展開すると発表した[7]。性能は20P FLOPS、京の予定性能の実に2倍を達成するという発表だ。しかも、提供開始は2011年2012年。京の1年も前になる可能性があるという。

そう、双方が計画通りなら、京は2012年提供を開始する時には既に2位になっているという話題が出ていたのだ。なるほど、あせって2011年ベンチマークだけでも「トップを取った」という実績を残したいわけである

さて、その後のSequoiaはというと?

ある意味計画通りだろう、2012年提供が開始され、2012年6月のTOP500[8]では予定通り20P FLOPSを叩き出し、1位になる。しかし、2012年11月のTOP500[9]では、Crayとオークリッジ国立研究所が作ったTitanが叩き出した27P FLOPSという数字ににあっさりと抜き去られ、2位になる。まるで幽遊白書ラストのような展開だ。しかも、SequoiaIBMPowerアーキテクチャで構築されたA2プロセッサだったのに対して、TitanはAMD OpteronNVIDIA K20Xの組み合わせ。汎用性でも差を開けられている。これはお手上げというものだろう。

事業仕分け

さて、話は京に戻す。京が有名になったのは2009年11月13日の行政刷新会議、いわいる事業仕分けである(ここは参考文献は要るまい)。このときまで、そんな計画があることを知らなかった人の方が多かったのではないだろうか。どういうニュアンスで言ったかからない、まるで日本を貶めているかのように聞こえる「2位じゃダメなんですか?」という言葉が非常にインパクトを与えたことだろう。

さて、じゃぁ何が2位なのか。だ。前述の通り、この時点ではIBMSequoiaに追い抜かされることが見えていた。TitanはGPU調達など細かい話が決まってきたのは2010年なので、この時点ではほとんど影がなかったはず。ということで、3位じゃなくて2位としたのは、Sequoia意識してのことだろう。つまり、「2位じゃダメなんですか?」というのは、1位を諦めて2位の性能で我慢するべきということではなく、客観的に見れば「2位になるのが見えているのだけど、何で1位と言ってるの?」という話になってくるのが見て取れる。蓮舫氏がそこを意識してたか知らんけど。

共同事業者撤退し、一応強気に「大丈夫」と言ってはいるが、本当に達成できるかは周りから疑問符が付くグダグダプロジェクト状況、ほぼ専用設計で量産時にどういう問題が出るかわからないCPUソフトウェア新規制作税金の投入は中途半端で、産業を育成したいのか企業負担を増やしたいのかよくわからない(だから撤退する事業者が出る)。そもそもここで出来たスーパーコンピュータCPU抜きにしても売れるのか分からない。そりゃ、金田康正教授でなくても、京にはため息が出るというものだ。

達成できたこと、できなかったこ

さて、京は何を達成したのだろうか? 京は完成前ではあるものベンチマーク実施し、見事11P FLOPSを叩き出し、2011年6月[10]と2011年11月[11]のTOP500でトップに躍り出る。この分野に日本ありと示した…かどうかはわからないが、一つの実績として言えるのは間違いない。いや、経緯のグダグダからして、見事なプロジェクト進行だったと称賛できる。しかし、前述の通り供用を開始した2012年9月[12]にはTOP500ではSequoiaに追い越されており、直後のTOP500ではTitanにも追い越されて3位となっていた。1位は、ベンチマークだけの存在だったと言える。

では目標産業育成としてはどうだっただろうか。京をベースにしたスーパーコンピュータ PRIMEHPC FX10[13]やFX100は、東大[14]、名大[15]、キヤノン[16]、九大[17]、信大[18]、JAXA[19]、核融合科学研究所[20]、気象庁気象研究所と、調べるだけでも国内実績は多くある。国外実績は、台湾中央気象局[21]、シンガポールナショナルスパコンセンター豪州 NCI、英国 HPC Walesと、それなりにある。ただどうだろう。産業としてうまくいったのだろうか。有価証券報告書を見ても、その他のセグメントに入ってしまっているため状況がつかめない[22]。謎ではある。とはいえもし、産業としてそれなりに育ったのならば、有価証券報告書で報告する事業セグメントとして独立したものを与えられてしかるべきだったのではなかろうか。少なくとも1000億も出したのだ。そのくらいではあってほしかった。更に言うなれば特に競争の激しい国外市場をうまく取り込めたかというと、産業育成という視点では頑張ったとは思うものの心もとない結果だったように、少なくとも私には見える。

消費電力の面はどうだろうか。上述の通り、SPARCを使う理由には省電力が上げられていた。これをライバルSequoia、Titanと比較してみよう。2012年11月のTOP500[9]で見ると、京は12.6MW消費するとあるSequoiaは7.8MW、Titanは8.2MWだ。実はこの時の報告のあるスーパーコンピュータの中で、最大の電力消費量を誇っている。高いほうがいいのではなく、消費電力は低いほうがいいので、これはかなり問題がある。

費用面はどうだろうか。これもライバル比較してみよう。京は日本円にして1120億円かかっている。対してSequoiaは2億5000万ドル[23]、Titanは9700万米ドル[24]だ。2012年11月で見るとドル相場は82円なので、Sequoiaは約205億円、Titanは80億円となるだろうか。京のプロセッサ開発費を除いたとしても、数字が違いすぎるのだ。


纏めてみよう。京は、一時期でベンチマーク上だとしても、TOP500で1位を取った。これは「夢を与え」(平尾公彦氏)た結果だったろう。しかし、それは砂上の楼閣でもあった。しかしそれを実現するための費用米国の5~10倍で、性能は実は半分、消費電力は1.5倍という結果になり、産業育成も盛り上がったかどうかは判然としない。こんなところだろうか。

さいごに

近年のスーパーコンピュータを含めたHPC分野はどうなっているだろうか。近年のクラウドコンピューティングの流れを当然HPC分野も受けており、主要プレイヤーとしてAWS名前が挙がっている[25]。またレポートでは挙がっていないものの、Google Cloudも猛追しており、円周率計算では1位を叩き出している[26]。必要な時に、必要な規模で構築できるクラウドコンピューティングの波は、さてHPC分野でどこまで浸透していくのだろうか。産業育成の方向が、2009年時点では確かにハードウェア開発だったろう。しかし、事業仕分けへの反発により、日本方向性を間違ってしまったのではないか。私は、そんな気がしてならない。


[1] ttps://www8.cao.go.jp/cstp/tyousakai/hyouka/kentou/super/haihu01/siryo2-3.pdf

[2] ttp://www.nec.co.jp/press/ja/0905/1402.html

[3] ttps://www.fujitsu.com/jp/about/businesspolicy/tech/k/whatis/processor/

[4] ttp://web.archive.org/web/20130207162431/https://www.riken.jp/r-world/info/release/press/2007/070914/index.html

[5] ttps://www.top500.org/lists/top500/2007/06/

[6] ttp://www.jaist.ac.jp/cmsf/meeting/14-3.pdf

[7] ttps://www.llnl.gov/news/nnsa-awards-ibm-contract-build-next-generation-supercomputer

[8] ttps://www.top500.org/lists/top500/2012/06/

[9] ttps://www.top500.org/lists/top500/2012/11/

[10] ttps://www.top500.org/lists/top500/2011/06/

[11] ttps://www.top500.org/lists/top500/2011/11/

[12] ttps://www.riken.jp/pr/news/2012/20120927/

[13] ttps://jp.reuters.com/article/idJPJAPAN-24020620111107

[14] ttps://pr.fujitsu.com/jp/news/2011/11/14.html

[15] ttps://pr.fujitsu.com/jp/news/2013/05/15.html

[16] ttps://pr.fujitsu.com/jp/news/2013/08/6.html

[17] ttps://pr.fujitsu.com/jp/news/2013/08/22.html

[18] ttps://pr.fujitsu.com/jp/news/2014/02/13.html

[19] ttps://pr.fujitsu.com/jp/news/2014/04/7.html

[20] ttps://nsrp.nifs.ac.jp/news/PS-next.html

[21] ttps://pr.fujitsu.com/jp/news/2012/06/25.html

[22] ttps://pr.fujitsu.com/jp/ir/secreports/2015/pdf/03.pdf

[23] ttps://arstechnica.com/information-technology/2012/06/with-16-petaflops-and-1-6m-cores-doe-supercomputer-is-worlds-fastest/

[24] ttps://web.archive.org/web/20120727053123/http://www.hpcwire.com/hpcwire/2011-10-11/gpus_will_morph_ornl_s_jaguar_into_20-petaflop_titan.html

[25] ttps://www.sdki.jp/reports/high-performance-computing-market/109365

[26] ttps://cloud.google.com/blog/ja/products/compute/calculating-100-trillion-digits-of-pi-on-google-cloud

2020-02-01

読み方

あってるかわからない

PC3-12800 (DDR3-1600) DDR3 SDRAM

ぴーしーすりー いちまんにせんはっぴゃく (でぃーでぃーあーるすりー せんろっぴゃく) でぃーでぃーあーるすりー えすでぃーらむ

DRDRAM

でぃーあーるでぃーらむ

SerialATA

しりあるえーてぃーえー

SATA

えすえーてぃーえー

SAS

さす

Xeon

じーおん

Itanium

あいてにあむ

Core i7-9700K

こあ あいせぶん きゅうせんななひゃくけー

Athlon 64 X2

あすろん ろくよん えっくすつー

Opteron

おぷてろん

M.2 NVMe SSD

えむつー えぬぶいえむいー えすえすでぃー

NAND

なんど

NOR

のあ

Maxtor

まっくすとあ

Matrox

まとろっくす

RADEON

らでぃおん

GeForce

じーふぉーす

ASUS

えいすーす

2010-09-18

http://anond.hatelabo.jp/20100918202127

なんか、AMDOpteronを1000個ロット単位で発注とか、当時結構がんばってるんでなかったっけ?

データセンターも当時は自前でやってたし。がんばってるんだと思うよ。

実際、稼働率犠牲にしても良いんだったら、なんでもできる。 

稼働率メンテナンス性を犠牲にしないで、サービスを作るから難しい。 メンテナンス考えると出来ないことが増えてくるからね。

2009-12-01

http://anond.hatelabo.jp/20091129223310

計算する問題が分割されたままで良い、という領域においては当然そうなる。分割したもの同士が相互作用しないのなら。

残念ながらシミュレーション系においてはそらGRAPEが扱うなかでもごくごく一部ぐらいだけがそうで(普通は共有メモリ内で参照できるからそんな高いコストを払わなくて良い)、それ以外はメッシュだろうが格子だろうがIBだろうが最低でも隣接する領域との相互作用計算のための共有メモリ外との通信が発生する。

スケールアウトできないのはものすごく雑に言うと、

・扱う問題が原理的に向いてない

計算機同士のインターコネクトが今でも遅すぎるのにこれ以上遅くしたらまさに演算系の無駄

ってとこがものすごく大きい。

評価・統合などなどまあ使う方式で言い方も使い方もいろいろあるけど、分割しただけで統合したりする処理が要らないんだったら、まさにRoadrunnerOpteronブレード部分は無用だよ。計算するだけならCellブレードとインターコネクトボードがあればいい。だがOpteronを使わなきゃいけない(というわけでも無いんだけどあれぐらいの処理能力メモリバンドローカルメモリバランス的に欲しい)というところに何かがあると感じてくれ。これをかいてる自分増田は定量的に~とか言われると式をグダグダ書き連ねないと説明できない低脳なので。

長大ジョブを投入して計算中でも、計算を止めないままノードごと別のノードに引き継がせて、そのノードを捨てたり点検したり、ってのは超大規模クラスタではもちろんある。

脱線するが、x86は縮退させにくいとか、信頼性が足りないとかいうのも最近みかけるけどそんなことはない。x86だからということはないし、ノード設計ジョブの入れ方できまるようなもの。あとすべてのノードVMにのせてジョブを続けながらLive Migrationした実証実験なんてのもある。x86系コア・メモリのRAS機能は充実してきてるとはいえまだ足りないが、RAS機能がホントに重要ならPOWERベースにすれば実績と性能の点で申し分ない。x86の出自云々をいうならsparcだって出自がアレだしね。zシリーズにまで同一コアが使われるPOWERとは違う。脱線終わり)

それにスケールアップといったときに地球シミュレータの例はあまり適切ではないとおもう。アレは元々いろいろとアップグレードしにくいシステムだったし。

どうせならアップグレードしやすいCray XT5や、今度のXT6あたりで比較しよう。ちょうどJaguarのコアアップグレードは4Phaseにわけて実行された。

http://www.nccs.gov/computing-resources/jaguar/road-map/

コアの入れ替えだけなんでかかった費用は支援費の二千万ドル含んで数千万ドル(ちょっと語弊があるけど)。

あとJaguarはNCCSの配下にあるというのは一つの特徴だろう。利用時のスケジュールポリシーなんかもほぼ全部載ってるので、読んでみるといいよ。ちなみにNCCSのトップページにはいつも今配下のクラスタに投入されてるジョブがでてる。

ついでにGoogleシステムパソコンベースって言って良いのかわからないぐらい特化してるよ。だから省電力でもある。それを安く調達するのはまさに規模の経済

ToRスイッチを完成品じゃなくてBroadcomからチップ買って自前で専用のスイッチつくっちゃうのも規模の力。

最近いろんなところで引き合いに出されるNACCのGPUクラスタコスト面とアルゴリズムで比較対象にもいい。簡単にいうと「苦手」なものを対象としないことで他の問題に最適化したのが濱田先生のところのチームがつくったクラスタ。特性を把握して性能を引き出して、実際に運用したという意味でとても良い研究なんだけど、故に超大規模クラスタとかで走らせることになる巨大CFDモデルなんかは対象外のシステムだ。

だから最近スパコンうんたらかんたらとやらでNACCの話を持ち出してる記事やらエントリやらを見かけたら、そこに書かれてることは無視するといい。持ち出してくる奴は、基本からして間違ってるか何でも繋げればスケールアウトすると勘違いさせたがってるだろうから。

2009-11-14

Top500

Rank Site Computer/Year Vendor Cores Rmax Rpeak Power1 DOE/NNSA/LANL

United States Roadrunner - BladeCenter QS22/LS21 Cluster, PowerXCell 8i 3.2 Ghz / Opteron DC 1.8 GHz, Voltaire Infiniband / 2008

IBM 129600 1105.00 1456.70 2483.47

2 Oak Ridge National Laboratory

United States Jaguar - Cray XT5 QC 2.3 GHz / 2008

Cray Inc. 150152 1059.00 1381.40 6950.60

3 Forschungszentrum Juelich (FZJ)

Germany JUGENE - Blue Gene/P Solution / 2009

IBM 294912 825.50 1002.70 2268.00

4 NASA/Ames Research Center/NAS

United States Pleiades - SGI Altix ICE 8200EX, Xeon QC 3.0/2.66 GHz / 2008

SGI 51200 487.01 608.83 2090.00

5 DOE/NNSA/LLNL

United States BlueGene/L - eServer Blue Gene Solution / 2007

IBM 212992 478.20 596.38 2329.60

6 National Institute for Computational Sciences/University of Tennessee

United States Kraken XT5 - Cray XT5 QC 2.3 GHz / 2008

Cray Inc. 66000 463.30 607.20

7 Argonne National Laboratory

United States Blue Gene/P Solution / 2007

IBM 163840 458.61 557.06 1260.00

8 Texas Advanced Computing Center/Univ. of Texas

United States Ranger - SunBlade x6420, Opteron QC 2.3 Ghz, Infiniband / 2008

Sun Microsystems 62976 433.20 579.38 2000.00

9 DOE/NNSA/LLNL

United States Dawn - Blue Gene/P Solution / 2009

IBM 147456 415.70 501.35 1134.00

10 Forschungszentrum Juelich (FZJ)

Germany JUROPA - Sun Constellation, NovaScale R422-E2, Intel Xeon X5570, 2.93 GHz, Sun M9/Mellanox QDR Infiniband/Partec Parastation / 2009

Bull SA 26304 274.80 308.28 1549.00

11 NERSC/LBNL

United States Franklin - Cray XT4 QuadCore 2.3 GHz / 2008

Cray Inc. 38642 266.30 355.51 1150.00

12 Oak Ridge National Laboratory

United States Jaguar - Cray XT4 QuadCore 2.1 GHz / 2008

Cray Inc. 30976 205.00 260.20 1580.71

13 NNSA/Sandia National Laboratories

United States Red Storm - Sandia/ Cray Red Storm, XT3/4, 2.4/2.2 GHz dual/quad core / 2008

Cray Inc. 38208 204.20 284.00 2506.00

14 King Abdullah University of Science and Technology

Saudia Arabia Shaheen - Blue Gene/P Solution / 2009

IBM 65536 185.17 222.82 504.00

15 Shanghai Supercomputer Center

China Magic Cube - Dawning 5000A, QC Opteron 1.9 Ghz, Infiniband, Windows HPC 2008 / 2008

Dawning 30720 180.60 233.47

16 SciNet/University of Toronto

Canada GPC - iDataPlex, Xeon E55xx QC 2.53 GHz, GigE / 2009

IBM 30240 168.60 306.03 869.40

17 New Mexico Computing Applications Center (NMCAC)

United States Encanto - SGI Altix ICE 8200, Xeon quad core 3.0 GHz / 2007

SGI 14336 133.20 172.03 861.63

18 Computational Research Laboratories, TATA SONS

India EKA - Cluster Platform 3000 BL460c, Xeon 53xx 3GHz, Infiniband / 2008

Hewlett-Packard 14384 132.80 172.61 786.00

19 Lawrence Livermore National Laboratory

United States Juno - Appro XtremeServer 1143H, Opteron QC 2.2Ghz, Infiniband / 2008

Appro International 18224 131.60 162.20

20 Grand Equipement National de Calcul Intensif - Centre Informatique National de l'Enseignement Supérieur (GENCI-CINES)

France Jade - SGI Altix ICE 8200EX, Xeon quad core 3.0 GHz / 2008

SGI 12288 128.40 146.74 608.18

21 National Institute for Computational Sciences/University of Tennessee

United States Athena - Cray XT4 QuadCore 2.3 GHz / 2008

Cray Inc. 17956 125.13 165.20 888.82

22 Japan Agency for Marine -Earth Science and Technology

Japan Earth Simulator - Earth Simulator / 2009

NEC 1280 122.40 131.07

23 Swiss Scientific Computing Center (CSCS)

Switzerland Monte Rosa - Cray XT5 QC 2.4 GHz / 2009

Cray Inc. 14740 117.60 141.50

24 IDRIS

France Blue Gene/P Solution / 2008

IBM 40960 116.01 139.26 315.00

25 ECMWF

United Kingdom Power 575, p6 4.7 GHz, Infiniband / 2009

IBM 8320 115.90 156.42 1329.70

26 ECMWF

United Kingdom Power 575, p6 4.7 GHz, Infiniband / 2008

IBM 8320 115.90 156.42 1329.70

27 DKRZ - Deutsches Klimarechenzentrum

Germany Power 575, p6 4.7 GHz, Infiniband / 2008

IBM 8064 115.90 151.60 1288.69

28 JAXA

Japan Fujitsu FX1, Quadcore SPARC64 VII 2.52 GHz, Infiniband DDR / 2009

Fujitsu 12032 110.60 121.28

29 Total Exploration Production

France SGI Altix ICE 8200EX, Xeon quad core 3.0 GHz / 2008

SGI 10240 106.10 122.88 442.00

30 Government Agency

Sweden Cluster Platform 3000 BL460c, Xeon 53xx 2.66GHz, Infiniband / 2007

Hewlett-Packard 13728 102.80 146.43

31 Computer Network Information Center, Chinese Academy of Science

China DeepComp 7000, HS21/x3950 Cluster, Xeon QC HT 3 GHz/2.93 GHz, Infiniband / 2008

Lenovo 12216 102.80 145.97

32 Lawrence Livermore National Laboratory

United States Hera - Appro Xtreme-X3 Server - Quad Opteron Quad Core 2.3 GHz, Infiniband / 2009

Appro International 13552 102.20 127.20

33 Max-Planck-Gesellschaft MPI/IPP

Germany VIP - Power 575, p6 4.7 GHz, Infiniband / 2008

IBM 6720 98.24 126.34 1073.99

34 Pacific Northwest National Laboratory

United States Chinook - Cluster Platform 4000 DL185G5, Opteron QC 2.2 GHz, Infiniband DDR / 2008

Hewlett-Packard 18176 97.07 159.95

35 IT Service Provider

Germany Cluster Platform 3000 BL2x220, E54xx 3.0 Ghz, Infiniband / 2009

Hewlett-Packard 10240 94.74 122.88

36 EDF R&D

France Frontier2 BG/L - Blue Gene/P Solution / 2008

IBM 32768 92.96 111.41 252.00

37 IBM Thomas J. Watson Research Center

United States BGW - eServer Blue Gene Solution / 2005

IBM 40960 91.29 114.69 448.00

38 Commissariat a l'Energie Atomique (CEA)/CCRT

France CEA-CCRT-Titane - BULL Novascale R422-E2 / 2009

Bull SA 8576 91.19 100.51

39 Naval Oceanographic Office - NAVO MSRC

United States Cray XT5 QC 2.3 GHz / 2008

Cray Inc. 12733 90.84 117.13 588.90

40 Institute of Physical and Chemical Res. (RIKEN)

Japan PRIMERGY RX200S5 Cluster, Xeon X5570 2.93GHz, Infiniband DDR / 2009

Fujitsu 8256 87.89 96.76

41 GSIC Center, Tokyo Institute of Technology

Japan TSUBAME Grid Cluster with CompView TSUBASA - Sun Fire x4600/x6250, Opteron 2.4/2.6 GHz, Xeon E5440 2.833 GHz, ClearSpeed CSX600, nVidia GT200; Voltaire Infiniband / 2009

NEC/Sun 31024 87.01 163.19 1103.00

42 Information Technology Center, The University of Tokyo

Japan T2K Open Supercomputer (Todai Combined Cluster) - Hitachi Cluster Opteron QC 2.3 GHz, Myrinet 10G / 2008

Hitachi 12288 82.98 113.05 638.60

43 HLRN at Universitaet Hannover / RRZN

Germany SGI Altix ICE 8200EX, Xeon X5570 quad core 2.93 GHz / 2009

SGI 7680 82.57 90.01

44 HLRN at ZIB/Konrad Zuse-Zentrum fuer Informationstechnik

Germany SGI Altix ICE 8200EX, Xeon X5570 quad core 2.93 GHz / 2009

SGI 7680 82.57 90.01

45 Stony Brook/BNL, New York Center for Computational Sciences

United States New York Blue - eServer Blue Gene Solution / 2007

IBM 36864 82.16 103.22 403.20

46 CINECA

Italy Power 575, p6 4.7 GHz, Infiniband / 2009

IBM 5376 78.68 101.07 859.19

47 Center for Computational Sciences, University of Tsukuba

Japan T2K Open Supercomputer - Appro Xtreme-X3 Server - Quad Opteron Quad Core 2.3 GHz, Infiniband / 2009

Appro International 10368 77.28 95.39 671.80

48 US Army Research Laboratory (ARL)

United States Cray XT5 QC 2.3 GHz / 2008

Cray Inc. 10400 76.80 95.68 481.00

49 CSC (Center for Scientific Computing)

Finland Cray XT5/XT4 QC 2.3 GHz / 2009

Cray Inc. 10864 76.51 102.00 520.80

50 DOE/NNSA/LLNL

United States ASC Purple - eServer pSeries p5 575 1.9 GHz / 2006

IBM 12208 75.76 92.78 1992.96

51 National Centers for Environment Prediction

United States Power 575, p6 4.7 GHz, Infiniband / 2008

IBM 4992 73.06 93.85 797.82

52 Rensselaer Polytechnic Institute, Computational Center for Nanotechnology Innovations

United States eServer Blue Gene Solution / 2007

IBM 32768 73.03 91.75 358.40

53 Naval Oceanographic Office - NAVO MSRC

United States Power 575, p6 4.7 GHz, Infiniband / 2008

IBM 4896 71.66 92.04 782.48

54 Joint Supercomputer Center

Russia MVS-100K - Cluster Platform 3000 BL460c/BL2x220, Xeon 54xx 3 Ghz, Infiniband / 2008

Hewlett-Packard 7920 71.28 95.04 327.00

55 US Army Research Laboratory (ARL)

United States SGI Altix ICE 8200 Enhanced LX, Xeon X5560 quad core 2.8 GHz / 2009

SGI 6656 70.00 74.55

56 NCSA

United States Abe - PowerEdge 1955, 2.33 GHz, Infiniband, Windows Server 2008/Red Hat Enterprise Linux 4 / 2007

Dell 9600 68.48 89.59

57 Cray Inc.

United States Shark - Cray XT5 QC 2.4 GHz / 2009

Cray Inc. 8576 67.76 82.33

58 NASA/Ames Research Center/NAS

United States Columbia - SGI Altix 1.5/1.6/1.66 GHz, Voltaire Infiniband / 2008

SGI 13824 66.57 82.94

59 University of Minnesota/Supercomputing Institute

United States Cluster Platform 3000 BL280c G6, Xeon X55xx 2.8Ghz, Infiniband / 2009

Hewlett-Packard 8048 64.00 90.14

60 Barcelona Supercomputing Center

Spain MareNostrum - BladeCenter JS21 Cluster, PPC 970, 2.3 GHz, Myrinet / 2006

IBM 10240 63.83 94.21

61 DOE/NNSA/LANL

United States Cerrillos - BladeCenter QS22/LS21 Cluster, PowerXCell 8i 3.2 Ghz / Opteron DC 1.8 GHz, Infiniband / 2008

IBM 7200 63.25 80.93 138.00

62 IBM Poughkeepsie Benchmarking Center

United States BladeCenter QS22/LS21 Cluster, PowerXCell 8i 3.2 Ghz / Opteron DC 1.8 GHz, Infiniband / 2008

IBM 7200 63.25 80.93 138.00

63 National Centers for Environment Prediction

United States Power 575, p6 4.7 GHz, Infiniband / 2009

IBM 4224 61.82 79.41 675.08

64 NCAR (National Center for Atmospheric Research)

United States bluefire - Power 575, p6 4.7 GHz, Infiniband / 2008

IBM 4064 59.68 76.40 649.51

65 National Institute for Fusion Science (NIFS)

Japan Plasma Simulator - Hitachi SR16000 Model L2, Power6 4.7Ghz, Infiniband / 2009

Hitachi 4096 56.65 77.00 645.00

66 Leibniz Rechenzentrum

Germany HLRB-II - Altix 4700 1.6 GHz / 2007

SGI 9728 56.52 62.26 990.24

67 ERDC MSRC

United States Jade - Cray XT4 QuadCore 2.1 GHz / 2008

Cray Inc. 8464 56.25 71.10 418.97

68 University of Edinburgh

United Kingdom HECToR - Cray XT4, 2.8 GHz / 2007

Cray Inc. 11328 54.65 63.44

69 University of Tokyo/Human Genome Center, IMS

Japan SHIROKANE - SunBlade x6250, Xeon E5450 3GHz, Infiniband / 2009

Sun Microsystems 5760 54.21 69.12

70 NNSA/Sandia National Laboratories

United States Thunderbird - PowerEdge 1850, 3.6 GHz, Infiniband / 2006

Dell 9024 53.00 64.97

71 Commissariat a l'Energie Atomique (CEA)

France Tera-10 - NovaScale 5160, Itanium2 1.6 GHz, Quadrics / 2006

Bull SA 9968 52.84 63.80

72 IDRIS

France Power 575, p6 4.7 GHz, Infiniband / 2008

IBM 3584 52.81 67.38 572.79

73 United Kingdom Meteorological Office

United Kingdom UKMO B - Power 575, p6 4.7 GHz, Infiniband / 2009

IBM 3520 51.86 66.18 562.60

74 United Kingdom Meteorological Office

United Kingdom UKMO A - Power 575, p6 4.7 GHz, Infiniband / 2009

IBM 3520 51.86 66.18 562.60

75 Wright-Patterson Air Force Base/DoD ASC

United States Altix 4700 1.6 GHz / 2007

SGI 9216 51.44 58.98

76 University of Southern California

United States HPC - PowerEdge 1950/SunFire X2200 Cluster Intel 53xx 2.33Ghz, Opteron 2.3 Ghz, Myrinet 10G / 2009

Dell/Sun 7104 51.41 65.64

77 HWW/Universitaet Stuttgart

Germany Baku - NEC HPC 140Rb-1 Cluster, Xeon X5560 2.8Ghz, Infiniband / 2009

NEC 5376 50.79 60.21 186.00

78 Kyoto University

Japan T2K Open Supercomputer/Kyodai - Fujitsu Cluster HX600, Opteron Quad Core, 2.3 GHz, Infiniband / 2008

Fujitsu 6656 50.51 61.24

79 SARA (Stichting Academisch Rekencentrum)

Netherlands Power 575, p6 4.7 GHz, Infiniband / 2008

IBM 3328 48.93 62.57 531.88

80 SciNet/University of Toronto

Canada Power 575, p6 4.7 GHz, Infiniband / 2008

IBM 3328 48.93 62.57 531.88

81 IT Service Provider (B)

United States Cluster Platform 3000 BL460c, Xeon 54xx 3.0GHz, GigEthernet / 2009

Hewlett-Packard 7600 48.14 91.20

82 Moscow State University - Research Computing Center

Russia SKIF MSU - T-Platforms T60, Intel Quadcore 3Mhz, Infiniband DDR / 2008

SKIF/T-Platforms 5000 47.17 60.00 265.00

83 National Supercomputer Centre (NSC)

Sweden Neolith - Cluster Platform 3000 DL140 Cluster, Xeon 53xx 2.33GHz Infiniband / 2008

Hewlett-Packard 6440 47.03 60.02

84 IBM - Rochester

United States Blue Gene/P Solution / 2007

IBM 16384 46.83 55.71 126.00

85 IBM Thomas J. Watson Research Center

United States Blue Gene/P Solution / 2009

IBM 16384 46.83 55.71 126.00

86 Max-Planck-Gesellschaft MPI/IPP

Germany Genius - Blue Gene/P Solution / 2008

IBM 16384 46.83 55.71 126.00

87 Texas Advanced Computing Center/Univ. of Texas

United States Lonestar - PowerEdge 1955, 2.66 GHz, Infiniband / 2007

Dell 5848 46.73 62.22

88 HPC2N - Umea University

Sweden Akka - BladeCenter HS21 Cluster, Xeon QC HT 2.5 GHz, IB, Windows HPC 2008/CentOS / 2008

IBM 5376 46.04 53.76 173.21

89 Clemson University

United States Palmetto - PowerEdge 1950/SunFire X2200 Cluster Intel 53xx/54xx 2.33Ghz, Opteron 2.3 Ghz, Myrinet 10G / 2008

Dell/Sun 6120 45.61 56.55 285.00

90 Financial Services (H)

United States Cluster Platform 3000 BL460c G1, Xeon L5420 2.5 GHz, GigE / 2009

Hewlett-Packard 8312 43.75 83.12

91 Ohio Supercomputer Center

United States xSeries x3455 Cluster Opteron, DC 2.6 GHz/QC 2.5 GHz, Infiniband / 2009

IBM 8416 43.46 68.38

92 Consulting (C)

United States Cluster Platform 3000 BL460c G1, Xeon E5450 3.0 GHz, GigE / 2009

Hewlett-Packard 6768 43.00 81.22

93 National Institute for Materials Science

Japan SGI Altix ICE 8200EX, Xeon X5560 quad core 2.8 GHz / 2009

SGI 4096 42.69 45.88

94 IT Service Provider (D)

United States Cluster Platform 3000 BL460c, Xeon 54xx 3.0GHz, GigEthernet / 2009

Hewlett-Packard 6672 42.41 80.06

95 Maui High-Performance Computing Center (MHPCC)

United States Jaws - PowerEdge 1955, 3.0 GHz, Infiniband / 2006

Dell 5200 42.39 62.40

96 Commissariat a l'Energie Atomique (CEA)

France CEA-CCRT-Platine - Novascale 3045, Itanium2 1.6 GHz, Infiniband / 2007

Bull SA 7680 42.13 49.15

97 US Army Research Laboratory (ARL)

United States Michael J. Muuss Cluster (MJM) - Evolocity II (LS Supersystem) Xeon 51xx 3.0 GHz IB / 2007

Linux Networx 4416 40.61 52.99

98 University of Bergen

Norway Cray XT4 QuadCore 2.3 GHz / 2008

Cray Inc. 5550 40.59 51.06 274.73

99 Jeraisy Computer and Communication Services

Saudia Arabia Cluster Platform 3000 BL460c, Xeon 54xx 3 GHz, Infiniband / 2009

Hewlett-Packard 4192 39.70 50.30

100 R-Systems

United States R Smarr - Dell DCS CS23-SH, QC HT 2.8 GHz, Infiniband / 2008

Dell 4608 39.58 51.61

2008-11-15

彼氏Pentium4を使ってた。別れたい…

Pentium4だと別スレッドの実行待ちで止まられた時なんか恥ずかしいww

下向いちゃうしww

男にはせめてマルチコアCPU使って欲しい・・・

VMwareとかで仮想PC使ったら・・・・もう最悪ww

せめて普通Core 2 DuoPhenomぐらいは使って欲しい。

常識的に考えて欲しいだけなんです!

Pentium4とかで仮想PCした時の動作の遅さとか分かる?

あのね?たとえば週末10??20人ぐらいでチャットとかするでしょ?

それぞれ彼氏PCとかでするわけじゃない?

みんな普通Athron 64 FXOpteronXeonやCore 2 Extreamでするわけでしょ?

Pentium4でノロノロ文字打ってたら大恥かくでしょうがww

http://anond.hatelabo.jp/20081111000645

 
ログイン ユーザー登録
ようこそ ゲスト さん