はてなキーワード: 地球シミュレータとは
これはデカいと思うんだよな
Unityとか、Unrealとか、物理エンジンもBox2DとかBulletとか、当然昔はなかったので、みんな自前で書いてたはず
例えば、スーパーマリオの物理挙動とか衝突判定は当たり前だけど自前で書いてたはず
でも、今はブロック崩しさえUnityとかUnrealに含まれてる物理エンジンで剛体力学使って書けちゃう
なんかそういうの無駄な計算力だよなと思うけど、まあ書けちゃう、動いちゃう
昔はゲーム作るときって、リードプログラマーが1人いて、他も数人で、少人数で職人芸的に作ってたわけだよ
全て自前でやらなければいけないから、簡易的なものを作るにしても、一応大学でやった物理を再度勉強したりするわけだ
剛体力学とか、流体力学とか、材料力学とか、そのための数学とか勉強し直したりした
あと、ゲーム業界がバブル?だった頃は、海外なんかでは物理とか数学で博士号取ったような奴までゲーム産業に入って来た
彼らはゲーム業界に進まなければ、銀行とか保険会社、証券会社とかもある、もっと高給な仕事がいっぱいあるはずなのに、薄給のゲーム産業に飛び込んできた
彼らが高度な知識で色々な試みをしてくれたおかげで、今のゲーム産業があると言っても過言ではないと思う
だって、日本のゲームってどれも枯れた技術の水平思考ばっかりなんだもん
悪く言えば、保守的、必ず作り上げるという意思から石橋を叩きすぎたようなものを作る
例えば、初代のバイオハザードだったか、カメラ固定だったじゃん
今どきアローン・イン・ザダークかよwって思ったよなw
あの頃、自分はPCでDOSとかで普通にFPSやってたから、あくまで技術的にだけど、アホじゃないかと思ったんだよな
でも、周囲のプログラムとかIT業界に関係のない知人とかは喜んで遊んでる
日本のバイオが固定視点なのに対して、海外勢はFPSとか三人称視点ちゃんと作ってたよな
日本でFPSっぽいの初代PSでちゃんとやってたの、攻殻機動隊だと思うんだよね
今に至るまで、最も原作の意味をくみ取ってたアニメだったし、石野卓球なりの曲も良かった
時は流れて、今の日本のゲームもみんなUnityとかUnrealになった
Godot選択する人もいるかもしれないけど、あれ、良さそうだと思ったけど、情報少なすぎるよね
ソースは公開されてるんだから、ソースを読め的な感じもしたし、今どき?
独自スクリプト勉強するのもなんだな、と思って、ちょっと使う以上に使う気になれなかったんだよな
調べてもらわなくても、まあ、分かるだろうけど、UnityとかUnrealの開発者、日本人とかもいる、はかなり著名なゲームを開発した人も含まれてるよね
彼らは、当たり前だけどUnityとかUnrealがない時代は、当然自分たちで全てを書いてきた人たちだ
リードプログラマーが一人といったけど、かなりの分量をリードが書くはず
ほとんど一人開発と言ってもいい
あと、そういうリードプログラマーは職人みたいなものなので、自分で書いた数学ライブラリとか、物理エンジンとか、持ち歩いて会社を転々としてる人もいたはず
厳密には権利の問題もあるかもしれないけど、そういう優れた人材は引っ張りだこなので、会社を転々として、
その場その場で、自分で1行目から書いた、自分しか持ってない自前のvecmathライブラリとか、物理とか、ノウハウを財産として持って移動しまくってた
で、そうやって業界をサバイバルしてきた人たちのトップランナーが、今はUnityとかUnrealで開発とか営業とかやってる
多分だけど、もうコアな部分を書くことなんてなくなっているだろう
Unity、Unreal以前は、行く場所行く場所で、ゲームエンジンレベルからゼロから書いていた
でも、Unity、Unrealはそれを当たり前だけど共通化するわけで、そしたら一度書けば、それはずっと使われるコードになる、当たり前のこと言ってるけど
で、困っちゃうのは、そんなトップランナーになれなかったゲーム開発者だ
ゲームエンジンを開発するための、数学や物理、コードに関する能力、特にCやC++が多いだろうけど、そういう能力はある
自分は凡人以下だろうけど、かなり凄い人もいるんだろうけど、そういう人も含めて、ゲームエンジンレベルから作る職人芸は無意味、無価値になった
もちろん、まったく無駄にはならない
結局、Unity、Unrealを使うときに、単に使うだけでも中の挙動を勉強しなければいけない
でもね…
もう、ゲーム開発がコードをガリガリ書く仕事というより、コンテンツを作る作業にほぼなっちゃってないか?
3DCGのモデリング、シェーダー、ゲーム本体も含めて、箱と箱を線で繋ぐような作業でゲームができるようになってる、とっくになってる
そうすると、もうC、C++でガリガリゼロから書いていた人とか、
それこそ、PS2の開発はよく知らんが、悪評が高い、あれはOSレベルから書かされたりしていたように聞いてるし、
そういう人たちもゲーム開発の現場でそういった知識が活かされることはもうない
逆に、北欧で生活保護もらったりしてただろうNotchのマインクラフトとかの方が成功しちゃったりしてるよね
あれはゲームエンジン?と言っていいのか分からんけど、あの独特のボクセルの世界はゼロからJavaで書いたものだ
彼は時間制限でゲームを開発するイベントに数多く参加していて、いつもJavaでサクッとゲームを作っていた
だって、プロのゲームプログラマーっぽくはない、Javaでしか書いてないとか、それこそJavaの方が生産性が高いみたいに言ったら、日本のゲーム業界だったら鼻で笑われてただろう
彼はマインクラフトの前に、ゲーム会社に所属していたし、そこで開発していたのは、世界をすべて緻密に構築するようなゲームだったらしいけど、
自分の予想だけど、そんなの全地球シミュレーターの簡易版みたいなもので、無謀な試みというか、かなり複雑な仕組みになっていたはずだ、自分が聞いてたら、実現できるかさえ怪しい、と思っただろう
彼は世界を緻密なボクセルやポリゴンではなくて、大きなボクセルで実現することにした、まずそこが出発点であることは間違いないだろう
そこからセルオートマトンで川とか水を実現できるんじゃないかみたいに発想が膨らむよね、プログラマーなら
話をまとめると、ITがつまらなくなった話はゲーム開発にも置き換えることができる気がしている
昔のゲーム開発に少しでも携わっていた自分のような人たちは、今の時代では老害だということは重々承知しているし、
多分、今、ゲーム開発に興味がある子供とかがゲームに望んでいること、ゲーム開発でやりたいと思っていること、と自分たちの世代のゲーム開発者がやりたいと思ってたこと、やってきたことは、もう全然乖離してるんだと思う
考えてることが乖離してるんだから、話が通じないのはおかしくない
違う世界を生きてる人、偏差値がいくつ違えば会話が成立しないなんて話もあるように、今の子供たちと会話が成立しないのはおかしくない
そして、当たり前だが、現状を正しく認識しているのは、今の子供の方の可能性が高い
基本的にはCやC++で膨大なコードを短期間に書くことが要求される仕事だった
それが今の子供たち、というか、今の時代の環境に慣れた人たちにできる仕事とは到底思えない
そういうトッププレイヤーは、今はAIなり何か、最先端のものをそういった企業のコアの部署で、コアなものを開発しているはずだ
でも、そうなれなかった人たちはどうなる?
高度な彫り物とかするような職人が、NC工作機器とかで彫り物をするようになったら、職人は必要なくならないか?
伝統工芸だの、人間国宝だの、そうやって手で作ったものの方が温かみがあるみたいなオカルトに守られて生きられる人間がどれだけいるだろうか?
その、人間国宝レベルの人たちがUnityやUnrealのような企業に吸収されていく
あとは過去に開発したゲームのネームバリューを活かして講師職になるとか、そういう感じだろう
そうなれた人間がどれだけいるだろうか?
優れたリードプログラマーに触発され、職人になるべく数学や物理、プログラミングの知識習得を重ね、朝から晩までひたすらコードを書いていたのに、
今の生成AIは大したことないと自分も思うが、驚き屋wwwとか馬鹿にしてる奴らは、いつかうっかりAIに職を失われないか、よく普段から考えた方がいい
あと、AIに職を奪われたくないから、プログラミング頑張る、みたいな奴は、俺的には間違った頑張り方だと思うw
そのプログラミング自体がなくなるかもしれない、って言ってるんだって
技術習得とか、自分の技術でマウンティングし合ったりする暇があるなら、別業種のことでも勉強した方がいい
そういえば、優れたアニメーターだった人が、作画として年齢的に限界にあるし、親族にもアニメーター辞めるように言われてたらしいけど、
ある日バイク事故にあって、アニメーターを続けられなくなって、その人は年齢的にギリギリで清掃車運転する仕事についてたはず
立派な公務員になれて、空いた時間で絵を描いては、市役所などで販売してたはずだ
何が人生として幸運かなんて分からないけど、必ずしもアニメーターが庵野とか宮崎駿を目指すのが幸せなのだろうか?
どこかで自分の仕事を辞めて、それを趣味にして、安定した仕事に就いた方が、心の平安が得られるのではないだろうか?
というか、富野アニメなんか、やたら名誉を優先して失敗する人が出てくるよね
長い人生生きてきた老害には、ああいうのなんかよくわかるんだよね…😟
みんなが驚き屋って読んでる人たちは、基本的にPythonとかも書けないし、計算機科学とか数値計算の知識とか曖昧というか、まったくないような輩がいるし、
元の文章である「ITがつまらなくなった」だったかの文章にもあったように、ビジネスのアイディアだけある胡散臭い素人が乱入してきた感があるわけだけど、
でも、老害って若い世代とか新しいものを疑ったり反発しがちなんだよな、自分も含めて
だから、たしかに驚き屋の連中のかなりは胡散臭い、詐欺師みたいな、出まかせで大金持ちになったスティーブジョブズの極小コピーみたいな連中ばかりではあるけど、
でも、生成AIとか、これから汎用AIとかもどうなるのか分からんけど、どんどん素人に有利になってくと思うんだよな
だって、UnityとかUnrealで作ってる世代はガリガリC++書くのなんて馬鹿げてると思ってるだろうし、
プログラミン技術がもっと怪しいのはWebアプリ界隈も同じだと思うんだよな
RailsやPHPで書いてる連中と、C++で書いてる連中の世界は、見えてる世界がかなり違うんだよ
そもそも、そういう輩はLinuxとかWindows上で書いてるわけで、いわゆる家庭用ゲーム機とかでコード書いたことないだろ?
でも、Xbox発売時にビルゲイツが言ったように、(なんかSEGAだかソニーだか知らんけど)所詮ゲーム機なんて機能が制限されたパソコンだよね、
nVIDIAとかGPUカードどんどん作るんだし、パソコンの方が最先端のグラフィックスが体験できるよね、
みたいに言いつつ、Xbox発売したわけだけど、自分もそう思ったけど、あの預言は的中したよね
情弱と信者だけ任天堂Switchとか使ってるんであって、ビルゲイツが言ったように、ゲーム機の中身は機能が制限されたパソコンだよ
昔、TRONというプロジェクトがあって、あれを孫正義がクソミソに言ったという話があったと思うんだけど、
日本だけで閉じたプロジェクトを出発させても、アメリカの豊富な資金で、カネと資源という暴力で作られるオープンな世界に絶対負ける、ようなことを言ってて、
当然、そのあとIntelなりWindowsに日本は負けるし、半導体としては台湾に90年代で既に負け始めてたわけで、
家庭用ゲーム機も同じで、家庭用ゲーム機の新しいバージョンが出るまでのスパン、機能は固定されるから安定して確実に動作するゲームが販売できるとか、
色々利点はあるんだろうけど、でも、その間に日進月歩で、それこそnVIDIAみたいな企業がどんどん進んでいくわけで、
グラフィクスシンセサイザーwとか名前はカッコいいけどさ、名前に準じてたら、今頃ソニーNVIDIAに勝ってない?違うでしょ?
話を戻すと、どんどん素人が参入してきて、その素人が頓珍漢なことを言ってるのが不愉快だ、許せない、驚き屋氏ね、みたいな気持ちは分かるけど、
素人が参入できるようになった、というのは、世の中の流れが変わったわけで、そういう若い世代をただバカにするというのは、老害しぐさだよね
気持ちは分かるけど、ドラえもんのように生暖かく見守るとともに、老害も新しい技術とか、素人が驚いていることをちゃんと咀嚼して、吸収していく必要があるんじゃないの?
ちゃんと大学、大学院で計算機科学、情報科学をやってきったわけだし、あやふやな知識でイキってる若者に対して老人が取るべき態度ってそういうもんじゃないの?
例えば、子供が初めて何かを見て驚く、それを大人が見て、そんなのはありふれてる、驚き屋wwwと思うだろうか?
子供は素人だから初めて体験したわけで、なぜ子供がそれを見て驚いたのか?とか、子供の目線でちゃんと考えられる人は、教える人に向いてる人だと思う
他人に教えることがうまい人は、自分の経験、能力も整理することがうまい
2009年11月のいわいる事業仕分けから、もう13年も経った。「2位じゃダメなんですか?」の質問の発言で非常に曰く付きとなったアレだ。
ところが最近、13年も経ってまだなおナゼ「2位」という言葉が出てきたかが理解できてない人がかなりいる事を知った。それどころか、スーパーコンピュータの京は、事業仕分け時点で世界一になることが明白だったなどという認識まで飛び出す始末である。
ただ、資料もなしにどこが変だと言っても仕方あるまい。何がどうして「2位」なのか、少し語ろうじゃないか。
初期の次世代スーパーコンピュータ (この時点では名前が付いていなかったが、以下わかりやすく京と呼ぶ) 計画 は、補助金を投入してのHPC産業育成に目を向けられていた[1]。世界一の性能を出していた海洋研究開発機構の地球シミュレータが、NECのSXシリーズをベースにしたベクトル型であり、ベクトル型のスーパーコンピュータは日本のお家芸とみなされていた。これを育成することが一つの目標。そして、立ち遅れていた当時の世界のスーパーコンピュータの潮流、スカラ型の開発に追いつくこと。これがもう一つの目標となった。結果、世界でも類を見ないベクトル型とスカラ型のハイブリットなどという中途半端な方式になる。実に日本的な玉虫色の決定と言えるだろう。しかし、補助金の注ぎ込みが不足し、事業者持ち出しの負担が大きくなってしまった。結果、事業費負担が高額になることを嫌い、NECと日立の撤退する[2]。これにより、世界の潮流通りのスカラ型とならざるをえなくなった。
CPUはというと、世界のスーパーコンピュータの潮流では当時から既に汎用のx86アーキテクチャのCPUが既に多くなってきていた中、富士通はSPARC64VIIIfxを採用した。よく国産CPUと表現されているが、SPARCの名で分かる通り、当然命令セットは米国Sun Microsystems (現 Oracle) のセカンドソースであり、端から端まで国産というわけではない。更に、業務用UNIXをささえるマシンとして一世を風靡したSPARCではあるが、当時ですらもう下火となっていた。京の事業費の約半分、実に600億円が、この専用CPUに注ぎ込まれることになった。なぜその選択をしたのか。富士通のサイトには省電力と安定性が理由として書かれている[3]。しかし、その省電力という目標も、後述するように微妙な結果となってしまった。また、ソフトウェアの使いまわしも微妙となった。
計画は2005年に始まる。世界でも類を見ないベクトル型とスカラ型のハイブリットという構成もあり、概念設計にはしっかり時間を費やした。2007年9月には性能目標は10P FLOPSと示した[4]。稼働開始は2010年、2012年に完成という工程も同時に示されている。直前の2007年6月のTOP500を見ると[5]、1位のIBM BlueGene/Lが370TFLOPS。5年後に30倍という性能を目指したことになる。当時の発表としては、世界一が取れるような計画だったが、しかし日進月歩の分野で5年は結果的に長かった。
さて、前述のように、ベクトル陣営は2009年5月に撤退を決めた。10P FLOPSの性能と決定した時には、ベクトル側も居たのに、そこがぽっかり空いた状態。10P FLOPSのあてはいつついたのだろうか? 2009年7月の報告書[6]では、スカラ単体で10P FLOPSを達成できること、ベクトル部は存在していても接続まわりの性能が不足していて問題があったことが表明されている。結果的に、なくなってよかったというトホホな内容だ。さて、同報告書では、稼働開始前の2011年6月に、ベンチマークだけでも10P FLOPSを達成してTOP500の1位を目指すと書いてある。どうしてこうなったのだろうか。
遡ること半年の2009年2月3日、米国国家核安全保障局(NNSA)はIBMと新しいスーパーコンピュータ Sequoiaを展開すると発表した[7]。性能は20P FLOPS、京の予定性能の実に2倍を達成するという発表だ。しかも、提供開始は2011年~2012年。京の1年も前になる可能性があるという。
そう、双方が計画通りなら、京は2012年、提供を開始する時には既に2位になっているという話題が出ていたのだ。なるほど、あせって2011年にベンチマークだけでも「トップを取った」という実績を残したいわけである。
さて、その後のSequoiaはというと?
ある意味計画通りだろう、2012年に提供が開始され、2012年6月のTOP500[8]では予定通り20P FLOPSを叩き出し、1位になる。しかし、2012年11月のTOP500[9]では、Crayとオークリッジ国立研究所が作ったTitanが叩き出した27P FLOPSという数字ににあっさりと抜き去られ、2位になる。まるで幽遊白書のラストのような展開だ。しかも、SequoiaはIBMのPower系アーキテクチャで構築されたA2プロセッサだったのに対して、TitanはAMD OpteronとNVIDIA K20Xの組み合わせ。汎用性でも差を開けられている。これはお手上げというものだろう。
さて、話は京に戻す。京が有名になったのは2009年11月13日の行政刷新会議、いわいる事業仕分けである(ここは参考文献は要るまい)。このときまで、そんな計画があることを知らなかった人の方が多かったのではないだろうか。どういうニュアンスで言ったかわからない、まるで日本を貶めているかのように聞こえる「2位じゃダメなんですか?」という言葉が非常にインパクトを与えたことだろう。
さて、じゃぁ何が2位なのか。だ。前述の通り、この時点ではIBMのSequoiaに追い抜かされることが見えていた。TitanはGPUの調達など細かい話が決まってきたのは2010年なので、この時点ではほとんど影がなかったはず。ということで、3位じゃなくて2位としたのは、Sequoiaを意識してのことだろう。つまり、「2位じゃダメなんですか?」というのは、1位を諦めて2位の性能で我慢するべきということではなく、客観的に見れば「2位になるのが見えているのだけど、何で1位と言ってるの?」という話になってくるのが見て取れる。蓮舫氏がそこを意識してたか知らんけど。
共同事業者が撤退し、一応強気に「大丈夫」と言ってはいるが、本当に達成できるかは周りからは疑問符が付くグダグダなプロジェクト状況、ほぼ専用設計で量産時にどういう問題が出るかわからないCPU、ソフトウェアも新規制作。税金の投入は中途半端で、産業を育成したいのか企業負担を増やしたいのかよくわからない(だから撤退する事業者が出る)。そもそもここで出来たスーパーコンピュータ、CPU抜きにしても売れるのか分からない。そりゃ、金田康正教授でなくても、京にはため息が出るというものだ。
さて、京は何を達成したのだろうか? 京は完成前ではあるもののベンチマークを実施し、見事11P FLOPSを叩き出し、2011年6月[10]と2011年11月[11]のTOP500でトップに躍り出る。この分野に日本ありと示した…かどうかはわからないが、一つの実績として言えるのは間違いない。いや、経緯のグダグダ感からして、見事なプロジェクト進行だったと称賛できる。しかし、前述の通り供用を開始した2012年9月[12]にはTOP500ではSequoiaに追い越されており、直後のTOP500ではTitanにも追い越されて3位となっていた。1位は、ベンチマークだけの存在だったと言える。
では目標の産業育成としてはどうだっただろうか。京をベースにしたスーパーコンピュータ PRIMEHPC FX10[13]やFX100は、東大[14]、名大[15]、キヤノン[16]、九大[17]、信大[18]、JAXA[19]、核融合科学研究所[20]、気象庁気象研究所と、調べるだけでも国内実績は多くある。国外実績は、台湾中央気象局[21]、シンガポールナショナルスパコンセンター、豪州 NCI、英国 HPC Walesと、それなりにある。ただどうだろう。産業としてうまくいったのだろうか。有価証券報告書を見ても、その他のセグメントに入ってしまっているため状況がつかめない[22]。謎ではある。とはいえもし、産業としてそれなりに育ったのならば、有価証券報告書で報告する事業セグメントとして独立したものを与えられてしかるべきだったのではなかろうか。少なくとも1000億も出したのだ。そのくらいではあってほしかった。更に言うなれば、特に競争の激しい国外市場をうまく取り込めたかというと、産業育成という視点では頑張ったとは思うものの心もとない結果だったように、少なくとも私には見える。
消費電力の面はどうだろうか。上述の通り、SPARCを使う理由には省電力が上げられていた。これをライバルのSequoia、Titanと比較してみよう。2012年11月のTOP500[9]で見ると、京は12.6MW消費するとある。Sequoiaは7.8MW、Titanは8.2MWだ。実はこの時の報告のあるスーパーコンピュータの中で、最大の電力消費量を誇っている。高いほうがいいのではなく、消費電力は低いほうがいいので、これはかなり問題がある。
費用面はどうだろうか。これもライバルと比較してみよう。京は日本円にして1120億円かかっている。対してSequoiaは2億5000万ドル[23]、Titanは9700万米ドル[24]だ。2012年11月で見るとドル円相場は82円なので、Sequoiaは約205億円、Titanは80億円となるだろうか。京のプロセッサ開発費を除いたとしても、数字が違いすぎるのだ。
纏めてみよう。京は、一時期でベンチマーク上だとしても、TOP500で1位を取った。これは「夢を与え」(平尾公彦氏)た結果だったろう。しかし、それは砂上の楼閣でもあった。しかしそれを実現するための費用は米国の5~10倍で、性能は実は半分、消費電力は1.5倍という結果になり、産業育成も盛り上がったかどうかは判然としない。こんなところだろうか。
近年のスーパーコンピュータを含めたHPC分野はどうなっているだろうか。近年のクラウドコンピューティングの流れを当然HPC分野も受けており、主要プレイヤーとしてAWSの名前が挙がっている[25]。またレポートでは挙がっていないものの、Google Cloudも猛追しており、円周率の計算では1位を叩き出している[26]。必要な時に、必要な規模で構築できるクラウドコンピューティングの波は、さてHPC分野でどこまで浸透していくのだろうか。産業育成の方向が、2009年時点では確かにハードウェア開発だったろう。しかし、事業仕分けへの反発により、日本は方向性を間違ってしまったのではないか。私は、そんな気がしてならない。
[1] ttps://www8.cao.go.jp/cstp/tyousakai/hyouka/kentou/super/haihu01/siryo2-3.pdf
[2] ttp://www.nec.co.jp/press/ja/0905/1402.html
[3] ttps://www.fujitsu.com/jp/about/businesspolicy/tech/k/whatis/processor/
[4] ttp://web.archive.org/web/20130207162431/https://www.riken.jp/r-world/info/release/press/2007/070914/index.html
[5] ttps://www.top500.org/lists/top500/2007/06/
[6] ttp://www.jaist.ac.jp/cmsf/meeting/14-3.pdf
[7] ttps://www.llnl.gov/news/nnsa-awards-ibm-contract-build-next-generation-supercomputer
[8] ttps://www.top500.org/lists/top500/2012/06/
[9] ttps://www.top500.org/lists/top500/2012/11/
[10] ttps://www.top500.org/lists/top500/2011/06/
[11] ttps://www.top500.org/lists/top500/2011/11/
[12] ttps://www.riken.jp/pr/news/2012/20120927/
[13] ttps://jp.reuters.com/article/idJPJAPAN-24020620111107
[14] ttps://pr.fujitsu.com/jp/news/2011/11/14.html
[15] ttps://pr.fujitsu.com/jp/news/2013/05/15.html
[16] ttps://pr.fujitsu.com/jp/news/2013/08/6.html
[17] ttps://pr.fujitsu.com/jp/news/2013/08/22.html
[18] ttps://pr.fujitsu.com/jp/news/2014/02/13.html
[19] ttps://pr.fujitsu.com/jp/news/2014/04/7.html
[20] ttps://nsrp.nifs.ac.jp/news/PS-next.html
[21] ttps://pr.fujitsu.com/jp/news/2012/06/25.html
[22] ttps://pr.fujitsu.com/jp/ir/secreports/2015/pdf/03.pdf
[23] ttps://arstechnica.com/information-technology/2012/06/with-16-petaflops-and-1-6m-cores-doe-supercomputer-is-worlds-fastest/
[24] ttps://web.archive.org/web/20120727053123/http://www.hpcwire.com/hpcwire/2011-10-11/gpus_will_morph_ornl_s_jaguar_into_20-petaflop_titan.html
[25] ttps://www.sdki.jp/reports/high-performance-computing-market/109365
[26] ttps://cloud.google.com/blog/ja/products/compute/calculating-100-trillion-digits-of-pi-on-google-cloud
年 | 名前 | 性能(PFLOPS) | 性能比 | 消費電力(MW) | 性能/MW(PFLOPS) | 性能比 |
2002 | 初代地球シミュレータ | 0.0359 | 6 | 0.0059833 | ||
2011 | 京 | 10 | 278.5倍 | 12.7 | 0.7874 | 131.599倍 |
2020 | 富岳 | 415 | 41.5倍 | 28.3 | 14.6643 | 18.623倍 |
年 | 名前 | 性能(TFLOPS) | 性能比 |
2000 | PS2 | 0.0062 | |
2006 | PS3 | 0.23 | 37.1倍 |
2013 | PS4 | 1.843 | 8倍 |
2020 | PS5 | 10 | 5.42倍 |
ゲーム機だとこうなる
だんだん性能が伸びなくなってるよな
ブコメにワットパフォーマンスの話が出たのでスーパーコンピュータのWとか調べてワッパで比べてみた
だけどPSにかんしては、調べるとみんな言うこと違ってて
新型コロナウィルスの流行で家で過ごす時間が長くなったので、暇を持て余して学生の時以来15年ぶりくらいに長時間はてなに入り浸っている。相変わらず、リアルの職場や友人とは話さないであろうネタが多くていい気分転換になるのだが、気になったのが、「全体的に話題が浅く内向きになった?」感だ。あまり上手く説明できないので箇条書きにするとこんな感じ。
・海外情勢の記事減ったよね?2000年代半ばだとシリコンバレーの文化や流行みたいなの記事が結構あったような。梅田望夫氏とか人気だったよね?今だと中国のIT企業の裏側とかのネタもっとあってもいいと思うけど、俺の観測範囲では見ていない。
・経済の話題が出なくなったよな?経済だと昔はリフレ派の主義主張を結構見た記憶が。最近だとMMTの話題や各国の中央銀行のコロナの経済対策とかの話題がありそうでない。
・科学技術もそうで、惑星探査機はやぶさに、地球シミュレータ、PS3のハード構成とかの考察記事や、IntelとAMDのアーキテクチャ比較とか技術オタク的な視点でわちゃわちゃ盛り上がっていた気が。
・新型コロナウィルスの流行でSNSの医療クラスタの発言は結構取り上げられているけど深さが物足りない。昔のノリなら通りすがりの研究者が海外でのワクチンの開発やレムデシビル、アビガンといった治療薬の治験データとかの論文解説記事を上げてただろうし、「僕の考えたコロナ封じ込めプラン」的な、青臭いけど熱のこもった医学部生の考察記事なんかがホットエントリに上がってた気がする。
・教養主義の衰退。昔はDankogai氏やfinalvent氏のような教養を感じさせるブロガーが目立っていたが、そういうノリがいつの間にかなくなっている。
・ライフハック。昔から若干うざいと思っていたから記事が減ってすっきり。
・自分語りというか、非モテ系のくねくねした自分語りのネタが昔は多かった気が。かつての自分語りが15年前は試験サービスだった増田にシフトした感だが、ブログでの自分語りは他人の人生をトレースしてる感があって増田よりもエモかったんだよな。なんだかんだで当時から生き残っているシロクマ先生の存在感。
・党派性が強くなった?昔から”はてサ”という言葉があったくらい、左派色の強いブコメが多かったが話題の幅が減ってる。なんていうかジェンダー論と政府批判に集中しすぎというか。ここ数日話題になっていた香港の国家安全法の話題が全然出てないのはリベラルとして感度が鈍くないか?
全体的な傾向を無理やりまとめると、昔は技術に強いインテリタイプが主なユーザーだったのが、すそ野が広がって良くも悪くも大衆化したという感じだろうか?大衆化したといっても芸能人のアメブロ読んでる層とは全然人種が違う感あるけども。例えば、会社や学校の同僚の8割方が知らないであろうジェンダーバイアスとかトーンポリシングとかの単語が普通に通じる空間はなんやかんやで異質。
昔の格言か何かで、『戦略レベルのミスは戦術レベルでは取り返せない』というのがある。
確かに、近年電機業界で大きな損失を出した会社を見てみると、この戦略レベルのミスが非常に目立っておりなるほどなと思う。
プラズマディスプレイに社運をかけて大赤字を出したPanasonicやPioneer、巨額の開発費をCell Processorに投資して爆死したSONY、Westinghouseの買収でやらかした東芝等。
ところが、最近増田で話題のNECを調べてみると、こうした会社とは不振の状況が違うように思えてきた。
なんというか各事業で競争力を失って徐々に敗退していくというような。言い換えれば戦術レベルの敗北を繰り返してじり貧になったとでもいうか。
昔半導体がらみの仕事をしていてNECの事業所にも出入りしていたことがあり、個人的にも興味があったので歴史を少しまとめてみた。
なお、この記事を書くのに参考にしたのは下記NECのIRで、1990年からの業績データと、1995年からの会社紹介資料が閲覧可能。
https://jpn.nec.com/ir/index.html
1999年 半導体メモリ事業を日立と統合して分社化。後のエルピーダメモリ。2012年に経営破綻。
2000年 家電部門のNECホームエレクトロニクス事業停止。
2001年 有機EL事業をサムスンSDIと合弁化。2004年に有機EL事業から撤退。
2004年 プラズマディスプレイ事業をパイオニアに売却。
2010年 半導体子会社のNECエレクトロニクスをルネサステクノロジと統合。半導体事業から事実上撤退。
2011年 液晶事業を天馬グループとの合弁化。2016年に完全売却。
1991年 NECの研究員だった飯島澄男がカーボンナノチューブを発見
2001年 スーパーコンピューター地球シミュレーターが世界一の性能を発揮
2001年 2000年度3月期決算で過去最高の売り上げ5兆4000億円達成。 ※バブル期の1990年度でも3兆7000億円程度。この時期までは比較的うまく経営ができていたと思われる。
NECに出入りしていたころに思ったが半導体事業部に新卒で入った社員は大体優秀かつ深夜残業休出当たり前なモーレツリーマンだった。
設備投資も研究開発費も年間3000億円コンスタントに投資しており、今の水準で考えても少ないことはなさそう。
しかも20世紀終わりから21世紀にかけて爆発的に伸びた情報通信産業に社内のリソースを集中してて、バックに住友財閥もついている。
会社の置かれた状況を考えると韓国のサムスン電子や中国のHuaweiみたいに、今でも世界を席巻できていただろうに。マジでどうしてこうなった…
当時気になったのは本業と関係ない関連会社が異様に多いことぐらい。(不動産のNECファシリティーズ、運送業のNECロジスティクス、食堂運営のNECライベックス、企業研修のNECラーニング等)
どうでもいいけど最近のスローガンのOrchestrating a brighter worldってのはマジで意味不明。迷走ぶりを象徴している。
精密計算科学/数値シミュレーションを行う研究者達にとっての基本インフラです。
突然なくなると大変な事態になる事はどうか把握しておいてください。
残念ながら京速を使っている企業は公開されていないようですが、
地球シミュレーターの利用企業からなんとなく推測できます。平成23年度まで常連だったトヨタ、住友などが京速稼働以降姿を消しています。スカラーマシンに適応した計算が京速に移行したカンジでしょうか。
基本的に有料で使用されており、得られた結果は企業秘密として扱われ公開されません。
(追記:
京速ではなく HPCI ですがこちらの産業利用をクリックすると論文リストが見れるようです。参考までに)
一般に、スパコンでは年1~2回の公募があり、そこに申請します。研究者向けに言うと「科研費のめっちゃ厳しい版」です。審査は書類(プロポーザル)とプレゼンです。ライバルが顔を合わせて殺し合うので厳しいし怖いです。
京の場合は特に競争が激しく、新学術を通すような大御所達がボコボコ落とされた事で一部で話題になりました。研究者同士で競争し合い勝ち残った一握りのエリートが京速を使っているのだということは理解しておいてください。政治家に叩かれるまでもなく、研究者同士で常に科学の文脈で議論し、叩き合っています。
ちなみにとある blogで「京速は何に使うか決まっていない」と叩かれたようですが、これは公募が出る前の話なので当たり前です。
京の目的は多数あるのですが、まずは
ということを押さえて以下を読んでください。
「日本で作ろう」というひとたちは「日本から出て行くお金」(貿易赤字)について気にしています。一方「輸入しろという人」は「政府から出て行くお金」(国の借金)を気にしています。前者は企業や経済産業省の人たちで、後者は財務省もしくは「国民目線」ですね。
かつて日本でスパコンを作り、シェアを斡旋して来た技術者達はまだ生きています。
彼らが引退する前に若手に技術継承をすることが京速の目的のひとつです。
(実は戦後、航空機の技術継承を巡って同様のプロジェクトがあったのですがこちらは失敗しています・・)
たしか外務省かなんかからの要請だったとおもいます(忘れた)。
「戦略資源」という意味がわからなかったので人に聞いたところによると
何があっても戦争に巻き込まれないため、いざというときには日本でスパコンを作れるようにしておきたい、といったかんじのことを説明されました。
日本各地に備蓄してある水とか石油とかと同じ扱いという事ですかね。
(追記:
要は日本の産業にダメージを与えるにはスパコン攻撃すれば良いという状況になっていて(関連企業はこんなかんじ)
「日本にはスパコン売ってやらねー」とやられることを恐れているようでした。誤解を生んですみません。
などで一部が公開されています。
それから各研究グループ毎に web ページをつくり広報しているのですが、
はっきりいうと、関わっている研究グループが多すぎてまとめ切る事は不可能だと思います。
今月も7個くらいあるんでどうぞ行ってみてください。
政府が全額出すのではなく、企業と半分ずつ費用を出し合うからです。
1から開発するのは大変なんでしょうね・・
ベクトル型に適した研究分野と、スカラーに適した研究分野があります。
前者は主に流体計算のようです。例えば気象、海洋、宇宙分野とか製品開発における空気抵抗の計算など。
後者はその他いろいろです。例えば素粒子の格子QCDやトヨタの物理シミュレーションなんかはおそらくこっちでもいいのでしょう。ここで
という状況があります。利用者を集めて京に関する議論があったのですが
といったカンジで大揉めしました。このあといろいろあったのですが最終的にスカラー派は京速で、ベクトル派は地球シミュレーターでと住み分けているようです。
当時のGPUは「良く間違える上に、間違えたかどうかチェック出来ない」精密科学計算にはちょっと使えない代物でした(当時の話です)。東工大のTSUBAMEがありましたが、あれは「GPUすごい」というより、「松岡さんスゴイ」なのではないかと思います。
最終的に民主は仕分けを撤回しましたし、今回のやつも「予算の削減努力を」という提言であってスパコン自体が仕分けられたわけではありません。そして企業側も削減したいとは思っているはずなのでたぶん誰も困らないはず。困るのはこの手のニュースで陰謀論を流され、国民の誤解を招く事です。(どうも政治が絡むと陰謀論が流れやすいようです)前回ひどい陰謀論を流されたのでちょっと警戒しています。自民も民主も両方かばったからね!喧嘩しないでね!
なんかまちがってたらごめんね
(追記)
があります。競争が激しかったのは無料コースの重点課題であり、有料コースはいつでも受け付けているはずです。
TSUBAMEは無料コースが以前までなかった、あってもハードルが高い 有料で使うには(僕の分野の計算の性質上)ちょっと気軽に申し込める値段じゃなかった、ということです。TSUBAMEの有料コースが特に高いというわけではありません。
誤解を生んですみません。
azure-frogs『世界一になる理由を説明できるようにしてください』という問いには最低限でこの程度の説明が必要なのに、例の仕分け当日に出てきた答えは『夢』だったわけでw
この記事は民主党批判の意図はありませんし、また、あのときスパコンを批判した人たちを決して馬鹿にしません。
あの仕分けを見ていたなら当然そうですよね。どうもすみません。
ところで上記の内容は、報道関係者向けに開かれた討論会の内容の一部です。仕分け直後に研究者達が企画したものです。
そこでの内容は結局、どこにも報道される事はありませんでした。そもそも報道関係者は2、3人しか来ませんでした・・
なので大変お手数なのですが、スパコンについて知って頂くには、各地で開催される一般公開や講演会に足を運んで頂くしかありません。
申し訳ありません。
うーん・・企業毎にスパコンを外国から購入するということですか? どうでしょうね・・・
スパコンを「購入する」といっても完成した製品がポンと来るわけではありません。
その場で組み立てて、バグ取りとかテストとか利用者も一緒になって手伝います。(一個ずつ基盤抜いてチェックとかも・・)バグ取りとチューニングでだいたい1年くらいかかります。スパコンの管理者も知識と技術を求められるのでどの企業にもできるというわけではないのかもしれません。一応、その辺りのスパコン利用リテラシーを企業の人たちに教えるというのも京速の目的の一つだったかと思います。
一方、素粒子や宇宙の研究者達は基盤Sなど取得して PACSシリーズやGRAPEシリーズを作ってきたので国策スパコンがなくなったら以前のように独自開発に戻るのだとおもいます。たぶん一番影響を受けるのは一般企業です。
komochishisyamoその辺は多分判ってる気がする。問題は1100億超、次はもっと掛かるという費用に対する説明の方なのでは?誰もスパコン要らないとは言ってないわけだし。
僕はあくまで利用者のひとりであってスパコン開発はド素人です。なのできちんとお答えできません・・すみません。
ところでスパコンの開発費はほぼ人件費です。新しいものを作るので開発期間の検討をつけるのはなかなか難しいのではないかと素人目にも思います。だいたい計画通りにいかなくてずるずる開発期間が延びた結果開発費が・・・というのはよくある話ですよね。
京速コンピュータは計画当初から確か10年ほどかけてつくられたので、110億を富士通の技術者の平均年収で割れば、関わった人数が概算できるかもしれませんね?
yum1271 人件費のみで、年収750万の専門技術者が1400人で10年開発=1050億円。末端まで含めて1400人は少ない気がする。あと人件費以外もかなり掛かるはず
HarnoncourtHarnoncourt費用は年収ではなく人月単価で計算すべき。1人月80万~マネージャで200万くらいです。この単価は、昔からあまり変わりません(汗)。スキル低い新人だと1人月60万くらいになりますが、そんな奴を連れてくるなと。
まさかの専門家さんですか! どうもありがとうございます。
gaudere 80年台に日本勢がシェアを「独占」していた、というのはちょっと無理があるのでは。もちろん、存在感はいまよりずっとあったけど。その頃の人がまだ残ってるのはその通り(定年間近だけど)。
どうもありがとうございます。ちょっとかき直しました。
日米スパコン貿易摩擦のイメージが強すぎて誤解していました。すみません。
他にも間違いがありましたらご指摘いただけたら嬉しいです。
bhikkhuなんか食料安全保障みたいな話になってる。結局は技術的に負けてる産業に国が補助金出すって話と理解していいんですかね。
京コンピュータは完成時に実行効率90%越えの化け物みたいな数字(本当にスカラー?!)をだしてTOP500 1位とって、多数の賞を獲得してたので国産スパコンプロジェクトとしては大成功だったように僕には見えました。あれだけあれば宣伝になるし売れたのでは?関係者じゃないのでわかりませんが。
filinionfilinionムーアの法則の21世紀にあってさえ、計算機資源ってそんなに足りてないものなのか…。実用品であるなら、コスト対効果のベストなあたりを何台も作る、というわけにはいかないんだろうか。一位でなきゃだめなの?
すみません、誤解を生んだようです。スパコンは京以外にもたくさんあります。
僕自身は京コンピュータと全く関わりのない人間ですが、他のスパコンのアカウントはありますし、計算時間も頂いています。
もし、京を潰したら現在京をつかっている人たちが他のスパコンを使い始めるでしょう。そうしたら僕のような末端の使えるスパコンは無くなってしまうかもしれません。京も含めて分野全体の計算資源の計画がなされているので突然無くなると困るという事です。
主に京が叩かれているのは「なんで日本でスパコン作るの?海外の買えば安いのに」というものなので
その辺りに焦点を絞って説明したつもりなのですが難しいですね・・・
http://anond.hatelabo.jp/20151113183705
その記事をみると河野さんが真面目にやっていることが伝わってきますね。悪い人ではないのでしょう。
でも難しいですね・・・僕自身も仕分けで上手く説明できる気がしません。
「根拠のない数字」とはおそらく経済効果のことですよね。一番経済効果があるのは一般企業の製品開発なのですが、
基本的にスパコンの計算結果は企業秘密になっているはずです(京の企業利用はよくわからないのですが、地球シミュレーターに習うとそのはずです)。公開されているのは無料利用した基礎研究で、こちらの経済効果はどうしても妄想になってしまう・・・
車よりも電車を例にとった方がいいかもしれません。
大勢の人が関わりすぎて把握できないのが難しさの原因の一つだからです。
中韓と高速鉄道ダンピング競争の果てにJRが赤字になり、鉄道撤退を表明しました。
日本政府が「半分出すから続けてくれ」とJRに頼む。すると「何で税金出すの?どのくらい経済に影響があるの?」と問われる。でも JR も国土交通省も答えられない。各企業に表明してもらうしかない。
バイオの今までの数年の動向と現状、そして進路について思うことを書いてみたよ。
受験生やバイオ系の学生さんに進路を考える点でちょっとでも参考になればうれしいよ。
数年前までバイオがとても注目されて、クローン技術、移植医療、ヒトゲノム計画、遺伝子組み換え食品などが
有名になったよね。
では今はどうかと言えば、そんな言葉見る影もない・・。
あれだけ騒いでいたマスコミ連中は「これからはナノテクの時代」などと別なことをほざくようになって、
バイオなどどこ吹く風・・・。当時、理工学系の学部で最もレベルが高かったのは紛れもなく「バイオ系学科」だったのに、
いまは最もレベルが低い学科に成り下がってしまっているみたい・・・。
受験生の間では、
クローン羊ドリーの誕生によってクローン技術が世界で騒がれ、はたまた脳死患者からの日本初の臓器移植、あるいは、
世界規模で行われていたヒトゲノム計画の激化、夢のような食品を作ろうと考え出された遺伝子組み換え食品、まさに
それと同時に「バイオは倫理観が伴う非常に難しいもの」と倫理性も問われるようになったんだ。
例えば、「クローン技術や遺伝子組み換えは自然が作ってくれた生物の存在を根底から覆すものだ!」って
非難を浴びたし、「脳死患者からの移植は倫理的に問題がある」ってお偉い方は慎重だったし、
ヒトゲノム計画は、「それによって人の遺伝子が分かることでその人の人間的な価値まで判断されてしまう!」
なんて言われていたんだ。
これを読んでいるみんなもこれらのことは知っている人も結構いるだろうね。
倫理観まで問われるってことはそれだけバイオが注目されていた証拠でもあるよね。
じゃあ、あれから数年経った今はどうかって言うと、悲しいけど全く言われなくなっているよね。
それともバイオはみんなを幸せにしたからもういらなくなっちゃったってこと?
繰り返すけど、1990年後半は紛れもなくバイオブームだった。
でもこの言葉って罠がある。
あくまで1990年後半はバイオ"ブーム"ってわけで、バイオの時代が来たっていみじゃなかったんだよね。
ここに大きな問題点がある!マスコミ連中が報じる「これからは○○の時代」って言葉には注意が必要なんだ。
(2)それを大々的に報じる
(3)そして世間がそれに食いついてきたら「これからは○○の時代」って報じる
と言うやり方があるんだよね。
だから「これからは○○の時代」と言われても本当にその時代が来るかどうか誰にも分からないよね。
確かにそれを報じた時やその数年後はその○○が注目されるけど、それ以降はまた別な◎◎が注目されるようになって、
「これからは◎◎の時代」ってふうに話題がすり替わっているものなんだ。
では、この前後で科学の世界ではどういったブームがあったかを振り返ってみよう。
年代 | ブーム |
---|---|
1985~1990 | バイオブーム(利根川先生のノーベル賞がきっかけ) |
1989~1994 | 地球環境ブーム(→農学部の大幅な改組) |
1995~1998 | 大型基礎研究施設ブーム(SPring-8、スーパーカミオカンデ、地球シミュレーター) |
1998~1999 | ITブーム(正確にはIT革命ブーム) |
1996~2000 | バイオブーム(クローン技術、移植医療、ヒトゲノム計画、遺伝子組み換え食品) |
2000 | ヒトゲノム計画のドラフト(概要)が完了 |
2000 | ITバブル崩壊(IT不況へ、しかし近年持ち直す) |
2001 | (このあたりからバイオが騒がれなくなる) |
2002~ | ナノテクブーム |
2003 | ヒトゲノム計画が完全終了(しかし世間はすでに見向きもしなくなっていた・・・) |
あれあれあれ??!1985~1990年にもバイオブームがあったんだ~。
実はこれ、利根川先生がノーベル賞を取ったことを機にかなり盛り上がったみたいなんだ。
当時バブル経済まっただ中で、いろいろな企業もこぞってバイオの研究をするようになっていたんだ。
電機メーカーが線虫っていう虫の脳神経を調べたり、神経細胞が伸びていく方法を利用して半導体の
でも、バブル経済が崩壊したらそれらのメーカーもバイオの研究をやめちゃったんだ。
バイオの研究って他の分野の研究とは違ってきちっとした方法論が確立されていなくて手探りでやるから、
本業で稼ぐのが一番ってことで電機メーカーは撤退しちゃったんだ。
その次の1995~1998の大型基礎研究施設ブームっていうのは主に物理学の世界で、宇宙とか素粒子
(原子を構成しているもの)を研究するのには大型の研究施設が必要ってことで各地に建設がされたということだよ。
当時マスコミ連中が言ってた言葉は当然「これからはITの時代」。
2000年にヒトゲノム計画のドラフトが完了したことで、当時マスコミ連中はバイオの倫理について大騒ぎしたんだよね。
でも、これを境にだんだんとバイオが騒がれなくなっていったんだ・・・。
これとは対照的に2002年くらいからナノテクがだんだんと報じられるようになってくる。
2003年にヒトゲノム計画が完了したときにはもう誰も世間の人は見向きもしなくなってしまっていたんだ・・・。
何でだろうね・・!?
2つ目は同じことの繰り返しで真新しさがなくなってしまった場合。
1つ目にあたるのは、ヒトゲノム計画だね。
当時は人の遺伝子が全部分かれば、病気の原因も分かるようになるって注目されたけどそんなことは全然ないよね。
結局、遺伝子解読したから何が分かると言えば、その遺伝子の配列が分かっただけ。
それ以降には全然進まない。
だってどの遺伝子が原因は結局は実験をしてみないと分からないものだから。
ヒトゲノム計画は学問的にも産業的にも利用価値がなかったってわけ・・・。
ヒトゲノム計画の時にアメリカのある企業ががんばっていたんだけど、終了後はこの計画にあまり意味がないことに
ヒトゲノム計画はそんな程度だったみたいだね。
2つ目の理由に当たるのは、クローン技術や脳死移植、遺伝子組み換え食品だね。
その後はあまり技術的な革新はないから(クローン技術はその対象を広げたけどそれ以上はないし)、マスコミ的には
何かフタを開けてみるとあっけないよね・・・。
それにしてもいろいろなブームがあったんだよね(皮肉/苦笑)。
ブームってのは確かに山があって頂上まで行ったら後は滑り落ちるだけってのは分かる。
でも科学の世界ってそんな短期間で語れるようなブームで動いているわけ!?答えは「それは正しくない」よね。
今まで言ったように科学の世界のブームは単純にマスコミが作り出しただけで、実際の科学の研究はもっとコンスタントに
行われていて、確かにある分野が注目されるときはあるけどそのあとは見向きもされなくなるなんてことは変なことだよ。
だって見向きもされなくなるってのはその研究が価値がなかったってことが分かったってことなんだからね。
でも、世間の人はそういうたった数年のブームにのせられてしまうし、多感な受験生なんてそれだけを信じて進路を
「これからは○○の時代」ってフレーズに載せられてその○○の分野に入学しても自分がいざ研究や就職を
しようとするときには世間は完全に見放していたなんてことになったら、いったい何のためにその分野を
バイオの研究者は生物をどのように解析するか?それは文字通り「ただやみくもに」って言葉がぴったりな方法なんだ。
びっくりしたでしょ?ぼくはバイオの研究の問題点は3つあると思っているよ。
1つ目は、生物学の研究方法では他の分野(特に物理学や化学、工学)のように原理原則を見いだそうとは
されていないこと。だから生物学の研究方法はまるで『錬金術』のように「訳の分からない遺伝子をやみくもに入れてみたら
どうなる?」とか、「この薬品とこの薬品を入れてみたらどうだろう?」ってふうに原理原則を見いだそうとせずに、
結果さえよければそれでいいって感じでやっているのが現状なんだ。
錬金術ってのはみんなが小学校・中学校で習ったと思うけど、昔の人は金属ごとに違う原子でできていることを
知らなかったから、鉄やアルミニウムから金を作ろうと必死にいろいろな方法を試していたんだ。
これらの原理原則を知っている現代の人から見ればバカバカしいことだけど、残念ながら生物学の研究は現在でも
2つ目は1つ目とも関連があるんだけど、生物学の源流が『博物学』であるから、その博物主義的な発想から
抜け出せないところ。みんなも博物館に行けばいろいろな昔のものが陳列してあってどの時代にどのようなものが
あったかよく分かるよね。でもそれが分かったところで今の自分の生活には活かせないでしょ?それと同じで生物学も、
その対象が動物・植物から細胞・分子レベルにまで移ったのに、やっていることは昔の生物学者がおもしろい生物種を
追い求めて野外を駆けめぐったように、今の生物学者も同じ発想で遺伝子や細胞の中で働いているタンパク質を
発見することに全力を注いでいるよ。そしてそれに名前を付けて陳列して「どうだ!オレはこんなにたくさんのものを
発見したんだぞ」って威張っている状態なんだ。
だから、そこから一般的な原理原則を見いだすことはないし、それを何かに役立てようって雰囲気も全くないんだ・・。
表向きは生物学は理系に属しているけど、理系らしさの証でもある数学・物理学・化学を駆使して数理的に
解析するなんてことは絶対にない。
そういった解析をしている学者は生物学者ではないんだ(苦笑)。
確かに生物と言えども自然界に存在するものはすべて物理化学的法則に縛られているから、その方向からの
解析が必要になるはずだけど、生物学は博物学の流れを持っているからそのような部分には生物学者は
見向きもしないんだ。
文系でも経済学や心理学、社会学では数学を結構使うから、生物学者は文系以上に
それだったら何のために大学入試で数学や理科をやってたんだよって感じだよ。
しかも、生物学の研究には多くの機械を使うけど、生物学者は機械の原理や中身の動作については
全く分かっていないんだ。機械のボタンを押せば何か分からないけど目的の研究ができるってふうにしか
機械を捉えていないから、機械がうまく動かないときは自分で直したりせずに修理を頼むんだ。
その間はだたぼぉ~って待つだけなんだ(笑)。他の理系の研究ではまず考えられないことだよね。
大事なのは、世界のバイオ機器を支えているのは電気工学と機械工学で、この2つがなければバイオは
ダメになるということ。でもバイオの人たちは、自分の研究が電気工学と機械工学に支えられていることに
全く気づいていないんだ。それなのに自分達だけでバイオの研究をしているって勘違いしている部分がヤバいんだよね。
バイオの人間はもっと発想を変えて、理系らしくすべきだと思うけど、みんなそんな意識はなくて毎日朝から晩まで、
続きは
事業仕分けのスパコンの話を国の下請けクソミソソフトウェア開発現場
・その118億円のスパコンは建物やインフラのコストは含まれてないんじゃないかな? 適当なビルにスパコン放り込んで電力的な問題は無いの? 空調はどうするの? 床は大丈夫?
・価格対性能比の良いCPUとやらは、必要な精度を上げたら能率が大幅に落ちたりしない? 何千個と組み合わせて性能が出せるシロモノなの?
・適当に選んだ安価な部品がディスコンになったら代品はどっから持ってくるの? スーパーコンピューターを一から組み直すの? ライセンスとファブをエライ値段で買わされるの?
・Linpackは得意でも実際にやりたい計算で2位と言える性能が出ないんじゃない? 地球シミュレーターとか、今でも部分的ではありますが上位に食い込んでるようですよ。
http://slashdot.jp/articles/09/12/18/0838221.shtml
本題であるボッタクリについては同意するけどねー。
そういう所の交渉力が無いのは制度から地味に改善してくべきだろうに、そういう方面のやる気の無さはかつて無いレベル。本当に語るだけの夢。そっから先は手も足も動かさない。事業仕分けとか素人がちょっとした助言もらいつつの思い付きで決定するようなどこのバカが考え出したんだかわかんない「ぼくのかんがえたさいきょうのせいじしゅほう」に振り回されたりとか、実際誰も幸せにならないんじゃないかな。
IntelだってItanium使えば高価だしAMDはx86しかやってない。あとはIBMのPOWERぐらいしか知らないけど結局三社とも買えても自分で作れない。それぞれ死滅しないだけの理由はあるんだろうけど詳しいことはよく知らない。俺は素人だし。ただ、x86に不向きな問題や課題が沢山あるのはよく聞く話。だからnVIDIAがTeslaに心血注いでるしAMDも後を追ってる訳で。
食料自給率がどうのとかはきっちり騒いでる癖に技術の自給率については無頓着。中国産の毒野菜食わされるような未来が産業にもやってくるのですね。よく分かります。
計算する問題が分割されたままで良い、という領域においては当然そうなる。分割したもの同士が相互作用しないのなら。
残念ながらシミュレーション系においてはそらGRAPEが扱うなかでもごくごく一部ぐらいだけがそうで(普通は共有メモリ内で参照できるからそんな高いコストを払わなくて良い)、それ以外はメッシュだろうが格子だろうがIBだろうが最低でも隣接する領域との相互作用計算のための共有メモリ外との通信が発生する。
スケールアウトできないのはものすごく雑に言うと、
・扱う問題が原理的に向いてない
・計算機同士のインターコネクトが今でも遅すぎるのにこれ以上遅くしたらまさに演算系の無駄
ってとこがものすごく大きい。
評価・統合などなどまあ使う方式で言い方も使い方もいろいろあるけど、分割しただけで統合したりする処理が要らないんだったら、まさにRoadrunnerのOpteronブレード部分は無用だよ。計算するだけならCellブレードとインターコネクトボードがあればいい。だがOpteronを使わなきゃいけない(というわけでも無いんだけどあれぐらいの処理能力とメモリバンドとローカルメモリはバランス的に欲しい)というところに何かがあると感じてくれ。これをかいてる自分増田は定量的に~とか言われると式をグダグダ書き連ねないと説明できない低脳なので。
長大ジョブを投入して計算中でも、計算を止めないままノードごと別のノードに引き継がせて、そのノードを捨てたり点検したり、ってのは超大規模クラスタではもちろんある。
(脱線するが、x86は縮退させにくいとか、信頼性が足りないとかいうのも最近みかけるけどそんなことはない。x86だからということはないし、ノードの設計とジョブの入れ方できまるようなもの。あとすべてのノードをVMにのせてジョブを続けながらLive Migrationした実証実験なんてのもある。x86系コア・メモリのRAS機能は充実してきてるとはいえまだ足りないが、RAS機能がホントに重要ならPOWERベースにすれば実績と性能の点で申し分ない。x86の出自云々をいうならsparcだって出自がアレだしね。zシリーズにまで同一コアが使われるPOWERとは違う。脱線終わり)
それにスケールアップといったときに地球シミュレータの例はあまり適切ではないとおもう。アレは元々いろいろとアップグレードしにくいシステムだったし。
どうせならアップグレードしやすいCray XT5や、今度のXT6あたりで比較しよう。ちょうどJaguarのコアアップグレードは4Phaseにわけて実行された。
http://www.nccs.gov/computing-resources/jaguar/road-map/
コアの入れ替えだけなんでかかった費用は支援費の二千万ドル含んで数千万ドル(ちょっと語弊があるけど)。
あとJaguarはNCCSの配下にあるというのは一つの特徴だろう。利用時のスケジュールポリシーなんかもほぼ全部載ってるので、読んでみるといいよ。ちなみにNCCSのトップページにはいつも今配下のクラスタに投入されてるジョブがでてる。
ついでにGoogleのシステムはパソコンがベースって言って良いのかわからないぐらい特化してるよ。だから省電力でもある。それを安く調達するのはまさに規模の経済。
ToRスイッチを完成品じゃなくてBroadcomからチップ買って自前で専用のスイッチつくっちゃうのも規模の力。
最近いろんなところで引き合いに出されるNACCのGPUクラスタはコスト面とアルゴリズムで比較対象にもいい。簡単にいうと「苦手」なものを対象としないことで他の問題に最適化したのが濱田先生のところのチームがつくったクラスタ。特性を把握して性能を引き出して、実際に運用したという意味でとても良い研究なんだけど、故に超大規模クラスタとかで走らせることになる巨大CFDモデルなんかは対象外のシステムだ。
だから最近のスパコンうんたらかんたらとやらでNACCの話を持ち出してる記事やらエントリやらを見かけたら、そこに書かれてることは無視するといい。持ち出してくる奴は、基本からして間違ってるか何でも繋げればスケールアウトすると勘違いさせたがってるだろうから。
分散コンピューティングやグリッドコンピューティングで計算が出来るからスーパーコンピュータが不要だという発言が、実際に計算を行っていない人からなされています。であれば世界中で一カ所に集めたスーパーコンピュータがるのはなぜか?分割した計算を最終的に集めて同期を取らないといけないから。
一方で、ウェブ分野では、分散コンピューティングによる並列計算や、それをサポートする技術に注目が集まっているのも事実。基本的には、PCで使ってるCPUコア単体での性能向上が見込めなくなってきたのが大きな原因ではあるけど、それだけじゃない。
早い話がGoogleのMapReduceで、全体の処理を部分に分割できるタイプの計算なら、並列計算を非常に簡単にプログラミングできるフレームワークが出てきている。この間同社がリリースした「Go」もそうだね。
Googleがこうしたアーキテクチャを用いるのは、基本的にはコストの問題。Googleのバックエンドは、新しいマシンを投入すれば投入しただけ規模を拡大できる「スケールアウト」型のアーキテクチャになっている。マシン自体もコモディティなパソコンがベースになっているので、新規導入コストが非常に安い。この辺は、典型的な「スケールアップ」であるスパコンとは対照的(例えば地球シミュレータは、アップグレードのために200億円近くのコストがかかったりしている)。
また、ランニングコストも非常に安くできる。壊れたマシンは自動的にシステムからパージされるので、後からそのマシンだけ取り替えればいい。省電力の意味でも結構有効らしい。
このシステムが苦手なのは、元増田が引用したように、まさに計算の同期が頻繁に必要なタイプの計算。ただ、そうでないタイプの計算に有効なのはもちろん、コスト面で総合的に上回ったりとか、アルゴリズムの改良で分散システムでも扱えるようになるとか、そういう可能性はないのかなぁ、ということは思っている。
というわけで、詳しい人突っ込んでくれ。
長崎大学が開発したコンピューターは、まともに開発したら数百億円もかかるような代物だったのかということ。元の記事を読むとそういう風にしか読めないように書いてるけど、そうじゃなくて、「数百億円」というのは事業仕分けで言ってる「スパコン」のことなんでしょう?
いや、普通に開発したら数百億するようなものですよ。
地球シミュレータ2と比較しているでしょう?
あれは、122TFLOPS(テラフロップス:1秒間に1兆回の浮動小数点演算性能)とか言っているけれど、その前身のシステムで600億を投じています。
そして、今回はそれを越えたと発表したんです。
もちろん、演算性能だけを比較しているので、一概に同じ土俵とは言えないけれど。
NECのベクトルコンピューティングの粋を集めた地球シミュレーターがすげえが流石に近年型落ち気味
→日本のスパコン三社(NEC・日立・富士通)の総力を結集してスカラー型とベクトル型の長所を併せ持つまったく新しいスパコン作ろうぜ!
→新しすぎて開発難航
→富士通単独なのでベクトル型云々の話はなかったことに。普通に富士通のスカラー型スパコンのごついのを開発することになる
→あれ? スカラー型ならいまどきSPARCでもなくね? PCアーティテクチャなものの巨大クラスタの方が安上がりかつ演算速度早くならね?<いまここ
って話だと理解してるんだが。
仕分け人の「スパコン無用!」に聞こえる発言は乱暴だし、いや実際研究活動に最新鋭スパコンは要るのは要るし早ければ早いほど良いのは確かなのだが、現状には問題ありすぎなのは確かなので、
「今の富士通との一社随意契約はご破算! 目標スカラー演算能力だけ示してIBMそのほか海外勢にも参加してもらって提案協議からやり直します(たぶん海外が勝つから」
って方向の『抜本的見直し』じゃいかんのかなあ、と。