「CPU」を含む日記 RSS

はてなキーワード: CPUとは

2010-02-12

http://anond.hatelabo.jp/20100212013842

物理モデルとしての世界メモリ上にそのまま構築できたら単語をそれに当てはめていけばいいだけなので、CPUパワーに任せて文章を解析できるようになる。現時点でも言語内容を仮想空間上にすべて展開できたら、それなりに意味のあるまとめができるかもしれないが、PCのパワーが足りなすぎるから完全には無理だな。その方式で実装するならあと30年はかかりそうだ。量子コンピュータが実現すればたぶんできる。

もっと早く実現するのであれば、言葉の持つロジックの一つ一つをコード化すればいいんだけど、(or Aというタイプの文章はBというタイプの文章に短縮できる、というパターンをたくさん用意する)これは膨大な作業量が必要で、得られる利益がはっきりしないから誰も金を出さないだろう。限られた分野についてのみであれば、まあ1人年もあればできる。

得られる利益がはっきりしないってのが実装上の最大の難関。

2010-01-23

gcclink time optimization

gcc-4.5 から link time optimization (lto) と呼ばれる最適化が可能になった。

従来の分割コンパイルでは、コンパイル単位(ファイル)での最適化しかできなかった。例えば、別ファイル関数をインライン展開することはできないし、引数に渡されたポインタの escape analysis も諦めざるを得なかった。

lto はコンパイルする時に、中間表現(GIMPLEのバイトコード表現)をオブジェクトファイルに残しておき、リンクするときに、すべての中間表現を使って最適化しなおす。要は、ソースコードを全部とっておいて、最後に全部をコンパイルしなおすのと、同じようなものだ。

最大の欠点は、最後にコンパイルしなおすところだ。
このコンパイルは一回のコンパイルであり、単一プロセスで実装されているのでマルチCPUを生かせない。(いっぽう、分割コンパイルなら依存関係が緩いので並列化しやすい。)また、プログラム全体は巨大であり、最適化するのに時間がかかる。

使いかたは簡単だ。-fltoを付ければいい。

gcc-4.5 -c -O2 -flto foo.c

gcc-4.5 -c -O2 -flto bar.c

gcc-4.5 -o myprog -flto -O2 foo.o bar.o

2010-01-20

会食とひとりの食事

将棋詰将棋囲碁と詰碁、対人戦とCPU戦、会話・相談と自省・思索、交換日記個人日記、うーん

http://anond.hatelabo.jp/20100120104346

2010-01-17

http://anond.hatelabo.jp/20100117033236

コンパイラとかCPUとかシェルとかSchemeとかやったよー。大学で。Fラン。

やっぱり、どこもやってるんだね。

とはいえ、ちゃんとそういう基礎が身についているか、単に単位はとったけど、とっただけかは、本当に大きく違ってくると思うけど。

奥義とは基礎のことだと見つけたり。

http://anond.hatelabo.jp/20100116204834

コンパイラ作ったりCPU作ったりシェル作ったりは普通じゃね?

オーソドックスカリキュラムだと思うよ

CPU原理コンパイラ構造が、大きく変化することは無いから、授業しやすい

俺もやったし

凄いなと思ったのはこれかな

http://d.hatena.ne.jp/kzhk/20091202/p2

suffix array くらい習うけど、実際に意味のあるプログラムまで考えられているのが、課題として良くできている

自分が所属している専攻だと、昔CLU(くるー)って言語を教えていたらしい

初めてADTを実装した言語で、当時としては先進的だった、って先生がよく自慢してる

日本大学で、ここまで実戦的なコンピュータに関する教育を行っている場所はあまりないのではないか、と思います

保守的な授業だな、とは思った

尖った授業はあるとは思うけど

あと、scheme やっていないの?

SICP 読みながら meta circular interpreter 作るのは価値がある行為だとおもう。

2010-01-14

http://anond.hatelabo.jp/20100114030114

リソース減らすってのは、技術というより、現実優先なんだよね。

プロダクトを実際に作ると、どうしても、複数のプログラムが一緒に動いていたり、

メモリ減らすとチップを1つ下のにできるので、とか、そういう理由でメモリなかったりね。

誰も彼もパソコンならモデルありき、でいいんだけど、製品だと、ハードの条件が先にありきだからね。

適当に書いて、条件を満たせばそれでいいけど。10個のプログラムがあって1つのせいで、メモリ足りなくて製品が動かない。とかだと、出荷できないので残りの9個のプログラムが大迷惑。

そんで、単体では動いているので僕のせいではないとかいわれてもね・・・

CPUメモリ上げてくださいはいいけど、そうすると、コストのほかに、今度は消費電力と、発熱が問題になったりね。

金なんだよね。全体設計なんだよね。だから、適当でいい部品ってあまりない。

生きているし、製品だからね。

2010-01-06

VMS

Intel CPU(ただしItanium以外)でVMSを動かすことはできないものか。

プログラムの動作確認取りたいのだけれども、どうにもなぁ。

2009-12-20

得手不得手ってモンがあるんじゃなイカ?

事業仕分けスパコンの話を国の下請けクソミソソフトウェア開発現場

・その118億円のスパコン建物インフラコストは含まれてないんじゃないかな? 適当ビルスパコン放り込んで電力的な問題は無いの? 空調はどうするの? 床は大丈夫

価格対性能比の良いCPUとやらは、必要な精度を上げたら能率が大幅に落ちたりしない? 何千個と組み合わせて性能が出せるシロモノなの?

適当に選んだ安価部品ディスコンになったら代品はどっから持ってくるの? スーパーコンピューターを一から組み直すの? ライセンスとファブをエライ値段で買わされるの?

・Linpackは得意でも実際にやりたい計算で2位と言える性能が出ないんじゃない? 地球シミュレーターとか、今でも部分的ではありますが上位に食い込んでるようですよ。

http://slashdot.jp/articles/09/12/18/0838221.shtml

本題であるボッタクリについては同意するけどねー。

そういう所の交渉力が無いのは制度から地味に改善してくべきだろうに、そういう方面のやる気の無さはかつて無いレベル。本当に語るだけの夢。そっから先は手も足も動かさない。事業仕分けとか素人がちょっとした助言もらいつつの思い付きで決定するようなどこのバカが考え出したんだかわかんない「ぼくのかんがえたさいきょうのせいじしゅほう」に振り回されたりとか、実際誰も幸せにならないんじゃないかな。

 

IntelだってItanium使えば高価だしAMDx86しかやってない。あとはIBMPOWERぐらいしか知らないけど結局三社とも買えても自分で作れない。それぞれ死滅しないだけの理由はあるんだろうけど詳しいことはよく知らない。俺は素人だし。ただ、x86に不向きな問題や課題が沢山あるのはよく聞く話。だからnVIDIAがTeslaに心血注いでるしAMDも後を追ってる訳で。

 

食料自給率がどうのとかはきっちり騒いでる癖に技術自給率については無頓着中国産の毒野菜食わされるような未来産業にもやってくるのですね。よく分かります。

2009-12-06

"ゲームプログラマ恋愛工学と金儲け"について考える

blogを読むときに必要なのは"どうしてだろう?"って考えること。blogを読んで何か納得するのは正しい読み方じゃない。

当該ブログは、部分的に正しいし、部分的に間違っている。特に昔話とコンピュータアーキテクチャの類には多くの異常な主張があるので(意図的かも知れない)、それを探して検証してみるのはとても勉強になると思う。

現場に関する話は、うーん、それほど悲観しないで欲しい。

ただここを読んだ若い人があまりアポロン的になってもいけないので一応警鐘。偉大な先人の多くはゲームを作るために生まれてきた訳じゃないことにもっと関心を持って欲しい。人間を形作るのはゲームづくりだけ?違うよね。

メモリバンクを導入させたのは誰?

http://blog.livedoor.jp/woopy_doo-game/archives/50938887.html

アドレスレジスタが16bitしか無い様なハードウェアしか存在していませんでしたから(ファミコンPCエンジン、みんなそうです。メガドラは違いますが)、増加するリソースへの対応が必須でありました。あのアーキテクチャは当時も我々プログラマ提言したのです。

...

呑み会に行ってもハード屋とプログラマ喧嘩ばかりでしたが、バンクアーキテクチャは我々が勝ち取ったものです。事実上無限メモリ空間を手に入れましたからね。

メモリバンクゲーム機固有の仕組みじゃない。というわけで、ゲームプログラマが提案したのは多分ゲームシステムメモリバンク(バンクメモリ? Bank switching?)を導入させたこと、と、読むことにする。

でも、ファミコンを含めた初期のゲーム機、それこそAtari2600でもメモリバンクは実現されていた。これはアーキテクチャがそのように作られていたからではなく、小規模のハードウェア追加でこの仕組みは実現できるからだ。ハードウェアカートリッジ側に内蔵されていた。ファミコン音楽に詳しい人ならVRCとかFME、いわゆるマッパーといったチップが内蔵されていたことを知っているだろう。

これらのハードウェアの追加をプログラマ提言したというのは言い過ぎと言える。技術自体は既にあり、採用するのは非常に自然な流れだった。ハードウェア技術者であっても反対しないだろう。32bitの(アドレスバスを持つ)CPUを導入するのに比べれば、メモリバンクのためのハードウェアはずっと容易に採用できる。

stramとコピー
  • http://blog.livedoor.jp/woopy_doo-game/archives/50958678.html

今やPCゲーム会社であるにも関わらず、コピー侵害とは無縁の会社と言って良いであろう。

直接的なコピーは彼らにも防げていない。彼らが売っているのはマルチプレイ用のアカウントと考える方がすっきりする。MMORPGと同様に、コピーできないゲーム体験を売るという点では一定の成功を収めている。

何もブラックボックスがないDRMは機能しない。Steamでいえばブラックボックスゲームサーバであり、PS3とかXbox360で言えばハードウェアそのものがブラックボックスになっている。

2009-12-01

OpenCL

OpenCLのサンプル回してみた ちなみに1024x1024の行列と1024x1024の行列のかけ算 と フルHD画像DCT演算

Core2Duo のミドルエンドで計算した方が ローエンドGPUOpenCLするよりどっちも2-3割高速だったwww。

でもローエンドGPUハイエンドGPUでは9倍性能差があるっぽい。ということは、

Y=X*0.7*9

GPU Y=36x CPU ぐらいな感じか・・・あとはメモリがDDR3とGDDR5でどれだけ差が出るかだなぁ。

GPGPU速いなぁ。

ハイエンド機かっちゃおうかなぁ・・・。とりあえず、もすこし、ベンチとってみてまとめよう。

2009-11-29

http://anond.hatelabo.jp/20091129213350

分散コンピューティンググリッドコンピューティング計算が出来るからスーパーコンピュータが不要だという発言が、実際に計算を行っていない人からなされています。であれば世界中で一カ所に集めたスーパーコンピュータがるのはなぜか?分割した計算を最終的に集めて同期を取らないといけないから。

一方で、ウェブ分野では、分散コンピューティングによる並列計算や、それをサポートする技術に注目が集まっているのも事実。基本的には、PCで使ってるCPUコア単体での性能向上が見込めなくなってきたのが大きな原因ではあるけど、それだけじゃない。

早い話がGoogleMapReduceで、全体の処理を部分に分割できるタイプ計算なら、並列計算を非常に簡単にプログラミングできるフレームワークが出てきている。この間同社がリリースした「Go」もそうだね。

Googleがこうしたアーキテクチャを用いるのは、基本的にはコストの問題。Googleバックエンドは、新しいマシンを投入すれば投入しただけ規模を拡大できる「スケールアウト」型のアーキテクチャになっている。マシン自体もコモディティパソコンベースになっているので、新規導入コストが非常に安い。この辺は、典型的な「スケールアップ」であるスパコンとは対照的(例えば地球シミュレータは、アップグレードのために200億円近くのコストがかかったりしている)。

また、ランニングコストも非常に安くできる。壊れたマシン自動的にシステムからパージされるので、後からそのマシンだけ取り替えればいい。省電力の意味でも結構有効らしい。

このシステムが苦手なのは、元増田引用したように、まさに計算の同期が頻繁に必要なタイプ計算。ただ、そうでないタイプ計算に有効なのはもちろん、コスト面で総合的に上回ったりとか、アルゴリズムの改良で分散システムでも扱えるようになるとか、そういう可能性はないのかなぁ、ということは思っている。

というわけで、詳しい人突っ込んでくれ。

2009-11-27

http://anond.hatelabo.jp/20091127103036

GPUでも分岐ができない訳じゃない、つまり、GPU型のスパコンもある。

ハードの性能に大幅に頼る設計と いわゆる いままでのスパコン

ソフトの性能に大幅に頼る設計(ifをいかに少なくして今までのCPUのしょりをGPUに落とすか)と 今回言われている GPUスパコン

なので、GPGPUだと、できることが少ないは正確ではない、まだ、ソフト研究が足りていないので、少ないと言われているが正解。

なので、使い方・ソフト研究 次第では、事業仕分けで使われているスパコンと同程度の事ができないとは言えない。

結局、ハードに金をつぎ込むか、ソフトにつぎ込むかという戦略の差。

ただ、現在のび白が多く、一般的なシミュレーション用途などだとGPGPUの方が有利ではなかろうかと。

なので、某仕分けのスパコンなどは、同額の予算ハードGPGPUにして、数億で抑えて、残りのお金ソフト開発と研究につぎ込んだ方が将来性もあり、科学の発展につながると思う。

このニュースは良いニュースで、従来のゼネコン型=恐竜スパコン開発は終わりにして、新しい、ほ乳類型=GPGPU+ソフトウェアアルゴリズム研究お金投資するべきだと個人的には思ってる。どうせ、仕分けのスパコンは大半が箱物で、研究に効率よく使われてるとは言い難いし。

ただし、GPUは分岐が不得意なのは事実

2009-11-26

Firefox使いやすいんだけど…

ある程度ブラウジングした後で終了するとメモリ解放されずずーっとCPUリソースを食いっぱなしになるのはどうにかならんのか。

いちいちタスクマネージャプロセスを手動でkillするのがすんげーめんどい

2009-11-25

事業仕分けスパコンの話を国の下請けクソミソソフトウェア開発現場

事業仕分けスパコンの話をクソミソソフトウェア開発現場から思う:

ぼくは下請けソフトウェア会社経営している。

たまに見積もりを出すとき、SIの会社から、こういう話をされる。

「あー、この案件、国の案件だからさー、見積もりはもっともっと、積んでもいいよ。高ければ高いほどいいし。おれらは、それにXX%乗せるだけだから、高いほうがいいんだよ。」

「と、いいますと?」

ぶっちゃけ、もう一桁、上でもいいよ。」

幽霊(実際いない人月)だいぶ、積みますけど。」

「ああ、いいよいいよ。」

1人月200万の幽霊エンジニア部隊が書かれた見積もりをぼくが書き、下請けSIerがそれに何割か上乗せした金額を上になげ、さらに何割か上乗せした金額を大手SI子会社の中受けSIer見積もりを書き、さらに元受の大手SIerが何割か乗せて、国に出す。つまり、最初のぼくの見積もりから累積的に上乗せするので、ぼくの価格が高ければ高いほど、みんなが潤うのだ。仮に30%づつのせたら、すでに倍くらいにはなってることになる。場合によっては、もっと乗せる人もいる。

国がカネを出す案件ならば高い見積もりを出せば出すほどいい。IT業界常識だ。彼らはわかってないから値段の理由なんていくらでも言いくるめられる。そんな空気がある。

スパコンもそうだと思う。公式サイトによると、富士通SPARC64TM Ⅷfx、8コア、128ギガFLOPSを使うらしい。

http://www.nsc.riken.jp/pamphlet2009/p5.html

これの前のSPARC M4000/M5000のCPUで2.5GHz*2のCPU「だけ」で一個400万。(ただし、Sun Microsystems製)

http://tinyurl.com/yjy3jqn

実際に搭載されるCPUは、これよりも性能が高く、これよりもっともっと高いんだと思う。もちろんスパコンなので、これを何百個も、何千個も使うんだろうけど、別にこんな価格性能比の悪いCPUを使う必要があるのか分からない。世界スパコンの多くは価格性能比がいいインテルAMDなのに、なぜか富士通SPARCなのは、謎だ。

http://japan.cnet.com/blog/kichi/2009/11/21/entry_27035470/

けど、高ければ高いほどいいのだ。

お国プロジェクトはそんなものだ。

廃止とか、凍結じゃなくて、適正価格かどうか調べる人の方が大事だと思う。

以下、Wikipediaより、

http://ja.wikipedia.org/wiki/%E6%B1%8E%E7%94%A8%E4%BA%AC%E9%80%9F%E8%A8%88%E7%AE%97%E6%A9%9F

他の世界トップランクスパコン建設費用とは桁違いの巨額の約1150億円(TOP500で現在世界2位のRoadrunnerでも118億円程度)の予算が投じられてスパコン世界ランク1位を目指す予定[1]である。

上乗せが上乗せを呼んでいるのかもしれない。

2009-11-21

最近よくWindowsXPが固まる

最近ニコニコ動画がVUPしたせいか、OperaをVUPしたせいか

ニコニココメントしようとした時、砂時計マークになる。

なんでだろう?

OperaはすぐにCPUが90%以上になるし、Opera変えたほうがいいんだろうな。

Firefoxは重いって言うし、Chromeに変えるのがいいのか?

VistaとかWindows7に買い換えるべきだろうか。

原因がわからないのに買い換えても解決するものか?

あーそう言えばフォルダを移動するときも、Exploreが「応答なし」になることがある。

特定のフォルダアクセスするとなると言うわけではなくて、ランダムで発生する。

なんでだろう?

やっぱりOperaが問題ではなくてPCHDDが壊れてるとか?メモリの問題?

問題の切り分け方法がよくわからん

2009-11-19

スパコン騒動で、はてな理系どもがバカ揃いだと言うことが分かった

あの騒動で騒いでいる連中が全員理系だというわけではないけれど

まぁ理系率は高いだろう

そして、良いリトマス試験紙になったんじゃないだろうか?

レンホウの1位うんぬん発言はバカ丸出しだが、それにつられてか、スパコン推進派も負けず劣らずのバカ揃いである。


スーパーコンピュータにもいろいろある。

重要なのは、アメリカが力を入れているものは価格にして100億~200億円くらいの、並列クラスタ型が一般的だ。

これは、インテルAMDが作っている一般的なCPUを何万個も搭載して計算させるもの。

一方で日本の場合は、スーパーコンピュータのために開発した特注。

結果、アメリカIBMロードランナーは150億円くらいで年間の電気代は数百万円程度。

比べて日本地球シミュレーターは初期型は600億円、年間の電気代も20億円だ

加えてさらにこの前、190億円もかけて拡張した。6年間のレンタルで190億円だそうだwwwww

その金でアメリカ世界一スパコン作ったんですけどwwって思うのが普通の神経。

はっきり言ってコストパフォーマンス最悪のクズコンピュータだ。これを無視して、無駄だとかどうとか論じるなと言いたい。

ちなみに京速計算機価格1200億円だそうだ。もうアホだろ。


そのくせ、日本理系を殺すんだとか、国外に逃げるしかないとか言ってる間抜け揃いで笑ってしまった。

ネズミかおまえらは

簡単なコスト計算をしないで、よくまぁここまで悲観ぶれるなと逆に感心するよ。


仕分け人<もっとやすく作れるだろう。事実他国はもっとやすく作ってる

理系バカ<技術立国!技術立国!ビクン!ビクン!

そら削減されるわ。

日本理系に冷たいわけでもなく、ごく当たり前の査定結果だったと俺は思う。


こんなの俺だけじゃなく、同じ気持ちの人が、同じようなことをブログで書いていた

そのたびにブクマ数が伸びていた

ブクマも伸びてたし、はてなのバカどもも分かってくれたのかなと思ったけど

今日も相変わらずバカがわめいてて呆れた。

池田信夫経済学の解説は、専門家から見て信用ならないらしいが

スパコン関連のエントリーは大変良く書けているので何度もよく読んどけアホども。

政治】 仕分け人 「次世代スパコン国民目線で言うと、世界一にこだわる必要があるのか」→次世代スパコンの開発、「予算削減」★5

ttp://tsushima.2ch.net/test/read.cgi/newsplus/1258117474/

社会】"スパコン界のノーベル賞"と呼ばれる「シーモア・クレイ賞」を受賞…富士通研究所三浦さん

ttp://tsushima.2ch.net/test/read.cgi/newsplus/1258114701/815

> 815 名前名無しさん@十周年[] 投稿日:2009/11/18(水) 08:00:40 ID:it1XgPFx0

>

> 簡単な話だ、この仕訳結果は WikipediaSPARC は、UCバークレーRISC I をモデルに開発と書かれているからだな。

> スタンフォード卒の 鳩山としては UCバークレーがらみの CPU なんて腹が立つわけだよ。

> (スタンフォード大と、UCバークレーは、日本慶応早稲田のように、お互い派閥を作り敬遠しあう傾向がある)

>

> ところが、SPARCの開発を指揮したのは、UCバークレー卒のビルジョイではない(ビルジョイはソフトウェアエンジニア)

> SPARC設計は、実質スタンフォード大卒の アンディベクトルシャイムなんんだよ。

>

> Sun という会社は、スタンフォードスピンアウトのマクネリ(CEO) が金を集め、ベクトルシャイムがハード担当

> + UCバークレーのジョイがソフト担当するという、コラボレーションの結果なんだ。

>

>

> 事業仕訳にまで、学閥理論を持ち込むのは、いくら総理でも良くないorz

コンピュータの性能」という幻想

スパコン関連の騒動を見ていて思ったんだが、コンピュータの処理能力が客観的に測れると思ってる人が多いんだね。確かにCPUの命令の処理能力等のハードウェア面の性能はかなり客観的に測定できる。しかしコンピュータの処理能力というのは命令セットや命令の処理方式によっても影響を受ける。さらに人間に理解できるプログラミング言語によってかかれたソースから最適な機械語を生成するコンパイラなんかも重要だ。極端な話、こうしたものが駄目ならいくらハードウェアの性能がよくても、処理能力が低くなる。コンピュータの性能はハードウェアの性能だけでは決まらず、客観的に測定することは原理的には困難なのだ。それなのに「スパコンでNo.1」というそれだけ聞いてもよくわからないフレーズ共感する人たちが多い。きちんとした知識があれば、具体的にはどういう点でNo.1を目指すのか疑問に思うはずだ。単にISCで発表されるランキング上でNo.1を目指すだけなのか、極端な話ランキングを無視して本当に今必要とされている用途向けに最適化されたものを目指すのか、そういったことが「スパコンNo.1」というフレーズでは見えてこない。それなのにやたら共感する人たちが多く不思議だ。多分これはパーソナルコンピュータとのアナロジーで考えているのだと思う。パーソナルコンピュータの場合、大体CPUIntel製で、OSWindowsだ。だからCPUクロック数やメモリの容量などハードウェアの性能で、ほとんど客観的に処理能力を比較することができる。このパソコンとのアナロジーコンピュータの性能を考えてる人が多いから、「スパコンでNo.1」を目指すというわかりやすそうでわかりにくいことに共感する人たちが多いのだろうなと思う。

個人的な意見としてはランキングなんて気にしなければいいのにと思ってるんだけどな。宣伝にはなるだろうけど、スパコン使うような学者技術者ならあのランキングがあまり当てにならないことぐらいわかるでしょ。正直文科省の実績作りにしか思えないんだけど。

2009-11-16

1 名前: 不明なデバイスさん 投稿日: 2001/04/07(土) 10:14

 XP使うにはメモリに最低でも128M必要で推奨256M、

 できれば512MByteです。

 今ノート買おうとしている人は注意しましょう。

 今でもMAX192Mの機種は多いですが半年後はゴミですので

 買ってはいけません。

5 名前: 不明なデバイスさん 投稿日: 2001/04/07(土) 10:40

 XPなんか要らないよ

7 名前: 不明なデバイスさん 投稿日: 2001/04/07(土) 10:42

 Windows XP 第 2 版には最低で 128MB の RAM

 300MHz Pentium II プロセッサが必要 と言ってるぞ。

9 名前: 不明なデバイスさん 投稿日: 2001/04/07(土) 11:27

 >> 7

 OSごときにそんなスペックを要求するなんて生意気だよな。

 それに見合った機能や使い勝手は保障されてんのか?

 あ~、どっちにしろ、買い替えするっきゃないのかよ・・・とほほ。

10 名前: 不明なデバイスさん 投稿日: 2001/04/07(土) 11:44

 >> 9

 それぐらいのスペックを要求しなければIntelCPU

 売れなくなってしまうではないか!

 さすがWintel~~藁

15 名前名無しさんお腹いっぱい。 投稿日: 2001/04/07(土) 12:32

 Windowsは2000で完成されてるのになんでこれ以上

 バージョンアップするの?

スパコン世界一意味がないなんて現場はみんなわかってたじゃないか

別にピーク性能が世界一かどうかなんて何の意味もないけど、

やるからには世界一じゃないとダメだろと言われ続けてきたのが2002年くらいからの流れだったんじゃないかなーと思う。

なのにここ2年で急に「世界一でも意味がないよ」と言われたりしてきたような気がする。

しかし別の方面からはピーク性能よりも意味のない「ピーク性能の性能単価」で比較して批判されたりしてきた。

たとえばこの記事

http://blog.goo.ne.jp/ikedanobuo/e/7a0b5fd9f33ff6d2be7f8e8255b7007f

性能単価で京速計算機地球シミュレータを他と比べているが

性能単価ではPS3とかPCに勝てるわけないのでそもそも無駄な比較だと思う。

RADEON5870を2枚つんだ20万のPCを作ればそれだけでピーク4TFLOPS。つまりTFLOPS単価は$500なのである。

だけどそんなPCを1000台つなげたところで烏合の衆であり、できる計算は限られているはずだし、そんな構成で速く計算をやろうとしてがんばってソフト書いた挙句うまく速度が出ないなんてことになったりしがちである。

スパコンの真価はピーク性能じゃなく実効性能であるべきだ。

1990年代には実行性能が高くてソフトが作りやすいのはベクトル計算機であるといわれていた。

今では違うのかもしれないけど、でも地球シミュレータベクトルで高性能なスパコンを作ったというところに価値があって、

だからこそ地球温暖化シミュレーションなどでばんばん使われて成果を出したのではないかと思う。

しかしベクトルはピーク性能をあげにくい。実際には速く動いてもピーク性能は落ちるので世界トップを目指すのは難しかった。

地球シミュレータがしばらく世界一の座に君臨していたことで、今度も「作るからには世界一」という話になったのではないだろうかという気がする。

そして世界一を目指すためにはベクトルではダメスカラーを混ぜる必要があったのだろう。

いろいろあって結局(唯一ベクトル計算機を作り続けていた)NECは今回のスパコンプロジェクトから離脱し、ベクトル部分はなくなった結果、

京速計算機富士通のSparc64VIIIFXを複数組み合わせただけのスカラ型のものになった。

Sparc64VIIIFX自体はたぶん悪くないのだろうと思うが、新CPUを作った上でスカラ型で構築する以上、他のスカラ型に負けていてはダメ世界一でなければ意味がない、というのはわからなくもない。

一方で、ベクトルじゃなかったら正直どうでもいい、別に世界一目指さなくてもいいじゃん、という気もする。

スパコン専門家が今回「別に世界一じゃなくていいんじゃないか」と言ったのはそういうバックグラウンドがあっての話だと思う。

たぶんNECが離脱してベクトルじゃなくなった時点で彼は興味を失ったんじゃないかなあ…と。

2009-11-15

予算削減されてもスパコン世界一になれるんじゃないの?

世界一にこだわる必要はないけど、ちょっと世界一って気分が良い

なれるものならなってみたいモノだと思う。なのでちょっと調べてみたんだけど

今のところ、世界一スパコンRoadrunnerと呼ばれるIBM製のモノのらしいけど

http://ja.wikipedia.org/wiki/Roadrunner

によると1億3300万ドルIBMによって構築された。

とある。

一方、例の日本の次世代スーパーコンピュータ

http://www.itmedia.co.jp/news/articles/0905/15/news015.html

によると、総事業費は約1150億円らしい。

これはどういう事なんだ?

と思った。

素人なので、何がどうなっているのか分からないが、廃止じゃなくて減額程度なのなら作れないの?

しかもRoadrunnerは、一般的は汎用CPUと、PS3cellというものの強化版を組み合わせているらしい。

日本もこれで良いんじゃないの?東芝ソニー当たりにお願いしたらいけそうだけど。

200億円くらいでできないモノなの?

2009-11-07

何もかもを自分の手で作りたい。時間さえあればCPUすら自作したい。いや、数学の体系から構築したほうがいいか。しかし時間が無いので、誰か(もちろん一人では無いだろうが)が考えた数学の体系の上で勉強し、誰かが作ったCPUの上で、誰かが作ったOSの上で、誰かが作ったプログラミング言語で、プログラムを書いている。

2009-11-03

http://anond.hatelabo.jp/20091028192444

これからここに書くことは愚痴なのでそれが不快な人は読まなくても構わない。

周りを見ていると高校生なのにバイトに恵まれているかバイトなんてものもせずに収入を得て遊んだりしている人間が多いのに、僕の親は僕が欲しい本すら買ってくれない。

ここでいう本っていうのはラノベ小説の類ではなくてプログラミング情報技術の資料を指している。これらはそういう分野に携わっている人間なら分かると思うけど基礎的な知識を網羅的に得るにはネットでは時間効率がものすごく悪いし、そもそも載っていない情報もある。

だから本が欲しいんだけれどもそういうお金はないし周りに理系情報技術系の人もいないから話を聞いてもらう事もできない。不自由な思いをしている。

そういう考えを親に言ってみたんだけれども「よそはよそでうちはうち」「学校をやめて働けばいい」「近所の○○さんも中卒で工場勤務している」「高卒資格を取るのに必須ではない」「悔しかったら自立しろ」「いつからやっても遅くない」「生きて行ければそれで良い自分の好きな事のハードルを下げろ」「人のせいにするな」と言う。ちなみに「よそはよそうちはうちと言っておいて近所の話を引き合いに出すのはおかしい」と反論したら「あんたはああ言えばこう言うね」と話を聞いてもらえなかった。

確かに生きて行ければそれで良いのかも知れないしうちにはそんなキャパシティはないのかもしれない。僕も親を殺したくなったがそれは犯罪だし怒って済む問題でもないから何もできずにいる。とても悔しい。今はてブのトップに出ているこれを見ると、

竹内氏:いつごろからコンピュータに触り始めたの?

金井氏:小学校1~2年生からです。学校の授業がきっかけです。

と書いてあり、僕も彼の年齢と1歳しか違わないからその頃からコンピュータに関する時代の差はないはずだけれどうちにコンピュータが導入されたのは今年に入ってからの話だし、スペックCPUセレロンの3GHzちょっとでメモリも256MBしかない。それも親が情報収集に使ってるのを横から借りている感じだ。ちなみに僕は小学校3年くらいから「プログラミングがしたい」と言っているが、最近になって漸くgccsakura editorでC言語hello worldを書くことができた。IDEなんていうのは夢のまた夢。

言葉にすると「悔しい」という三文字で表現できるけどそのルサンチマンをずっと抱えて生きてきたし、これからも他人にアドバンテージを見せ付けられながらそれを抱えて生きていくんだろう。もう一度書く。とても悔しい。

2009-11-01

http://anond.hatelabo.jp/20091028192444

Celeron 3GHz,256MB RAM ならちょっとメモリが足りないかもしれないけど、普通にプログラム書く分には十分。

私は中2の春(3年前)にプログラミングを始めた。当時使っていたマシンCeleron 400MHz,128MB RAM。(記憶が定かではないので CPU クロック周波数は若干違うかも)

そんなマシンでもCを勉強してポインタを使って linked-list を組むには十分だったし、むしろ動作が遅いのが気になるので高速化手法が身についた。

技術書は確か2000円くらいのCの本が1冊あっただけで、本に書いていない事は web 上の資料を読む事で解決できた。

そんな環境プログラミングを学んでも技術は十分に身につくので、何もできないとしたらやる気が足りないだけじゃないですかね。

あと親のマシン借りるので不満があるというのなら、長期休暇中にでもアルバイトをして3万円くらいで中古ThinkPad を買うと良いかもしれない。スペックは大して変わらないだろうけど。

ログイン ユーザー登録
ようこそ ゲスト さん