はてなキーワード: CPUとは
物理モデルとしての世界をメモリ上にそのまま構築できたら単語をそれに当てはめていけばいいだけなので、CPUパワーに任せて文章を解析できるようになる。現時点でも言語内容を仮想空間上にすべて展開できたら、それなりに意味のあるまとめができるかもしれないが、PCのパワーが足りなすぎるから完全には無理だな。その方式で実装するならあと30年はかかりそうだ。量子コンピュータが実現すればたぶんできる。
もっと早く実現するのであれば、言葉の持つロジックの一つ一つをコード化すればいいんだけど、(or Aというタイプの文章はBというタイプの文章に短縮できる、というパターンをたくさん用意する)これは膨大な作業量が必要で、得られる利益がはっきりしないから誰も金を出さないだろう。限られた分野についてのみであれば、まあ1人年もあればできる。
得られる利益がはっきりしないってのが実装上の最大の難関。
gcc-4.5 から link time optimization (lto) と呼ばれる最適化が可能になった。
従来の分割コンパイルでは、コンパイル単位(ファイル)での最適化しかできなかった。例えば、別ファイルの関数をインライン展開することはできないし、引数に渡されたポインタの escape analysis も諦めざるを得なかった。
lto はコンパイルする時に、中間表現(GIMPLEのバイトコード表現)をオブジェクトファイルに残しておき、リンクするときに、すべての中間表現を使って最適化しなおす。要は、ソースコードを全部とっておいて、最後に全部をコンパイルしなおすのと、同じようなものだ。
最大の欠点は、最後にコンパイルしなおすところだ。
このコンパイルは一回のコンパイルであり、単一プロセスで実装されているのでマルチCPUを生かせない。(いっぽう、分割コンパイルなら依存関係が緩いので並列化しやすい。)また、プログラム全体は巨大であり、最適化するのに時間がかかる。
使いかたは簡単だ。-fltoを付ければいい。
gcc-4.5 -c -O2 -flto foo.c
コンパイラとかCPUとかシェルとかSchemeとかやったよー。大学で。Fラン。
やっぱり、どこもやってるんだね。
とはいえ、ちゃんとそういう基礎が身についているか、単に単位はとったけど、とっただけかは、本当に大きく違ってくると思うけど。
奥義とは基礎のことだと見つけたり。
コンパイラ作ったりCPU作ったりシェル作ったりは普通じゃね?
CPUの原理やコンパイラの構造が、大きく変化することは無いから、授業しやすい
俺もやったし
凄いなと思ったのはこれかな
http://d.hatena.ne.jp/kzhk/20091202/p2
suffix array くらい習うけど、実際に意味のあるプログラムまで考えられているのが、課題として良くできている
自分が所属している専攻だと、昔CLU(くるー)って言語を教えていたらしい
初めてADTを実装した言語で、当時としては先進的だった、って先生がよく自慢してる
保守的な授業だな、とは思った
尖った授業はあるとは思うけど
あと、scheme やっていないの?
SICP 読みながら meta circular interpreter 作るのは価値がある行為だとおもう。
リソース減らすってのは、技術というより、現実優先なんだよね。
プロダクトを実際に作ると、どうしても、複数のプログラムが一緒に動いていたり、
メモリ減らすとチップを1つ下のにできるので、とか、そういう理由でメモリなかったりね。
誰も彼もパソコンならモデルありき、でいいんだけど、製品だと、ハードの条件が先にありきだからね。
適当に書いて、条件を満たせばそれでいいけど。10個のプログラムがあって1つのせいで、メモリ足りなくて製品が動かない。とかだと、出荷できないので残りの9個のプログラムが大迷惑。
そんで、単体では動いているので僕のせいではないとかいわれてもね・・・
CPUとメモリ上げてくださいはいいけど、そうすると、コストのほかに、今度は消費電力と、発熱が問題になったりね。
金なんだよね。全体設計なんだよね。だから、適当でいい部品ってあまりない。
生きているし、製品だからね。
事業仕分けのスパコンの話を国の下請けクソミソソフトウェア開発現場
・その118億円のスパコンは建物やインフラのコストは含まれてないんじゃないかな? 適当なビルにスパコン放り込んで電力的な問題は無いの? 空調はどうするの? 床は大丈夫?
・価格対性能比の良いCPUとやらは、必要な精度を上げたら能率が大幅に落ちたりしない? 何千個と組み合わせて性能が出せるシロモノなの?
・適当に選んだ安価な部品がディスコンになったら代品はどっから持ってくるの? スーパーコンピューターを一から組み直すの? ライセンスとファブをエライ値段で買わされるの?
・Linpackは得意でも実際にやりたい計算で2位と言える性能が出ないんじゃない? 地球シミュレーターとか、今でも部分的ではありますが上位に食い込んでるようですよ。
http://slashdot.jp/articles/09/12/18/0838221.shtml
本題であるボッタクリについては同意するけどねー。
そういう所の交渉力が無いのは制度から地味に改善してくべきだろうに、そういう方面のやる気の無さはかつて無いレベル。本当に語るだけの夢。そっから先は手も足も動かさない。事業仕分けとか素人がちょっとした助言もらいつつの思い付きで決定するようなどこのバカが考え出したんだかわかんない「ぼくのかんがえたさいきょうのせいじしゅほう」に振り回されたりとか、実際誰も幸せにならないんじゃないかな。
IntelだってItanium使えば高価だしAMDはx86しかやってない。あとはIBMのPOWERぐらいしか知らないけど結局三社とも買えても自分で作れない。それぞれ死滅しないだけの理由はあるんだろうけど詳しいことはよく知らない。俺は素人だし。ただ、x86に不向きな問題や課題が沢山あるのはよく聞く話。だからnVIDIAがTeslaに心血注いでるしAMDも後を追ってる訳で。
食料自給率がどうのとかはきっちり騒いでる癖に技術の自給率については無頓着。中国産の毒野菜食わされるような未来が産業にもやってくるのですね。よく分かります。
blogを読むときに必要なのは"どうしてだろう?"って考えること。blogを読んで何か納得するのは正しい読み方じゃない。
当該ブログは、部分的に正しいし、部分的に間違っている。特に昔話とコンピュータアーキテクチャの類には多くの異常な主張があるので(意図的かも知れない)、それを探して検証してみるのはとても勉強になると思う。
現場に関する話は、うーん、それほど悲観しないで欲しい。
ただここを読んだ若い人があまりアポロン的になってもいけないので一応警鐘。偉大な先人の多くはゲームを作るために生まれてきた訳じゃないことにもっと関心を持って欲しい。人間を形作るのはゲームづくりだけ?違うよね。
http://blog.livedoor.jp/woopy_doo-game/archives/50938887.html
アドレスレジスタが16bitしか無い様なハードウェアしか存在していませんでしたから(ファミコン、PCエンジン、みんなそうです。メガドラは違いますが)、増加するリソースへの対応が必須でありました。あのアーキテクチャは当時も我々プログラマが提言したのです。
...
呑み会に行ってもハード屋とプログラマは喧嘩ばかりでしたが、バンクアーキテクチャは我々が勝ち取ったものです。事実上無限のメモリ空間を手に入れましたからね。
メモリバンクはゲーム機固有の仕組みじゃない。というわけで、ゲームプログラマが提案したのは多分ゲームシステムにメモリバンク(バンクメモリ? Bank switching?)を導入させたこと、と、読むことにする。
でも、ファミコンを含めた初期のゲーム機、それこそAtari2600でもメモリバンクは実現されていた。これはアーキテクチャがそのように作られていたからではなく、小規模のハードウェア追加でこの仕組みは実現できるからだ。ハードウェアはカートリッジ側に内蔵されていた。ファミコンの音楽に詳しい人ならVRCとかFME、いわゆるマッパーといったチップが内蔵されていたことを知っているだろう。
これらのハードウェアの追加をプログラマが提言したというのは言い過ぎと言える。技術自体は既にあり、採用するのは非常に自然な流れだった。ハードウェアの技術者であっても反対しないだろう。32bitの(アドレスバスを持つ)CPUを導入するのに比べれば、メモリバンクのためのハードウェアはずっと容易に採用できる。
直接的なコピーは彼らにも防げていない。彼らが売っているのはマルチプレイ用のアカウントと考える方がすっきりする。MMORPGと同様に、コピーできないゲーム体験を売るという点では一定の成功を収めている。
何もブラックボックスがないDRMは機能しない。Steamでいえばブラックボックスはゲームサーバであり、PS3とかXbox360で言えばハードウェアそのものがブラックボックスになっている。
分散コンピューティングやグリッドコンピューティングで計算が出来るからスーパーコンピュータが不要だという発言が、実際に計算を行っていない人からなされています。であれば世界中で一カ所に集めたスーパーコンピュータがるのはなぜか?分割した計算を最終的に集めて同期を取らないといけないから。
一方で、ウェブ分野では、分散コンピューティングによる並列計算や、それをサポートする技術に注目が集まっているのも事実。基本的には、PCで使ってるCPUコア単体での性能向上が見込めなくなってきたのが大きな原因ではあるけど、それだけじゃない。
早い話がGoogleのMapReduceで、全体の処理を部分に分割できるタイプの計算なら、並列計算を非常に簡単にプログラミングできるフレームワークが出てきている。この間同社がリリースした「Go」もそうだね。
Googleがこうしたアーキテクチャを用いるのは、基本的にはコストの問題。Googleのバックエンドは、新しいマシンを投入すれば投入しただけ規模を拡大できる「スケールアウト」型のアーキテクチャになっている。マシン自体もコモディティなパソコンがベースになっているので、新規導入コストが非常に安い。この辺は、典型的な「スケールアップ」であるスパコンとは対照的(例えば地球シミュレータは、アップグレードのために200億円近くのコストがかかったりしている)。
また、ランニングコストも非常に安くできる。壊れたマシンは自動的にシステムからパージされるので、後からそのマシンだけ取り替えればいい。省電力の意味でも結構有効らしい。
このシステムが苦手なのは、元増田が引用したように、まさに計算の同期が頻繁に必要なタイプの計算。ただ、そうでないタイプの計算に有効なのはもちろん、コスト面で総合的に上回ったりとか、アルゴリズムの改良で分散システムでも扱えるようになるとか、そういう可能性はないのかなぁ、ということは思っている。
というわけで、詳しい人突っ込んでくれ。
GPUでも分岐ができない訳じゃない、つまり、GPU型のスパコンもある。
ハードの性能に大幅に頼る設計と いわゆる いままでのスパコン
ソフトの性能に大幅に頼る設計(ifをいかに少なくして今までのCPUのしょりをGPUに落とすか)と 今回言われている GPUスパコン。
なので、GPGPUだと、できることが少ないは正確ではない、まだ、ソフトの研究が足りていないので、少ないと言われているが正解。
なので、使い方・ソフトの研究 次第では、事業仕分けで使われているスパコンと同程度の事ができないとは言えない。
結局、ハードに金をつぎ込むか、ソフトにつぎ込むかという戦略の差。
ただ、現在のび白が多く、一般的なシミュレーション用途などだとGPGPUの方が有利ではなかろうかと。
なので、某仕分けのスパコンなどは、同額の予算をハードはGPGPUにして、数億で抑えて、残りのお金はソフト開発と研究につぎ込んだ方が将来性もあり、科学の発展につながると思う。
このニュースは良いニュースで、従来のゼネコン型=恐竜型スパコン開発は終わりにして、新しい、ほ乳類型=GPGPU+ソフトウェアアルゴリズムの研究にお金を投資するべきだと個人的には思ってる。どうせ、仕分けのスパコンは大半が箱物で、研究に効率よく使われてるとは言い難いし。
事業仕分けのスパコンの話をクソミソソフトウェア開発現場から思う:
たまに見積もりを出すとき、SIの会社から、こういう話をされる。
「あー、この案件、国の案件だからさー、見積もりはもっともっと、積んでもいいよ。高ければ高いほどいいし。おれらは、それにXX%乗せるだけだから、高いほうがいいんだよ。」
「と、いいますと?」
「ぶっちゃけ、もう一桁、上でもいいよ。」
「ああ、いいよいいよ。」
1人月200万の幽霊エンジニア部隊が書かれた見積もりをぼくが書き、下請けSIerがそれに何割か上乗せした金額を上になげ、さらに何割か上乗せした金額を大手SI子会社の中受けSIerが見積もりを書き、さらに元受の大手SIerが何割か乗せて、国に出す。つまり、最初のぼくの見積もりから累積的に上乗せするので、ぼくの価格が高ければ高いほど、みんなが潤うのだ。仮に30%づつのせたら、すでに倍くらいにはなってることになる。場合によっては、もっと乗せる人もいる。
国がカネを出す案件ならば高い見積もりを出せば出すほどいい。IT業界の常識だ。彼らはわかってないから値段の理由なんていくらでも言いくるめられる。そんな空気がある。
スパコンもそうだと思う。公式サイトによると、富士通製SPARC64TM Ⅷfx、8コア、128ギガFLOPSを使うらしい。
http://www.nsc.riken.jp/pamphlet2009/p5.html
これの前のSPARC M4000/M5000のCPUで2.5GHz*2のCPU「だけ」で一個400万。(ただし、Sun Microsystems製)
実際に搭載されるCPUは、これよりも性能が高く、これよりもっともっと高いんだと思う。もちろんスパコンなので、これを何百個も、何千個も使うんだろうけど、別にこんな価格性能比の悪いCPUを使う必要があるのか分からない。世界のスパコンの多くは価格性能比がいいインテルやAMDなのに、なぜか富士通のSPARCなのは、謎だ。
http://japan.cnet.com/blog/kichi/2009/11/21/entry_27035470/
けど、高ければ高いほどいいのだ。
廃止とか、凍結じゃなくて、適正価格かどうか調べる人の方が大事だと思う。
以下、Wikipediaより、
http://ja.wikipedia.org/wiki/%E6%B1%8E%E7%94%A8%E4%BA%AC%E9%80%9F%E8%A8%88%E7%AE%97%E6%A9%9F
他の世界トップランクのスパコン建設費用とは桁違いの巨額の約1150億円(TOP500で現在世界2位のRoadrunnerでも118億円程度)の予算が投じられてスパコン世界ランク1位を目指す予定[1]である。
上乗せが上乗せを呼んでいるのかもしれない。
あの騒動で騒いでいる連中が全員理系だというわけではないけれど
まぁ理系率は高いだろう
そして、良いリトマス試験紙になったんじゃないだろうか?
レンホウの1位うんぬん発言はバカ丸出しだが、それにつられてか、スパコン推進派も負けず劣らずのバカ揃いである。
スーパーコンピュータにもいろいろある。
重要なのは、アメリカが力を入れているものは価格にして100億~200億円くらいの、並列クラスタ型が一般的だ。
これは、インテルやAMDが作っている一般的なCPUを何万個も搭載して計算させるもの。
一方で日本の場合は、スーパーコンピュータのために開発した特注。
結果、アメリカのIBM製ロードランナーは150億円くらいで年間の電気代は数百万円程度。
比べて日本の地球シミュレーターは初期型は600億円、年間の電気代も20億円だ
加えてさらにこの前、190億円もかけて拡張した。6年間のレンタルで190億円だそうだwwwww
その金でアメリカは世界一のスパコン作ったんですけどwwって思うのが普通の神経。
はっきり言ってコストパフォーマンス最悪のクズコンピュータだ。これを無視して、無駄だとかどうとか論じるなと言いたい。
ちなみに京速計算機は価格1200億円だそうだ。もうアホだろ。
そのくせ、日本は理系を殺すんだとか、国外に逃げるしかないとか言ってる間抜け揃いで笑ってしまった。
ネズミかおまえらは
簡単なコスト計算をしないで、よくまぁここまで悲観ぶれるなと逆に感心するよ。
仕分け人<もっとやすく作れるだろう。事実他国はもっとやすく作ってる
そら削減されるわ。
日本は理系に冷たいわけでもなく、ごく当たり前の査定結果だったと俺は思う。
こんなの俺だけじゃなく、同じ気持ちの人が、同じようなことをブログで書いていた
そのたびにブクマ数が伸びていた
ブクマも伸びてたし、はてなのバカどもも分かってくれたのかなと思ったけど
今日も相変わらずバカがわめいてて呆れた。
【政治】 仕分け人 「次世代スパコン?国民目線で言うと、世界一にこだわる必要があるのか」→次世代スパコンの開発、「予算削減」★5
ttp://tsushima.2ch.net/test/read.cgi/newsplus/1258117474/
【社会】"スパコン界のノーベル賞"と呼ばれる「シーモア・クレイ賞」を受賞…富士通研究所の三浦さん
ttp://tsushima.2ch.net/test/read.cgi/newsplus/1258114701/815
> 815 名前:名無しさん@十周年[] 投稿日:2009/11/18(水) 08:00:40 ID:it1XgPFx0
>
> 簡単な話だ、この仕訳結果は Wikipedia に SPARC は、UCバークレーのRISC I をモデルに開発と書かれているからだな。
> スタンフォード卒の 鳩山としては UCバークレーがらみの CPU なんて腹が立つわけだよ。
> (スタンフォード大と、UCバークレーは、日本の慶応と早稲田のように、お互い派閥を作り敬遠しあう傾向がある)
>
> ところが、SPARCの開発を指揮したのは、UCバークレー卒のビルジョイではない(ビルジョイはソフトウェアエンジニア)
> SPARC の設計は、実質スタンフォード大卒の アンディベクトルシャイムなんんだよ。
>
> Sun という会社は、スタンフォード大スピンアウトのマクネリ(CEO) が金を集め、ベクトルシャイムがハードを担当し
> + UCバークレーのジョイがソフトを担当するという、コラボレーションの結果なんだ。
>
>
スパコン関連の騒動を見ていて思ったんだが、コンピュータの処理能力が客観的に測れると思ってる人が多いんだね。確かにCPUの命令の処理能力等のハードウェア面の性能はかなり客観的に測定できる。しかしコンピュータの処理能力というのは命令セットや命令の処理方式によっても影響を受ける。さらに人間に理解できるプログラミング言語によってかかれたソースから最適な機械語を生成するコンパイラなんかも重要だ。極端な話、こうしたものが駄目ならいくらハードウェアの性能がよくても、処理能力が低くなる。コンピュータの性能はハードウェアの性能だけでは決まらず、客観的に測定することは原理的には困難なのだ。それなのに「スパコンでNo.1」というそれだけ聞いてもよくわからないフレーズに共感する人たちが多い。きちんとした知識があれば、具体的にはどういう点でNo.1を目指すのか疑問に思うはずだ。単にISCで発表されるランキング上でNo.1を目指すだけなのか、極端な話ランキングを無視して本当に今必要とされている用途向けに最適化されたものを目指すのか、そういったことが「スパコンNo.1」というフレーズでは見えてこない。それなのにやたら共感する人たちが多く不思議だ。多分これはパーソナルコンピュータとのアナロジーで考えているのだと思う。パーソナルコンピュータの場合、大体CPUはIntel製で、OSはWindowsだ。だからCPUのクロック数やメモリの容量などハードウェアの性能で、ほとんど客観的に処理能力を比較することができる。このパソコンとのアナロジーでコンピュータの性能を考えてる人が多いから、「スパコンでNo.1」を目指すというわかりやすそうでわかりにくいことに共感する人たちが多いのだろうなと思う。
個人的な意見としてはランキングなんて気にしなければいいのにと思ってるんだけどな。宣伝にはなるだろうけど、スパコン使うような学者・技術者ならあのランキングがあまり当てにならないことぐらいわかるでしょ。正直文科省の実績作りにしか思えないんだけど。
1 名前: 不明なデバイスさん 投稿日: 2001/04/07(土) 10:14
できれば512MByteです。
今ノート買おうとしている人は注意しましょう。
今でもMAX192Mの機種は多いですが半年後はゴミですので
買ってはいけません。
5 名前: 不明なデバイスさん 投稿日: 2001/04/07(土) 10:40
XPなんか要らないよ
7 名前: 不明なデバイスさん 投稿日: 2001/04/07(土) 10:42
Windows XP 第 2 版には最低で 128MB の RAM と
300MHz Pentium II プロセッサが必要 と言ってるぞ。
9 名前: 不明なデバイスさん 投稿日: 2001/04/07(土) 11:27
それに見合った機能や使い勝手は保障されてんのか?
あ~、どっちにしろ、買い替えするっきゃないのかよ・・・とほほ。
10 名前: 不明なデバイスさん 投稿日: 2001/04/07(土) 11:44
売れなくなってしまうではないか!
さすがWintel~~藁
15 名前: 名無しさん@お腹いっぱい。 投稿日: 2001/04/07(土) 12:32
Windowsは2000で完成されてるのになんでこれ以上
バージョンアップするの?
やるからには世界一じゃないとダメだろと言われ続けてきたのが2002年くらいからの流れだったんじゃないかなーと思う。
なのにここ2年で急に「世界一でも意味がないよ」と言われたりしてきたような気がする。
しかし別の方面からはピーク性能よりも意味のない「ピーク性能の性能単価」で比較して批判されたりしてきた。
たとえばこの記事
http://blog.goo.ne.jp/ikedanobuo/e/7a0b5fd9f33ff6d2be7f8e8255b7007f
性能単価ではPS3とかPCに勝てるわけないのでそもそも無駄な比較だと思う。
RADEON5870を2枚つんだ20万のPCを作ればそれだけでピーク4TFLOPS。つまりTFLOPS単価は$500なのである。
だけどそんなPCを1000台つなげたところで烏合の衆であり、できる計算は限られているはずだし、そんな構成で速く計算をやろうとしてがんばってソフト書いた挙句うまく速度が出ないなんてことになったりしがちである。
スパコンの真価はピーク性能じゃなく実効性能であるべきだ。
1990年代には実行性能が高くてソフトが作りやすいのはベクトル計算機であるといわれていた。
今では違うのかもしれないけど、でも地球シミュレータはベクトルで高性能なスパコンを作ったというところに価値があって、
だからこそ地球温暖化シミュレーションなどでばんばん使われて成果を出したのではないかと思う。
しかしベクトルはピーク性能をあげにくい。実際には速く動いてもピーク性能は落ちるので世界トップを目指すのは難しかった。
地球シミュレータがしばらく世界一の座に君臨していたことで、今度も「作るからには世界一」という話になったのではないだろうかという気がする。
そして世界一を目指すためにはベクトルではダメでスカラーを混ぜる必要があったのだろう。
いろいろあって結局(唯一ベクトル計算機を作り続けていた)NECは今回のスパコンプロジェクトから離脱し、ベクトル部分はなくなった結果、
京速計算機は富士通のSparc64VIIIFXを複数組み合わせただけのスカラ型のものになった。
Sparc64VIIIFX自体はたぶん悪くないのだろうと思うが、新CPUを作った上でスカラ型で構築する以上、他のスカラ型に負けていてはダメで世界一でなければ意味がない、というのはわからなくもない。
一方で、ベクトルじゃなかったら正直どうでもいい、別に世界一目指さなくてもいいじゃん、という気もする。
スパコンの専門家が今回「別に世界一じゃなくていいんじゃないか」と言ったのはそういうバックグラウンドがあっての話だと思う。
世界一にこだわる必要はないけど、ちょっと世界一って気分が良い
なれるものならなってみたいモノだと思う。なのでちょっと調べてみたんだけど
今のところ、世界一のスパコンはRoadrunnerと呼ばれるIBM製のモノのらしいけど
http://ja.wikipedia.org/wiki/Roadrunner
とある。
一方、例の日本の次世代スーパーコンピュータは
http://www.itmedia.co.jp/news/articles/0905/15/news015.html
によると、総事業費は約1150億円らしい。
これはどういう事なんだ?
と思った。
素人なので、何がどうなっているのか分からないが、廃止じゃなくて減額程度なのなら作れないの?
しかもRoadrunnerは、一般的は汎用CPUと、PS3のcellというものの強化版を組み合わせているらしい。
日本もこれで良いんじゃないの?東芝ソニー当たりにお願いしたらいけそうだけど。
200億円くらいでできないモノなの?
これからここに書くことは愚痴なのでそれが不快な人は読まなくても構わない。
周りを見ていると高校生なのにバイトに恵まれているかバイトなんてものもせずに収入を得て遊んだりしている人間が多いのに、僕の親は僕が欲しい本すら買ってくれない。
ここでいう本っていうのはラノベや小説の類ではなくてプログラミングや情報技術の資料を指している。これらはそういう分野に携わっている人間なら分かると思うけど基礎的な知識を網羅的に得るにはネットでは時間効率がものすごく悪いし、そもそも載っていない情報もある。
だから本が欲しいんだけれどもそういうお金はないし周りに理系、情報技術系の人もいないから話を聞いてもらう事もできない。不自由な思いをしている。
そういう考えを親に言ってみたんだけれども「よそはよそでうちはうち」「学校をやめて働けばいい」「近所の○○さんも中卒で工場勤務している」「高卒資格を取るのに必須ではない」「悔しかったら自立しろ」「いつからやっても遅くない」「生きて行ければそれで良い自分の好きな事のハードルを下げろ」「人のせいにするな」と言う。ちなみに「よそはよそうちはうちと言っておいて近所の話を引き合いに出すのはおかしい」と反論したら「あんたはああ言えばこう言うね」と話を聞いてもらえなかった。
確かに生きて行ければそれで良いのかも知れないしうちにはそんなキャパシティはないのかもしれない。僕も親を殺したくなったがそれは犯罪だし怒って済む問題でもないから何もできずにいる。とても悔しい。今はてブのトップに出ているこれを見ると、
金井氏:小学校1~2年生からです。学校の授業がきっかけです。
と書いてあり、僕も彼の年齢と1歳しか違わないからその頃からコンピュータに関する時代の差はないはずだけれどうちにコンピュータが導入されたのは今年に入ってからの話だし、スペックもCPUがセレロンの3GHzちょっとでメモリも256MBしかない。それも親が情報収集に使ってるのを横から借りている感じだ。ちなみに僕は小学校3年くらいから「プログラミングがしたい」と言っているが、最近になって漸くgccとsakura editorでC言語のhello worldを書くことができた。IDEなんていうのは夢のまた夢。
言葉にすると「悔しい」という三文字で表現できるけどそのルサンチマンをずっと抱えて生きてきたし、これからも他人にアドバンテージを見せ付けられながらそれを抱えて生きていくんだろう。もう一度書く。とても悔しい。
Celeron 3GHz,256MB RAM ならちょっとメモリが足りないかもしれないけど、普通にプログラム書く分には十分。
私は中2の春(3年前)にプログラミングを始めた。当時使っていたマシンは Celeron 400MHz,128MB RAM。(記憶が定かではないので CPU クロック周波数は若干違うかも)
そんなマシンでもCを勉強してポインタを使って linked-list を組むには十分だったし、むしろ動作が遅いのが気になるので高速化手法が身についた。
技術書は確か2000円くらいのCの本が1冊あっただけで、本に書いていない事は web 上の資料を読む事で解決できた。
そんな環境でプログラミングを学んでも技術は十分に身につくので、何もできないとしたらやる気が足りないだけじゃないですかね。
あと親のマシン借りるので不満があるというのなら、長期休暇中にでもアルバイトをして3万円くらいで中古の ThinkPad を買うと良いかもしれない。スペックは大して変わらないだろうけど。