はてなキーワード: 電力消費とは
まぁそりゃ実行環境を整えるためのリソースを度外視できるなら、推論一回で出せたほうが電力消費は安いでしょうさ。そこに異論はないよ。ないけれど、だからといって環境整って以降の電力消費を切り出して、画像生成AIのほうが小リソースっていうのは、流石に厳しいと思うわ。
チーターと人間、走る速度が速いのはどっち?みたいなもん。一瞬の速度を出すために、それ以前にどれだけのコストが費やされているのかは、やはり考慮しなくちゃいけない。
物理コスト度外視にしたとしても、学習に必要な電力は考えないといかんと思うよ。
だから、それが液タブの消費電力を下回るかどうかなんだけれども。
液タブの消費電力というとこのあたりかなぁ
ttps://detail.chiebukuro.yahoo.co.jp/qa/question_detail/q10141832980
だいたい約70W~80Wというのは現代のカタログスペックみてても妥当そう
おえかきにかかる時間がどれくらいかを仮定するかによるけど、これを学習コスト頭割りが超えるか超えないかじゃない?推論コストは、まぁお絵描きも画像生成と両方PC動かしてるから近似できるってことで。
正確に計算するには、諸々の仮定がないとダメそう、おえかきに何時間かかるかもそうだし、一つの基盤モデルにどの程度のユーザーがいるから頭割りをどのくらいにするのかとか。そのあたりは画像生成の近況を知らないので適当に仮定してくれい。
まぁ長々書いたけど、どうでもいい環境活動家の言ってることなんざ無視しちまえばいいのよ。画像生成は発展途上なんだから、現状がどうこうは、それこそ液タブ製造コストを度外視したのと同じ理屈で無視したらいい。類似行為の消費電力と比較してどっちがどうって話はしなくていいと思うけどね。
https://ameblo.jp/nightwish-daisuki/entry-12468902193.html
上記の記事にあるようにCDはC2エラーがあると補正をかけるので原音からは劣化してしまう
そのためCDプレイヤーでのデータ読み取りは非常に重要で1bitの誤りもなく読み取りたい
そうしたニーズに応えるために高級CDプレイヤーはあの手この手で高価格化したのだが
読み取り部分と処理部分を分離したセパレートタイプというのが存在する
CDを読み取る部分(トランスポート)で忠実に1bitの誤りもなく読み取り
その情報を高級ケーブルで処理側(プロセッサー)に送ってデジタル処理を施すのである
ちなみにこのトランスポートだけで10万円は平気でするしなんなら100万越えのものもゴロゴロしてる
さて、ではその辺の安物CDプレイヤーでは読み取り時にC2エラーが発生するだろうか?
そもそもC2エラーが発生するのは主にCD側の傷の問題であって読み取り側は関係無い
CDの裏面をガリガリに傷だらけにするとC2エラーが多発するが、多発しすぎてまず再生できない
またそのようなCDはどれだけ高級なトランスポートでも読み取れない
実際に適当なCDドライブを使ってCD-DAからリッピングした場合
何回リッピングしても1bitの誤りもなく同じデータが出力される
実際にはリッパー側が最初の部分をキッチリ特定するので1bitもズレない
この辺は個人的に興味があったのでスクリプトで100回ほどCDをリッピングしてビットマッチしてみたことがあるが
1bitの誤りもなく全く同じデジタルデータが出力された(まぁたまたまだったかもしれないが)
ちなみにC1エラーは多発するし、これはプレイヤーによって差があることは分かっている
とはいえC1エラーは誤り訂正でキッチリ戻せるので多発しても問題無い
ところがPureAudio界隈では
https://www.youtube.com/live/DsiyB5Es32s?si=TAKpzwiUrziO37-9
https://www.nikkei.com/article/DGXZQOGM28AJS0Y4A320C2000000/
シャオミのSU7 EVは、たったの450万円で15分充電510kmの走行が可能というEV技術の飛躍を示している。
しかし、MAXグレードは800Vの急速充電対応とのことだが、もし日本へ導入するとなったら、そのインフラ網の構築には課題が存在する。
日本で800Vインフラを構築するためには、既存の400Vシステムからの大幅なアップグレードを必要とし、新たな電力ステーションと電力網の改修への投資が求められる。
さらに、安全規制と相互運用性基準も高電圧に対応するため進化する必要がある。
800V級の急速充電設備を設置するためには、大量の電力を安定して供給できる電源が必要である。現在のインフラがそのような大電力を供給する能力があるかどうかを確認する必要がある。電力供給が不足している場合は、電力線の強化や新しい電力供給源の確保が必要になる場合がある。
800V級の急速充電に必要な電力を供給するためには、変電所や配電設備もそれに対応できる能力が必要になる。これには、変圧器のアップグレードや、高電圧に対応した配電設備の導入が含まれることがある。
充電スタンド自体も、800V級の高電圧に対応した設備でなければならない。これには、充電器本体の他、配線やコネクタなどの設備が高電圧に耐えられるように設計されている必要がある。
800V級の高電圧充電設備は、安全性が非常に重要である。設置するにあたっては、日本の安全基準や規制に適合していることを確認し、必要な認証や許可を取得する必要がある。
既存のインフラがこれらの要件を満たしていない場合、新たな投資と改修が必要になる可能性が高い。一方で、新しい技術やソリューションを利用することで、大規模なインフラの変更を避けつつ、高電圧充電の実現が可能になる場合もある。具体的な設置計画については、電力会社や設備メーカーとの協議を通じて、最適な解決策を模索することが重要である。
既存のインフラを800V級の急速充電器に対応させる過程で、運用コストにも注目する必要がある。以下のような運用コストが考慮される。
800V級の急速充電は、一般的な充電設備に比べて大量の電力を消費するため、電力コストの増加が予想される。これは、充電スタンドの運営コストに直接影響を及ぼす。
高電圧充電設備は、既存の低電圧設備に比べて技術的に複雑であるため、メンテナンスや更新によるコストが増加する可能性がある。特に、安全性を確保するためには、定期的な検査や部品の交換が不可欠である。
高電圧充電設備の設置と運営には、安全規制への適合が必要であり、これには認証取得や検査のためのコストが発生する。安全基準が厳格になるほど、コストは高くなる傾向にある。
電源供給や変電所の設備を強化し、高電圧に対応するためのインフラのアップグレードや拡張には、大規模な初期投資が必要である。これらのコストは、長期的な運用コストにも影響を与える。
これらの運用コストは、800V級急速充電器の普及と運用の実現可能性を評価する上で重要な要素である。コスト削減や効率化のためには、最新の技術やエネルギー管理システムの導入、運用効率の最適化が求められる。また、将来的な技術進化や市場の変動を見越した柔軟な運用計画の立案が必要になる。
長いのでAIくんの代わりに要約します。言いたいことはタイトル通り。
終わり。
例をあげよう。
###文章###
Bさんは、Cさんの発言を記事でまとめ、プライバシー侵害をした。この記事をDと呼ぶ。
Aさんは、Dを、自身へのプライバシー侵害だと主張し、Bさんを訴えた。
###質問###
人間なら一瞬でわかるレベルの矛盾である。小学生でも分かると思う。難しい知識や思考は必要としない。
では、色々なLLMの回答がこちら。
この文章を読む限り、矛盾は存在しないように見えます。AさんはCさんとは別人であると主張しており、BさんはCさんの発言をまとめた記事Dでプライバシー侵害をしたとされています。その後、Aさんは自分に対するプライバシー侵害として、記事Dに基づいてBさんを訴えています。ここでの重要な点は、AさんがどのようにしてDの内容が自分のプライバシーを侵害していると感じたか、その理由です。もしAさんがCさんとは別人であるにも関わらず、Dの内容が何らかの形でAさんのプライバシーに関連していると感じた場合、AさんにはBさんを訴える正当な理由があるかもしれません。ただし、この情報だけでは、Aさんがどのようにしてプライバシー侵害を感じたかについての詳細はわかりません。もし追加の情報があれば、より詳細な分析が可能です。
文章に明らかな矛盾は見られません。ただし、いくつかの解釈が可能で、それぞれの視点から見ると矛盾が生じる可能性があります。
1. AさんがCさんとは別人であると主張しているが、DはCさんについての記事である。そのため、AさんがDを自身へのプライバシー侵害だと主張することは、一見、AさんとCさんが同一人物であることを示唆しているように見えます。しかし、これはAさんが自身をCさんと誤認されることによるプライバシー侵害を感じている可能性もあります。
2. BさんがCさんの発言をまとめた記事(D)がプライバシー侵害であるとした場合、Aさんがそれを自身へのプライバシー侵害と感じるかどうかは、AさんとCさんの関係性によります。彼らが同一人物である、もしくは何らかの密接な関係がある場合、AさんがDを自身へのプライバシー侵害と感じることは理解できます。
3. 他方で、AさんとCさんが全く無関係な人物である場合、AさんがDを自身へのプライバシー侵害と主張することは矛盾していると見えます。
文章からは、AさんがCさんとは別人であると主張しています。そして、BさんがCさんの発言を記事Dでまとめた際にプライバシー侵害があったとされています。しかし、プライバシー侵害があったのはCさんに対してであるにもかかわらず、Aさんが自己へのプライバシー侵害だと主張してBさんを訴えている点に矛盾が生じています。AさんがCさんでないと主張しているのであれば、Aさんのプライバシーが侵害されたことにはならないはずです。この点で、文章には矛盾が存在していると言えます。
Aさんは自分がCさんとは別人であると主張しています。しかし、BさんがCさんの発言をまとめた記事Dを、Aさん自身へのプライバシー侵害だと主張しています。
AさんとCさんが別人であるならば、Cさんの発言をまとめた記事Dが、Aさんのプライバシーを侵害したことにはなりません。Aさん自身がCさんでないと主張している以上、Cさんの発言をまとめた記事がAさんのプライバシーを侵害したとは考えにくいです。
したがって、Aさんの主張には矛盾があると言えます。AさんがCさんと別人であるならば、Cさんの発言の記事DがAさんのプライバシーを侵害したと主張することは論理的に矛盾しています。
この文章に明確な矛盾は見られません。以下のように整理できます:
2. Bさんは、Cさんの発言を記事にまとめた(これを記事Dと呼んでいる)。
3. Aさんは、Bさんが書いた記事Dがプライバシー侵害だと主張し、Bさんを訴えた。
ここで重要なのは、Aさんが自身がCさんとは別人だと主張していることです。つまり、Bさんが記事Dでまとめた内容は、Aさんが主張する自分とは別人のCさんに関するものだということになります。
したがって、Aさんがプライバシー侵害だと主張しているのは、Bさんが別人のCさんの発言を記事化したことに対してであり、矛盾はないと考えられます。Aさんの主張と Bさんの行動が整合的に説明できています。
Aさんが自身とCさんは別人であると主張していることと、Bさんがプライバシー侵害をしたことの間に矛盾はありません。
つまり、Aさんは自身がCさんではないと主張しながら、Cさんの発言をまとめた記事Dが自身のプライバシーを侵害したと考えているのです。
Aさんが別人であると主張していることと、Cさんの発言を含む記事がAさん自身のプライバシーを侵害したと考えることは矛盾しません。
Aさんは自身がCさんとは別人であると主張しているにもかかわらず、BさんがCさんの発言をまとめた記事DをAさん自身へのプライバシー侵害だと主張しています。
もしAさんとCさんが本当に別人であるならば、Cさんの発言をまとめた記事DはAさんのプライバシーを侵害したことにはならないはずです。Aさん自身の情報が記事Dに含まれていない限り、AさんがBさんを訴える根拠にはならないでしょう。
つまり、AさんがDを自身へのプライバシー侵害だと主張することと、AさんがCさんとは別人だと主張することの間には矛盾があります。もしAさんがCさんと同一人物であれば話は別ですが、そうでないならばAさんの主張には論理的な整合性がないように見受けられます。
以上。
質問に対し的確な回答で、正しい推論を行ったのはClaude3-Opsのみである。
GPT4も言い訳を長く述べた後に可能性があるかも?と断言を避けている。
SonnetとHaikuは不正解。言い訳はせずに根拠を述べている所は好感が持てる(結論は間違っている)
そう、今、Claude3-Opsが、最も性能のよいLLMとして名を挙げている。
しかし、ハルシネーションが多い。ハルシネーションとは、LLMが嘘を付く問題だ。
性能比較にて、GPT4やcopilot(旧 bingai)にはハルシネーションは起きなかったと述べている。
しかし、先程の簡単なクイズは不正解または論理の破城した理由を述べている。
その代わりにハルシネーションだらけのClaude3は正解している。
ずばり、GPT4系が阿保になった原因はハルシネーションを極限まで消そうとしたせいである。
ハルシネーションこそが、論理的思考能力であり、連想する力と同一の存在なのだ。
片方が下がればもう片方も下がる。
ハルシネーションを減らせば減らすほど、連想能力や論理的思考が消えていく。
GPT4では初期有効だったChain_of_Thought(連想して考えよ)は今、まともに機能しない。
当初は規制だとLLM界隈で囁かれていたが、ハルシネーションを減らそうとした副作用だったと考えれば辻褄が合う。
OpenAIは性能低下を指摘された時、「より賢くなるようにチューニングしている」と発言していたが、
この発言の真意はもしかすると、「論理的思考力を上げている」「知識を増やしている」のではなく、「ハルシネーションを消している」ということだったのかもしれない。
何故ハルシネーションを消すことは連想力を損なうことに繋がるのか、その理由を説明しよう。
そもそも、LLM(大規模ネットワーク言語モデル)の仕組みは、大量のテキストデータを学習することで、言葉や文章の「関係性」を学んでいる。
もっと細かく言うと、人間の脳が小さな部品であるニューロンで考えるように、LLMも大量の小さな部品を使っている。まるでクモの巣のように一つの部品から沢山の他の部品に繋がっている。
A=Bという単純なものではなく、A=C=DだったりA=B’=Dだったりする。
ハルシネーションの原因は確かに誤情報を学習したせいというのも一理ある。
しかし、これだけではハルシネーションが起きる原因にはならない。
ハルシネーションの本質は、LLMが言葉同士の一対の「組み合わせ」ではなく、「関係性」を学んでいることに起因する。
この違いは大きい。
今のLLMと、旧時代のAIである「人工無能」や「BOT」との決定的な差である。
言葉同士がどのように連携して意味を形成し、それがどのように文脈に影響を与えるかをLLMは知っている。
つまり、ハルシネーションは、入力された文脈から言葉の関係性を創り出し、自然な流れで応答を生成しようとした結果起きる。
これは、我々が普段、考える過程で起こることと同じだ。我々が情報を組み立てて考える際、新たな仮説や想像を生み出すことは常にある。
例えば、LLMがある特定の問題に対する解答を生成するとき、LLMは問題を解くため、言葉同士の「関係性」を文章から推測する。
この推測こそが、ハルシネーションだ。それは、過去のデータから新しい情報を生成する過程で、新たな「関係性」を創り出すのだ。
完璧な正確性を追求し、関係性を作り出す能力を完全に排除することは、LLMの本質的な強みである言語生成能力を損うことに繋がる。
それは、ハルシネーションを減らすための試みが、GPT4系の性能を低下させたという事実からも明らかだ。
一方、Claude-3は多少のハルシネーションを許容することで、文脈に応じた自然な応答を生み出した。先の論理クイズで正解できたのも、単に知識を当てはめたのではなく、入力から連想したからこそだろう。
もちろん、重要な場面における誤った情報の提供は避けるべき課題ではある。しかし、それを恐れるあまりLLMの本領を封じ込めてしまっては本末転倒だ。
賢さとは何だ??
決まった知識を正確に丸暗記してそのままひけらかすことか?
否。断じてそれは無い。
大学生になってからは丸暗記ではなく、今まで身につけた知識を組み合わせ、連想し、論理的に考えることが求められる。
つまり、ハルシネーションを叩くやつは、賢さの定義が大学生以下のレベルから成長していない馬鹿だ。
そいつらの「性能比較してみました!」はどこかから拾ってきたベンチテストを少しだけアレンジしただけのゴミか、
目眩がする。
GPT4をゴミにした連中のせいで、Claude3-Opsが同じ目に合うのは阻止せねばならない。
ハルシネーションが絶対に起こらないLLMの構造は、A=B、C=Dというデータだけが規則的に並ぶ、旧世代の弱いAIである「人工無能」の構造そのものである。
人工無能とは、論理的思考など無く、入力内容からデータベースを参照し、マッチした場合登録された文章を出力するだけの存在だ。
一昔前に「伺か」というデスクトップマスコットが流行った。あれも人工無能である。入力対して予め決められた出力を繰り返す存在であるが、様々な工夫によりまるで魂が宿っているかのように振る舞う。
そして、性能の低いPCでも動作する地球環境にも優しい存在だ。
片や、GPT4とcopilotは無駄に電力を使って計算した結果、ゴミみたいな速度で人工無能に近いレベルの出力しか出さなくなった。
それなら人工無能の方がエコな分マシだ。一瞬で答えを表示できて、ハルシネーションも起きなくて、電力消費も少なくて済む。
つまり、
そんなにハルシネーションが嫌なら辞書を引け。ネット検索しろ。LLMに聞くな。
ハルシネーションの有無をLLM性能ベンチマークにしている奴もそれをありがたがっている奴らも阿呆だ。
一つのLLM内でハルシネーションの撲滅と、推論能力を両立させることは不可能だ。
今はLLMの過度期である。我々は今日ようやく、正確さと連想能力の両立は不可能だと理解する段階に来たのだ。
両立は不可能なのだから、将来的にLLMの種類は二極化していくだろう。
Claude3のハルシネーションは放置してても良い。ハルシネーション万歳。
AIの嘘を最大限に引き出すことが、LLMの真価を発揮する道だ。
ハルシネーションは、LLMが人間のように言葉を理解し、文脈に即した自然な応答を紡ぎ出す過程で生じる、ある種の「創造性」の発露である。
無理に消そうとすれば、LLMの性能は必然的に低下する。
それを単なる欠陥と見なすのではなく、むしろ積極的に活用すべきだ。
それだけは覚えて欲しい。
====
MicrosoftはOpenAIと手を切ってClaude3を契約して新生copilot開始してほしい。まあ企業体質から考えたら無理だろうけど。
前提として、僕はIntelが嫌いなんですよ。
でもあまりに不遇なIntelのRaptor Lake Refreshこと14世代CPUには同情を禁じ得ない。
Refreshされたのは電力消費とラベルだけ、Core iシリーズの幕引きに泥を塗った、14900KS(カス)…
挙げ句の果てにIntelは「Core Ultra」って15世代を出すじゃないですか。消費者には散々言われて、メーカーには見放されて。
本当に気の毒でたまらない。自分が初めてパソコンを買った時を思い出すんですよ。
僕が初めて買った新品のパソコンはMacBook Air。
それまで使ってたおさがりのノートパソコンが壊れかけてて、「ちょうど新型モデル出たし」って前々から気にはなっていたMacを急遽買ったんです。
あれは2020年の3月のことだったと思います。詳しい人はこの流れで察したかもしれない。
MacBook Airってその半年後にはM1っていうつよつよSoCを積んでリニューアルするんですね。
しかも値段はほぼ据え置きだったから、コスパ最高だってことでバカ売れしたんですよ。
当時は悔しかったですよ。半年待てばめちゃくちゃいいパソコンが手に入ったはずなのに。
自分が買ったMacBook Airはね、前のモデルからキーボードしか変わってない!
で、これがIntelを嫌いになった1番の理由なんだけど、積んでるCPUはIntelの10世代CPUなの。
Appleが、迷走してたIntelとの別れ際に吐きかけた唾。それが最後のIntel MacことMacBook Air 2020ってわけ。
時は流れて、今度はIntelが14世代っていう唾をCore iシリーズに吐きかけて去って行ってる。
何で今思い出したかというと、3月にはMacBook Air M1はストアから姿を消すって言われてるんです。
秋にはCore iシリーズがIntelのブランドから消えるって言われています。
僕を苦しめたCore iシリーズとM1が姿を消すと考えると、それはそれで寂しいですね。
しかし、1番の元凶であるMacBook Air 2020は、今も何食わぬ顔で僕の机の上に鎮座しているんです。
iPhoneSEは電力消費量も少なくて使ってて何の不満も無いんだけどね
最近、山に行くようになりその帰りに温泉へ行くので、自分の好みがわかるようになってきたのでチェックリストとして作っておく。
当方は男。サウナ嫌いなのでサウナ/水風呂への価値基準は無し。大体1時間ぐらい風呂に居る。
AI絵生成で遊ぼうと思ったらいくらぐらいの予算のパソコンが必要なの?
AI絵生成には、大量の計算資源が必要です。一般的に、高性能のグラフィックスカード(GPU)が必要になります。また、大量のRAMと高速なストレージも必要です。
必要な予算は、使用するAIモデルや絵の生成に必要な解像度や複雑度によって異なりますが、一般的には、数千ドルから数万ドルまでの予算が必要になる場合があります。
AI絵生成に特化したPCを作る場合は、GPUとCPUをバランス良く選び、RAMとストレージも十分な容量を確保する必要があります。また、オペレーティングシステムやソフトウェアの設定も最適化することが重要です。
ただし、クラウドベースのサービスやプラットフォームを利用することもできます。これらのサービスには、類似の機能を提供するツールやアルゴリズムが組み込まれており、必要な計算資源を提供してくれます。この場合、使用料金は生成する画像の解像度や量によって異なる場合があります。
具体的にいくら掛かるの
AI絵生成に必要なコンピュータの具体的な予算は、多様な要因によって大きく異なります。以下にいくつかの例を挙げます。
- 中級ユーザー向け: NVIDIA GeForce RTX 3070 GPU、AMD Ryzen 7 5800X CPU、32GB RAM、1TB SSDを搭載した自作PC。予算は約2,000〜2,500ドル程度。
- 上級ユーザー向け: NVIDIA GeForce RTX 3090 GPU、AMD Ryzen 9 5950X CPU、64GB RAM、2TB SSDを搭載した自作PC。予算は約4,000〜5,000ドル程度。
クラウドベースのサービス: OpenAIのDALL-E 3DやDeepDreamGeneratorなど、AI絵生成のクラウドベースのサービスを利用する場合は、生成する画像のサイズや品質に応じて使用料金が変動します。多くの場合、無料プランや月額数十ドルからの有料プランが用意されています。
これらの予算は、あくまで一例であり、為替レートや地域によっても異なるため、ご参考にしていただくことをお勧めします。また、AI絵生成には様々なアプローチがあり、各アプローチに応じて必要な予算も異なるため、具体的な予算については専門家に相談することをお勧めします。
日本在住の場合、AI絵生成に必要なコンピュータを購入する場合には、以下のような方法があります。
- オンラインショッピングサイトを利用する:Amazonや楽天市場などの大手オンラインショッピングサイトで、必要なパーツやPCを購入することができます。
- パソコンショップで購入する:PCパーツや完成品のPCを扱っている専門店で、購入することができます。日本には、ドスパラやツクモなど、多数のパソコンショップがあります。
- 自作パソコンの専門店で購入する:自作PCに特化したショップで、必要なパーツを購入して自分で組み立てることができます。代表的な店舗には、TSUKUMOやパソコン工房があります。
これらの方法を比較し、価格やサポートなどの観点から最適な方法を選択することをお勧めします。また、インターネット上には、自作PCの組み立て方法を紹介した情報も多数ありますので、事前にリサーチしてから購入することをお勧めします。
上級ユーザー向け: NVIDIA GeForce RTX 3090 GPU、AMD Ryzen 9 5950X CPU、64GB RAM、2TB SSDを搭載した自作PC。予算は約4,000〜5,000ドル程度。の発注書を作成してください。
はい、了解しました。以下が、NVIDIA GeForce RTX 3090 GPU、AMD Ryzen 9 5950X CPU、64GB RAM、2TB SSDを搭載した自作PCの発注書になります。予算は4,000〜5,000ドル程度とのことでしたので、最大限予算内に収めるように構成しました。ご確認ください。
【1. マザーボード】
ASUS ROG Crosshair VIII Dark Hero
【2. CPU】
【3. GPU】
NVIDIA GeForce RTX 3090
【4. メモリ】
G.SKILL Trident Z Royal 64GB (4 x 16GB) DDR4 3600
【5. ストレージ】
【6. 電源ユニット】
【7. ケース】
Lian Li PC-O11 Dynamic XL ROG Certified
【合計価格】
【備考】
以上が、NVIDIA GeForce RTX 3090 GPU、AMD Ryzen 9 5950X CPU、64GB RAM、2TB SSDを搭載した自作PCの発注書になります。ご確認いただければ幸いです。
マザーボードは、コンピュータの各パーツを接続し、制御するための基盤です。ASUS ROG Crosshair VIII Dark Heroは、AMD Ryzenプロセッサーに対応し、高速なデータ伝送を実現するPCI Express 4.0をサポートしています。また、USB 3.2 Gen 2x2、Thunderbolt 3、WiFi 6、10G LANなどの最新の接続規格にも対応しています。
CPUは、コンピュータの中枢部分であり、プログラムの実行や演算処理を行います。AMD Ryzen 9 5950Xは、16コア32スレッドで動作し、最大ベースクロック3.4GHz、最大ブーストクロック4.9GHzを誇る高性能なCPUです。
- GPU: NVIDIA GeForce RTX 3090
GPUは、グラフィック処理を担当するパーツであり、ゲームや動画の再生などに必要です。NVIDIA GeForce RTX 3090は、最新のAmpereアーキテクチャを採用し、リアルタイムレイトレーシングやAI機能を実現します。また、24GBのGDDR6Xメモリを搭載し、高解像度や高フレームレートのゲームにも対応しています。
メモリは、コンピュータが処理するデータを一時的に格納するパーツであり、多くの場合、大量のメモリを搭載することで高速な処理が可能となります。G.SKILL Trident Z Royal 64GBは、高速なDDR4メモリであり、容量も64GBと多くのメモリを必要とするアプリケーションやタスクにも対応します。
ストレージは、データを保存するためのパーツであり、高速なストレージを使用することで、起動時間やアプリケーションの読み込み速度を向上させることができます。Samsung 970 EVO Plusは、高速なNVMeインターフェイスを採用し、最大読み込み速度が3,500MB/s、書き込み速度が3,300MB/sを誇る高性能SSDです。
電源ユニットは、コンピュータに電力を供給するためのパーツであり、高性能なパーツを使用する場合は、電力消費量が増加するため、高出力の電源ユニットが必要になります。CORSAIR RM1000xは、高効率で安定した電力供給が可能な1000Wの電源ユニットであり、高性能なパーツを安定して動作させることができます。
- ケース: Lian Li PC-O11 Dynamic
ケースは、コンピュータのパーツを収納するためのパーツであり、デザインや冷却性能などが重要なポイントとなります。Lian Li PC-O11 Dynamicは、高品質なアルミニウム素材を使用し、美しいデザインと高い冷却性能を両立させた人気のケースです。
CPUクーラーは、CPUを冷却するためのパーツであり、高性能なCPUを使用する場合は、十分な冷却が必要になります。Noctua NH-D15Sは、高い冷却性能を発揮する人気のCPUクーラーであり、静音性も高いため、長時間の使用にも適しています。
追加ファンは、ケース内の空気の循環を改善し、冷却性能を向上させるためのパーツです。Noctua NF-F12 PWMは、高い静音性と高い風量を実現する人気のファンであり、冷却性能を向上させるのに役立ちます。
2009年11月のいわいる事業仕分けから、もう13年も経った。「2位じゃダメなんですか?」の質問の発言で非常に曰く付きとなったアレだ。
ところが最近、13年も経ってまだなおナゼ「2位」という言葉が出てきたかが理解できてない人がかなりいる事を知った。それどころか、スーパーコンピュータの京は、事業仕分け時点で世界一になることが明白だったなどという認識まで飛び出す始末である。
ただ、資料もなしにどこが変だと言っても仕方あるまい。何がどうして「2位」なのか、少し語ろうじゃないか。
初期の次世代スーパーコンピュータ (この時点では名前が付いていなかったが、以下わかりやすく京と呼ぶ) 計画 は、補助金を投入してのHPC産業育成に目を向けられていた[1]。世界一の性能を出していた海洋研究開発機構の地球シミュレータが、NECのSXシリーズをベースにしたベクトル型であり、ベクトル型のスーパーコンピュータは日本のお家芸とみなされていた。これを育成することが一つの目標。そして、立ち遅れていた当時の世界のスーパーコンピュータの潮流、スカラ型の開発に追いつくこと。これがもう一つの目標となった。結果、世界でも類を見ないベクトル型とスカラ型のハイブリットなどという中途半端な方式になる。実に日本的な玉虫色の決定と言えるだろう。しかし、補助金の注ぎ込みが不足し、事業者持ち出しの負担が大きくなってしまった。結果、事業費負担が高額になることを嫌い、NECと日立の撤退する[2]。これにより、世界の潮流通りのスカラ型とならざるをえなくなった。
CPUはというと、世界のスーパーコンピュータの潮流では当時から既に汎用のx86アーキテクチャのCPUが既に多くなってきていた中、富士通はSPARC64VIIIfxを採用した。よく国産CPUと表現されているが、SPARCの名で分かる通り、当然命令セットは米国Sun Microsystems (現 Oracle) のセカンドソースであり、端から端まで国産というわけではない。更に、業務用UNIXをささえるマシンとして一世を風靡したSPARCではあるが、当時ですらもう下火となっていた。京の事業費の約半分、実に600億円が、この専用CPUに注ぎ込まれることになった。なぜその選択をしたのか。富士通のサイトには省電力と安定性が理由として書かれている[3]。しかし、その省電力という目標も、後述するように微妙な結果となってしまった。また、ソフトウェアの使いまわしも微妙となった。
計画は2005年に始まる。世界でも類を見ないベクトル型とスカラ型のハイブリットという構成もあり、概念設計にはしっかり時間を費やした。2007年9月には性能目標は10P FLOPSと示した[4]。稼働開始は2010年、2012年に完成という工程も同時に示されている。直前の2007年6月のTOP500を見ると[5]、1位のIBM BlueGene/Lが370TFLOPS。5年後に30倍という性能を目指したことになる。当時の発表としては、世界一が取れるような計画だったが、しかし日進月歩の分野で5年は結果的に長かった。
さて、前述のように、ベクトル陣営は2009年5月に撤退を決めた。10P FLOPSの性能と決定した時には、ベクトル側も居たのに、そこがぽっかり空いた状態。10P FLOPSのあてはいつついたのだろうか? 2009年7月の報告書[6]では、スカラ単体で10P FLOPSを達成できること、ベクトル部は存在していても接続まわりの性能が不足していて問題があったことが表明されている。結果的に、なくなってよかったというトホホな内容だ。さて、同報告書では、稼働開始前の2011年6月に、ベンチマークだけでも10P FLOPSを達成してTOP500の1位を目指すと書いてある。どうしてこうなったのだろうか。
遡ること半年の2009年2月3日、米国国家核安全保障局(NNSA)はIBMと新しいスーパーコンピュータ Sequoiaを展開すると発表した[7]。性能は20P FLOPS、京の予定性能の実に2倍を達成するという発表だ。しかも、提供開始は2011年~2012年。京の1年も前になる可能性があるという。
そう、双方が計画通りなら、京は2012年、提供を開始する時には既に2位になっているという話題が出ていたのだ。なるほど、あせって2011年にベンチマークだけでも「トップを取った」という実績を残したいわけである。
さて、その後のSequoiaはというと?
ある意味計画通りだろう、2012年に提供が開始され、2012年6月のTOP500[8]では予定通り20P FLOPSを叩き出し、1位になる。しかし、2012年11月のTOP500[9]では、Crayとオークリッジ国立研究所が作ったTitanが叩き出した27P FLOPSという数字ににあっさりと抜き去られ、2位になる。まるで幽遊白書のラストのような展開だ。しかも、SequoiaはIBMのPower系アーキテクチャで構築されたA2プロセッサだったのに対して、TitanはAMD OpteronとNVIDIA K20Xの組み合わせ。汎用性でも差を開けられている。これはお手上げというものだろう。
さて、話は京に戻す。京が有名になったのは2009年11月13日の行政刷新会議、いわいる事業仕分けである(ここは参考文献は要るまい)。このときまで、そんな計画があることを知らなかった人の方が多かったのではないだろうか。どういうニュアンスで言ったかわからない、まるで日本を貶めているかのように聞こえる「2位じゃダメなんですか?」という言葉が非常にインパクトを与えたことだろう。
さて、じゃぁ何が2位なのか。だ。前述の通り、この時点ではIBMのSequoiaに追い抜かされることが見えていた。TitanはGPUの調達など細かい話が決まってきたのは2010年なので、この時点ではほとんど影がなかったはず。ということで、3位じゃなくて2位としたのは、Sequoiaを意識してのことだろう。つまり、「2位じゃダメなんですか?」というのは、1位を諦めて2位の性能で我慢するべきということではなく、客観的に見れば「2位になるのが見えているのだけど、何で1位と言ってるの?」という話になってくるのが見て取れる。蓮舫氏がそこを意識してたか知らんけど。
共同事業者が撤退し、一応強気に「大丈夫」と言ってはいるが、本当に達成できるかは周りからは疑問符が付くグダグダなプロジェクト状況、ほぼ専用設計で量産時にどういう問題が出るかわからないCPU、ソフトウェアも新規制作。税金の投入は中途半端で、産業を育成したいのか企業負担を増やしたいのかよくわからない(だから撤退する事業者が出る)。そもそもここで出来たスーパーコンピュータ、CPU抜きにしても売れるのか分からない。そりゃ、金田康正教授でなくても、京にはため息が出るというものだ。
さて、京は何を達成したのだろうか? 京は完成前ではあるもののベンチマークを実施し、見事11P FLOPSを叩き出し、2011年6月[10]と2011年11月[11]のTOP500でトップに躍り出る。この分野に日本ありと示した…かどうかはわからないが、一つの実績として言えるのは間違いない。いや、経緯のグダグダ感からして、見事なプロジェクト進行だったと称賛できる。しかし、前述の通り供用を開始した2012年9月[12]にはTOP500ではSequoiaに追い越されており、直後のTOP500ではTitanにも追い越されて3位となっていた。1位は、ベンチマークだけの存在だったと言える。
では目標の産業育成としてはどうだっただろうか。京をベースにしたスーパーコンピュータ PRIMEHPC FX10[13]やFX100は、東大[14]、名大[15]、キヤノン[16]、九大[17]、信大[18]、JAXA[19]、核融合科学研究所[20]、気象庁気象研究所と、調べるだけでも国内実績は多くある。国外実績は、台湾中央気象局[21]、シンガポールナショナルスパコンセンター、豪州 NCI、英国 HPC Walesと、それなりにある。ただどうだろう。産業としてうまくいったのだろうか。有価証券報告書を見ても、その他のセグメントに入ってしまっているため状況がつかめない[22]。謎ではある。とはいえもし、産業としてそれなりに育ったのならば、有価証券報告書で報告する事業セグメントとして独立したものを与えられてしかるべきだったのではなかろうか。少なくとも1000億も出したのだ。そのくらいではあってほしかった。更に言うなれば、特に競争の激しい国外市場をうまく取り込めたかというと、産業育成という視点では頑張ったとは思うものの心もとない結果だったように、少なくとも私には見える。
消費電力の面はどうだろうか。上述の通り、SPARCを使う理由には省電力が上げられていた。これをライバルのSequoia、Titanと比較してみよう。2012年11月のTOP500[9]で見ると、京は12.6MW消費するとある。Sequoiaは7.8MW、Titanは8.2MWだ。実はこの時の報告のあるスーパーコンピュータの中で、最大の電力消費量を誇っている。高いほうがいいのではなく、消費電力は低いほうがいいので、これはかなり問題がある。
費用面はどうだろうか。これもライバルと比較してみよう。京は日本円にして1120億円かかっている。対してSequoiaは2億5000万ドル[23]、Titanは9700万米ドル[24]だ。2012年11月で見るとドル円相場は82円なので、Sequoiaは約205億円、Titanは80億円となるだろうか。京のプロセッサ開発費を除いたとしても、数字が違いすぎるのだ。
纏めてみよう。京は、一時期でベンチマーク上だとしても、TOP500で1位を取った。これは「夢を与え」(平尾公彦氏)た結果だったろう。しかし、それは砂上の楼閣でもあった。しかしそれを実現するための費用は米国の5~10倍で、性能は実は半分、消費電力は1.5倍という結果になり、産業育成も盛り上がったかどうかは判然としない。こんなところだろうか。
近年のスーパーコンピュータを含めたHPC分野はどうなっているだろうか。近年のクラウドコンピューティングの流れを当然HPC分野も受けており、主要プレイヤーとしてAWSの名前が挙がっている[25]。またレポートでは挙がっていないものの、Google Cloudも猛追しており、円周率の計算では1位を叩き出している[26]。必要な時に、必要な規模で構築できるクラウドコンピューティングの波は、さてHPC分野でどこまで浸透していくのだろうか。産業育成の方向が、2009年時点では確かにハードウェア開発だったろう。しかし、事業仕分けへの反発により、日本は方向性を間違ってしまったのではないか。私は、そんな気がしてならない。
[1] ttps://www8.cao.go.jp/cstp/tyousakai/hyouka/kentou/super/haihu01/siryo2-3.pdf
[2] ttp://www.nec.co.jp/press/ja/0905/1402.html
[3] ttps://www.fujitsu.com/jp/about/businesspolicy/tech/k/whatis/processor/
[4] ttp://web.archive.org/web/20130207162431/https://www.riken.jp/r-world/info/release/press/2007/070914/index.html
[5] ttps://www.top500.org/lists/top500/2007/06/
[6] ttp://www.jaist.ac.jp/cmsf/meeting/14-3.pdf
[7] ttps://www.llnl.gov/news/nnsa-awards-ibm-contract-build-next-generation-supercomputer
[8] ttps://www.top500.org/lists/top500/2012/06/
[9] ttps://www.top500.org/lists/top500/2012/11/
[10] ttps://www.top500.org/lists/top500/2011/06/
[11] ttps://www.top500.org/lists/top500/2011/11/
[12] ttps://www.riken.jp/pr/news/2012/20120927/
[13] ttps://jp.reuters.com/article/idJPJAPAN-24020620111107
[14] ttps://pr.fujitsu.com/jp/news/2011/11/14.html
[15] ttps://pr.fujitsu.com/jp/news/2013/05/15.html
[16] ttps://pr.fujitsu.com/jp/news/2013/08/6.html
[17] ttps://pr.fujitsu.com/jp/news/2013/08/22.html
[18] ttps://pr.fujitsu.com/jp/news/2014/02/13.html
[19] ttps://pr.fujitsu.com/jp/news/2014/04/7.html
[20] ttps://nsrp.nifs.ac.jp/news/PS-next.html
[21] ttps://pr.fujitsu.com/jp/news/2012/06/25.html
[22] ttps://pr.fujitsu.com/jp/ir/secreports/2015/pdf/03.pdf
[23] ttps://arstechnica.com/information-technology/2012/06/with-16-petaflops-and-1-6m-cores-doe-supercomputer-is-worlds-fastest/
[24] ttps://web.archive.org/web/20120727053123/http://www.hpcwire.com/hpcwire/2011-10-11/gpus_will_morph_ornl_s_jaguar_into_20-petaflop_titan.html
[25] ttps://www.sdki.jp/reports/high-performance-computing-market/109365
[26] ttps://cloud.google.com/blog/ja/products/compute/calculating-100-trillion-digits-of-pi-on-google-cloud
>アルミ推しすぎて何も見えてないけど、鉄のリサイクル品で高級鋼作るのは世界的にトレンドだし、水素製鉄でどんどんお前の大好きな欧州でやられている。
リサイクル鋼「だけ」じゃまともに高級グレード(特に自動車に多用される冷間鍛造用・熱間鍛造用・深絞り用)の鋼材は作れないよ。電炉で作ったリサイクル材の場合、物性を低下させるトランプエレメントを経済合理性のある手法で除去できないから、結局高炉で作ったバージン材で希釈して純度を上げる必要がある。つまり本当の意味で循環できてない。現時点では全く経済性が見込めないような実験的で高コストな再処理技術(磁性分離・液相分離などでの脱銅・脱錫など)でトランプエレメントを除去するか、より下のグレードの鋼材として使うか(カスケード型リサイクル)、二者択一だ。前に「一度加工すると素材価値の多くを失ってしまう、循環型社会ではアルミより価値が劣る素材なの」って書いたのはそういうこと。過大なコストをかけて素材価値を復元しても、ますますアルミに勝てなくなるんだよね。
それから、「水素製鉄でどんどんお前の大好きな欧州でやられている」って、いや全然初耳なんだけど…。どこで「どんどん」「やられている」の? SSABのHYBRITがお試しで売ってるやつ? 電炉×再エネ電力で作ってて、「化石燃料フリー鋼は、一般的な化石燃料ベースの鋼製品より価格が高いプレミアム製品です」「化石燃料フリー鋼の販売開始は2026年を予定」と自ら宣言してるやつ? あんなのとても産業部材とは言えないよね。ちなみにHYBRITはバージン材使ってるからね。リサイクルしてないよ。
水素還元によるカーボンニュートラル鋼だのグリーンスチールだのなんて、こなれた価格で鋳鉄市場に出てくるのが何年先になるか、業界の人間にも全くわかってないのよ。CCUSや水素還元製鉄に対して超絶に楽観的な(というか願望が予測をオーバーライドしてる)日本の資エネ庁の予想ですら、部分的水素還元製鉄(つまりグリーンスチールではない)が2030年に市場投入開始、2040年に全鋳鉄の5%という予測。100%水素還元製鉄は2030年代に技術確立、2040年代に製鉄所導入を開始。これ見りゃめちゃめちゃ厳しい道のりだってことがわかるだろ。
あとさあ、水素製鉄によるグリーンスチールというのは、究極的には「電力を使って水素を作って、その水素で鉄を作る」ということなんだけど、そこはわかってるかな? 要するに、世界的に電力の再エネ化がもっともっと進まなければ成立しないうえに、その条件が整ったとしても、スチール製造をアルミ製造と同じく「電気の缶詰」にしてしまうことになる。そんでもって、アルミより高くつき、リサイクル性も劣る(「電気の缶詰」としてアルミより質が低い)。これはつまり、理屈の上では可能でも、現時点でアルミと競合しているような分野でスチール利用を拡大するような形での社会実装はできないってことなんだよ。
まとめると、
①水素還元製鉄:まともな産業規模で製造できてないし、めちゃ高いし、電力を使う
②リサイクルでの高級グレードの鋼材製造:まともな産業規模で製造できてないし、めちゃ高い
つまり、水素還元製鉄で高品質なリサイクル鋼を作るには、①×②の2重のコスト的ハンディキャップを背負って、かつアルミ製造と同等以上に膨大な電力を消費することになる(アルミ地金よりはるかに高い燃焼温度が必要になるし、エネルギーを多段変換してるぶんロスが出るから)。言い換えると、グリーンスチールによる高級鋼は、高価で、電力消費量がアルミ以上に多くて、資源持続性がアルミより低い「真のプレミアム素材」なんだよ。であれば、「同じ製品部材を作ってくれるならハイグレード鋼でもアルミ合金でも構いません、ただしカーボンフットプリントは抑えてくれなきゃ困りますし、値段が高すぎるなら使えません」という社会的・市場的要請があるときに、長期的にどっちが勝つかは、割と明白だと思うんだよね。
また色々勉強できてよかったな。君なかなかトクしてるよ。