はてなキーワード: CPUとは
自宅ネットワークで、セキュリティのためにタグVLAN切ったりしたいけどEdgeRouterとか中古RTXのようなCLIで設定するのはめんどくさいな…。Wi-Fiとかも1つの機器で一緒にやってほしいな…。という人にピッタリ。
半年ほど前にUnifi Dream Machine(UDM)を買って、GUIやアプリで細かいところまで設定できるし(CLIアクセスは可能だけど使ったことない)便利だなあと思っていながら愛用していたら、先月にUDRの日本版が発売された。UDM買ったばかりなので迷ったけど、PoEとWi-Fi6がほしいので買ってみた。UDMより安いしね。
結果としては大正解で、UDMとくらべてWi-Fiが強くなって風呂に届くようになり、PoE対応で電源タップを1つ開けることができ、Wi-Fi 6対応で自己満足を得ることもできた。CPUのスペックが下がってるのが懸念点だったけど、スピードテストやCPU使用率の値を見る限りでは個人ユースでは問題なさそう(DPIをつけて外向き600Mbps程度は出る模様。それ以上出るのかは不明)。
一つ気になったのはファンの音で、UDMでは無音に等しかったのがUDRでは若干音が聞こえるようになった。上部のカバーが揺れてるのが音の原因の一つらしく、カバーと本体を養生テープで固定したら気にならなくなった。寝室に置くならUDMにしておいたほうがいいかも。
Unifi製品は安くて(英語が読めるなら)ナレッジも多く、ライセンス料不要でアップデートしてくれるのでおすすめです。APあたりも買ってみたい。
増田がコミュニケーションに飢えてその組の通話に入るのが悪いんだけど
それは悪くないと思いたいの?信じたいの?
CPUとだけやってるのか? 違うでしょ
性能が高いが発火する“炎のCPU”
形を自由に変えてどんなコネクターも受け入れられる“水の端子”
あらゆるものを凍りつかせるが発火するPCならちょうどよく冷やせる“氷の冷却装置”
異空間にデータをほぼ無限に保存しかつアクセス速度を高めることで主記憶装置と補助記憶装置に分ける必要がなくなった“時空のストレージ”
禁断のPCパーツの消費電力に耐えうる電源容量を持つ“雷の電源ユニット”
炎のCPUの内蔵GPUにより生み出された画像を描写できるが輝度が強すぎる“光のディスプレイ”
一見黒すぎるサングラスだが光のディスプレイの光を程よくカットする“闇のPCメガネ”
CPUだったらintelとAMD、GPUだったらnvidiaとAMD、アメリカ企業は業界で基本的に2,3社、多くても4,5社に集約している
ルーターはシスコシステムズとジュニパーネットワークスとか、映像編集はAdobe、3D/CADはオートデスク、DBはオラクル,MS、クラウドはAWS,Azure,Google
寡占で儲けるのがアメリカ
それを頭に入れたうえでこれ見てほしい
自動車(トヨタ、ホンダ、日産、スズキ、マツダ、ダイハツ、スバル、三菱、日野、いすゞ)
造船(今治、ジャパンマリンユナイテッド、大島、三菱、名村、川崎、三井、定石)
複写機プリンター(フジ、リコー、コニカミノルタ、キヤノン、エプソン、ブラザー、京セラ、シャープ、東芝、富士通、NEC)
デジカメ(キヤノン、ニコン、ソニー、フジ、パナソニック、オリンパス、リコー(ペンタックス)、シグマ)
ミシン(ブラザー、ジャガー、ジャノメ、JUKI、ベビーロック、アックスヤマザキ)
化学(三菱ケミカル、住友化学、旭化成、信越化学工業、三井化学、昭和電工、東ソー、日東電工、三菱ガス化学)
同じ業界にいくつあるんだよって思うよね。
日本企業だけでこれ。
これに加えて海外の企業もあって競争してるわけだからそりゃ儲からない
まぁ化学に関しては一言で化学というのはかなり乱暴なんだけど、材料でみても結局同じことなのでわかりやすく化学にした
リストに載ってないけど、化学に関しては数千億円レベルに限っても、この倍くらい会社があって、再編が進んでない業界としてよく化学業界が挙げられる
https://gyokai-search.com/4-chem-uriage.htm
新しい産業がベンチャー企業でごった返してるっていうならアメリカでもあることだけど
成熟した業界でいつまでたっても再編が起きずに無駄な競争をしてるのが日本なんだよね
だから欧米企業が利益率10%~20%なのに、日本企業はいつも5%あたりでうろうろする
それが次の投資余力の差につながって成長に差が出てくる
何も知らない人が見たら7社もランクインはすごい!とか喜びそうなニュースだけど、
記事でも触れられているように、大手のほうが伸びが大きくて5位以下は伸びが小さい。
装置に関しては東京エレクトロンが大きいから例外ではあるけど、その他は「小さくて多い」だよね
日本を代表する企業はパナソニック、東芝、三菱、日立を見てもわかるけど、なんでも屋の総合電機メーカーなんだよね
いわゆる複合型、コングロマリットってやつ
トヨタが冷蔵庫や洗濯機を作りだしたら、車の開発がおろそかになるだろってのは想像できると思う
無茶なたとえって思うかもだけど、今の日本にはそれくらい無茶がはびこってる
だから俺はソニーがホンダといっしょに車を作るって話を聞いたとき、まずいなぁって思ったよねw
ソニーって白物家電をやらないからほかの電機メーカーみたいに事業が「小さくて多い」問題がましだったんだけど、EVをやるのはどうだろうね
まぁ肝心の部分はホンダがやるからそこまでコングロマリット病を発症しないかもしれないけどね
何でもあるようにみえて、特定の層に刺さる、例えば10代の子が好むような服は置いていない
かゆいところに届かない感あるよね
文化が成熟し細分化された時代に総合スーパーや百貨店やファミレスでは限界がある
服にこだわる人は原宿渋谷のこだわりの店で買うし、そう出ない人もユニクロみたいな専門店で買う時代
靴はABCマート、家電はヨドバシ、Appleにこだわる人はAppleストアみたいにね
家電量販店にしても郊外に店がぽつぽつある「小さくて多い」型のヤマダ電機より、駅前にでかい店たてて大量の客をさばく「大きくて少ない」型のヨドバシのほうが利益率がいい
ヤマダ電機 675店 売上 1兆6,005億8,300万円 経常利益 368億8,900万円
日本の家電は競争力がないのに自動車はある程度競争力あるのは「小さくて多い」が発生してないからだよね
そしてホンダは2輪や船とか飛行機とかやってるからから4輪が不調なんだと思ってる
日本の電機業界は不調だけど、例外的にダイキンが好調なのは空調専業メーカーだからだよね
空調機器だけで3兆円という「大きくて少ない」をすれば十分戦えることがわかる
それに気づいて復活したのが日立
2012年
2014年
日立マクセル(電池、光学部品、理美容、磁気テープ、CD、DVD)をマクセルホールディングスに売却
日立機材をセンクシアに売却
2016年
日立物流(流通)を佐川急便に29.0%売却(追加売却の予定)
日立国際電気(通信機器、放送機器、監視カメラ)を米KKRに売却
2018年
クラリオン(カーオーディオ、カーナビ)を仏エナップ シス エスエーエスに売却
日立、日立物流を売却 KKRが6000億円超で買収へ - 日本経済新聞
https://b.hatena.ne.jp/entry/s/www.nikkei.com/article/DGXZQOUC199XJ0Z10C22A4000000/
だけど俺はいい方向だと思っているんだよね。
ちなみに富士通はPFU売ったし、新光電気工業や富士通ゼネラルも売却するって言ってるから
日本の半導体産業は元気がないって言われるけど、元気な分野があって、それがパワー半導体なんだけど
2021年のパワー半導体メーカーのランキング見てほしいんだけど
1位 infineon(独) 48億ル
8位 nexperia(蘭)6.7億ドル
を見るとわかると思うけど、ここでも会社が「小さくて多い」をしているのが日本企業
そして総合電機メーカーの事業が「小さくて多い」もあるので、二重の「小さくて多い」問題が発生している
にも書かれているけど、総合電機メーカーの一事業にすぎない半導体は投資額が大きくなると
事業バランスを気にして思い切った判断ができなくなくなって投資負けして撤退するというパターンを繰り返している。
早く三菱富士東芝の総合電機は半導体事業をルネサスやロームみたいな専業メーカーに売却するか、事業統合して別会社として切り出すべき
今絶好調といわれてるのが京都企業で、「京都企業はなぜ強いのか」なんて特集がされたりするんだけど
任天堂、村田製作所、日本電産、ロームに共通してるのは複合メーカーではないってことね
「この分野ではだれにも負けません」みたいな専業型が京都企業の特徴
かつては京都といったら京セラみたいな時代があって、アメーバ経営とか一時期もてはやされたけどこの10年くらい停滞している
せっかくセラミックじゃ負けませんな専業の強みがあったのに、なぜかスマホとか電動工具とかプリンターとか始めて複合化してしまって(あの悪名高きバルミューダのぼったくりスマホも京セラ製)
そんなことやってるから案の定、村田製作所においつかれ、そして離され始めている
https://www.nikkei.com/article/DGXZQOUF205NV0Q2A620C2000000/
"谷本社長は10人程度の小集団で業務改善を競う「アメーバ経営」の見直しや、16に分かれた事業の再編などの改革を進めてきた。"
任天堂は亡くなった山内元社長が他分野に手を出すなっていってたらしいけど、最近アニメとかテーマパークとかに手を出し始めてて、ゲーム事業がどうなるか心配ではある
でも岩田社長が素晴らしいのは、家庭用と携帯機の開発を統合しして「小さくて多い」問題を解消したことだよね
2つしかないものを「多い」っていうのも変な話だけど、作る側も買う側も一つに絞ったほうが助かるよね
フロムソフトウェアも2005年~2010年ごろは社員数250人で年に5~10本ペースのリリースで「小さくて多い」状態だったんだけど
フロム・ソフトウェア#ゲームソフトウェア
逆に今不調なのがスクエニ
スクエニは社員数3000人で年30~40本もゲームをリリースしている「小さくて多い」路線で失敗した
好調なカプコンはスクエニと社員数が同じくらいなんだけど、年に5~6本のペースで、スクエニの1/7しかゲームを出していない
任天堂が社員数7000人で年10本程度なので、スクエニがいかに「小さくて多い」かがわかる
スクエニのリリース数から推測すると、毎週ゲーム出してるペースだ。
これでは社内で自分の会社のゲームちゃんと把握できてる人いないのでは?と思ってしまう
アニメ業界といえば、アニメーターの薄給問題が有名だけど、それも会社が600社もある「小さくて多い」問題だからだよね。
そういう構造的問題を無視して、オタクたちはアニメは日本の文化だ!国が補助金出して支えろ!とか言ってるからホラーだなって思う。
製作会社自体が「小さくて多い」し、製作委員会方式のせいでアニメの権利者が「小さくて多い」からヒットしても利益が分散してしまうし
見る側にしても年200本もアニメが製作されたら可処分時間が分散する「小さくて多い」だし
鬼滅の刃は委員会方式やめたからリスクは大きいけど利益も大きいだろうから、いい見本にしてほしいよね
今回は特定の業界に絞って言ったけど、農業も病院も「小さくて多い」で、根本的な問題は解決せずに補助金で何とかしてる状態なのがアニメ業界と似てるよね
地方自治体の行政システム問題も1700もあるからだし、知床遊覧船のKAZU1の問題も結局のところ、日本に950社以上あって過当競争だからだし
銀行のオーバーバンキング問題とかもそうだけど、とにかくこの国は小さいものが多すぎる
「大きくて少ない」が日本の目指す方向
https://www.itmedia.co.jp/business/articles/2208/23/news061.html
米巨大IT、複合企業化のツケ(The Economist)
https://www.nikkei.com/article/DGXZQOCB060OR0W2A101C2000000/
モニタ一枚でいい。なぜなら視線が散るから視界か知能かに問題あるのか知らんけど一枚の方が手は疲れるけど集中できた
メモリはよくわからん。けどノートPCは8GiBくらいでも文句はない
なんなら接続先も大したコード書けないから8GiBくらいで十分だ。CPUはようわからんがノートのが
Intel(R) Core(TM) i5-6300U CPU @ 2.40GHz
これだけど文句とかはない。
仕事拘束されまくって終わった後も人間関係とか設計のこととか不安とかずっーーーーーーーーーーーーーーーーーーーーーーと頭の中に残ってたけど
今の人間様のご機嫌とりするついでにプログラム書く仕事苦痛で辛いけど
趣味と仕事一緒にしないほうがいいって先生見てますかーーーーーーー?
実際に、私よりは頭いいと思います。
で、カーツワイルさんのシンギュラリティというのは、「コンピューターのCPUがレベルアップしていき、処理能力が人類全員の知的作業の力を超える、そうなるとコンピューターが考えることが人類の考えを超える」って話だった。
このカーツワイルさんのお話は、「CPUが大量に処理することが必要」という前提があったけど。
どーも、ChatGPTとかのgenerative AIは、エネルギー少なくても、CPUの能力は低くてもいいらしい。
つまり、1個でも人間並のAIができてしまえば、並列化して動かせば、例えば人類は70億人だから、70億個のAIを会話させてしまえば、人類の知的作業の力を超えてしまう。
つまり、「プレシンギュラリティ = 1つのAIが1つの人間の知力を越える」となった瞬間に、AIを並列化すれば、「シンギュラリティ」きちゃう。
結構多くのWEBサーバのアクセス制限で.co.jp .ne.jp .jpがdeny設定されていたって話である。
https://b.hatena.ne.jp/entry/s/twitter.com/kanose/status/1601270223386324992
個人のネット利用で大きな転換点は2005年くらいで、例えばブログのはしりのはてなダイアリーサービス開始は2003年でアルファブロガー選考開始は2004年、youtubeサービスインが2005年だが、これらの特徴は「アカウントをとって企業のWEBサービスを利用する」という、今では当たり前の方法だ。
だがこの以前にはそういう方式のものは少なく、ISPや借りたレンタルサーバに自分でコンテンツをアップロードして構築するというのが主流だった。
これは内部的にはLINUXサーバ制限アカウントを貰ってユーザーディレクトリの/WWWにファイルを置くという事やね。
だから最初のうちは個人サイトのURLは「http://www.yourisp.co.jp/~aybabtu」って感じだった。~はUNIXのユーザーホームディレクトリを示すのね。やがてバーチャルドメインに対応するサーバ会社が増えてhttp://www.aybabtu.rentarusabaa.comみたいな今では当たり前のURLになったんだが、最初はバーチャルドメイン設定は有料だった。
MS Officeには「パブリッシュ」ボタンがあってそれを押すと編集してるファイル群の構造のまま指定したサーバにFTPでファイル送るみたいな機能もあった。(だがこれはShift-JISでUpするというクソ仕様で後に読めなくなるのだった)
httpの頭のHTはハイパーテキストで、参照箇所にはリンクが設定できて参照元にジャンプ(これも死語だ)できる電子文書なわけで、まさに公開はパブシュッシュ=出版なわけだ。今もサブスクリプション=新聞雑誌の定期購読というのはこの建付けが残ってるからだ。
ISPやWEBレンサバにはユーザー権限の多寡で違いがあって、ユーザに実行権限も付与してperlなどのインタープリタを構築しておくと、テキストであってもファイル先頭にインタープリタへのパスを書いておくとそれが実行され、標準出力をhttpで返す。これがCGIで、ISP供与で多いHTMLファイルの公開だけの権限制限されたサーバに不満な層は「CGI実行可」のレンサバ屋に移っていった。
但しプログラムであるから、いい加減に書いてループ参照とか起こすとサーバのCPUやメモリを喰いつくしてサーバダウンを惹き起こす。だからISP供与のでは実行権限を与えなかったわけだ。逆に言えばISPが必ずホームページ公開スぺースを供与するのに個人向けレンサバが成り立ったのは何故?と言えばCGIの実行が出来たからだ。
故にWindowsしか使わない人には難しい上級者向けだったのだが、これを優しいチュートリアルで簡単設定出来るようにしてユーザーを増やして会社を大きくしたのがpaperboy&co.の家入一真氏なわけだ。はてな創業者の近藤淳也氏と並ぶ個性的なアントレプレナーと謂われた。その後堀江などと共にインターネッ党を作って都知事選に出て箸にも棒にもな結果になったのは黒歴史なので触れないで上げてください。特に堀江は野菜でいじられるよりも傷つくので偉そうに政治の話してる時に「インターネッ党」とボソっというのは残酷な事なので止めてあげて欲しい。お願いします。
また、CGIでの使用言語はperlが圧倒的で、perlで書いた掲示板スクリプトを配布するサイト、趣味プログラマが星の数ほどいた。
こういう訳で初期のWEBで動的ページ=perlであってJcode.pmを開発した小飼弾氏は魔術師扱いされて崇拝されており、ブログブームが来ると圧倒的な人気を誇った。
今では多言語が普通に扱えるのが当たり前だが、マルチバイト文字の扱いというのは難しく、文字コードがそれぞれ違うのがそれに輪をかけていた。例えば今でも日本語Windows上でフランス語や中国語のファイル名は作れないだろう。また、最初期からかなりの期間、Twitterでは日本語の検索が出来なかった。youtubeでも日本語で投稿できなかった期間は長い。
子飼氏はperlで日本語を使用できるようにするライブラリをUNICODE対応にしてWEBで普遍的に日本語が使えるようにしたものだ。
ただ、HTLMと実行文を混ぜ書きできるPHPがver.4になるとデータベース連携が強化されていてデフォルトでSQL文発行関数が実装されており、perlCGIは廃れていってしまう。
またISPより高い自由度を求めて自宅にサーバを立ててそれを公開するという者も現れた。
はてなはサーバをデータセンターに置いてはいたものの、筐体は町工場に設計図を持ち込んでステンレスの1U筐体を自前で作っていたし、Pixivはギガバイトのシステムボードを使って自作した多数のサーバをエレクター上に置いてむき出し運用してしていたので、自宅サーバ組の延長にあったのだな、実は。
こういう中で画像を公開する、動画を公開するというのはなかなか大変だった。
仲間内で見るという分にはファイルを置けばいいだけだが、問題になったのが「2ch晒し」であった。これは悪意を持って2chにURLを貼るのだけじゃなくて、単にURLを書くというのも含まれた。
というのも2chにURLが書かれるとアクセスが集中して大抵はサーバダウンしてしまう。すると他の契約者のサイトもページも見れなくなってしまう。
例えばヒーロー戦記主題歌みたいな社歌でbuzzった日本ブレイク工業のサイトは重すぎて何週間も閲覧出来なくなった。社歌の動画ファイルを置いていたためだ。
こういうサーバダウンは契約者の責任ではないがホスティング会社も許してはくれない。契約解除、つまり出ていけか、法人契約への変更かを迫られる。転送量制限なしと言っていても実際に転送過多になると干すティングになるわけだ。
だから2chは悪意の塊の他にサーバーダウンとサーバからの追い出しを惹き起こすので蛇蝎のように嫌われていた。2ch晒し→その時点でサイトを閉じてしまう人も多く居た。
するとこれを逆手に取ってアップローダ(あぷろだ)を自作サーバで運用してアフィリエイトで収入を上げる者が現れてくる。
ただこれは著作権違反のファイルが上げられて訴えられる事もあるからそのリスク低減のためと転送量制限の為にファイル容量に制限が設けられていた。
すると大きなファイルを共有したい連中はこれでは満足できない。
そこで目を付けたのが海外でアップローダを運用しているサーバだ。運用動機は日本のアップローダと変わらない。だがファイルの大きさの制限が緩かった。
そこでそういう海外のアップローダが違法性が高いファイルの共有に使われるようになった。やってたのは2chのダウンロード板と半角板がメインだ。
だがこれは運営には迷惑な話で、日本人は英語の広告なんてクリックしない。しかも商品の販路が無いので日本からのアクセスに報酬は支払われない。つまり金を落とさず転送量だけ上がるのだ。しかも海外では転送量従量課金は多かった。
更に問題なのがロリ画像がアップロードされることだ。2次元ロリでも規制があるのに実写ロリは完全アウトだ。実写ロリが発覚した場合、サーバ管理者は必ず逮捕される。マグショットが新聞に掲載されTVで晒され、釈放後も幼児が被害者の性犯罪者なのでGPSロガ装着が義務付けられ住所は共有される。二度と部屋を借りる事は出来ずに一生トレーラーハウスかキャンピングカーを買って橋の下で生活となる。
こんな実写ロリ画像や動画をアップロードする奴が居たのである。
そこで管理者としては日本からのアクセスが増えたのを確認した時点で遮断するしかない。一生を棒に振る可能性を回避するためだ。
圧倒的によく使われるWEBサーバのapacheでは.htaccessというシステムファイルに記述してアクセス制限を掛ける事が出来る。ここで国別IPアドレス指定するのはちょっと難しいのでdeny from co.jp deny from ne.jpという風に書くとドメインがco.jp、ne.jpからのアクセスを全部弾くことができる。
この時にディレクトリ指定を「/」にするとそのサーバの全てが弾かれて403エラーが出てしまう。しかもバーチャルドメインも同じなので思わぬところで403エラーが出る事もある。
そういう訳であちこちの海外サーバで日本からのアクセスが拒否されていた。全て2chダウンロード板と半角板のやつらのせいである。
自分はアメリカの田舎の新聞社のトップページで403を食らったことがあるから嫌われ方は相当なものだと思う。「やるべき.htaccessの基本設定」みたいなのに書かれて共有されたのかも知れない。
因みにダウンロード板と半角板は2ch名物の厨房板だったのに、今見たら無くなってるのな。諸行無常だ。
2005年にサービスインしたYoutubeだが、翌年にGoogleに買収されたもので最初は元paypal社員らが作ったベンチャーだった。
だが最初は著作権違反コンテンツばかりであって、自作ビデオというのは少なかった。
特に酷かったのがまた日本人で、最初は10分制限がなかったのをいいことにアニメの全話丸上げみたいなのが大量にされており、当事者のアニオタ達も「ここまでやったら閉鎖されるだろ!」と諫めるほどだった。
そんな中で2006年6月にYoutubeが数日間の大メンテナンスに突入し、画面には「All your video are belong to us」というブロークン英語が書かれていて騒ぎになった事があった。
これの元ネタは「All your base are belong to us」で、古いセガのゲームの英語版で出てきたセリフだ。深刻な場面で突然めちゃくちゃな英語をいう。このおかしさでFLASHが作られたりとミーム化していたものだ。
しかも日本産ゲームは結構あちこちでバカ英語を作ってて、engrishとかjanglishとか言われてネタにされていた。日本で言えばアヤシイ中国製品の日本語を愛でるような感じだ。
そこでYoutubeがあんなメッセージを出したので、日本のネット民は身に覚えがありすぎて「アニオタのせいだろ!また排除されるだろ」と責任のなすり合いと相なったのだった。
因みにその後も日本人の利用が制限とかは無かったので誤解だったのだが、海外アップローダ見つけては403の焼き畑とかロリ画像問題とかがあって、その後のアニメフル全話という流れだったので過剰反応をしたのであった。
ASMLがEUV露光メーカーとして有名らしいってのはニュースでやっていたのでわかった。
EUV露光にレジストや、レーザー光によって生じるデブリからウェーハを守るシートなども必要だってのはわかった。
でも半導体ってそれ以外の工程もあって、ウェーハの洗浄や研磨、パッケージングなど色々あると思うのだけど、ニュースにならない。(装置メーカーの株の話はでるけど)
日本の半導体材料が凄いんだって出ている一方で、韓国への輸出制限したら韓国国産化始めて、技術的に凄くて真似できないんじゃなかったんかーいってなった。
装置を買ってくれば先端プロセスで製造できるのであれば、TSMC、サムスン以外にももっと沢山参入しているのでは?
TSMCはパラメータチューニングが凄いっていうのだと、どちらかというと装置メーカーの方が装置に詳しいのだから最高性能が出せる気がする。
Arm CPUコアはライセンス提供してるってのはニュースでやってるので知ってる。
でもCPU以外の、例えばUSBなどもオープンソースはないものなの?
プログラミングツールのように半導体ツールのオープンソースが出ていて、何かを作ったというのを聞いたことがない。
製造は金がかかるし、どこが個人で作ったのを製造してくれるんだってハードルがあるのはわかるけど、
設計ツールでデータを作る所まではできるんじゃ?って想像するのに聞かない。
3次元のチップ積層が排熱出来ないってニュースになったのが数年前。
SSDは積層しているのでメモリーはできるっぽいのと、チップレットで2層まではCPUもできるってのはわかった。
一方で、NVIDIA RTX4090なんてボードは小さいのにクーラーがデカい。
デスクトップケースなんて、中がスカスカなのになぜかデカくなっている。
家庭用に100GEtherが出るまで全然。
無線は速くなってるけど。
ずっとChromeを使っている
速度を調査してみたら「68mbps」
リソースが足を引っ張っている感じもしない
何をやっても改善しないが、他のサイトの動画はきちんと再生される
ニコニコのサーバーが悪いんかなぁとなんとなく思って放置していた
ある時ふと思ってfirefoxをインストールしてそちらで再生したらカクカクしない
相性かと思ってググっても、「ニコニコ firefox」で「重い」とサジェストされる
Chromeではキャッシュ削除してもカクカクしたが、クリーンインストールすれば改善するのか?
面倒でまだ試していない
何でこんなことを書いてるかと言うと
全く新規に動画を閲覧した場合、キャッシュもクッキーもくそもなくね?
ある程度の長さダウンロードは終わっていて
次のパーツが取得できないのかなんだか知らないが、動画が止まる
ここで、firefoxなら止まらないんだから、サーバーが混んでるとか、速度が遅いとかじゃない
なんで次のパーツが取得できんのだろう?
だから、キャッシュを消せとか、クッキーを消せとか、「ブラウザの問題を解消しろ」って指示になる
でもこの理屈
重くなるのが「全体」ならわかんだけど
仮にドメイン別で量が増えるとそこだけ影響するとしても
最近のi7CPUの構成で、ブラウザ内で10秒遅延とかありえるのか?とかも思う
今一つ、しっくりこない
2009年11月のいわいる事業仕分けから、もう13年も経った。「2位じゃダメなんですか?」の質問の発言で非常に曰く付きとなったアレだ。
ところが最近、13年も経ってまだなおナゼ「2位」という言葉が出てきたかが理解できてない人がかなりいる事を知った。それどころか、スーパーコンピュータの京は、事業仕分け時点で世界一になることが明白だったなどという認識まで飛び出す始末である。
ただ、資料もなしにどこが変だと言っても仕方あるまい。何がどうして「2位」なのか、少し語ろうじゃないか。
初期の次世代スーパーコンピュータ (この時点では名前が付いていなかったが、以下わかりやすく京と呼ぶ) 計画 は、補助金を投入してのHPC産業育成に目を向けられていた[1]。世界一の性能を出していた海洋研究開発機構の地球シミュレータが、NECのSXシリーズをベースにしたベクトル型であり、ベクトル型のスーパーコンピュータは日本のお家芸とみなされていた。これを育成することが一つの目標。そして、立ち遅れていた当時の世界のスーパーコンピュータの潮流、スカラ型の開発に追いつくこと。これがもう一つの目標となった。結果、世界でも類を見ないベクトル型とスカラ型のハイブリットなどという中途半端な方式になる。実に日本的な玉虫色の決定と言えるだろう。しかし、補助金の注ぎ込みが不足し、事業者持ち出しの負担が大きくなってしまった。結果、事業費負担が高額になることを嫌い、NECと日立の撤退する[2]。これにより、世界の潮流通りのスカラ型とならざるをえなくなった。
CPUはというと、世界のスーパーコンピュータの潮流では当時から既に汎用のx86アーキテクチャのCPUが既に多くなってきていた中、富士通はSPARC64VIIIfxを採用した。よく国産CPUと表現されているが、SPARCの名で分かる通り、当然命令セットは米国Sun Microsystems (現 Oracle) のセカンドソースであり、端から端まで国産というわけではない。更に、業務用UNIXをささえるマシンとして一世を風靡したSPARCではあるが、当時ですらもう下火となっていた。京の事業費の約半分、実に600億円が、この専用CPUに注ぎ込まれることになった。なぜその選択をしたのか。富士通のサイトには省電力と安定性が理由として書かれている[3]。しかし、その省電力という目標も、後述するように微妙な結果となってしまった。また、ソフトウェアの使いまわしも微妙となった。
計画は2005年に始まる。世界でも類を見ないベクトル型とスカラ型のハイブリットという構成もあり、概念設計にはしっかり時間を費やした。2007年9月には性能目標は10P FLOPSと示した[4]。稼働開始は2010年、2012年に完成という工程も同時に示されている。直前の2007年6月のTOP500を見ると[5]、1位のIBM BlueGene/Lが370TFLOPS。5年後に30倍という性能を目指したことになる。当時の発表としては、世界一が取れるような計画だったが、しかし日進月歩の分野で5年は結果的に長かった。
さて、前述のように、ベクトル陣営は2009年5月に撤退を決めた。10P FLOPSの性能と決定した時には、ベクトル側も居たのに、そこがぽっかり空いた状態。10P FLOPSのあてはいつついたのだろうか? 2009年7月の報告書[6]では、スカラ単体で10P FLOPSを達成できること、ベクトル部は存在していても接続まわりの性能が不足していて問題があったことが表明されている。結果的に、なくなってよかったというトホホな内容だ。さて、同報告書では、稼働開始前の2011年6月に、ベンチマークだけでも10P FLOPSを達成してTOP500の1位を目指すと書いてある。どうしてこうなったのだろうか。
遡ること半年の2009年2月3日、米国国家核安全保障局(NNSA)はIBMと新しいスーパーコンピュータ Sequoiaを展開すると発表した[7]。性能は20P FLOPS、京の予定性能の実に2倍を達成するという発表だ。しかも、提供開始は2011年~2012年。京の1年も前になる可能性があるという。
そう、双方が計画通りなら、京は2012年、提供を開始する時には既に2位になっているという話題が出ていたのだ。なるほど、あせって2011年にベンチマークだけでも「トップを取った」という実績を残したいわけである。
さて、その後のSequoiaはというと?
ある意味計画通りだろう、2012年に提供が開始され、2012年6月のTOP500[8]では予定通り20P FLOPSを叩き出し、1位になる。しかし、2012年11月のTOP500[9]では、Crayとオークリッジ国立研究所が作ったTitanが叩き出した27P FLOPSという数字ににあっさりと抜き去られ、2位になる。まるで幽遊白書のラストのような展開だ。しかも、SequoiaはIBMのPower系アーキテクチャで構築されたA2プロセッサだったのに対して、TitanはAMD OpteronとNVIDIA K20Xの組み合わせ。汎用性でも差を開けられている。これはお手上げというものだろう。
さて、話は京に戻す。京が有名になったのは2009年11月13日の行政刷新会議、いわいる事業仕分けである(ここは参考文献は要るまい)。このときまで、そんな計画があることを知らなかった人の方が多かったのではないだろうか。どういうニュアンスで言ったかわからない、まるで日本を貶めているかのように聞こえる「2位じゃダメなんですか?」という言葉が非常にインパクトを与えたことだろう。
さて、じゃぁ何が2位なのか。だ。前述の通り、この時点ではIBMのSequoiaに追い抜かされることが見えていた。TitanはGPUの調達など細かい話が決まってきたのは2010年なので、この時点ではほとんど影がなかったはず。ということで、3位じゃなくて2位としたのは、Sequoiaを意識してのことだろう。つまり、「2位じゃダメなんですか?」というのは、1位を諦めて2位の性能で我慢するべきということではなく、客観的に見れば「2位になるのが見えているのだけど、何で1位と言ってるの?」という話になってくるのが見て取れる。蓮舫氏がそこを意識してたか知らんけど。
共同事業者が撤退し、一応強気に「大丈夫」と言ってはいるが、本当に達成できるかは周りからは疑問符が付くグダグダなプロジェクト状況、ほぼ専用設計で量産時にどういう問題が出るかわからないCPU、ソフトウェアも新規制作。税金の投入は中途半端で、産業を育成したいのか企業負担を増やしたいのかよくわからない(だから撤退する事業者が出る)。そもそもここで出来たスーパーコンピュータ、CPU抜きにしても売れるのか分からない。そりゃ、金田康正教授でなくても、京にはため息が出るというものだ。
さて、京は何を達成したのだろうか? 京は完成前ではあるもののベンチマークを実施し、見事11P FLOPSを叩き出し、2011年6月[10]と2011年11月[11]のTOP500でトップに躍り出る。この分野に日本ありと示した…かどうかはわからないが、一つの実績として言えるのは間違いない。いや、経緯のグダグダ感からして、見事なプロジェクト進行だったと称賛できる。しかし、前述の通り供用を開始した2012年9月[12]にはTOP500ではSequoiaに追い越されており、直後のTOP500ではTitanにも追い越されて3位となっていた。1位は、ベンチマークだけの存在だったと言える。
では目標の産業育成としてはどうだっただろうか。京をベースにしたスーパーコンピュータ PRIMEHPC FX10[13]やFX100は、東大[14]、名大[15]、キヤノン[16]、九大[17]、信大[18]、JAXA[19]、核融合科学研究所[20]、気象庁気象研究所と、調べるだけでも国内実績は多くある。国外実績は、台湾中央気象局[21]、シンガポールナショナルスパコンセンター、豪州 NCI、英国 HPC Walesと、それなりにある。ただどうだろう。産業としてうまくいったのだろうか。有価証券報告書を見ても、その他のセグメントに入ってしまっているため状況がつかめない[22]。謎ではある。とはいえもし、産業としてそれなりに育ったのならば、有価証券報告書で報告する事業セグメントとして独立したものを与えられてしかるべきだったのではなかろうか。少なくとも1000億も出したのだ。そのくらいではあってほしかった。更に言うなれば、特に競争の激しい国外市場をうまく取り込めたかというと、産業育成という視点では頑張ったとは思うものの心もとない結果だったように、少なくとも私には見える。
消費電力の面はどうだろうか。上述の通り、SPARCを使う理由には省電力が上げられていた。これをライバルのSequoia、Titanと比較してみよう。2012年11月のTOP500[9]で見ると、京は12.6MW消費するとある。Sequoiaは7.8MW、Titanは8.2MWだ。実はこの時の報告のあるスーパーコンピュータの中で、最大の電力消費量を誇っている。高いほうがいいのではなく、消費電力は低いほうがいいので、これはかなり問題がある。
費用面はどうだろうか。これもライバルと比較してみよう。京は日本円にして1120億円かかっている。対してSequoiaは2億5000万ドル[23]、Titanは9700万米ドル[24]だ。2012年11月で見るとドル円相場は82円なので、Sequoiaは約205億円、Titanは80億円となるだろうか。京のプロセッサ開発費を除いたとしても、数字が違いすぎるのだ。
纏めてみよう。京は、一時期でベンチマーク上だとしても、TOP500で1位を取った。これは「夢を与え」(平尾公彦氏)た結果だったろう。しかし、それは砂上の楼閣でもあった。しかしそれを実現するための費用は米国の5~10倍で、性能は実は半分、消費電力は1.5倍という結果になり、産業育成も盛り上がったかどうかは判然としない。こんなところだろうか。
近年のスーパーコンピュータを含めたHPC分野はどうなっているだろうか。近年のクラウドコンピューティングの流れを当然HPC分野も受けており、主要プレイヤーとしてAWSの名前が挙がっている[25]。またレポートでは挙がっていないものの、Google Cloudも猛追しており、円周率の計算では1位を叩き出している[26]。必要な時に、必要な規模で構築できるクラウドコンピューティングの波は、さてHPC分野でどこまで浸透していくのだろうか。産業育成の方向が、2009年時点では確かにハードウェア開発だったろう。しかし、事業仕分けへの反発により、日本は方向性を間違ってしまったのではないか。私は、そんな気がしてならない。
[1] ttps://www8.cao.go.jp/cstp/tyousakai/hyouka/kentou/super/haihu01/siryo2-3.pdf
[2] ttp://www.nec.co.jp/press/ja/0905/1402.html
[3] ttps://www.fujitsu.com/jp/about/businesspolicy/tech/k/whatis/processor/
[4] ttp://web.archive.org/web/20130207162431/https://www.riken.jp/r-world/info/release/press/2007/070914/index.html
[5] ttps://www.top500.org/lists/top500/2007/06/
[6] ttp://www.jaist.ac.jp/cmsf/meeting/14-3.pdf
[7] ttps://www.llnl.gov/news/nnsa-awards-ibm-contract-build-next-generation-supercomputer
[8] ttps://www.top500.org/lists/top500/2012/06/
[9] ttps://www.top500.org/lists/top500/2012/11/
[10] ttps://www.top500.org/lists/top500/2011/06/
[11] ttps://www.top500.org/lists/top500/2011/11/
[12] ttps://www.riken.jp/pr/news/2012/20120927/
[13] ttps://jp.reuters.com/article/idJPJAPAN-24020620111107
[14] ttps://pr.fujitsu.com/jp/news/2011/11/14.html
[15] ttps://pr.fujitsu.com/jp/news/2013/05/15.html
[16] ttps://pr.fujitsu.com/jp/news/2013/08/6.html
[17] ttps://pr.fujitsu.com/jp/news/2013/08/22.html
[18] ttps://pr.fujitsu.com/jp/news/2014/02/13.html
[19] ttps://pr.fujitsu.com/jp/news/2014/04/7.html
[20] ttps://nsrp.nifs.ac.jp/news/PS-next.html
[21] ttps://pr.fujitsu.com/jp/news/2012/06/25.html
[22] ttps://pr.fujitsu.com/jp/ir/secreports/2015/pdf/03.pdf
[23] ttps://arstechnica.com/information-technology/2012/06/with-16-petaflops-and-1-6m-cores-doe-supercomputer-is-worlds-fastest/
[24] ttps://web.archive.org/web/20120727053123/http://www.hpcwire.com/hpcwire/2011-10-11/gpus_will_morph_ornl_s_jaguar_into_20-petaflop_titan.html
[25] ttps://www.sdki.jp/reports/high-performance-computing-market/109365
[26] ttps://cloud.google.com/blog/ja/products/compute/calculating-100-trillion-digits-of-pi-on-google-cloud
件の増田に言及したいわけではなくて、言葉として「頭の回転が速い」って、なんなんだ思ってしまう。
語源というか、始まりはおそらくエンジンとかモーターとかから来てるんだろうと予測するんだけど
エンジンでもモーターでも最高回転数が高いことは性能の高さに結びつくにしろ
自分で回転数を調整できないと意味ないよね。ミニ四駆じゃないんだから。
というか脳みそが回転体だという発想が変だ。脳の中心にジャイロみたいなのがぐるんぐるん回ってるんだろう。
昔の人の「頭脳」のイメージはそういうもんなのか。今だとCPUが無音で熱を発しているイメージから
「頭の発熱量がすごいですね」になるのか。37.5度以上は帰ってください。
基本情報・応用情報試験みたいなのとか、CPUの仕組み、コンパイラの実装、分散システムやデータベースとかそういうエンジニアリングガチ勢みたいなのをイメージして大学でCSを学ぶとけっこうショックを受けるぞ。
俺の知ってるCSは、チューリングマシンの表現能力とか停止性問題とかYコンビネーターとかチャーチ数とかの世界で、コンパイラといってもε-CLOSUREみたいな話をじっくりやる感じ。
具体的な話が全然出てこない数学の一ジャンルってイメージかもな。
競技プログラミングみたいなアルゴリズムもそれほど時間をかけない。ベイズ推定をギリやるかどうか。
そういう知ればすぐ身につくものよりも、めちゃくちゃ考えて濃厚なパラダイムを時間をかけて吸収するような学問だった。
で、そんなCSを学んで直接役に立つのは多くの人の場合計算量のオーダーとかくらいかも。
モナドみたいな概念に抵抗なくなるとか、ラムダ式の意味を深く理解できるというのもあるけど、それSIとかWebやスマホアプリの開発業務で必要かというとね。
賢い人は、ちゃんとSNSのユーザー同士の関係性とかレコメンデーションみたいのにもCSの知識を応用できると思うけど、一般人は賢い人が作ったライブラリを使う側だよね。
あー,うん。そう。メモリはO(1)ね。ループでもメモリ使用量は一定って処理は珍しくないよ。CPUは,さすがにO(n)よりは減らないだろうが。
別のツリーでも,ちゃんとテストしろとか上限チェックをしろとかいう指摘が入っているけど。今回のケースなら,メモリO(1),CPU O(n)なら,あえてそのままにする,という選択肢もあったと思う。
まず,検索結果なので,検索先の全数(DBの全レコード数)を超えることはないので,全部を表示されてもDoS攻撃にはならない,という前提があるとする。で将来的に,表示数を50とか100とかを選べるように仕様変更されるかもしれないので,上限はつけない方が変更に強くなるかもしれない。なにより,検索結果をみるときに,20とかで区切らずに全部見せろよ,ということ多いよね? そういう用途に,知ってる人だけつかえる裏技としてURLにn=9999とか書く方法を残しておくのは,まあ悪い選択ではないと思う。