はてなキーワード: 陣営とは
・大元が極端な対立構造を作り上げてることで、周りが勝手に暴走する
・お互いが反対意見のやつは〇〇だからと言い合う(〇〇にはどちらにも当てはまる事象が入る)
・ちょっとでも自分側に否定的な意見を見かけたら、反対側の信者認定をしだす(ゼロイチ思考でしか物を語れない)
・自称中立の人間が出てきて、一方に利する発言を行う(本当に中立な人の意見は↑のように信者認定されて軽く扱われるか完全に埋もれてしまう)
・大半の人にとって全面的に味方できる陣営が存在しないので、局所的にしか盛り上がっていかない
昔ははてなブログ?で色々あったみたいですけど、今ははてブとアノニマスダイアリーが熱いと聞きました
僕も混ざりたいと思ってます。アノニマスダイアリーは大体わかったんですが、はてぶのほうがよくわかりません。
憎しみドリブンマーケティングに絡め取られたら、二度と元の自分には戻れない。ただ有りもしない「陣営」に肩入れし、次の代理戦争を待つ不穏分子に成り下がるだけだ。果たしてそれが増田や家族の幸せに寄与するだろうか。
我々にできることは、運動・瞑想・野菜・睡眠を十分に摂り、自分の生活や家族の未来にフォーカスを合わせることだけだ。
恐ろしい、恐ろしい。
https://b.hatena.ne.jp/entry/s/togetter.com/li/1983333
これ見て思いつきでブコメしてる人多いからちゃんとまとめておく
ファミコンより前まで遡ってもいいけど面倒なのでファミコンからスタート
ファミコンは B A の順番
Aで決定、が多かったように思うがSTARTの方が多かったかも?
スーファミも B Aの順番で、Y Xが増えた
これも決定はAを使う
メガドラ2になってX Y Zが増えたが、基本的にはA B Cを使う
いや、Aでも決定できたような気はするけど基本的にCを使ってた
なので一番右側のボタンで決定というのはスーファミと変わらなかった
プレステはご存じの通り□ △ × 〇
NINTENDO 64は・・・BとAが左側で縦並び、Cが4つで右側に配置
あんまり遊んでないから記憶が定かじゃないが、決定はAを使うことが多かったように思う
ただ、このコントローラーのアナログスティックは使ってみると非常に使い勝手がよくてみんな真似した
プレステはDUAL SHOCKで実装、セガもマルコンで実装した
ニュースを騒がせている中祐二という天才が作ったナイツっていうゲームに付いてくるのがマルコンなので覚えておくように
ただ確かこの辺から海外でかなり広まってきて、×ボタン決定の話を聞いたような気がする
続いて湯川専務のドリームキャストだが、なんと上段「X Y」下段「A B」の配置に変更
つまり伝統的に使われていた決定のCボタンが無くなり、4ボタン制に以降した
マルコンを踏襲してはいたが真ん中に拡張パッドがあったりケーブルが下から出ていたりして今でも最強のコントローラーだと思っている
とはいえ、Cボタンが無くなったために決定ボタンはAボタンに変わった
つまりは左下が決定になった
ただPS2の登場で勝てる要素が全く無く、セガは退場することに
さて、セガ退場から約3年後に発売されて全然売れなかったのが初代XBOX
ボタンの並びはドリームキャストと同じ「X Y」「A B」の並び
当然Aが決定なので左下決定ボタン
セガの社員が引き抜かれたんじゃないかな?と思っているが真偽を知る人はいるだろうか
コントローラーは・・・形容しがたいが・・・でっかいAボタンの左下にB、右にXで上にY
決定はAだった、と思うがこれもバイオハザードぐらいしか遊んでないから覚えてない(誰か情報求む)
プレステ3は初代と同じ
XBOX 360も同じ
任天堂はWiiを出して、またしても形容しがたいが、十字キーの下にA、一番したに1と2、トリガーが付いてるような形
当然決定はA
このあたりで海外ではXBOXが売れてきた&米国では×がチェックの意味になるから×が決定になりつつあって
プレステ4は初代と同じ
XBOX Oneも初代と同じ
変えるのはいいんだ!PS4のときだけキーコンフィグさせてくれ!アホ!
XBOXは同じ
Nintendo Switchも、まぁ同じ
64のときにAを左下にしたからセガがドリームキャストであの形になったと思っていて
ってなったのにゲームキューブでは明後日の方向に向かいやがった
しかも、その辺を踏まえてXBOXコントローラーが出来たと(勝手に)思ってるから
ニューヨーク・ポストはタブロイドだから信用できないとして、アメリカ政治の門外漢のTwitter投稿も同様に信頼できないぜ。もちろんこの増田もだ!(参照元のリンク記事もチェックしてね)
批判対象: https://twinotes.com/th/1598940004906332161
ブクマ: https://b.hatena.ne.jp/entry/s/twinotes.com/th/1598940004906332161
まずバイデン大統領候補(当時)の不正疑惑について報じた2020年10月14日のニューヨーク・ポストの記事は、事実に関してのみ言えばフェイクではなかった。
共和党の奴らが適切なデータ保全をしていなかったので、「ノートPCは本物でも、中のデータは改竄されてるかも」と、最近まで異論があったけど
2022年11月にCBSニュースが、ノートPC流出元の修理店から直接提供受けたデータをフォレンジック調査したところ、バイデン息子由来のデータであって改竄の痕跡はなかったという結果がでている。
https://www.cbsnews.com/news/hunter-biden-laptop-data-analysis/
おまいう。「今は検証されてるけれど、当時はめっちゃ怪しかったから仕方ない」という主張ならまだわかるんよ。ニューヨーク・ポストが十分な裏取りしてなかったことは事実で、ある意味投機に勝っただけだしな。
「バイデンを応援していたメディアが、フェイク認定の基準を著しく下げたのでは」という疑問を持たせないために誤魔化しているとしか見えない。
誤解を避けるために補足すると、
「バイデンが副大統領だったオバマ政権時代に、ウクライナの天然ガス企業に勤めていたバイデン息子を汚職捜査から守るために、ウクライナへ政治的圧力を掛けて検察総長を解任させた」
というトランプらが主張している「バイデン-ウクライナ陰謀論」はニューヨーク・ポストの記事では全く証明できない。
陰謀論の出どころから話すと、「ウクライナ政策を担当していたバイデン」「腐敗疑惑あるウクライナ天然ガス企業で、高給もらってたバイデン息子(コカイン中毒)」が同時に存在していたという事実があった。
当然、利益相反があったのではと疑われるわけだが、バイデンは「息子と海外ビジネスについて話したことはない」と否定したのね。
にも関わらず、ニューヨーク・ポストは、バイデン息子のノートPCから「バイデンとのアポ取ってくれてありがとう」という天然ガス企業幹部のメールを発見した。要は「やっぱ利益相反あるじゃないか怪しいぞ」ってことだ。
しかし、陰謀論を証明するための真のミッシングピースは「検察総長はバイデン息子を捜査していた」とか「検察総長解任圧力はバイデン個人の意向だった」といった証拠だ。これらはノートPCから出てこなかった。
(さらに補足、バイデンがウクライナ検察総長解任を自分の功績として話していたのは事実、ただし米政府の意向だったとされる。)
結局、トランプ陣営が頑張っても決定的な証拠が得られなかったから、精一杯疑惑は深まっ太郎した、それだけの記事に過ぎない。
このイーロン・マスクが紹介する連続ツイートTwitter File 1回目の最も大きな論点は「New York Postの怪しいバイデン誹謗記事の拡散をTwitterが止めた」ことです。
まず鼻につくのはFacebookよりTwitterの方がよほどクソムーブしてるのに、一緒くたにしているところ。
Facebookはアルゴリズムが記事を拡散するのを止めた。TwitterはツイートやDMでリンクすることを全面的に禁じ、禁止される前にツイートしたアカウント(ホワイトハウス報道官含む)は凍結した。
FacebookがやってるからTwitterも問題ないってなるわけないじゃないか、やってることが違うんだから。雑過ぎる。
また、その制限についてのTwitterが口実にしたのは「ハッキングされた素材の配布に関するポリシー 」だ。「偽情報の疑いが濃いから」ではない。
このように別件で対応することを容認するのは手続き論を軽視しているし、このポリシー自体もまともに解釈するならば報道の自由が大きく制約されてしまうものである。パナマ文書を報じたらBANするのか?恣意的な運用以外ありえないものであった。
なおこの騒動の直後、2020年10月には「さまざまな機関やリーダーの責任を問う、報道機関による重要な報道の根拠となる場合」は例外という条項が追加されている。
メディアの報道を見ても、星氏ほど2020年のTwitterの対応に全肯定的なのは知らない。
ワシントンポスト編集委員会「出版社もプラットフォームも消極的であることには理由があった。(中略)2016年から得た教訓は、政治的なキャンペーンが盛り上がる中、疑わしいネタを脇に置く側に回ることだったのは明らかだ。2020年からの教訓は、正確で関連性のある記事を抑制する危険性があることかもしれない。」
https://www.washingtonpost.com/opinions/2022/04/03/hunter-biden-story-is-an-opportunity-reckoning/
The Atlantic 誌 By Kaitlyn Tiffany
「政治的な意味を持つ本物のニュースからアメリカ人を遠ざけるために「共謀」したという印象だけが、主に右派の人々に残された。(中略)Facebook と Twitter は本当にずさんな決定を下した。」
「(事実に基づく話を規制したことを後悔しているかとBBCニュースに問われて)最低だ…刑事裁判を受けて無実が証明されるのと同じように最低だと思う」
https://www.bbc.com/news/world-us-canada-62688532
基本的に星氏の批判って、Twitter Files 固有の情報がまるで少ない。
「Twitter Files を鵜呑みにするな」という言葉には増田も同意するんだけど
それは「削除依頼システムは民主党に偏っていた」に根拠となる統計データが示されてないことや、
大言壮語して始まった割に、全体を通して特に驚くような話は今のところ出てきてないことあたりで
星氏がそこに言及しないのは解せない。英語メディアはちゃんとここ批判してるよ。
また、 Twitter Files には
「ニューヨーク・ポストが仮に極右だろうが、大統領候補に関する資料の配布を制限すべきでない。憲法修正第1条とニューヨーク・タイムズ対サリヴァン事件判決の原則に反している」
ヤマト2199とかガンダムの新しめのシリーズとか見てて不思議に思ったんだけど、
あれ軍隊の体をなしてなくない?
戦闘訓練とか演習とか全然しねーし、なんなら勝手に持ち場離れて戦闘機持ち出してたりとか。
昔のシリーズなら描けてたかと聞かれるとちょっと微妙だが、昨今のは学生のノリで戦艦乗ってる感がキツくてげっそりする。
ゲートなんかは原作者が原作者だから軍隊は割とリアリティがあったけど、まあ展開が軍人の願望てんこ盛り過ぎてアレになってたから作品全体としては微妙になってしまってたが、まとも(っぽく感じる)軍隊像が描けてるのあれくらいしかない気がする。
2009年11月のいわいる事業仕分けから、もう13年も経った。「2位じゃダメなんですか?」の質問の発言で非常に曰く付きとなったアレだ。
ところが最近、13年も経ってまだなおナゼ「2位」という言葉が出てきたかが理解できてない人がかなりいる事を知った。それどころか、スーパーコンピュータの京は、事業仕分け時点で世界一になることが明白だったなどという認識まで飛び出す始末である。
ただ、資料もなしにどこが変だと言っても仕方あるまい。何がどうして「2位」なのか、少し語ろうじゃないか。
初期の次世代スーパーコンピュータ (この時点では名前が付いていなかったが、以下わかりやすく京と呼ぶ) 計画 は、補助金を投入してのHPC産業育成に目を向けられていた[1]。世界一の性能を出していた海洋研究開発機構の地球シミュレータが、NECのSXシリーズをベースにしたベクトル型であり、ベクトル型のスーパーコンピュータは日本のお家芸とみなされていた。これを育成することが一つの目標。そして、立ち遅れていた当時の世界のスーパーコンピュータの潮流、スカラ型の開発に追いつくこと。これがもう一つの目標となった。結果、世界でも類を見ないベクトル型とスカラ型のハイブリットなどという中途半端な方式になる。実に日本的な玉虫色の決定と言えるだろう。しかし、補助金の注ぎ込みが不足し、事業者持ち出しの負担が大きくなってしまった。結果、事業費負担が高額になることを嫌い、NECと日立の撤退する[2]。これにより、世界の潮流通りのスカラ型とならざるをえなくなった。
CPUはというと、世界のスーパーコンピュータの潮流では当時から既に汎用のx86アーキテクチャのCPUが既に多くなってきていた中、富士通はSPARC64VIIIfxを採用した。よく国産CPUと表現されているが、SPARCの名で分かる通り、当然命令セットは米国Sun Microsystems (現 Oracle) のセカンドソースであり、端から端まで国産というわけではない。更に、業務用UNIXをささえるマシンとして一世を風靡したSPARCではあるが、当時ですらもう下火となっていた。京の事業費の約半分、実に600億円が、この専用CPUに注ぎ込まれることになった。なぜその選択をしたのか。富士通のサイトには省電力と安定性が理由として書かれている[3]。しかし、その省電力という目標も、後述するように微妙な結果となってしまった。また、ソフトウェアの使いまわしも微妙となった。
計画は2005年に始まる。世界でも類を見ないベクトル型とスカラ型のハイブリットという構成もあり、概念設計にはしっかり時間を費やした。2007年9月には性能目標は10P FLOPSと示した[4]。稼働開始は2010年、2012年に完成という工程も同時に示されている。直前の2007年6月のTOP500を見ると[5]、1位のIBM BlueGene/Lが370TFLOPS。5年後に30倍という性能を目指したことになる。当時の発表としては、世界一が取れるような計画だったが、しかし日進月歩の分野で5年は結果的に長かった。
さて、前述のように、ベクトル陣営は2009年5月に撤退を決めた。10P FLOPSの性能と決定した時には、ベクトル側も居たのに、そこがぽっかり空いた状態。10P FLOPSのあてはいつついたのだろうか? 2009年7月の報告書[6]では、スカラ単体で10P FLOPSを達成できること、ベクトル部は存在していても接続まわりの性能が不足していて問題があったことが表明されている。結果的に、なくなってよかったというトホホな内容だ。さて、同報告書では、稼働開始前の2011年6月に、ベンチマークだけでも10P FLOPSを達成してTOP500の1位を目指すと書いてある。どうしてこうなったのだろうか。
遡ること半年の2009年2月3日、米国国家核安全保障局(NNSA)はIBMと新しいスーパーコンピュータ Sequoiaを展開すると発表した[7]。性能は20P FLOPS、京の予定性能の実に2倍を達成するという発表だ。しかも、提供開始は2011年~2012年。京の1年も前になる可能性があるという。
そう、双方が計画通りなら、京は2012年、提供を開始する時には既に2位になっているという話題が出ていたのだ。なるほど、あせって2011年にベンチマークだけでも「トップを取った」という実績を残したいわけである。
さて、その後のSequoiaはというと?
ある意味計画通りだろう、2012年に提供が開始され、2012年6月のTOP500[8]では予定通り20P FLOPSを叩き出し、1位になる。しかし、2012年11月のTOP500[9]では、Crayとオークリッジ国立研究所が作ったTitanが叩き出した27P FLOPSという数字ににあっさりと抜き去られ、2位になる。まるで幽遊白書のラストのような展開だ。しかも、SequoiaはIBMのPower系アーキテクチャで構築されたA2プロセッサだったのに対して、TitanはAMD OpteronとNVIDIA K20Xの組み合わせ。汎用性でも差を開けられている。これはお手上げというものだろう。
さて、話は京に戻す。京が有名になったのは2009年11月13日の行政刷新会議、いわいる事業仕分けである(ここは参考文献は要るまい)。このときまで、そんな計画があることを知らなかった人の方が多かったのではないだろうか。どういうニュアンスで言ったかわからない、まるで日本を貶めているかのように聞こえる「2位じゃダメなんですか?」という言葉が非常にインパクトを与えたことだろう。
さて、じゃぁ何が2位なのか。だ。前述の通り、この時点ではIBMのSequoiaに追い抜かされることが見えていた。TitanはGPUの調達など細かい話が決まってきたのは2010年なので、この時点ではほとんど影がなかったはず。ということで、3位じゃなくて2位としたのは、Sequoiaを意識してのことだろう。つまり、「2位じゃダメなんですか?」というのは、1位を諦めて2位の性能で我慢するべきということではなく、客観的に見れば「2位になるのが見えているのだけど、何で1位と言ってるの?」という話になってくるのが見て取れる。蓮舫氏がそこを意識してたか知らんけど。
共同事業者が撤退し、一応強気に「大丈夫」と言ってはいるが、本当に達成できるかは周りからは疑問符が付くグダグダなプロジェクト状況、ほぼ専用設計で量産時にどういう問題が出るかわからないCPU、ソフトウェアも新規制作。税金の投入は中途半端で、産業を育成したいのか企業負担を増やしたいのかよくわからない(だから撤退する事業者が出る)。そもそもここで出来たスーパーコンピュータ、CPU抜きにしても売れるのか分からない。そりゃ、金田康正教授でなくても、京にはため息が出るというものだ。
さて、京は何を達成したのだろうか? 京は完成前ではあるもののベンチマークを実施し、見事11P FLOPSを叩き出し、2011年6月[10]と2011年11月[11]のTOP500でトップに躍り出る。この分野に日本ありと示した…かどうかはわからないが、一つの実績として言えるのは間違いない。いや、経緯のグダグダ感からして、見事なプロジェクト進行だったと称賛できる。しかし、前述の通り供用を開始した2012年9月[12]にはTOP500ではSequoiaに追い越されており、直後のTOP500ではTitanにも追い越されて3位となっていた。1位は、ベンチマークだけの存在だったと言える。
では目標の産業育成としてはどうだっただろうか。京をベースにしたスーパーコンピュータ PRIMEHPC FX10[13]やFX100は、東大[14]、名大[15]、キヤノン[16]、九大[17]、信大[18]、JAXA[19]、核融合科学研究所[20]、気象庁気象研究所と、調べるだけでも国内実績は多くある。国外実績は、台湾中央気象局[21]、シンガポールナショナルスパコンセンター、豪州 NCI、英国 HPC Walesと、それなりにある。ただどうだろう。産業としてうまくいったのだろうか。有価証券報告書を見ても、その他のセグメントに入ってしまっているため状況がつかめない[22]。謎ではある。とはいえもし、産業としてそれなりに育ったのならば、有価証券報告書で報告する事業セグメントとして独立したものを与えられてしかるべきだったのではなかろうか。少なくとも1000億も出したのだ。そのくらいではあってほしかった。更に言うなれば、特に競争の激しい国外市場をうまく取り込めたかというと、産業育成という視点では頑張ったとは思うものの心もとない結果だったように、少なくとも私には見える。
消費電力の面はどうだろうか。上述の通り、SPARCを使う理由には省電力が上げられていた。これをライバルのSequoia、Titanと比較してみよう。2012年11月のTOP500[9]で見ると、京は12.6MW消費するとある。Sequoiaは7.8MW、Titanは8.2MWだ。実はこの時の報告のあるスーパーコンピュータの中で、最大の電力消費量を誇っている。高いほうがいいのではなく、消費電力は低いほうがいいので、これはかなり問題がある。
費用面はどうだろうか。これもライバルと比較してみよう。京は日本円にして1120億円かかっている。対してSequoiaは2億5000万ドル[23]、Titanは9700万米ドル[24]だ。2012年11月で見るとドル円相場は82円なので、Sequoiaは約205億円、Titanは80億円となるだろうか。京のプロセッサ開発費を除いたとしても、数字が違いすぎるのだ。
纏めてみよう。京は、一時期でベンチマーク上だとしても、TOP500で1位を取った。これは「夢を与え」(平尾公彦氏)た結果だったろう。しかし、それは砂上の楼閣でもあった。しかしそれを実現するための費用は米国の5~10倍で、性能は実は半分、消費電力は1.5倍という結果になり、産業育成も盛り上がったかどうかは判然としない。こんなところだろうか。
近年のスーパーコンピュータを含めたHPC分野はどうなっているだろうか。近年のクラウドコンピューティングの流れを当然HPC分野も受けており、主要プレイヤーとしてAWSの名前が挙がっている[25]。またレポートでは挙がっていないものの、Google Cloudも猛追しており、円周率の計算では1位を叩き出している[26]。必要な時に、必要な規模で構築できるクラウドコンピューティングの波は、さてHPC分野でどこまで浸透していくのだろうか。産業育成の方向が、2009年時点では確かにハードウェア開発だったろう。しかし、事業仕分けへの反発により、日本は方向性を間違ってしまったのではないか。私は、そんな気がしてならない。
[1] ttps://www8.cao.go.jp/cstp/tyousakai/hyouka/kentou/super/haihu01/siryo2-3.pdf
[2] ttp://www.nec.co.jp/press/ja/0905/1402.html
[3] ttps://www.fujitsu.com/jp/about/businesspolicy/tech/k/whatis/processor/
[4] ttp://web.archive.org/web/20130207162431/https://www.riken.jp/r-world/info/release/press/2007/070914/index.html
[5] ttps://www.top500.org/lists/top500/2007/06/
[6] ttp://www.jaist.ac.jp/cmsf/meeting/14-3.pdf
[7] ttps://www.llnl.gov/news/nnsa-awards-ibm-contract-build-next-generation-supercomputer
[8] ttps://www.top500.org/lists/top500/2012/06/
[9] ttps://www.top500.org/lists/top500/2012/11/
[10] ttps://www.top500.org/lists/top500/2011/06/
[11] ttps://www.top500.org/lists/top500/2011/11/
[12] ttps://www.riken.jp/pr/news/2012/20120927/
[13] ttps://jp.reuters.com/article/idJPJAPAN-24020620111107
[14] ttps://pr.fujitsu.com/jp/news/2011/11/14.html
[15] ttps://pr.fujitsu.com/jp/news/2013/05/15.html
[16] ttps://pr.fujitsu.com/jp/news/2013/08/6.html
[17] ttps://pr.fujitsu.com/jp/news/2013/08/22.html
[18] ttps://pr.fujitsu.com/jp/news/2014/02/13.html
[19] ttps://pr.fujitsu.com/jp/news/2014/04/7.html
[20] ttps://nsrp.nifs.ac.jp/news/PS-next.html
[21] ttps://pr.fujitsu.com/jp/news/2012/06/25.html
[22] ttps://pr.fujitsu.com/jp/ir/secreports/2015/pdf/03.pdf
[23] ttps://arstechnica.com/information-technology/2012/06/with-16-petaflops-and-1-6m-cores-doe-supercomputer-is-worlds-fastest/
[24] ttps://web.archive.org/web/20120727053123/http://www.hpcwire.com/hpcwire/2011-10-11/gpus_will_morph_ornl_s_jaguar_into_20-petaflop_titan.html
[25] ttps://www.sdki.jp/reports/high-performance-computing-market/109365
[26] ttps://cloud.google.com/blog/ja/products/compute/calculating-100-trillion-digits-of-pi-on-google-cloud