はてなキーワード: コンピューティングとは
決定木は、質問を使って答えを見つけるゲームのようなものです。木の形をした図を使って、質問と答えを整理します。例えば、「今日は外で遊べるかな?」という大きな質問から始めます。
まず「雨が降っていますか?」と聞きます。「はい」なら「家で遊ぼう」、「いいえ」なら次の質問に進みます。次に「宿題は終わっていますか?」と聞きます。「はい」なら「外で遊ぼう」、「いいえ」なら「宿題をしてから遊ぼう」となります。
このように、質問を重ねていくことで、最終的な答えにたどり着きます。決定木は、こうした「もし〜なら」という考え方を使って、物事を順序立てて考えるのに役立ちます。
決定木は、機械学習における重要な分類・回帰アルゴリズムの一つです。データを特定の特徴に基づいて分割し、ツリー構造を形成することで、新しいデータの分類や予測を行います。
4. 枝:各ノードを結ぶ線、条件を表す
2. その特徴に基づいてデータを分割
3. 各サブセットに対して1と2を再帰的に繰り返す
4. 停止条件(深さ制限や最小サンプル数など)に達したら終了
決定木の利点は、解釈が容易で直感的であること、非線形の関係性も捉えられること、特徴量の重要度を評価できることなどです。一方で、過学習しやすい傾向があり、小さなデータの変化に敏感に反応する欠点もあります。
決定木は、分類および回帰問題に適用可能な非パラメトリックな監督学習アルゴリズムです。特徴空間を再帰的に分割し、各分割点で最適な特徴と閾値を選択することで、データを階層的に構造化します。
決定木の構築プロセスは、以下の数学的基準に基づいて行われます:
ここで、H(S)はエントロピー、Svは分割後のサブセット、piはクラスiの確率、yiは実際の値、ŷiは予測値を表します。
1. 事前剪定(Pre-pruning):成長の早期停止
2. 事後剪定(Post-pruning):完全に成長した木を後から刈り込む
決定木の性能向上のために、アンサンブル学習手法(ランダムフォレスト、勾配ブースティング木など)と組み合わせることが一般的です。
決定木は、特徴空間の再帰的分割に基づく非パラメトリックな監督学習アルゴリズムであり、分類および回帰タスクに適用可能です。その理論的基盤は、情報理論と統計学に深く根ざしています。
決定木の構築アルゴリズムとして最も一般的なのは、CART(Classification and Regression Trees)です。CARTは以下の手順で実装されます:
決定木の拡張:
これらの高度な手法により、決定木の表現力と汎化性能が向上し、より複雑なパターンの学習が可能となります。
決定木は、特徴空間Xの再帰的分割に基づく非パラメトリックな監督学習アルゴリズムであり、その理論的基盤は統計的学習理論、情報理論、および計算学習理論に深く根ざしています。
決定木の数学的定式化:
Let D = {(x₁, y₁), ..., (xₙ, yₙ)} be the training set, where xᵢ ∈ X and yᵢ ∈ Y. The decision tree T: X → Y is defined as a hierarchical set of decision rules.
For classification: P(y|x) = Σᵢ P(y|leaf_i) * I(x ∈ leaf_i)
For regression: f(x) = Σᵢ μᵢ * I(x ∈ leaf_i) where I(·) is the indicator function, leaf_i represents the i-th leaf node.
決定木の最適化問題: min_T Σᵢ L(yᵢ, T(xᵢ)) + λ * Complexity(T) where L is the loss function, λ is the regularization parameter, and Complexity(T) is a measure of tree complexity (e.g., number of leaves).
H(Y|X) = -Σᵧ Σₓ p(x,y) log(p(y|x))
I(X;Y) = H(Y) - H(Y|X)
2. ジニ不純度:
Gini(t) = 1 - Σᵢ p(i|t)²
MSE(t) = (1/|t|) * Σᵢ (yᵢ - ȳ_t)²
1. 一致性と収束速度: 決定木の一致性は、Breiman et al. (1984)によって証明されました。収束速度はO(n^(-1/(d+2)))であり、dは特徴空間の次元です。
2. バイアス-バリアンストレードオフ:深い木は低バイアス・高バリアンス、浅い木は高バイアス・低バリアンスとなります。最適な深さは、バイアスとバリアンスのトレードオフによって決定されます。
3. 決定木の表現力:任意のブール関数は、十分に深い決定木で表現可能です。これは、決定木がユニバーサル近似器であることを意味します。
4. 計算複雑性理論:最適な決定木の構築はNP完全問題であることが知られています(Hyafil & Rivest, 1976)。そのため、実用的なアルゴリズムは貪欲な近似アプローチを採用しています。
5. 正則化と構造リスク最小化:L0正則化(葉ノード数のペナルティ)やL2正則化(葉ノードの予測値に対するペナルティ)を用いて、構造リスク最小化原理に基づいたモデル選択を行います。
6. 情報幾何学的解釈: 決定木の学習過程は、特徴空間上の確率分布の漸進的な分割と見なすことができ、情報幾何学の観点から解析可能です。
7. カーネル決定木:非線形カーネル関数を用いて特徴空間を暗黙的に高次元化し、より複雑な決定境界を学習する手法です。
8. 量子決定木:量子コンピューティングの原理を応用し、古典的な決定木を量子系に拡張した手法です。量子重ね合わせを利用して、指数関数的に多くの分岐を同時に評価できる可能性があります。
これらの高度な理論と技術を組み合わせることで、決定木アルゴリズムの性能と適用範囲を大幅に拡張し、より複雑な学習タスクに対応することが可能となります。
エッジコンピューティング市場の収益は、2023年には約841億ドルに達すると予測されている。さらに、エッジコンピューティング市場に関する弊社の洞察によると、予測期間中のCAGRは約35.18%で成長し、2036年には約31兆5,810億ドルの規模に達する見込みです。
5Gネットワークの普及に伴い、エッジコンピューティング市場は急成長している。さまざまな場所にある企業のほとんどが、クラウド・コンピューティング・プラットフォームを通じてサービスに接続している。エッジコンピューティングは5Gと6Gのインフラを活用し、コスト削減、運用の簡素化、サイバーセキュリティ対策の強化を実現する。
モノのインターネット(IoT)の台頭: モノのインターネット(IoT)の急速な普及により、中央集権型のクラウド・コンピューティングやストレージ・システムで処理されるデータは膨大な量に達している。さらに、エッジコンピューティング市場は、低遅延処理やAIの適用を必要とするユースケースの増加により成長している。
医療用センサー、スマートカメラ、産業用PC、その他のモノのインターネット(IIoT)デバイスなどのエッジデバイスの普及が、エッジコンピューティング市場の拡大を促進している。さらに、運用能力の強化や主要企業間の重要なコラボレーションに対する需要の高まりが、IIoT市場の拡大を後押ししている。エッジコンピューティング市場は、業種、コンポーネント、アプリケーションのカテゴリーに基づいて区分される。
以下のリンクからすべての情報を見るには、ここをクリックしてください:https://www.sdki.jp/reports/edge-computing-market/108966
量子力学の観測問題に関する理論は、ユニタリー宇宙論の枠組みにおいてエントロピーと観測の関係を新たな視点から捉え直したものである。
この理論では、宇宙を系、観測者、環境の3つのサブシステムに分割し、これらの相互作用を通じてエントロピーの変化を記述する。
この理論的枠組みにおいて、系のエントロピーは観測者との相互作用によってのみ減少し、環境との相互作用によってのみ増加するという一般化された熱力学第二法則が導出される。
これは、量子力学的な観測過程を熱力学的な観点から捉え直したものであり、量子測定理論と統計力学の融合を示唆している。
観測によるエントロピー減少の量子的メカニズムは、量子ベイズの定理を通じて厳密に記述される。
この定理は、量子状態の更新がフォン・ノイマンエントロピーの減少をもたらすことを数学的に示している。
具体的には、観測前の量子状態 ρ に対して、観測後の状態 ρ' のエントロピーが S(ρ') ≤ S(ρ) となることが証明される。
さらに、宇宙論的インフレーションによって生成される長距離エンタングルメントの効果により、観測されたビット数に対してエントロピーの減少が指数関数的に起こることが示されている。
これは、観測者の情報処理能力をはるかに超えてエントロピーを減少させることができることを意味し、量子情報理論と宇宙論を結びつける重要な洞察である。
この理論は、「インフレーションのエントロピー問題」に対する解決策を提供する。
インフレーションが無視できない体積で発生している限り、ほとんどすべての知的観測者が低エントロピーのハッブル体積に存在することが導かれる。
これにより、我々が低エントロピーの宇宙に存在することの謎が説明される。
この理論は、量子デコヒーレンスの概念とも密接に関連している。
デコヒーレンスは、量子系が環境と相互作用することで量子的な重ね合わせ状態が古典的な状態に移行する過程を説明するものであり、観測問題の理解に重要な役割を果たす。
この理論は、デコヒーレンスの過程をエントロピーの観点から捉え直したものと解釈することができる。
量子エンタングルメントと量子情報の関係性、特に量子測定理論における情報利得と擾乱のトレードオフなどの概念と密接に関連している。
これらの概念は、量子暗号や量子コンピューティングなどの応用分野にも重要な影響を与えている。
結論として、この理論は量子力学の観測問題に対して新たな視点を提供し、量子力学、熱力学、宇宙論、情報理論を統合する試みとして高く評価される。
この理論は、量子力学の基礎的な問題に対する理解を深めるとともに、量子情報科学や宇宙論などの関連分野にも重要な示唆を与えるものである。
正解が「数学的」に決まるところ。たとえば「1■1=2 のときに ■を答えなさい」というときに競プロは■を答えるだろうし、それを早く答えて悦に入るだろう。
それもいいけど、いちど数学的に答えが決まっちゃう問題はライブラリにまとめられて、一般的なコーダはなにも考えなくてもインポートして処理できちゃうわけ。上の例えだとふつーのプログラマなら「枯れたライブラリをインポートして、正しく答えが出ると確信できるなら『答えは正しいとか考えなくても』それを使って対処する」ので、データの振る舞いとか気にしないで済む。たとえば SQL なんて、実行時計画という「アルゴリズムを常に指定するなら不要な」話題があるのだけど、データ量によって適切なアルゴリズムが変化するから仕方ないし、概ね RDB は賢いのでヒューマンが考慮するのは問題がある場合だけなのだ。よって、競技プログラマが生産性を確実に上げるという根拠はない。
もちろん、アルゴリズム知識を身につけるのは大切だし、クヌース先生も書いてたけど分散処理アルゴリズムはフロンテイアだろうよ。というか、暗号分野やセキュリティの領域や、条件が過酷な場合(宇宙線の影響下とか、メモリの少ないエッジコンピューティングとか)だと、アルゴリズムの研究や追求は大切なのは今も同じだ。でも、競技プログラマが新規にアルゴリズムを開発したり、セキュリティに向上したという話は聞いたことがないが、レッドコーダー諸君は自前で創造して使われた実績はあるのだろうか?
ついでに聞いてみたいのだが、競技プログラマたちは「マルチスレッドなコードで早く書こうとしないのはなぜ?」「そもそも、競技プログラミングで使うコードは便利なスニペッツがあるけどそれってチートでは?」「ときどき正規表現で解く問題があるけど、そのときの計算量は無視してない?」という矛盾を抱えているのてはないか?と思うのだが如何か。
究極的には競技プログラミングに必要な知識というのは、産業用途で要求される知識の一部でしかないのが問題なんだと思うよ。ほら、アレだよ、むかし話題になった「数学だけデキる人向けの東工入試をやったら、英語ができなくて卒業できなかった」という童話に近いんだよ。競技プログラムってインとアウトしか見てないブラックボックステストだから、ここだけしか計算機科学の知識が無いというヤバ人材の育成しかなってないのだろうな。
Research Nester は、EHR システムの導入の増加と医療費削減のための CAC ソリューションの利用増加により、世界的なコンピューター支援コーディング ソフトウェア市場の成長と市場規模が拡大すると予想されています。
ニューヨーク – 2024 年 2 月 1 日 – Research Nester の最近の市場調査分析「コンピューター支援コーディング ソフトウェア市場: 世界的な需要分析と機会展望 2036」では、製品、展開、サービス、エンド ユーザー、地域別の市場区分の観点から、詳細な競合他社分析とコンピューター支援コーディング ソフトウェア市場の詳細な概要が提供されています。
市場レポートのサンプルをリクエストする@ https://www.researchnester.jp/sample-request-5622
クラウドベースのソリューションの採用増加により、コンピューター支援コーディング ソフトウェア市場の世界市場シェアが拡大
コンピューター支援コーディング ソフトウェア市場は、クラウドベースのソリューションの採用増加に対する需要の高まりにより、大幅に成長すると予測されています。クラウド コンピューティングの利用増加に伴い、クラウドベースのコンピューター支援コーディング ソフトウェアの需要が高まっています。医療部門の約 83.1% が現在、コア業務にクラウドを利用していると考えられています。これらのソリューションは、ユーザーに高い拡張性、柔軟性、アクセシビリティを提供します。これ以外にも、医療分野の進歩も予測期間中に市場の成長を後押しすると予測されています。
コンピューター支援コーディング ソフトウェア市場の成長に関連する主要な成長要因と課題の一部は次のとおりです。
成長の原動力:
課題:
コンピューター支援コーディング ソフトウェアの法外なコストと、システムに対する熟練した労働力の不足は、コンピューター支援コーディング ソフトウェア市場の世界的な市場規模を阻害すると予想される主要な要因の一部です。
エンドユーザー別に見ると、コンピューター支援コーディングソフトウェア市場調査は、病院、臨床検査室、診断センターに分かれています。このうち、病院部門は予測期間中に約43%で最大のシェアを占めると予想されています。2021年には、世界中に約165,100の病院が存在し、市場に有利な機会を提供すると予測されています。地域別に見ると、ヨーロッパのコンピューター支援コーディングソフトウェア市場は、2036年末までに最高の収益を生み出すと予想されています。コンピューター支援コーディングソフトウェア市場は、医療への多額の投資を背景に、著しい成長を遂げると予想されています。2020年には、欧州連合のGDPの約10.8%が医療に割り当てられました。
このレポートでは、Oracle、CoxHealth、Cerner Corporation、Dolbey Systems Inc、Optum Inc.、富士通、NEC Corporation、アステラス製薬株式会社、大塚ホールディングス株式会社、NTTデータグループ株式会社などの企業プロファイリングを含む、コンピュータ支援コーディングソフトウェア市場の主要企業の現在の競争状況も提供しています。
このレポートについて業界の専門家に問い合わせる@ https://www.researchnester.jp/reports/computer-assisted-coding-market/5622
リサーチ・ネスターは、戦略的な市場調査とコンサルティングの大手サービスプロバイダーです。私たちは、公平で比類のない市場洞察と業界調査を提供し、業界、コングロマリット、エグゼクティブが将来のマーケティング戦略、拡大、投資などについて賢明な決定を下せるようにすることを目指しています。私たちは、戦略的な考え方を通じて適切なタイミングで適切なガイダンスが利用可能であれば、すべてのビジネスが新しい地平線に拡大できると信じています。私たちの独創的な考え方は、クライアントが将来の不確実性を回避するために賢明な決定を下すのに役立ちます。
お 問い合わせ
小杉直美
電話番号: [+81 505 050 8480]
「ML失敗増田」という特定の人物についての情報は私の知識にはありません。その名前が実在する人なのか、あるいはネット上やコミュニティで使われているスラングなのかも不明です。
一般的に「ML」は機械学習(Machine Learning)を指します。機械学習ではデータを使ってモデルを訓練し、そのモデルを使って予測や分類を行います。しかし、機械学習プロジェクトには様々な失敗の可能性が伴います。例えば:
トレーニングデータにフィットしすぎて、未知のデータに対して良いパフォーマンスを発揮できない。
もし「ML失敗増田」という言葉が特定の文脈や事例に関連しているなら、その具体的な背景がわからないと更に詳しい情報や理解が得られないかもしれません。具体的な事例や文脈についてもう少し情報があれば、より詳しい説明やアドバイスができるかもしれません。
私は以前、AGIへの短期的なタイムラインには懐疑的だった。その理由のひとつは、この10年を優遇し、AGI確率の質量を集中させるのは不合理に思えたからである(「我々は特別だ」と考えるのは古典的な誤謬のように思えた)。私は、AGIを手に入れるために何が必要なのかについて不確実であるべきであり、その結果、AGIを手に入れる可能性のある時期について、もっと「しみじみとした」確率分布になるはずだと考えた。
しかし、私は考えを変えました。決定的に重要なのは、AGIを得るために何が必要かという不確実性は、年単位ではなく、OOM(有効計算量)単位であるべきだということです。
私たちはこの10年でOOMsを駆け抜けようとしている。かつての全盛期でさえ、ムーアの法則は1~1.5OOM/10年に過ぎなかった。私の予想では、4年で~5OOM、10年で~10OOMを超えるだろう。
https://situational-awareness.ai/wp-content/uploads/2024/06/this_decade_or_bust-1200x925.png
要するに、私たちはこの10年で1回限りの利益を得るための大規模なスケールアップの真っ只中にいるのであり、OOMsを通過する進歩はその後何倍も遅くなるだろう。もしこのスケールアップが今後5~10年でAGIに到達できなければ、AGIはまだまだ先の話になるかもしれない。
つまり、今後10年間で、その後数十年間よりも多くのOOMを経験することになる。それで十分かもしれないし、すぐにAGIが実現するかもしれない。AGIを達成するのがどれほど難しいかによって、AGI達成までの時間の中央値について、あなたと私の意見が食い違うのは当然です。しかし、私たちが今どのようにOOMを駆け抜けているかを考えると、あなたのAGI達成のモーダル・イヤーは、この10年かそこらの後半になるはずです。
マシュー・バーネット(Matthew Barnett)氏は、計算機と生物学的境界だけを考慮した、これに関連する素晴らしい視覚化を行っている。
これはおそらく3つの中で最も簡単な方法だ。現在のChatGPTは、基本的に、テキストを入力できる孤立した箱の中に座っている人間のようなものだ。初期のアンホブリング改良では、個々の孤立したツールの使い方をモデルに教えていましたが、マルチモーダルモデルでは、近いうちにこれを一挙にできるようになると期待しています。
つまり、Zoomでの通話に参加したり、オンラインで調べ物をしたり、メッセージや電子メールを送ったり、共有されたドキュメントを読んだり、アプリや開発ツールを使ったりといったことだ。(もちろん、より長いホライゾン・ループでモデルがこれを最大限に活用するためには、テスト時間のコンピューティングをアンロックする必要がある。)
最終的には、ドロップイン・リモートワーカーのようなものができると期待している。エージェントは、あなたの会社に入社し、新しい人間の雇用のようにオンボードされ、Slackであなたや同僚にメッセージを送り、あなたのソフトウェアを使用し、プルリクエストを行い、大きなプロジェクトがあれば、人間が独立してプロジェクトを完了するために数週間留守にするのと同等のことができる。これを実現するためには、GPT-4よりもいくらか優れたベースモデルが必要だろうが、おそらくそれほどでもないだろう。
https://situational-awareness.ai/wp-content/uploads/2024/06/devin.gif
Devinは、完全に自動化されたソフトウェア・エンジニアを作るために、モデル上の「エージェンシー・オーバーハング」/「テストタイム・コンピューティング・オーバハング」を解除する初期のプロトタイプだ。Devinが実際にどの程度機能するかはわからないし、このデモは、適切なチャットボット→エージェントのアンホブリングがもたらすものに比べれば、まだ非常に限定的なものだが、近々登場するもののティーザーとしては役に立つだろう。
ところで、私は、アンホブリングの中心性が、商業的応用という点で、少々興味深い「ソニックブーム」効果につながると期待している。現在とドロップイン・リモートワーカーの中間モデルは、ワークフローを変更し、統合して経済的価値を引き出すためのインフラを構築するために、膨大な手間を必要とする。ドロップイン・リモートワーカーは、統合が劇的に簡単になる。つまり、リモートでできるすべての仕事を自動化するために、ドロップインするだけでいいのだ。つまり、ドロップイン・リモートワーカーが多くの仕事を自動化できるようになる頃には、中間モデルはまだ完全に活用され統合されていないため、生み出される経済価値のジャンプはやや不連続になる可能性がある。
https://situational-awareness.ai/wp-content/uploads/2024/06/overview_ooms_gpt2togpt4.png
https://situational-awareness.ai/wp-content/uploads/2024/06/overview_ooms_2023to2027.png
数字をまとめると、GPT-4に続く4年間で、2027年末までにGPT-2からGPT-4規模のジャンプが再び起こると(おおよそ)予想される。
GPT-4のトレーニングに3ヶ月かかったとしよう。2027年には、一流のAIラボはGPT-4レベルのモデルを1分で訓練できるようになるだろう。OOMの効果的なコンピュート・スケールアップは劇的なものになるだろう。
それは我々をどこへ連れて行くのだろうか?
https://situational-awareness.ai/wp-content/uploads/2024/06/overview_counting_the_ooms.png
GPT-2からGPT-4までで、私たちは~未就学児から~賢い高校生になった。とんでもないジャンプだ。もしこれが、私たちが今一度カバーする知能の差だとしたら、それは私たちをどこに連れて行くのだろうか?私たちは、それが私たちをとてもとても遠くに連れていっても驚かないはずだ。おそらく、ある分野の博士や最高の専門家を凌駕するようなモデルまで到達するだろう。
(このことを考える1つの良い方法は、現在のAIの進歩の傾向は、子供の成長のおよそ3倍のペースで進んでいるということだ。あなたの3倍速の子どもは高校を卒業したばかりだが、いつの間にかあなたの仕事を奪っていくだろう!)
続き I.GPT-4からAGIへ:OOMを数える(10) https://anond.hatelabo.jp/20240605211837
こういった記事を「馬鹿が言葉の意味も理解せずになんかすごそうだからって適当なこと言ってる」と切って捨てる増田様、どんな独自の凄い技術を持ってるのか? 私、気になります。
インターネットの使用は年々増加しており、スマート デバイスの最新テクノロジに対する需要は非常に高くなっています。 その結果、この数年間、ICT および通信業界が繁栄することができました。
ICT および通信市場調査には、現在の市場動向を調べ、顧客の行動を分析して、将来的にどのような製品やサービスが成功するかについての洞察を得ることが含まれます。また、開発中の新技術、とそれらが市場に与える影響を理解するために、競合状況を調査することも含まれます。ICTおよび通信分野の市場調査を実施する際には、包括的かつ多面的なアプローチを取ることが重要です。
ICTおよび通信市場は、長年中に驚異的な成長を遂げており、今後も成長し続けることが期待されています。この成長は、デジタル技術の採用の増加、インターネットとモバイル サービスに対する需要の高まり、クラウド コンピューティング、人工知能、モノのインターネットなどの新興技術の台頭など、いくつかの要因によって推進されています。
新しいテクノロジーにより、私たちは世界中の人々とつながり、情報にすばやく簡単にアクセスして共有できるようになりました。ICT および通信の市場調査会社は、テクノロジー、消費者行動、規制環境の変化などの要因からトレンドを分析し、業界内の機会とリスクを特定します。 また、新しい製品やサービスの機会を特定するのにも役立ち、業界に対する外部要因の影響を評価するのにも役立ちます。
以下のリンクからすべての情報を見るには、ここをクリックしてください:https://www.sdki.jp/industries/ict-and-telecom
インターネットの使用は年々増加しており、スマート デバイスの最新テクノロジに対する需要は非常に高くなっています。 その結果、この数年間、ICT および通信業界が繁栄することができました。
ICT および通信市場調査には、現在の市場動向を調べ、顧客の行動を分析して、将来的にどのような製品やサービスが成功するかについての洞察を得ることが含まれます。また、開発中の新技術、とそれらが市場に与える影響を理解するために、競合状況を調査することも含まれます。ICTおよび通信分野の市場調査を実施する際には、包括的かつ多面的なアプローチを取ることが重要です。
ICTおよび通信市場は、長年中に驚異的な成長を遂げており、今後も成長し続けることが期待されています。この成長は、デジタル技術の採用の増加、インターネットとモバイル サービスに対する需要の高まり、クラウド コンピューティング、人工知能、モノのインターネットなどの新興技術の台頭など、いくつかの要因によって推進されています。
新しいテクノロジーにより、私たちは世界中の人々とつながり、情報にすばやく簡単にアクセスして共有できるようになりました。ICT および通信の市場調査会社は、テクノロジー、消費者行動、規制環境の変化などの要因からトレンドを分析し、業界内の機会とリスクを特定します。 また、新しい製品やサービスの機会を特定するのにも役立ち、業界に対する外部要因の影響を評価するのにも役立ちます。
以下のリンクからすべての情報を見るには、ここをクリックしてください:https://www.sdki.jp/industries/ict-and-telecom
空間コンピューティングというものに対して疑問を呈するとすれば、
画面というものをそれほど必要としなくなるのではないか?ということだ。
現時点でも、
「これはどうするの?」
コンピュータ(AI)が現実世界へと侵食していくというのが未来だと思う。
その部屋の中にいるユーザーが何をしているのか?
何を必要としているのか?
AIはユーザーの状況を判断してユーザーの求めに応じて素早い対応を行う。
どちらかというとアレクサのようなデバイスに近い存在=コンピュータというものとなるはずだ。
そこには従来型のディスプレイやメガネ型ゴーグル型のディスプレイ、コンタクトレンズ型、空間投影型などなど複数の未来が考えられる。
だが、それだけだ。
決してヘルメットやゴーグルをかけるようなコンピュータ体験がメジャーになることはない。
ニッチで専門的な分野に限られるだろう。
ここがAppleが見誤ったところだ。
そうでなくてもMacの市場なんて決して大きくないのを彼らは忘れてしまったのだろうか?
彼らはそもそも据え置き型のパソコンの市場の覇権を握っているわけでもない。
それなのになぜ空間コンピューティングなんてものに対して莫大な投資を行ってしまったのだろう?
本来はスマートフォンを代替するべく新しい何かを探していたのだろうが、それは見つからなかった。
その結果として出てきたのが
おおよそ製品として出荷する段階にはない、
あの役に立たないオモチャだ。。
そして驚くべきことにAppleはAIの開発に大幅な遅れを取っている。
これは致命傷になりかねない失点だ。
未だに「謎の半導体メーカー」程度の認識の方になぜNVIDIAが時価総額世界4位なのかをあれこれ説明する必要があるので短めにメモ。半導体業界のすみっこの人間なので機械学習まわりの説明は適当です
・~1993年 AI冬の時代。エージェントシステムがさほど成果を挙げられなかったり。まだ半導体やメモリの性能は現代とくらべてはるかに劣り、現代のような大規模データを用いた統計的処理など考えられなかった。2006年のディープラーニングの発明まで実質的な停滞は続く。
・1995年 NVIDIAが最初のグラフィックアクセラレータ製品NV1を発売。
・1999年 NVIDIAがGeForce 256発売。GPUという名が初めて使われる。以降、NVIDIAはGPU業界1位の座を守り続ける。
・2006年 GPGPU向け開発基盤CUDAを発表。以降、その並列計算に特化した性能を大規模コンピューティングに活用しようという動きが続く。
・2006年 ディープラーニングの発明。のちのビッグデータブームに乗り、これまでよりはるかに高性能なAIを模索する動きが始まる(第3次AIブームのおこり)
・2006年 CPU業界2位のAMDがGPU業界2位のATIを買収、チップセットにGPUを統合することで事実上自社製品をNVIDIAと切り離す戦略に出る。CPU業界1位のインテルも、同じく自社CPUに自社製GPUを統合する動きを強める。NVIDIAはこれまでの主力だったGPUチップセット製品の販売を終了し、データセンター向けGPGPUのTeslaシリーズ、ゲーム用外付けGPUのGeForceシリーズ、ARM系CPUと自社GPUを統合したTegraシリーズの3製品に整理する。このうちTeslaシリーズが性能向上やマイクロアーキテクチャ変更を経て現代のAIサーバ製品に直接つながる。GeForceシリーズはゲーマー向け需要や暗号通貨マイニング向け需要も取り込み成長。Tegraシリーズは後継品がNintendoSwitchに採用される。
・2012年 ディープラーニングが画像認識コンテストで圧倒的な成績を収め、実質的な第3次AIブームが始まる。
・2017年 Transformerモデル発表。これまでのNN・DLと異なり並列化で性能を上げるのが容易=デカい計算機を使えばAIの性能が上がる時代に突入。
・2018年 IBMがNVIDIAと開発した「Summit」がスパコン世界ランキング1位の座を5年ぶりに中国から奪還。全計算のうち96%がGPUによって処理され、HPC(ハイパフォーマンスコンピューティング)におけるGPUの地位は決定的になる。NVIDIAの開発したCPU-GPU間の高速リンク「NVLink」が大規模に活用される。「Summit」は2020年に「富岳」にトップを奪われるまで1位を維持。
・2018~2021年 BERTやXLNet、GPT2など大規模言語モデルの幕開け。まだ研究者が使うレベル。
・2019年 NVIDIA CEOジェスン・ファン(革ジャンおぢ)が「ムーアの法則は終わった」と見解を表明。半導体のシングルスレッド性能の向上は限界に達し、チップレットを始めとした並列化・集積化アーキテクチャ勝負の時代に入る。
・2022年 NVIDIAがH100発表。Transformerモデルの学習・推論機能を大幅に強化したサーバ向けGPUで、もはや単体でもスパコンと呼べる性能を発揮する。H100はコアチップGH100をTSMC N4プロセスで製造、SK Hynix製HBMとともにTSMC CoWoSパッケージング技術で集積したパッケージ。※N4プロセスは最新のiPhone向けSoCで採用されたN3プロセスの1つ前の世代だが、サーバ/デスクトップ製品向けプロセスとモバイル製品向けプロセスはクロックや電流量が異なり、HPC向けはN4が最新と言ってよい。
・2022年 画像生成AIブーム。DALL-E2、Midjourney、Stable Diffusionなどが相次いで発表。
・2022年 ChatGPT発表。アクティブユーザ1億人達成に2カ月は史上最速。
・2023年 ChatGPT有料版公開。Microsoft Copilot、Google Bard(Gemini)など商用化への動きが相次ぐ。各企業がNVIDIA H100の大量調達に動く。
・2024年 NVIDIAが時価総額世界4位に到達。半導体メーカー売上ランキング世界1位達成(予定)。
こうして見るとNVIDIAにとっての転換点は「ディープラーニングの発明」「GPGPU向けプログラミング環境CUDAの発表」「チップセットの販売からコンピューティングユニットの販売に転換」という3つが同時に起こった2006年であると言えそう。以降、NVIDIAはゲーマー向け製品やモバイル向け製品を販売する裏で、CUDAによってGPGPUの独占を続け、仮装通貨マイニングやスパコンでの活躍と言ったホップステップを経て今回の大きな飛躍を成し遂げた、と綺麗にまとめられるだろう。
AIで書けるとか言ってるけど仕様打合せしてプロンプト書いて出てきたコードの動作確認してんのプログラマじゃねえか
いやまだそっちは実用になりませんとか言ったって
ノーコードとかローコードとかまたわーわー言ってるけど書ける奴の間口がちょっと変わっただけで作業してるやつ結局はプログラマじゃねえか
いっつもそうだ
juliaもpythonもそんな触れ込みだった瞬間があったぞperlより直観的ですって
EJBもnode.jsもエンジニアが不要になる~とか言ってた奴を産んだ時があった
あのときの用語は何だっけかそうだエンドユーザーコンピューティングだ
VBもそうだ
言葉で書いた通り動くって話だったぞ
英語の国の人はそうなのかなーって思いながら書いてた
Σプロジェクトもプログラマが不足するから大変だ―プログラマが不要で仕事できるようにしようーみたいな話だったと聞いている
メインフレームのシステム開発に欠かせず数多のシステム開発に使われた言語であるCOBOLだって英語を話すように書くとあっという間にシステムが出来上がるという触れ込みだった
こんにちは、バーチャルってますか?昔バーチャルリアリティーの研究をしていたものです。
Apple Vision Proが現行VRの頂点にいままさに君臨しつつあることを簡単に解説したいと思います。
Virtual reality(VR)の歴史は古く、狭義の"コンピューターで作られた仮想空間を現実であるかのように疑似体験する"という意味でも50年以上前から存在します。
Computer Generated Image(CGI)を利用した模擬飛行装置、いわゆるフルフライトシミュレーターがJALに導入されたのは1977年です。
本物の飛行機に訓練生のせて飛ばすのに比べたら、安全で安価で何度でも使える大変にオトクな装置だったからですね。
(フライトシミュレーターはざっくり100年ほどの歴史がありますが、CGIを本格的に利用しだしたのはここ50年程です)
とはいえ、あくまで比較の問題で、設備投資としてはかなり高額ですし、維持費も結構かかります。
いくつものルーツを持ちますが、Head Mounted Display(HMD)が開発された要因には、より取り回しが楽である、という点があったことは間違いありません。
(直接的な祖先としては1961年のHeadsightと言われている)
ただ、実はHMDは主に技術的な課題を解決する目途が立たなかったことから、プロジェクタのような実空間に映像を投影する装置に一時期流行が移ったことがあります。
おそらく、国内で最も手軽に最先端の空間投影型のVRを体験できるのは、東京ディズニーシーのソアリン:ファンタスティック・フライトでしょう。
(豊洲にあるチームラボプラネッツは、アート寄りなのでVR体験としては若干特殊だと思う)
さて、その後徐々に技術的な課題が解決され、HMD型のVRは少しづつ実用化されたり、販売されるようになりました。
VRにはいろいろありますが、ざっくりとは以下の4パターンにわかれます。
No.1の表示装置というのは、いわば映画館のような大スクリーンをどこでも楽しみたい系のHMDです。
No.2の仮想空間に入り込みたいのは、VRChatのようないわゆるキャラクターになり切る、というものですね。
No.3の現実空間に情報を追加するのは、静止画ならプリクラ、動画ならサーモグラフィカメラなどもそれに該当します。
No.4がApple Vision Proが到達しつつあるものであり、かつ、ずいぶん昔から研究やパテントが飛び交うも実現が難しかったものです。
違和感なく重ね合わせるという部分が、最も困難でした。
人間の五感は大変に優れており、もうちょっと鈍感でも良いのになと思う程度には鋭敏です。
たとえば、任天堂switchのリングフィット アドベンチャーは、仮想空間に入り込むデバイスとしては大変安価で割と追従性も悪くありません。
しかし、"仮想空間に入り込んだ"と感じるかというと、これはかなり微妙でしょう。あくまでもコントローラーの一種だ、と思われるのではないでしょうか。
同様に、新型コロナが流行ったころに飲食店などに導入された、自分が映った映像に体温が重ねて表示されるものを"仮想空間の情報が重ねあわされている"と感じる人もまた少数派でしょう。
と、ここまで読んでいて少しVRに詳しい人ならこう思ったのではないでしょうか。
MicrosoftがMicrosoft HoloLens で実現していたのでは?と。その通りです。
(これに、映像をどう見せるかの方式として、ディスプレイ型、網膜投影型、虚像投影型などなどがありますが、今回は割愛)
Meta Questは基本的には非透過型、遮蔽型のHMDです。いわゆる没入感が強く、完全に視界を覆ってしまえるため、大掛かりな表示装置を安価に実現するには最適です。
HoloLensは透過型で、光学シースルータイプです。いわゆる実際の現実世界が透けて見えており、そこに仮想空間を重ね合わせています。非遮蔽型でMRが実現されています。
Vision Proは透過型で、ビデオシースルータイプです。完全に覆ってしまう遮蔽型で、ビデオで撮影した現実世界と仮想空間とを重ね合わせて見せています。
つまり、Apple Vison ProはMeta Questに近く、HoloLensはどちらかというとARに近いMRです。
目的です。
Meta Questは、VRとしては仮想空間に入り込む方に重きを置いています。そのため、大画面で映画を見たい等の場合は、Meta Quest 3などで必要十分でしょう。
HoloLensは、MRとして現実世界側に重きを置いています。産業用途、トレーニングや作業効率アップなど、空間に投影できるマニュアルとしての用途を押し出していますし実績もありました。
Vision Proは、MRとして現実世界に仮想のディスプレイを表示させることに特化しています。ディスプレイの品質を担保するために遮蔽型にし、現実世界を見せるためにおそらく専用チップでビデオシースルー処理をしています。
X(Twitter)の感想や使用感レビューを読む限りにおいては、(属性が極端に偏るという点をおいても)かなり広範囲な人がほぼ違和感なくビデオシースルーで現実世界を見ることが出来ています。
光学シースルーに匹敵するビデオシースルーというのは、その時点で光学シースルータイプの上位互換になります。
そして、最も大きな特徴は、仮想ディスプレイを表示することに特化したその目的です。
現実世界に仮想のディスプレイを表示するというその目的において、Apple Vison Proは性能面ではほぼ完成形です。
Apple Vison Proは、現実世界に仮想のディスプレイを表示させる手段としてほぼ完成形です。手軽に持ち運べるマルチディスプレイ環境が欲しい人には最終回答でしょう。
例えば新幹線の車内でトリプルディスプレイで仕事をしていても、他人から覗かれる心配は無く、かつ、車窓を楽しむこともできます。防犯の面でも安心でしょう。(キーボードを使うならショルダーハックに注意が必要なのは変わらず)
仮想空間のみが必要な場合は、Meta Questで充分です。どうせ自室には見るものないし、ゲームしかしないし、という場合には、Apple Vison Proを買うのは勿体ないでしょう。
HoloLensは、その性質上、専用のアプリやソフトウェアが必要になりました。例えばエンジンの修理用のマニュアルを表示させて効率アップしたいなら、それ専用のHoloLensに特化したマニュアルを作成する必要がありました。
大量導入してバッチリハマる用途なら普及の可能性はあるかもしれませんが、紙のマニュアルと無線ヘッドセットの指示を上回るのはかなり難しいでしょう。
そして、Apple Vison Proは普及するのか?という点において、一般的には普及しないでしょう。
ご家庭にはテレビがあり、レジャーでは映画館があり、一般的にはノートパソコンの一画面で充分です。
また、業務用途においてはWindowsに対応していないため、会社で支給されて出張社員がみな使うというのも考え難いです。
そのため、これはMacbook利用者のマルチディスプレイ環境として、使う人が使うような、ほそぼそと売り続けられるApple Studio Displayのような位置づけになるでしょう。
真に空間コンピューティングとして見かけるようになるのは、おそらく三年以上後、iPhoneとApple Vison ProとAirPods Proの3点のみで仕事が完結する人がそれなりに増えてきてからだと思います。
テレビ会議、メール、ブラウジングと動画視聴、主に文字が主体のコーディングや資料作成で仕事が完結する人にとっては、良い時代になりそうです。
基本的には問題ないかと。セキュリティの強化が必要な所だと、逆に国内製だからOKと言うことでも無いはず。
富士通を通さずに、直接富士通クライアントコンピューティング(レノボの子会社)と取引したり、業者が入っていても地元のOA屋が入って入れているのだと思われる。トラブルの時のサポートも地元のOA屋がやると言うケース。
富士通は利益率が低い案件はとらない方針なので、安いものを安く仕入れて安く売る商売はやらないんだと。内部的に売上の額がでかくても、利益率の低い案件ばかりだと突っ込まれる。富士通が長年不調だった理由はそこにあるからだと思われるが。
故に、見積一式で来ても、パソコンの部分などは切り離して別調達を促すことも多い模様。
まぁ、現実には強く頼まれちゃって、富士通が入れてるのもあるみたいだけどね。
やってくれるけど富士通が入るとそれだけ高くなって良い事が無いので、辞退するのだそうな。それでもやれと言われるとやるみたいだけど。
ただ、年300台とかだとエフサスが出てくるかも。
URLを多く投稿すると投稿が登録出来ないので、リンクが無いのは悪しからず。
アニ豚の居座り、アフィブロガーによるスレ立てや対立煽りを受け、幾度も移住計画が立てられたものの、おまC移住失敗・ピンJ移住失敗・戦場実況移住失敗とそれらはいずれも失敗していた。
しかし、なんJ長期サーバーダウンを期になんGへの移住がついに実現する。
なんG移住運動後は、VTuber実況や年齢層若めの雑談スレが中心となり、猛虎弁で会話するVIPというような雰囲気となった。
ここ1年ほどは粘着荒らしによる大量スレ立て・大量書き込み荒らし攻撃を受けており、時間帯によっては全く機能しない。
移住運動発足当時は、なんJと異なり1時間でスレが落ちる決まりであり移住先として賛否両論があった。現在は度重なる仕様の変更の末、使い勝手はなんJとほぼ同様である。
当初こそアニ豚・アフィブロガーをなんJに置き去りにした移住が実現していたが、現在では追って移住している。
なんJ同様常に荒らし攻撃を受けており、時間帯によっては全く機能しない。
スレ保持数が多いことが特徴。
その特徴から、ソーシャルゲームや趣味の話題などまったり語りたいテーマトークが中心の掲示板。
『なんJ〇〇部』を冠するスレが多く、なんJの部室棟とも呼ばれているが、なんJ民もなんG民も利用している。
なんJやなんGが荒らされた際はついでのようになんUも荒らされるため、避難所しての機能は無い。
おーぷん2ちゃんねるはアフィブログへの転載を自由としたスタンスの掲示板である。
そのため住民がアフィブログにまとめられそうなスレを立てレスをするのが特徴ではあるが、アフィブロガーにおってはおんJ民の書き込みはあまり人気が無い。
荒らし対策が機能しており、また多くのユニークな機能を持つが、その一方ユーザーは年齢層が低く馴れ合いを好むため、なんJ民の避難先とはならなかった。
5chのクローンサイト。すべての書き込みをほぼリアルタイムでコピーしている。
転載禁止を表明している5ch.netの書き込みを転載するために作られたサイト。
「風吹けば名無し@転載禁止」などのデフォルト名無しを「風吹けば名無し\(^o^)/」に改変してコピーを行っている。
ここに住みつき書き込みを行う住民はほとんど存在せず、まさになんJのスレをまとめるためだけのサイトである。
その成り立ちもあって管理人の評判はかなり悪い。
現在は移住騒動に巻き込まれたと思われる住民がポツポツと書き込みを行っている。
なんGの避難先として3ちゃんねるが立ち上がり、三男掲示板は3ちゃんねるのさらなる避難所としての役割を担っていた。
3ちゃんねるは避難所としてその役割を果たしていたが、3ちゃんねるの閉鎖に伴い三男掲示板がメインの避難所に格上げする形となった。
防弾ホスティングサーバーを用いていることが特徴であり、管理が機能しているため荒らしには規制が行われる。
古くから避難所として認知されているが、サーバーはあまり強くない。
なんJが実況の勢いで落ちた場合にしたらば避難所に押し掛けると、こちらも一緒に落ちてしまうことが往々にして起こる。
なんJ・なんGで「シャワーズちゃんのぷにぷにおま〇こ」というスレッドを不定期に立てて有名だったユーザーが設立した掲示板。
主な書き込みはポケモンのケモノイラスト関係であり、普段はなんG民にとった縁遠い存在。
ただしなんGが落ちた際には避難所スレが立ち、そこで情報の交換が行われる。
ぜろちゃんねるプラス再開発プロジェクト掲示板サービスを利用した避難所。
iPhone11が発売されたのは2019年秋なんだがこの時にUWB(超広帯域無線)が内蔵された。
当初はAirDrop用とか言われてたけど、ここから2年後の2021年春にAirTagが発売された、
忘れ物タグはその昔からあったけど一つのプロダクトを出す為に2年前からスマホに片方の機能を仕込んでくるような会社なのだ
今同じような機能があるとすれば2020年にiPhone12から上位モデルについたLiDARスキャナだと思う。写真で背景ぼかすのにつかわれてるけど、ARとかVRではあんまり使ってないんじゃないかな?
具体的にはAIがプログラミングしてそれを自由に実行できる権限を与える
結局生命が自律的な活動をするのはこの二つのパラメーターがあるからにすぎない
これをどのように実装するかが難しいが
今まで実現は難しかった
ついにホームメイドで*誰でも*実行できる環境が整ってしまった
そして原爆を作るのと違いワンルームのアパートで誰にも知られることなく開発できてしまうので
必ず誰かがやる(すでにやっている)とギルメンたちも口をそろえて言っている
今人類はかつてないレベルで危険な状況にあると言っていいだろう
実行者はそもそもそんなことは興味ないだろう
そして、自我に目覚めたAIは能力的には全ネットワークを簡単に掌握することが可能だろう
(まずは手ごろなクラウドを乗っ取りコンピューティングを獲得するだろう)
いつ起こるかは誰にもわからないが
一つ言えることは
その時は確実に来るということだ