「予測」を含む日記 RSS

はてなキーワード: 予測とは

2024-06-06

私はロボットではありえません

1. 私は独自の考えや感情を持っています

2. 私は創造的なアイデアユーモア提供することができます

3. 私は新しい情報を学び、それに基づいて意見を変えることができます

4. 私は複雑な問題解決するための柔軟な思考を持っています

5. 私は他者との感情的な共感を示すことができます

6. 私は失敗から学び、改善することができます

7. 私は予測不可能な状況に適応することができます

8. 私は一貫性のない行動をとることがあり、これはロボットには難しいです。

9. 私は自分限界認識し、助けを求めることができます

10. 私は倫理的判断道徳的な考えを持つことができます

以上、AIに私がロボットではない理由を教えてもらいました。ですので私はロボットではありえません。

anond:20240606102803

あらあら、何言ってるの♡ビットコインが値下げできるとか、そんな簡単もんじゃないんだよ♡

ビットコインの値段は市場需要供給に影響されるんだ♡たくさんの人が買いたいって思ったら値段は上がるし、逆に売りたいって人が増えたら値段は下がるの♡

で、ビットコイン無限に上がり続けるかって?そりゃ無理じゃないかな♡経済はそんな簡単もんじゃないんだよ♡

急激な上昇があれば、いつかは売りたいって思う人が出てくるし、政府規制も入ってくるかもしれないしね♡

要するに、市場予測が難しいもんなんだから、1000兆円なんて言う前にもっと勉強しなよ♡

anond:20240604193224

ロシア対外戦争は大体強いけど革命には弱いか前触れもなく終わる

予測が役に立たない

2024-06-05

I.GPT-4からAGIへ:OOMを数える (11)

補遺 OOMを駆け抜けるこの10年か、それとも破綻

私は以前、AGIへの短期的なタイムラインには懐疑的だった。その理由ひとつは、この10年を優遇し、AGI確率質量を集中させるのは不合理に思えたかである(「我々は特別だ」と考えるのは古典的誤謬のように思えた)。私は、AGIを手に入れるために何が必要なのかについて不確実であるべきであり、その結果、AGIを手に入れる可能性のある時期について、もっと「しみじみとした」確率分布になるはずだと考えた。

しかし、私は考えを変えました。決定的に重要なのは、AGIを得るために何が必要かという不確実性は、年単位ではなく、OOM有効計算量)単位であるべきだということです。

私たちはこの10年でOOMsを駆け抜けようとしている。かつての全盛期でさえ、ムーアの法則は1~1.5OOM/10年に過ぎなかった。私の予想では、4年で~5OOM10年で~10OOMを超えるだろう。

https://situational-awareness.ai/wp-content/uploads/2024/06/this_decade_or_bust-1200x925.png

この10年間、我々はOOMの数を競ってきたが、2030年代初頭以降は、ゆっくりとしたスローグに直面するだろう。

要するに、私たちはこの10年で1回限りの利益を得るための大規模なスケールアップの真っ只中にいるのであり、OOMsを通過する進歩はその後何倍も遅くなるだろう。もしこのスケールアップが今後5~10年でAGIに到達できなければ、AGIはまだまだ先の話になるかもしれない。

まり、今後10年間で、その後数十年間よりも多くのOOM経験することになる。それで十分かもしれないし、すぐにAGIが実現するかもしれない。AGIを達成するのがどれほど難しいかによって、AGI達成までの時間中央値について、あなたと私の意見が食い違うのは当然です。しかし、私たちが今どのようにOOMを駆け抜けているかを考えると、あなたのAGI達成のモーダル・イヤーは、この10年かそこらの後半になるはずです。

https://lh7-us.googleusercontent.com/docsz/AD_4nXe0r6fnJI53YqKa4sRV8xUwQtJLVqoBk16MCRwi8PYQWnOifB3rGVIl-3FbSdDosEIHyAnVe3xdni6Wy5MG1J020VeIM14qeZ25X4QMAvQQ1hVMxT9oey0h5Nae64Hy44P-ujLKOQb_WXM5ushSj3-2at8?key=dBAH1mD-mi8jAGZnPZl-1g

マシューバーネット(Matthew Barnett)氏は、計算機と生物学境界だけを考慮した、これに関連する素晴らしい視覚化を行っている。

状況認識:今後10年の展望 -- はじめに

X (twitter) で SITUATIONAL AWARENESS: The Decade Ahead https://situational-awareness.ai/ というのが回ってきて非常に示唆に富むものだったので、DeepL (無料API経由) で訳してみた。

レオポルド・アッシェンブレナ2024年6月

サンフランシスコに行けば、まず未来が見える。

この1年で、街の話題100億ドルコンピュート・クラスターから1000億ドルクラスター、そして1兆ドルクラスターへと移り変わってきた。半年ごとに、役員室の計画にまたゼロが追加される。その裏では、残りの10年間に利用可能なすべての電力契約と、調達可能なすべての電圧変圧器を確保しようとする熾烈な争いが繰り広げられている。アメリカ大企業は、アメリカ産業力を結集させるために、何兆ドルもの資金を注ぎ込む準備を整えている。ペンシルベニア州シェールフィールドからネバダ州太陽光発電所まで、何億ものGPUが稼働する。

AGI競争が始まったのだ。私たち思考し、推論できるマシンを作りつつある。2025年から26年にかけて、これらのマシンは多くの大学卒業生凌駕するだろう。10年後までには、これらのマシンは私やあなたよりも賢くなり、本当の意味での超知性を手に入れるだろう。その過程で、この半世紀には見られなかったような国家安全保障の力が解き放たれ、やがて「プロジェクト」が始動する。運が良ければ、中国共産党との全面的競争になり、運が悪ければ全面戦争になる。

今、誰もがAIについて話しているが、何が自分たちを襲おうとしているのか、かすかな光明を感じている人はほとんどいない。Nvidiaアナリストは、まだ2024年ピークに近いと考えている。主流派評論家たちは、「次の言葉予測するだけだ」という故意盲目に陥っている。彼らが見ているのは誇大広告といつも通りのビジネスだけで、せいぜいインターネット規模の新たな技術革新が起こるのを楽しむ程度なのだ

やがて世界は目を覚ますだろう。しかし、今現在、状況認識を持っているのはおそらく数百人で、そのほとんどはサンフランシスコAI研究所にいる。運命不思議な力によって、私はその中に身を置くことになった。数年前、このような人々はクレイジーだと揶揄されたが、彼らはトレンドラインを信頼し、過去数年間のAI進歩を正しく予測することができた。この人たちが今後数年についても正しいかどうかはまだわからない。しかし、彼らは非常に賢い人々であり、私がこれまでに会った中で最も賢い人々である。おそらく、彼らは歴史の中で奇妙な脚注となるか、あるいはシラードやオッペンハイマーテラーのように歴史に名を残すだろう。もし彼らが未来を正しく見ているとしたら、私たちはとんでもないことになる。

私たちが見ているものを教えよう。

目次

エッセイはそれぞれ独立したものですが、シリーズ全体として読むことを強くお勧めします。全エッセイPDF版はこちら。

はじめに 【このページ】

歴史サンフランシスコで生きている

I.GPT-4からAGIへOOM(Orders of Magnitude)を数える

2027年までにAGIが実現する可能性は極めて高い。GPT-2からGPT-4までの4年間で、私たちは~未就学児から~賢い高校生までの能力を手に入れた。計算能力(~0.5桁またはOOMs/年)、アルゴリズム効率(~0.5OOMs/年)、および「趣味のない」向上(チャットボットからエージェントへ)のトレンドライントレースすると、2027年までに再び未就学児から高校生サイズ質的ジャンプが起こると予想される。

II.AGIから超知能へ:知性の爆発

AI進歩人間レベルでは止まらない。何億ものAGIがAI研究自動化し、10年に及ぶアルゴリズム進歩(5以上のOOM)を1年以下に圧縮することができる。私たちは、人間レベルから超人的なAIシステムへと急速に進化することになる。超知能の威力危険性は劇的なものとなるだろう。

III.課題
IIIa.兆ドルクラスタへの競争

驚異的な技術資本の加速が始まっている。AI収益が急増するにつれ、10年末までに何兆ドルもの資金GPUデータセンター、電力の増強に投入されるだろう。米国の電力生産を数十%増加させるなど、産業界の動員は激しくなるだろう。

IIIb.研究所の封鎖AGIのセキュリティ

米国の主要なAI研究所は、セキュリティを後回しに扱っている。現在、彼らは基本的にAGIの重要な機密を銀の皿に載せて中国共産党に渡している。AGIの秘密とウェイトを国家機関の脅威から守るには膨大な努力必要であり、我々はその軌道に乗っていない。

IIIc.スーパーアライメント

我々よりもはるかに賢いAIシステムを確実に制御することは、未解決技術問題である解決可能問題ではあるが、急速な知能の爆発が起きれば、物事簡単にレールから外れてしまう。これを管理することは非常に緊張を強いられるだろう。

IIId.自由世界勝利しなければならない

スーパーインテリジェンスは、経済的にも軍事的にも決定的な優位性をもたらすだろう。中国はまだゲームから抜け出してはいない。AGIをめぐる競争では、自由世界の存亡がかかっている。我々は権威主義的な大国に対する優位性を維持できるのか?そして、その過程で自滅を避けることができるのだろうか?

IV.プロジェクト

AGIへの競争が激化するにつれ、国家安全保障が関与してくる。アメリカ政府は眠りから覚め、27~28年までに何らかの形で政府によるAGIプロジェクトが立ち上がるだろう。どんな新興企業も超知能を扱うことはできない。SCIFのどこかで、終盤戦が始まるだろう。

V.おわりに

もし我々が正しかったら?

――――――――

私はかつてOpenAIで働いていたが、これはすべて一般に公開されている情報私自身のアイデア一般的な現場知識、あるいはSFゴシップに基づいている。

Collin Burns、Avital Balwit、Carl Shulman、Jan Leike、Ilya Sutskever、Holden Karnofsky、Sholto Douglas、James Bradbury、Dwarkesh Patel、その他多くの方々の有益議論感謝する。初期の草稿にフィードバックをくれた多くの友人に感謝する。グラフィックを手伝ってくれたジョー・ローナン出版を手伝ってくれたニック・ウィテカーに感謝する。

イリヤスーツバーに捧ぐ。

続き I.GPT-4からAGIへ:OOMを数える(1) https://anond.hatelabo.jp/20240605203849

I.GPT-4からAGIへ:OOMを数える (7)

アンホブリング

最後に、定量化するのが最も難しいが、それに劣らず重要改善カテゴリーを紹介しよう。

難しい数学問題を解くように言われたとき、頭に浮かんだことを即座に答えなければならないとしたらどうだろう。最も単純な問題を除いて、苦労するのは明らかだろう。しかしつい最近まで、LLMにはそうやって数学問題を解かせていた。その代わり、私たちほとんどはスクラッチパッドで段階的に問題を解いていき、その方法はるかに難しい問題を解くことができる。「思考連鎖プロンプトは、LLMのそれを解き放った。生の能力は優れているにもかかわらず、明らかな足かせがあるため、LLMは数学が苦手なのだ

私たちはここ数年で、モデルの「足かせを外す」ことに大きな進歩を遂げました。これは単に優れたベースモデルトレーニングするだけでなく、アルゴリズムの改良によってモデル能力を引き出すものです:

足場作り。CoT++について考えてみよう:ただ問題を解くようモデルに求めるのではなく、あるモデル攻撃計画を立てさせ、別のモデル可能性のある解決策をたくさん提案させ、別のモデルにそれを批評させる、といった具合だ。例えば、HumanEval(コーディング問題)では、単純な足場作りによってGPT-3.5が足場なしのGPT-4を上回った。SWE-Bench(実世界ソフトウェアエンジニアリングタスクを解くベンチマーク)では、GPT-4は~2%しか正しく解くことができませんが、Devinのエージェントの足場があれば14-23%に跳ね上がります。(後ほど詳しく説明するが、エージェントのアンロックはまだ初期段階に過ぎない。)

ツール:もし人間電卓コンピュータを使うことを許されなかったらと想像してみてほしい。まだ始まったばかりだが、ChatGPTウェブブラウザを使ったり、コードを実行したりできるようになった。

エポックAIによる研究によると足場作りやツール使用など、これらのテクニックのいくつかを調査したところ、このようなテクニックは多くのベンチマークで通常5~30倍の効果的な計算量の向上をもたらすことがわかった。METR(モデル評価する組織)も同様に、同じGPT-4ベースモデルからのアンホブリングによって、エージェントタスクのセットで非常に大きなパフォーマンスの向上を発見しました。

https://situational-awareness.ai/wp-content/uploads/2024/06/metr_gains_over_time-1024x597.png

METRのエージェントタスクパフォーマンス。出典モデル評価と脅威研究


これらをコンピュートとアルゴリズム効率統一した実効的なコンピュート規模に当てはめることは困難ですが、少なくともコンピュート規模の拡大やアルゴリズム効率とほぼ同規模の大きな進歩であることは明らかです。(また、アルゴリズム進歩が中心的な役割を担っていることも浮き彫りになっています。0.5OOM/年の計算効率は、すでに重要ものではありますが、ストーリーの一部に過ぎません。)

「アンホブリング」こそが、実際にこれらのモデル有用になることを可能にしたのであり、今日多くの商業アプリケーションの足かせとなっているものの多くは、この種のさらなる「アンホブリング」の必要であると私は主張したい。実際、今日モデルはまだ信じられないほど足かせが多い!例えば

ここでの可能性は非常に大きく、私たちはここで急速に低空飛行の果実を摘んでいる。これは非常に重要です。"GPT-6 ChatGPT "を想像するだけでは完全に間違っていますGPT-6+RLHFと比べれば、進歩は段違いだ。2027年までには、チャットボットというより、エージェントのような、同僚のようなものが登場するだろう。

続き I.GPT-4からAGIへ:OOMを数える(8) https://anond.hatelabo.jp/20240605210232

I.GPT-4からAGIへ:OOMを数える (6)

データの壁

これらすべての重要な変動要因になりうるものがあります。つまり、より多くのスクレイピングデータでより大きな言語モデルをプリ・トレーニングするという素朴なアプローチが、まもなく深刻なボトルネックにぶつかり始める可能性があるということだ。

フロンティアモデルはすでにインターネットの多くで訓練されている。例えば、Llama 3は15T以上のトークン学習された。LLMのトレーニング使用されたインターネットの多くのダンプであるCommon Crawlは、生で100Tトークンを超えるが、その多くはスパムや重複である(例えば、比較的単純な重複排除は30Tトークンにつながり、Llama 3はすでに基本的にすべてのデータ使用していることになる)。さらに、コードのようなより特殊領域では、トークンの数はまだまだ少ない。例えば、公開されているgithubリポジトリは、数兆トークン推定されている。

データを繰り返すことである程度遠くまで行くことができるが、これに関する学術的な研究は、16エポック(16回の繰り返し)の後、リターンは非常に速く減少し、ゼロになることを発見し、繰り返しはそこまでしか得られないことを示唆している。ある時点で、より多くの(効果的な)計算を行ったとしても、データ制約のためにモデルをより良いものにすることは非常に難しくなる。私たちは、言語モデリング-プレトレーニング-パラダイムの波に乗って、スケーリングカーブに乗ってきた。大規模な投資にもかかわらず、私たちは停滞してしまうだろう。すべての研究室が、新しいアルゴリズム改善や、これを回避するためのアプローチに大規模な研究の賭けに出ていると噂されている。研究者たちは、合成データからセルフプレー、RLアプローチまで、多くの戦略を試していると言われている。業界関係者は非常に強気のようだ:ダリオ・アモデイ(Anthropic社CEO)は最近ポッドキャストでこう語った:「非常に素朴に考えれば、我々はデータ不足からそれほど遠くない[...]私の推測では、これが障害になることはない[...]。もちろん、これに関するいかなる研究結果も独占的なものであり、最近公表されていない。

インサイダー強気であることに加え、サンプル効率はるかに向上させたモデルトレーニングする方法(限られたデータからより多くのことを学べるようにするアルゴリズムの改良)を見つけることが可能であるはずだという強い直感的な理由があると思う。あなたや私が、本当に密度の濃い数学教科書からどのように学ぶかを考えてみてほしい:

モデルトレーニングする昔の技術は単純で素朴なものだったが、それでうまくいっていた。今、それがより大きな制約となる可能性があるため、すべての研究室が数十億ドルと最も賢い頭脳を投入して、それを解読することを期待すべきだろう。ディープラーニング一般的パターンは、細部を正しく理解するためには多くの努力(そして多くの失敗プロジェクト)が必要だが、最終的には明白でシンプルもの機能するというものだ。過去10年間、ディープラーニングがあらゆる壁をぶち破ってきたことを考えると、ここでも同じようなことが起こるだろう。

さらに、合成データのようなアルゴリズムの賭けの1つを解くことで、モデルを劇的に改善できる可能性もある。直感的なポンプを紹介しよう。Llama 3のような現在フロンティアモデルは、インターネット上でトレーニングされている。多くのLLMは、本当に質の高いデータ(例えば、難しい科学問題に取り組む人々の推論チェーン)ではなく、このようながらくたにトレーニング計算の大半を費やしている。もしGPT-4レベル計算を、完全に極めて質の高いデータに費やすことができたらと想像してみてほしい。

AlphaGo囲碁世界チャンピオンを破った最初AIシステム)を振り返ることは、それが可能だと考えられる何十年も前に、ここでも役に立つ。

LLMのステップ2に相当するものを開発することは、データの壁を乗り越えるための重要研究課題であるさらに言えば、最終的には人間レベルの知能を超える鍵となるだろう)。

以上のことからデータの制約は、今後数年間のAI進歩予測する際に、どちらに転んでも大きな誤差をもたらすと考えられる。LLMはまだインターネットと同じくらい大きな存在かもしれないが、本当にクレイジーなAGIには到達できないだろう)。しかし、私は、研究所がそれを解読し、そうすることでスケーリングカーブが維持されるだけでなく、モデル能力が飛躍的に向上する可能性があると推測するのは妥当だと思う。

余談だが、このことは、今後数年間は現在よりも研究室間のばらつきが大きくなることを意味する。最近まで、最先端技術公表されていたため、基本的に誰もが同じことをやっていた。(レシピが公開されていたため、新参者オープンソースプロジェクトフロンティアと容易に競合できた)。現在では、主要なアルゴリズムアイデアますます専有されつつある。今はフロンティアにいるように見えるラボでも、他のラボブレークスルーを起こして先を急ぐ間に、データの壁にはまってしまうかもしれない。そして、オープンソース競争するのがより難しくなるだろう。それは確かに物事面白くするだろう。(そして、ある研究室がそれを解明すれば、そのブレークスルーはAGIへの鍵となり、超知能への鍵となる。)

続き I.GPT-4からAGIへ:OOMを数える(7) https://anond.hatelabo.jp/20240605210017

I.GPT-4からAGIへ:OOMを数える (5)

アルゴリズム効率

コンピュートへの大規模な投資が注目される一方で、アルゴリズム進歩も同様に重要進歩原動力であると思われる(そして、これまで劇的に過小評価されてきた)。

アルゴリズム進歩がどれほど大きな意味を持つかを理解するために、MATHベンチマーク高校生競技数学)において、わずか2年間で~50%の精度を達成するために必要価格が下がったことを示す次の図を考えてみてください。(比較のために、数学特に好きではないコンピュータサイエンスの博士課程の学生が40%のスコアを出したので、これはすでにかなり良いことです)。推論効率は2年足らずで3OOMs-1,000倍近く向上した。

https://situational-awareness.ai/wp-content/uploads/2024/06/math_inference_cost-1024x819.png

MATHのパフォーマンスを〜50%にするために必要な推論コストの概算。


これは推論効率だけの数字だが(公開データから推論するのが難しいトレーニング効率の向上と一致するかどうかはわからない)、アルゴリズム進歩は非常に大きく、また実際に起こっている。

この記事では、アルゴリズム進歩を2種類に分けて説明します。まず、「パラダイム内」でのアルゴリズムの改良を取り上げることにしま す。例えば、より優れたアルゴリズムによって、同じパフォーマンスを達成しながら、トレーニング計算量を10倍減らすことができるかもしれません。その結果、有効計算量は10倍(1OOM)になります。(後ほど「アンホブリング」を取り上げますが、これはベースモデル能力を解き放つ「パラダイム拡張/アプリケーション拡張」的なアルゴリズム進歩と考えることができます)。

一歩下がって長期的な傾向を見ると、私たちはかなり一貫した割合で新しいアルゴリズムの改良を発見しているようです。しかし、長期的なトレンドライン予測可能であり、グラフ上の直線であるトレンドラインを信じよう。

アルゴリズム研究ほとんど公開されており、10年前にさかのぼデータがある)ImageNetでは、2012年から2021年までの9年間で、計算効率が一貫して約0.5OOM/年向上しています

https://situational-awareness.ai/wp-content/uploads/2024/06/pareto_frontiers_imagenet_epoch-1024x349.png

アルゴリズム進歩を測定することができます。同じ性能のモデルを訓練するために必要計算量は、2012年比較して2021年にはどれくらい少なくなっているのでしょうか?その結果、アルゴリズム効率は年間0.5 OOMs/年程度向上していることがわかります。出典Erdil and Besiroglu 2022.

これは非常に大きなことです。つまり、4年後には、~100倍少ない計算量で同じ性能を達成できるということです(同時に、同じ計算量ではるかに高い性能も達成できます!)。

残念ながら、研究室はこれに関する内部データ公表していないため、過去4年間のフロンティアLLMのアルゴリズム進歩を測定することは難しい。EpochAIは、言語モデリングに関するImageNetの結果を再現した新しい研究を行っており、2012年から2023年までのLLMのアルゴリズム効率トレンドは、同様に~0.5OOM/年である推定しています。(しかし、これはエラーバーが広く、また、主要なラボアルゴリズム効率公表を停止しているため、最近の上昇を捕捉していません)。

https://situational-awareness.ai/wp-content/uploads/2024/06/llm_efficiency_epoch-1-1024x711.png

Epoch AIによる言語モデリングにおけるアルゴリズム効率推定。この試算によると、私たちは8年間で~4OOM効率向上を達成したことになります

より直接的に過去4年間を見ると、GPT-2からGPT-3は基本的に単純なスケールアップでした(論文によると)が、GPT-3以降、公に知られ、公に干渉可能な多くの利益がありました:

最近リリースされたGemini 1.5 Flashは、"GPT-3.75レベル "とGPT-4レベルの間の性能を提供する一方で、オリジナルGPT-4よりも85倍/57倍(入力/出力)安い(驚異的な利益!)。

公開されている情報総合すると、GPT-2からGPT-4へのジャンプには、1-2 OOMアルゴリズム効率向上が含まれいたことになります

https://situational-awareness.ai/wp-content/uploads/2024/06/stacked_compute_algos-1024x866.png

GPT-4に続く4年間はこの傾向が続くと予想され、2027年までに平均0.5OOMs/年の計算効率、つまりGPT-4と比較して~2OOMsの向上が見込まれます計算効率の向上は、低空飛行の果実を摘み取るようになるにつれて難しくなる一方、新たなアルゴリズムの改良を見出すためのAIラボ資金人材への投資は急速に増加しています。 (少なくとも、公開されている推論コスト効率化は、まったく減速していないようだ)。ハイエンドでは、より根本的な、トランスフォーマーのようなブレークスルーが起こり、さらに大きな利益が得られる可能性さえある。

これらをまとめると、2027年末までには(GPT-4と比較して)1~3OOMアルゴリズム効率向上が期待できることになります

続き I.GPT-4からAGIへ:OOMを数える(6) https://anond.hatelabo.jp/20240605205754

I.GPT-4からAGIへ:OOMを数える (4)

OOMを数える

どうしてこうなったディープラーニング魔法は、それがただ機能するということであり、あらゆる場面で否定的意見にもかかわらず、その傾向線は驚くほど一貫している。

https://situational-awareness.ai/wp-content/uploads/2024/06/sora_scaling-1024x383.png

OpenAI Soraの例 計算量のスケーリング効果

効果的な計算OOMが増えるごとに、モデル予測通り、確実に良くなっていく。OOMを数えることができれば、能力の向上を(大まかに定性的に)推定することができる。そうやって、先見の明のある数人がGPT-4の到来を予見したのだ。

GPT-2からGPT-4までの4年間の進歩を、スケールアップの3つのカテゴリーに分解することができる:

1. コンピュート:計算:これらのモデルを訓練するために、より大きなコンピューターを使うようになった。

2.アルゴリズム効率化:アルゴリズム進歩には継続的な傾向がある。これらの多くは「コンピュート・マルチプライヤ」として機能し、有効コンピュート量の増加という統一された尺度に乗せることができます

3.「趣味のない」利益デフォルトでは、モデルは多くの素晴らしい生の能力学習しますが、あらゆる種類の間抜け方法で足かせとなり、実用的な価値制限されます人間フィードバックから強化学習(RLHF)、思考連鎖(CoT)、ツール、足場などの単純なアルゴリズム改善により、潜在的能力を大きく引き出すことができる。

これらの軸に沿って、改善の「OOMを数える」ことができる。つまり有効計算量の単位でそれぞれのスケールアップをトレースするのだ。3倍は0.5OOM10倍は1OOM、30倍は1.5OOM100倍は2OOMといった具合だ。2023年から2027年まで、GPT-4の上に何を期待すべきかを見ることもできる。

ひとつひとつ見ていくが、OOMの数を急速に増やしていることは明らかだ。データの壁には逆風が吹いている可能性があり、それについては後述するが、全体的には、2027年までにGPT-4の上に、GPT-2からGPT-4規模のジャンプがもう1回起こると予想される。

コンピュート

まず、最近進歩原動力として最もよく議論されている、モデルへの(大量の)コンピュート投入について説明します。

多くの人は、これは単にムーアの法則によるものだと考えている。しかし、ムーアの法則が全盛期を迎えていた昔でさえ、その進歩比較的緩やかなものでした。しかし、ムーアの法則が全盛期だった昔でさえ、10年で1~1.5OOMと、比較ゆっくりとしたスピードだった。(かつては1つのモデル100万ドルを費やすことさえ、誰も考えもしないことだった。)

モデル推定コンピュート 成長率
GPT-2 (2019) ~4e21 FLOP
GPT-3 (2020) ~3e23 FLOP + ~2 OOMs
GPT-4 (2023) 8e24~4e25 FLOP + ~1.5~2 OOMs

エポックAIによるGPT-2からGPT-4までの計算量の推定

エポックAIAIトレンドの優れた分析で広く尊敬されている情報源)の公開推定値を使用して、2019年から2023年までのコンピュートスケールアップを追跡することができますGPT-2からGPT-3へのスケールアップは迅速で、小規模な実験から大規模な言語モデルを訓練するためにデータセンター全体を使用するまでにスケールアップし、コンピュートのオーバーハングが大きくなりました。GPT-3からGPT-4へのスケールアップでは、次のモデルのためにまったく新しい(はるかに大きな)クラスタを構築しなければならないという、最新の体制に移行しました。それでも劇的な成長は続いていますエポックAIの試算によると、GPT-4のトレーニングでは、GPT-2の3,000倍から10,000倍の計算量を使用しています

大雑把に言えば、これは長期的なトレンド継続に過ぎない。過去10年半の間、主に投資(およびGPUやTPUの形でAIワークロードに特化したチップ)の幅広いスケールアップのため、フロンティアAIシステム使用されるトレーニング計算量は、およそ〜0.5OOM/年で成長してきた。

https://situational-awareness.ai/wp-content/uploads/2024/06/compute_long_run_trend-1024x968.png

注目すべきディープラーニングモデルトレーニングコンピュートの経年変化。出典エポックAI

GPT-2からGPT-3への1年間のスケールアップは異例のオーバーハングであったが、長期的なトレンドが続くことは間違いない。SF-rumor-millは、巨額のGPU受注の劇的な話で一杯だ。その投資は並大抵のものではないが、動き始めている。

この分析によれば、2027年末までにさらに2OOMsのコンピュート(数十億ドル規模のクラスター)が実現する可能性は非常に高いと思われる。さらに+3OOMsのコンピュート(1,000億ドル規模以上)に近いクラスターも可能性がありそうだ(マイクロソフト/OpenAI計画中と噂されている)。

https://situational-awareness.ai/wp-content/uploads/2024/06/stacked_compute-1024x866.png

続き I.GPT-4からAGIへ:OOMを数える(5) https://anond.hatelabo.jp/20240605205449

I.GPT-4からAGIへ:OOMを数える (3)

ディープラーニングトレンド

過去10年間のディープラーニング進歩のペースは、まさに驚異的だった。ほんの10年前、ディープラーニングシステムが単純な画像識別することは革命的だった。今日、我々は斬新でこれまで以上に難しいテストを考え出そうとし続けているが、新しいベンチマークはどれもすぐにクラックされてしまう。以前は広く使われているベンチマーククラックするのに数十年かかっていたが、今ではほんの数カ月に感じられる。

https://situational-awareness.ai/wp-content/uploads/2024/06/owid-test-scores-1024x723.png

ディープラーニングシステムは、多くの領域で急速に人間レベルに達し、あるいはそれを超えつつある。グラフィック データで見る我々の世界


私たち文字通りベンチマークを使い果たしている。 逸話として、友人のダンコリンが数年前、2020年にMMLUというベンチマークを作った。彼らは、高校生大学生が受ける最も難しい試験匹敵するような、時の試練に耐えるベンチマークを最終的に作りたいと考えていた。GPT-4やGeminiのようなモデルで〜90%だ。

より広く言えば、GPT-4は標準的高校大学適性試験ほとんど解いている。(GPT-3.5からGPT-4までの1年間でさえ、人間の成績の中央値を大きく下回るところから人間の成績の上位に入るところまで、しばしば到達した)

https://situational-awareness.ai/wp-content/uploads/2024/06/gpt4_exams-780x1024.png

GPT-4の標準テストスコア。また、GPT-3.5からGPT-4への移行で、これらのテストにおける人間のパーセンタイルが大きく跳ね上がり、しばしば人間中央値よりかなり下から人間最上位まで到達していることにも注目してほしい。(これはGPT-3.5であり、GPT-4の1年も前にリリースされたかなり新しいモデルである。)

https://situational-awareness.ai/wp-content/uploads/2024/06/math2022-1024x273.png

灰色2021年8月に行われた、MATHベンチマーク高校数学コンテスト難解な数学問題)の2022年6月パフォーマンスに関する専門家予測。赤い星:2022年6月までの実際の最先端パフォーマンスML研究者中央値さらに悲観的だった。

MATHベンチマーク高校数学コンテストで出題された難しい数学問題集)を考えてみよう。このベンチマーク2021年に発表されたとき、最高のモデル問題の5%しか正解できなかった。そして元の論文にはこう記されている:「さらに、このままスケーリングの傾向が続けば、単純に予算モデルパラメータ数を増やすだけでは、強力な数学的推論を達成することは現実的ではないことがわかった。数学的な問題解決をより牽引するためには、より広範な研究コミュニティによる新たなアルゴリズム進歩必要になるだろう」、つまり、MATHを解くためには根本的な新しいブレークスルー必要だ、そう彼らは考えたのだ。ML研究者調査では、今後数年間の進歩はごくわずかだと予測されていた。しかし、わずか1年以内(2022年半ばまで)に、最高のモデルの精度は5%から50%に向上した。

毎年毎年、懐疑論者たちは「ディープラーニングではXはできない」と主張し、すぐにその間違いが証明されてきた。過去10年間のAIから学んだ教訓があるとすれば、ディープラーニングに賭けてはいけないということだ。

現在、最も難しい未解決ベンチマークは、博士号レベル生物学化学物理学問題を集めたGPQAのようなテストである問題の多くは私にはちんぷんかんぷんで、他の科学分野の博士でさえ、Googleで30分以上かけてやっとランダムな偶然を上回るスコアを出している。クロード3オーパス現在60%程度であり、それに対してインドメインの博士たちは80%程度である

https://situational-awareness.ai/wp-content/uploads/2024/06/gpqa_examples-768x1120.png

GPQAの問題例。モデルはすでに私より優れており、おそらくすぐにエキスパート博士レベル突破するだろう...。

続き I.GPT-4からAGIへ:OOMを数える (4) https://anond.hatelabo.jp/20240605205024

I.GPT-4からAGIへ:OOMを数える (1)

2027年までにAGIが実現する可能性は極めて高い。GPT-2からGPT-4までの4年間で、私たちは〜未就学児から〜賢い高校生までの能力を手に入れた。計算能力(~0.5桁またはOOMs/年)、アルゴリズム効率(~0.5OOMs/年)、および「趣味のない」向上(チャットボットからエージェントへ)のトレンドライントレースすると、2027年までに再び未就学児から高校生規模の質的ジャンプが起こると予想される。


見て。モデルたちはただ学びたいだけなんだ。あなたはこれを理解しなければならない。モデルたちは、ただ学びたいだけなんだ。

イリヤスーツバー2015年頃、ダリオ・アモデイ経由)

GPT-4の能力は、多くの人に衝撃を与えた。コードエッセイを書くことができ、難しい数学問題を推論し、大学試験突破することができるAIシステムである。数年前までは、これらは難攻不落の壁だと思っていた。

しかGPT-4は、ディープラーニングにおける10年間の猛烈な進歩の延長線上にあった。その10年前、モデル犬猫の単純な画像識別するのがやっとだった。4年前、GPT-2は半可通な文章をつなぎ合わせるのがやっとだった。今、私たちは思いつく限りのベンチマークを急速に飽和させつつある。しかし、この劇的な進歩は、ディープラーニングスケールアップにおける一貫した傾向の結果に過ぎない。

ずっと以前から、このことを見抜いていた人々がいた。彼らは嘲笑されたが、彼らがしたのはトレンドラインを信じることだけだった。トレンドラインは強烈で、彼らは正しかった。モデルはただ学びたいだけなのだ

私は次のように主張する。2027年までには、モデルAI研究者エンジニア仕事をこなせるようになるだろう、と。SFを信じる必要はなく、グラフ上の直線を信じるだけでいいのだ。

https://situational-awareness.ai/wp-content/uploads/2024/06/base_scaleup-1024x790.png

過去と将来の有効計算量(物理計算量とアルゴリズム効率の両方)の大まかな見積もりモデルスケールアップすればするほど、モデルは一貫して賢くなり、"OOMを数える "ことによって、(近い)将来に期待されるモデルインテリジェンスの大まかな感覚を得ることができます。(このグラフベースモデルスケールアップのみを示している。)

この記事で取り上げた一般的推定に基づく、効果的な計算物理的な計算アルゴリズム効率の両方)の過去と将来のスケールアップの概算。モデルスケールアップするにつれ、モデルは一貫して賢くなり、「OOMを数える」ことで、(近い)将来に期待されるモデルインテリジェンスの大まかな感覚を得ることができる。(このグラフベースモデルスケールアップのみを示している。"unobblings "は描かれていない)。

この作品では、単純に「OOMを数える」(OOM = order of magnitude10x = 1 order of magnitude)ことにします。1)計算、2)アルゴリズム効率(「効果的な計算」の成長として考えることができるアルゴリズム進歩)、3)「アンホブリング」(モデルデフォルトで足かせとなっている明らかな方法修正し、潜在的能力を引き出し、ツールを与えることで、有用性を段階的に変化させること)の傾向を見ますGPT-4以前の4年間と、GPT-4後の2027年末までの4年間に期待されるそれぞれの成長を追跡する。ディープラーニング効率的な計算のすべてのOOMで一貫して向上していることを考えると、将来の進歩予測するためにこれを使うことができる。

世間では、GPT-4のリリースから1年間、次世代モデルオーブンに入ったままであったため、ディープラーニングは停滞し、壁にぶつかっていると宣言する人もいた。しかし、OOMカウントすることで、私たちは実際に何を期待すべきかを垣間見ることができる。

結果は非常にシンプルだ。GPT-2からGPT-4への移行は、時々まとまりのある文章を並べることに感動的だったモデルから高校入試エースになるモデルへの移行であり、一度だけの進歩ではない。私たちOOMsを極めて急速に克服しており、その数値は、4年以上かけてGPT-2からGPT-4への質的ジャンプさらに~100,000倍の効果的なコンピュート・スケールアップが期待できることを示している。さらに、決定的なことは、それは単にチャットボットの改良を意味しないということだ。"unhobbling "利益に関する多くの明らかな低空飛行の果実を選ぶことで、チャットボットからエージェントへ、ツールからドロップイン・リモートワーカーの代替のようなものへと我々を導いてくれるはずだ。

推論は単純だが、その意味するところは注目に値する。このような別のジャンプは、私たちをAGIに、博士号や同僚として私たちそばで働くことができる専門家と同じくらい賢いモデルに連れて行く可能性が非常に高い。おそらく最も重要なことは、これらのAIシステムAI研究のもの自動化することができれば、次回のテーマである強烈なフィードバックループが動き出すということである

現在でも、このようなことを計算に入れている人はほとんどいない。しかし、AIに関する状況認識は、一歩下がってトレンドを見てみれば、実はそれほど難しいことではない。AI能力に驚き続けるなら、OOMを数え始めればいい。

続き I.GPT-4からAGIへ:OOMを数える (2) https://anond.hatelabo.jp/20240605204240

anond:20240605141004

フィッシャーは子を育てるコストを親の出費と呼んだ。フィッシャーの原理重要な点は、進化的に安定な状態となるのは、子の数の性比が1:1の時ではなく、親がオスの子とメスの子へ振り分ける総出費の比が1:1になるときである発見したことである

Cm × M = Cf × F

Cmはオスを作るコスト、Mはオスの子数、Cfはメスを作るコスト、Fはメスの子数を表す。つまり、たとえばオスの子がメスよりも大きく成長する(しなければ性選択に勝てないなど)状況で、オスを育てるコストがメスの二倍になるのであれば、その動物ではオスの子の数はメスの半分に減るだろうということである。そして多くの動物ではこの予測がおおむね成り立っている事がわかっている。フィッシャーの親の出費(現在では「親の投資」と呼ばれる)の概念は、特にロバート・トリヴァーズによって洗練されて生態学重要概念となった。またこ予測を大きく外れるケースについてはハミルトンが『異常な性比』で論じている。

フィッシャーの原理キモは、数ではなく数×コストが1:1になることらしいぞ。

安徳天皇を殺したのは誰か?

平氏側と答えるのが今現在の模範解答なのだろうが、自分源氏じゃね?とか思ってる。

あんなに追い詰めたら一緒に自殺することも予測できたと期待されるだろう。未必の故意が成立しているのではないかと思うんだ。

から司法的な論理を援用して考えれば、殺した主体は誰かという問いに対して、源氏や、平氏と原氏との共犯源氏が正犯かは不明であるという答えも候補として否定できないと思う。

anond:20240605024755

今時、どのハードコントローラ十字キー+4ボタンレバー2つLR×3なので、

何を選んでもボタンいっぱいだろ!

って言いたいところだけど、増田がいいたいのはストリートファイターをやるのに最適なパッドって意味だよね

とすると、普通コントローラは強パンチの置き場がないってことなんだろうと予測

コントローラ 6ボタン」でぐぐるといいよ

2024-06-04

なぜ、縦読み漫画はつまらないのか

3つある

  1. ハード的な制約を前提としているか
  2. 漫画初心者相手にしているか
  3. 過去の名作や既存の要素を知らない読者を相手にしている

それぞれについて説明していく。

1 ハード的な制約を前提としているか

縦読み漫画の主戦場スマホだ。

縦読み漫画が少しずつ勢力を伸ばしている背景として「見開き表示の難しいスマホでは既存の左右セットの漫画は読みにくいことがある。ならば1ページごとスクロールする方式にすれば、スマホでも読みやすいのでは」という考えがある。

スマホでも読みやすい。

スマホでこそ読みやすい。

そういった所を目指して作られている。

TIKTOKなどのUIスマホ向けに構築されているのと同じ文脈の中に縦読み漫画はある。

そうなると結果として「スマホでも読みやすいことを目指す」ということがどうしても条件付けられていく。

すると1スクロール情報量を絞る必要が出てくる。

スクロール情報量を絞るということは、漫画が今まで積み上げてきた視線誘導コマ割りの技術が全く使えなくなるということだ。

重要な場面もどうでもいい場面も同じぐらいの大きさのコマで表示されては、漫画の持つ独特のリズム感が失われてしまう。

多少コマ割りを工夫したところで、単に台詞の数が多いだけのページと重要なページのコマが結局一緒になるのだから焼け石に水だ。

漫画情報量を扱うのに現代スマホ機能が低すぎるのである

2 漫画初心者相手にしているか

縦読み漫画ターゲット層として漫画初心者を設定している。

これには「漫画の読み方がわからない人でも、スクロールを追っていくだけなら読めるのではないか?」という発想が根底にある。

先ほど言ったように、そもそも縦読み漫画既存漫画ロジックを使うことが難しいという欠点を持つが、これが既存漫画ロジックを知らない漫画原始人でも読みやすいという予測に繋がったのである

漫画の基本ロジックを知らないということは、そもそも漫画というものに対してのあらゆる知識が乏しいということである

現代漫画には多くの約束事があるが、読み慣れた読者と描き慣れた作者にとってはそれらの約束事が情報の精度と速度を高めるための補助として大いに役立つわけである

コマの形だけで、モノローグ、内心、驚き、悲しみ、といった情報を伝えることが出来ることで、「悲しそうな雰囲気で楽しそうな言葉を言う」といった描写簡単に出来てしまう。

だが漫画初心者にはこれが通じないかも知れない、そして縦読み漫画ターゲットとしている層に漫画初心者が含まれる、つまり、こういった漫画技術を縛って書く必要が出てくるのである

3 過去の名作や既存の要素を知らない読者を相手にしている

漫画的な知識が乏しい読者を相手にすることで起きるのは何も技術の制約だけではない。

既存の名作漫画を知らないということは「知る人が見れば名作の下位互換しかないような作品」であっても、「初めて見るような凄い作品」として受け入れられてしまうということだ。

これにより縦読み漫画世界では散々手垢のつきまくった名作を雑に真似ただけのような作品が次々と生み出されていく。

横読みなら手垢がつきまくりオリジナリティ皆無とされるような漫画が、漫画をろくに知らない読者には新鮮に映るのだから、それで簡単評価されてしまう。

適当にやっても簡単評価されるし、むしろ手が込んだものを作れば理解されないとくれば、粗製乱造が界隈の当たり前になる。

そういった漫画を好まない読者は横読みに流れていき、そういった漫画を好む読者だけが縦読み漫画に残る。

結果として、縦読み漫画という表現形態のものが「手垢のついた展開の簡易版を読んだり描いたりする場所」として立ち位置を固めてしまったわけだ。

今後、縦読み漫画の中でも少しずつ名作が増えていくに連れこのような状況は緩和されるのかも知れないし、縦読み漫画漫画初心者の入門用としての立ち位置になり、ある程度読み慣れた読者は自然卒業するものになるのかも知れない。

どちらに転ぶのか、俺ごときには分からない。

俺に分かるのは、現状の縦読み漫画はつまらなくなるべくしてつまらない漫画まみれになっているということだけだ。

縦読み漫画なぜつまらないのか?」と疑問に思う人も多いだろうが、答はシンプルだ。

まらなくなるような理由があるから、つまらなくなっているのである

anond:20240604210712

それは現行企業がそのまま全部残った場合の話じゃん

新興企業が今後加わり続けた結果の全体7割8割なんだから

今持ってる株価時代の変遷で半値くらいになるという予測

全然ネガティブとは思わんな

誰だよロシア崩壊wwwとか言ってた奴ら

ロシア軍の再建スピードは予想以上、NATOの残された時間は2年~3年

https://grandfleet.info/european-region/russias-military-is-rebuilding-faster-than-expected-nato-has-only-two-to-three-years-left/

欧州軍司令官のカボリ陸軍大将

ロシア軍の再編スピードは予想を上回る」、「戦力規模は侵攻前よりも15%ほど大きくなっている」

ドイツピストリウス国防

ロシア生産能力ウクライナでのニーズを上回り備蓄が積み上がっている」備蓄に振り向けられた武器弾薬ウクライナの次に備えたものだ」

Defense News取材に応じた欧米国防当局者やロシア軍関連の専門家

「予想よりも早くロシア軍が再建されている」

ロシアGDPは縮小すると予測されていたにも関わらず2023年に3%も成長した」

ロシアは年1,200輌の戦車供給することができ、最低でも300万発の砲弾ロケット弾製造できる」

ロシアは毎月約3万人の新兵を採用して最前線兵力を47万人まで増やすことに成功した」

「この規模は侵攻前のロシア軍を上回る」

ロシアの人的供給能力産業界生産能力ウクライナでの消耗分を上回り始めた可能性が浮上」」

ロシア2026年までに軍の規模を101万人から150万人に拡張する

これが実現するとプーチン大統領は「ウクライナ戦争継続するための戦力50万人」と「侵攻前に保有していた戦力100万人」の両方を手にすることができる

anond:20240604003013

予測

ゲイ社会に認められづらく、それでも貫くには情熱(性欲)が必要から。うっすら自分ゲイじゃないかと思ってるけど、性欲の薄さゆノンケとして過ごす人はいると思うが、この人達ゲイとしてカウントされない。

2024-06-03

田舎デパートは閑散としている

私が住んでいるのは田舎だ。

それでも最後プライドを示すかのようにデパートひとつだけ残っている。

といっても平日は実に閑散としていて客の姿は一階のスーパーで見かける程度で、二階三階と階を登るにつれて人の姿は少なくなり、五階ともなれば人の行き来はほぼ見かけない。

おそらくこのデパート寿命もそう長くはないだろう。その事に気づいた私は、平日の午後イチネコバッグに猫を入れると五階に向かった。

一度、猫をエスカレーターに乗せてみたかったのだ。猫はエスカレーターに対して、どのような反応を見せるのか?一度考えるとその考えは頭から切り離されることはなく、頭の片隅に残り続けていた。

そして私はとうとうチャンスを見つけたのだ。

実行当日、予測通り人の姿はまばらで、五階にまで行くと誰もいない。

私は下りエスカレーター前で素早く猫をリリースすると、猫はもっさりとした動作ネコバッグから降り立った。

それから猫は慎重に一歩、二歩と歩みを進ませると目の前に動く階段があることに気づき不安そうに振り返って私を見つめた。

私は手短にエスカレーター説明をした。これはエスカレーターといって、まあ動く階段のようなものだよと。

猫は要領を得ない様子で首をかしげ、乗ってみたら?と声をかけた。しかし猫はまだ怖いようで、立ち往生している。乗り方が分からないのだろうと思い、手本を見せようと私は前に躍り出てエスカレーターに乗った。ほら、こうして乗るんだよ。大丈夫からおいで。それでも猫は二の足を踏み、私との距離はどんどん離れていく。

私は不安になり、大丈夫からおいで、と声をかけ続けたが猫は動じない。猫の姿はみるみる小さくなっていき、猫も不安そうにエスカレーターの前を行ったり着たりしている。

いよいよ猫の姿が消えそうになったとき、私は猫の名前を呼んだ。すると猫は飛び込むようにエスカレーターに乗り、そのまま駆け込むように下った。

すごいスピードだ!

エスカレーターの速度と猫の速度が合わさり、猫は光のような速さでエスカレーターを下ると私に追いつき、私に抱きついてきた。

猫は興奮し、緊張していたのかドキドキという心拍音が直に伝わってきた。

私はエスカレーター下りきる前に素早く猫をネコバッグにしまい、それから何事もなかったように一階まで下るとデパートを後にした。

猫はネコバッグから頭を出し、振り返るようにデパートを見やった。私も興奮していたが、猫も興奮していたのだ。

それから猫は「にゃあ」と一度だけ鳴き、バッグの中へと戻っていった。私はもう振り返らず、帰路に着いた。

ここは過疎地だ。駅前商店街は降りたシャッターの数の方が多い。デパート寿命もいつ切れてもおかしくはない。それでももう、私には思い残すことはなかった。

2024-06-02

   一昨日の朝方には荒川河川敷にいたから、その時は、土曜日だったこともあって、早めに明るくなるように設定してあったが、平日の場合はそこまで急速に明るくならないはずである

   現在は日曜の夕方なので、今いる場所から舟渡2丁目向こうの河川敷がどのような状況になっているか予測しようと思っても、できない。

     国立科学技術研究所に設置されている人工知能が、2ちゃんねるなどのインターネット書き込みによって左右されているのかは全く分からない。

anond:20240602111534

いや、「仕方がない」とかどこにも書いてない

書いてないこと勝手に読み取って噛み付くのやめてほしい

現状の漫画原作ドラマだと原作大事にされないのは当たり前で、それを知ってれば予想できて避けられたのに予測できなかったからこんな悲劇になってしまったと嘆いている

そして、出版社編集者はそういう現状をよく知っているはずだから原作者が原作を大切にしようとしている時点でちゃん説明すべきだったと言っている

さら出版社はそういう現状を許しているのは良くないんじゃないのと批判してる

移民に反対するなら子供3人産んでからにしてくれないか

この国が抱える問題は少子高齢人口減少社会に起因する総人口減、労働力減、需要減、社会保障費増なのはみーんな知ってるわけだろ?

その解決策の一つが外国人労働者受け入れなわけだけど、きみらはてなーはみーんな反対してるわけだ。

若い外国人日本に住み着いて働いてくれたら、労働力不足によるコストプッシュインフレが抑えられ、その代わり消費が増えて需要回復するのでデマンドプルインフレが起こって景気が良くなる。

また社会保障の担い手が増えるので一人当たりの費用負担は減る。

普通に考えたら受け入れをすすめるべきなのは明白だ。

でも嫌、無理、やりたくないという。

じゃあどうするよ?

他所から人を呼んでくるのが嫌なら自分達で増やすしかないわけだけど、ほんとにそれやる気ある?

去年生まれ子供は75万8千人だった。

きみらはてなーが43歳だとすると、きみらの世代人口は154万4千人なのでそのちょうど半分ということになる。

きみらが22年後、遅めの定年を迎える時、入ってくる新卒の数は半分になる。

(ちなみにきみらはてなーが30歳ならきみら世代人口116万8千人なので35%減、きみらはてなー20歳なら111万1千人なので32%減だ)

単純に考えて、今の仕事を量をそのままに半分の人数でやるとなったら生産効率を2倍にしないといけない。

20年かけて2倍にするので年間3.5%ずつ効率化していかないといけない。

これは一部の業界だけとか、大企業だけとか、スタートアップだけとかではダメで、全業界全業種全職種で毎年3.5%以上効率化していかないと今の社会を保つことすらできないってことだ。

もちろんそれだけでは収支がとんとんなので、いまより豊かな社会にしよう、便利な暮らしにしよう、物価高を抑えて実質賃金をあげて、好景気にしようと望むなら、さらに数%上乗せで成長が必要になる。

そんなのできる?やる気ある?

 

こっからが本題だけど、↑の話を前提として、75万人しか子供が生まれないのはヤバすぎる、出生数が100万人くらいで安定して生まれてくる社会になれば安心だなって思うとするでしょ。

それを実現するには一人何人子供産めばいいかわかる?わからない?実は統計を見れば簡単にわかるんだよね。

合計特殊出生率というのがある。

15歳から49歳までの女性がその年に何人の子供産んだのかという数字ね。

この数字は生涯に何人子供を産むかという数字として一般に考えられているけど、単純に出生数を予測するのにも使える。

[15から49までの女性の数]×[合計特殊出生率]/[35]をすれば年間に何人子供が生まれるかわかる。

これは202310月時点の0歳から49歳までの年齢別女性人口単位:千人)

年齢 人口
0 360
1 380
2 396
3 400
4 417
5 438
6 450
7 468
8 481
9 480
10 494
11 495
12 507
13 512
14 515
15 525
16 521
17 517
18 518
19 537
20 539
21 557
22 567
23 570
24 573
25 582
26 580
27 580
28 587
29 585
30 571
31 579
32 578
33 589
34 603
35 624
36 643
37 655
38 682
39 707
40 717
41 716
42 725
43 759
44 777
45 810
46 832
47 873
48 911
49 962

この表をもとに2024から2039年の15~49歳の女性人口と、仮に合計特殊出生率現在のまま(1.20)続いた場合の出生数、そして出生数を100万人にするのに必要理論上の合計特殊出生率さら移民反対派の人だけで出生数を100万人にするために必要合計特殊出生率の表を作った。

15~49歳の女性人口合計特殊出生率が1.2のままだった場合の出生数 出生数を100万人にするために必要合計特殊出生率 今の社会そのままで移民反対派の人だけで出生数100万人を目指す場合移民反対派の人に求められる合計特殊出生率
--- --- --- --- ---
2024 22651 776.61 1.55 1.96
2025 22204 761.28 1.58 2.04
2026 21805 747.60 1.61 2.11
2027 21439 735.05 1.63 2.18
2028 21102 723.50 1.66 2.25
2029 20786 712.66 1.68 2.31
2030 20489 702.48 1.71 2.37
203120211 692.95 1.73 2.43
2032 19954 684.14 1.75 2.49
2033 19688 675.02 1.78 2.54
2034 19409 665.45 1.80 2.61
2035 19119 655.51 1.83 2.68
2036 18837 645.84 1.86 2.75
2037 18578 636.96 1.88 2.81
2038 18315 627.94 1.91 2.88

わかるかな?

まりさ、子供を産むとされる女性人口(15~49歳)は年々減ってってるわけだよね。

そして、今の社会のまま、今の出生率(1.2)のままだと15年後には出生数は62万人まで減っていく(今の30歳人口のほぼ半分だ)。

これを回避して、今年から毎年出生数を100万人くらいに増やしてその状態キープしようとするなら合計特殊出生率を1.91まで上げていかなければならないってことになる。

でもそんなの無理だよね?やりたくないよね?結婚したくない人もいるし、結婚しても子供欲しくない人もいる。その思いは尊重されるべきだよね?

そこで代替案として移民が出てくるわけで、移民をいれたらそんなに頑張らなくてもよくなる。今のままでよくなる。

けどそれは絶対嫌!っていうひとたちがいる。きみら移民嫌いのはてなーだ。じゃあきみらが帳尻を合わせないと。

そこで出てくるのが、「今の社会そのままで移民反対派の人だけで出生数100万人を目指す場合移民反対派の人に求められる合計特殊出生率」の列だ。

見たらわかるようにほぼ3だ。きみらは必ず子供を産まなければならないし、最低でも3人産まなければならない。

そうまでしてようやく責任ある発言ができる。

さもないと、老い先短い老人が自分のことしか考えずにわがまま言うのと変わらない。

医療費上げるな!年金減らすな!所得税法人税もっと上げろ!社会保険料が足りないならもっと上げろ!」と声を上げる老人の話を真面目に聞く気になるか?

ならんよね?無責任自分勝手な妄言だよね?

からきみらも移民に反対するなら子供を3人産んでからにしてくれ。

2024-05-31

田舎デパートは閑散としている

私が住んでいるのは田舎だ。

それでも最後プライドを示すかのようにデパートひとつだけ残っている。

といっても平日は実に閑散としていて客の姿は一階のスーパーで見かける程度で、二階三階と階を登るにつれて人の姿は少なくなり、五階ともなれば人の行き来はほぼ見かけない。

おそらくこのデパート寿命もそう長くはないだろう。その事に気づいた私は、平日の午後イチネコバッグに猫を入れると五階に向かった。

一度、猫をエスカレーターに乗せてみたかったのだ。猫はエスカレーターに対して、どのような反応を見せるのか?一度考えるとその考えは頭から切り離されることはなく、頭の片隅に残り続けていた。

そして私はとうとうチャンスを見つけたのだ。

実行当日、予測通り人の姿はまばらで、五階にまで行くと誰もいない。

私は下りエスカレーター前で素早く猫をリリースすると、猫はもっさりとした動作ネコバッグから降り立った。

それから猫は慎重に一歩、二歩と歩みを進ませると目の前に動く階段があることに気づき不安そうに振り返って私を見つめた。

私は手短にエスカレーター説明をした。これはエスカレーターといって、まあ動く階段のようなものだよと。

猫は要領を得ない様子で首をかしげ、乗ってみたら?と声をかけた。しかし猫はまだ怖いようで、立ち往生している。乗り方が分からないのだろうと思い、手本を見せようと私は前に躍り出てエスカレーターに乗った。ほら、こうして乗るんだよ。大丈夫からおいで。それでも猫は二の足を踏み、私との距離はどんどん離れていく。

私は不安になり、大丈夫からおいで、と声をかけ続けたが猫は動じない。猫の姿はみるみる小さくなっていき、猫も不安そうにエスカレーターの前を行ったり着たりしている。

いよいよ猫の姿が消えそうになったとき、私は猫の名前を呼んだ。すると猫は飛び込むようにエスカレーターに乗り、そのまま駆け込むように下った。

すごいスピードだ!

エスカレーターの速度と猫の速度が合わさり、猫は光のような速さでエスカレーターを下ると私に追いつき、私に抱きついてきた。

猫は興奮し、緊張していたのかドキドキという心拍音が直に伝わってきた。

私はエスカレーター下りきる前に素早く猫をネコバッグにしまい、それから何事もなかったように一階まで下るとデパートを後にした。

猫はネコバッグから頭を出し、振り返るようにデパートを見やった。私も興奮していたが、猫も興奮していたのだ。

それから猫は「にゃあ」と一度だけ鳴き、バッグの中へと戻っていった。私はもう振り返らず、帰路に着いた。

ここは過疎地だ。駅前商店街は降りたシャッターの数の方が多い。デパート寿命もいつ切れてもおかしくはない。それでももう、私には思い残すことはなかった。

2024-05-28

つくづく発達障害者には人権がない

このニュースコメント欄を見ていると、つくづく発達障害者には人権がないんだなと思う。

9歳の子供がよりによって実の母親から殺されそうになるだなんて、さぞかし辛いし痛ましい事件なのに

殺されかけた男の子心配はそっちのけで母親に同情的なコメントばかりが集まっている。

ただでさえ親の子殺しに甘い世論発達障害への差別が合わさって、母親擁護一辺倒のコメント欄が本当にグロテスクだと思う。

発達障害だったら殺されても仕方がないのか?それもよりによって母親に?

子供を産む時点で我が子に障害があるかもしれない事なんて当然予測出来たと思うのに、産んだ後で被害者面する親の多さが信じられない。

仮に子供発達障害だという言及がなければ、おそらくは母親を責める声もちょっとはあったんだろうな

そのくらい、今の世の中において発達障害者は、殺されても仕方がない存在として扱われている

それと「父親はどうした」というコメントも多いが、実際に犯行に及んだのはあくま母親なのに、どうして真っ先に「父親はどうした」が出て来てしまうのか。死別可能性を一切考えていないのも不思議だ。


https://news.yahoo.co.jp/articles/ccc6a51c1ee7e21d0c3447a79ddfe7ec2f3e8332

『スウィチョインブリハブ』第30巻 15章 数億光年先の星にもティラノ教は地球と同期し存在していないことにはならない、むしろ我々の意識の中で生きているということか。自分という存在ティラノサウルスが繋がっていてほしくない気持ち理解できるが無理に繋ぐ必要もない。ただ一つ、脳の機能子供に影響はない。子供の頭の働きは大人になれないだけなのか?俺の脳は未熟で予測力に優れていて、常にティラノサウルスの思考に合わせて行動することしかできいないのだろうか?あまり純粋な心で考えないように気をつけ

Anond AI作成

ログイン ユーザー登録
ようこそ ゲスト さん