はてなキーワード: 予測とは
2. 私は創造的なアイデアやユーモアを提供することができます。
3. 私は新しい情報を学び、それに基づいて意見を変えることができます。
4. 私は複雑な問題を解決するための柔軟な思考を持っています。
8. 私は一貫性のない行動をとることがあり、これはロボットには難しいです。
私は以前、AGIへの短期的なタイムラインには懐疑的だった。その理由のひとつは、この10年を優遇し、AGI確率の質量を集中させるのは不合理に思えたからである(「我々は特別だ」と考えるのは古典的な誤謬のように思えた)。私は、AGIを手に入れるために何が必要なのかについて不確実であるべきであり、その結果、AGIを手に入れる可能性のある時期について、もっと「しみじみとした」確率分布になるはずだと考えた。
しかし、私は考えを変えました。決定的に重要なのは、AGIを得るために何が必要かという不確実性は、年単位ではなく、OOM(有効計算量)単位であるべきだということです。
私たちはこの10年でOOMsを駆け抜けようとしている。かつての全盛期でさえ、ムーアの法則は1~1.5OOM/10年に過ぎなかった。私の予想では、4年で~5OOM、10年で~10OOMを超えるだろう。
https://situational-awareness.ai/wp-content/uploads/2024/06/this_decade_or_bust-1200x925.png
要するに、私たちはこの10年で1回限りの利益を得るための大規模なスケールアップの真っ只中にいるのであり、OOMsを通過する進歩はその後何倍も遅くなるだろう。もしこのスケールアップが今後5~10年でAGIに到達できなければ、AGIはまだまだ先の話になるかもしれない。
つまり、今後10年間で、その後数十年間よりも多くのOOMを経験することになる。それで十分かもしれないし、すぐにAGIが実現するかもしれない。AGIを達成するのがどれほど難しいかによって、AGI達成までの時間の中央値について、あなたと私の意見が食い違うのは当然です。しかし、私たちが今どのようにOOMを駆け抜けているかを考えると、あなたのAGI達成のモーダル・イヤーは、この10年かそこらの後半になるはずです。
マシュー・バーネット(Matthew Barnett)氏は、計算機と生物学的境界だけを考慮した、これに関連する素晴らしい視覚化を行っている。
X (twitter) で SITUATIONAL AWARENESS: The Decade Ahead https://situational-awareness.ai/ というのが回ってきて非常に示唆に富むものだったので、DeepL (無料版 API経由) で訳してみた。
この1年で、街の話題は100億ドルのコンピュート・クラスターから1000億ドルのクラスター、そして1兆ドルのクラスターへと移り変わってきた。半年ごとに、役員室の計画にまたゼロが追加される。その裏では、残りの10年間に利用可能なすべての電力契約と、調達可能なすべての電圧変圧器を確保しようとする熾烈な争いが繰り広げられている。アメリカの大企業は、アメリカの産業力を結集させるために、何兆ドルもの資金を注ぎ込む準備を整えている。ペンシルベニア州のシェールフィールドからネバダ州の太陽光発電所まで、何億ものGPUが稼働する。
AGI競争が始まったのだ。私たちは思考し、推論できるマシンを作りつつある。2025年から26年にかけて、これらのマシンは多くの大学卒業生を凌駕するだろう。10年後までには、これらのマシンは私やあなたよりも賢くなり、本当の意味での超知性を手に入れるだろう。その過程で、この半世紀には見られなかったような国家安全保障の力が解き放たれ、やがて「プロジェクト」が始動する。運が良ければ、中国共産党との全面的な競争になり、運が悪ければ全面戦争になる。
今、誰もがAIについて話しているが、何が自分たちを襲おうとしているのか、かすかな光明を感じている人はほとんどいない。Nvidiaのアナリストは、まだ2024年がピークに近いと考えている。主流派の評論家たちは、「次の言葉を予測するだけだ」という故意の盲目に陥っている。彼らが見ているのは誇大広告といつも通りのビジネスだけで、せいぜいインターネット規模の新たな技術革新が起こるのを楽しむ程度なのだ。
やがて世界は目を覚ますだろう。しかし、今現在、状況認識を持っているのはおそらく数百人で、そのほとんどはサンフランシスコとAI研究所にいる。運命の不思議な力によって、私はその中に身を置くことになった。数年前、このような人々はクレイジーだと揶揄されたが、彼らはトレンドラインを信頼し、過去数年間のAIの進歩を正しく予測することができた。この人たちが今後数年についても正しいかどうかはまだわからない。しかし、彼らは非常に賢い人々であり、私がこれまでに会った中で最も賢い人々である。おそらく、彼らは歴史の中で奇妙な脚注となるか、あるいはシラードやオッペンハイマー、テラーのように歴史に名を残すだろう。もし彼らが未来を正しく見ているとしたら、私たちはとんでもないことになる。
各エッセイはそれぞれ独立したものですが、シリーズ全体として読むことを強くお勧めします。全エッセイのPDF版はこちら。
2027年までにAGIが実現する可能性は極めて高い。GPT-2からGPT-4までの4年間で、私たちは~未就学児から~賢い高校生までの能力を手に入れた。計算能力(~0.5桁またはOOMs/年)、アルゴリズム効率(~0.5OOMs/年)、および「趣味のない」向上(チャットボットからエージェントへ)のトレンドラインをトレースすると、2027年までに再び未就学児から高校生サイズの質的なジャンプが起こると予想される。
AIの進歩は人間レベルでは止まらない。何億ものAGIがAI研究を自動化し、10年に及ぶアルゴリズムの進歩(5以上のOOM)を1年以下に圧縮することができる。私たちは、人間レベルから超人的なAIシステムへと急速に進化することになる。超知能の威力と危険性は劇的なものとなるだろう。
驚異的な技術資本の加速が始まっている。AIの収益が急増するにつれ、10年末までに何兆ドルもの資金がGPU、データセンター、電力の増強に投入されるだろう。米国の電力生産を数十%増加させるなど、産業界の動員は激しくなるだろう。
米国の主要なAI研究所は、セキュリティを後回しに扱っている。現在、彼らは基本的にAGIの重要な機密を銀の皿に載せて中国共産党に渡している。AGIの秘密とウェイトを国家機関の脅威から守るには膨大な努力が必要であり、我々はその軌道に乗っていない。
我々よりもはるかに賢いAIシステムを確実に制御することは、未解決の技術的問題である。解決可能な問題ではあるが、急速な知能の爆発が起きれば、物事は簡単にレールから外れてしまう。これを管理することは非常に緊張を強いられるだろう。
スーパーインテリジェンスは、経済的にも軍事的にも決定的な優位性をもたらすだろう。中国はまだゲームから抜け出してはいない。AGIをめぐる競争では、自由世界の存亡がかかっている。我々は権威主義的な大国に対する優位性を維持できるのか?そして、その過程で自滅を避けることができるのだろうか?
AGIへの競争が激化するにつれ、国家安全保障が関与してくる。アメリカ政府は眠りから覚め、27~28年までに何らかの形で政府によるAGIプロジェクトが立ち上がるだろう。どんな新興企業も超知能を扱うことはできない。SCIFのどこかで、終盤戦が始まるだろう。
もし我々が正しかったら?
――――――――
私はかつてOpenAIで働いていたが、これはすべて一般に公開されている情報、私自身のアイデア、一般的な現場知識、あるいはSFゴシップに基づいている。
Collin Burns、Avital Balwit、Carl Shulman、Jan Leike、Ilya Sutskever、Holden Karnofsky、Sholto Douglas、James Bradbury、Dwarkesh Patel、その他多くの方々の有益な議論に感謝する。初期の草稿にフィードバックをくれた多くの友人に感謝する。グラフィックを手伝ってくれたジョー・ローナン、出版を手伝ってくれたニック・ウィテカーに感謝する。
続き I.GPT-4からAGIへ:OOMを数える(1) https://anond.hatelabo.jp/20240605203849
最後に、定量化するのが最も難しいが、それに劣らず重要な改善のカテゴリーを紹介しよう。
難しい数学の問題を解くように言われたとき、頭に浮かんだことを即座に答えなければならないとしたらどうだろう。最も単純な問題を除いて、苦労するのは明らかだろう。しかしつい最近まで、LLMにはそうやって数学の問題を解かせていた。その代わり、私たちのほとんどはスクラッチパッドで段階的に問題を解いていき、その方法ではるかに難しい問題を解くことができる。「思考の連鎖」プロンプトは、LLMのそれを解き放った。生の能力は優れているにもかかわらず、明らかな足かせがあるため、LLMは数学が苦手なのだ。
私たちはここ数年で、モデルの「足かせを外す」ことに大きな進歩を遂げました。これは単に優れたベースモデルをトレーニングするだけでなく、アルゴリズムの改良によってモデルの能力を引き出すものです:
足場作り。CoT++について考えてみよう:ただ問題を解くようモデルに求めるのではなく、あるモデルに攻撃計画を立てさせ、別のモデルに可能性のある解決策をたくさん提案させ、別のモデルにそれを批評させる、といった具合だ。例えば、HumanEval(コーディング問題)では、単純な足場作りによってGPT-3.5が足場なしのGPT-4を上回った。SWE-Bench(実世界のソフトウェアエンジニアリングのタスクを解くベンチマーク)では、GPT-4は~2%しか正しく解くことができませんが、Devinのエージェントの足場があれば14-23%に跳ね上がります。(後ほど詳しく説明するが、エージェントのアンロックはまだ初期段階に過ぎない。)
ツール:もし人間が電卓やコンピュータを使うことを許されなかったらと想像してみてほしい。まだ始まったばかりだが、ChatGPTはウェブブラウザを使ったり、コードを実行したりできるようになった。
エポックAIによる研究によると足場作りやツールの使用など、これらのテクニックのいくつかを調査したところ、このようなテクニックは多くのベンチマークで通常5~30倍の効果的な計算量の向上をもたらすことがわかった。METR(モデルを評価する組織)も同様に、同じGPT-4ベースモデルからのアンホブリングによって、エージェントタスクのセットで非常に大きなパフォーマンスの向上を発見しました。
https://situational-awareness.ai/wp-content/uploads/2024/06/metr_gains_over_time-1024x597.png
これらをコンピュートとアルゴリズムの効率で統一した実効的なコンピュート規模に当てはめることは困難ですが、少なくともコンピュート規模の拡大やアルゴリズムの効率とほぼ同規模の大きな進歩であることは明らかです。(また、アルゴリズムの進歩が中心的な役割を担っていることも浮き彫りになっています。0.5OOM/年の計算効率は、すでに重要なものではありますが、ストーリーの一部に過ぎません。)
「アンホブリング」こそが、実際にこれらのモデルが有用になることを可能にしたのであり、今日多くの商業アプリケーションの足かせとなっているものの多くは、この種のさらなる「アンホブリング」の必要性であると私は主張したい。実際、今日のモデルはまだ信じられないほど足かせが多い!例えば
ここでの可能性は非常に大きく、私たちはここで急速に低空飛行の果実を摘んでいる。これは非常に重要です。"GPT-6 ChatGPT "を想像するだけでは完全に間違っています。 GPT-6+RLHFと比べれば、進歩は段違いだ。2027年までには、チャットボットというより、エージェントのような、同僚のようなものが登場するだろう。
続き I.GPT-4からAGIへ:OOMを数える(8) https://anond.hatelabo.jp/20240605210232
これらすべての重要な変動要因になりうるものがあります。つまり、より多くのスクレイピング・データでより大きな言語モデルをプリ・トレーニングするという素朴なアプローチが、まもなく深刻なボトルネックにぶつかり始める可能性があるということだ。
フロンティア・モデルはすでにインターネットの多くで訓練されている。例えば、Llama 3は15T以上のトークンで学習された。LLMのトレーニングに使用されたインターネットの多くのダンプであるCommon Crawlは、生で100Tトークンを超えるが、その多くはスパムや重複である(例えば、比較的単純な重複排除は30Tトークンにつながり、Llama 3はすでに基本的にすべてのデータを使用していることになる)。さらに、コードのようなより特殊な領域では、トークンの数はまだまだ少ない。例えば、公開されているgithubのリポジトリは、数兆トークンと推定されている。
データを繰り返すことである程度遠くまで行くことができるが、これに関する学術的な研究は、16エポック(16回の繰り返し)の後、リターンは非常に速く減少し、ゼロになることを発見し、繰り返しはそこまでしか得られないことを示唆している。ある時点で、より多くの(効果的な)計算を行ったとしても、データ制約のためにモデルをより良いものにすることは非常に難しくなる。私たちは、言語モデリング-プレトレーニング-パラダイムの波に乗って、スケーリングカーブに乗ってきた。大規模な投資にもかかわらず、私たちは停滞してしまうだろう。すべての研究室が、新しいアルゴリズムの改善や、これを回避するためのアプローチに大規模な研究の賭けに出ていると噂されている。研究者たちは、合成データからセルフプレー、RLアプローチまで、多くの戦略を試していると言われている。業界関係者は非常に強気のようだ:ダリオ・アモデイ(Anthropic社CEO)は最近、ポッドキャストでこう語った:「非常に素朴に考えれば、我々はデータ不足からそれほど遠くない[...]私の推測では、これが障害になることはない[...]。もちろん、これに関するいかなる研究結果も独占的なものであり、最近は公表されていない。
インサイダーが強気であることに加え、サンプル効率をはるかに向上させたモデルをトレーニングする方法(限られたデータからより多くのことを学べるようにするアルゴリズムの改良)を見つけることが可能であるはずだという強い直感的な理由があると思う。あなたや私が、本当に密度の濃い数学の教科書からどのように学ぶかを考えてみてほしい:
モデルをトレーニングする昔の技術は単純で素朴なものだったが、それでうまくいっていた。今、それがより大きな制約となる可能性があるため、すべての研究室が数十億ドルと最も賢い頭脳を投入して、それを解読することを期待すべきだろう。ディープラーニングの一般的なパターンは、細部を正しく理解するためには多くの努力(そして多くの失敗プロジェクト)が必要だが、最終的には明白でシンプルなものが機能するというものだ。過去10年間、ディープラーニングがあらゆる壁をぶち破ってきたことを考えると、ここでも同じようなことが起こるだろう。
さらに、合成データのようなアルゴリズムの賭けの1つを解くことで、モデルを劇的に改善できる可能性もある。直感的なポンプを紹介しよう。Llama 3のような現在のフロンティアモデルは、インターネット上でトレーニングされている。多くのLLMは、本当に質の高いデータ(例えば、難しい科学的問題に取り組む人々の推論チェーン)ではなく、このようながらくたにトレーニング計算の大半を費やしている。もしGPT-4レベルの計算を、完全に極めて質の高いデータに費やすことができたらと想像してみてほしい。
AlphaGo(囲碁で世界チャンピオンを破った最初のAIシステム)を振り返ることは、それが可能だと考えられる何十年も前に、ここでも役に立つ。
LLMのステップ2に相当するものを開発することは、データの壁を乗り越えるための重要な研究課題である(さらに言えば、最終的には人間レベルの知能を超える鍵となるだろう)。
以上のことから、データの制約は、今後数年間のAIの進歩を予測する際に、どちらに転んでも大きな誤差をもたらすと考えられる。LLMはまだインターネットと同じくらい大きな存在かもしれないが、本当にクレイジーなAGIには到達できないだろう)。しかし、私は、研究所がそれを解読し、そうすることでスケーリングカーブが維持されるだけでなく、モデルの能力が飛躍的に向上する可能性があると推測するのは妥当だと思う。
余談だが、このことは、今後数年間は現在よりも研究室間のばらつきが大きくなることを意味する。最近まで、最先端の技術は公表されていたため、基本的に誰もが同じことをやっていた。(レシピが公開されていたため、新参者やオープンソースのプロジェクトはフロンティアと容易に競合できた)。現在では、主要なアルゴリズムのアイデアはますます専有されつつある。今はフロンティアにいるように見えるラボでも、他のラボがブレークスルーを起こして先を急ぐ間に、データの壁にはまってしまうかもしれない。そして、オープンソースは競争するのがより難しくなるだろう。それは確かに物事を面白くするだろう。(そして、ある研究室がそれを解明すれば、そのブレークスルーはAGIへの鍵となり、超知能への鍵となる。)
続き I.GPT-4からAGIへ:OOMを数える(7) https://anond.hatelabo.jp/20240605210017
コンピュートへの大規模な投資が注目される一方で、アルゴリズムの進歩も同様に重要な進歩の原動力であると思われる(そして、これまで劇的に過小評価されてきた)。
アルゴリズムの進歩がどれほど大きな意味を持つかを理解するために、MATHベンチマーク(高校生の競技用数学)において、わずか2年間で~50%の精度を達成するために必要な価格が下がったことを示す次の図を考えてみてください。(比較のために、数学が特に好きではないコンピュータサイエンスの博士課程の学生が40%のスコアを出したので、これはすでにかなり良いことです)。推論効率は2年足らずで3OOMs-1,000倍近く向上した。
https://situational-awareness.ai/wp-content/uploads/2024/06/math_inference_cost-1024x819.png
これは推論効率だけの数字だが(公開データから推論するのが難しいトレーニング効率の向上と一致するかどうかはわからない)、アルゴリズムの進歩は非常に大きく、また実際に起こっている。
この記事では、アルゴリズムの進歩を2種類に分けて説明します。まず、「パラダイム内」でのアルゴリズムの改良を取り上げることにしま す。例えば、より優れたアルゴリズムによって、同じパフォーマンスを達成しながら、トレーニングの計算量を10倍減らすことができるかもしれません。その結果、有効計算量は10倍(1OOM)になります。(後ほど「アンホブリング」を取り上げますが、これはベースモデルの能力を解き放つ「パラダイム拡張/アプリケーション拡張」的なアルゴリズムの進歩と考えることができます)。
一歩下がって長期的な傾向を見ると、私たちはかなり一貫した割合で新しいアルゴリズムの改良を発見しているようです。しかし、長期的なトレンドラインは予測可能であり、グラフ上の直線である。トレンドラインを信じよう。
アルゴリズム研究がほとんど公開されており、10年前にさかのぼるデータがある)ImageNetでは、2012年から2021年までの9年間で、計算効率が一貫して約0.5OOM/年向上しています。
アルゴリズムの進歩を測定することができます。同じ性能のモデルを訓練するために必要な計算量は、2012年と比較して2021年にはどれくらい少なくなっているのでしょうか?その結果、アルゴリズムの効率は年間0.5 OOMs/年程度向上していることがわかります。出典Erdil and Besiroglu 2022.
これは非常に大きなことです。つまり、4年後には、~100倍少ない計算量で同じ性能を達成できるということです(同時に、同じ計算量ではるかに高い性能も達成できます!)。
残念ながら、研究室はこれに関する内部データを公表していないため、過去4年間のフロンティアLLMのアルゴリズムの進歩を測定することは難しい。EpochAIは、言語モデリングに関するImageNetの結果を再現した新しい研究を行っており、2012年から2023年までのLLMのアルゴリズム効率のトレンドは、同様に~0.5OOM/年であると推定しています。(しかし、これはエラーバーが広く、また、主要なラボがアルゴリズム効率の公表を停止しているため、最近の上昇を捕捉していません)。
https://situational-awareness.ai/wp-content/uploads/2024/06/llm_efficiency_epoch-1-1024x711.png
Epoch AIによる言語モデリングにおけるアルゴリズム効率の推定。この試算によると、私たちは8年間で~4OOMの効率向上を達成したことになります。
より直接的に過去4年間を見ると、GPT-2からGPT-3は基本的に単純なスケールアップでした(論文によると)が、GPT-3以降、公に知られ、公に干渉可能な多くの利益がありました:
最近リリースされたGemini 1.5 Flashは、"GPT-3.75レベル "とGPT-4レベルの間の性能を提供する一方で、オリジナルのGPT-4よりも85倍/57倍(入力/出力)安い(驚異的な利益!)。
公開されている情報を総合すると、GPT-2からGPT-4へのジャンプには、1-2 OOMのアルゴリズム効率向上が含まれていたことになります。
https://situational-awareness.ai/wp-content/uploads/2024/06/stacked_compute_algos-1024x866.png
GPT-4に続く4年間はこの傾向が続くと予想され、2027年までに平均0.5OOMs/年の計算効率、つまりGPT-4と比較して~2OOMsの向上が見込まれます。計算効率の向上は、低空飛行の果実を摘み取るようになるにつれて難しくなる一方、新たなアルゴリズムの改良を見出すためのAIラボの資金と人材への投資は急速に増加しています。 (少なくとも、公開されている推論コストの効率化は、まったく減速していないようだ)。ハイエンドでは、より根本的な、トランスフォーマーのようなブレークスルーが起こり、さらに大きな利益が得られる可能性さえある。
これらをまとめると、2027年末までには(GPT-4と比較して)1~3OOMのアルゴリズム効率向上が期待できることになります。
続き I.GPT-4からAGIへ:OOMを数える(6) https://anond.hatelabo.jp/20240605205754
どうしてこうなった?ディープラーニングの魔法は、それがただ機能するということであり、あらゆる場面で否定的な意見にもかかわらず、その傾向線は驚くほど一貫している。
https://situational-awareness.ai/wp-content/uploads/2024/06/sora_scaling-1024x383.png
効果的な計算のOOMが増えるごとに、モデルは予測通り、確実に良くなっていく。OOMを数えることができれば、能力の向上を(大まかに、定性的に)推定することができる。そうやって、先見の明のある数人がGPT-4の到来を予見したのだ。
GPT-2からGPT-4までの4年間の進歩を、スケールアップの3つのカテゴリーに分解することができる:
1. コンピュート:計算:これらのモデルを訓練するために、より大きなコンピューターを使うようになった。
2.アルゴリズムの効率化:アルゴリズムの進歩には継続的な傾向がある。これらの多くは「コンピュート・マルチプライヤ」として機能し、有効なコンピュート量の増加という統一された尺度に乗せることができます。
3.「趣味のない」利益:デフォルトでは、モデルは多くの素晴らしい生の能力を学習しますが、あらゆる種類の間抜けな方法で足かせとなり、実用的な価値が制限されます。人間のフィードバックからの強化学習(RLHF)、思考の連鎖(CoT)、ツール、足場などの単純なアルゴリズムの改善により、潜在的な能力を大きく引き出すことができる。
これらの軸に沿って、改善の「OOMを数える」ことができる。つまり、有効計算量の単位でそれぞれのスケールアップをトレースするのだ。3倍は0.5OOM、10倍は1OOM、30倍は1.5OOM、100倍は2OOMといった具合だ。2023年から2027年まで、GPT-4の上に何を期待すべきかを見ることもできる。
ひとつひとつ見ていくが、OOMの数を急速に増やしていることは明らかだ。データの壁には逆風が吹いている可能性があり、それについては後述するが、全体的には、2027年までにGPT-4の上に、GPT-2からGPT-4規模のジャンプがもう1回起こると予想される。
まず、最近の進歩の原動力として最もよく議論されている、モデルへの(大量の)コンピュート投入について説明します。
多くの人は、これは単にムーアの法則によるものだと考えている。しかし、ムーアの法則が全盛期を迎えていた昔でさえ、その進歩は比較的緩やかなものでした。しかし、ムーアの法則が全盛期だった昔でさえ、10年で1~1.5OOMと、比較的ゆっくりとしたスピードだった。(かつては1つのモデルに100万ドルを費やすことさえ、誰も考えもしないことだった。)
モデル | 推定コンピュート | 成長率 |
---|---|---|
GPT-2 (2019) | ~4e21 FLOP | |
GPT-3 (2020) | ~3e23 FLOP + | ~2 OOMs |
GPT-4 (2023) | 8e24~4e25 FLOP + | ~1.5~2 OOMs |
エポックAI(AIトレンドの優れた分析で広く尊敬されている情報源)の公開推定値を使用して、2019年から2023年までのコンピュートスケールアップを追跡することができます。GPT-2からGPT-3へのスケールアップは迅速で、小規模な実験から大規模な言語モデルを訓練するためにデータセンター全体を使用するまでにスケールアップし、コンピュートのオーバーハングが大きくなりました。GPT-3からGPT-4へのスケールアップでは、次のモデルのためにまったく新しい(はるかに大きな)クラスタを構築しなければならないという、最新の体制に移行しました。それでも劇的な成長は続いています。エポックAIの試算によると、GPT-4のトレーニングでは、GPT-2の3,000倍から10,000倍の計算量を使用しています。
大雑把に言えば、これは長期的なトレンドの継続に過ぎない。過去10年半の間、主に投資(およびGPUやTPUの形でAIワークロードに特化したチップ)の幅広いスケールアップのため、フロンティアAIシステムに使用されるトレーニング計算量は、およそ〜0.5OOM/年で成長してきた。
https://situational-awareness.ai/wp-content/uploads/2024/06/compute_long_run_trend-1024x968.png
GPT-2からGPT-3への1年間のスケールアップは異例のオーバーハングであったが、長期的なトレンドが続くことは間違いない。SF-rumor-millは、巨額のGPU受注の劇的な話で一杯だ。その投資は並大抵のものではないが、動き始めている。
この分析によれば、2027年末までにさらに2OOMsのコンピュート(数十億ドル規模のクラスター)が実現する可能性は非常に高いと思われる。さらに+3OOMsのコンピュート(1,000億ドル規模以上)に近いクラスターも可能性がありそうだ(マイクロソフト/OpenAIで計画中と噂されている)。
https://situational-awareness.ai/wp-content/uploads/2024/06/stacked_compute-1024x866.png
続き I.GPT-4からAGIへ:OOMを数える(5) https://anond.hatelabo.jp/20240605205449
過去10年間のディープラーニングの進歩のペースは、まさに驚異的だった。ほんの10年前、ディープラーニング・システムが単純な画像を識別することは革命的だった。今日、我々は斬新でこれまで以上に難しいテストを考え出そうとし続けているが、新しいベンチマークはどれもすぐにクラックされてしまう。以前は広く使われているベンチマークをクラックするのに数十年かかっていたが、今ではほんの数カ月に感じられる。
https://situational-awareness.ai/wp-content/uploads/2024/06/owid-test-scores-1024x723.png
ディープラーニング・システムは、多くの領域で急速に人間レベルに達し、あるいはそれを超えつつある。グラフィック データで見る我々の世界
私たちは文字通りベンチマークを使い果たしている。 逸話として、友人のダンとコリンが数年前、2020年にMMLUというベンチマークを作った。彼らは、高校生や大学生が受ける最も難しい試験に匹敵するような、時の試練に耐えるベンチマークを最終的に作りたいと考えていた。GPT-4やGeminiのようなモデルで〜90%だ。
より広く言えば、GPT-4は標準的な高校や大学の適性試験をほとんど解いている。(GPT-3.5からGPT-4までの1年間でさえ、人間の成績の中央値を大きく下回るところから、人間の成績の上位に入るところまで、しばしば到達した)
https://situational-awareness.ai/wp-content/uploads/2024/06/gpt4_exams-780x1024.png
GPT-4の標準テストのスコア。また、GPT-3.5からGPT-4への移行で、これらのテストにおける人間のパーセンタイルが大きく跳ね上がり、しばしば人間の中央値よりかなり下から人間の最上位まで到達していることにも注目してほしい。(これはGPT-3.5であり、GPT-4の1年も前にリリースされたかなり新しいモデルである。)
https://situational-awareness.ai/wp-content/uploads/2024/06/math2022-1024x273.png
灰色:2021年8月に行われた、MATHベンチマーク(高校数学コンテストの難解な数学問題)の2022年6月のパフォーマンスに関する専門家の予測。赤い星:2022年6月までの実際の最先端のパフォーマンス。ML研究者の中央値はさらに悲観的だった。
MATHベンチマーク(高校の数学コンテストで出題された難しい数学の問題集)を考えてみよう。このベンチマークが2021年に発表されたとき、最高のモデルは問題の5%しか正解できなかった。そして元の論文にはこう記されている:「さらに、このままスケーリングの傾向が続けば、単純に予算とモデルのパラメータ数を増やすだけでは、強力な数学的推論を達成することは現実的ではないことがわかった。数学的な問題解決をより牽引するためには、より広範な研究コミュニティによる新たなアルゴリズムの進歩が必要になるだろう」、つまり、MATHを解くためには根本的な新しいブレークスルーが必要だ、そう彼らは考えたのだ。ML研究者の調査では、今後数年間の進歩はごくわずかだと予測されていた。しかし、わずか1年以内(2022年半ばまで)に、最高のモデルの精度は5%から50%に向上した。
毎年毎年、懐疑論者たちは「ディープラーニングではXはできない」と主張し、すぐにその間違いが証明されてきた。過去10年間のAIから学んだ教訓があるとすれば、ディープラーニングに賭けてはいけないということだ。
現在、最も難しい未解決のベンチマークは、博士号レベルの生物学、化学、物理学の問題を集めたGPQAのようなテストである。問題の多くは私にはちんぷんかんぷんで、他の科学分野の博士でさえ、Googleで30分以上かけてやっとランダムな偶然を上回るスコアを出している。クロード3オーパスは現在60%程度であり、それに対してインドメインの博士たちは80%程度である。
https://situational-awareness.ai/wp-content/uploads/2024/06/gpqa_examples-768x1120.png
続き I.GPT-4からAGIへ:OOMを数える (4) https://anond.hatelabo.jp/20240605205024
2027年までにAGIが実現する可能性は極めて高い。GPT-2からGPT-4までの4年間で、私たちは〜未就学児から〜賢い高校生までの能力を手に入れた。計算能力(~0.5桁またはOOMs/年)、アルゴリズム効率(~0.5OOMs/年)、および「趣味のない」向上(チャットボットからエージェントへ)のトレンドラインをトレースすると、2027年までに再び未就学児から高校生規模の質的ジャンプが起こると予想される。
見て。モデルたちはただ学びたいだけなんだ。あなたはこれを理解しなければならない。モデルたちは、ただ学びたいだけなんだ。
GPT-4の能力は、多くの人に衝撃を与えた。コードやエッセイを書くことができ、難しい数学の問題を推論し、大学の試験を突破することができるAIシステムである。数年前までは、これらは難攻不落の壁だと思っていた。
しかしGPT-4は、ディープラーニングにおける10年間の猛烈な進歩の延長線上にあった。その10年前、モデルは犬猫の単純な画像を識別するのがやっとだった。4年前、GPT-2は半可通な文章をつなぎ合わせるのがやっとだった。今、私たちは思いつく限りのベンチマークを急速に飽和させつつある。しかし、この劇的な進歩は、ディープラーニングのスケールアップにおける一貫した傾向の結果に過ぎない。
ずっと以前から、このことを見抜いていた人々がいた。彼らは嘲笑されたが、彼らがしたのはトレンドラインを信じることだけだった。トレンドラインは強烈で、彼らは正しかった。モデルはただ学びたいだけなのだ。
私は次のように主張する。2027年までには、モデルがAIの研究者やエンジニアの仕事をこなせるようになるだろう、と。SFを信じる必要はなく、グラフ上の直線を信じるだけでいいのだ。
https://situational-awareness.ai/wp-content/uploads/2024/06/base_scaleup-1024x790.png
過去と将来の有効計算量(物理計算量とアルゴリズム効率の両方)の大まかな見積もり。モデルをスケールアップすればするほど、モデルは一貫して賢くなり、"OOMを数える "ことによって、(近い)将来に期待されるモデルのインテリジェンスの大まかな感覚を得ることができます。(このグラフはベースモデルのスケールアップのみを示している。)
この記事で取り上げた一般的な推定に基づく、効果的な計算(物理的な計算とアルゴリズムの効率の両方)の過去と将来のスケールアップの概算。モデルをスケールアップするにつれ、モデルは一貫して賢くなり、「OOMを数える」ことで、(近い)将来に期待されるモデルのインテリジェンスの大まかな感覚を得ることができる。(このグラフはベースモデルのスケールアップのみを示している。"unobblings "は描かれていない)。
この作品では、単純に「OOMを数える」(OOM = order of magnitude、10x = 1 order of magnitude)ことにします。1)計算、2)アルゴリズム効率(「効果的な計算」の成長として考えることができるアルゴリズムの進歩)、3)「アンホブリング」(モデルがデフォルトで足かせとなっている明らかな方法を修正し、潜在的な能力を引き出し、ツールを与えることで、有用性を段階的に変化させること)の傾向を見ます。GPT-4以前の4年間と、GPT-4後の2027年末までの4年間に期待されるそれぞれの成長を追跡する。ディープラーニングが効率的な計算のすべてのOOMで一貫して向上していることを考えると、将来の進歩を予測するためにこれを使うことができる。
世間では、GPT-4のリリースから1年間、次世代モデルがオーブンに入ったままであったため、ディープラーニングは停滞し、壁にぶつかっていると宣言する人もいた。しかし、OOMをカウントすることで、私たちは実際に何を期待すべきかを垣間見ることができる。
結果は非常にシンプルだ。GPT-2からGPT-4への移行は、時々まとまりのある文章を並べることに感動的だったモデルから、高校入試のエースになるモデルへの移行であり、一度だけの進歩ではない。私たちはOOMsを極めて急速に克服しており、その数値は、4年以上かけてGPT-2からGPT-4への質的なジャンプをさらに~100,000倍の効果的なコンピュート・スケールアップが期待できることを示している。さらに、決定的なことは、それは単にチャットボットの改良を意味しないということだ。"unhobbling "利益に関する多くの明らかな低空飛行の果実を選ぶことで、チャットボットからエージェントへ、ツールからドロップイン・リモートワーカーの代替のようなものへと我々を導いてくれるはずだ。
推論は単純だが、その意味するところは注目に値する。このような別のジャンプは、私たちをAGIに、博士号や同僚として私たちのそばで働くことができる専門家と同じくらい賢いモデルに連れて行く可能性が非常に高い。おそらく最も重要なことは、これらのAIシステムがAI研究そのものを自動化することができれば、次回のテーマである強烈なフィードバック・ループが動き出すということである。
現在でも、このようなことを計算に入れている人はほとんどいない。しかし、AIに関する状況認識は、一歩下がってトレンドを見てみれば、実はそれほど難しいことではない。AIの能力に驚き続けるなら、OOMを数え始めればいい。
続き I.GPT-4からAGIへ:OOMを数える (2) https://anond.hatelabo.jp/20240605204240
フィッシャーは子を育てるコストを親の出費と呼んだ。フィッシャーの原理で重要な点は、進化的に安定な状態となるのは、子の数の性比が1:1の時ではなく、親がオスの子とメスの子へ振り分ける総出費の比が1:1になるときであると発見したことである。
Cmはオスを作るコスト、Mはオスの子数、Cfはメスを作るコスト、Fはメスの子数を表す。つまり、たとえばオスの子がメスよりも大きく成長する(しなければ性選択に勝てないなど)状況で、オスを育てるコストがメスの二倍になるのであれば、その動物ではオスの子の数はメスの半分に減るだろうということである。そして多くの動物ではこの予測がおおむね成り立っている事がわかっている。フィッシャーの親の出費(現在では「親の投資」と呼ばれる)の概念は、特にロバート・トリヴァーズによって洗練されて生態学の重要な概念となった。またこの予測を大きく外れるケースについてはハミルトンが『異常な性比』で論じている。
3つある
それぞれについて説明していく。
縦読み漫画が少しずつ勢力を伸ばしている背景として「見開き表示の難しいスマホでは既存の左右セットの漫画は読みにくいことがある。ならば1ページごとスクロールする方式にすれば、スマホでも読みやすいのでは」という考えがある。
そういった所を目指して作られている。
TIKTOKなどのUIがスマホ向けに構築されているのと同じ文脈の中に縦読み漫画はある。
そうなると結果として「スマホでも読みやすいことを目指す」ということがどうしても条件付けられていく。
1スクロールの情報量を絞るということは、漫画が今まで積み上げてきた視線誘導やコマ割りの技術が全く使えなくなるということだ。
重要な場面もどうでもいい場面も同じぐらいの大きさのコマで表示されては、漫画の持つ独特のリズム感が失われてしまう。
多少コマ割りを工夫したところで、単に台詞の数が多いだけのページと重要なページのコマが結局一緒になるのだから焼け石に水だ。
漫画の情報量を扱うのに現代のスマホの機能が低すぎるのである。
これには「漫画の読み方がわからない人でも、スクロールを追っていくだけなら読めるのではないか?」という発想が根底にある。
先ほど言ったように、そもそも縦読み漫画は既存の漫画ロジックを使うことが難しいという欠点を持つが、これが既存の漫画ロジックを知らない漫画原始人でも読みやすいという予測に繋がったのである。
漫画の基本ロジックを知らないということは、そもそも漫画というものに対してのあらゆる知識が乏しいということである。
現代の漫画には多くの約束事があるが、読み慣れた読者と描き慣れた作者にとってはそれらの約束事が情報の精度と速度を高めるための補助として大いに役立つわけである。
コマの形だけで、モノローグ、内心、驚き、悲しみ、といった情報を伝えることが出来ることで、「悲しそうな雰囲気で楽しそうな言葉を言う」といった描写も簡単に出来てしまう。
だが漫画初心者にはこれが通じないかも知れない、そして縦読み漫画がターゲットとしている層に漫画初心者が含まれる、つまり、こういった漫画技術を縛って書く必要が出てくるのである。
漫画的な知識が乏しい読者を相手にすることで起きるのは何も技術の制約だけではない。
既存の名作漫画を知らないということは「知る人が見れば名作の下位互換でしかないような作品」であっても、「初めて見るような凄い作品」として受け入れられてしまうということだ。
これにより縦読み漫画の世界では散々手垢のつきまくった名作を雑に真似ただけのような作品が次々と生み出されていく。
横読みなら手垢がつきまくりオリジナリティ皆無とされるような漫画が、漫画をろくに知らない読者には新鮮に映るのだから、それで簡単に評価されてしまう。
適当にやっても簡単に評価されるし、むしろ手が込んだものを作れば理解されないとくれば、粗製乱造が界隈の当たり前になる。
そういった漫画を好まない読者は横読みに流れていき、そういった漫画を好む読者だけが縦読み漫画に残る。
結果として、縦読み漫画という表現形態そのものが「手垢のついた展開の簡易版を読んだり描いたりする場所」として立ち位置を固めてしまったわけだ。
今後、縦読み漫画の中でも少しずつ名作が増えていくに連れこのような状況は緩和されるのかも知れないし、縦読み漫画は漫画初心者の入門用としての立ち位置になり、ある程度読み慣れた読者は自然と卒業するものになるのかも知れない。
俺に分かるのは、現状の縦読み漫画はつまらなくなるべくしてつまらない漫画まみれになっているということだけだ。
ロシア軍の再建スピードは予想以上、NATOの残された時間は2年~3年
「ロシア軍の再編スピードは予想を上回る」、「戦力規模は侵攻前よりも15%ほど大きくなっている」
「ロシアの生産能力はウクライナでのニーズを上回り備蓄が積み上がっている」、「備蓄に振り向けられた武器・弾薬はウクライナの次に備えたものだ」
Defense Newsの取材に応じた欧米の国防当局者やロシア軍関連の専門家
「予想よりも早くロシア軍が再建されている」
「ロシアのGDPは縮小すると予測されていたにも関わらず2023年に3%も成長した」
「ロシアは年1,200輌の戦車を供給することができ、最低でも300万発の砲弾やロケット弾を製造できる」
「ロシアは毎月約3万人の新兵を採用して最前線の兵力を47万人まで増やすことに成功した」
「この規模は侵攻前のロシア軍を上回る」
「ロシアの人的供給能力と産業界の生産能力はウクライナでの消耗分を上回り始めた可能性が浮上」」
ロシアは2026年までに軍の規模を101万人から150万人に拡張する
これが実現するとプーチン大統領は「ウクライナと戦争を継続するための戦力50万人」と「侵攻前に保有していた戦力100万人」の両方を手にすることができる
私が住んでいるのは田舎だ。
それでも最後のプライドを示すかのようにデパートがひとつだけ残っている。
といっても平日は実に閑散としていて客の姿は一階のスーパーで見かける程度で、二階三階と階を登るにつれて人の姿は少なくなり、五階ともなれば人の行き来はほぼ見かけない。
おそらくこのデパートの寿命もそう長くはないだろう。その事に気づいた私は、平日の午後イチ、ネコバッグに猫を入れると五階に向かった。
一度、猫をエスカレーターに乗せてみたかったのだ。猫はエスカレーターに対して、どのような反応を見せるのか?一度考えるとその考えは頭から切り離されることはなく、頭の片隅に残り続けていた。
そして私はとうとうチャンスを見つけたのだ。
実行当日、予測通り人の姿はまばらで、五階にまで行くと誰もいない。
私は下りのエスカレーター前で素早く猫をリリースすると、猫はもっさりとした動作でネコバッグから降り立った。
それから猫は慎重に一歩、二歩と歩みを進ませると目の前に動く階段があることに気づき、不安そうに振り返って私を見つめた。
私は手短にエスカレーターの説明をした。これはエスカレーターといって、まあ動く階段のようなものだよと。
猫は要領を得ない様子で首をかしげ、乗ってみたら?と声をかけた。しかし猫はまだ怖いようで、立ち往生している。乗り方が分からないのだろうと思い、手本を見せようと私は前に躍り出てエスカレーターに乗った。ほら、こうして乗るんだよ。大丈夫だからおいで。それでも猫は二の足を踏み、私との距離はどんどん離れていく。
私は不安になり、大丈夫だからおいで、と声をかけ続けたが猫は動じない。猫の姿はみるみる小さくなっていき、猫も不安そうにエスカレーターの前を行ったり着たりしている。
いよいよ猫の姿が消えそうになったとき、私は猫の名前を呼んだ。すると猫は飛び込むようにエスカレーターに乗り、そのまま駆け込むように下った。
すごいスピードだ!
エスカレーターの速度と猫の速度が合わさり、猫は光のような速さでエスカレーターを下ると私に追いつき、私に抱きついてきた。
猫は興奮し、緊張していたのかドキドキという心拍音が直に伝わってきた。
私はエスカレーターを下りきる前に素早く猫をネコバッグにしまい、それから何事もなかったように一階まで下るとデパートを後にした。
猫はネコバッグから頭を出し、振り返るようにデパートを見やった。私も興奮していたが、猫も興奮していたのだ。
それから猫は「にゃあ」と一度だけ鳴き、バッグの中へと戻っていった。私はもう振り返らず、帰路に着いた。
ここは過疎地だ。駅前の商店街は降りたシャッターの数の方が多い。デパートの寿命もいつ切れてもおかしくはない。それでももう、私には思い残すことはなかった。
一昨日の朝方には荒川河川敷にいたから、その時は、土曜日だったこともあって、早めに明るくなるように設定してあったが、平日の場合はそこまで急速に明るくならないはずである。
現在は日曜の夕方なので、今いる場所から、舟渡2丁目向こうの河川敷がどのような状況になっているかを予測しようと思っても、できない。
国立科学技術研究所に設置されている人工知能が、2ちゃんねるなどのインターネットの書き込みによって左右されているのかは全く分からない。
いや、「仕方がない」とかどこにも書いてない
書いてないこと勝手に読み取って噛み付くのやめてほしい
現状の漫画原作ドラマだと原作が大事にされないのは当たり前で、それを知ってれば予想できて避けられたのに予測できなかったからこんな悲劇になってしまったと嘆いている
そして、出版社や編集者はそういう現状をよく知っているはずだから、原作者が原作を大切にしようとしている時点でちゃんと説明すべきだったと言っている
この国が抱える問題は少子高齢人口減少社会に起因する総人口減、労働力減、需要減、社会保障費増なのはみーんな知ってるわけだろ?
その解決策の一つが外国人労働者受け入れなわけだけど、きみらはてなーはみーんな反対してるわけだ。
若い外国人が日本に住み着いて働いてくれたら、労働力不足によるコストプッシュインフレが抑えられ、その代わり消費が増えて需要が回復するのでデマンドプルインフレが起こって景気が良くなる。
また社会保障の担い手が増えるので一人当たりの費用負担は減る。
でも嫌、無理、やりたくないという。
じゃあどうするよ?
他所から人を呼んでくるのが嫌なら自分達で増やすしかないわけだけど、ほんとにそれやる気ある?
きみらはてなーが43歳だとすると、きみらの世代の人口は154万4千人なのでそのちょうど半分ということになる。
きみらが22年後、遅めの定年を迎える時、入ってくる新卒の数は半分になる。
(ちなみにきみらはてなーが30歳ならきみら世代の人口は116万8千人なので35%減、きみらはてなーが20歳なら111万1千人なので32%減だ)
単純に考えて、今の仕事を量をそのままに半分の人数でやるとなったら生産効率を2倍にしないといけない。
20年かけて2倍にするので年間3.5%ずつ効率化していかないといけない。
これは一部の業界だけとか、大企業だけとか、スタートアップだけとかではダメで、全業界全業種全職種で毎年3.5%以上効率化していかないと今の社会を保つことすらできないってことだ。
もちろんそれだけでは収支がとんとんなので、いまより豊かな社会にしよう、便利な暮らしにしよう、物価高を抑えて実質賃金をあげて、好景気にしようと望むなら、さらに数%上乗せで成長が必要になる。
そんなのできる?やる気ある?
こっからが本題だけど、↑の話を前提として、75万人しか子供が生まれないのはヤバすぎる、出生数が100万人くらいで安定して生まれてくる社会になれば安心だなって思うとするでしょ。
それを実現するには一人何人子供産めばいいかわかる?わからない?実は統計を見れば簡単にわかるんだよね。
合計特殊出生率というのがある。
15歳から49歳までの女性がその年に何人の子供産んだのかという数字ね。
この数字は生涯に何人子供を産むかという数字として一般に考えられているけど、単純に出生数を予測するのにも使える。
[15から49までの女性の数]×[合計特殊出生率]/[35]をすれば年間に何人子供が生まれるかわかる。
これは2023年10月時点の0歳から49歳までの年齢別女性人口(単位:千人)
年齢 | 人口 |
0 | 360 |
1 | 380 |
2 | 396 |
3 | 400 |
4 | 417 |
5 | 438 |
6 | 450 |
7 | 468 |
8 | 481 |
9 | 480 |
10 | 494 |
11 | 495 |
12 | 507 |
13 | 512 |
14 | 515 |
15 | 525 |
16 | 521 |
17 | 517 |
18 | 518 |
19 | 537 |
20 | 539 |
21 | 557 |
22 | 567 |
23 | 570 |
24 | 573 |
25 | 582 |
26 | 580 |
27 | 580 |
28 | 587 |
29 | 585 |
30 | 571 |
31 | 579 |
32 | 578 |
33 | 589 |
34 | 603 |
35 | 624 |
36 | 643 |
37 | 655 |
38 | 682 |
39 | 707 |
40 | 717 |
41 | 716 |
42 | 725 |
43 | 759 |
44 | 777 |
45 | 810 |
46 | 832 |
47 | 873 |
48 | 911 |
49 | 962 |
この表をもとに2024年から2039年の15~49歳の女性人口と、仮に合計特殊出生率が現在のまま(1.20)続いた場合の出生数、そして出生数を100万人にするのに必要な理論上の合計特殊出生率、さらに移民反対派の人だけで出生数を100万人にするために必要な合計特殊出生率の表を作った。
年 | 15~49歳の女性人口 | 合計特殊出生率が1.2のままだった場合の出生数 | 出生数を100万人にするために必要な合計特殊出生率 | 今の社会はそのままで、移民反対派の人だけで出生数100万人を目指す場合に移民反対派の人に求められる合計特殊出生率 |
--- | --- | --- | --- | --- |
2024 | 22651 | 776.61 | 1.55 | 1.96 |
2025 | 22204 | 761.28 | 1.58 | 2.04 |
2026 | 21805 | 747.60 | 1.61 | 2.11 |
2027 | 21439 | 735.05 | 1.63 | 2.18 |
2028 | 21102 | 723.50 | 1.66 | 2.25 |
2029 | 20786 | 712.66 | 1.68 | 2.31 |
2030 | 20489 | 702.48 | 1.71 | 2.37 |
2031 | 20211 | 692.95 | 1.73 | 2.43 |
2032 | 19954 | 684.14 | 1.75 | 2.49 |
2033 | 19688 | 675.02 | 1.78 | 2.54 |
2034 | 19409 | 665.45 | 1.80 | 2.61 |
2035 | 19119 | 655.51 | 1.83 | 2.68 |
2036 | 18837 | 645.84 | 1.86 | 2.75 |
2037 | 18578 | 636.96 | 1.88 | 2.81 |
2038 | 18315 | 627.94 | 1.91 | 2.88 |
わかるかな?
つまりさ、子供を産むとされる女性の人口(15~49歳)は年々減ってってるわけだよね。
そして、今の社会のまま、今の出生率(1.2)のままだと15年後には出生数は62万人まで減っていく(今の30歳人口のほぼ半分だ)。
これを回避して、今年から毎年出生数を100万人くらいに増やしてその状態をキープしようとするなら合計特殊出生率を1.91まで上げていかなければならないってことになる。
でもそんなの無理だよね?やりたくないよね?結婚したくない人もいるし、結婚しても子供欲しくない人もいる。その思いは尊重されるべきだよね?
そこで代替案として移民が出てくるわけで、移民をいれたらそんなに頑張らなくてもよくなる。今のままでよくなる。
けどそれは絶対嫌!っていうひとたちがいる。きみら移民嫌いのはてなーだ。じゃあきみらが帳尻を合わせないと。
そこで出てくるのが、「今の社会はそのままで、移民反対派の人だけで出生数100万人を目指す場合に移民反対派の人に求められる合計特殊出生率」の列だ。
見たらわかるようにほぼ3だ。きみらは必ず子供を産まなければならないし、最低でも3人産まなければならない。
さもないと、老い先短い老人が自分のことしか考えずにわがまま言うのと変わらない。
「医療費上げるな!年金減らすな!所得税と法人税をもっと上げろ!社会保険料が足りないならもっと上げろ!」と声を上げる老人の話を真面目に聞く気になるか?
私が住んでいるのは田舎だ。
それでも最後のプライドを示すかのようにデパートがひとつだけ残っている。
といっても平日は実に閑散としていて客の姿は一階のスーパーで見かける程度で、二階三階と階を登るにつれて人の姿は少なくなり、五階ともなれば人の行き来はほぼ見かけない。
おそらくこのデパートの寿命もそう長くはないだろう。その事に気づいた私は、平日の午後イチ、ネコバッグに猫を入れると五階に向かった。
一度、猫をエスカレーターに乗せてみたかったのだ。猫はエスカレーターに対して、どのような反応を見せるのか?一度考えるとその考えは頭から切り離されることはなく、頭の片隅に残り続けていた。
そして私はとうとうチャンスを見つけたのだ。
実行当日、予測通り人の姿はまばらで、五階にまで行くと誰もいない。
私は下りのエスカレーター前で素早く猫をリリースすると、猫はもっさりとした動作でネコバッグから降り立った。
それから猫は慎重に一歩、二歩と歩みを進ませると目の前に動く階段があることに気づき、不安そうに振り返って私を見つめた。
私は手短にエスカレーターの説明をした。これはエスカレーターといって、まあ動く階段のようなものだよと。
猫は要領を得ない様子で首をかしげ、乗ってみたら?と声をかけた。しかし猫はまだ怖いようで、立ち往生している。乗り方が分からないのだろうと思い、手本を見せようと私は前に躍り出てエスカレーターに乗った。ほら、こうして乗るんだよ。大丈夫だからおいで。それでも猫は二の足を踏み、私との距離はどんどん離れていく。
私は不安になり、大丈夫だからおいで、と声をかけ続けたが猫は動じない。猫の姿はみるみる小さくなっていき、猫も不安そうにエスカレーターの前を行ったり着たりしている。
いよいよ猫の姿が消えそうになったとき、私は猫の名前を呼んだ。すると猫は飛び込むようにエスカレーターに乗り、そのまま駆け込むように下った。
すごいスピードだ!
エスカレーターの速度と猫の速度が合わさり、猫は光のような速さでエスカレーターを下ると私に追いつき、私に抱きついてきた。
猫は興奮し、緊張していたのかドキドキという心拍音が直に伝わってきた。
私はエスカレーターを下りきる前に素早く猫をネコバッグにしまい、それから何事もなかったように一階まで下るとデパートを後にした。
猫はネコバッグから頭を出し、振り返るようにデパートを見やった。私も興奮していたが、猫も興奮していたのだ。
それから猫は「にゃあ」と一度だけ鳴き、バッグの中へと戻っていった。私はもう振り返らず、帰路に着いた。
ここは過疎地だ。駅前の商店街は降りたシャッターの数の方が多い。デパートの寿命もいつ切れてもおかしくはない。それでももう、私には思い残すことはなかった。
このニュースのコメント欄を見ていると、つくづく発達障害者には人権がないんだなと思う。
9歳の子供がよりによって実の母親から殺されそうになるだなんて、さぞかし辛いし痛ましい事件なのに
殺されかけた男の子の心配はそっちのけで母親に同情的なコメントばかりが集まっている。
ただでさえ親の子殺しに甘い世論に発達障害への差別が合わさって、母親擁護一辺倒のコメント欄が本当にグロテスクだと思う。
発達障害だったら殺されても仕方がないのか?それもよりによって母親に?
子供を産む時点で我が子に障害があるかもしれない事なんて当然予測出来たと思うのに、産んだ後で被害者面する親の多さが信じられない。
仮に子供が発達障害だという言及がなければ、おそらくは母親を責める声もちょっとはあったんだろうな
そのくらい、今の世の中において発達障害者は、殺されても仕方がない存在として扱われている
それと「父親はどうした」というコメントも多いが、実際に犯行に及んだのはあくまで母親なのに、どうして真っ先に「父親はどうした」が出て来てしまうのか。死別の可能性を一切考えていないのも不思議だ。
https://news.yahoo.co.jp/articles/ccc6a51c1ee7e21d0c3447a79ddfe7ec2f3e8332