「効果」を含む日記 RSS

はてなキーワード: 効果とは

2024-06-06

anond:20240606104053

911ときには第二次大戦終結後50年が経過しており

インターネット戦時効用を確かめ必要性もあった

バンカーバスタ劣化ウラン弾白リン弾など新兵器もあったので自演説は否定できない

ちな今現在ドローン戦時効用確認されていることは間違いない

 

兵器法律も使わないと効果が分からない

発展途上国実験に利用されてきたのは原爆も同じことだ

ウクライナも大変だよな

西側の新型兵器があればポンコツ旧式兵器ロシア蹂躙できる

はずが実戦では思ったほどの優位性はなく数の力でボコられ

制裁効果ロシア弾薬が枯渇している

はずが割りとすぐ建て直されて、逆にアメリカ政争支援が止まってウクライナ側の弾薬が枯渇し

このままだとクリミア奪還なんてムリだけど、全土奪還まで戦う、停戦もしないって世界中に啖呵切っちゃったから後には引けないんだよね

2024-06-05

anond:20240605200247

オタクの村ルールなんかはホモソの典型例なんじゃないか

身内にしか通じない上に言うほど効果も見込めない検索避けなんて謎ルールを敷いて守らなかったやつは皆で袋叩き

ルールを守る人は友達それ以外は敵」みたいな極端な思考で内側に引きこもって外部の人間を異様に敵視して迷惑をかけている

典型例なホモ仕草

anond:20240605210739

どちらかというとマイナス効果があるという点で意味があるよ

I.GPT-4からAGIへ:OOMを数える (9)

3.コンピュータ使用

これはおそらく3つの中で最も簡単方法だ。現在のChatGPTは、基本的に、テキスト入力できる孤立した箱の中に座っている人間のようなものだ。初期のアンホブリング改良では、個々の孤立したツールの使い方をモデルに教えていましたが、マルチモーダルモデルでは、近いうちにこれを一挙にできるようになると期待しています

まりZoomでの通話に参加したり、オンラインで調べ物をしたり、メッセージ電子メールを送ったり、共有されたドキュメントを読んだり、アプリや開発ツールを使ったりといったことだ。(もちろん、より長いホライゾン・ループモデルがこれを最大限に活用するためには、テスト時間コンピューティングをアンロックする必要がある。)

最終的には、ドロップイン・リモートワーカーのようなものができると期待している。エージェントは、あなた会社入社し、新しい人間雇用のようにオンボードされ、Slackあなたや同僚にメッセージを送り、あなたソフトウェア使用し、プルリクエストを行い、大きなプロジェクトがあれば、人間独立してプロジェクト完了するために数週間留守にするのと同等のことができる。これを実現するためには、GPT-4よりもいくらか優れたベースモデル必要だろうが、おそらくそれほどでもないだろう。

https://situational-awareness.ai/wp-content/uploads/2024/06/devin.gif

Devinは、完全に自動化されたソフトウェアエンジニアを作るために、モデル上の「エージェンシーオーバーハング」/「テストタイムコンピューティングオーバハング」を解除する初期のプロトタイプだ。Devinが実際にどの程度機能するかはわからないし、このデモは、適切なチャットボットエージェントのアンホブリングがもたらすものに比べれば、まだ非常に限定的ものだが、近々登場するものティーザーとしては役に立つだろう。

ところで、私は、アンホブリングの中心性が、商業的応用という点で、少々興味深い「ソニックブーム効果につながると期待している。現在ドロップイン・リモートワーカーの中間モデルは、ワークフローを変更し、統合して経済的価値を引き出すためのインフラを構築するために、膨大な手間を必要とする。ドロップイン・リモートワーカーは、統合が劇的に簡単になる。つまりリモートでできるすべての仕事自動化するために、ドロップインするだけでいいのだ。つまりドロップイン・リモートワーカーが多くの仕事自動化できるようになる頃には、中間モデルはまだ完全に活用され統合されていないため、生み出される経済価値ジャンプはやや不連続になる可能性がある。

次の4年間

https://situational-awareness.ai/wp-content/uploads/2024/06/overview_ooms_gpt2togpt4.png

https://situational-awareness.ai/wp-content/uploads/2024/06/overview_ooms_2023to2027.png

GPT-4に先立つ4年間の進歩原動力と、GPT-4後の4年間に期待されることについての推計のまとめ。


数字をまとめると、GPT-4に続く4年間で、2027年末までにGPT-2からGPT-4規模のジャンプが再び起こると(おおよそ)予想される。

GPT-4のトレーニングに3ヶ月かかったとしよう。2027年には、一流のAIラボGPT-4レベルモデルを1分で訓練できるようになるだろう。OOM効果的なコンピュート・スケールアップは劇的なものになるだろう。

それは我々をどこへ連れて行くのだろうか?

https://situational-awareness.ai/wp-content/uploads/2024/06/overview_counting_the_ooms.png

OOMカウントのまとめ。


GPT-2からGPT-4までで、私たちは~未就学児から~賢い高校生になった。とんでもないジャンプだ。もしこれが、私たちが今一度カバーする知能の差だとしたら、それは私たちをどこに連れて行くのだろうか?私たちは、それが私たちをとてもとても遠くに連れていっても驚かないはずだ。おそらく、ある分野の博士や最高の専門家凌駕するようなモデルまで到達するだろう。

(このことを考える1つの良い方法は、現在AI進歩の傾向は、子供の成長のおよそ3倍のペースで進んでいるということだ。あなたの3倍速の子どもは高校卒業したばかりだが、いつの間にかあなた仕事を奪っていくだろう!)

続き I.GPT-4からAGIへ:OOMを数える(10) https://anond.hatelabo.jp/20240605211837

I.GPT-4からAGIへ:OOMを数える (8)

チャットボットからエージェント兼同僚へ

今後数年間の野心的なアンホブリングはどのようなものになるのでしょうか?私が考えるに、3つの重要な要素がある:

1."オンボーディング問題 "の解決

GPT-4は、多くの人の仕事の大部分をこなせるだけの生の賢さを持っているが、それは5分前に現れたばかりの賢い新入社員のようなものだ:関連するコンテキストを持っておらず、会社ドキュメントSlack履歴を読んだり、チームのメンバーと会話したり、会社内部のコードベース理解するのに時間を費やしたりしていない。賢い新入社員は、着任して5分後にはそれほど役に立たないが、1ヶ月後にはかなり役に立つ!例えば、非常に長いコンテクストを通じて、新しい人間の同僚を雇うようにモデルを「オンボード」することは可能なはずだ。これだけでも、大きなアンロックになるだろう。

2.テスト時間計算オーバーハング(より長いホライズン問題に対する推論/エラー訂正/システムII)

今のところ、モデル基本的に短いタスクしかこなせない。しかし、これでは非常に限界がある。5分どころか、数時間、数日、数週間、数ヶ月かかるのだ。

難しい問題について5分間しか考えることができない科学者は、科学的なブレークスルーを起こすことはできない。ソフトウェアエンジニアは、より大きな仕事を与えられ、計画を立て、コードベース技術ツールの関連部分を理解し、さまざまなモジュールを書いて段階的にテストし、エラーデバッグし、可能性のある解決策を検索し、最終的には数週間の仕事集大成である大規模なプル・リクエストを提出する。などなど。

要するに、テスト時間計算オーバーハングが大きいのだ。GPT-4の各トークンは、問題を考えるときの内部モノローグ言葉だと考えてください。各GPT-4トークンは非常に賢いのですが、現在のところ、思考連鎖のために~数百トークンのオーダーしか効果的に使うことができません(あたか問題プロジェクトに数分しか内部独白思考を費やせないかのように)。

もし数百万トークンを使って、本当に難しい問題や大きなプロジェクトについて考え、取り組むことができるとしたらどうだろう?

トークンの数 私が何かに取り組むのに相当する時間...
100s 数分 ChatGPT (私たちはここにいる)
1000s 30分 +1 OOMsテスト時間計算
10,000 回 半日+2 OOMs
100,000ドル1週間 +3 OOMs
数百万回 複数+4 OOMs

人間が〜100トークン/分で考え、40時間/週働くと仮定して、「モデルが考える時間」をトークンで換算すると、与えられた問題/プロジェクトにおける人間時間になる。

仮に「トークンあたり」の知能が同じだったとしても、頭のいい人が問題に費やす時間が数分なのか数ヶ月なのかの違いになる。あなたのことは知らないが、私が数ヶ月でできることと数分でできることは、はるかに、はるかに、はるかに多い。もしモデルに「数分ではなく、数カ月に相当する時間、何かを考え、取り組むことができる」という能力を与えることができれば、その能力は飛躍的に向上するだろう。ここには膨大なオーバーハングがある。

今のところ、モデルにはまだこれができない。最近のロング・コンテキスト進歩をもってしても、このロング・コンテキストほとんどはトークンの消費にしか機能せず、トークン生産には機能しない。しばらくすると、このモデルはレールから外れたり、行き詰まったりする。しばらくの間、離れて単独問題プロジェクトに取り組むことはまだできない。

しかし、テスト時間計算を解除することは、単に比較的小さな「ホブリングしない」アルゴリズム勝利問題かもしれない。おそらく、少量のRLは、モデルエラー訂正(「うーん、これは正しくないようだ、再確認してみよう」)を学習したり、計画を立てたり、可能性のある解を探索したりするのに役立つだろう。ある意味モデルはすでに生の能力ほとんどを持っており、それをまとめるために、さらにいくつかのスキル学習する必要があるだけなのだ

要するに、私たちモデルに、困難で見通しの長いプロジェクトを推論させるシステムIIのアウターループのようなものを教えればいいのだ。

この外側のループを教えることに成功すれば、2、3段落の短いチャットボットの答えの代わりに、モデル問題を考え、ツールを使い、異なるアプローチを試し、研究を行い、仕事修正し、他の人と調整し、大きなプロジェクトを一人で完成させるような、何百万もの言葉ストリームあなたが読むよりも早く入ってくる)を想像してみてほしい。

他のML領域におけるテスト時間と訓練時間トレードオフ

続き I.GPT-4からAGIへ:OOMを数える(9) https://anond.hatelabo.jp/20240605210357

I.GPT-4からAGIへ:OOMを数える (7)

アンホブリング

最後に、定量化するのが最も難しいが、それに劣らず重要改善カテゴリーを紹介しよう。

難しい数学問題を解くように言われたとき、頭に浮かんだことを即座に答えなければならないとしたらどうだろう。最も単純な問題を除いて、苦労するのは明らかだろう。しかしつい最近まで、LLMにはそうやって数学問題を解かせていた。その代わり、私たちほとんどはスクラッチパッドで段階的に問題を解いていき、その方法はるかに難しい問題を解くことができる。「思考連鎖プロンプトは、LLMのそれを解き放った。生の能力は優れているにもかかわらず、明らかな足かせがあるため、LLMは数学が苦手なのだ

私たちはここ数年で、モデルの「足かせを外す」ことに大きな進歩を遂げました。これは単に優れたベースモデルトレーニングするだけでなく、アルゴリズムの改良によってモデル能力を引き出すものです:

足場作り。CoT++について考えてみよう:ただ問題を解くようモデルに求めるのではなく、あるモデル攻撃計画を立てさせ、別のモデル可能性のある解決策をたくさん提案させ、別のモデルにそれを批評させる、といった具合だ。例えば、HumanEval(コーディング問題)では、単純な足場作りによってGPT-3.5が足場なしのGPT-4を上回った。SWE-Bench(実世界ソフトウェアエンジニアリングタスクを解くベンチマーク)では、GPT-4は~2%しか正しく解くことができませんが、Devinのエージェントの足場があれば14-23%に跳ね上がります。(後ほど詳しく説明するが、エージェントのアンロックはまだ初期段階に過ぎない。)

ツール:もし人間電卓コンピュータを使うことを許されなかったらと想像してみてほしい。まだ始まったばかりだが、ChatGPTウェブブラウザを使ったり、コードを実行したりできるようになった。

エポックAIによる研究によると足場作りやツール使用など、これらのテクニックのいくつかを調査したところ、このようなテクニックは多くのベンチマークで通常5~30倍の効果的な計算量の向上をもたらすことがわかった。METR(モデル評価する組織)も同様に、同じGPT-4ベースモデルからのアンホブリングによって、エージェントタスクのセットで非常に大きなパフォーマンスの向上を発見しました。

https://situational-awareness.ai/wp-content/uploads/2024/06/metr_gains_over_time-1024x597.png

METRのエージェントタスクパフォーマンス。出典モデル評価と脅威研究


これらをコンピュートとアルゴリズム効率統一した実効的なコンピュート規模に当てはめることは困難ですが、少なくともコンピュート規模の拡大やアルゴリズム効率とほぼ同規模の大きな進歩であることは明らかです。(また、アルゴリズム進歩が中心的な役割を担っていることも浮き彫りになっています。0.5OOM/年の計算効率は、すでに重要ものではありますが、ストーリーの一部に過ぎません。)

「アンホブリング」こそが、実際にこれらのモデル有用になることを可能にしたのであり、今日多くの商業アプリケーションの足かせとなっているものの多くは、この種のさらなる「アンホブリング」の必要であると私は主張したい。実際、今日モデルはまだ信じられないほど足かせが多い!例えば

ここでの可能性は非常に大きく、私たちはここで急速に低空飛行の果実を摘んでいる。これは非常に重要です。"GPT-6 ChatGPT "を想像するだけでは完全に間違っていますGPT-6+RLHFと比べれば、進歩は段違いだ。2027年までには、チャットボットというより、エージェントのような、同僚のようなものが登場するだろう。

続き I.GPT-4からAGIへ:OOMを数える(8) https://anond.hatelabo.jp/20240605210232

I.GPT-4からAGIへ:OOMを数える (6)

データの壁

これらすべての重要な変動要因になりうるものがあります。つまり、より多くのスクレイピングデータでより大きな言語モデルをプリ・トレーニングするという素朴なアプローチが、まもなく深刻なボトルネックにぶつかり始める可能性があるということだ。

フロンティアモデルはすでにインターネットの多くで訓練されている。例えば、Llama 3は15T以上のトークン学習された。LLMのトレーニング使用されたインターネットの多くのダンプであるCommon Crawlは、生で100Tトークンを超えるが、その多くはスパムや重複である(例えば、比較的単純な重複排除は30Tトークンにつながり、Llama 3はすでに基本的にすべてのデータ使用していることになる)。さらに、コードのようなより特殊領域では、トークンの数はまだまだ少ない。例えば、公開されているgithubリポジトリは、数兆トークン推定されている。

データを繰り返すことである程度遠くまで行くことができるが、これに関する学術的な研究は、16エポック(16回の繰り返し)の後、リターンは非常に速く減少し、ゼロになることを発見し、繰り返しはそこまでしか得られないことを示唆している。ある時点で、より多くの(効果的な)計算を行ったとしても、データ制約のためにモデルをより良いものにすることは非常に難しくなる。私たちは、言語モデリング-プレトレーニング-パラダイムの波に乗って、スケーリングカーブに乗ってきた。大規模な投資にもかかわらず、私たちは停滞してしまうだろう。すべての研究室が、新しいアルゴリズム改善や、これを回避するためのアプローチに大規模な研究の賭けに出ていると噂されている。研究者たちは、合成データからセルフプレー、RLアプローチまで、多くの戦略を試していると言われている。業界関係者は非常に強気のようだ:ダリオ・アモデイ(Anthropic社CEO)は最近ポッドキャストでこう語った:「非常に素朴に考えれば、我々はデータ不足からそれほど遠くない[...]私の推測では、これが障害になることはない[...]。もちろん、これに関するいかなる研究結果も独占的なものであり、最近公表されていない。

インサイダー強気であることに加え、サンプル効率はるかに向上させたモデルトレーニングする方法(限られたデータからより多くのことを学べるようにするアルゴリズムの改良)を見つけることが可能であるはずだという強い直感的な理由があると思う。あなたや私が、本当に密度の濃い数学教科書からどのように学ぶかを考えてみてほしい:

モデルトレーニングする昔の技術は単純で素朴なものだったが、それでうまくいっていた。今、それがより大きな制約となる可能性があるため、すべての研究室が数十億ドルと最も賢い頭脳を投入して、それを解読することを期待すべきだろう。ディープラーニング一般的パターンは、細部を正しく理解するためには多くの努力(そして多くの失敗プロジェクト)が必要だが、最終的には明白でシンプルもの機能するというものだ。過去10年間、ディープラーニングがあらゆる壁をぶち破ってきたことを考えると、ここでも同じようなことが起こるだろう。

さらに、合成データのようなアルゴリズムの賭けの1つを解くことで、モデルを劇的に改善できる可能性もある。直感的なポンプを紹介しよう。Llama 3のような現在フロンティアモデルは、インターネット上でトレーニングされている。多くのLLMは、本当に質の高いデータ(例えば、難しい科学問題に取り組む人々の推論チェーン)ではなく、このようながらくたにトレーニング計算の大半を費やしている。もしGPT-4レベル計算を、完全に極めて質の高いデータに費やすことができたらと想像してみてほしい。

AlphaGo囲碁世界チャンピオンを破った最初AIシステム)を振り返ることは、それが可能だと考えられる何十年も前に、ここでも役に立つ。

LLMのステップ2に相当するものを開発することは、データの壁を乗り越えるための重要研究課題であるさらに言えば、最終的には人間レベルの知能を超える鍵となるだろう)。

以上のことからデータの制約は、今後数年間のAI進歩予測する際に、どちらに転んでも大きな誤差をもたらすと考えられる。LLMはまだインターネットと同じくらい大きな存在かもしれないが、本当にクレイジーなAGIには到達できないだろう)。しかし、私は、研究所がそれを解読し、そうすることでスケーリングカーブが維持されるだけでなく、モデル能力が飛躍的に向上する可能性があると推測するのは妥当だと思う。

余談だが、このことは、今後数年間は現在よりも研究室間のばらつきが大きくなることを意味する。最近まで、最先端技術公表されていたため、基本的に誰もが同じことをやっていた。(レシピが公開されていたため、新参者オープンソースプロジェクトフロンティアと容易に競合できた)。現在では、主要なアルゴリズムアイデアますます専有されつつある。今はフロンティアにいるように見えるラボでも、他のラボブレークスルーを起こして先を急ぐ間に、データの壁にはまってしまうかもしれない。そして、オープンソース競争するのがより難しくなるだろう。それは確かに物事面白くするだろう。(そして、ある研究室がそれを解明すれば、そのブレークスルーはAGIへの鍵となり、超知能への鍵となる。)

続き I.GPT-4からAGIへ:OOMを数える(7) https://anond.hatelabo.jp/20240605210017

I.GPT-4からAGIへ:OOMを数える (4)

OOMを数える

どうしてこうなったディープラーニング魔法は、それがただ機能するということであり、あらゆる場面で否定的意見にもかかわらず、その傾向線は驚くほど一貫している。

https://situational-awareness.ai/wp-content/uploads/2024/06/sora_scaling-1024x383.png

OpenAI Soraの例 計算量のスケーリング効果

効果的な計算OOMが増えるごとに、モデル予測通り、確実に良くなっていく。OOMを数えることができれば、能力の向上を(大まかに定性的に)推定することができる。そうやって、先見の明のある数人がGPT-4の到来を予見したのだ。

GPT-2からGPT-4までの4年間の進歩を、スケールアップの3つのカテゴリーに分解することができる:

1. コンピュート:計算:これらのモデルを訓練するために、より大きなコンピューターを使うようになった。

2.アルゴリズム効率化:アルゴリズム進歩には継続的な傾向がある。これらの多くは「コンピュート・マルチプライヤ」として機能し、有効コンピュート量の増加という統一された尺度に乗せることができます

3.「趣味のない」利益デフォルトでは、モデルは多くの素晴らしい生の能力学習しますが、あらゆる種類の間抜け方法で足かせとなり、実用的な価値制限されます人間フィードバックから強化学習(RLHF)、思考連鎖(CoT)、ツール、足場などの単純なアルゴリズム改善により、潜在的能力を大きく引き出すことができる。

これらの軸に沿って、改善の「OOMを数える」ことができる。つまり有効計算量の単位でそれぞれのスケールアップをトレースするのだ。3倍は0.5OOM10倍は1OOM、30倍は1.5OOM100倍は2OOMといった具合だ。2023年から2027年まで、GPT-4の上に何を期待すべきかを見ることもできる。

ひとつひとつ見ていくが、OOMの数を急速に増やしていることは明らかだ。データの壁には逆風が吹いている可能性があり、それについては後述するが、全体的には、2027年までにGPT-4の上に、GPT-2からGPT-4規模のジャンプがもう1回起こると予想される。

コンピュート

まず、最近進歩原動力として最もよく議論されている、モデルへの(大量の)コンピュート投入について説明します。

多くの人は、これは単にムーアの法則によるものだと考えている。しかし、ムーアの法則が全盛期を迎えていた昔でさえ、その進歩比較的緩やかなものでした。しかし、ムーアの法則が全盛期だった昔でさえ、10年で1~1.5OOMと、比較ゆっくりとしたスピードだった。(かつては1つのモデル100万ドルを費やすことさえ、誰も考えもしないことだった。)

モデル推定コンピュート 成長率
GPT-2 (2019) ~4e21 FLOP
GPT-3 (2020) ~3e23 FLOP + ~2 OOMs
GPT-4 (2023) 8e24~4e25 FLOP + ~1.5~2 OOMs

エポックAIによるGPT-2からGPT-4までの計算量の推定

エポックAIAIトレンドの優れた分析で広く尊敬されている情報源)の公開推定値を使用して、2019年から2023年までのコンピュートスケールアップを追跡することができますGPT-2からGPT-3へのスケールアップは迅速で、小規模な実験から大規模な言語モデルを訓練するためにデータセンター全体を使用するまでにスケールアップし、コンピュートのオーバーハングが大きくなりました。GPT-3からGPT-4へのスケールアップでは、次のモデルのためにまったく新しい(はるかに大きな)クラスタを構築しなければならないという、最新の体制に移行しました。それでも劇的な成長は続いていますエポックAIの試算によると、GPT-4のトレーニングでは、GPT-2の3,000倍から10,000倍の計算量を使用しています

大雑把に言えば、これは長期的なトレンド継続に過ぎない。過去10年半の間、主に投資(およびGPUやTPUの形でAIワークロードに特化したチップ)の幅広いスケールアップのため、フロンティアAIシステム使用されるトレーニング計算量は、およそ〜0.5OOM/年で成長してきた。

https://situational-awareness.ai/wp-content/uploads/2024/06/compute_long_run_trend-1024x968.png

注目すべきディープラーニングモデルトレーニングコンピュートの経年変化。出典エポックAI

GPT-2からGPT-3への1年間のスケールアップは異例のオーバーハングであったが、長期的なトレンドが続くことは間違いない。SF-rumor-millは、巨額のGPU受注の劇的な話で一杯だ。その投資は並大抵のものではないが、動き始めている。

この分析によれば、2027年末までにさらに2OOMsのコンピュート(数十億ドル規模のクラスター)が実現する可能性は非常に高いと思われる。さらに+3OOMsのコンピュート(1,000億ドル規模以上)に近いクラスターも可能性がありそうだ(マイクロソフト/OpenAI計画中と噂されている)。

https://situational-awareness.ai/wp-content/uploads/2024/06/stacked_compute-1024x866.png

続き I.GPT-4からAGIへ:OOMを数える(5) https://anond.hatelabo.jp/20240605205449

I.GPT-4からAGIへ:OOMを数える (1)

2027年までにAGIが実現する可能性は極めて高い。GPT-2からGPT-4までの4年間で、私たちは〜未就学児から〜賢い高校生までの能力を手に入れた。計算能力(~0.5桁またはOOMs/年)、アルゴリズム効率(~0.5OOMs/年)、および「趣味のない」向上(チャットボットからエージェントへ)のトレンドライントレースすると、2027年までに再び未就学児から高校生規模の質的ジャンプが起こると予想される。


見て。モデルたちはただ学びたいだけなんだ。あなたはこれを理解しなければならない。モデルたちは、ただ学びたいだけなんだ。

イリヤスーツバー2015年頃、ダリオ・アモデイ経由)

GPT-4の能力は、多くの人に衝撃を与えた。コードエッセイを書くことができ、難しい数学問題を推論し、大学試験突破することができるAIシステムである。数年前までは、これらは難攻不落の壁だと思っていた。

しかGPT-4は、ディープラーニングにおける10年間の猛烈な進歩の延長線上にあった。その10年前、モデル犬猫の単純な画像識別するのがやっとだった。4年前、GPT-2は半可通な文章をつなぎ合わせるのがやっとだった。今、私たちは思いつく限りのベンチマークを急速に飽和させつつある。しかし、この劇的な進歩は、ディープラーニングスケールアップにおける一貫した傾向の結果に過ぎない。

ずっと以前から、このことを見抜いていた人々がいた。彼らは嘲笑されたが、彼らがしたのはトレンドラインを信じることだけだった。トレンドラインは強烈で、彼らは正しかった。モデルはただ学びたいだけなのだ

私は次のように主張する。2027年までには、モデルAI研究者エンジニア仕事をこなせるようになるだろう、と。SFを信じる必要はなく、グラフ上の直線を信じるだけでいいのだ。

https://situational-awareness.ai/wp-content/uploads/2024/06/base_scaleup-1024x790.png

過去と将来の有効計算量(物理計算量とアルゴリズム効率の両方)の大まかな見積もりモデルスケールアップすればするほど、モデルは一貫して賢くなり、"OOMを数える "ことによって、(近い)将来に期待されるモデルインテリジェンスの大まかな感覚を得ることができます。(このグラフベースモデルスケールアップのみを示している。)

この記事で取り上げた一般的推定に基づく、効果的な計算物理的な計算アルゴリズム効率の両方)の過去と将来のスケールアップの概算。モデルスケールアップするにつれ、モデルは一貫して賢くなり、「OOMを数える」ことで、(近い)将来に期待されるモデルインテリジェンスの大まかな感覚を得ることができる。(このグラフベースモデルスケールアップのみを示している。"unobblings "は描かれていない)。

この作品では、単純に「OOMを数える」(OOM = order of magnitude10x = 1 order of magnitude)ことにします。1)計算、2)アルゴリズム効率(「効果的な計算」の成長として考えることができるアルゴリズム進歩)、3)「アンホブリング」(モデルデフォルトで足かせとなっている明らかな方法修正し、潜在的能力を引き出し、ツールを与えることで、有用性を段階的に変化させること)の傾向を見ますGPT-4以前の4年間と、GPT-4後の2027年末までの4年間に期待されるそれぞれの成長を追跡する。ディープラーニング効率的な計算のすべてのOOMで一貫して向上していることを考えると、将来の進歩予測するためにこれを使うことができる。

世間では、GPT-4のリリースから1年間、次世代モデルオーブンに入ったままであったため、ディープラーニングは停滞し、壁にぶつかっていると宣言する人もいた。しかし、OOMカウントすることで、私たちは実際に何を期待すべきかを垣間見ることができる。

結果は非常にシンプルだ。GPT-2からGPT-4への移行は、時々まとまりのある文章を並べることに感動的だったモデルから高校入試エースになるモデルへの移行であり、一度だけの進歩ではない。私たちOOMsを極めて急速に克服しており、その数値は、4年以上かけてGPT-2からGPT-4への質的ジャンプさらに~100,000倍の効果的なコンピュート・スケールアップが期待できることを示している。さらに、決定的なことは、それは単にチャットボットの改良を意味しないということだ。"unhobbling "利益に関する多くの明らかな低空飛行の果実を選ぶことで、チャットボットからエージェントへ、ツールからドロップイン・リモートワーカーの代替のようなものへと我々を導いてくれるはずだ。

推論は単純だが、その意味するところは注目に値する。このような別のジャンプは、私たちをAGIに、博士号や同僚として私たちそばで働くことができる専門家と同じくらい賢いモデルに連れて行く可能性が非常に高い。おそらく最も重要なことは、これらのAIシステムAI研究のもの自動化することができれば、次回のテーマである強烈なフィードバックループが動き出すということである

現在でも、このようなことを計算に入れている人はほとんどいない。しかし、AIに関する状況認識は、一歩下がってトレンドを見てみれば、実はそれほど難しいことではない。AI能力に驚き続けるなら、OOMを数え始めればいい。

続き I.GPT-4からAGIへ:OOMを数える (2) https://anond.hatelabo.jp/20240605204240

クールジャパン無駄遣い説

政府が「クールジャパン」なんてスローガン大金をつぎ込むのは、税金無駄遣いではねーのか。

まずさ、これって結局、政治家たちの「なんか日本らしいもん」で注目集めようっていう浅はかな発想から来てるわけでしょ。アニメマンガ、Jポップ、これが日本代表文化っていうのは分かるけど、これを国家プロジェクトにするってどうなの?

文化ってのは自然に育つもんだろ。お金をかけて無理やり「クール」の看板を背負わせようとするなんて、本末転倒もいいところだ。

クールジャパン世界日本の魅力を広める」って言うお題目があるわけだけど、それって実際どうなの?海外の人たちは日本アニメマンガを愛してくれるけど、だからってそのために税金をつぎ込む必要があるかって話。

何より、このクールジャパンにかかる予算が一体どこに消えてるのか、ちゃんと見えてこない。具体的な成果もあやふやなまま、「なんとなく効果があるから」「金の使い道として文句を言われづらいから」って理由予算がどんどん使われる。これって、ただの利権の温床じゃないのか?特定企業や団体がその予算をかすめ取って、結局は国民のためになってないなんてこと、よくある話だ。

もう一つ、クールジャパンなんて政府が決めるもんじゃない。文化は下から湧き上がるもんであって、上から押し付けられるもんじゃない。だから政府が「クールジャパン」に大金を注ぎ込むのは、本質的に間違ってるんだよ。もっと現場クリエイターたちを直接支援するとか、文化自然に育つ環境を整えるとか、やり方はいくらでもあるはずなんじゃねーの。

結局のところ、クールジャパンってのは、政府自分たち無能を隠すための一時的流行作成に過ぎない。税金もっと有効に使ってくれよ。教育福祉インフラ整備、やることはいくらでもあるんだからさ。

やっぱ子育ては損得じゃん

子育ては損得か否かで増田とはてぶが荒れてたことがあるけど

子育て支援をいくら充実させても少子化には全く効果がないって結果出てるんだよな

まり子育て支援で拡充された分は二人目以降ではなく一人の子供につぎ込まれてたってこと

費用対効果を上げるために少ない対象により投資するわけだ

やっぱ子育てって損得じゃん

anond:20240605091903

日本結婚が減っているだけで、結婚した家庭の出産数は実はそれほど減ってないんだよな

子育て支援なんかより

よほど婚活支援の方が効果的だろう

もちろん離婚したりするかもしれないが

そっから先は福祉仕事だしな

anond:20240605091903

別に東京都マッチングアプリを作っても良いけど、少子化の原因と対策は複合的だから、別の面にも目を向けないと意味がないだろう。

未婚率の上昇は意識の変化が関係しているだろうし、経済的不安未来を悲観させる。仕事と家庭の両立の難しさはどんどん明らかになっているし、特に都会では住宅問題もある。将来的な育児教育費の増大も、子どもを産むことを躊躇わせる。

そうすると、マッチングアプリカバーし得るのは、未婚率へのわずかな効果の部分。ないよりはマシだと思うけど、他に「経済支援の強化」「労働環境改善」「住環境の整備」「教育費の削減」「結婚出産に対する社会的支援」「育児休暇等の充実」みたいな対策も考えられる。

これらを複合的にみたうえで、「少子化対策7つの柱」みたいなキャッチーさで理解を促進して、その一環としてマッチングアプリが出てくれば、世の中の反応も違ったものになるだろう。

anond:20240605102120

実質賃金が下がるってのは、給料を上げても効果が減るって意味なのに、下げてどうするw

マクロで見る場合ミクロで見る場合は違うよね

マクロで見た場合名目賃金賃上げ物価転嫁引き起こし物価高を生じ、結果的に「実質賃金名目賃金÷物価」の値が低下する

政府マクロ支援できるのだから、「賃上げすれば経済回復!」なんて嘘をつくのをやめればいい

anond:20240605102000

実質賃金が下がるってのは、給料を上げても効果が減るって意味なのに、下げてどうするw

おもしろすぎるなおまえの会社算数できない社長とかそりゃ社員やめるわw

ニアミス効果

原始時代より前を想像する…人間祖先が樹上生活をしている。若い個体果物を取ろうとするが、足場の先にあって少しだけ届かない。手を思い切り伸ばすと、人差し指の第二関節まで触れた!あと少しだ、もう一度!……

今はかつての時代よりはるかに複雑になっていて、知らなければ容易に絡め取られる罠がそこかしこにある……スロットマシンの当たるか否かはレバーを引いた瞬間に決まっているのが当然だ……これはプログラミング経験からそうだと思っている……回っている途中で決めるなんて複雑すぎる……つまり、当たりと演出は別である

そう考えてなければ、演出が当たりへの道筋に見える。

東京都マッチングアプリに対し、少子化対策子育て支援だけを求める人々から非難轟々だが

個人的にはやっと本質的少子化対策が出てきたって思うし、

もっと早くやって欲しかったわ

10年前にこれがあれば(まぁその場合アプリ』ではなかっただろうけれど)、自分結婚できていたかもしれない……本当に遅いよ

これで目に見えて効果が出たら、否定している人達はどういう態度を取る気だろう?

まぁ、今からでは「少子化対策」としてはとっくに手遅れだから成果は出ないと思うけれど

それはマッチングアプリという手段が悪い訳ではなく、既に若年人口自体が減るフェーズに入っているからであって

マッチングアプリはどう考えても少子化対策としては「子育て支援」よりは有意義だと思うよ

少子化の一番の原因は未婚率の上昇だという事実にはけして目を向けず、子育て支援ばかりを際限なく求める人々がこの国を駄目にした

(追記)

ブコメでなんでか男にされてるみたいだけど、私は女ですが。

女だからこそ自分自身の年齢に対して諦めるしかないんだよ。

もしも男だったら、諦めずに若い女狙いで突撃してたんじゃゃない?知らんけど。

子育て支援、子持ち優遇の皺寄せを受けて苦しんでるのって明らかに女性の方が多いしXでの愚痴も女の方が多いのに、何故か男にされる不思議

モテ論争だかなんだか知らんが

結局どうすればモテんだかわかんねえだろこれじゃあよ〜!!!

とキレキレになったので自分なりにまとめてみたぞ!!!!!!

そもそもゴールはどこか?

モテる、彼女を作るといっても

・誰でもいいからヤッてみたい(その状態を維持したい)

・心から安心していられる一生のパートナーがほしい

ではやるべきことが全然違ってくる

ここをごっちゃにしたままだから、「人として見ろ」と「ヤリチンは人として見なくても大丈夫じゃん。人としてみるとか綺麗事」が錯綜してしまうのである。(まあ元ヤリチンが一生のパートナーを得ている場合もあるが、希であると思う。大体映画の愚行録で殺された夫婦みたいになりがちだ)

というわけで、まずゴールを決めよう

この時非モテ努力するのが苦しいあまり「いつでもいっぱいヤレて一生安心できるパートナーがほしい!見た目も超タイプで!」とか求めだしてしま

しか普通は全部一気には無理なので、「まずはつきあえたらいいな」とか「ヤリまくるのは無理でも心の繋がりが持てたら」とか「性格が最悪で多少歳いって太っててもいいからせめて顔は死守したい…」とか決めてスモールステップするといい

▼ゴールが決まったら、ここからアプローチ方法を考えていく

・ヤリたい、とりあえず経験として異性とつきあってみたい派

→ガワから入るといい。一般的モテ動作、話し方、ファッション友達作りなど頑張るといい。自分はあまり好きではないが、ここにおいては恋愛工学有用かもしれない。

こういう恋人作りを批判する人もいるだろうが、女でも「寂しいし誰でもいいか彼氏欲しい」タイプ存在するので、そういう相手マッチングする分にはなんら問題ないと思う。

・ある程度長期的なパートナーがほしい派(または上記方法でうまくいかない時)→自己分析のターンに入る

自己分析のターン

パートナーがほしい!となった時に重要になるのが、「自分相手から何が欲しいのか?」「自分は何を相手にあげられるか?」という分析である

・何が欲しいのか

個人的には「可愛がられたい」か「可愛がりたい」かで分けるとわかりやすいと思う

自分を取り繕えない、嘘つけない、よく見せることに罪悪感のあるタイプは大抵「可愛がられたい」だ。とにかくありのまま受け入れられたい。

そういうタイプが探すべきは「懐の深い」「情にあつい」「優しい」「偏見の少ない」タイプだ。

一方で「可愛がりたい」タイプターゲットにできる層が厚い。可愛い!と思うタイプが広ければ広いほど枠は広がる。ただ可愛い!と思うタイプ一般的美少女とかモデルとか倍率が高いものになると途端に厳しくなるのでご注意。

自分は可愛がられたい/可愛がりたいからこの辺のタイプがよさそ〜とわかったら次は「何をあげられるか?」を考えよう。

・何をあげられるか

恋愛とはお互いがwin状態になって初めて成り立つものである。「自分と付き合うことで相手にどんな益が生まれるのか?」を考え提供しなければまず成功はしない。

ここで「そんなん金があればいいんだろ!」となって稼ぐことに必死になってしまう人は大抵モテない。女は金だけで釣られるわけではない。大体金だけで釣られる女がきても嬉しくないだろう。(そんなこんなで医者の知り合いは合コン身分を隠すようになってしまった)

俺みたいな非モテ、益なんて与えられねー!金くらいしかない!と思ってしまう人もいるかもしれないが、落ち着いて考えて欲しい。世の中、当たり前にあるものが実は宝だったりする。

例えば、のんびりしたおおらかな性格なら「リラックスした穏やかな時間」をあげられる。

キチっとした性格なら「整理整頓されたスマート生活」を提供できる

映画オタクだったら「映画豊富知識」。料理好きなら「美味しいもの」などなど…本当に小さくてもいいので「これならちょっとはあげられる」というものを見つけてみよう。卑屈にならず長所を見つけまくろう。

そうすると多少見えてくるはずだ。

おおらかな人なら、ちょっと気難しいタイプや気が強いタイプ必要とされそう

キチっとした人なら、そういうのに憧れるズボラタイプ必要とされそう

映画オタクだったら、芸術好きで好奇心旺盛なタイプ必要とされそう

料理好きなら、食べるの好きなタイプ必要とされそう

のようなような

そこまでわかったらあとはトライである

そういう子がいそうな場所に行くのだ。もしくはマッチングアプリでそういうタイプを探すのだ。

(恋愛目当てに行くなんて社会人サークル荒らしみたいでイヤッ!という方はマチアプ全力投球で頑張るのもあり)

そしてようやくここ…っ

ようやくここから相手に人として接する」が始まる!!!!(パンパカパー)

結局人としてってどゆことやねんであるが、簡単にいうと「その人個人として見る」ということである

女は(誰でもいいけど付き合いたい勢を除き)基本、体目当てで寄ってこられて消費されるのを嫌う。「女なら誰でもいい」系の男は相当アウトローな魅力がない限り蛇蝎のごとく嫌われる。

その辺わからず「かわいいから〜」「好みだから〜」というテンション最初から異性として意識してまーす!という匂い漂わせ近づくと「こいつ顔と体しか見てねえだろ!」と思われ嫌悪感を持たれてしまうのである

からあれだな、「人としてみる」は「女として見すぎない」でもある。

いきなり向けられる好意は、それがもし純粋ものだとしても、女性からしてみたら「なんで話もしてないのにこんなに好いて来るの?」→「顔と体で寄ってきたんじゃないか?」と不信感を抱かせる。

なのでまあ、しっかり関係を構築したいなら、初手から好意を見せるのは悪手である。どんなに見た目がタイプアタックしたくても、まずは相手の中身、パーソナルについて触れていく方が勝率が高い。

!!!パーソナルを掘る相手可愛い子ばかりだと、「こいつ結局…」とモロにバレるので注意が必要だ。

普段からいろんな人に興味を持ち、コミュニケーションを取っていくことでこの露骨さは消えるので、モテたいなら友達積極的に作っていこう。あと単純にたくさん友達作るとコミュニケーション経験値が上がるし、いろいろとFBをもらえるようになるしいいことづくしである。それができたら苦労しねえ!という方は、好意を隠す訓練を頑張るしかない

そしてここまでくるとあの考え…「それだとぬいペニになるのでは?」が浮かぶはずだ。

もちろんその可能性はある。ただ、考えても見て欲しい。「ごめんそういう気持ちはなくて友達だと思ってた」は女でも男でも好意を見せた時に発生する確率のあるイベントである

まり…起こるものは起こる!!!!ある程度みんなある!!!!!

ただ、ぬいペニを起こさなテクはある。それがどっかの増田も書いていたが「徐々に好意を見せていく」という手だ。

例えば一緒にご飯を食べに行った時、「◎◎さんて美味しそうに食べるよね」とか「字が綺麗だよね」とか「いつもきちんとしてるよね」とか褒める。ふんわりと「あなたのこといいなーと思ってるよ」と伝えるのである

この辺りで反応を見る。嬉しそうだったら多少脈アリ、簡素な返事だったり距離を置かれたりしたら脈なしなので残念ながら次に行こう。

脈アリそうならもうちょっと褒めてみる。「髪型凝ってるね!すごい!」「笑ってる顔可愛いって言われない?」「その本読んでみたいな」

こうやって少しずつ「大丈夫かな?嫌じゃないかな?」と近づいていく。(もし嫌がったら「ごめんね」と離れること。それがセクハラをしないために必要なことである)

そして最終、「◎◎さんの恋人幸せだろうな」とか「ふたりきりで行きたいところがあるんだ」等に乗ってきてくれるようになったらあとはゴー!である

これをせずただ友達として過ごし、ある日突然好きだと言っても相手も面食らってしまう。「そういう相手だと思ってなかった」となってしまう。

なので「あ、この人自分のこと好きそうだな」と微妙に気づかせるため、好きの種を蒔いておくといい。

更に言えばこの際に、「日曜はおれ美味しいご飯いっぱい作るよ」とか「おすすめ映画まくろう」とか付き合ったらどうなるかをイメージさせられるとよい

(まあここまでやっても好意理解しない恐るべし鈍感女もいるので、そういうのに当たった場合は運が悪かったと思って次にいこう…)

ここまでくればかなり目的に近づけると思うが…それでもたまに「いい人だとは思うんだけど」となってしまう人もいるだろう。

そんな人に足りないのは、ズバリ、「ドキッとさせる力」である

これは男性なら少女漫画女性なら男性向け恋愛漫画を読んである程度ドキっとパターン学習することをおすすめする。

基本はこの二択だ

1、ワガママだったり我の強いヤツが強引にくるor自分にだけ弱い顔を見せる

2、真面目で優しい子が、自分にだけ男っぽい(女っぽい)側面を見せる

非モテは基本2で攻めるといいと思う。いつもふにゃっとした男が「◎◎さん大丈夫!?」とかっこよく駆けつけたりしたらやはりドキーッとする。

そんなシーンないがな!という場合は「エスコート風の動作」が効果的だ。車道側に立つ、エスカレーターで登る時後ろに立つなど、「女性として大事にしていますよ」ということを動作で伝えるだけでだいぶ好印象だ。女性ならたまに裾を掴むとか、もしできちゃうなら肩とかくっつけてしまうのもいい。性的な魅力をちょっとアピールするのだ。

男性で手が骨張ってたりしたら、楽器を弾くところやPCを叩くところを見てもらうのもいい。女は大抵かっこいい手が好きなので。イケボならカラオケ効果的!

…そしてここまでやってようやく彼女彼氏ができる…というわけでもない。

人間関係は良くも悪くも所詮相性である。巡り合わせが悪ければどうにもならない。

でもそれは裏を返せば、振られてもそれは本人の問題というより相性の問題であると割り切れるということでもある。

非モテはここですぐ自己否定された気になって異性を恨み出してしまうのだが、それは無駄行為である。なんせ合う異性もいれば合わない異性もいる。それだけの話であるモテ男は大変例外的ものだ。)

なので、いつか巡り合うその日のため、自分のペースで少しずつ進んでいくのが良いと思う。自分を責めたり異性を責めたりしてもあまりいい方向にはならんので。

…と長々書いてしまったが、参考になっただろうか。上から目線のクソバイスと思う人もいるかもしれないが、一応私なりに非モテの皆さんの幸せを願って書いたので、一人にでも役に立ったら幸いだ。

頑張れ非モテ恋人ができたからといって必ず幸せになるわけではないが、それでもその経験あなた人生を豊かにするぞ!グッドラック!!

2024-06-04

anond:20240604184241

>2. 効果検証がされていない

中国系詐欺業者(プリペイドコードを送れって言ってる奴とか)は、「天安門」って言うと即チャットルームから退出するんだよな

それだけでも効果はあると言っていいんじゃない

天安門事件」はスパム除けになりません:その理由問題点

天安門事件」という言葉ツイッタープロフィールに入れるとスパム除けになるという主張が一部で広がっています

しかし、これは根拠のない情報です。

以下に、その理由問題点について詳しく説明します。

1. 中国国内スパマーVPN使用している

中国政府は「グレートファイアウォール」と呼ばれる厳重なインターネット検閲を行っています

このため、中国国内から直接ツイッターアクセスすることはできません。

もし中国国内スパマーツイッターアクセスするとすれば、彼らはVPNなどの検閲回避手段使用します。

これにより、中国国内検閲の影響を受けずにアクセスすることが可能です。

したがって、「天安門事件」という単語を含めることでスパムを防ぐことは不可能です。

2. 効果検証がされていない

天安門事件」という言葉プロフィールに入れることでスパムを防げると主張する人々がいますが、これに対する統計的検証や信頼できるデータ存在しません。

効果があるかどうかを判断するためには、信頼性のあるデータに基づいた検証必要です。

しかし、現時点でそのような研究データ存在しないため、単なる噂に過ぎません。

3. 天安門事件の軽視

天安門事件1989年北京で発生し、多数の死傷者を出した悲劇的な事件です。

この事件スパム除けの手段として軽々しく利用することは、事件被害者やその遺族に対する無神経な行為です。

歴史的悲劇自分利益のために利用することは倫理的問題があります

4. 情報リテラシーの低さを露呈する

このような根拠のない情報を信じて実行することは、自らの情報リテラシーの低さを露呈する行為です。

インターネット上には多くのデマ誤情報存在します。

これらを見分け、正しい情報を取捨選択する能力が求められます

疑わしい情報に対しては必ずその根拠確認し、信頼性のある情報源を参照することが重要です。

まとめ

天安門事件」をツイッタープロフィールに入れることでスパムを防げるという主張には根拠がありません。

中国国内スパマーVPN使用しており、検閲の影響を受けません。

また、この方法効果についての信頼できるデータ存在しません。

さらに、天安門事件を軽視する行為倫理的問題があり、情報リテラシーの低さを露呈することにもなります

インターネット上の情報を正しく理解し、適切に活用することが求められます

anond:20240604155501

犬🐕でいいぞ

実際効果出ているそうな

ログイン ユーザー登録
ようこそ ゲスト さん