「トレーニング」を含む日記 RSS

はてなキーワード: トレーニングとは

2024-06-16

文系disに対して気に入らない人たちがああい文章を書くんだから、つまりそれは自分文系である自覚している人たちによるものであることはほぼ確定であろう。

けれどもそれが文系全体に蔓延ことなのか、一部の声の大きい劣等生によるものなのかは誰にもわからないのである…(アフロ田中の感じで)

論理学文系なのか?理系なのか?

読解力なくして数学問題は解けるのか?

人間とはそんなに雑な分類で分けられるものではないと思う。

そこには文系であろうと理系であろうと論理トレーニングの足りていない人たちがいるのみである

2024-06-14

GPT-4oの音声+視覚認識機能の新しいデモが出てた

https://youtu.be/XOXMwsq7ACs?si=FbkFcqEtj6fB683-

GPT-4oが面接練習相手になってて、会話の内容だけじゃなくてアイコンタクト仕草の話もしてた

面接に関わらずSST(ソーシャルスキルトレーニング)全般に役立ちそう

リリースされたら教育発達障害辺りに関わる人の間で話題になるかも

2024-06-13

anond:20240613104650

アホや……

毎度思うんだがリソース管理が下手くそ人間存在には辟易する

アホな借金破産するの社会の損失だろ

義務教育はこういう点のトレーニングも担うべきと思っている

ちまちま抽象論教えるだけじゃなくてさあ

なあ?まずはトロピコやらせてくれや

2024-06-12

20歳下の恋人の性欲についていけるか不安

増田40代も半ばである20歳年下の彼女と付き合っている。

年代人間より性的能力の衰えが少なく、そういった欲求も人並み以上に持っている自信があったのだが、年々強くなる彼女の性欲にそう遠くない未来応えられなくなってしまうのではないか不安を抱いた。

彼女はもともと性的経験がなかった、というより嫌悪に近い感情を抱いていたらしいが、数年の性生活を経て大変積極的に求めてくれるようになった。(これについて冗談で「ワシが育てた」とドヤ顔した所ネタが通じず大変寂しい思いをした)

それは大変喜ばしいことで日々満足している。仕事の忙しさにもよるが平均して週1~2日はしているし、週末などは外出などの予定がなければ朝昼晩など複数回行うこともある。誘う頻度もどちらから、というよりスキンシップからなんとなくそういった雰囲気になることが多い。

ところがである

今年に入ったあたりからだろうか、1日に3回目ともなると、明らかに反応が鈍くなってきているのである所謂「中折れ」という事態はまだ起きていないが明らかに感度が鈍っている。

体力的にもかなりキツい。腰やらスタミナやらダメージが大きく、どうしても彼女側に色々してもらう時間が長くなってしまう。

同棲すればお互い落ち着くかと思いきや、1年経ってますます頻度が増えてきている。

おもちゃなども取り入れて体力と彼女の性欲の折り合いをつけようとしているが、いまいち好きではないとのこと。

※これについては今まであまり使ったことがないので使い方が悪いのかもしれない。

亜鉛サプリを飲む」「トレーニングを増やす」など最低限の体力維持は行っているがおそらく時間問題であろう。

彼女とは結婚視野に入っているが、例えば10年後、30半ばの彼女に対して満足に答えられない自分がいるのでは無いだろうかと思うと不安でたまらない。

anond:20240612145344

問. LAION-5Bを用いてトレーニングされた画像生成モデル名称を正確に列挙せよ。

2024-06-11

プランクが腹筋の代わりになるなどという戯言

こんな嘘に騙されていては日本国民は弱体化するのでは?

腕で支えているだけのプランク

動きを伴う腹筋と同じ程度の強度の

筋力トレーニングになるはずかない

だまされてはいけない

うさぎ跳びの廃止といい

こんな眉唾情報日本語ネットに流布しているのは

もしかして日本人の筋力を低下させるための

外国陰謀では?

anond:20240611171254

ネットに公開してない自社のサーバに保存されてるユーザーデータを持ち出してトレーニング違法じゃないだろうが、当初の利用規約に書いてなさそうだし、バレたときが怖いな

何使ってトレーニングしたのか、非常に創意工夫あふれるプロンプトでポロッとメアドとかこぼしてバレるというのはchatgptで何回もあった事例だからなあ

そんな博打する企業か?俺よく知らんのやけど

それとも俺が知らんだけでicloudデータってすでにトレーニング利用が明言されとんの?

anond:20240611121902

MLは一番無能な奴がやってる

データパイプラインからモデルトレーニングからやったことあるけど

無能にできることじゃなくて逆だよ

マイクロサービス設計から構築もやっててそれは全く別のスキルだけどね

2024-06-10

幸せ他人に委ねるな

結婚とか政治とか、お前らは自分幸せ他人に委ねようとしすぎだ

他人など頼るな

自分の道は自分で切り拓け

トレーニングしろ

筋肉

筋肉は裏切らない

2024-06-09

anond:20240609225545

ML失敗増田」という特定人物についての情報は私の知識にはありません。その名前実在する人なのか、あるいはネット上やコミュニティで使われているスラングなのかも不明です。

一般的に「ML」は機械学習Machine Learning)を指します。機械学習ではデータを使ってモデルを訓練し、そのモデルを使って予測や分類を行いますしかし、機械学習プロジェクトには様々な失敗の可能性が伴います。例えば:

データの質が悪い

不足しているデータノイズが多すぎるデータなど。

アルゴリズムの選定ミス

問題に適さなアルゴリズムを選んでしまう。

過適合/過学習

トレーニングデータフィットしすぎて、未知のデータに対して良いパフォーマンスを発揮できない。

不足する資源

コンピューティングリソース時間が足りない。

評価メトリクスの誤り

モデルの性能を誤って評価してしまう。

もし「ML失敗増田」という言葉特定文脈や事例に関連しているなら、その具体的な背景がわからないと更に詳しい情報理解が得られないかもしれません。具体的な事例や文脈についてもう少し情報があれば、より詳しい説明アドバイスができるかもしれません。

[]セルビア人MFミリオヴィッチが練習参加へ 192cmの大型ボランチ 守備改善へ補強に動く

 オレオレFCは7日、セルビア人MFミリオヴィッチを10から練習に参加する事が分かった。獲得を視野に入れたもので、トレーニング状態を見極め、契約するか否かの判断を下す。

 ミリオヴィッチはセルビア出身28歳。セルビアリーグデンマークフランス2部でプレーした。192cm88kgの大型ながら足元の技術があり本職はボランチだが、スカウトによると、センターバックもこなポリバレント性を併せ持ち、ヘディングの強さに加え、激しい守備リーダーシップにも優れていると言う。

 オレオレFC現在13位。今季は7チームがJ2に降格する厳しいシーズンで、21試合で32失点と守備課題を残しており、チームとして手薄な「ボランチセンターバックができる選手」として、数年前からリストに挙げていたミリオヴィッチに触手を伸ばした。現在フリーのため、夏の移籍期間を待たずに登録可能状態だ。

 クラブは夏場に複数位置の補強に乗り出していると明かし、巻き返しを図ろうとしている。

2024-06-08

旦那さんと同じタイプかも。力になれれば。

anond:20240606113439

注意

(2024/06/09 追記

本文

旦那さんは躁鬱かも。自分も5~6年前までは旦那さんと同じく短気だった。電車から降りる人より先に乗ろうとする人、傘の先端を後ろに振って歩く人、横断歩道無視する車、政治家汚職不倫ニュースなどを見るたびにイライラして、文句を口にしていた。今思うと、これは躁鬱の症状だったと思う。自分が躁鬱だと自覚改善するきっかけになったものを書いていく。今はイライラと上手く付き合えるようになり、人生が楽しくなった。それから、付き添ってくれた妻には本当に感謝している。あなた旦那さんが自分と重なってしまい、自分もあの時気づけてなかったらと思うと、いてもたってもいられずに書いた。少しでも力になれれば。

※以下で紹介する情報は数年前に触れたので、うろ覚えでテキトーな部分があるかも。あくまで今の自分解釈なので、鵜呑みにせず、旦那さんの心の準備ができたら精神科受診オススメする。

ツレが鬱になりまして

この映画きっかけで鬱だと気づけた。鬱のイメージが変わった。「鬱はぐったりと元気のない精神病。気弱な人がなるもの」と思っていたが、実際は「些細なことにイライラしがちな人がなりやす病気で、イライラと元気のない状態を繰り返すもの(=躁鬱)」だと知った。まさに主人公自分もそういう人間で、共感しすぎて見終わったら泣いてた。特に、妻に辛く当たった後に自己嫌悪に陥るシーンは、自分にとってはあるあるだった。見終わった後、妻に改めて感謝し、改善していきいたいと思えた。ちなみに鬱は 「完治させる」のではなく「改善していく。上手く付き合っていく」 と考えた方がいいみたい。焦って治そうとすると、治らないことにイライラして再び自己嫌悪

嫌われる勇気

この本が改善きっかけ。特に学びになったのが 評価は人の居場所を奪い、感謝は人の居場所を作る」 こと。

評価とは、人間に良し悪しをつける行為愚痴ネットでの誹謗中傷がそうだし、あなた旦那さんや私が、待ちゆく人やテレビに対して言う文句もそう。他人評価することは、相対的自分評価することになる。例えば、電車マナーの悪い人にイライラするのは、その人を悪く評価してる反面、マナーを守ってる自分を良く評価してることになる。評価を繰り返すうちに、理想のみが高かまっていき、自分が追いつけなくなると居場所を失う。居場所を守るために自分に厳しくしてると、許容量を超え、次第に矛先が他人に向き始める。余計に他人イライラする。負のスパイラル。また、意外だが「褒める」ことも評価であり、人の居場所を奪う。「あの人は優秀」とか。優秀な人を見ると自分ダメに思えて悲しくなるのは、勝手自分評価して居場所を無くしてるから。また「お前に褒められても嬉しくねーよ」って感じるのは、自分より下だと思ってる人間に居場所を奪われる不快感だと思う。

感謝は逆に人の居場所を作る。だから、居場所を得たければ、他人感謝をされること(他者貢献)をするといいらしい。本にはここまでしか書いてなかった。それを知ってからは、いろんな場面で親切を心がけるようにした。ただ、だんだん感謝されないとイライラするようになった。そこで気づいたが、自分は「感謝されたい」という気持ちでいっぱいになっていた。逆に、世の中には自分と同じように「感謝されたい」人がたくさんいるんじゃないかとも思った。そして、感謝を伝えることは誰かの居場所を作れるということであり、それ自体他者貢献 になるのでは?と考えた。それ以来、一切の評価を辞め、些細なことにも感謝するよう心がけた。例えば、今日も飯が食えることとか。生きてることとか。他人を褒めそうになったときは、感謝に置き換えた。例えば、活躍するスポーツ選手ニュースを見たら「すごい」じゃなく「頑張ってる姿を見ると、自分も頑張ろうと思えるな。ありがたい」とか。次第に、悪いことより、ありがたいことに目が向くようになり、「自分人生、恵まれてんじゃん」と幸福度が増した。イライラも減った。

また、人間は良いことよりも悪いことに敏感らしいので、気づくと感謝を忘れてイライラが再発した。なので、感謝を習慣付けるため、以下の2つに取り組んだ。

寝る前に夫婦感謝し合う

自分は3つ言うようにしてる。少なくとも1つは言う。些細なことでいい、「洗い物ありがとう」とか。ただ、厳格にルール化するとしんどいので、もちろん忘れちゃう日があってもいい。次第に、寝る前以外も自然感謝が言えるようになる。小っ恥ずかしいけど、互いに居場所を作ることができ、それが夫婦円満に繋がる。

感謝日記をつける

日記といっても毎日しんどいので、誰かに何かしてもらったときだけスマホメモるくらいでいい。メンタルがしんどくなったときに見返すと「そーいや、こんな嬉しいことあったっけ」とマシになる。家族や同僚のミスも「こんだけありがたいことしてもらえてたんだよな」と許せるようになる。あと、この日記は意外な場面でも役立つ。記念日や友人の結婚式、同僚の退職時など、メッセージを考えるのに困らない。

「次また同じことやったらどうするつもりなの?」への返し

自分だったら「二度としません」だけじゃなく、

を言ってほしいかも。そうしないと、何度も「二度としません」を繰り返すことになる。自分と妻がそうだった。旦那さんは、きっと 安心や信頼が欲しい んだと思う。旦那さんに一緒に考えてもらうのもいいと思う。自分も妻と一緒に具体的な再発防止策を考えるようになってから感情的口論が減った。

アンガーマネジメント

アンガーマネジメント超入門 「怒り」が消える心のトレーニング [図解 (特装版)] 

自分も読み途中だが、怒りを抑えるだけではなく、そもそも怒りづらくなる方法や、怒りを上手く伝える方法なども書いてある。ちなみに、自分は今まで以下の考え方で怒りを鎮めてきた。

HSP

「気がつきすぎて疲れる」が驚くほどなくなる  「繊細さん」の本

旦那さんは、ひょっとしたらHSPかも(病気じゃなく性質)。HSPだと細かいことに気づきやすい。いい意味でも悪い意味でも。もし、飲み会など大人数の集まり後にグッタリしたり、光や音に敏感だったり、お腹すくとすごいイライラしたりする場合は、その可能性あるかも。ちなみに自分HSPで、この本を読んだら楽になった。自分の妻は非・繊細さんなのだが、繊細さんと非・繊細さんの上手い付き合い方が載っていて、互いに勉強になった。

不眠対策

もし、体調不良が不眠から来るものだったら、以下が効くかも。


最後

わかってらっしゃるとは思うが、上記を本人に無理矢理、読ませるのは逆効果自分会社アンガマネージメント講座を強制されたときはキレた。本人が知りたいと思ったときに、そっと差し伸べる程度で。ただ、本人に任せてたら状況は変わらないので「評価は居場所を奪い、感謝は居場所を作って、イライラを抑えられるんだって〜」くらいのノリで、 奥さんから日頃の感謝を伝えてみる のがいいのかも。相手は変えられないので。結婚はしたのだから、きっと旦那さんにも素敵なところがたくさんあるはず。楽しかった思い出を振り返ってみて。人生をつまらない文句イライラではなく、楽しいことで満たしたいよね。

しばらくはしんどいと思うけど、峠を超えて、旦那さんがあなたが付き添ってくれたことに感謝してくれる日が来ることを願う。ただ、他人を変えるのは相当大変なことなので、ヤバくなったらあなた自身人生を最優先してくださいね。長文失礼。

2024-06-07

ジムでの筋トレ楽しすぎて笑った!

だって自重トレーニングってバカみたいじゃないですか。

自分の体相手バタバタしちゃって。無駄に苦しいし。

マシン使った筋トレってやってるだけでも楽しいんだよね。

よくできてるわ。設計した人頭いい。

もっと早くジムに入会すればよかった。

あっという間に習慣化ですわ。三日坊主の気が知れない。

ジムに行くって発想を20歳前後から知りたかった。

文化資本だなあ。

2024-06-06

少子化社会では褒め称えられるべきなのに軽視されている存在

 出産、というライフイベント経験してきた。

 それはありふれたイベントであるはずだった。子ども連れはその辺を普通に歩いている。知り合う人々には必ず親が居る。子育てについては日々たくさんの議論が交わされている。妊婦さんがこの世に命を送り出すこと、それは特別でも何でもない日常出来事だ。そう思っていた。

 とんでもなかった。

 出産はとても崇高なイベントであった。

 何が私の考えをかえたのか。

 痛みである。とんでもない痛みに襲われたせいだ。

 陣痛というものを知らなかったわけではない。痛いんだろうな、ときちんとビビっていた。下調べもイメージトレーニングもして、痛みに耐える覚悟はしていた。だけど私は陣痛理解しているわけではなかったのだ。うっかり知っているつもりになっていた。

 経産婦の皆さんは言う。「そりゃ痛いよ、でもみんな何とかなっているから」、「もう覚えていないなぁ、だからふたりめも産めちゃう」と。つまり、耐えられない痛みではないのだ。私は自分鼓舞した。

 そしてむかえた出産当日、私は吠えた。冷静な頭のまま、しかし狂ったように叫び声を上げていた。もう狂ってしまたかった。意識がとんでしまったら楽だったのに。

 大声を出して何になる、と自分ドン引きながら、それでもただひたすら叫ぶしかなかったあの時間。耐えられない痛みではない? 嫌だもう耐えたくない! 痛い痛い痛い逃げたい! どんなに吠えても誰も助けてはくれなかった。

 実際、私は耐えて産んだわけだ。それでも「耐えられない痛みではない」とは絶対表現しない。痛いものおかしいよ。人間なのに、動物だった。

 世の母親達は本当にしれっとこの痛みを経験しているのか。信じられない。実は痛みを減らす裏技でもあるのではないか

 この陣痛というものを、当たり前のように受け入れているなんて今は一体何時代なの? そうか、令和は別に新しくないのだな。未来から覗いてみれば、私達はきっと古代に生きている。長い人間歴史最先端なんかではないのだ、令和は。そこそこ古い時代に居るんだ。

 その証拠に、分娩方法が昔とそうかわらないだろう。傘の形態と同じである。高度な医療が発展しているはずなのに、出産は辛いままなのだ出生率が減るのも当たり前である

 せめて妊婦を、経産婦を労おう。ジェンダー論や政治的配慮なんか置いておいて、とにかく陣痛に立ち向かう度胸に対して、みんなで拍手を送ろうよ。

 意地悪なおばちゃんも、炎上ちゃうギャルママも、あの痛みを経験したのだと思うと頭が下がる。

 出産経験して、私は母に心から感謝することができた。訳あってほぼ絶縁している実家に、子どもを産んだことを伝えた。久し振りの連絡であった。たどたどしいやり取りを交わし、でんわを切った。ショートメールに彼らの孫の写真を送った。

 私の新生児時代写真が返ってきた。

 私を産み落とすために、あの痛みに耐えてくれたのだ、と心が震えた。

「痛いのに産んでくれてありがとう

こちらこそ、お母さんにしてくれてありがとう

 そのセリフは、出産後に私が子どもにかけたそれと同じであった。

 しまった、出産は素晴らしいという締めになってしまいそうだ。やりがい搾取は良くない。痛かったよ。あの痛みを当たり前に妊婦さんに押しつけてはいけない、そうだろう、と問題提起をしておく。

中身がなさすぎる質問攻め 石丸伸二の候補者時代発言 2020年8月

石丸伸二をよく知ろう

https://www.youtube.com/watch?v=Nv3KOXAvFFU

全く意味が解らない。

皆さんこんにちは石丸伸二です。今回喜多方市長選に立候補しました。いろんなところで政策お話はさせてもらってるんですけども、そもそもあなたは誰なんですかというご質問をいただくことも多いので、今回はその御要請いただいた質問をまとめてもらいました。

順番にお答えしていきたいと思います

まず最初最初はい浦上ですね。はい最初血液型星座O型です。星座は、しし座ですね。変わってないと思います13星座でもしし座のはずですというのは、あまり星座に興味がない人間です。すいません朝の星座占い見ません。

次へきのこの山たけのこの里、どっち派。これは難しいですね。これほど世界を二分するテーマはないんじゃないでしょうか?ただこの厳しい質問に答えていくのも、市長としての大事仕事になるのかなと信じてます。答えはたけのこですね。

チョコサクサクスナックバランス、何より質量ちょっとキノコじゃ出せないなと思ってます

次こんな調子大丈夫か。次じゃん。得意なこと、自慢できること取り立てて自慢できることも、もう何でしょうか?

お酒結構飲めます。苦手なお酒はないですね。世界のどんな酒でも出されたら絶対飲むと。

これは唯一親が僕に与えてくれた貴重な才能の一つかな.。お酒が飲める体質にくれてありがとう。(笑いがはいる)

次じゃん。苦手なこと、本当に苦手なことが多いんで、ちょっと選ぶのが難しいですね

もうちょっと皆さんが引くほど苦手なことを言っちゃうマイナスなんで、言える範囲で、装着時は結局苦手な事。複雑な事が苦手です。

例えばスポーツ球技だけ駄目ですね。単純な走りとか泳ぐとかだと、夢中でどれだけでもできるんですけど、はい野球とかはもう見る専門です

この街サッカーサンフレッチェありますけど、もう応援絶対頑張って誰よりもできるんですけど、実際にやってみる体験とかは、すいませんちょっと難しいと思います。(だれかしゃべっている)

スクールミーティング休みは何してますかなるほどこれまでの生活の中でいくと、基本的に休んでません。というのはトライアスロンというのをやってるので、土日は基本的練習になってます

朝は7時ぐらいからですねバイク自転車に乗って、長い日は昼過ぎぐらいまで走り続けてます。100キロとか120キロというトレーニングをやるのって、休みの日はむしろ休まない。そんな生活を受けてます

次今お付き合いしている人は、私の恋人安芸高田市です。(スタッフが笑う)

ちょっとスタッフの人は笑いすぎですよ。いいえなるほどそれはいらないいらないんですいません。はい独身ですし未婚のまま今に至ってますはい

どうも私にとっては恋人この街であり、私の奥さんこの街です。また笑われました。

はい次行きます。こんばんははい子供の頃の喜多方の印象は?

私はここで生まれ育って、僕は外の世界は本当に知らなかったんですね。旅行で時々出かけたことが年に1回ぐらい。

海外なんてもう大人になるまで出たことはありませんし、なので、ここが私の世界の全てです。

なので、何でしょう。はい。もう完成してましたね。この町も全て私の好きなものは全部ここにあると思って育ってました。はい。なので、やっぱりここは僕にとっては安らぐ場所ですね帰ってくる場所としては、これ以上の街はないなと思ってます

安芸高田のここが好き僕の生まれ育った場所なので、小さい頃好きだった風景ですね。それは山があって、田んぼが広がって、町の人たちも距離が近いですよね。うちは歩いててすれ違う人に大体挨拶します。

名前知らなくても何となく知ってる人、そういう感じがみんなにあるんですね。そういう懐かしいというか、変わらない良さ、やっぱりそこが好きです。

ということでですね、ざっとお届けしましたし。

新庄よく素人映像あっという間の2時間半お楽しみいただけましたでしょうか?(この動画以外にまだあったらしい)

6日は今まだ選挙期間中です。

でも、あっという間に終わります。次の日曜日で、もうこの選挙も終わりなんですね。

でもこの選挙期間を通して何よりも、それが終わった先でですね、しっかりと自分がここにいる意味戻ってきた意味を、それを皆さんに伝えていきたいと思います

今ここから始めていきます

安芸高田へ恩返しだ。(最後まで誰かの声がノイズとして入る)

2024-06-05

I.GPT-4からAGIへ:OOMを数える (9)

3.コンピュータ使用

これはおそらく3つの中で最も簡単方法だ。現在のChatGPTは、基本的に、テキスト入力できる孤立した箱の中に座っている人間のようなものだ。初期のアンホブリング改良では、個々の孤立したツールの使い方をモデルに教えていましたが、マルチモーダルモデルでは、近いうちにこれを一挙にできるようになると期待しています

まりZoomでの通話に参加したり、オンラインで調べ物をしたり、メッセージ電子メールを送ったり、共有されたドキュメントを読んだり、アプリや開発ツールを使ったりといったことだ。(もちろん、より長いホライゾン・ループモデルがこれを最大限に活用するためには、テスト時間コンピューティングをアンロックする必要がある。)

最終的には、ドロップイン・リモートワーカーのようなものができると期待している。エージェントは、あなた会社入社し、新しい人間雇用のようにオンボードされ、Slackあなたや同僚にメッセージを送り、あなたソフトウェア使用し、プルリクエストを行い、大きなプロジェクトがあれば、人間独立してプロジェクト完了するために数週間留守にするのと同等のことができる。これを実現するためには、GPT-4よりもいくらか優れたベースモデル必要だろうが、おそらくそれほどでもないだろう。

https://situational-awareness.ai/wp-content/uploads/2024/06/devin.gif

Devinは、完全に自動化されたソフトウェアエンジニアを作るために、モデル上の「エージェンシーオーバーハング」/「テストタイムコンピューティングオーバハング」を解除する初期のプロトタイプだ。Devinが実際にどの程度機能するかはわからないし、このデモは、適切なチャットボットエージェントのアンホブリングがもたらすものに比べれば、まだ非常に限定的ものだが、近々登場するものティーザーとしては役に立つだろう。

ところで、私は、アンホブリングの中心性が、商業的応用という点で、少々興味深い「ソニックブーム効果につながると期待している。現在ドロップイン・リモートワーカーの中間モデルは、ワークフローを変更し、統合して経済的価値を引き出すためのインフラを構築するために、膨大な手間を必要とする。ドロップイン・リモートワーカーは、統合が劇的に簡単になる。つまりリモートでできるすべての仕事自動化するために、ドロップインするだけでいいのだ。つまりドロップイン・リモートワーカーが多くの仕事自動化できるようになる頃には、中間モデルはまだ完全に活用され統合されていないため、生み出される経済価値ジャンプはやや不連続になる可能性がある。

次の4年間

https://situational-awareness.ai/wp-content/uploads/2024/06/overview_ooms_gpt2togpt4.png

https://situational-awareness.ai/wp-content/uploads/2024/06/overview_ooms_2023to2027.png

GPT-4に先立つ4年間の進歩原動力と、GPT-4後の4年間に期待されることについての推計のまとめ。


数字をまとめると、GPT-4に続く4年間で、2027年末までにGPT-2からGPT-4規模のジャンプが再び起こると(おおよそ)予想される。

GPT-4のトレーニングに3ヶ月かかったとしよう。2027年には、一流のAIラボGPT-4レベルモデルを1分で訓練できるようになるだろう。OOM効果的なコンピュート・スケールアップは劇的なものになるだろう。

それは我々をどこへ連れて行くのだろうか?

https://situational-awareness.ai/wp-content/uploads/2024/06/overview_counting_the_ooms.png

OOMカウントのまとめ。


GPT-2からGPT-4までで、私たちは~未就学児から~賢い高校生になった。とんでもないジャンプだ。もしこれが、私たちが今一度カバーする知能の差だとしたら、それは私たちをどこに連れて行くのだろうか?私たちは、それが私たちをとてもとても遠くに連れていっても驚かないはずだ。おそらく、ある分野の博士や最高の専門家凌駕するようなモデルまで到達するだろう。

(このことを考える1つの良い方法は、現在AI進歩の傾向は、子供の成長のおよそ3倍のペースで進んでいるということだ。あなたの3倍速の子どもは高校卒業したばかりだが、いつの間にかあなた仕事を奪っていくだろう!)

続き I.GPT-4からAGIへ:OOMを数える(10) https://anond.hatelabo.jp/20240605211837

I.GPT-4からAGIへ:OOMを数える (7)

アンホブリング

最後に、定量化するのが最も難しいが、それに劣らず重要改善カテゴリーを紹介しよう。

難しい数学問題を解くように言われたとき、頭に浮かんだことを即座に答えなければならないとしたらどうだろう。最も単純な問題を除いて、苦労するのは明らかだろう。しかしつい最近まで、LLMにはそうやって数学問題を解かせていた。その代わり、私たちほとんどはスクラッチパッドで段階的に問題を解いていき、その方法はるかに難しい問題を解くことができる。「思考連鎖プロンプトは、LLMのそれを解き放った。生の能力は優れているにもかかわらず、明らかな足かせがあるため、LLMは数学が苦手なのだ

私たちはここ数年で、モデルの「足かせを外す」ことに大きな進歩を遂げました。これは単に優れたベースモデルトレーニングするだけでなく、アルゴリズムの改良によってモデル能力を引き出すものです:

足場作り。CoT++について考えてみよう:ただ問題を解くようモデルに求めるのではなく、あるモデル攻撃計画を立てさせ、別のモデル可能性のある解決策をたくさん提案させ、別のモデルにそれを批評させる、といった具合だ。例えば、HumanEval(コーディング問題)では、単純な足場作りによってGPT-3.5が足場なしのGPT-4を上回った。SWE-Bench(実世界ソフトウェアエンジニアリングタスクを解くベンチマーク)では、GPT-4は~2%しか正しく解くことができませんが、Devinのエージェントの足場があれば14-23%に跳ね上がります。(後ほど詳しく説明するが、エージェントのアンロックはまだ初期段階に過ぎない。)

ツール:もし人間電卓コンピュータを使うことを許されなかったらと想像してみてほしい。まだ始まったばかりだが、ChatGPTウェブブラウザを使ったり、コードを実行したりできるようになった。

エポックAIによる研究によると足場作りやツール使用など、これらのテクニックのいくつかを調査したところ、このようなテクニックは多くのベンチマークで通常5~30倍の効果的な計算量の向上をもたらすことがわかった。METR(モデル評価する組織)も同様に、同じGPT-4ベースモデルからのアンホブリングによって、エージェントタスクのセットで非常に大きなパフォーマンスの向上を発見しました。

https://situational-awareness.ai/wp-content/uploads/2024/06/metr_gains_over_time-1024x597.png

METRのエージェントタスクパフォーマンス。出典モデル評価と脅威研究


これらをコンピュートとアルゴリズム効率統一した実効的なコンピュート規模に当てはめることは困難ですが、少なくともコンピュート規模の拡大やアルゴリズム効率とほぼ同規模の大きな進歩であることは明らかです。(また、アルゴリズム進歩が中心的な役割を担っていることも浮き彫りになっています。0.5OOM/年の計算効率は、すでに重要ものではありますが、ストーリーの一部に過ぎません。)

「アンホブリング」こそが、実際にこれらのモデル有用になることを可能にしたのであり、今日多くの商業アプリケーションの足かせとなっているものの多くは、この種のさらなる「アンホブリング」の必要であると私は主張したい。実際、今日モデルはまだ信じられないほど足かせが多い!例えば

ここでの可能性は非常に大きく、私たちはここで急速に低空飛行の果実を摘んでいる。これは非常に重要です。"GPT-6 ChatGPT "を想像するだけでは完全に間違っていますGPT-6+RLHFと比べれば、進歩は段違いだ。2027年までには、チャットボットというより、エージェントのような、同僚のようなものが登場するだろう。

続き I.GPT-4からAGIへ:OOMを数える(8) https://anond.hatelabo.jp/20240605210232

I.GPT-4からAGIへ:OOMを数える (6)

データの壁

これらすべての重要な変動要因になりうるものがあります。つまり、より多くのスクレイピングデータでより大きな言語モデルをプリ・トレーニングするという素朴なアプローチが、まもなく深刻なボトルネックにぶつかり始める可能性があるということだ。

フロンティアモデルはすでにインターネットの多くで訓練されている。例えば、Llama 3は15T以上のトークン学習された。LLMのトレーニング使用されたインターネットの多くのダンプであるCommon Crawlは、生で100Tトークンを超えるが、その多くはスパムや重複である(例えば、比較的単純な重複排除は30Tトークンにつながり、Llama 3はすでに基本的にすべてのデータ使用していることになる)。さらに、コードのようなより特殊領域では、トークンの数はまだまだ少ない。例えば、公開されているgithubリポジトリは、数兆トークン推定されている。

データを繰り返すことである程度遠くまで行くことができるが、これに関する学術的な研究は、16エポック(16回の繰り返し)の後、リターンは非常に速く減少し、ゼロになることを発見し、繰り返しはそこまでしか得られないことを示唆している。ある時点で、より多くの(効果的な)計算を行ったとしても、データ制約のためにモデルをより良いものにすることは非常に難しくなる。私たちは、言語モデリング-プレトレーニング-パラダイムの波に乗って、スケーリングカーブに乗ってきた。大規模な投資にもかかわらず、私たちは停滞してしまうだろう。すべての研究室が、新しいアルゴリズム改善や、これを回避するためのアプローチに大規模な研究の賭けに出ていると噂されている。研究者たちは、合成データからセルフプレー、RLアプローチまで、多くの戦略を試していると言われている。業界関係者は非常に強気のようだ:ダリオ・アモデイ(Anthropic社CEO)は最近ポッドキャストでこう語った:「非常に素朴に考えれば、我々はデータ不足からそれほど遠くない[...]私の推測では、これが障害になることはない[...]。もちろん、これに関するいかなる研究結果も独占的なものであり、最近公表されていない。

インサイダー強気であることに加え、サンプル効率はるかに向上させたモデルトレーニングする方法(限られたデータからより多くのことを学べるようにするアルゴリズムの改良)を見つけることが可能であるはずだという強い直感的な理由があると思う。あなたや私が、本当に密度の濃い数学教科書からどのように学ぶかを考えてみてほしい:

モデルトレーニングする昔の技術は単純で素朴なものだったが、それでうまくいっていた。今、それがより大きな制約となる可能性があるため、すべての研究室が数十億ドルと最も賢い頭脳を投入して、それを解読することを期待すべきだろう。ディープラーニング一般的パターンは、細部を正しく理解するためには多くの努力(そして多くの失敗プロジェクト)が必要だが、最終的には明白でシンプルもの機能するというものだ。過去10年間、ディープラーニングがあらゆる壁をぶち破ってきたことを考えると、ここでも同じようなことが起こるだろう。

さらに、合成データのようなアルゴリズムの賭けの1つを解くことで、モデルを劇的に改善できる可能性もある。直感的なポンプを紹介しよう。Llama 3のような現在フロンティアモデルは、インターネット上でトレーニングされている。多くのLLMは、本当に質の高いデータ(例えば、難しい科学問題に取り組む人々の推論チェーン)ではなく、このようながらくたにトレーニング計算の大半を費やしている。もしGPT-4レベル計算を、完全に極めて質の高いデータに費やすことができたらと想像してみてほしい。

AlphaGo囲碁世界チャンピオンを破った最初AIシステム)を振り返ることは、それが可能だと考えられる何十年も前に、ここでも役に立つ。

LLMのステップ2に相当するものを開発することは、データの壁を乗り越えるための重要研究課題であるさらに言えば、最終的には人間レベルの知能を超える鍵となるだろう)。

以上のことからデータの制約は、今後数年間のAI進歩予測する際に、どちらに転んでも大きな誤差をもたらすと考えられる。LLMはまだインターネットと同じくらい大きな存在かもしれないが、本当にクレイジーなAGIには到達できないだろう)。しかし、私は、研究所がそれを解読し、そうすることでスケーリングカーブが維持されるだけでなく、モデル能力が飛躍的に向上する可能性があると推測するのは妥当だと思う。

余談だが、このことは、今後数年間は現在よりも研究室間のばらつきが大きくなることを意味する。最近まで、最先端技術公表されていたため、基本的に誰もが同じことをやっていた。(レシピが公開されていたため、新参者オープンソースプロジェクトフロンティアと容易に競合できた)。現在では、主要なアルゴリズムアイデアますます専有されつつある。今はフロンティアにいるように見えるラボでも、他のラボブレークスルーを起こして先を急ぐ間に、データの壁にはまってしまうかもしれない。そして、オープンソース競争するのがより難しくなるだろう。それは確かに物事面白くするだろう。(そして、ある研究室がそれを解明すれば、そのブレークスルーはAGIへの鍵となり、超知能への鍵となる。)

続き I.GPT-4からAGIへ:OOMを数える(7) https://anond.hatelabo.jp/20240605210017

I.GPT-4からAGIへ:OOMを数える (5)

アルゴリズム効率

コンピュートへの大規模な投資が注目される一方で、アルゴリズム進歩も同様に重要進歩原動力であると思われる(そして、これまで劇的に過小評価されてきた)。

アルゴリズム進歩がどれほど大きな意味を持つかを理解するために、MATHベンチマーク高校生競技数学)において、わずか2年間で~50%の精度を達成するために必要価格が下がったことを示す次の図を考えてみてください。(比較のために、数学特に好きではないコンピュータサイエンスの博士課程の学生が40%のスコアを出したので、これはすでにかなり良いことです)。推論効率は2年足らずで3OOMs-1,000倍近く向上した。

https://situational-awareness.ai/wp-content/uploads/2024/06/math_inference_cost-1024x819.png

MATHのパフォーマンスを〜50%にするために必要な推論コストの概算。


これは推論効率だけの数字だが(公開データから推論するのが難しいトレーニング効率の向上と一致するかどうかはわからない)、アルゴリズム進歩は非常に大きく、また実際に起こっている。

この記事では、アルゴリズム進歩を2種類に分けて説明します。まず、「パラダイム内」でのアルゴリズムの改良を取り上げることにしま す。例えば、より優れたアルゴリズムによって、同じパフォーマンスを達成しながら、トレーニング計算量を10倍減らすことができるかもしれません。その結果、有効計算量は10倍(1OOM)になります。(後ほど「アンホブリング」を取り上げますが、これはベースモデル能力を解き放つ「パラダイム拡張/アプリケーション拡張」的なアルゴリズム進歩と考えることができます)。

一歩下がって長期的な傾向を見ると、私たちはかなり一貫した割合で新しいアルゴリズムの改良を発見しているようです。しかし、長期的なトレンドライン予測可能であり、グラフ上の直線であるトレンドラインを信じよう。

アルゴリズム研究ほとんど公開されており、10年前にさかのぼデータがある)ImageNetでは、2012年から2021年までの9年間で、計算効率が一貫して約0.5OOM/年向上しています

https://situational-awareness.ai/wp-content/uploads/2024/06/pareto_frontiers_imagenet_epoch-1024x349.png

アルゴリズム進歩を測定することができます。同じ性能のモデルを訓練するために必要計算量は、2012年比較して2021年にはどれくらい少なくなっているのでしょうか?その結果、アルゴリズム効率は年間0.5 OOMs/年程度向上していることがわかります。出典Erdil and Besiroglu 2022.

これは非常に大きなことです。つまり、4年後には、~100倍少ない計算量で同じ性能を達成できるということです(同時に、同じ計算量ではるかに高い性能も達成できます!)。

残念ながら、研究室はこれに関する内部データ公表していないため、過去4年間のフロンティアLLMのアルゴリズム進歩を測定することは難しい。EpochAIは、言語モデリングに関するImageNetの結果を再現した新しい研究を行っており、2012年から2023年までのLLMのアルゴリズム効率トレンドは、同様に~0.5OOM/年である推定しています。(しかし、これはエラーバーが広く、また、主要なラボアルゴリズム効率公表を停止しているため、最近の上昇を捕捉していません)。

https://situational-awareness.ai/wp-content/uploads/2024/06/llm_efficiency_epoch-1-1024x711.png

Epoch AIによる言語モデリングにおけるアルゴリズム効率推定。この試算によると、私たちは8年間で~4OOM効率向上を達成したことになります

より直接的に過去4年間を見ると、GPT-2からGPT-3は基本的に単純なスケールアップでした(論文によると)が、GPT-3以降、公に知られ、公に干渉可能な多くの利益がありました:

最近リリースされたGemini 1.5 Flashは、"GPT-3.75レベル "とGPT-4レベルの間の性能を提供する一方で、オリジナルGPT-4よりも85倍/57倍(入力/出力)安い(驚異的な利益!)。

公開されている情報総合すると、GPT-2からGPT-4へのジャンプには、1-2 OOMアルゴリズム効率向上が含まれいたことになります

https://situational-awareness.ai/wp-content/uploads/2024/06/stacked_compute_algos-1024x866.png

GPT-4に続く4年間はこの傾向が続くと予想され、2027年までに平均0.5OOMs/年の計算効率、つまりGPT-4と比較して~2OOMsの向上が見込まれます計算効率の向上は、低空飛行の果実を摘み取るようになるにつれて難しくなる一方、新たなアルゴリズムの改良を見出すためのAIラボ資金人材への投資は急速に増加しています。 (少なくとも、公開されている推論コスト効率化は、まったく減速していないようだ)。ハイエンドでは、より根本的な、トランスフォーマーのようなブレークスルーが起こり、さらに大きな利益が得られる可能性さえある。

これらをまとめると、2027年末までには(GPT-4と比較して)1~3OOMアルゴリズム効率向上が期待できることになります

続き I.GPT-4からAGIへ:OOMを数える(6) https://anond.hatelabo.jp/20240605205754

I.GPT-4からAGIへ:OOMを数える (4)

OOMを数える

どうしてこうなったディープラーニング魔法は、それがただ機能するということであり、あらゆる場面で否定的意見にもかかわらず、その傾向線は驚くほど一貫している。

https://situational-awareness.ai/wp-content/uploads/2024/06/sora_scaling-1024x383.png

OpenAI Soraの例 計算量のスケーリング効果

効果的な計算OOMが増えるごとに、モデル予測通り、確実に良くなっていく。OOMを数えることができれば、能力の向上を(大まかに定性的に)推定することができる。そうやって、先見の明のある数人がGPT-4の到来を予見したのだ。

GPT-2からGPT-4までの4年間の進歩を、スケールアップの3つのカテゴリーに分解することができる:

1. コンピュート:計算:これらのモデルを訓練するために、より大きなコンピューターを使うようになった。

2.アルゴリズム効率化:アルゴリズム進歩には継続的な傾向がある。これらの多くは「コンピュート・マルチプライヤ」として機能し、有効コンピュート量の増加という統一された尺度に乗せることができます

3.「趣味のない」利益デフォルトでは、モデルは多くの素晴らしい生の能力学習しますが、あらゆる種類の間抜け方法で足かせとなり、実用的な価値制限されます人間フィードバックから強化学習(RLHF)、思考連鎖(CoT)、ツール、足場などの単純なアルゴリズム改善により、潜在的能力を大きく引き出すことができる。

これらの軸に沿って、改善の「OOMを数える」ことができる。つまり有効計算量の単位でそれぞれのスケールアップをトレースするのだ。3倍は0.5OOM10倍は1OOM、30倍は1.5OOM100倍は2OOMといった具合だ。2023年から2027年まで、GPT-4の上に何を期待すべきかを見ることもできる。

ひとつひとつ見ていくが、OOMの数を急速に増やしていることは明らかだ。データの壁には逆風が吹いている可能性があり、それについては後述するが、全体的には、2027年までにGPT-4の上に、GPT-2からGPT-4規模のジャンプがもう1回起こると予想される。

コンピュート

まず、最近進歩原動力として最もよく議論されている、モデルへの(大量の)コンピュート投入について説明します。

多くの人は、これは単にムーアの法則によるものだと考えている。しかし、ムーアの法則が全盛期を迎えていた昔でさえ、その進歩比較的緩やかなものでした。しかし、ムーアの法則が全盛期だった昔でさえ、10年で1~1.5OOMと、比較ゆっくりとしたスピードだった。(かつては1つのモデル100万ドルを費やすことさえ、誰も考えもしないことだった。)

モデル推定コンピュート 成長率
GPT-2 (2019) ~4e21 FLOP
GPT-3 (2020) ~3e23 FLOP + ~2 OOMs
GPT-4 (2023) 8e24~4e25 FLOP + ~1.5~2 OOMs

エポックAIによるGPT-2からGPT-4までの計算量の推定

エポックAIAIトレンドの優れた分析で広く尊敬されている情報源)の公開推定値を使用して、2019年から2023年までのコンピュートスケールアップを追跡することができますGPT-2からGPT-3へのスケールアップは迅速で、小規模な実験から大規模な言語モデルを訓練するためにデータセンター全体を使用するまでにスケールアップし、コンピュートのオーバーハングが大きくなりました。GPT-3からGPT-4へのスケールアップでは、次のモデルのためにまったく新しい(はるかに大きな)クラスタを構築しなければならないという、最新の体制に移行しました。それでも劇的な成長は続いていますエポックAIの試算によると、GPT-4のトレーニングでは、GPT-2の3,000倍から10,000倍の計算量を使用しています

大雑把に言えば、これは長期的なトレンド継続に過ぎない。過去10年半の間、主に投資(およびGPUやTPUの形でAIワークロードに特化したチップ)の幅広いスケールアップのため、フロンティアAIシステム使用されるトレーニング計算量は、およそ〜0.5OOM/年で成長してきた。

https://situational-awareness.ai/wp-content/uploads/2024/06/compute_long_run_trend-1024x968.png

注目すべきディープラーニングモデルトレーニングコンピュートの経年変化。出典エポックAI

GPT-2からGPT-3への1年間のスケールアップは異例のオーバーハングであったが、長期的なトレンドが続くことは間違いない。SF-rumor-millは、巨額のGPU受注の劇的な話で一杯だ。その投資は並大抵のものではないが、動き始めている。

この分析によれば、2027年末までにさらに2OOMsのコンピュート(数十億ドル規模のクラスター)が実現する可能性は非常に高いと思われる。さらに+3OOMsのコンピュート(1,000億ドル規模以上)に近いクラスターも可能性がありそうだ(マイクロソフト/OpenAI計画中と噂されている)。

https://situational-awareness.ai/wp-content/uploads/2024/06/stacked_compute-1024x866.png

続き I.GPT-4からAGIへ:OOMを数える(5) https://anond.hatelabo.jp/20240605205449

anond:20240605081653

半導体「関連」とAI全然関係ないのはじゃあ知ってるよね

「やってる」は俺個人であればニューラルネットワークバックプロパゲーションが手計算できるくらい、モデル自分で作ってトレーニングしてプロダクションに入れてるけど

そこを聞いている話なんだけど「残念ながら使ってる方」だという自覚があるようなのでつまりやってはないんだよね

半導体関連に10年勤めてた程度の30そこそこの人が日本で超天才がどうのとか心配する必要全然ないやろ

それ以前に自分やばい

2024-06-03

よく調整されたAIなら、教育とか宗教説法とか、できるだけ人による「揺れ」を防ぎたい分野でめちゃくちゃ有効だよな

仕事における新人トレーニングや、マニュアル的な業務の引き継ぎとかもそうだろうし

ログイン ユーザー登録
ようこそ ゲスト さん