「トランスフォーマー」を含む日記 RSS

はてなキーワード: トランスフォーマーとは

2024-09-28

anond:20240928084654

コンボイ」は「トランスフォーマー」が大人気になるまでは知らないダンプカーや大型トラックがなぜか追いかけて来てしつこく追突をしかけてくる!!っていう恐怖映画の悪役キャラ代名詞やったんやで😊

2024-09-06

久々にFGOの本編来たから読んでるけど、最近AIブームに影響されすぎだろ

魔法存在する世界なんだし、現実に合わせてディープラーニングだのトランスフォーマーだの出す必要ないだろ

(そもそも2017年世界が止まってる設定とも矛盾してるし)

てか新章入ってからAIテーマなの2回目なんだが

2024-09-02

惚れた女とかけまして

トランスフォーマーの悪役とときます

その心は、どちらも"めがとろん"とするでしょう!!!

2024-06-05

I.GPT-4からAGIへ:OOMを数える (11)

補遺 OOMを駆け抜けるこの10年か、それとも破綻

私は以前、AGIへの短期的なタイムラインには懐疑的だった。その理由ひとつは、この10年を優遇し、AGI確率質量を集中させるのは不合理に思えたかである(「我々は特別だ」と考えるのは古典的誤謬のように思えた)。私は、AGIを手に入れるために何が必要なのかについて不確実であるべきであり、その結果、AGIを手に入れる可能性のある時期について、もっと「しみじみとした」確率分布になるはずだと考えた。

しかし、私は考えを変えました。決定的に重要なのは、AGIを得るために何が必要かという不確実性は、年単位ではなく、OOM有効計算量)単位であるべきだということです。

私たちはこの10年でOOMsを駆け抜けようとしている。かつての全盛期でさえ、ムーアの法則は1~1.5OOM/10年に過ぎなかった。私の予想では、4年で~5OOM10年で~10OOMを超えるだろう。

https://situational-awareness.ai/wp-content/uploads/2024/06/this_decade_or_bust-1200x925.png

この10年間、我々はOOMの数を競ってきたが、2030年代初頭以降は、ゆっくりとしたスローグに直面するだろう。

要するに、私たちはこの10年で1回限りの利益を得るための大規模なスケールアップの真っ只中にいるのであり、OOMsを通過する進歩はその後何倍も遅くなるだろう。もしこのスケールアップが今後5~10年でAGIに到達できなければ、AGIはまだまだ先の話になるかもしれない。

まり、今後10年間で、その後数十年間よりも多くのOOM経験することになる。それで十分かもしれないし、すぐにAGIが実現するかもしれない。AGIを達成するのがどれほど難しいかによって、AGI達成までの時間中央値について、あなたと私の意見が食い違うのは当然です。しかし、私たちが今どのようにOOMを駆け抜けているかを考えると、あなたのAGI達成のモーダル・イヤーは、この10年かそこらの後半になるはずです。

https://lh7-us.googleusercontent.com/docsz/AD_4nXe0r6fnJI53YqKa4sRV8xUwQtJLVqoBk16MCRwi8PYQWnOifB3rGVIl-3FbSdDosEIHyAnVe3xdni6Wy5MG1J020VeIM14qeZ25X4QMAvQQ1hVMxT9oey0h5Nae64Hy44P-ujLKOQb_WXM5ushSj3-2at8?key=dBAH1mD-mi8jAGZnPZl-1g

マシューバーネット(Matthew Barnett)氏は、計算機と生物学境界だけを考慮した、これに関連する素晴らしい視覚化を行っている。

I.GPT-4からAGIへ:OOMを数える (5)

アルゴリズム効率

コンピュートへの大規模な投資が注目される一方で、アルゴリズム進歩も同様に重要進歩原動力であると思われる(そして、これまで劇的に過小評価されてきた)。

アルゴリズム進歩がどれほど大きな意味を持つかを理解するために、MATHベンチマーク高校生競技数学)において、わずか2年間で~50%の精度を達成するために必要価格が下がったことを示す次の図を考えてみてください。(比較のために、数学特に好きではないコンピュータサイエンスの博士課程の学生が40%のスコアを出したので、これはすでにかなり良いことです)。推論効率は2年足らずで3OOMs-1,000倍近く向上した。

https://situational-awareness.ai/wp-content/uploads/2024/06/math_inference_cost-1024x819.png

MATHのパフォーマンスを〜50%にするために必要な推論コストの概算。


これは推論効率だけの数字だが(公開データから推論するのが難しいトレーニング効率の向上と一致するかどうかはわからない)、アルゴリズム進歩は非常に大きく、また実際に起こっている。

この記事では、アルゴリズム進歩を2種類に分けて説明します。まず、「パラダイム内」でのアルゴリズムの改良を取り上げることにしま す。例えば、より優れたアルゴリズムによって、同じパフォーマンスを達成しながら、トレーニング計算量を10倍減らすことができるかもしれません。その結果、有効計算量は10倍(1OOM)になります。(後ほど「アンホブリング」を取り上げますが、これはベースモデル能力を解き放つ「パラダイム拡張/アプリケーション拡張」的なアルゴリズム進歩と考えることができます)。

一歩下がって長期的な傾向を見ると、私たちはかなり一貫した割合で新しいアルゴリズムの改良を発見しているようです。しかし、長期的なトレンドライン予測可能であり、グラフ上の直線であるトレンドラインを信じよう。

アルゴリズム研究ほとんど公開されており、10年前にさかのぼデータがある)ImageNetでは、2012年から2021年までの9年間で、計算効率が一貫して約0.5OOM/年向上しています

https://situational-awareness.ai/wp-content/uploads/2024/06/pareto_frontiers_imagenet_epoch-1024x349.png

アルゴリズム進歩を測定することができます。同じ性能のモデルを訓練するために必要計算量は、2012年比較して2021年にはどれくらい少なくなっているのでしょうか?その結果、アルゴリズム効率は年間0.5 OOMs/年程度向上していることがわかります。出典Erdil and Besiroglu 2022.

これは非常に大きなことです。つまり、4年後には、~100倍少ない計算量で同じ性能を達成できるということです(同時に、同じ計算量ではるかに高い性能も達成できます!)。

残念ながら、研究室はこれに関する内部データ公表していないため、過去4年間のフロンティアLLMのアルゴリズム進歩を測定することは難しい。EpochAIは、言語モデリングに関するImageNetの結果を再現した新しい研究を行っており、2012年から2023年までのLLMのアルゴリズム効率トレンドは、同様に~0.5OOM/年である推定しています。(しかし、これはエラーバーが広く、また、主要なラボアルゴリズム効率公表を停止しているため、最近の上昇を捕捉していません)。

https://situational-awareness.ai/wp-content/uploads/2024/06/llm_efficiency_epoch-1-1024x711.png

Epoch AIによる言語モデリングにおけるアルゴリズム効率推定。この試算によると、私たちは8年間で~4OOM効率向上を達成したことになります

より直接的に過去4年間を見ると、GPT-2からGPT-3は基本的に単純なスケールアップでした(論文によると)が、GPT-3以降、公に知られ、公に干渉可能な多くの利益がありました:

最近リリースされたGemini 1.5 Flashは、"GPT-3.75レベル "とGPT-4レベルの間の性能を提供する一方で、オリジナルGPT-4よりも85倍/57倍(入力/出力)安い(驚異的な利益!)。

公開されている情報総合すると、GPT-2からGPT-4へのジャンプには、1-2 OOMアルゴリズム効率向上が含まれいたことになります

https://situational-awareness.ai/wp-content/uploads/2024/06/stacked_compute_algos-1024x866.png

GPT-4に続く4年間はこの傾向が続くと予想され、2027年までに平均0.5OOMs/年の計算効率、つまりGPT-4と比較して~2OOMsの向上が見込まれます計算効率の向上は、低空飛行の果実を摘み取るようになるにつれて難しくなる一方、新たなアルゴリズムの改良を見出すためのAIラボ資金人材への投資は急速に増加しています。 (少なくとも、公開されている推論コスト効率化は、まったく減速していないようだ)。ハイエンドでは、より根本的な、トランスフォーマーのようなブレークスルーが起こり、さらに大きな利益が得られる可能性さえある。

これらをまとめると、2027年末までには(GPT-4と比較して)1~3OOMアルゴリズム効率向上が期待できることになります

続き I.GPT-4からAGIへ:OOMを数える(6) https://anond.hatelabo.jp/20240605205754

2024-04-11

anond:20240411005026

Xにあるけど、ドラゴン求愛した車がトランスフォーマーで、人型に変形して私は車じゃないよって言ったらドラゴン竜人モードになってサクセスする漫画好き

2024-03-10

名作は大抵なろう

スターウォーズ田舎者の平凡な若者だと思ったら実は最強のジェダイの息子でした」←なろうじゃん

ハリー・ポッターいじめられっ子だと思ったら実はスゴい魔法使いでした」

ターミネーター「ただのウェイトレスだと思ったら実は救世主母親でした」←なろうじゃん

タイタニック「運良く豪華客船になったら上流階級美女に惚れられました」←なろうじゃん

バック・トゥ・ザ・フーチュー「いじめられっ子だけど未来から来た息子に助けられて成功者になりました」←なろうじゃん

スパイダーマン陰キャだけどクモに噛まれたら超能力手に入れました」←なろうじゃん

スーパーマン普段陰キャだけど実は最強のスーパーヒーローです」←なろうじゃん

ジョーカーワープアガイジのオッサン社会変えちゃいます」←なろうじゃん

トランスフォーマー陰キャ中古車買ったら金属兵器でした」←なろうじゃん

ゴジラ「孤島暮らしだけど核兵器の力でパワーアップします」←なろうじゃん

ロード・オブ・ザ・リング「ちびのホビットだけど最強のチート指輪を手に入れました」←なろうじゃん

ファウスト悪魔の力でいろんな冒険しちゃいます」←なろうじゃん

ドン・キホーテ田舎ジジイだと思ったら実は騎士でした」←なろうじゃん

アラジン魔法のランプ「貧乏人が魔神の力でお姫様結婚しちゃいます」←なろうじゃん

ブレーメン音楽隊無能悪党成敗して幸せになります」←なろうじゃん

タイムマシン馬鹿未来相手マウント取ります。そして美少女に惚れられます」←なろうじゃん

ガンダム陰キャだけど親父が設計した最強の平気で無双します」←なろうじゃん

ジョジョ「ただの学生だと思ったら実は超能力持ちでした」←なろうじゃん

Fate「平凡な高校生だけど最強の英霊召喚しました」←なろうじゃん

ペルソナ5陰キャ高校生だと思ったら謎の能力に目覚めました。しか10股かけます

2024-03-06

anond:20240305175742

男性でいうところの「よく使うけど嬉しくない」グッズって、たぶんあれだよね。

 

子どものころに親戚が買ってきた感じの、検討違いなオモチャみたいな……。

 

トランスフォーマーなら欲しかったが急にゾイド貰ってもね、とか

2024-01-31

anond:20240131135621

生成AIの「アルゴリズム」?

何言ってんだこいつ、ただのトランスフォーマーだろ

俺は何度も繰り返すが、生成AIにおいて難しいのはアルゴリズムの部分ではない

難しいのは計算リソースを確保すること

からカネだけが勝負世界

2024-01-28

自動販売機はいざというときトランスフォーマーみたいにロボットに変形して欲しい

そして被災した人たちに僕のジュースをお飲み、と二足歩行で歩いて配ってって欲しい。

ログイン ユーザー登録
ようこそ ゲスト さん