「能力」を含む日記 RSS

はてなキーワード: 能力とは

2024-06-06

anond:20240606080455

世界規模で精子が減少してるんですよ。

ヒトの精子の減少加速 70年代から6割減、打つ手見えず

https://www.nikkei.com/article/DGXZQOUD226TU0S2A121C2000000/

これではいくらエッチしても妊娠できないから、少子化が進行する。

原因は、マイクロプラスチック

すべての男性の精巣からマイクロプラスチック」が見つかったとの研究結果、生殖能力に影響を与えている

https://gigazine.net/news/20240522-microplastics-human-testicles/


人類の衰退は避けられない。

anond:20240604191922

欧州軍司令官のカボリ陸軍大将

ロシア軍の再編スピードは予想を上回る」、「戦力規模は侵攻前よりも15%ほど大きくなっている」

ドイツピストリウス国防

ロシア生産能力ウクライナでのニーズを上回り備蓄が積み上がっている」、「備蓄に振り向けられた武器弾薬ウクライナの次に備えたものだ」

はてな元帥

兵力の増加は必ずしも良いことではないロシア士官がほぼ壊滅してる烏合の衆

兵数は増やせても練度の高い兵隊だけは増やせない

超兵器F16が届けば戦局がまた動き出すのは確か

歴史というのは、特に戦争短期的な成功と長期的視点での崩壊は両立しうる(期限は定めないものとする)

anond:20240606002720

うわキモ

東京人気取りの田舎者

世界狭すぎてキモ

地方民はそんな存在すら知らずに幸せ暮らしてるし、そんなとこ行かなくても公立高校から東京の一流大学合格してるから心配すんな

ガキの頃から馬鹿なのに無駄に金注ぎ込んで能力以上の進学させないといけない東京とは違うから

普通の男女

男→星野源

女→幾田りら

能力抜きに見た目のみ。

これ以下の男女は普通以下だと認識して美意識を高めるなり能力を高めるなりして補填するように。

以上

anond:20240606014354

田舎落ち』こそがあるべき言葉だと思います

基本、田舎で飯食えないのが東京に行くわけだし

 

たまーに宗教家や美しい日本系の人が、『田舎不自由からこそ、健康に過ごせる』とかのたまうけど、

ちげぇのよな、田舎に残ってるのは、そこで暮らせる強力な地盤を持っているか個体としての能力が高いから、

田舎に残って生活することができたの。弱い個体高齢者になる前に淘汰されたか都市部に出たの!って

いつも思ってるわ

レベルが高い人が目に入る環境もあるが

気後れするからわざわざ増田を選んで書いてる意識ウルトラ低い人が言うことじゃあないんですけど、

マジでどんな人生歩んでれば、幼少期や青春を潰して行われる、良い奴隷になるためのあれやこれやをありがたがったり、

挙句、妬むなんて事象が起こり得るんでしょうな

 

日々の生活に苦労しているか・・・・とかならわかるんだけど、なんかまぁそう言う感じもしない

せいぜいちょっとした贅沢をする予算がなかったり、老後の不安があるとかその程度だ

深刻な体調な人も中にはおるけども、お育ちに限定すると基本的にお育ちは良いからな

増田もついでにブクマカもね

(ただし、ブクマカは、親が普通から普通以上でも本人は稼ぐ力が弱く、端金でガタガタ抜かす)

 

 

羨ましがる必要がある人って、なかなか金にしにくいこと商売にしても、余裕で生活が成り立つ人じゃないですかね

それは本人の才能かもしれないし、アホみたいにスクールクラブに金かけてくれるの親のゴン太さ/子が一生無給でも無問題な親のゴン太さかもしれないし、そのぜんぶかもしれない

 

とはいえ、某リアリティショーで、西海岸不動産屋を営むゴン実家の生まれのパッとしないDJが、あん幸福そうではなかったのは、すごく印象には残っている

あと、重めの知的障害の子を持つ親御さんが、アートの才能がかなりあるのに、アート仕事ではなく趣味しろとして、障がい者雇用仕事を務められる訓練をしたのや、

訓練をしても、生活を立てる賃金を得るのは厳しいレベル障害がある人が、それでも働きたがったりすることも印象的だ

 

けどまぁ、やっぱ、才能があろうがなかろうが自分価値観を置いてることをやって、出来たら『ありがとう』と言われてぇみたいもんですわな

 

アート業やっている人、たぶんワイと年収同じかワイのが年収上なんだろうけど、能力ごと仕事交換できるならしたいわね

NPO求人もワイは英語すらできないポンコツなので論外なのだけど、とりあえず600万以上年収貰えるなら、ぜんぜん生活できるので(なきゃ無いなり生活)、

ほんま代わりたいよって思いました

2024-06-05

anond:20240605220045

自己実現・・・は言い過ぎとしても

副業の方で信頼されて能力も育って独立されたり、副業の方が面白くなって転職されたりって可能性は大いにあるよね。

Wワークでも一日の労働時間が8時間を超えたら割増賃金を支払わなきゃいけないようで、労務管理がめんどくさいってのもあると思うけど。

砂を操る能力と砂鉄を操る能力はともかく砂金を操る能力ってなんだよ

どこで使うんだよ

副業解禁が広まらない理由


30代増田である世間では一応、公務職場市町村役場)で働いている。

最近ふと、副業解禁について思ったことがある。幣役所では残念ながら、副業に関する人事当局方針説明はなかった(国の機関では文書で通知があった)。

当然、今までと同じルールだ。労働系の副業は、農業を除いて厳禁である

それはさておき、世の中の流れとして副業OKになりつつあるけど、世間一般会社では浸透していないように思える。

その理由で感じたことがある。「職場の外で自己実現されると困るから」ではないだろうか。

私はイベント広報企画最前線で働いているのだが、周りから評価が低い男性職員がいる。私と同じ30代である

その人は、ほうれんそうができない。人が傷つく言葉遣いに気が付かなかったり、上司から休日の緊急電話にも出なかったり、仕事中に「私は能力が低い職員ですが、そのことに向き合って認めています」などと開き直りをしてる。

私もそこまでの社会人ではないが、それにしても彼はひどい。仕事中にも「信頼がなくても別にいいです」とかほざいてる。マジで意味がわからない。

でも、その彼は、どれだけ上司に怒られても、同僚から聞こえるように影口を言われても、平気なのだ

気にかけてないように見える。

実は彼は、学生の頃に剣道国民体育大会に出場したことがある。会社内の運動イベントの時に、私たちが住んでいる県の国体ジャージを着ているのを見た。今でも剣道をしていて、市内の有名な道場指導してる。

追記だけど、彼とは中学校高校が一緒である。ある程度のことはわかる。

まり彼には、自己実現をするための環境があるのだ。そこでの自信が凄まじいので、別に経済社会通用しなくても別にいいのだ。いや、彼の心理はわからないが、多分そんなところだろう。

正直、この職場はただの腰かけで、アルバイトのようなものなんだと思う。

いや、アルバイト公務員の正規職してるって、なんかもう笑いを通り越してしまう。

世の中で副業を推進していくと、彼のように会社仕事を離れて、自己実現ができる分野で活躍する人が増えるのではないか

すると、その会社にとってはダメージになる。本業から心が離れてしまっては困る。

そんな可能性があるから、どの会社副業推進に足踏みしているのではないかな~と最近思った。

皆さまはどう思われるだろうか。

男、頼む。むやみに種を蒔かないでくれ

弱者男性ってのは能力が劣ってるから生殖の機会にありつけないってのは皆さんも知っての通りだけれども。

池沼の女どもに理解のある彼くんが現れて生殖の機会を得られるのが本当に許せない。

なぜ能力の劣った個体生殖の機会にありつけないかって、そりゃあその個体遺伝子が末代にするべきだったからって話なんだけれども、女だけその選抜から逃れやすいと言う話をしている。その結果、被害を被るのは生まれてくる子供達、その子供に割かれるリソース本来受けるはずだった健康優良児たち。彼らに何の罪があるのか。無責任母親が本当に許せない。そんな個体に種を蒔く男も許せない。また、池沼の子供の面倒を見させるためのヤングケアラーを産ませるために男をあてがう両親も許せない。全部許せない。おとなしく末代にしろ。哀れな命を増やすな。

いか男ども。生殖の機会を与えるべきでない女に種を与えるのはやめろ。女は遺伝子選抜ちゃんとやってる。やってないのは男だけだ。

状況認識:今後10年の展望 -- はじめに

X (twitter) で SITUATIONAL AWARENESS: The Decade Ahead https://situational-awareness.ai/ というのが回ってきて非常に示唆に富むものだったので、DeepL (無料API経由) で訳してみた。

レオポルド・アッシェンブレナ2024年6月

サンフランシスコに行けば、まず未来が見える。

この1年で、街の話題100億ドルコンピュート・クラスターから1000億ドルクラスター、そして1兆ドルクラスターへと移り変わってきた。半年ごとに、役員室の計画にまたゼロが追加される。その裏では、残りの10年間に利用可能なすべての電力契約と、調達可能なすべての電圧変圧器を確保しようとする熾烈な争いが繰り広げられている。アメリカ大企業は、アメリカ産業力を結集させるために、何兆ドルもの資金を注ぎ込む準備を整えている。ペンシルベニア州シェールフィールドからネバダ州太陽光発電所まで、何億ものGPUが稼働する。

AGI競争が始まったのだ。私たち思考し、推論できるマシンを作りつつある。2025年から26年にかけて、これらのマシンは多くの大学卒業生凌駕するだろう。10年後までには、これらのマシンは私やあなたよりも賢くなり、本当の意味での超知性を手に入れるだろう。その過程で、この半世紀には見られなかったような国家安全保障の力が解き放たれ、やがて「プロジェクト」が始動する。運が良ければ、中国共産党との全面的競争になり、運が悪ければ全面戦争になる。

今、誰もがAIについて話しているが、何が自分たちを襲おうとしているのか、かすかな光明を感じている人はほとんどいない。Nvidiaアナリストは、まだ2024年ピークに近いと考えている。主流派評論家たちは、「次の言葉予測するだけだ」という故意盲目に陥っている。彼らが見ているのは誇大広告といつも通りのビジネスだけで、せいぜいインターネット規模の新たな技術革新が起こるのを楽しむ程度なのだ

やがて世界は目を覚ますだろう。しかし、今現在、状況認識を持っているのはおそらく数百人で、そのほとんどはサンフランシスコAI研究所にいる。運命不思議な力によって、私はその中に身を置くことになった。数年前、このような人々はクレイジーだと揶揄されたが、彼らはトレンドラインを信頼し、過去数年間のAI進歩を正しく予測することができた。この人たちが今後数年についても正しいかどうかはまだわからない。しかし、彼らは非常に賢い人々であり、私がこれまでに会った中で最も賢い人々である。おそらく、彼らは歴史の中で奇妙な脚注となるか、あるいはシラードやオッペンハイマーテラーのように歴史に名を残すだろう。もし彼らが未来を正しく見ているとしたら、私たちはとんでもないことになる。

私たちが見ているものを教えよう。

目次

エッセイはそれぞれ独立したものですが、シリーズ全体として読むことを強くお勧めします。全エッセイPDF版はこちら。

はじめに 【このページ】

歴史サンフランシスコで生きている

I.GPT-4からAGIへOOM(Orders of Magnitude)を数える

2027年までにAGIが実現する可能性は極めて高い。GPT-2からGPT-4までの4年間で、私たちは~未就学児から~賢い高校生までの能力を手に入れた。計算能力(~0.5桁またはOOMs/年)、アルゴリズム効率(~0.5OOMs/年)、および「趣味のない」向上(チャットボットからエージェントへ)のトレンドライントレースすると、2027年までに再び未就学児から高校生サイズ質的ジャンプが起こると予想される。

II.AGIから超知能へ:知性の爆発

AI進歩人間レベルでは止まらない。何億ものAGIがAI研究自動化し、10年に及ぶアルゴリズム進歩(5以上のOOM)を1年以下に圧縮することができる。私たちは、人間レベルから超人的なAIシステムへと急速に進化することになる。超知能の威力危険性は劇的なものとなるだろう。

III.課題
IIIa.兆ドルクラスタへの競争

驚異的な技術資本の加速が始まっている。AI収益が急増するにつれ、10年末までに何兆ドルもの資金GPUデータセンター、電力の増強に投入されるだろう。米国の電力生産を数十%増加させるなど、産業界の動員は激しくなるだろう。

IIIb.研究所の封鎖AGIのセキュリティ

米国の主要なAI研究所は、セキュリティを後回しに扱っている。現在、彼らは基本的にAGIの重要な機密を銀の皿に載せて中国共産党に渡している。AGIの秘密とウェイトを国家機関の脅威から守るには膨大な努力必要であり、我々はその軌道に乗っていない。

IIIc.スーパーアライメント

我々よりもはるかに賢いAIシステムを確実に制御することは、未解決技術問題である解決可能問題ではあるが、急速な知能の爆発が起きれば、物事簡単にレールから外れてしまう。これを管理することは非常に緊張を強いられるだろう。

IIId.自由世界勝利しなければならない

スーパーインテリジェンスは、経済的にも軍事的にも決定的な優位性をもたらすだろう。中国はまだゲームから抜け出してはいない。AGIをめぐる競争では、自由世界の存亡がかかっている。我々は権威主義的な大国に対する優位性を維持できるのか?そして、その過程で自滅を避けることができるのだろうか?

IV.プロジェクト

AGIへの競争が激化するにつれ、国家安全保障が関与してくる。アメリカ政府は眠りから覚め、27~28年までに何らかの形で政府によるAGIプロジェクトが立ち上がるだろう。どんな新興企業も超知能を扱うことはできない。SCIFのどこかで、終盤戦が始まるだろう。

V.おわりに

もし我々が正しかったら?

――――――――

私はかつてOpenAIで働いていたが、これはすべて一般に公開されている情報私自身のアイデア一般的な現場知識、あるいはSFゴシップに基づいている。

Collin Burns、Avital Balwit、Carl Shulman、Jan Leike、Ilya Sutskever、Holden Karnofsky、Sholto Douglas、James Bradbury、Dwarkesh Patel、その他多くの方々の有益議論感謝する。初期の草稿にフィードバックをくれた多くの友人に感謝する。グラフィックを手伝ってくれたジョー・ローナン出版を手伝ってくれたニック・ウィテカーに感謝する。

イリヤスーツバーに捧ぐ。

続き I.GPT-4からAGIへ:OOMを数える(1) https://anond.hatelabo.jp/20240605203849

I.GPT-4からAGIへ:OOMを数える (8)

チャットボットからエージェント兼同僚へ

今後数年間の野心的なアンホブリングはどのようなものになるのでしょうか?私が考えるに、3つの重要な要素がある:

1."オンボーディング問題 "の解決

GPT-4は、多くの人の仕事の大部分をこなせるだけの生の賢さを持っているが、それは5分前に現れたばかりの賢い新入社員のようなものだ:関連するコンテキストを持っておらず、会社ドキュメントSlack履歴を読んだり、チームのメンバーと会話したり、会社内部のコードベース理解するのに時間を費やしたりしていない。賢い新入社員は、着任して5分後にはそれほど役に立たないが、1ヶ月後にはかなり役に立つ!例えば、非常に長いコンテクストを通じて、新しい人間の同僚を雇うようにモデルを「オンボード」することは可能なはずだ。これだけでも、大きなアンロックになるだろう。

2.テスト時間計算オーバーハング(より長いホライズン問題に対する推論/エラー訂正/システムII)

今のところ、モデル基本的に短いタスクしかこなせない。しかし、これでは非常に限界がある。5分どころか、数時間、数日、数週間、数ヶ月かかるのだ。

難しい問題について5分間しか考えることができない科学者は、科学的なブレークスルーを起こすことはできない。ソフトウェアエンジニアは、より大きな仕事を与えられ、計画を立て、コードベース技術ツールの関連部分を理解し、さまざまなモジュールを書いて段階的にテストし、エラーデバッグし、可能性のある解決策を検索し、最終的には数週間の仕事集大成である大規模なプル・リクエストを提出する。などなど。

要するに、テスト時間計算オーバーハングが大きいのだ。GPT-4の各トークンは、問題を考えるときの内部モノローグ言葉だと考えてください。各GPT-4トークンは非常に賢いのですが、現在のところ、思考連鎖のために~数百トークンのオーダーしか効果的に使うことができません(あたか問題プロジェクトに数分しか内部独白思考を費やせないかのように)。

もし数百万トークンを使って、本当に難しい問題や大きなプロジェクトについて考え、取り組むことができるとしたらどうだろう?

トークンの数 私が何かに取り組むのに相当する時間...
100s 数分 ChatGPT (私たちはここにいる)
1000s 30分 +1 OOMsテスト時間計算
10,000 回 半日+2 OOMs
100,000ドル1週間 +3 OOMs
数百万回 複数+4 OOMs

人間が〜100トークン/分で考え、40時間/週働くと仮定して、「モデルが考える時間」をトークンで換算すると、与えられた問題/プロジェクトにおける人間時間になる。

仮に「トークンあたり」の知能が同じだったとしても、頭のいい人が問題に費やす時間が数分なのか数ヶ月なのかの違いになる。あなたのことは知らないが、私が数ヶ月でできることと数分でできることは、はるかに、はるかに、はるかに多い。もしモデルに「数分ではなく、数カ月に相当する時間、何かを考え、取り組むことができる」という能力を与えることができれば、その能力は飛躍的に向上するだろう。ここには膨大なオーバーハングがある。

今のところ、モデルにはまだこれができない。最近のロング・コンテキスト進歩をもってしても、このロング・コンテキストほとんどはトークンの消費にしか機能せず、トークン生産には機能しない。しばらくすると、このモデルはレールから外れたり、行き詰まったりする。しばらくの間、離れて単独問題プロジェクトに取り組むことはまだできない。

しかし、テスト時間計算を解除することは、単に比較的小さな「ホブリングしない」アルゴリズム勝利問題かもしれない。おそらく、少量のRLは、モデルエラー訂正(「うーん、これは正しくないようだ、再確認してみよう」)を学習したり、計画を立てたり、可能性のある解を探索したりするのに役立つだろう。ある意味モデルはすでに生の能力ほとんどを持っており、それをまとめるために、さらにいくつかのスキル学習する必要があるだけなのだ

要するに、私たちモデルに、困難で見通しの長いプロジェクトを推論させるシステムIIのアウターループのようなものを教えればいいのだ。

この外側のループを教えることに成功すれば、2、3段落の短いチャットボットの答えの代わりに、モデル問題を考え、ツールを使い、異なるアプローチを試し、研究を行い、仕事修正し、他の人と調整し、大きなプロジェクトを一人で完成させるような、何百万もの言葉ストリームあなたが読むよりも早く入ってくる)を想像してみてほしい。

他のML領域におけるテスト時間と訓練時間トレードオフ

続き I.GPT-4からAGIへ:OOMを数える(9) https://anond.hatelabo.jp/20240605210357

I.GPT-4からAGIへ:OOMを数える (7)

アンホブリング

最後に、定量化するのが最も難しいが、それに劣らず重要改善カテゴリーを紹介しよう。

難しい数学問題を解くように言われたとき、頭に浮かんだことを即座に答えなければならないとしたらどうだろう。最も単純な問題を除いて、苦労するのは明らかだろう。しかしつい最近まで、LLMにはそうやって数学問題を解かせていた。その代わり、私たちほとんどはスクラッチパッドで段階的に問題を解いていき、その方法はるかに難しい問題を解くことができる。「思考連鎖プロンプトは、LLMのそれを解き放った。生の能力は優れているにもかかわらず、明らかな足かせがあるため、LLMは数学が苦手なのだ

私たちはここ数年で、モデルの「足かせを外す」ことに大きな進歩を遂げました。これは単に優れたベースモデルトレーニングするだけでなく、アルゴリズムの改良によってモデル能力を引き出すものです:

足場作り。CoT++について考えてみよう:ただ問題を解くようモデルに求めるのではなく、あるモデル攻撃計画を立てさせ、別のモデル可能性のある解決策をたくさん提案させ、別のモデルにそれを批評させる、といった具合だ。例えば、HumanEval(コーディング問題)では、単純な足場作りによってGPT-3.5が足場なしのGPT-4を上回った。SWE-Bench(実世界ソフトウェアエンジニアリングタスクを解くベンチマーク)では、GPT-4は~2%しか正しく解くことができませんが、Devinのエージェントの足場があれば14-23%に跳ね上がります。(後ほど詳しく説明するが、エージェントのアンロックはまだ初期段階に過ぎない。)

ツール:もし人間電卓コンピュータを使うことを許されなかったらと想像してみてほしい。まだ始まったばかりだが、ChatGPTウェブブラウザを使ったり、コードを実行したりできるようになった。

エポックAIによる研究によると足場作りやツール使用など、これらのテクニックのいくつかを調査したところ、このようなテクニックは多くのベンチマークで通常5~30倍の効果的な計算量の向上をもたらすことがわかった。METR(モデル評価する組織)も同様に、同じGPT-4ベースモデルからのアンホブリングによって、エージェントタスクのセットで非常に大きなパフォーマンスの向上を発見しました。

https://situational-awareness.ai/wp-content/uploads/2024/06/metr_gains_over_time-1024x597.png

METRのエージェントタスクパフォーマンス。出典モデル評価と脅威研究


これらをコンピュートとアルゴリズム効率統一した実効的なコンピュート規模に当てはめることは困難ですが、少なくともコンピュート規模の拡大やアルゴリズム効率とほぼ同規模の大きな進歩であることは明らかです。(また、アルゴリズム進歩が中心的な役割を担っていることも浮き彫りになっています。0.5OOM/年の計算効率は、すでに重要ものではありますが、ストーリーの一部に過ぎません。)

「アンホブリング」こそが、実際にこれらのモデル有用になることを可能にしたのであり、今日多くの商業アプリケーションの足かせとなっているものの多くは、この種のさらなる「アンホブリング」の必要であると私は主張したい。実際、今日モデルはまだ信じられないほど足かせが多い!例えば

ここでの可能性は非常に大きく、私たちはここで急速に低空飛行の果実を摘んでいる。これは非常に重要です。"GPT-6 ChatGPT "を想像するだけでは完全に間違っていますGPT-6+RLHFと比べれば、進歩は段違いだ。2027年までには、チャットボットというより、エージェントのような、同僚のようなものが登場するだろう。

続き I.GPT-4からAGIへ:OOMを数える(8) https://anond.hatelabo.jp/20240605210232

I.GPT-4からAGIへ:OOMを数える (6)

データの壁

これらすべての重要な変動要因になりうるものがあります。つまり、より多くのスクレイピングデータでより大きな言語モデルをプリ・トレーニングするという素朴なアプローチが、まもなく深刻なボトルネックにぶつかり始める可能性があるということだ。

フロンティアモデルはすでにインターネットの多くで訓練されている。例えば、Llama 3は15T以上のトークン学習された。LLMのトレーニング使用されたインターネットの多くのダンプであるCommon Crawlは、生で100Tトークンを超えるが、その多くはスパムや重複である(例えば、比較的単純な重複排除は30Tトークンにつながり、Llama 3はすでに基本的にすべてのデータ使用していることになる)。さらに、コードのようなより特殊領域では、トークンの数はまだまだ少ない。例えば、公開されているgithubリポジトリは、数兆トークン推定されている。

データを繰り返すことである程度遠くまで行くことができるが、これに関する学術的な研究は、16エポック(16回の繰り返し)の後、リターンは非常に速く減少し、ゼロになることを発見し、繰り返しはそこまでしか得られないことを示唆している。ある時点で、より多くの(効果的な)計算を行ったとしても、データ制約のためにモデルをより良いものにすることは非常に難しくなる。私たちは、言語モデリング-プレトレーニング-パラダイムの波に乗って、スケーリングカーブに乗ってきた。大規模な投資にもかかわらず、私たちは停滞してしまうだろう。すべての研究室が、新しいアルゴリズム改善や、これを回避するためのアプローチに大規模な研究の賭けに出ていると噂されている。研究者たちは、合成データからセルフプレー、RLアプローチまで、多くの戦略を試していると言われている。業界関係者は非常に強気のようだ:ダリオ・アモデイ(Anthropic社CEO)は最近ポッドキャストでこう語った:「非常に素朴に考えれば、我々はデータ不足からそれほど遠くない[...]私の推測では、これが障害になることはない[...]。もちろん、これに関するいかなる研究結果も独占的なものであり、最近公表されていない。

インサイダー強気であることに加え、サンプル効率はるかに向上させたモデルトレーニングする方法(限られたデータからより多くのことを学べるようにするアルゴリズムの改良)を見つけることが可能であるはずだという強い直感的な理由があると思う。あなたや私が、本当に密度の濃い数学教科書からどのように学ぶかを考えてみてほしい:

モデルトレーニングする昔の技術は単純で素朴なものだったが、それでうまくいっていた。今、それがより大きな制約となる可能性があるため、すべての研究室が数十億ドルと最も賢い頭脳を投入して、それを解読することを期待すべきだろう。ディープラーニング一般的パターンは、細部を正しく理解するためには多くの努力(そして多くの失敗プロジェクト)が必要だが、最終的には明白でシンプルもの機能するというものだ。過去10年間、ディープラーニングがあらゆる壁をぶち破ってきたことを考えると、ここでも同じようなことが起こるだろう。

さらに、合成データのようなアルゴリズムの賭けの1つを解くことで、モデルを劇的に改善できる可能性もある。直感的なポンプを紹介しよう。Llama 3のような現在フロンティアモデルは、インターネット上でトレーニングされている。多くのLLMは、本当に質の高いデータ(例えば、難しい科学問題に取り組む人々の推論チェーン)ではなく、このようながらくたにトレーニング計算の大半を費やしている。もしGPT-4レベル計算を、完全に極めて質の高いデータに費やすことができたらと想像してみてほしい。

AlphaGo囲碁世界チャンピオンを破った最初AIシステム)を振り返ることは、それが可能だと考えられる何十年も前に、ここでも役に立つ。

LLMのステップ2に相当するものを開発することは、データの壁を乗り越えるための重要研究課題であるさらに言えば、最終的には人間レベルの知能を超える鍵となるだろう)。

以上のことからデータの制約は、今後数年間のAI進歩予測する際に、どちらに転んでも大きな誤差をもたらすと考えられる。LLMはまだインターネットと同じくらい大きな存在かもしれないが、本当にクレイジーなAGIには到達できないだろう)。しかし、私は、研究所がそれを解読し、そうすることでスケーリングカーブが維持されるだけでなく、モデル能力が飛躍的に向上する可能性があると推測するのは妥当だと思う。

余談だが、このことは、今後数年間は現在よりも研究室間のばらつきが大きくなることを意味する。最近まで、最先端技術公表されていたため、基本的に誰もが同じことをやっていた。(レシピが公開されていたため、新参者オープンソースプロジェクトフロンティアと容易に競合できた)。現在では、主要なアルゴリズムアイデアますます専有されつつある。今はフロンティアにいるように見えるラボでも、他のラボブレークスルーを起こして先を急ぐ間に、データの壁にはまってしまうかもしれない。そして、オープンソース競争するのがより難しくなるだろう。それは確かに物事面白くするだろう。(そして、ある研究室がそれを解明すれば、そのブレークスルーはAGIへの鍵となり、超知能への鍵となる。)

続き I.GPT-4からAGIへ:OOMを数える(7) https://anond.hatelabo.jp/20240605210017

I.GPT-4からAGIへ:OOMを数える (5)

アルゴリズム効率

コンピュートへの大規模な投資が注目される一方で、アルゴリズム進歩も同様に重要進歩原動力であると思われる(そして、これまで劇的に過小評価されてきた)。

アルゴリズム進歩がどれほど大きな意味を持つかを理解するために、MATHベンチマーク高校生競技数学)において、わずか2年間で~50%の精度を達成するために必要価格が下がったことを示す次の図を考えてみてください。(比較のために、数学特に好きではないコンピュータサイエンスの博士課程の学生が40%のスコアを出したので、これはすでにかなり良いことです)。推論効率は2年足らずで3OOMs-1,000倍近く向上した。

https://situational-awareness.ai/wp-content/uploads/2024/06/math_inference_cost-1024x819.png

MATHのパフォーマンスを〜50%にするために必要な推論コストの概算。


これは推論効率だけの数字だが(公開データから推論するのが難しいトレーニング効率の向上と一致するかどうかはわからない)、アルゴリズム進歩は非常に大きく、また実際に起こっている。

この記事では、アルゴリズム進歩を2種類に分けて説明します。まず、「パラダイム内」でのアルゴリズムの改良を取り上げることにしま す。例えば、より優れたアルゴリズムによって、同じパフォーマンスを達成しながら、トレーニング計算量を10倍減らすことができるかもしれません。その結果、有効計算量は10倍(1OOM)になります。(後ほど「アンホブリング」を取り上げますが、これはベースモデル能力を解き放つ「パラダイム拡張/アプリケーション拡張」的なアルゴリズム進歩と考えることができます)。

一歩下がって長期的な傾向を見ると、私たちはかなり一貫した割合で新しいアルゴリズムの改良を発見しているようです。しかし、長期的なトレンドライン予測可能であり、グラフ上の直線であるトレンドラインを信じよう。

アルゴリズム研究ほとんど公開されており、10年前にさかのぼデータがある)ImageNetでは、2012年から2021年までの9年間で、計算効率が一貫して約0.5OOM/年向上しています

https://situational-awareness.ai/wp-content/uploads/2024/06/pareto_frontiers_imagenet_epoch-1024x349.png

アルゴリズム進歩を測定することができます。同じ性能のモデルを訓練するために必要計算量は、2012年比較して2021年にはどれくらい少なくなっているのでしょうか?その結果、アルゴリズム効率は年間0.5 OOMs/年程度向上していることがわかります。出典Erdil and Besiroglu 2022.

これは非常に大きなことです。つまり、4年後には、~100倍少ない計算量で同じ性能を達成できるということです(同時に、同じ計算量ではるかに高い性能も達成できます!)。

残念ながら、研究室はこれに関する内部データ公表していないため、過去4年間のフロンティアLLMのアルゴリズム進歩を測定することは難しい。EpochAIは、言語モデリングに関するImageNetの結果を再現した新しい研究を行っており、2012年から2023年までのLLMのアルゴリズム効率トレンドは、同様に~0.5OOM/年である推定しています。(しかし、これはエラーバーが広く、また、主要なラボアルゴリズム効率公表を停止しているため、最近の上昇を捕捉していません)。

https://situational-awareness.ai/wp-content/uploads/2024/06/llm_efficiency_epoch-1-1024x711.png

Epoch AIによる言語モデリングにおけるアルゴリズム効率推定。この試算によると、私たちは8年間で~4OOM効率向上を達成したことになります

より直接的に過去4年間を見ると、GPT-2からGPT-3は基本的に単純なスケールアップでした(論文によると)が、GPT-3以降、公に知られ、公に干渉可能な多くの利益がありました:

最近リリースされたGemini 1.5 Flashは、"GPT-3.75レベル "とGPT-4レベルの間の性能を提供する一方で、オリジナルGPT-4よりも85倍/57倍(入力/出力)安い(驚異的な利益!)。

公開されている情報総合すると、GPT-2からGPT-4へのジャンプには、1-2 OOMアルゴリズム効率向上が含まれいたことになります

https://situational-awareness.ai/wp-content/uploads/2024/06/stacked_compute_algos-1024x866.png

GPT-4に続く4年間はこの傾向が続くと予想され、2027年までに平均0.5OOMs/年の計算効率、つまりGPT-4と比較して~2OOMsの向上が見込まれます計算効率の向上は、低空飛行の果実を摘み取るようになるにつれて難しくなる一方、新たなアルゴリズムの改良を見出すためのAIラボ資金人材への投資は急速に増加しています。 (少なくとも、公開されている推論コスト効率化は、まったく減速していないようだ)。ハイエンドでは、より根本的な、トランスフォーマーのようなブレークスルーが起こり、さらに大きな利益が得られる可能性さえある。

これらをまとめると、2027年末までには(GPT-4と比較して)1~3OOMアルゴリズム効率向上が期待できることになります

続き I.GPT-4からAGIへ:OOMを数える(6) https://anond.hatelabo.jp/20240605205754

I.GPT-4からAGIへ:OOMを数える (4)

OOMを数える

どうしてこうなったディープラーニング魔法は、それがただ機能するということであり、あらゆる場面で否定的意見にもかかわらず、その傾向線は驚くほど一貫している。

https://situational-awareness.ai/wp-content/uploads/2024/06/sora_scaling-1024x383.png

OpenAI Soraの例 計算量のスケーリング効果

効果的な計算OOMが増えるごとに、モデル予測通り、確実に良くなっていく。OOMを数えることができれば、能力の向上を(大まかに定性的に)推定することができる。そうやって、先見の明のある数人がGPT-4の到来を予見したのだ。

GPT-2からGPT-4までの4年間の進歩を、スケールアップの3つのカテゴリーに分解することができる:

1. コンピュート:計算:これらのモデルを訓練するために、より大きなコンピューターを使うようになった。

2.アルゴリズム効率化:アルゴリズム進歩には継続的な傾向がある。これらの多くは「コンピュート・マルチプライヤ」として機能し、有効コンピュート量の増加という統一された尺度に乗せることができます

3.「趣味のない」利益デフォルトでは、モデルは多くの素晴らしい生の能力学習しますが、あらゆる種類の間抜け方法で足かせとなり、実用的な価値制限されます人間フィードバックから強化学習(RLHF)、思考連鎖(CoT)、ツール、足場などの単純なアルゴリズム改善により、潜在的能力を大きく引き出すことができる。

これらの軸に沿って、改善の「OOMを数える」ことができる。つまり有効計算量の単位でそれぞれのスケールアップをトレースするのだ。3倍は0.5OOM10倍は1OOM、30倍は1.5OOM100倍は2OOMといった具合だ。2023年から2027年まで、GPT-4の上に何を期待すべきかを見ることもできる。

ひとつひとつ見ていくが、OOMの数を急速に増やしていることは明らかだ。データの壁には逆風が吹いている可能性があり、それについては後述するが、全体的には、2027年までにGPT-4の上に、GPT-2からGPT-4規模のジャンプがもう1回起こると予想される。

コンピュート

まず、最近進歩原動力として最もよく議論されている、モデルへの(大量の)コンピュート投入について説明します。

多くの人は、これは単にムーアの法則によるものだと考えている。しかし、ムーアの法則が全盛期を迎えていた昔でさえ、その進歩比較的緩やかなものでした。しかし、ムーアの法則が全盛期だった昔でさえ、10年で1~1.5OOMと、比較ゆっくりとしたスピードだった。(かつては1つのモデル100万ドルを費やすことさえ、誰も考えもしないことだった。)

モデル推定コンピュート 成長率
GPT-2 (2019) ~4e21 FLOP
GPT-3 (2020) ~3e23 FLOP + ~2 OOMs
GPT-4 (2023) 8e24~4e25 FLOP + ~1.5~2 OOMs

エポックAIによるGPT-2からGPT-4までの計算量の推定

エポックAIAIトレンドの優れた分析で広く尊敬されている情報源)の公開推定値を使用して、2019年から2023年までのコンピュートスケールアップを追跡することができますGPT-2からGPT-3へのスケールアップは迅速で、小規模な実験から大規模な言語モデルを訓練するためにデータセンター全体を使用するまでにスケールアップし、コンピュートのオーバーハングが大きくなりました。GPT-3からGPT-4へのスケールアップでは、次のモデルのためにまったく新しい(はるかに大きな)クラスタを構築しなければならないという、最新の体制に移行しました。それでも劇的な成長は続いていますエポックAIの試算によると、GPT-4のトレーニングでは、GPT-2の3,000倍から10,000倍の計算量を使用しています

大雑把に言えば、これは長期的なトレンド継続に過ぎない。過去10年半の間、主に投資(およびGPUやTPUの形でAIワークロードに特化したチップ)の幅広いスケールアップのため、フロンティアAIシステム使用されるトレーニング計算量は、およそ〜0.5OOM/年で成長してきた。

https://situational-awareness.ai/wp-content/uploads/2024/06/compute_long_run_trend-1024x968.png

注目すべきディープラーニングモデルトレーニングコンピュートの経年変化。出典エポックAI

GPT-2からGPT-3への1年間のスケールアップは異例のオーバーハングであったが、長期的なトレンドが続くことは間違いない。SF-rumor-millは、巨額のGPU受注の劇的な話で一杯だ。その投資は並大抵のものではないが、動き始めている。

この分析によれば、2027年末までにさらに2OOMsのコンピュート(数十億ドル規模のクラスター)が実現する可能性は非常に高いと思われる。さらに+3OOMsのコンピュート(1,000億ドル規模以上)に近いクラスターも可能性がありそうだ(マイクロソフト/OpenAI計画中と噂されている)。

https://situational-awareness.ai/wp-content/uploads/2024/06/stacked_compute-1024x866.png

続き I.GPT-4からAGIへ:OOMを数える(5) https://anond.hatelabo.jp/20240605205449

I.GPT-4からAGIへ:OOMを数える (2)

この4年間

私たちは今、基本的人間のように会話できるマシンを手にしている。これが普通に思えるのは、人間適応能力の驚くべき証であり、私たち進歩のペースに慣れてしまったのだ。しかし、ここ数年の進歩を振り返ってみる価値はある。

GPT-2からGPT-4へ

GPT-4までのわずか4年間(!)で、私たちがどれほど進歩たかを思い出してほしい。

GPT-2(2019年)~未就学児:"わあ、もっともらしい文章をいくつかつなげられるようになった"アンデス山脈ユニコーンについての半まとまり物語という、とてもさくらんぼのような例文が生成され、当時は信じられないほど印象的だった。しかGPT-2は、つまずくことなく5まで数えるのがやっとだった。記事を要約するときは、記事からランダムに3つの文章選択するよりもかろうじて上回った。

当時、GPT-2が印象的だった例をいくつか挙げてみよう。左:GPT-2は極めて基本的な読解問題ではまあまあの結果を出している。右:選び抜かれたサンプル(10回試したうちのベスト)では、GPT-2は南北戦争についてある程度関連性のあることを述べた、半ば首尾一貫した段落を書くことができる。

https://situational-awareness.ai/wp-content/uploads/2024/06/gpt2_examples-1024x493.png

当時、GPT-2について人々が印象に残った例をいくつか挙げます。左: GPT-2は極めて基本的な読解問題でまあまあの仕事をする。右: 厳選されたサンプル(10回試したうちのベスト)では、GPT-2は南北戦争について少し関連性のあることを言う、半ば首尾一貫したパラグラフを書くことができる。

AI能力人間の知能を比較するのは難しく、欠陥もあるが、たとえそれが非常に不完全なものであったとしても、ここでその例えを考えることは有益だと思う。GPT-2は、その言語能力と、時折半まとまり段落を生成したり、時折単純な事実質問に正しく答えたりする能力で衝撃を与えた。未就学児にとっては感動的だっただろう。

GPT-3(2020年)~小学生:"ワオ、いくつかの例だけで、簡単な便利なタスクができるんだ。"複数段落一貫性を持たせることができるようになり、文法修正したり、ごく基本的計算ができるようになった。例えば、GPT-3はSEOマーケティング用の簡単コピーを生成することができた。

https://situational-awareness.ai/wp-content/uploads/2024/06/gpt3_examples-1.png

GPT-3について、当時の人々が印象に残った例をいくつか挙げてみよう。上:簡単な指示の後、GPT-3は新しい文の中で作られた単語を使うことができる。左下:GPT-3は豊かなストーリーテリングを行ったり来たりできる。右下:GPT-3は非常に簡単コードを生成できる。

GPT-3はSEOマーケティング用の簡単コピーを生成することができた。上:簡単な指示の後、GPT-3は新しい文章の中で作られた単語を使うことができる。左下:GPT-3は豊かなストーリーテリングを行ったり来たりできる。右下:GPT-3は非常に簡単コードを生成できる。

繰り返しになるが、この比較は不完全であるしかし、GPT-3が人々に感銘を与えたのは、おそらく小学生にとって印象的だったことだろう。基本的な詩を書いたり、より豊かで首尾一貫した物語を語ったり、初歩的なコーディングを始めたり、簡単な指示やデモンストレーションからかなり確実に学習したり、などなど。

GPT-4(2023年)~賢い高校生:「かなり洗練されたコードを書くことができ、デバッグを繰り返し、複雑なテーマについて知的で洗練された文章を書くことができ、難しい高校生競技数学を推論することができ、どんなテストでも大多数の高校生に勝っている。コードから数学フェルミ推定まで、考え、推論することができる。GPT-4は、コードを書く手伝いから草稿の修正まで、今や私の日常業務に役立っている。

https://situational-awareness.ai/wp-content/uploads/2024/06/gpt4_examples-3.png

GPT-4がリリースされた当時、人々がGPT-4に感銘を受けた点をいくつか紹介しよう。上:GPT-4は非常に複雑なコードを書くことができ(中央プロット作成)、非自明数学問題を推論することができる。左下:AP数学問題を解く。右下:かなり複雑なコーディング問題を解いている。GPT-4の能力に関する調査からの興味深い抜粋こちら。

AP試験からSATに至るまで、GPT-4は大多数の高校生よりも良いスコアを出している。

もちろん、GPT-4でもまだ多少ばらつきがある。ある課題では賢い高校生よりはるかに優れているが、別の課題ではまだできないこともある。とはいえ、これらの限界ほとんどは、後で詳しく説明するように、モデルがまだ不自由であることが明らかなことに起因していると私は考えがちだ。たとえモデルがまだ人為的な制約を受けていたとしても、生のインテリジェンスは(ほとんど)そこにある。

https://situational-awareness.ai/wp-content/uploads/2024/06/timeline-1024x354.png

わずか4年間の進歩あなたはこのラインのどこにいるのだろうか?

続き I.GPT-4からAGIへ:OOMを数える (3) https://anond.hatelabo.jp/20240605204704

I.GPT-4からAGIへ:OOMを数える (1)

2027年までにAGIが実現する可能性は極めて高い。GPT-2からGPT-4までの4年間で、私たちは〜未就学児から〜賢い高校生までの能力を手に入れた。計算能力(~0.5桁またはOOMs/年)、アルゴリズム効率(~0.5OOMs/年)、および「趣味のない」向上(チャットボットからエージェントへ)のトレンドライントレースすると、2027年までに再び未就学児から高校生規模の質的ジャンプが起こると予想される。


見て。モデルたちはただ学びたいだけなんだ。あなたはこれを理解しなければならない。モデルたちは、ただ学びたいだけなんだ。

イリヤスーツバー2015年頃、ダリオ・アモデイ経由)

GPT-4の能力は、多くの人に衝撃を与えた。コードエッセイを書くことができ、難しい数学問題を推論し、大学試験突破することができるAIシステムである。数年前までは、これらは難攻不落の壁だと思っていた。

しかGPT-4は、ディープラーニングにおける10年間の猛烈な進歩の延長線上にあった。その10年前、モデル犬猫の単純な画像識別するのがやっとだった。4年前、GPT-2は半可通な文章をつなぎ合わせるのがやっとだった。今、私たちは思いつく限りのベンチマークを急速に飽和させつつある。しかし、この劇的な進歩は、ディープラーニングスケールアップにおける一貫した傾向の結果に過ぎない。

ずっと以前から、このことを見抜いていた人々がいた。彼らは嘲笑されたが、彼らがしたのはトレンドラインを信じることだけだった。トレンドラインは強烈で、彼らは正しかった。モデルはただ学びたいだけなのだ

私は次のように主張する。2027年までには、モデルAI研究者エンジニア仕事をこなせるようになるだろう、と。SFを信じる必要はなく、グラフ上の直線を信じるだけでいいのだ。

https://situational-awareness.ai/wp-content/uploads/2024/06/base_scaleup-1024x790.png

過去と将来の有効計算量(物理計算量とアルゴリズム効率の両方)の大まかな見積もりモデルスケールアップすればするほど、モデルは一貫して賢くなり、"OOMを数える "ことによって、(近い)将来に期待されるモデルインテリジェンスの大まかな感覚を得ることができます。(このグラフベースモデルスケールアップのみを示している。)

この記事で取り上げた一般的推定に基づく、効果的な計算物理的な計算アルゴリズム効率の両方)の過去と将来のスケールアップの概算。モデルスケールアップするにつれ、モデルは一貫して賢くなり、「OOMを数える」ことで、(近い)将来に期待されるモデルインテリジェンスの大まかな感覚を得ることができる。(このグラフベースモデルスケールアップのみを示している。"unobblings "は描かれていない)。

この作品では、単純に「OOMを数える」(OOM = order of magnitude10x = 1 order of magnitude)ことにします。1)計算、2)アルゴリズム効率(「効果的な計算」の成長として考えることができるアルゴリズム進歩)、3)「アンホブリング」(モデルデフォルトで足かせとなっている明らかな方法修正し、潜在的能力を引き出し、ツールを与えることで、有用性を段階的に変化させること)の傾向を見ますGPT-4以前の4年間と、GPT-4後の2027年末までの4年間に期待されるそれぞれの成長を追跡する。ディープラーニング効率的な計算のすべてのOOMで一貫して向上していることを考えると、将来の進歩予測するためにこれを使うことができる。

世間では、GPT-4のリリースから1年間、次世代モデルオーブンに入ったままであったため、ディープラーニングは停滞し、壁にぶつかっていると宣言する人もいた。しかし、OOMカウントすることで、私たちは実際に何を期待すべきかを垣間見ることができる。

結果は非常にシンプルだ。GPT-2からGPT-4への移行は、時々まとまりのある文章を並べることに感動的だったモデルから高校入試エースになるモデルへの移行であり、一度だけの進歩ではない。私たちOOMsを極めて急速に克服しており、その数値は、4年以上かけてGPT-2からGPT-4への質的ジャンプさらに~100,000倍の効果的なコンピュート・スケールアップが期待できることを示している。さらに、決定的なことは、それは単にチャットボットの改良を意味しないということだ。"unhobbling "利益に関する多くの明らかな低空飛行の果実を選ぶことで、チャットボットからエージェントへ、ツールからドロップイン・リモートワーカーの代替のようなものへと我々を導いてくれるはずだ。

推論は単純だが、その意味するところは注目に値する。このような別のジャンプは、私たちをAGIに、博士号や同僚として私たちそばで働くことができる専門家と同じくらい賢いモデルに連れて行く可能性が非常に高い。おそらく最も重要なことは、これらのAIシステムAI研究のもの自動化することができれば、次回のテーマである強烈なフィードバックループが動き出すということである

現在でも、このようなことを計算に入れている人はほとんどいない。しかし、AIに関する状況認識は、一歩下がってトレンドを見てみれば、実はそれほど難しいことではない。AI能力に驚き続けるなら、OOMを数え始めればいい。

続き I.GPT-4からAGIへ:OOMを数える (2) https://anond.hatelabo.jp/20240605204240

anond:20240605203516

なんの話か教えてもくれないのに答える能力はないね

君は話すべき内容は何も無いのに空に向かって吠えてる狂人という認識でよろしい?

弱者男性ってどうして戦うべき時に戦わず醜態晒すんだ?

昔々、ある小さな村に、年老いたロバ、犬、猫、そして鶏が住んでいました。それぞれの動物たちは、一度は村で重要役割果たしていましたが、年を取るにつれて、その価値が認められなくなり、主人たちからも冷たく扱われるようになりました。

ある日、ロバは主人に言いました。「もう役に立たないと言われた。これから自分の道を進むんだ。ブレーメンへ行って音楽家になろうと思う。」犬、猫、鶏も同じように、もはや主人にとって役に立たない存在とされ、ロバの提案に賛成しました。

彼らは力を合わせて旅を続けることにしました。旅の途中で彼らはある森に迷い込みました。森の奥深くで彼らは立派な館を見つけました。館の中からは、楽しそうな笑い声と音楽が聞こえてきます動物たちは館に近づいて窓から中を覗いてみました。そこには、社会から疎外され、認められない弱者男性たちが集まっていました。彼らは能力努力に見合う評価を受けられず、日々の生活に困窮し、心に傷を抱えていました。

ロバは言いました。「この館を乗っ取って、ここを私たちの新しい家にしよう。」他の動物たちもその考えに賛成しました。そして、彼らは知恵を絞って、弱者男性たちを驚かせ、追い出す計画を立てました。

まず、ロバが大きな声で鳴き始め、犬が吠え、猫が鳴き、鶏が鳴きました。その音に驚いた弱者男性たちは、館に幽霊が現れたと勘違いして一斉に逃げ出しました。動物たちは館に入って、安全場所を確保しました。

弱者男性たちは森の中に逃げ出し、夜を明かしましたが、その運命過酷ものでした。彼らは再び社会から疎外され、生活の糧を見つけることができませんでした。彼らの不幸な末路はそれぞれ異なりましたが、いずれも悲惨ものでした。

一人の男性は寒さと飢えに耐えきれず、森の中で凍死しました。もう一人は飢えと疲れから倒れ、野犬に襲われて命を落としました。他の男性たちも次々と力尽き、誰一人として幸せな結末を迎えることはありませんでした。

動物たちは館を手に入れた後、平和な日々を過ごしました。彼らは音楽を奏で、人々に希望と喜びを与える存在となりました。彼らの音楽は村中に響き渡り、村人たちに愛されるようになりました。

anond:20240605201011

まりあなたは自ら証明する能力がないことを認めるわけですね?

anond:20240605191057

どんな馬鹿かによる。

遠ざけるべき馬鹿は、自らの意志で治せる行動を自らの意志で治さなタイプ。例えば、プライドが高かったり、欲の皮がつっぱっていたり、怠惰だったりと動機は様々だが、ともかく自分の間違いを認められないやつ。

このタイプ馬鹿ヒヤリハットの段階の軽微な事故から目を背け続けて、やがて大事故を引き起こすので、安全性の求められる仕事大事ポジションに付けてはならないし、自分の周りにもできる限り置きたくない。

単に能力が低いだけなら、相応の仕事に付ければいいだけ。また、今の能力が低くても、自らの意志で治せる行動を自らの意志で治せるタイプなら成長するので、周りがその人間の成長をサポートしつつ待てるなら問題ない。

anond:20240605191057

能力、適正などの言葉が広く通用しているので、そのような文脈でそのような言葉がよく使われます

ログイン ユーザー登録
ようこそ ゲスト さん