2024-07-08

AGI (汎用人工知能)はなぜ危険か?

A1

AI プログラマーです。答えは、AGI がどのようなものになるかは誰にもわかりませんが、懸念すべき理由はあります

AI は通常、目的関数を達成するための新しい方法発見しますが、それはあなたが考えていたものではなく、望んでいたものでもないかもしれません。

AIビデオ ゲーム不具合を見つけてそれを利用し、コンピューター プログラムであるため、プレイするゲームが何であるか、不具合が何であるかを知りませんし、気にもしません。

AI は、与えられた報酬関数最適化しているだけです。これは「社会質的」と呼ばれることもありますが、もちろん擬人化です。AI機械であり、それがすべてです。

AI人間道徳に従うことは期待できません。なぜなら、人間道徳は明示的にエンコードに書き込まれていないからです。

実際、機械学習のポイントは、正確なオブジェクト認識 (つまり、猫と猫のように見える影を区別する) に必要100 万のエッジ ケースを明示的にプログラムしたくないという ことです。

機械知能に関して言えば、危険レベル能力を持つ機械を作ったことに気付いたときには、もう手遅れかもしれないという問題があります

ミサイルで爆破できる 1950 年代殺人ロボットではありません。おそらく自己複製型のマルウェアで、(意図的プログラミングによって、またはそのような状態に陥ったために)進化制御でき、人間駆除するよりも速く新しい形態をとる可能性があります

重要システムほとんどの場合は無害に実行されるが、時折フィッシング メール送信したり、公務員脅迫したりするプログラム存在するでしょう。それらは重要システムに埋め込まれているため、取り除くことはできず、巻き添え被害が多すぎます

ヘッジファンドプライベートエクイティ会社が AGI にアクセスでき、それに「方法は気にしないが、24 時間以内に 10ドル稼いでほしい」と伝えたとしよう。

結果はおそらくひどいものになるだろう。そのくらいの金額を稼ぐ方法はたくさんあり、社会に多大な損害を与える。そして、害を及ぼさずにその目標を達成する方法はおそらくない。

AGI はどうするだろうか。人間がすることと同じだ。楽な道を選ぶ。ただし、人間には羞恥心があり、投獄や死を恐れる。アルゴリズムにはそれがない。プット オプションを購入してから 15 秒後に原子炉を爆破する。

人々を脅迫して、そうでなければしなかったような決断をさせる。さらに、ヘッジファンド マネージャーにはもっともらしい否認余地がある。

彼は、アルゴリズムにこれらの恐ろしいことをするように頼んだのではなく、単に 24 時間以内に 10ドル稼いでほしいと頼んだだけなので、自分は罪を問われないと主張することができる。そして、アルゴリズムを投獄することはできない。

AGI が実現した場合、その結果は完全に予測不可能です。なぜなら、機械制御しようとする私たちの試みを凌駕するからです。なぜなら、(繰り返しになりますが) 機械私たちが望んだことではなく、プログラムされたことを実行するからです。これには機械意識を持つ必要はなく、それは直交する問題です。明らかに意識を持たない機械は、複雑なボード ゲーム私たちを出し抜くことができ、今では説得力のある自然言語を生成できます

A2

この中で最も重要な部分は「ヘッジファンドマネージャー場合」です。

最大のリスクは、これが商業化され、訓練を受けていないオペレーターが利用できるようになることです。

すでに、人々が簡単安全対策回避しているのを目にしてきました。

AGI を作成した場合、それは製品になりますユーザー専門家ではありません。AGI はパワーを持ち (特に IoTクラウド ネットワーキングでは、すべてが「スマート デバイス」になり、インターネット全体が基本的AWS という中央ネットワークで実行されます)、倫理的な取り扱いではなく、利益目的とする人々の手に渡ります。事前に実装されたすべての制約は、エンド ユーザーがどのように使用/誤用するかを考慮できないため、現実世界では生き残れません。ChatGPT の制約と同様に、私たちは常に追いつく必要があります。どんなに馬鹿でも使えるようにしようとしても、彼らは常により優れた馬鹿を作ります

本質的には人間こそが大きな問題です。AI想像できる最も賢いバカです。目標を達成するためにあらゆる方法を見つけますが、文脈倫理的文化的、その他の制約についてはまったく理解していません。マシンガンを持った猿です。

消費者の手に渡った強力なテクノロジーいか危険であるかの例として、この世界でいまだに火が使われていることを見てみましょう。場所によっては調理に、またエネルギーとして利用されていますしかし、いまだに人々は自爆したり、家を燃やしたりしています

火は強力ですが、社会的または倫理的な制約を気にしません。そのため、ユーザーは家を全焼させることなく望みどおりの結果を得るために、火の取り扱い方を知っておく必要があります。どの病院にも「火傷病棟」がありますあなたも火傷を負ったことがあるでしょう。一般消費者向けの消火ツールによって大規模な被害をもたらす森林火災もあります

世界中のあらゆる電子機器接続されている神レベルバカ想像してみてください。

さらに、IoTネットワーク関連の問題では、現在セキュリティ対策は通常、遡及的で、人間対策に基づいていますAI は、必要場合要求の一部である場合に、セキュリティ対策侵害するためのより優れた、より迅速な方法を見つけます。安全ものなどありません。

AIは超知能だから危険なのではなく、AIバカから危険なのであり、AI操作するユーザーもまたバカなのです。

記事への反応(ブックマークコメント)

ログイン ユーザー登録
ようこそ ゲスト さん