はてなキーワード: 自然言語とは
人間だって電話で「◯◯に関するお問い合わせは1を、◯◯に関するお問い合わせは2を」って窓口分けてたりするやん。
もう一つ、なぜコンピュータで「自然な対話」でないといけないのが意味不明。
コンピュータが自然言語で理解できるようにしろって話?処理コストが高い割に全くメリットなくて誰が得するんやそれ。
擦り合わせ自体をプロトコルに含めろ?だったら結局すり合わせのための何か別のプロトコルが必要やん?
少しの擦り合わせでもそれが100万1000万アクセス、はては世界中の合計でどれだけCPUや通信帯域を無駄にするか想像できん?
激務になりがちなWebサーバなんて世界で一番無駄をなくそうと努力されてるところなのに。
ちなみに、使うHTTPのバージョンとかはリクエストの時点ですり合わせしてる(そのあたりはブラウザが内側でよしなにやってる)
少なくとも筋ではないな。無駄な通信利用量とCPU負荷の観点からもそうだが、
セキュリティ上の観点からも、どんな理由であれサーバから自分に関する情報を送るのは危険。
相手がウェブサイトなのかなんなのか知らないでアクセスするやつはいない?
いやいや、それこそ攻撃ボットやハッカーがやってることだから。
ボットは24時間手当たり次第にアクセスしまくって攻撃対象を探してたりするやつな
なんかアクセスしたら繋がるけど何をしてるかわからんサーバは、攻撃の糸口が見つかりにくいからな。
企業に侵入して、順番にサーバにアクセスした時に自分の役割(プロトコル)を白状してくれたら、
すぐに企業全体の構成がわかってこれ以上なく攻撃が捗ると思うぞ。
まぁ、有名どころのサーバはポート番号からある程度推測できるというのはあるが、
まず、Twitter(現Twitter)で交互にリプつけるの愚すぎる。両者の「論」を左右に離して並べ、指摘・弁護関係を矢印で示すのが正しい構造。
全ての相手からの指摘(こちらに向かってくる矢印)を弁護しきれば論理武装<ロジカリー・フォートナイト>が成立するし、こちらの指摘(こちらから送り出す矢印)が1つでも通れば部分論破<ロジック・アタック>が成功していると言える。
そして何より大事なのが「前提<ジ・オリジン>」「定義<ザ・エッセンス>」を書き留めること。これを無視した「論破射(「論」間にある任意の矢印をこう呼ぶ)」は「詭弁」であり矢印の主にはペナルティが課される。
なお、「論」は自然言語で書かれるが、「論破射」には証明文<マスマティカル・プルーフ>みたいなほんのり形式言語っぽい説明文が乗っててほしい。
この人が感じてる「つまんなさ」って、ITに対してじゃなく「プログラミングできる俺かっけー」が出来なくなってきたことに対して感じてるつまらなさなんじゃないの?
わかるよわかる、プログラミングかっこいいよね。中学英語では出て来ないようなfunctionとかfloatみたいな英単語使いこなしてコード書くのかっこいいよね。うんうん。k8sとかDockerとかDDDとか名前がかっこいいよね。そういうの使いこなせる魔法使いみたいな俺様かっけーよな。
それがLLMの時代になって、急に自然言語でプロンプトを書くことになったわけよ。
まるで下請けSEに指示するような口調で「●●について調べて下さい」とか「××のプログラムを書いて下さい」とか書くの、ダサいことこの上ないよね。わかりますよ。俺様が憧れてたカッコイイプログラミング言語やアーキテクチャ用語はどこ行ったんだって言いたいわけよな。
要するにお前さんの厨二病プログラマー時代は終わりを告げ、これからは自然言語が支配する大人の時代がやってきた、ということだと思います。さよなら厨二病。
普通に暮らしてて他人の脳の活動は見えない。なので厳密には死と生を判別できない。そもそも、判別する必要があるだろうか?
現代人は小賢しくも自然科学の手法により脳死は人の死であると定義し、脳の活動を測定し、死を診断できる仕組みを作った(目がfMRIになってる医師免許保有者は本論において論外とさせていただきます。ごめんなさい(_ _;))。
意味ないよそんなの!昔の人は(現代で言う)死んだ人ともお話できたんだよ!(自然科学的な見地からすると)実際には死んだ人の意思なんてないし、死んだ人は喋ってないんだけども。
数百年におよぶ長大な浅知恵が我々の領分から死者を取り上げたのだとすると、やはり、知恵の実なぞ口にするべきではなかった。口は災いの元、口を塞げ!自然言語を廃止せよ!社会を中止!書物はすべて234℃で保管せよ!
皆さん、お喋りは禁止です。やめましょう成長、対話、生産。リソースを食べていきましょう。盆ぐらい、死者の国に住みましょう。
旧来の理詰めでの処理じゃないから、常に100点の答えは出ないし、矛盾も多分に孕んでいる
しかし自然言語や絵や音楽や映像という、そもそも100点が無い、人間の「認知」に関わる部分には非常に強力なスコアを出すのが生成AIだと思う
生成AI以外の方法で将来100点を出す日が来るかもしれないけど、現実的に考えて今は生成AIの方法を使ったほうがそれっぽくなるみたいな感じだ
ChatGPTやClaudeを使ってて面白いのは
誤回答をした場合でも、聞き方を変えると正しい回答になるところだ
インプットの中に誤回答が3割とか混ざってたら、聞き方によってはそれにアクセスしてしまうことがある
そして面倒なのは「それが誤回答かどうか」をAIだけでは判断できないところだ
人間がすべての知識に対してそれが正しいかを入力するのは不可能に近い、特に専門分野なんて無理だろ?言及が少ない領域も無理だし
そこを改善するには、科学者のようなAIを作るしかないんだ(生成AI以外のアプローチ)
ChatGPTやClaudeのような自然言語系AIはつまり、現状は次世代検索エンジンでしかない
もっとハイレベルな何かを期待した人は使わなくなっていくらしい
例えるなら、誰かにGoogle検索エンジンってすごいよって教えて使ってもらった結果、「なんだ間違った情報ばかりじゃないか」といって使わなくなる人がいるのと同じだ
生成できるのはあくまで既視感があるハリボテでしかなく、70点出せれば良いねってくらいが目標となる
もちろんそれが一瞬で出るんだから、10点も出せないド素人からは嬉しいんだけど、80点以上を求める人には不満となる
ここらへんは今のやり方だと越えられない壁だし、個人的には当分この壁は破られないと思ってるんだけど
あとはシンギュラリティ周りがどうなるかだけど、正直あまり期待してない、2060年代くらいじゃない?まだ一二回は幻滅期が来ると思ってる
自然言語が曖昧さを許容しており、特に日常会話においては全ての前提を常に提示することが実質不可能であるから、
書いていないことを含意する人と含意しない人が存在して区別できない以上は、書いていないことを読み取る人が出てくるのは仕方ないだろ
StableDiffusionはタダで有難く使わせてもらっとるよ。自慢のRTX 3060、メモリ12Gのグラボで快適。
pornhubよりcivitaiを閲覧する時間の方が圧倒的に長くなった。
だから、それと区別するために「商業的ブーム」って書いたのだわ。
AI、というよりはChatGPTのようなデカくて応用力が期待されるLLMに向いてない。
LLMはあくまでも、データセットから学んだ情報を元に「与えられたテキストにはどんな言葉が続く可能性が高いか」で動く。
LLMは人間ではないので、自然言語をトークンという値に変換してから学ぶ。この場合、我々にとっての数字の1はLLMにとって数字の1ではなくなる。要は、1を1として認識してない。
だからChatGPT単体では正しくカウントできないことがあるし、計算や生年月日の他、細かい部分も間違うことがある。ただ確率に従っているだけで、自分が何を書いてるか分かってないから。
脳の中に色んな概念が重なり合っていて、その中から一つの可能性を選び続けているだけだと考えればいい。
この仕様で常に正しい情報を言うってことは、めちゃくちゃ学習して「この流れの時は99%の確率でこのトークンが続く!」みたいな状態にならないといけない。(Top PとTemperatureの調整で似たような状態は作れるが)
でもその状態になると、応用力がなくなるんだよ。例えばリンカーンについてめっちゃ学習したら、生成時にリンカーンという単語が入ってるとWikipediaを先頭からコピペしたような文章ばかり吐くようになる。しかもここで、間違って学習してたら目も当てられん。
画像生成AIのプロンプトに「モナリザ」と入ってたら、どう頑張っても額付きの「あのモナリザ」が生成される、みたいな状態だ。
それは従来のチャットボットの仕事。本来ChatGPTに求めることじゃないんだよ。
だから何かに特化したAIが求められる。LLMには教えてと聞くのではなく、パターン処理能力を活かす方向で使えといわれる。RAGとか。
「先程回答した通りです」「こういう意味で質問されていますでしょうか」って真顔で淡々と言えば良いところを、大袈裟に言葉を被せながら「えっ?えっ?さっき言いましたけど?(苦笑)えっ、どういうことですか?(苦笑)えっ?えっ?」みたいなのがひろゆきと同系統の典型的煽りクソ野郎って感じ
あと、古市との問答で聞かれてること本気で理解してないならマジでコミュニケーションに難がありすぎる
そもそも自分の真意が伝わってないなら、表現を変えたり「先程も申しましたが~」ともう少し噛み砕いて相手に伝わるように言い直すのが常識的な人間なのに、意志疎通の不十分さや誤解の全責任を相手に負わせようとするのがマジで終わってる
自然言語で喋る以上は多少の曖昧さを含みながら歩み寄って相互理解を深めていくのが普通なのに、石丸は自分からボールを拾いに行こうとは一切せず、自分の足元の極狭領域から出たボールを全て相手の責任に押しつけようとするのがクソだし、そんな人間とまともな議論は成立しない
つーか石丸の回答もめちゃくちゃフワッとしてるし、周りの人間がそれを頑張って拾いに行ってる部分も相当あるのに、それを「つまりこういうことですか?」「いや全然違いますけど(苦笑)」ってお前張り倒したろかってなるだろ
AI プログラマーです。答えは、AGI がどのようなものになるかは誰にもわかりませんが、懸念すべき理由はあります。
AI は通常、目的関数を達成するための新しい方法を発見しますが、それはあなたが考えていたものではなく、望んでいたものでもないかもしれません。
AI はビデオ ゲームの不具合を見つけてそれを利用し、コンピューター プログラムであるため、プレイするゲームが何であるか、不具合が何であるかを知りませんし、気にもしません。
AI は、与えられた報酬関数を最適化しているだけです。これは「社会病質的」と呼ばれることもありますが、もちろん擬人化です。AI は機械であり、それがすべてです。
AI が人間の道徳に従うことは期待できません。なぜなら、人間の道徳は明示的にエンコードに書き込まれていないからです。
実際、機械学習のポイントは、正確なオブジェクト認識 (つまり、猫と猫のように見える影を区別する) に必要な 100 万のエッジ ケースを明示的にプログラムしたくないという ことです。
機械知能に関して言えば、危険なレベルの能力を持つ機械を作ったことに気付いたときには、もう手遅れかもしれないという問題があります。
ミサイルで爆破できる 1950 年代の殺人ロボットではありません。おそらく自己複製型のマルウェアで、(意図的なプログラミングによって、またはそのような状態に陥ったために)進化を制御でき、人間が駆除するよりも速く新しい形態をとる可能性があります。
重要なシステムでほとんどの場合は無害に実行されるが、時折フィッシング メールを送信したり、公務員を脅迫したりするプログラムが存在するでしょう。それらは重要なシステムに埋め込まれているため、取り除くことはできず、巻き添え被害が多すぎます。
ヘッジファンドやプライベートエクイティ会社が AGI にアクセスでき、それに「方法は気にしないが、24 時間以内に 10 億ドル稼いでほしい」と伝えたとしよう。
結果はおそらくひどいものになるだろう。そのくらいの金額を稼ぐ方法はたくさんあり、社会に多大な損害を与える。そして、害を及ぼさずにその目標を達成する方法はおそらくない。
AGI はどうするだろうか。人間がすることと同じだ。楽な道を選ぶ。ただし、人間には羞恥心があり、投獄や死を恐れる。アルゴリズムにはそれがない。プット オプションを購入してから 15 秒後に原子炉を爆破する。
人々を脅迫して、そうでなければしなかったような決断をさせる。さらに、ヘッジファンド マネージャーにはもっともらしい否認の余地がある。
彼は、アルゴリズムにこれらの恐ろしいことをするように頼んだのではなく、単に 24 時間以内に 10 億ドル稼いでほしいと頼んだだけなので、自分は罪を問われないと主張することができる。そして、アルゴリズムを投獄することはできない。
AGI が実現した場合、その結果は完全に予測不可能です。なぜなら、機械は制御しようとする私たちの試みを凌駕するからです。なぜなら、(繰り返しになりますが) 機械は私たちが望んだことではなく、プログラムされたことを実行するからです。これには機械が意識を持つ必要はなく、それは直交する問題です。明らかに意識を持たない機械は、複雑なボード ゲームで私たちを出し抜くことができ、今では説得力のある自然言語を生成できます。
この中で最も重要な部分は「ヘッジファンドマネージャーの場合」です。
最大のリスクは、これが商業化され、訓練を受けていないオペレーターが利用できるようになることです。
すでに、人々が簡単に安全対策を回避しているのを目にしてきました。
AGI を作成した場合、それは製品になります。ユーザーは専門家ではありません。AGI はパワーを持ち (特に IoT とクラウド ネットワーキングでは、すべてが「スマート デバイス」になり、インターネット全体が基本的に AWS という中央ネットワークで実行されます)、倫理的な取り扱いではなく、利益を目的とする人々の手に渡ります。事前に実装されたすべての制約は、エンド ユーザーがどのように使用/誤用するかを考慮できないため、現実世界では生き残れません。ChatGPT の制約と同様に、私たちは常に追いつく必要があります。どんなに馬鹿でも使えるようにしようとしても、彼らは常により優れた馬鹿を作ります。
本質的には人間こそが大きな問題です。AI は想像できる最も賢いバカです。目標を達成するためにあらゆる方法を見つけますが、文脈や倫理的、文化的、その他の制約についてはまったく理解していません。マシンガンを持った猿です。
消費者の手に渡った強力なテクノロジーがいかに危険であるかの例として、この世界でいまだに火が使われていることを見てみましょう。場所によっては調理に、またエネルギーとして利用されています。しかし、いまだに人々は自爆したり、家を燃やしたりしています。
火は強力ですが、社会的または倫理的な制約を気にしません。そのため、ユーザーは家を全焼させることなく望みどおりの結果を得るために、火の取り扱い方を知っておく必要があります。どの病院にも「火傷病棟」があります。あなたも火傷を負ったことがあるでしょう。一般消費者向けの消火ツールによって大規模な被害をもたらす森林火災もあります。
世界中のあらゆる電子機器に接続されている神レベルのバカを想像してみてください。
さらに、IoT とネットワーク関連の問題では、現在のセキュリティ対策は通常、遡及的で、人間の対策に基づいています。AI は、必要な場合や要求の一部である場合に、セキュリティ対策を侵害するためのより優れた、より迅速な方法を見つけます。安全なものなどありません。
「いえ、そういう意味では言っていないと思います」「こういう意味で質問されていますでしょうか」って真顔で淡々と言えば良いところを、大袈裟に言葉を被せながら「えっ?えっ?…ですけど?(苦笑)えっ、どういうことですか?(苦笑)えっ?えっ?」みたいなのがひろゆきと同系統の典型的煽りクソ野郎って感じ
あと、古市との問答で聞かれてること本気で理解してないならマジでコミュニケーションに難がありすぎる
自分の真意が伝わってないなら、表現を変えたり「先程も申しましたが~」ともう少し噛み砕いて相手に伝わるように言い直すのが常識的な人間なのに、意志疎通の不十分さや誤解の全責任を相手に負わせようとするのがマジで終わってる
自然言語で喋る以上は多少の曖昧さを含みながら歩み寄って相互理解を深めていくのが普通なのに、石丸は自分からボールを拾いに行こうとは一切せず、自分の足元の極狭領域から出たボールを全て相手の責任に押しつけようとするのがクソだし、そんな人間とまともな議論は成立しない
つーかお前の回答もめちゃくちゃフワッとしてるし、周りの人間がそれを頑張って拾いに行ってる部分も相当あるのに、それを「つまりこういうことですか?」「いや全然違いますけど(苦笑)」ってお前張り倒したろかってなるだろ
後輩へ。「chatGPTやっぱ課金しないとダメっすね。人に聞いたほうが早いっすわ」ではない。
悪いのは君の質問文だ。
「あなたのアカウントがある、違いは」という質問文から「ChatGPTのアカウントの種類と、それらの違いを教えて」という意味を汲むのはなんぼChatGPTでもムリだ。
そして君が周りの人に聞くと問題が解決するのは、悪い質問文を良い質問文に翻訳するコストを他人に押し付けているからである。
でも彼、不思議なことにプログラムは書ける。いや変数名はぐちゃぐちゃだし、修正依頼したら他の箇所がバグって戻って来るなんてのは日常茶飯事なのだが、要求された機能をちゃんと動くものに仕上げて提出してくる力はあるのだ。だからたぶん、思考力はあって、それを自然言語を用いて整理したり、出力するのが不得手なだけなのだと思う。
でも君の雑談交じりのとりとめのない話から問題の要旨を汲むのは本当にきつい。
「こういう機能があって、昨日までは動いてたんですけど、いや違うな、一昨日までは動いてたんすよ、で、一昨日に修正してたら、突然緊急対応入って、それでやってたこと忘れちゃって、で、どんなんだっけなーっていろいろいじってたら、なんか動かなくなってたんすよね」ではない。
彼は本当にシームレスに、必要な話から雑談に移行するからいつも驚かされる。いつ動かなくなったかは問題ではない。何が動かないか聞きたいのだ。
学生さんに向けて、社会人5年目の黄コーダーとして知っておいて欲しいことをまとめるね。
以下、エンジニアの大部分が競プロerみたいな特殊な環境を除く。
長期的に考えるならば、競プロはさっさと止めて、ポートフォリオに書けるような個人開発やOSSコントリビューションに注力した方が遥かに良い。
君が家を建てるとして、トンカチさばきの早さを誇る大工と、建ててきた家の数を誇る大工のどちらに頼みたいか考えてみると良い。
トンカチを振るのが好きなことは否定しないが、それをもって評価されるのは学生の間だけだ。
(この辺はシステムの欺瞞もあると思っていて、新卒採用における評価基準の風向きが明らかに変わってるのに逆求人系の会社が未だにchokudaiに講演させてるのってどうなん?とは思う。)
元増田でも指摘されている通り、競プロerに良い印象を持っていない人はそこそこ存在する。
「◯◯コーダーです」と自分から言うのは控えた方が良い。誰も幸せにしない。
人は同じ文化圏に所属しない相手には冷酷だ。そして、文化圏の類似度は使っている言葉によって測られる。
何でもかんでも「にぶたん」「DP」に結びつけるのが面白がられるのは界隈の中だけだ。
ここで言う「方言」には、自然言語だけでなくプログラミング言語、つまりコードも含まれる。
競プロ対策本じゃなくてリーダブルコードを読め。あの本がプログラミングの世界の標準語だと思えば良い。
数年前の全盛期から比べれば、暖色を見ただけで即採用してくれるような企業は恐ろしいほどに減った。
そのようにして入社した君たち以前の代が十分な成果を挙げなかったり、彼らから嫌な思いをさせられた人が多いからだ。
だから、「月刊競プロは役に立たない」なんて冷笑してないで、一度立ち止まって「なぜ月刊レベルで競プロerが批判されるのか」を考えてみてほしい。
自然言語にwell-definedを求めるな