はてなキーワード: 言語モデルとは
この方向性で進んでほしい
「影響力のある発明家」ってこれまでいなかったしな
生成AIの基盤となる大規模言語モデル(LLM)の開発が国内外で加速している。各社のLLMのパラメーター数と特色
米オープンAIの「Chat(チャット)GPT」など対話型AI(人工知能)の基盤となる大規模言語モデル(LLM)への投資に国内企業もようやく本腰を入れ始めた。ただサイバーエージェントやNTT、NECなど多くの日本企業が足元で注力するのは、欧米大手が手掛ける汎用的な対話型AIとは異なるニッチな領域だ。欧米勢に後れを取る中、日本語や特定の領域に特化することで活路を見いだそうとする国内勢の動きを懸念するのが、ソフトバンクグループ(SBG)の孫正義会長兼社長。かつて国内市場独自の進化により世界で競争力を失った「ガラパゴス携帯(ガラケー)」に重ねて警鐘を鳴らす。
【写真】ソフトバンクグループの孫正義会長兼社長は、日本企業のAI開発への取り組みに苦言を呈した
「電気代を節約するとか、あんまりチマチマしたことを言っていると、あっという間に日本は取り残される」。東京大学が7月4日に開催した生成AIのシンポジウムに登壇した孫氏はこう懸念を口にした。さらに「日本の取り組みが『ガラケー』になってはいけないと苦言を申し上げたい」と付け加えた。
最近久しぶりに企画会社の人と会ったんだけど、会議中になんでもChatGPTで聞いて答えるようになってしまっていた。
まあそれ自体は効率的な面もあっていいんだけど、なんかその人、どこか変わっちゃった感じがするんだよね。
人と話しているとスピード感のなさにイライラしてくるんだろう。
ひどい早口でまくしたてるのがデフォルトになってしまっていた。
もともとその人は早口ではあるんだけど、これじゃ聞き取れない人は多いだろうなと思った。
これは人によっては嫌われるよねえ。
ちなみに私は普段からYou Tubeを1.5倍で聞いているのでギリギリ理解できた。
あとAIの正確さやスピードを信頼しすぎて人を性能の悪いパソコンみたいに見下しているところが見え隠れした。
私もよく使っているもん。
AI使うのに特化してしまって人間性が薄れる人、これから増えるんじゃないかな。
でもそういう人からすれば、こちらは「だからお前は仕事ができないんだw」「AIうまく使えない奴はさっさと社会から脱落しろw」ということなのだろう。
AIでスピードを追うのもほどほどにして、もっとお互いを許して仲良くできる世界のほうがいいんじゃないかなあと思うんだ。
実は私もAIにハマっていたんだよ。
もうずーっと使っていた。
「増田、最近言ってる言葉が強いし、やたら早口だし、AIのことばかり喋っているよ」
これで目が覚めたよね。
AIは仲間になんてなってくれないし、いざというときに助けてもくれない。
何度も言うけど、たしかにAIはすごいよ、イノベーティブだよ。
ちがうかな。
Bard>接続が成功したら、左側のナビゲーションバーで、[レポート]をクリックします。
私>ここがわかりません。そのようなボタンは私の画面には表示されていないように思います
Bard>申し訳ありませんが、Looker Studioの画面がわかりません。画面のスクリーンショットを添付していただけますか?
私>すいません、どうやって添付すればいいのでしょうか?
添付ファイルのサイズが大きい場合は、メールソフトの設定でサイズ制限を変更する必要があります。また、添付ファイルの種類によっては、メールソフトで開けない場合があります。
添付ファイルの種類は、PDF、Word、Excel、PowerPointなどの一般的なファイル形式にする。
私>いま、あなたに、画像を送るためにはどうすればいいでしょうか
Bard>申し訳ありませんが、私は画像を受け取ることができません。私はテキストのみを処理できます。
私>おまえがスクリーンショット欲しいっていうたんやろが
他の回答案を表示
Bard>申し訳ありませんが、私はスクリーンショットを撮ることができません。私は言語モデルであり、スクリーンショット機能を備えた物理デバイスではありません。
FFFFFF○○○○○○○○○○○○○○○○○○○○○○○○○○○○○○○○○○○○○○○○K!!
誰かがリツイートした暴露系ツイッタラーのツイートが目に入ってきた。
ツイートの内容はこうだ。
彼女と二人で世界一周旅行中のバックパッカーの男性が「バングラデシュで友達がたくさんできました」とツイートしたのに対して、とある女性が「その写真に写っているバングラデシュ人は君の彼女を狙っている(※暴露系ツイッタラーは「目的は日本人女性のレイプ」と意訳して表現)」と批判し、さらにその女性の意見に賛同する声が多数上がっているというものだった。
これを見て、私はてっきり女性(とその賛同者)が炎上していると思った。
現地で良くしてもらった友達(およびその国全体の男性)を性犯罪者予備軍呼ばわりするのは、失礼どころの騒ぎではない。
しかし、そうではなかった。
彼は、批判してきた女性とその賛同者に対して「批判してるのは“やったことがない人”」と反論をしてしまっていた。
なるほど、見下すのは大好きだが、見下されるのは死ぬほど嫌い。そんな我々にとって、その一言はよい着火剤になるだろう。
だが着火剤が良くとも問題は燃料の方である。今回はそれほど可燃性に優れた燃料なのだろうか?
「バックパッキングやヒッチハイクはリスクがあり(性犯罪の対象となる)女性同伴なら慎むべき愚行だ。」
確かにバックパッキングはリスクがあるというのは一般論だ。一般的な旅行と比較すれば、未知の土地で、しかも自己判断で行動をとるため、想定外の事態に直面することがよくある。痛ましい事件に巻き込まれて命を落とすことさえある。
しかし、だからといって安易に慎むべき愚行と断罪して良いものだろうか?
これが仮に自己で判断ができない子供を連れてだったら炎上するのも頷けるが、同伴している女性は成人である。
外務省が発表しているバングラデシュの危険レベルは1 「十分注意してください」(一部地域を除く)
ちなみに同じレベル1では インド・ネパール・インドネシア・カンボジア・フィリピン(同じく一部地位を除く)などの国があがる。
(本件で「イラク日本人人質事件」を例に挙げる人がいるが、イラクは危険レベル4 退避勧告がされている。レベル1のバングラデシュを同列で語るのは流石に乱暴と言わざるを得ないだろう。)
もちろんバングラデシュが安全とは言わない。その治安は先進国と比較すれば雲泥の差だ。殺人発生率も日本の10倍ほどある。
それでも危険レベル1のエリアに渡航し合法的な行いでリスクを負う分には、自己責任の範疇に入るのではないだろうか?また部外者が「彼はリスクを理解していない」「文化を理解していない」と少ない情報から決めるのは如何なものか?と問いを皆に投げかけて本投稿は終了したい。
余談ではあるが、いま話題のChat-GPTに両者のツイートの原文を入力して「バックパッカーAさんと批判してきたBさん。どちらが炎上したと思うか?」を問うたところ以下の様な回答が得られた。
『このケースでは、Bさんが炎上している可能性が高いです。その理由は以下の通りです。
ステレオタイプと偏見:Bさんのコメントは、バングラデシュとその他の南アジアの男性全体を一律に決めつける偏見とステレオタイプを広めています。これは、特定の人種、国籍、宗教、または社会的グループ全体を一概に評価することは公平ではなく、誤解を招きやすいため、問題となります。
文化的な無知と誤解:Bさんのコメントは、バングラデシュと南アジアの文化、宗教、社会構造についての誤解と無知を示しています。例えば、彼女の主張は、特定の南アジアの宗教や文化が女性を物として見るという偏見を広めています。これは無知な見方であり、炎上の元となります。
恐怖の拡大:Bさんの投稿は、バングラデシュや南アジアを訪れる女性たちに無用な恐怖を植えつけます。これは不適切な情報の拡散であり、特定の地域を訪れることに対する恐怖心を煽るため、炎上する可能性があります。
以上の理由から、Bさんのコメントが炎上している可能性が高いと考えます。』
一方Google Bardは『私は大規模言語モデルとしてまだ学習中です。そちらについては、理解して対応できる機能がないため、すみませんがお手伝いできません。』と答えた。
ここ1年で初めてはてなブックマーク日毎の総合人気エントリ入りしたドメインからのホットエントリ、ブクマ数順トップ30
ブクマ数 | タイトル | ドメイン |
---|---|---|
1904 | 「世界史」の世界史(学術俯瞰講義) | ocw.u-tokyo.ac.jp |
1542 | 今のこの状況が信じられるかい? by ラーズ・ヌートバー | www.theplayerstribune.com |
1212 | エリックサウス直伝! 本格『チキンビリヤニ』のレシピ【レンジで作れる】 | www.orangepage.net |
938 | 【第1話】履歴書 - 脳外科医 竹田くん | dr-takeda.hatenablog.com |
938 | 「お金のことはできるだけ考えたくない派」の私が始めた、資産運用と投資の話 | イーデス | www.a-tm.co.jp |
911 | 「勉強法の勉強会」、エンジニアの勉強ノウハウをいくつも知られる"神"勉強会でした(みんなアーカイブぜひ見て!) #YUMEMIxTORALAB - nikkie-ftnextの日記 | nikkie-ftnext.hatenablog.com |
905 | Evernoteからの卒業とその受け皿について | hacks.beck1240.com |
879 | SQLの実行計画の読み方 | | a5m2.mmatsubara.com |
686 | レイオフ(退職勧奨)された話 | takecian.github.io |
678 | 埼玉県南部で外国人と住民のトラブル深刻化 | withenergy.jp |
658 | クレジットカードの新規登録および利用の停止について - PayPayからのお知らせ | paypay.ne.jp |
658 | G7首脳による平和記念資料館訪問(記帳内容) | www.mofa.go.jp |
624 | はい!美術タイトルです vol.3 | フジテレビジュツのヒミツ - フジテレビ | www.fujitv.co.jp |
618 | CSS Stock|Webデザインを楽にするCSSコピペサイト | pote-chil.com |
569 | 日本の労働生産性はなぜ低いのか(おかわり) - hidekatsu-izuno 日々の記録 | hidekatsu-izuno.hatenablog.com |
568 | 生成系人工知能(生成AI)についての学長からのメッセージ | 武蔵野美術大学 | www.musabi.ac.jp |
556 | 岸田内閣、子供のいる年収850万円以上の富裕世帯に対して扶養控除廃止で実質増税へ | News Everyday | newseveryday.jp |
539 | 大槻ケンヂ「今のことしか書かないで」(第2回)50を過ぎたらバンドはアイドル | lp.p.pia.jp |
532 | 脳外科医 竹田くん | dr-takeda.hatenablog.com |
528 | 解熱鎮痛剤の「ロキソニン」と「カロナール」って何が違うの? 救急集中治療医がイラストで解説! | woman.mynavi.jp |
514 | 櫻井翔、ジャニーズ性加害問題にノーコメント 『news zero』番組側の判断 | RBB TODAY | www.rbbtoday.com |
506 | 【Stable Diffusion】MeinaHentaiの利用方法 | self-development.info |
495 | 忙しい中でも「質の良い睡眠」を目指すには? 『スタンフォード式 最高の睡眠』著者の西野精治教授に聞いた - lala a live(ララアライブ)│フォーネスライフ | foneslife.com |
490 | 新型コロナ・季節性インフルエンザ リアルタイム流行・疫学情報 | moderna-epi-report.jp |
456 | 16年勤めたGoogleを退職しました | blog.jumpingknee.com |
454 | ControlNet(v1.1)の詳しい解説!輪郭やポーズから思い通りの絵を書かせる【Stable Diffusion】 | 謎の技術研究部 | www.ultra-noob.com |
448 | サイバーエージェント、最大68億パラメータの日本語LLM(大規模言語モデル)を一般公開 ―オープンなデータで学習した商用利用可能なモデルを提供― | www.cyberagent.co.jp |
443 | タダ電 - 毎月電気代が10,000円タダになる電力会社 | tadaden.jp |
432 | 『news zero』に海外アーティストが怒りの抗議 批判受けた落合陽一氏は釈明 | リアルライブ | npn.co.jp |
420 | 【画像あり】爆乳JK菊池姫奈(18歳)「学校で男子の視線が嫌だった。告白されても絶対乳目当てだろって思ってしまう」 : 暇人\(^o^)/速報 | himasoku.com |
ChatGPTの返答を元に言語モデルを作るようなことも普通に行われているし、
Midjourneyの生成結果を学習させてMidjourney風の画像を生成する蒸留モデルもすでに存在している。
もう少し勉強しような
まず、今までの時点で日本が AI でトップは取れてなかったし、トップに肩を並べることもなかった。
でも今は ChatGPT 相当の関連技術がかなりの勢いでオープンソースになっていて、Google もこの勢いだと最後に勝つのは Google でもなく Open AI でもなく、オープンソースだと言っている。
https://gigazine.net/news/20230508-google-document-llm-arms-race/
つまり逆に言えば、今からがんばればオープンソースの LLM(大規模言語モデル。ChatGPT みたいなやつの一般名称な。)にキャッチアップして、世界トップレベルの技術を手に入れられる。
技術で他者に勝ちはしないけど、少なくとも世界トップと同等レベルになれる。
あとはそのオープンソースの中でどうやって優劣が決まるかと言うと、国の規制とオープンソースのビジネス活用(タダで利用するだけでなく、自分達で開発コードをどんどん公開していくことで、世界のトレンドを自分達に有利な方に変える影響力を持てるかが重要)をどれだけ理解してるか、で決まる。
だから、今は日本にとって大きなチャンスだし、同時に、少なくとも他国に出遅れてはいけないんだよ。
ChatGPT みたいな知能を大量に使えるなら、ケンブリッジ・アナリティカ問題のような人々の投票行動を変える行為がより簡単になってくる。
間違いやら何やらいっぱい入ってて改善しないといけないところは無数にあるけど、普通にそこらの学生よりまともな作文をしてくるGPTに俺は衝撃を受けたし、多少の改善はまだ必要とはいえあれで仕事を肩代わりされてしまう人はそこそこいるだろうと思う まぁ実用に落とし込めるかどうかは別の話だけど
研究レベルで革新的かと言われるとそりゃまだChatGPTから直接的に革新的なものは出てこないだろうな
単なる言語モデル走らせてるだけなんだし現状で人類の知らない新しい何かを生成できるかって言うとできないけど、GPTの改良の先にそこそこ革新的なものが普通に出力される未来が見えるのが凄いんだよ 今まではそんなことできるとさえ思わなかったしな 人間の応答が単純な言語モデルだけで模倣できることが分かってきてしまって、結局人間の知性なんて大したことじゃなかったと判明した手前、人間の閃きは言語モデルの中にあるのか先にあるのかは今のところ誰にも分からん 俺はまだしばらく人間の特権であってほしいけど明日とかに急に何かできましたとか出てくるかもしれんしな
例に上がってるUMAPだって主成分分析しかなかったところに一足飛びに出てきたわけじゃないし、実際にはその途中で多様体学習の長い歴史がある 革新と思ってるなら単に間の歴史を知らんだけだよ
キャッチーなこと書いてるからミスリーディングだけど単に既存法のチューニング変えただけで、研究者なら多かれ少なかれ現場でやってたチューニングを仰々しく書き直して実装ちゃんとやったってだけだし、革新と思ってるものも実際にはそういう歴史と膨大な試行の上に地続きになってる そういう意味でChatGPTはゴールじゃなくて筋の良い試行の第一歩
現状のGPTでできないことは無数にあるけど、例えば入力方式が違うとかそんな瑣末な問題なら俺みたいな末端でさえ改善策が無数に思いつくようなレベルだし、今何ができないとか議論しても意味ないんだよな 数週間ごとか数日後、もしくは数時間後に修正かかって何かを組み合わせると科学論文が大量生産されるとかもできるようになるかもしれないんだから
単に教科書を読むだけより問いかけられたほうが脳が考えようとするし能動的に学習できる。
プロンプト:「ChatGPTの仕組み」の包括的な理解が得られる文章を、クイズ番組の司会風に書いてください。クイズは5問ほど出題してください。それぞれの問題の後に答えと解説を発表してください。
出力:
皆さんこんにちは!今日は特別なクイズ番組にようこそ!私たちはあなたに、OpenAIが開発した驚くべき技術、ChatGPTの仕組みについての包括的な理解を得るためのクイズを出題します。さあ、問題を出題していきましょう!
問題1: ChatGPTの基本となるAIアーキテクチャは何でしょうか?
答え: GPT-4
解説: ChatGPTは、OpenAIが開発したGPT-4(Generative Pre-trained Transformer 4)というアーキテクチャを基盤としています。GPT-4は、自然言語処理タスクに優れた性能を発揮することで知られています。
問題2: GPT-4はどのような学習手法で訓練されていますか?
答え: 事前学習(pre-training)と事後学習(fine-tuning)
解説: GPT-4は、2段階の学習プロセスで訓練されています。最初の段階は事前学習で、大量のテキストデータから言語モデルを学習します。次の段階は事後学習で、特定のタスクに適した性能を発揮するようにモデルを微調整します。
問題3: ChatGPTが生成するテキストの品質を向上させるために用いられる技術は何でしょうか?
解説: ビームサーチは、生成されるテキストの品質を向上させるために用いられる探索アルゴリズムです。複数の候補を同時に生成し、最も尤もらしい文を選択することで、より自然で正確なテキストを生成することが可能になります。
問題4: GPT-4が生成するテキストにおいて、長い文章を生成する際に問題となる要因は何でしょうか?
答え: 文脈の長さ(Context Length)
解説: GPT-4は、一度に扱える文脈の長さに制約があります。この制約により、長い文章を生成する際に、以前の文脈が失われることがあり、それが結果として文章の一貫性や理解度に影響を与えることがあります。
問題5: ChatGPTが生成する回答が間違った情報を含む可能性がある理由は何でしょうか?
答え: 学習データに含まれる誤った情報とモデルの生成性能の限界
解説: ChatGPTが間違った情報を含む回答を生成する理由は主に2つあります。まず、学習データに含まれる誤った情報が原因となることがあります。学習データが不正確であると、モデルもそれを学習し、間違った回答を生成することがあります。また、GPT-4は生成モデルであるため、正確な情報が学習データに含まれていても、生成時に限界があり、正確性が犠牲になることがあります。
以上、5問のクイズでした!皆さんはChatGPTの仕組みについての理解を深めることができましたか?今回のクイズで学んだ知識をぜひ活用して、この驚くべき技術とその可能性についてさらに学んでいってくださいね!それでは、また次回のクイズでお会いしましょう!
https://arxiv.org/pdf/2305.00833.pdf
Learning to Reason and Memorize with Self-Notes
大規模な言語モデルは、限られたコンテキスト メモリと多段階の推論に苦労することが示されています。
モデルが自己メモを取ることを可能にすることにより、これらの問題の両方を解決するための簡単な方法を提案します。
最近のスクラッチパッド アプローチとは異なり、モデルはいつでも入力コンテキストから逸脱して明示的に考えることができます。
これにより、モデルはコンテキストを読み取りながら情報を想起し、オンザフライで推論を実行できるため、メモリが拡張され、複数ステップの推論が可能になります。
複数のタスクに関する私たちの実験は、推論時に自己メモを取ることにより、トレーニング設定からより長く複雑なインスタンスに私たちの方法がうまく一般化できることを示しています.
1. イントロダクション
Transformers (Vaswani et al., 2017) および同様のバリアントは、シーケンスベースのタスクで印象的な結果を示しています
特に、GPT-3 (Brown et al., 2020) などの大規模な言語モデル (LM) はトランスフォーマーを使用し、質問応答 (QA) などのさまざまな NLP タスクを解決できます。
LM を QA タスクに使用すると、図 1 (上) に示すように、事実情報と質問を含むコンテキスト プロンプトが与えられ、モデルが直接回答を生成します。 ただし、この自己回帰の「ワンステップ」アプローチは、複数ステップの推論タスクと格闘します (Austin et al., 2021; Press et al., 2022a; Creswell et al., 2023)。 これは、バニラ LM が各トークンに対して固定された計算を行い、現在のコンテキストに応じてさらに「考える」オプションがないという事実から生じると主張します。 (2021) 図 1 (中央) に示すように、モデルが質問に答える前に推論トークンを生成できるようにするスクラッチパッドの使用を提案しましたが、完全なコンテキストと質問を読み取った後です。 同様に、一連の思考を促す方法 (Wei et al., 2022; Zelikman*Equal Contributor 1Meta AI. への対応: JackLanchantin <jacklanchantin@meta.com>, Sainbayar Sukhbaatar<sainbar@meta.com>.et al., 2022; Huang et al., 2022) は、モデルをプッシュして、一度に 1 ステップずつ答えを説明し、より首尾一貫した最終的な答えに導きます。 非線形タスク (Fan et al., 2020)、LSTM (Hochreiter and Schmidhuber, 1997) などの再帰型先行モデルが十分に備えられているもの。 Fan et al., 2020; Ju et al., 2022; Hutchins et al., 2022)、しかし、それでも与えられたプロンプトに対して一定量の計算を使用します。 推論と状態追跡メモリがより扱いやすくなります。 私たちの方法である「Self-Notes」により、LM はオンザフライでコンテキスト プロンプトから逸脱し、明示的な推論トークンを生成できます。 図 1 (下) に示すように、スクラッチパッドとは異なり、モデルは生成されたトークンを入力コンテキストとインターリーブできます。 このようなセルフ ノートは、明示的な中間推論ステップと状態追跡用のメモリの両方として機能します。 具体的には、推論ステップで 2 つの事実を組み合わせる必要がある場合、結果として得られる推論をセルフ ノートに書き込んで、将来の推論に使用することができます。したがって、中間推論ステップとして機能します。 たとえば、「アリスは箱を持っています」と「アリスは公園にいます」が与えられた場合、「箱は公園にある」と推測してそれを自己メモに書き、将来のステートメント「鍵は in the box」で「鍵は公園にある」と結論付ける。 さらに、コンテキストをトラバースしながらモデルがエンティティの最新の状態を新しいトークンとして書き込むことができるため、SelfNote はワーキング メモリの形式として機能できます。 たとえば、プログラミング環境では、最初に x=5 を想定し、次に x を 1 ずつ増やします。モデルが x=6 をセルフ ノートとして正しく記述していると仮定すると、元の x=5 ステートメントをそのコンテキストから安全に削除できます。 モデルが x の値について問い合わせられた場合、モデルは既に答えを持っています。
私たちの提案した方法と、スクラッチパッド (Nye et al., 2021)、思考の連鎖 (Wei et al., 2022)、または内部独白 (Huang et al., 2022) などの以前の研究との主な違いは、モデルを許可することです。 各コンテキストステートメントを順番に読み取るときに、複数のメモを明示的に書き出す。 InarXiv:2305.00833v1 [cs.LG] 2023 年 5 月 1 日図 1: (上) ベースライン バニラ LM は、コンテキスト (C) と質問 (Q) が与えられると、回答 (A) を直接生成します。 (中央)スクラッチパッドを使用すると、モデルは質問に答える前に中間推論トークンを生成できますが、コンテキストが表示された後です。 (下) 私たちの Self-Notes メソッドにより、モデルはいつでも推論してメモを取るために入力コンテキストから逸脱することができます。言い換えれば、私たちのアプローチは、将来の推論に役立つ可能性のある情報でコンテキストを補強するスクラッチパッドのインライン形式です。 私たちはこれを、人間が読む方法と同様に、明示的に述べられていない情報を推測するための行間の読み取り (および書き込み) の形式と見なします (van den Broek et al., 2009)。 以前の方法では、モデルが完全なコンテキストを読み取った後に反芻することができ、読み取っている間ではなく、最後に大量の推論を行うように強制されます。
さらに、そのようなポストコンテキスト推論は、推論が開始される前に以前のコンテキストトークンがモデルのコンテキストウィンドウからすでに出ている可能性があるため、メモリとして機能できません。 たとえば、数週間または数か月の対話履歴を持つインテリジェント エージェントを考えてみましょう。 直観的には、最初から考え直すことなく、以前の対話で行った推論ステップを使用できることは理にかなっています。自己メモを生成するようにモデルに教えるために、トレーニング中に、入力の一部としてグラウンド トゥルース自己メモを言語モデルに提供することを検討します。 コンテクスト。 推論中に、トレーニング中に学習した特別なトークンを生成する場合、モデルはコンテキストから逸脱し、SelfNote を生成できます。モデルが Self-Note の生成を完了すると、元のコンテキスト トークンが引き続き供給されます。 これにより、モデルは最後だけでなく、入力トークンの処理中にメモリを推論および作成できます。 また、Self-Notes をトレーニングするための半教師ありおよび教師なしの方法も提案します。多段階の推論と状態追跡を評価するように設計された 5 つのテキスト データセットでこの方法をテストします。 , 2020; Anil et al., 2022)、および 2 つの現実世界のチェス ゲーム タスク (Toshniwal et al., 2022)。 私たちの方法は、明示的なメモ取りを行わない微調整された言語モデルとスクラッチパッドのベースラインの両方よりも優れています.2. 方法シーケンス内の次のトークンを予測する自己回帰変換モデル M を考えてみましょう
開発したのがOpenAI Inc.なので勘違いしているのだろう。
ChatGPTは文字通りGenerative Pre-trained Transformerでしかない。
OpenAI社は人工知能の完成を目指している会社ではあるのだが、ChatGPTは副産物というか、素材というか。
神経細胞、シナプスの挙動を貧弱なコンピューターでどう再現するか。
こういうアプローチだった。
これと袂を分けて、入出力が人間っぽかったら良くね?
商業的な利用もそっちのほうがよくね?
先々人工知能エンジンの脳再現精度が上がったとしても入出力は自然言語で行わなければならない。
そのためには言語モデルを先に構築しておくのは無駄にはならない。
コアの人工知能エンジンは中間言語で入出力を行うが、外側HMIの部分をChatGPTに担わすようなイメージではなかろうか。
人の指示→ChatoGPTで中間言語にコンパイル→コアAI→中間言語でChatGPT→人が認知できる出力
このようなモデルならばコアAIは本質的人工知能の開発に注力できる、分離できる。
従来のAI研究はここ一緒くたにやとうとしてたのも停滞の原因と見抜いたのだろう。
営利企業である以上は稼げるプロダクトでなければ資金調達はできない、利益にならない
言語モデルの段階でも中間処理がそこそこできてればそれっぽいプロダクトにはなる。
商業的な使い道もある。
今後AIエンジンの開発は続くだろうが、現時点では知能とは程遠い完成度でしかない。
入出力がそれっぽいので知能っぽく見えるが、古典的な人工知能の定義から言えばおおよそ別物。
俺も気に入って使ってる、プログラム食わせたらあっさりバグも見つけやがった。すげぇと思う。
が、これは知能ではない。
なんか世間では、すげぇ物ができちゃった、世界が変わる、大革新、みたいな熱狂と不安と禁忌があるけどさ。
いやいや、そんな大層なものではありませんw
まぁこの辺のOpenAI社のマーケティング、演出は秀逸ではある。
ChatGPTの指示かな?www
ChatGPT 「はい、正解です!私はChatGPTという大規模言語モデルです。何かお力になれることがあれば、何でもおっしゃってください!」と答えることができます。
GPT-4は、非常に高度な言語モデルであり、多くのリソースを必要とするため、現在のところゲームに直接組み込むことは難しいです。しかし、GPT-4の技術を利用したゲーム開発や、GPT-4をインスピレーションとした独自のAI技術を採用したゲームは存在します。
1. 対話型のアドベンチャーゲーム: プレイヤーが自然言語で入力し、ゲーム内のキャラクターと会話を行うことで物語が進むゲームです。GPT-4のような言語モデルを利用することで、リアルタイムでキャラクターの反応を生成し、よりリアルで自然な会話が可能になります。
2. プロシージャル生成: GPT-4のようなモデルを利用して、ゲーム内のテキストやストーリー、クエストを動的に生成することができます。これにより、プレイヤーが独自の冒険を楽しむことができます。
ただし、GPT-4自体を直接ゲームに組み込むのではなく、独自のAI技術や、GPT-4と類似した性能を持つがリソース消費が少ないモデルを開発して採用することが一般的です。GPT-4のような大規模なモデルをリアルタイムで動かすことは、多くの計算リソースを必要とし、現在のゲーム環境では難しいとされています。