「言語モデル」を含む日記 RSS

はてなキーワード: 言語モデルとは

2023-09-22

日本人の半分は文字は読めるけど文が読めない

TwitterXで話題になったこ

彼はお金がない( )車を2台買った。

「ここが”ので”じゃなくて”けれども”になる理由が分かりません」

これについて「文脈がわからいから、どちらか決まらない」とか「文法的にはどちらも成立する」とか、全然文が読めていません

「本当は3台買うつもりだったけど、お金がないから2台にした」とか、問題なのだから書かれている情報以外の事は考えてはダメなんです

ここで考えるのは「~がない」というネガティブ状態 と 「~を買った」というそれに反する行動結果

ネガティブ状態 → 行動した」

という矛盾対立関係を考えたら、接続詞は「のに」「けれども」という逆説しか選択肢はないんです

でもそれがわからないというのは、文が読めていないんです

文を読むというのは

「具体的な事柄抽象化判断

このプロセスのことです

文脈がわからいから」というのは、入力情報が少ないということです

これが多くなればもちろん正解する確率も上がりますが、それは大規模言語モデルであるChatGPTと同じレベルってことです

 

※参考

東京外国語大学言語モジュール

https://www.coelang.tufs.ac.jp/mt/ja/gmod/contents/card/082.html

2023-09-02

言語モデル論文入れたら要約してくれた!

って論文アブストと変わらん文章貼りつけるのやめろ

何度言わせる

最初からアブスト読め

2023-08-29

anond:20230829114835

大規模言語モデル文章生成をするものであって正解を出すものではないよ

2023-08-20

anond:20230820022720

その時点で画像生成は結構良い線行きつつあったような気もするけどね。言語モデルと組み合わせたコントロールがここまでうまく行くとは思わなかったけど。

2023-08-12

必要グラボ分からん

3B~7Bの言語モデルを試しているけど、使っていて出力が心もとなく、13B、30B、65Bならもう少し良くなるか?と思って13Bを試すとVRAMが足りんよと言われる。使っているのはGeforce RTX 3070だけど、見間違いでなければ7Bまでが限度なのだろう。

一応、モデルはLLaMA2、動作環境はWindows11でtext-generation-webui、グラボは前述の通りGeforce RTX 3070、メモリは32GB、CPUは…Ryzenの中ぐらいの…

4080や4090の価格を見る。買うには懐が痛い。本当に言語モデル他あれこれを動かしたいのか?それに、13Bのものは動かせるとして、30Bや65Bのものは本当に動かせるものか?

遊んでいるゲームが楽しく快適に遊べている、それで十分でないか

2023-08-06

anond:20230806154555

トップの OpenAI 以外はみんな OSS にして OpenAI に対抗しようとしてるぞ。

OpenAIGPT を凌ぐ大規模言語モデルが出てくるとしたら、それは OSS だろう。

いまもっともその位置に近いのは Meta の Llama2 だ。

OSSからみんなが寄ってたかって高品質ものを作り上げるだろう。

Stable diffusion が OSSリリースされたら一気にどんどん改善されて画像生成 AI重要ポジションをゲットしたのと同じ流れだ。

2023-07-31

3年前に説法AI https://anond.hatelabo.jp/20200315211449# というものを考えて断念したんだが大規模言語モデルの発展により実現しそうだ。

https://www.kyoto-u.ac.jp/ja/research-news/2023-07-19-0

認知症老人の相手

死刑囚説教

安楽死の会助役

などなど

5年後が楽しみだな

2023-07-28

売上げ・検索件数等を気にするのがマシな現状を何とかして

オタクや女オタク特殊下劣感情表現文化とか

はてなブックマークブクマカ達がよりクソなブコメで爪痕を残そうとしあってる文化とか

他にも社会学者などの人達評論家としてただ過激なだけの炎上する感想言おうとする現象とか

全部今のインターネットがfav等が多い意見を優先的に表示する仕組みが加速させている面もあるわな

同じ対象に対して数百以上の意見が集まる時、それらをそのまま全部見せるなんてダサい事は今のネットはやらない

fav等を付け合うシステムを導入してfavが多い意見が優先的に表示されるようなスマートサービスばかりだ

するとfavを稼いで数百以上の意見で優先的な立場になりたい!って人も現れてクソで過激意見を言う人も現れる

このままじゃ数百以上の意見を受け取るような人達

意見の詳細を調べるよりも自分の為したことに対する売上げや検索件数の増加量等の数を気にした方がマシになってしま

他の方法となると…数百以上の意見から無作為抽出するなんて器用な事が出来る人も少ないし

そもそも無作為抽出した意見を見る事にどれだけ意味があるのかも分からん

もうAIだ!今の大規模言語モデルを用いたAI能力に頼るしかない

大量の意見が集まる時にそれを意見多様性をいい具合に残しながら現実的な量に要約してくれるサービス

はやくネット標準化されて欲しい

そしたらfav数を競う風潮も落ち着く気がする

2023-07-23

不正会計報告書からクイズを作る

Claude-2-100kっていう10トークン使える言語モデルがあるんだけど、そこに不正会計報告書を全文ぶち込んで「4択クイズを作ってください」と入れるとクイズができあがる

2023-07-20

孫さんのセカンドキャリアおもしろそう

株価ゲームやってたときより輝いてるじゃん

決算発表の記事より100倍おもしろ

この方向性で進んでほしい

「影響力のある発明家」ってこれまでいなかったしな

ガラケーになるな」 周回遅れの和製AIに孫氏が鳴らす警鐘

7/20(木) 18:44配信

日経ビジネス

生成AIの基盤となる大規模言語モデル(LLM)の開発が国内外で加速している。各社のLLMのパラメーター数と特色

 米オープンAIの「Chat(チャットGPT」など対話AI人工知能)の基盤となる大規模言語モデル(LLM)への投資国内企業もようやく本腰を入れ始めた。ただサイバーエージェントNTTNECなど多くの日本企業が足元で注力するのは、欧米大手が手掛ける汎用的な対話AIとは異なるニッチ領域だ。欧米勢に後れを取る中、日本語特定領域に特化することで活路を見いだそうとする国内勢の動きを懸念するのが、ソフトバンクグループSBG)の孫正義会長社長。かつて国内市場独自進化により世界競争力を失った「ガラパゴス携帯ガラケー)」に重ねて警鐘を鳴らす。

写真ソフトバンクグループ孫正義会長社長は、日本企業AI開発への取り組みに苦言を呈した

 「電気代を節約するとか、あんまりチマチマしたことを言っていると、あっという間に日本は取り残される」。東京大学7月4日に開催した生成AIシンポジウムに登壇した孫氏はこう懸念を口にした。さらに「日本の取り組みが『ガラケー』になってはいけないと苦言を申し上げたい」と付け加えた。

ChatGPTとかのような言語モデルを使ったサービスマイクロソフトのCopilotとか)がどんどん増えてるけど、こういうのを使ったインターネットWeb3.0と表現した方がよくないか

その方が、言語モデルの登場によってインターネットがどう変わるのかを論じやすくなる気がする。

ブロックチェーンを使ったインターネットの方は、申し訳ないけど、Web-Bとかっていう風に名称変更してほしい。

2023-07-10

AIを使いすぎている人の特徴

最近久しぶりに企画会社の人と会ったんだけど、会議中になんでもChatGPTで聞いて答えるようになってしまっていた。

まあそれ自体効率的な面もあっていいんだけど、なんかその人、どこか変わっちゃった感じがするんだよね。

人と話しているとスピード感のなさにイライラしてくるんだろう。

ひどい早口でまくしたてるのがデフォルトになってしまっていた。

もともとその人は早口ではあるんだけど、これじゃ聞き取れない人は多いだろうなと思った。

理解時間がかかるとすぐにイラッとした表情になる。

これは人によっては嫌われるよねえ。

ちなみに私は普段からYou Tubeを1.5倍で聞いているのでギリギリ理解できた。

あとAIの正確さやスピードを信頼しすぎて人を性能の悪いパソコンみたいに見下しているところが見え隠れした。

小馬鹿にしたような感じといいますか。

しかにすごいよ、大規模言語モデル

私もよく使っているもん。

でも、仕事って人間関係大事じゃない?

誰も機械みたいな人と仕事したくないじゃない?

AI使うのに特化してしまって人間性が薄れる人、これから増えるんじゃないかな。

でもそういう人からすれば、こちらは「だからお前は仕事ができないんだw」「AIうまく使えない奴はさっさと社会から脱落しろw」ということなのだろう。

でもさあ、我々人間なんだよね。これからもずっと。

AIスピードを追うのもほどほどにして、もっとお互いを許して仲良くできる世界のほうがいいんじゃないかなあと思うんだ。

実は私もAIにハマっていたんだよ。

もうずーっと使っていた。

でもあるとき友達に言われたんだよね。

増田最近言ってる言葉が強いし、やたら早口だし、AIのことばかり喋っているよ」

「私はAIじゃなくて、あなたあなたの話がしたいんだ」

「一番大事なのは人間関係だよ?」

これで目が覚めたよね。

AIは仲間になんてなってくれないし、いざというときに助けてもくれない。

AIのほうも友達になるなんて望んでないだろう。

何度も言うけど、たしかAIはすごいよ、イノベーティブだよ。

でも人間であることを忘れてはいけないと思うんだ。

ちがうかな。

2023-06-07

GoogleチャットAI Bard 無能

Bard>接続成功したら、左側のナビゲーションバーで、[レポート]をクリックします。

私>ここがわかりません。そのようなボタンは私の画面には表示されていないように思います

Bard>申し訳ありませんが、Looker Studioの画面がわかりません。画面のスクリーンショットを添付していただけますか?

プロフィール写真

私>すいません、どうやって添付すればいいのでしょうか?

Bard>添付ファイル送信するには、次の手順に従います

メールソフトを開きます

送信アドレス入力します。

件名を入力します。

本文を入力します。

ファイルの添付」をクリックします。

添付するファイル選択します。

送信」をクリックします。

添付ファイルサイズが大きい場合は、メールソフトの設定でサイズ制限を変更する必要があります。また、添付ファイルの種類によっては、メールソフトで開けない場合があります

添付ファイル送信に関するマナーは、次のとおりです。

添付ファイルサイズは、2MB以内に抑える。

添付ファイルの種類は、PDFWordExcelPowerPointなどの一般的ファイル形式にする。

添付ファイルの件名をわかりやすくする。

添付ファイル送信先は、必ず確認する。

これらのマナーを守って、添付ファイル送信しましょう。

プロフィール写真

私>いま、あなたに、画像を送るためにはどうすればいいでしょうか

Bard>申し訳ありませんが、私は画像を受け取ることができません。私はテキストのみを処理できます

プロフィール写真

私>おまえがスクリーンショット欲しいっていうたんやろが

他の回答案を表示

Bard>申し訳ありませんが、私はスクリーンショットを撮ることができません。私は言語モデルであり、スクリーンショット機能を備えた物理デバイスではありません。

FFFFFF○○○○○○○○○○○○○○○○○○○○○○○○○○○○○○○○○○○○○○○○K!!

2023-06-06

バックパッカーが燃やされている

誰かがリツイートした暴露ツイッタラーツイートが目に入ってきた。


ツイートの内容はこうだ。


彼女と二人で世界一周旅行中のバックパッカー男性が「バングラデシュ友達がたくさんできました」とツイートしたのに対して、とある女性が「その写真に写っているバングラデシュ人は君の彼女を狙っている(※暴露ツイッタラーは「目的日本人女性レイプ」と意訳して表現)」と批判し、さらにその女性意見賛同する声が多数上がっているというものだった。


これを見て、私はてっきり女性(とその賛同者)が炎上していると思った。

現地で良くしてもらった友達(およびその国全体の男性)を性犯罪者予備軍呼ばわりするのは、失礼どころの騒ぎではない。

明らかな差別であり侮辱だろう。


しかし、そうではなかった。

燃えていたのはバックパッカーの方だった。


彼は、批判してきた女性とその賛同者に対して「批判してるのは“やったことがない人”」と反論をしてしまっていた。


なるほど、見下すのは大好きだが、見下されるのは死ぬほど嫌い。そんな我々にとって、その一言はよい着火剤になるだろう。

だが着火剤が良くとも問題は燃料の方である。今回はそれほど可燃性に優れた燃料なのだろうか?


彼女やその賛同者は口々にこういう。

「バックパッキングヒッチハイクリスクがあり(性犯罪対象となる)女性同伴なら慎むべき愚行だ。」


かにバックパッキングリスクがあるというのは一般論だ。一般的旅行比較すれば、未知の土地で、しか自己判断で行動をとるため、想定外事態に直面することがよくある。痛ましい事件に巻き込まれて命を落とすことさえある。

しかし、だからといって安易に慎むべき愚行と断罪して良いものだろうか?

これが仮に自己判断ができない子供を連れてだったら炎上するのも頷けるが、同伴している女性は成人である


外務省が発表しているバングラデシュ危険レベルは1 「十分注意してください」(一部地域を除く)

ちなみに同じレベル1では インドネパールインドネシア・カンボジアフィリピン(同じく一部地位を除く)などの国があがる。

(本件で「イラク日本人人質事件」を例に挙げる人がいるが、イラク危険レベル4 退避勧告がされている。レベル1のバングラデシュを同列で語るのは流石に乱暴と言わざるを得ないだろう。)


もちろんバングラデシュ安全とは言わない。その治安先進国比較すれば雲泥の差だ。殺人発生率も日本の10倍ほどある。

それでも危険レベル1のエリア渡航合法的な行いでリスクを負う分には、自己責任の範疇に入るのではないだろうか?また部外者が「彼はリスク理解していない」「文化理解していない」と少ない情報から決めるのは如何なものか?と問いを皆に投げかけて本投稿は終了したい。


余談ではあるが、いま話題のChat-GPTに両者のツイートの原文を入力して「バックパッカーAさんと批判してきたBさん。どちらが炎上したと思うか?」を問うたところ以下の様な回答が得られた。


『このケースでは、Bさんが炎上している可能性が高いです。その理由は以下の通りです。

ステレオタイプ偏見:Bさんのコメントは、バングラデシュとその他の南アジア男性全体を一律に決めつける偏見ステレオタイプを広めています。これは、特定人種国籍宗教、または社会的グループ全体を一概に評価することは公平ではなく、誤解を招きやすいため、問題となります

文化的な無知と誤解:Bさんのコメントは、バングラデシュ南アジア文化宗教社会構造についての誤解と無知を示しています。例えば、彼女の主張は、特定南アジア宗教文化女性を物として見るという偏見を広めています。これは無知見方であり、炎上の元となります

恐怖の拡大:Bさんの投稿は、バングラデシュ南アジアを訪れる女性たちに無用な恐怖を植えつけます。これは不適切情報拡散であり、特定地域を訪れることに対する恐怖心を煽るため、炎上する可能性があります

以上の理由から、Bさんのコメント炎上している可能性が高いと考えます。』


一方Google Bardは『私は大規模言語モデルとしてまだ学習中です。そちらについては、理解して対応できる機能がないため、すみませんがお手伝いできません。』と答えた。


結論Google頑張れ!

2023-06-04

[]2023年5月滅多にホットエントリを出さなドメインからホットエントリ

ここ1年で初めてはてなブックマーク日毎の総合人気エントリ入りしたドメインからホットエントリブクマ数順トップ30

ブクマタイトルドメイン
1904世界史」の世界史学術俯瞰講義ocw.u-tokyo.ac.jp
1542今のこの状況が信じられるかいby ラーズ・ヌーバーwww.theplayerstribune.com
1212エリックサウス直伝! 本格『チキンビリヤニ』のレシピレンジで作れる】www.orangepage.net
938【第1話】履歴書 - 脳外科医 竹田くんdr-takeda.hatenablog.com
938お金のことはできるだけ考えたくない派」の私が始めた、資産運用投資の話 | イーデスwww.a-tm.co.jp
911勉強法勉強会」、エンジニア勉強ノウハウをいくつも知られる"神"勉強会でした(みんなアーカイブぜひ見て!) #YUMEMIxTORALAB - nikkie-ftnextの日記nikkie-ftnext.hatenablog.com
905Evernoteから卒業とその受け皿についてhacks.beck1240.com
879SQLの実行計画の読み方 |a5m2.mmatsubara.com
686レイオフ(退職勧奨)された話takecian.github.io
678埼玉県南部外国人住民トラブル深刻化withenergy.jp
658クレジットカード新規登録および利用の停止について - PayPayからのお知らせpaypay.ne.jp
658G7首脳による平和記念資料館訪問(記帳内容)www.mofa.go.jp
624はい美術タイトルです vol.3 | フジテレビジュツのヒミツ - フジテレビwww.fujitv.co.jp
618CSS Stock|Webデザインを楽にするCSSコピペサイトpote-chil.com
569日本労働生産性はなぜ低いのか(おかわり) - hidekatsu-izuno 日々の記録hidekatsu-izuno.hatenablog.com
568生成系人工知能(生成AI)についての学長からメッセージ武蔵野美術大学www.musabi.ac.jp
556岸田内閣子供のいる年収850万円以上の富裕世帯に対して扶養控除廃止で実質増税へ | News Everydaynewseveryday.jp
539大槻ケンヂ「今のことしか書かないで」(第2回)50を過ぎたらバンドアイドルlp.p.pia.jp
532脳外科医 竹田くんdr-takeda.hatenablog.com
528解熱鎮痛剤の「ロキソニン」と「カロナール」って何が違うの? 救急集中治療医がイラスト解説woman.mynavi.jp
514櫻井翔ジャニーズ性加害問題ノーコメント 『news zero』番組側の判断 | RBB TODAYwww.rbbtoday.com
506【Stable Diffusion】MeinaHentaiの利用方法self-development.info
495忙しい中でも「質の良い睡眠」を目指すには? 『スタンフォード式 最高の睡眠』著者の西野精治教授に聞いた - lala a live(ララアライブ)│フォーネスライフfoneslife.com
490新型コロナ・季節性インフルエンザ リアルタイム流行疫学情報moderna-epi-report.jp
45616年勤めたGoogleを退職しましたblog.jumpingknee.com
454ControlNet(v1.1)の詳しい解説輪郭ポーズから思い通りの絵を書かせる【Stable Diffusion】 | 謎の技術研究www.ultra-noob.com
448サイバーエージェント、最大68億パラメータ日本語LLM(大規模言語モデル)を一般公開オープンデータ学習した商用利用可能モデル提供www.cyberagent.co.jp
443タダ電 - 毎月電気代が10,000円タダになる電力会社tadaden.jp
432news zero』に海外アーティストが怒りの抗議 批判受けた落合陽一氏は釈明 | リアルライブnpn.co.jp
420画像あり】爆乳JK菊池姫奈(18歳)「学校男子視線が嫌だった。告白されても絶対乳目当てだろって思ってしまう」 : 暇人\(^o^)/速報himasoku.com

2023-05-20

anond:20230520024713

私はAI言語モデルですので、個人的意見は持ちませんが、このトピックに関する情報提供することはできますロシアウクライナの間の紛争は複雑で非常に論争のある問題です。政治的歴史的領土的な要素が絡み合っており、この問題に対する見解は異なることがあります

2023-05-19

コンピューターの性能向上が微妙になってきてからAI流行っちゃったな

先端プロセスはかろうじて微細化進んでいるけれど、装置高いわ、維持費も高いわ、

積層もRyzenが積層してもイマイチ性能上がってないし。


大規模言語モデルだと数十GBで1ファイルモデルGPUのVRAMに展開してとか、

メモリ仮想化とかなんだったんだってなってる。

チップチップ通信の速度も、今以上上がるんかとか。


電力もコンセント許容範囲超えそうやし

2023-05-18

anond:20230518185507

言語モデル(GPT)にチャット形式アクセスできるようにしたものがChatGPTなので、そこだけカタカナでもまあ変ではないしね

2023-05-17

anond:20230517182717

1と3は誤った前提に基づいているな。

1.について、国家奨励するということは出産による教育機会等に対する負の影響を減らす話とセットだ。妊娠=退学=中卒という現在常識を前提とした言語モデルの推論は前提が間違ってる。

3.のカネの話は高校生同士のカップルを暗黙の前提に置いているが、結婚出産を前提にするなら、現在母親無職=専業主婦家庭と同じく、夫は社会人だろう。

そうは言っても2.判断能力に乏しい子供邪悪大人に食い物にされるリスクがあるので、母子養育費請求など、ヤリ逃げを許さない仕組みづくりは必要だし、4.推奨が強制でないことは当然の前提だ。

2023-05-11

anond:20230511202057

AIの生成結果を基に学習させることを「蒸留」というんだ。

ChatGPTの返答を元に言語モデルを作るようなことも普通に行われているし、

Midjourneyの生成結果を学習させてMidjourney風の画像を生成する蒸留モデルもすでに存在している。

もう少し勉強しような

anond:20230510225646

まず、今までの時点で日本AIトップは取れてなかったし、トップに肩を並べることもなかった。

でも今は ChatGPT 相当の関連技術がかなりの勢いでオープンソースになっていて、Google もこの勢いだと最後に勝つのGoogle でもなく Open AI でもなく、オープンソースだと言っている。

https://gigazine.net/news/20230508-google-document-llm-arms-race/

まり逆に言えば、今からがんばればオープンソースの LLM(大規模言語モデル。ChatGPT みたいなやつの一般名称な。)にキャッチアップして、世界トップレベル技術を手に入れられる。

技術他者に勝ちはしないけど、少なくとも世界トップと同等レベルになれる。

あとはそのオープンソースの中でどうやって優劣が決まるかと言うと、国の規制オープンソースビジネス活用(タダで利用するだけでなく、自分達で開発コードをどんどん公開していくことで、世界トレンド自分達に有利な方に変える影響力を持てるかが重要)をどれだけ理解してるか、で決まる。

から、今は日本にとって大きなチャンスだし、同時に、少なくとも他国出遅れはいけないんだよ。

あと、これからは国力として AI重要になってくる。

ChatGPT みたいな知能を大量に使えるなら、ケンブリッジアナティ問題のような人々の投票行動を変える行為がより簡単になってくる。

国防観点でも AI重要なので、なおさらこのチャンスを見逃すわけにはいかない。

2023-05-06

anond:20230506120425

間違いやら何やらいっぱい入ってて改善しないといけないところは無数にあるけど、普通にそこらの学生よりまともな作文をしてくるGPTに俺は衝撃を受けたし、多少の改善はまだ必要とはいえあれで仕事を肩代わりされてしまう人はそこそこいるだろうと思う まぁ実用に落とし込めるかどうかは別の話だけど

研究レベル革新的かと言われるとそりゃまだChatGPTから直接的に革新的ものは出てこないだろうな

単なる言語モデル走らせてるだけなんだし現状で人類の知らない新しい何かを生成できるかって言うとできないけど、GPTの改良の先にそこそこ革新的もの普通に出力される未来が見えるのが凄いんだよ 今まではそんなことできるとさえ思わなかったしな 人間の応答が単純な言語モデルだけで模倣できることが分かってきてしまって、結局人間の知性なんて大したことじゃなかったと判明した手前、人間の閃きは言語モデルの中にあるのか先にあるのかは今のところ誰にも分からん 俺はまだしばらく人間特権であってほしいけど明日かに急に何かできましたとか出てくるかもしれんしな

例に上がってるUMAPだって主成分分析しかなかったところに一足飛びに出てきたわけじゃないし、実際にはその途中で多様体学習の長い歴史がある 革新と思ってるなら単に間の歴史を知らんだけだよ

キャッチーなこと書いてるからミスリーディングだけど単に既存法のチューニング変えただけで、研究者なら多かれ少なかれ現場でやってたチューニングを仰々しく書き直して実装ちゃんとやったってだけだし、革新と思ってるものも実際にはそういう歴史と膨大な試行の上に地続きになってる そういう意味でChatGPTはゴールじゃなくて筋の良い試行第一

現状のGPTでできないことは無数にあるけど、例えば入力方式が違うとかそんな瑣末な問題なら俺みたいな末端でさえ改善策が無数に思いつくようなレベルだし、今何ができないとか議論しても意味ないんだよな 数週間ごとか数日後、もしくは数時間後に修正かかって何かを組み合わせると科学論文が大量生産されるとかもできるようになるかもしれないんだから

2023-05-02

AIクイズ番組を作って楽しく学ぶ

何かを学ぶにおいて、クイズ形式楽しい

単に教科書を読むだけより問いかけられたほうが脳が考えようとするし能動的に学習できる。

ならばAIクイズ番組を作ればいいのではないか

プロンプト:「ChatGPTの仕組み」の包括的理解が得られる文章を、クイズ番組の司会風に書いてください。クイズは5問ほど出題してください。それぞれの問題の後に答えと解説を発表してください。

出力:

皆さんこんにちは今日特別クイズ番組にようこそ!私たちあなたに、OpenAIが開発した驚くべき技術、ChatGPTの仕組みについての包括的理解を得るためのクイズを出題します。さあ、問題を出題していきましょう!

問題1: ChatGPTの基本となるAIアーキテクチャは何でしょうか?

答え: GPT-4

解説: ChatGPTは、OpenAIが開発したGPT-4(Generative Pre-trained Transformer 4)というアーキテクチャを基盤としていますGPT-4は、自然言語処理タスクに優れた性能を発揮することで知られています

問題2: GPT-4はどのような学習手法で訓練されていますか?

答え: 事前学習(pre-training)と事後学習fine-tuning

解説: GPT-4は、2段階の学習プロセスで訓練されています最初の段階は事前学習で、大量のテキストデータから言語モデル学習します。次の段階は事後学習で、特定タスクに適した性能を発揮するようにモデルを微調整します。

問題3: ChatGPTが生成するテキスト品質を向上させるために用いられる技術は何でしょうか?

答え: ビームサーチ(Beam Search)

解説: ビームサーチは、生成されるテキスト品質を向上させるために用いられる探索アルゴリズムです。複数候補を同時に生成し、最も尤もらしい文を選択することで、より自然で正確なテキストを生成することが可能になります

問題4: GPT-4が生成するテキストにおいて、長い文章を生成する際に問題となる要因は何でしょうか?

答え: 文脈の長さ(Context Length)

解説: GPT-4は、一度に扱える文脈の長さに制約があります。この制約により、長い文章を生成する際に、以前の文脈が失われることがあり、それが結果として文章一貫性理解度に影響を与えることがあります

問題5: ChatGPTが生成する回答が間違った情報を含む可能性がある理由は何でしょうか?

答え: 学習データに含まれる誤った情報モデルの生成性能の限界

解説: ChatGPTが間違った情報を含む回答を生成する理由は主に2つあります。まず、学習データに含まれる誤った情報が原因となることがあります学習データ不正であると、モデルもそれを学習し、間違った回答を生成することがあります。また、GPT-4は生成モデルであるため、正確な情報学習データに含まれていても、生成時に限界があり、正確性が犠牲になることがあります

以上、5問のクイズでした!皆さんはChatGPTの仕組みについての理解を深めることができましたか?今回のクイズで学んだ知識をぜひ活用して、この驚くべき技術とその可能性についてさらに学んでいってくださいね!それでは、また次回のクイズでお会いしましょう!

包括的理解が得られるかは微妙だが、結構楽しい感じになったように思う。

AI教育にどんどん生かしていくことが待ち望まれる。

メモ

https://arxiv.org/pdf/2305.00833.pdf

Learning to Reason and Memorize with Self-Notes

大規模な言語モデルは、限られたコンテキスト メモリと多段階の推論に苦労することが示されています

モデル自己メモを取ることを可能にすることにより、これらの問題の両方を解決するための簡単方法提案します。

->セルフメモってなんだ?

最近スクラッチパッド アプローチとは異なり、モデルはいつでも入力コンテキストから逸脱して明示的に考えることができます

これにより、モデルコンテキストを読み取りながら情報を想起し、オンザフライで推論を実行できるため、メモリ拡張され、複数ステップの推論が可能になります

複数タスクに関する私たち実験は、推論時に自己メモを取ることにより、トレーニング設定からより長く複雑なインスタンス私たち方法がうまく一般化できることを示しています.

1. イントロダクション

Transformers (Vaswani et al., 2017) および同様のバリアントは、シーケンスベースタスクで印象的な結果を示しています

特にGPT-3 (Brown et al., 2020) などの大規模な言語モデル (LM) はトランスフォーマー使用し、質問応答 (QA) などのさまざまな NLP タスク解決できます

LM を QA タスク使用すると、図 1 (上) に示すように、事実情報質問を含むコンテキスト プロンプトが与えられ、モデルが直接回答を生成します。 ただし、この自己回帰の「ワンステップ」アプローチは、複数ステップの推論タスクと格闘します (Austin et al., 2021; Press et al., 2022a; Creswell et al., 2023)。 これは、バニラ LM が各トークンに対して固定された計算を行い、現在コンテキストに応じてさらに「考える」オプションがないという事実から生じると主張します。 (2021) 図 1 (中央) に示すように、モデル質問に答える前に推論トークンを生成できるようにするスクラッチパッドの使用提案しましたが、完全なコンテキスト質問を読み取った後です。 同様に、一連の思考を促す方法 (Wei et al., 2022; Zelikman*Equal Contributor 1Meta AI. への対応: JackLanchantin <jacklanchantin@meta.com>, Sainbayar Sukhbaatar<sainbar@meta.com>.et al., 2022; Huang et al., 2022) は、モデルをプッシュして、一度に 1 ステップずつ答えを説明し、より首尾一貫した最終的な答えに導きます非線形タスク (Fan et al., 2020)、LSTM (Hochreiter and Schmidhuber, 1997) などの再帰型先行モデルが十分に備えられているもの。 Fan et al., 2020; Ju et al., 2022; Hutchins et al., 2022)、しかし、それでも与えられたプロンプトに対して一定量計算使用します。 推論と状態追跡メモリがより扱いやすくなります私たち方法である「Self-Notes」により、LM はオンザフライコンテキスト プロンプトから逸脱し、明示的な推論トークンを生成できます。 図 1 (下) に示すように、スクラッチパッドとは異なり、モデルは生成されたトークン入力コンテキストインターリーブできます。 このようなセルフ ノートは、明示的な中間推論ステップ状態追跡用のメモリの両方として機能します。 具体的には、推論ステップで 2 つの事実を組み合わせる必要がある場合、結果として得られる推論をセルフ ノートに書き込んで、将来の推論に使用することができます。したがって、中間推論ステップとして機能します。 たとえば、「アリスは箱を持っています」と「アリス公園にいます」が与えられた場合、「箱は公園にある」と推測してそれを自己メモに書き、将来のステートメント「鍵は in the box」で「鍵は公園にある」と結論付ける。 さらに、コンテキストトラバースしながらモデルエンティティの最新の状態を新しいトークンとして書き込むことができるため、SelfNoteワーキング メモリ形式として機能できます。 たとえば、プログラミング環境では、最初に x=5 を想定し、次に x を 1 ずつ増やします。モデルが x=6 をセルフ ノートとして正しく記述していると仮定すると、元の x=5 ステートメントをそのコンテキストから安全に削除できますモデルが x の値について問い合わせられた場合モデルは既に答えを持っています

私たち提案した方法と、スクラッチパッド (Nye et al., 2021)、思考連鎖 (Wei et al., 2022)、または内部独白 (Huang et al., 2022) などの以前の研究との主な違いは、モデル許可することです。 各コンテキストステートメントを順番に読み取るときに、複数メモを明示的に書き出す。 InarXiv:2305.00833v1 [cs.LG] 2023 年 5 月 1 日図 1: (上) ベースライン バニラ LM は、コンテキスト (C) と質問 (Q) が与えられると、回答 (A) を直接生成します。 (中央)スクラッチパッドを使用すると、モデル質問に答える前に中間推論トークンを生成できますが、コンテキストが表示された後です。 (下) 私たちの Self-Notes メソッドにより、モデルはいつでも推論してメモを取るために入力コンテキストから逸脱することができます。言い換えれば、私たちアプローチは、将来の推論に役立つ可能性のある情報コンテキストを補強するスクラッチパッドのインライン形式です。 私たちはこれを、人間が読む方法と同様に、明示的に述べられていない情報を推測するための行間の読み取り (および書き込み) の形式と見なします (van den Broek et al., 2009)。 以前の方法では、モデルが完全なコンテキストを読み取った後に反芻することができ、読み取っている間ではなく、最後に大量の推論を行うように強制されます

さらに、そのようなポストコンテキスト推論は、推論が開始される前に以前のコンテキストトークンモデルコンテキストウィンドウからすでに出ている可能性があるため、メモリとして機能できません。 たとえば、数週間または数か月の対話履歴を持つインテリジェント エージェントを考えてみましょう。 直観的には、最初から考え直すことなく、以前の対話で行った推論ステップ使用できることは理にかなっています自己メモを生成するようにモデルに教えるために、トレーニング中に、入力の一部としてグラウンド トゥルー自己メモ言語モデル提供することを検討します。 コンテクスト。 推論中に、トレーニング中に学習した特別トークンを生成する場合モデルコンテキストから逸脱し、SelfNote を生成できますモデルが Self-Note の生成を完了すると、元のコンテキスト トークンが引き続き供給されます。 これにより、モデル最後だけでなく、入力トークンの処理中にメモリを推論および作成できます。 また、Self-Notes をトレーニングするための半教師ありおよび教師なしの方法提案します。多段階の推論と状態追跡を評価するように設計された 5 つのテキスト データセットでこの方法テストします。 , 2020; Anil et al., 2022)、および 2 つの現実世界チェス ゲーム タスク (Toshniwal et al., 2022)。 私たち方法は、明示的なメモ取りを行わない微調整された言語モデルスクラッチパッドのベースラインの両方よりも優れています.2. 方法シーケンス内の次のトークン予測する自己回帰変換モデル M を考えてみましょう

ログイン ユーザー登録
ようこそ ゲスト さん