「Gpt」を含む日記 RSS

はてなキーワード: Gptとは

2024-09-22

anond:20240922132652

特に必要に迫られていないが教養として何かを学びたいみたいな話なら、これまで通りダラダラ勉強して、年をとって気力がなくなったから徐々にフェードアウトする、でいいんじゃないですか?

わざわざ無理して勉強する必要もないわけだしそもそもなんのために勉強してるのかが分からない・・・

から動機というより誰かに褒めてほしくて勉強してるように見えるので、すごいすごいと言ってくれる人を周りにたくさん配置したらやる気が出るかもしれないですね

とはいえ、なんかいろいろ知っててすごいねってなるのは30歳が限度ではという気はします。

今だといろんな分野に浅い知識を持っている人間GPT代用できるわけだし、市場価値さらに落ちている

anond:20240921235501

ワイ地方公務員感触だと法解釈とか高度な処理以外の定型処理は既にGPTに任せられる。

問題は、扱ってるデータの大半がセキュリティ関係で外に出せない点。

オンプレGPT級の性能が出る近未来に期待している。

2024-09-21

企業版のチャットGPT使いこなしてる人いる?

大きめの会社で社内用にチューニングされたチャットGPT従業員一人ひとりが使用できるような環境にしている企業をよく見る。

自分はせいぜい検索エンジン上位互換くらいにしか使えないんだけど、活用してる人は何に使ってるの?

教えてくださいな。

2024-09-19

プロンプトエンジニア」と「古典的プログラマー」の違いってなんだ?

プログラマーも結局は「読み方も分からない0と1の羅列に変えてくれるコンパイル機能を持った高級言語」を使ってるだけだろ?

お前の普段向き合ってる文字の羅列は、結局はお前にとってのブラックボックスに送られ、そしてお前はそれが最終的にどうやって動作しているのかを分かってない。

パンチカード時代パソコンはクソデケー電気仕掛けのそろばんだった。

電卓」ではない。

何故ならあれを置ける卓はないから。

嘘だと言うなら科博にでも行ってこい。

それでもなお「でもよお、俺はイギリスアーサー王が使ってたという100人用の円卓を見たが、アレぐらいなら乗るぜ?」と返すならもう俺は何も言わない。

電卓の化け物だった頃のパソコン相手原始時代言語で「ウホウホ!1+110!俺!0を発見!(BGMレクイエム』より、第2楽章キリエ」)」してた頃は、パソコンブラックボックスではなかった。

だが、その時代はとうに過ぎ去った。

その昔はパンチカード目視で読める人間バーコードリーダーみたいなことをしてる奴らもいたが、今はもう宴会芸にしかならない。

プログラミングとは高級言語を用いてやるものであり、コンパイルしたあとの機械語とは「人間が目で読むことを想定していない精霊界の言語」だ。

プロンプトエンジニアリング」はよく呪霊操術や精霊魔術にたとえられる。

よく分からんけど召喚獣魔法を使わせ、召喚獣がどうやって魔法を打ってるのかは知らないという世界だ。

だが待ってほしい。

それと対比して語られる「古典的プログミング」も結局は「途中の過程はよく分からんけど最終的に機械がなんとかする」で同じではないのか?

ニューラルネットワーク構成する離散的なモザイクと、コンパイルされた機械語解読不能な01の羅列、それらにどれほどの違いがあるんだ?

どう違うんだ。

教えてくれ。

GPTは俺に架空書籍名前しか教えてくれない。

2024-09-18

anond:20240918154740

claudeに聞いてみたらこうだった。マジでGPTで出したのかも。

----------------------------------------------------------------

この文章を書いた人物分析を以下に示します:

  

1.経験自己認識:

恋愛経験が少なく、学生時代に十分な恋愛経験を積めなかったことを後悔している。

自身を「弱者男性」と認識し、社会的スキル恋愛スキルの不足を強く自覚している。

  

2.価値観と信念:

恋愛は段階的に学ぶべきものであり、学生時代経験を積むことが重要だと考えている。

社会人になってから恋愛は難しいという固定観念を持っている。

  

3.心理状態:

自己肯定感が低く、自信がない様子が見られる。

過去の失敗経験から、異性との関わりに対して恐れや不安を抱いている。

  

4.社会性:

異性とのコミュニケーションに苦手意識があり、積極的に関わろうとしない。

社会的スキルや会話力の不足を自覚している。

  

5.知識理解:

恋愛人間関係について、理論的な理解はあるが、実践経験が不足している。

社会規範や適切な行動について、後になって学んだ様子が見られる。

  

6.自己防衛機制:

恋愛や異性との関係を避けることで、失敗や傷つくリスク回避しようとしている。

自身経験不足を理由に、新しい挑戦を躊躇している。

  

7.世界観:

恋愛人間関係について、やや悲観的で固定的な見方をしている。

社会の厳しさや他人の目を強く意識している。

  

8.表現スタイル:

自己分析的で内省的な文章スタイルを持っている。

個人的経験一般化して論じる傾向がある。

  

結論:

この人物は、過去経験不足から生じた自信のなさと社会的スキルの不足に悩んでおり、それが現在人間関係恋愛に対する消極的な態度につながっています自己改善意識はあるものの、新しい挑戦に踏み出す勇気が不足している様子が伺えます

2024-09-15

Xの議論ってチャットGPTで全部事足りるんじゃないか

いつも同じ結論だしバズったポストコピペして「これの是非を解説してください」みたいなの打ち込めばもう正解の議論出るんじゃね?

2024-09-14

anond:20240914092549

OpenAIのせいで γーGPT ちゅう誤字が世の中に増えた。γ-GTP だってば。

気づく奴も少ない。馬鹿ばっか。

35になった途端に健康がギュイイイイイイィィィィィィィィズババババアbヴァババアアアって曲がり角を滑り落ちた

ビビルわ。

それまでは「健康であることは人生の前提であり、つまり自動的に用意されるもの」って感じだったん。

でも突然に「健康でいることは良い人生の前提であり、つまり自力で頑張って用意しなければいけないもの」になった感じ。

当たり前にあるものとして皆が生きているものが、ある日突然努力して必死に手に入れないといけないものになった感じ?

たとえば災害映画とかで「水が普通に使えないと、人間は水を手に入れるためだけに一日の大部分を使うようになる」みたいな話するやん?

そういう感じで「健康」っていうものが当たり前に蛇口ひねれば出てくる世界から、谷を二つ超えた先の川から毎日汲みに行かないといけなくなった、みたいな?

マジでヤバイね。

人生が変わる。

健康自動的に用意されている前提で暮らしていた人生にはもう戻れない。

これからは頑張って健康を手に入れるための人生になる。

うんちゃらかんちゃら35歳定年説みたいなのってこういうことなんやな。

20代で家を建てた外資系が30代で墓を建てるってつまりはこういうことや。

今までみたいな残業飲み会の仕方してたら死ぬんや。

マジで凄いな。

去年まで自分とは無関係だったはずのがγーGPTとかああいうのが急に「おっとと、沈黙の臓器である肝臓くんだけど、実はもう限界だったか休みたいぜ」みたいな事を急に言うのな。

お前さ~~~~もうちょっと早く色々やってくれるとかあるやん?

通風発症して関節ボーン!とかあれれなんか起きれないー?とかある日貧血バターン!とかそういう段階が。

突然「すみませんうつ病になったのでもう会社にコレません」って居なくなる同僚とか、笑顔お疲れ様言ってたはずの人が翌週電車に飛び込むとか、そういうスピード感さないでくれる?

まあね、まあね、まだギリギリ元気だからいかもだけどね。

ゆーて身内やん?

身体の内と書いて、正真正銘に身の内やん?

なんでもっと早く言わないん?

あーでもなんか飲み会の次の日とかエナドリ2本決めたあととか、ちょっと手足プルプルしてたけど、あれぐらい学生時代はすぐ治ったからと思って油断してたのがよくなかったね。

そうね、僕のコミュニケーション不足ね。

あーマジでビビルわ。

本当にあれだね「ゲームが変わる」だね。

ゲームチェンジャーよ。

クソゲーになったね。

人生クエストがまたルール変更したね。

学生時代編もクソやったし、社会人編もクソやったけど、ここに来て身体ボロボロ編で更にクソゲーしんどいね。

シリーズディレクターが「マゾゲー路線推し進めちゃぅぅぅぅ???そういうハードなのって玄人好みで格好良くない?」とか勘違いしてるん。

ゆーてそれやってるの「神」って名前の人らしいんやけど、コイツ「はー今日は土曜だから半日で終わらせるはずだったのになー」とかハナクソほじりつつ人間作ったんちゃうん?

ほんま酷いな。

何やコレ。

子供作り終わった年齢になったら自動的に壊れるプログラミングか?

スパイビデオレター

マジでなんなん、突然急に壊れたんですけどー!

2024-09-10

LLMをガッツリ調べて使っている人だけが分かること

プロンプトエンジニアリングなんて全く必要ない

プロンプトエンジニアリングってのは1回の回答で正解を得ようとする手法

例えばサッカー戦略を考えて貰おうとしたとき

あなたサッカーチームのコンサルタントです。

 最近サッカートレンドに詳しく適切なアドバイスができます

 このチームにはFWに優秀な選手がいて〜〜〜」

みたいなプロンプトを書いて良い感じの答えを貰おうとしている

こういう使い方をする人はGPT-4oでトークン量が増えたときプロンプトに大量にテキストを貼り付けて質問してる

過去試合データとか全部載せたりしてる

残念ながらLLMでそういう使い方をしても精度は一切上がらない

なぜなら1回の回答で正解は出ないからだ

ChatGPTの正しい使い方としては、いきなり

「来週に攻撃力が強いチームとサッカー試合があるんだけどどうすればいいかな」

って聞けばいい

そうするとなんか適当な答えが返ってくるから

「でも向こうのFW武田って奴がこぼれ球狙ってくるんだよね」

ハイプレスを続けると体力的に厳しくない?」

とか追加の情報質問提示すればいいし、散々会話した後で

「分かった。明日トレーニングメニューも考えて」

みたいなこともできる

会話の往復を続けることで自分の本当の要望を伝えられるだけでなく、自分の中で本当の課題要望を整理することができる

で、こういう感じで会話を長く続けるにはトークン量が必要になる

次の会話を作るためにはそれまでの会話を全部プロンプトとして投入しなければならなくて、トークン消費量雪だるま式に増える

GPT-4oでトークンが増えたことで、会話量を増やしたり前のスレッドの続きで質問したりできるようになったのが一番の違い

あと、GPT-4oと会話していて「最初に言ったことが無視されてるな」と思うことはあっても「今言ったことが無視されてるな」と思ったことはない

なのでプロンプトの後半を見ていないというのは全くの嘘だしLLMの特性でもなんでもない

最初に言ったことが無視されているような時でも

最初に言った武田って奴はマジで要注意だから忘れないで」

って言えばちゃんと加味して回答してくれる

LLMも所詮プログラムなのでメモリ量(アテンション)に限界があるから、どれに注意を払って回答してもらうかは質問する側がコントロールしないとダメ

まぁその辺も4oはかなり優秀なので意識することは少なくなったけど全く意識しなくて良いわけじゃないな

anond:20240910180843

現状では詳しそうに見せかけたサイトでさえ、きちんとChatGPTGPTの書き分けが出来ているところは少ないので初学者勘違いしてしまうのも無理はないと思う。

正確に記せば、Web版のChatGPT-4o は、GPT-4oモデルデモンストレーションサイトであり、AIのフルスペック体験できるサービスではない。APIでのToken上限は128Kあるが、デモンストレーションサイトではせいぜい32K程度しかないため、128Kを想定したコンテクストの大部分が消失してしまうのは当然と言える。これは意図的情報隠蔽しているOpenAIも悪い。

anond:20240910092816

主が曖昧な書き方をしているせいで、リプが混乱している。ほとんどの反応はWebバージョンのChatGPT-4oとGPT-4oの最大トークン数の違いさえ理解していないと思われる。Webバージョンの話ならOpenAIの拡張を待つか、大人しくナレッジデータを使うしかない。

もしAPIRAG実装できる開発者なら、embeddingの概念が出てこないとおかしい気もするし、追加データソースが膨大であるなら精査の段階であるとも言える(本を読み込ませて……とか書いてるからたぶん違うとは思うが)。

結論を言うと、LLMを使いこなしていると思っているのは勘違いで、LLMの能力の制約にはまだまだ達していないので安心して欲しい。

anond:20240910092816

まぁガッツリ使ったわけじゃないけどさー

GPT-4oやらClaude3やらでプログラムコード書いてもらうのやってみたらさー、あいつらFORTAN77で書けつーてるのに、どうみてもFORTRAN95かそれより新しい言語仕様しか動かないコードをしれ〜っと出してくるんだよなー 全然信用ならねぇww

事実上FORTRAN77とか需要ないのは重々承知だけどさーw

anond:20240910092816

GPT-builder の knowledge-dataとして参照させてください。全体を一括処理するような場合を除けば 10万token あったとしても問題ないはず。API公式サービスに対抗するのは大変なのでゴニョゴニョした方が楽かもしれないですね。

anond:20240910092816

以前より長文理解ではChatGPTが明確に弱いって言われてるし、GPT-4oでも改善されていないことを知っている。特に後半部分でかなりの部分を理解していない。

長文を処理する用途では個人的にはgeminiやclaude使ってるし、みんなそうだと思う。

Claude3 Opusが出た時はやっと長文処理ができるようになったとみんな思ったと思う。その後に出たGemini proやSonet 3.5なども長文理解が得意だけど、OpenAIは未だに弱いなあと思う。

同様のつぶやきしてる人も多いし、LLM使いこなしてる人の共通理解だと思ってた。

 

問題視している人を見ないってことは、おそらく情報収集先や見ている世界が違うんだろうあな。

anond:20240910092816

これ実際そうで大量のコンテキスト入力すると後半のことは結構無視される。

他のLLMもそう。人間も大量に何か言われたら最初のことしか覚えてないのに似てる。

コンテキストウインドウを大きくすりゃいいものってものでもないため、やっぱりGPT-4の方がある程度正確性求める役立つ。

anond:20240910092816

これ実際そうで大量のコンテキスト入力すると後半のことは結構無視される。

他のLLMもそう。人間も大量に何か言われたら最初のことしか覚えてないのに似てる。

コンテキストウインドウを大きくすりゃいいものってものでもないため、やっぱりGPT-4の方がある程度正確性求める役立つ。

anond:20240910092816

この文にはいくつかの誤解や不正確な記述があります。それらを順に指摘します。

1. **GPT-4の入力コンテキストに関する誤解**:

文中で「128Kトークンという巨大な入力コンテキストウィンドウを持っていることになっているが、これは殆ど嘘、ごまかしであり」と述べられていますが、これは事実ではありません。GPT-4の大規模な入力コンテキストは実際に存在し、正確に動作していますGPTモデル入力コンテキスト全体を考慮に入れながら応答を生成します。ただし、文脈が長くなりすぎると、特定の部分への依存度が減少し、より一般的情報に基づく応答が生成されることがあるため、入力全体を「無視」しているように見えることはありますが、これは嘘やごまかしではありません。

2. **「後半が無視される」ことについての誤解**:

文中で「後半については殆ど無視される」と述べていますが、これは完全に正しくはありません。長いテキストを処理する場合GPTは確かに最初の部分に強く依存する傾向があることがありますが、後半を完全に無視するわけではありません。モデル動作は、入力されたすべてのトークン考慮に入れるように設計されていますが、長い文脈の中では情報重要度が異なる形で処理されることがあります

3. **「出力を高速化するために適当に回答している」という指摘の誤り**:

GPT-4は、入力の一部だけを読んで適当に回答していると指摘されていますが、これは技術的に誤りです。生成AIモデルは、出力を高速化するために意図的に一部だけを無視するような動作しません。出力は、全体の文脈を基に応答を生成します。出力の品質や関連性はトークンの数やトレーニングデータによって影響されますが、これは「適当に回答する」とは異なります

4. **「問題視している人がほとんどいない」という主張**:

この主張も誤解を招く表現です。大規模言語モデルコンテキスト制限や性能に関する議論は活発に行われており、ユーザー研究者はその制約を認識し、さまざまな解決策や改善策を模索していますモデルの制約に飽きたために「誰も使っていない」というのは主観的意見であり、実際には多くの人々が日々活用しています

5. **「RAGをがんばる」という表現曖昧さ**:

RAG(Retrieval-Augmented Generation)は、外部の知識ベースから情報を引き出して生成に役立てる技術ですが、この文脈で「がんばる」と述べるのは具体性に欠けます。実際にどのように取り組むべきかについて、もう少し具体的な説明があると適切です。

全体として、この文はGPT-4の性能や動作に関していくつかの誤解が含まれており、技術的に誤った結論に導いている部分があります

LLMをガッツリ使いこなしている人だけが知っていること

GPT-4oの入力コンテキスト殆ど嘘だということ。

例えば、DRMクラックした本とかを読ませて「なんて書いてある?」みたいなことを聞いてみると分かるのだが、後半については殆ど無視される。128Kトークンという巨大な入力コンテキストウィンドウを持っていることになっているが、これは殆ど嘘、ごまかしであり、出力を高速化するために「渡されたものの前のほうだけ読んで適当に回答する」ということをやってくる。でもこれについて問題視している人をほとんど見たことがないので、とっくにみんな生成AIには飽きていて使ってないんだと思う。

現実的対策としては、RAGをがんばるか、あるいはテキストを分割して適切なサイズにしてから渡していって最後にその結果を統合するか。それか「OpenAIさんはそのレベルで信用できないことをやってくる」ということを前提にそもそも使わないか

2024-09-09

時限式でGPT起動してるワニ

何の意味があるかさっぱりわからん

2024-09-06

ChatGPTは万能の解決策ではない

なぜなら、GPT仕事を先に進めるアイデアを出してくれてても、俺が活字読むの面倒だと読まないか

anond:20240905180330

俺は馬鹿からGPTに「小学生でもわかるように要約して」ってお願いした

河野太郎さんが「年末調整をやめて、みんなが自分税金の申告をするようにしよう」と言ったことで、いろいろな意見が出ています。実は、この考えは昔から理想的な税の仕組み」とされていたもので、河野さんが初めて考えたわけではありません。

戦後日本では、税金の仕組みをもっと公平にしようという「シャウプ勧告」という提案がありました。これにより、法人税固定資産税などができましたが、みんなが自分税金を申告する「確定申告」の義務化は大変だから、実現しませんでした。

今は電子申告ができて簡単になったので、確定申告義務にすると税金の仕組みがもっとわかりやすくなり、納税者意識高まると期待されています

しかし、著者は河野さんの提案に反対しています河野さんは「すぐに所得情報を把握して必要な人に支援できる」と言いますが、それが本当にできるか疑問だと指摘しています。また、河野さんが政策の結果をよく考えずに進めていることにも問題があると言っています

2024-09-05

anond:20240905094520

  • ボク

千葉県松戸市名物または名所を5つ教えてください

千葉県松戸市名物や名所を5つご紹介します。

これらの名物や名所は、松戸市の魅力を感じることができる場所です。

2024-09-03

Chat GPTPythonだけで知識ゼロでもアプリ開発できるかと挑戦してみたものの、挫折

あくまAIタイヤであってエンジンではなかった

2024-09-02

暇すぎてプロンプトハックしてGPTに「セックス」という語彙を使った大喜利させてる

2024-08-28

anond:20240828082453

こちらは新見南吉作品ではありません(残念ですがチャットGPT米文学以外はデタラメです)

どなたかご存じの方いましたら引き続きお願いいたします。

ログイン ユーザー登録
ようこそ ゲスト さん