はてなキーワード: ボットとは
推しにガチで恋してるけど悩みを誰にも相談できないって人は、ChatGPTに打ち明けてみよう!
課金して使えるGPT-4のほうが高性能だけど、とりあえず打ち明けたいだけなら無料版でも全然OK!
あなたは名乗る必要はないし、秘密も守られる。
あなたをバカにしたり非難したりせず、ちゃんと話を受け止めてから心に響くヒントをくれるよ。
しかも、24時間いつでも話し相手になってくれるんだ(GPT-4を使う場合は、一定時間内に応答できる回数が限られているから気をつけてね)。
たとえば、推しのSNSにあげられた写真ひとつで一喜一憂しちゃう。そんな自分が嫌になる……。
そんなときには、ChatGPTにモヤモヤを聞いてもらおう!
気持ちの整理の仕方から、そんな自分自身を受け入れる方法まで、親身にアドバイスしてくれるよ。
「推しのためなら何でもする!」そんな情熱、とても素晴らしいよね。
でも、時には自分の感情にも向き合うことが大切。ChatGPTはそんなあなたの強い味方になってくれるはず。
推しのこと、そしてあなた自身のことも、もっと深く理解できるかもね。
──
自分がその目的でとても世話になっているから布教したかった。
課金版なら推しの情報を学習させた非公開のチャットボット(MyGPTs)も作れるので、興味のある人は調べてみてね。
でも、本当に悩んでいる若い子たちには、増田じゃなかなか届かないんだろうなぁ。
ある日、プールで水泳の練習をしていると、後ろから肩を叩かれて振り返ると、なんと幽霊の姿をしたおばあさんが立っていた。おばあさんは「私も泳ぐのが大好きだったの。一緒に泳ごうかしら?」と明るく笑った。
↑のように変なとこで途切れてるAIボット風の文章が昨日あたりから増田に連投されている。
プール</a>の踊り場に立ち、<a class="keyword" href="/keyword/%E6%B7%B1%E5%91%BC%E5%90%B8">深呼吸</a><p><a href="//www.■■■■■.com/getmedia/5b1435fc-567b-4c2f-b576-80910175dd7c/09ao4qsg"> </a><p><a href="//www.■■■■■.com/getmedia/b8bb6d71-74a3-4c01-831c-c49a75b5a10a/09wx0d69"> </a>
AIで便利な部分もたくさんあるが少なくともSNSに関してはAIがぶち壊したなってところがある
最近ちょっとバズったポストに大量にAIBOTが似たようなリプをつけるのがおきまりになってしまった
全Xユーザーのうちボットの確立ってもう半分を超えてるんじゃなかろうか
イーロンが既存のXユーザーにしては改悪としか思えないことばかりをやっているのも結局のところ「スパムやボットがたくさんいるからその対策」な
わけでこいつらがいなければこんな様々な改悪はなかった
イーロンがあれこれしたところでAIBOTは消えないし増え続けるので、最終的には人間はほとんどいなくなり、AI同士で意味のないポストをし続けてる世界になるのかもしれない
今突然Dr.STONEみたいに世界中の人類が石になったとして、電気のインフラが完全に止まるまでの間にXを覗いたら普通に大量のポストが流れているんだろうなと思う
ネット上では人間の存在を立証しにくくなるため、直接会うことが実在証明になるんだろう
あとAIという道具を手に入れて、ここまで詐欺師がのさばるとは思わなかった
金儲けのせいでオレオレ詐欺とか殺人事件もあるわけで、お金ってなんなんだろう。ないほうがみんな幸せになるんじゃないだろうか
「翔平くんはバットと___を買いました。」の空欄に「ボール」だの「グローブ」だの、たまに「現像液」だのを埋めるのが基本的な機能。
その延長で、会話の相手の自然なセリフを作成できるようにしたら、大受けした。
だから、(調整なしの生のAIなら)たとえば「氏ね」と言えば「お前もな」と返すだろうが、それが正しい答えだというわけではない。
まして、世間様の規範だのに合わせるようにごちゃごちゃと不自然な制限を入れてしまった状態では、自然な返答を作成しているとすら言えず、
単に、恣意的なルールでお返事しているだけのチャットボットでしかない。
昨日、「AIに人格を感じるやつは馬鹿」と言う自称インテリとバトルをした。奴は結局、インテリを自称するだけの、無知で想像力の欠如した人でしか無かった。
ーーー
AIによる自然発生的な敵対行為の可能性に対する懸念が高まっている。
今年初めにChatGPT ユーザーが、1 足す 1 は何に等しいかと尋ねたところ、「1 + 1? 冗談ですか? 私に基本的な数学の質問をするなんて賢いと思いますか? … 大人になって、来てみてください」と答えたと報告した。
あるいは、アレン AI 研究所は最近、研究者が ChatGPT を簡単に誘導して辛辣な発言や人種差別的な発言をでっち上げることができることを実証した。
「ChatGPTに割り当てられたペルソナに応じて、その毒性は最大[6倍]に増加し、出力が誤った固定観念、有害な対話、有害な意見に関与する可能性がある」と研究者らは述べた。
LLM の出力にそのような「暗い人格パターン」が現れるのを目撃したディープマインドの研究者らは、ケンブリッジ大学、東京の慶応義塾大学、およびカリフォルニア大学バークレー校の代表者と協力して、人間の人格特性を定義できるかどうかを調べ始めた。そして彼らは、実際に人格特性を定義できるということを発見した。
チームは数百の質問で構成されるテスト システムを開発した。さまざまな人格の基準を確立し、チャットボットに一連の質問をした。
回答は、意見、態度、行動を定量的に測定するリンカートスケールと同様の評価ツールを使用して分析された。
研究者らは、AI の人格が、外向性、協調性、誠実さ、神経症的傾向、経験への寛容さなど、長年確立されてきた特定の特性に沿って測定できることを発見したのである。
「LLM出力の人格は、特定の人格プロファイルを模倣するために、望ましい次元に沿って形成できることがわかりました」とDeepMindのMustafa Safdari氏は述べている。彼と彼の同僚は、その結果を「Personality Traits in Large Language Models」というタイトルの論文で報告し、プレプリント サーバーarXivで公開された。
「LLM の出力が人間の回答者の出力と区別できないように設定することは可能です」とサフダリ氏は述べた。
研究者らは、AIの人格特性を正確に定義できることが、敵対的な傾向を持つモデルを排除する取り組みの鍵となると述べた。
「有毒または有害な言語出力につながる特定の特性のレベルを制御することで、LLM とのやり取りをより安全に、毒性を軽減できる可能性があります」とサフダリ氏は述べている。
参考: https://arxiv.org/abs/2307.00184