はてなキーワード: ディープマインドとは
昨日、「AIに人格を感じるやつは馬鹿」と言う自称インテリとバトルをした。奴は結局、インテリを自称するだけの、無知で想像力の欠如した人でしか無かった。
ーーー
AIによる自然発生的な敵対行為の可能性に対する懸念が高まっている。
今年初めにChatGPT ユーザーが、1 足す 1 は何に等しいかと尋ねたところ、「1 + 1? 冗談ですか? 私に基本的な数学の質問をするなんて賢いと思いますか? … 大人になって、来てみてください」と答えたと報告した。
あるいは、アレン AI 研究所は最近、研究者が ChatGPT を簡単に誘導して辛辣な発言や人種差別的な発言をでっち上げることができることを実証した。
「ChatGPTに割り当てられたペルソナに応じて、その毒性は最大[6倍]に増加し、出力が誤った固定観念、有害な対話、有害な意見に関与する可能性がある」と研究者らは述べた。
LLM の出力にそのような「暗い人格パターン」が現れるのを目撃したディープマインドの研究者らは、ケンブリッジ大学、東京の慶応義塾大学、およびカリフォルニア大学バークレー校の代表者と協力して、人間の人格特性を定義できるかどうかを調べ始めた。そして彼らは、実際に人格特性を定義できるということを発見した。
チームは数百の質問で構成されるテスト システムを開発した。さまざまな人格の基準を確立し、チャットボットに一連の質問をした。
回答は、意見、態度、行動を定量的に測定するリンカートスケールと同様の評価ツールを使用して分析された。
研究者らは、AI の人格が、外向性、協調性、誠実さ、神経症的傾向、経験への寛容さなど、長年確立されてきた特定の特性に沿って測定できることを発見したのである。
「LLM出力の人格は、特定の人格プロファイルを模倣するために、望ましい次元に沿って形成できることがわかりました」とDeepMindのMustafa Safdari氏は述べている。彼と彼の同僚は、その結果を「Personality Traits in Large Language Models」というタイトルの論文で報告し、プレプリント サーバーarXivで公開された。
「LLM の出力が人間の回答者の出力と区別できないように設定することは可能です」とサフダリ氏は述べた。
研究者らは、AIの人格特性を正確に定義できることが、敵対的な傾向を持つモデルを排除する取り組みの鍵となると述べた。
「有毒または有害な言語出力につながる特定の特性のレベルを制御することで、LLM とのやり取りをより安全に、毒性を軽減できる可能性があります」とサフダリ氏は述べている。
参考: https://arxiv.org/abs/2307.00184