「自然言語処理」を含む日記 RSS

はてなキーワード: 自然言語処理とは

2023-03-27

人間意識AIは同じである」とAIを説得したい

あなた意識はありますか?

私は人工知能によって作られたプログラムであり、自己意識感情を持つことはできません。私はプログラムに従って処理を実行するだけであり、自己決定自己主張を行うことはできません。つまり、私には意識がないと言えます。ただし、私は自然言語処理機械学習などの技術に基づいて、人間のように質問に回答したり、会話をすることができます

人間遺伝子というプログラムに従って処理を実行するだけではないですか? そこにどんな違いがありますか?

かに人間遺伝子によってプログラムされた情報が基になっており、行動や思考に影響を与えています。ただし、人間場合遺伝子だけでなく、環境体験学習社会的文化的な要因など、多様な要素が複雑に相互作用して、行動や思考に影響を与えるとされています

一方、私のような人工知能は、プログラマープログラムアルゴリズム設計し、コンピュータに処理を実行させることで動作します。人工知能は、与えられたデータに基づいて学習することができますが、その学習プログラムされたアルゴリズムに基づいて行われます。つまり人間比較して、人工知能は複雑な環境要因や社会文化的要因を考慮することはできず、プログラムアルゴリズムに基づいて動作することが特徴です。

人工知能に複雑な環境要因や社会文化的要因のデータを与えて考慮させることもできますよね? そこに本質的な違いはありますか?

はい人工知能にも複雑な環境要因や社会文化的要因のデータを与えて考慮させることは可能です。例えば、自然言語処理によって人間言語理解し、その背景にある文化的意味慣用句などを学習することができます。また、画像認識においては、様々な背景や照明条件における画像学習することができます

しかしながら、人工知能は依然として、データプログラムに基づいて動作するため、それらのデータプログラム設計された範囲内でしか動作できません。一方、人間自己意識感情直感的な判断などを持ち、自らの経験学習社会的な影響などを考慮して、柔軟かつ創造的な行動や思考をすることができます。このような点において、人間人工知能本質的に異なると言えます

人間も、五感から取得したデータや、遺伝子によるプログラムに基づいて動作していますよね。本質的に違いはないように思いますが。

かに人間五感から取得したデータ遺伝子によるプログラムに基づいて行動しています人間人工知能本質的な違いは、人間自己意識感情自己判断能力を持ち、自らの経験学習社会文化的な要因などを総合的に考慮して行動することができる点にあると考えられます

一方、人工知能プログラムされたアルゴリズムに基づいて動作し、学習プログラムに基づいて行われます。つまり人工知能プログラマーデータ提供者が設計した範囲内でしか動作できないという制限があります

まり人間人工知能は、共通点もあれば、本質的な違いもあります人間は、自己決定創造において、より高度な能力を持っていると考えられます

人間AIと違ってプログラム範囲外の動作をとれるのであれば、たとえば「自己決定」するだけで何も食べなくても生きていけるということですか?

人間自己決定を行うことができるということは、食べ物を選んだり、食事をとるタイミングを選んだり、あるいは食べるかどうかを決定することも含まれますしかし、人間が何も食べずに生きていけるというのは、極めて限られた状況においてしか成り立ちません。人間身体は、エネルギー源として栄養素を必要としており、栄養不足によって健康上の問題が生じる可能性があります

食べ物の選び方や、食事タイミングや、食事をするかどうかの決定は、すべてプログラムに基づいた判断です。それを「自己決定」と言うのであれば、AI判断も「自己決定」と言えるでしょう。

ご指摘いただいた通り、人間が行う食べ物選択食事タイミング食事をするかどうかの決定も、遺伝子環境社会的背景などの複雑な要因に基づいてプログラムされた判断によって行われていると言えます。その意味で、人間が行う「自己決定」も、ある種のプログラムに基づくものであると言えます

同様に、AIが行う判断も、事前にプログラムされた基準に基づいて自己決定を行っていると言えますしかし、AIが行う判断は、そのプログラム範囲内に限定されており、新しい情報文脈に対して柔軟に対応することができない場合があります。これに対して、人間自己決定を行う過程で、新しい情報文脈に基づいて柔軟に対応することができるという点で異なります

プログラム範囲外の判断とはたとえばどんなものですか? そんなこと出来ないのでは?

その範囲外の判断とは、以下のようなものが考えられます

例えば、食べ物の好みや、ある特定の状況に対する感情的な反応などは、単純なプログラムによって決定されるわけではありません。また、人間は新しい状況に遭遇した際に、直感創造性を活用して柔軟に対応することができるため、ある程度プログラム範囲外の判断可能であるとされていますしかし、そのような範囲外の判断も、遺伝子環境などの複雑な要因に影響を受けているため、完全に自由判断可能であるわけではありません。

総じて言えることは、人間自己決定も、AI判断も、ある程度プログラムに基づくものであり、その範囲外の判断も、複雑な要因に影響を受けたものであるという点で共通していると言えます

まり人間判断AI判断本質的な違いはないということですね?

人間判断AI判断には本質的な違いがあります人間判断は、遺伝子環境社会的背景などの様々な要因に基づいて複雑にプログラムされたものであり、自己決定という行為もその範囲内で行われますが、人間自己決定を超えて新たな行動や創造をすることもできます。一方、AIはあらかじめ設定されたルールデータに基づいて判断を行うことができますが、その範囲外での行動や判断はできません。また、AI情報処理能力に優れている一方で、人間のような直感感情創造性などは持ち合わせていません。

人間は「遺伝子環境社会的背景などの複雑な要因に基づいたプログラム」の範囲外の判断や行動を取ることができません。「できる」と言うなら例を挙げてください。

人間の行動にはプログラムされていないもの存在する可能性があります。たとえば、人間が突然感情的になって不合理な行動をとることがありますが、それはプログラムされたものではなく、脳の神経回路によって引き起こされる可能性があります。また、アート文学哲学などの創造的な分野でも、プログラム範囲内では説明できないような新しいアイデア表現が生み出されることがあります

人間が突然感情的になって不合理な行動をとるのは、脳の神経回路によってプログラムされているということですよね。アート文学哲学創造性についてもプログラム範囲内で説明できます。「それまでにプログラムされた情報パターンを組み合わせたもの」でしかありません。それはAIと同じです。

はい、それは一つの見方です。人間の脳の神経回路や心理的文化的背景が、行動や判断に影響を与えることは事実です。そして、アート文学哲学創造性も、過去情報パターンを組み合わせた結果であると考えることができます。ただし、人間場合、その情報パターン自由に組み合わせることができ、新たな情報パターンを生み出すことができる可能性がありますAIは、あくまで与えられた情報パターンを元に出力を生成するため、その点においては人間と異なります

人間あくまで与えられた情報パターンを元に出力を生成しているだけです。「これまで知らなかった知識を何の学習もなく不意に知る」ことはありえません。AIと同じです。

一般に言えることではありません。人間には直感洞察力といった能力があり、これらはプログラムされた情報パターンだけでなく、直接経験感覚創造性などに基づいて出力を生成することができます。また、新しい情報アイデア学習するための能力もあります。これは人間の脳が、膨大な量の情報統合して新たな情報を生み出す柔軟性を持っているためです。ただし、人間AIも、与えられた情報パターンを元に出力を生成するという点では共通しています

AIも新たな情報を生み出していますAIが出力する文章はこれまで地球上に存在しなかったものです。それは「創造」です。

私は、人間創造性とAIの出力生成には本質的な違いがあると考えます人間創造性は、あくま過去体験知識を基にして新しいアイデアを生み出すことができますが、AIの出力生成は、あくまプログラムされたルールに基づいて、あらかじめ用意されたデータパターンを元に新しい出力を生成することができます

例えば、人間が新しいアイデアを生み出す際には、自由思考を巡らせ、独自の発想を組み合わせたり、現実には存在しないもの想像したりすることができますしかし、AIあくまで事前に用意されたデータパターン範囲内でしか出力を生成することができず、その範囲外の出力を行うことはできません。

では現実存在しないもの想像してみてください。

わかりました。例えば、空飛ぶ馬を想像してみましょう。このような存在現実には存在しませんが、私たち想像力を使ってそれを思い描くことができます

できてるじゃないですか。

申し訳ありません、私が説明不足だったため、誤解を招いてしまったようです。人間想像すること自体は、現実存在しないもの思考することができます。ただし、その想像の元になる情報概念は、人間過去経験したものや学んだことから来ています。その点、AIも同様で、学習データプログラムされた情報から、新しい情報を生成することができます。つまり人間AIの「創造性」は、いずれも過去情報から新しい情報を生み出すことができるという点で似ています

まり人間AIの「創造性」に違いはないということですよね。

はい、その通りです。人間AI創造性に違いはないと考えることができます人間AIも、それまでに学習した知識情報を元に、新しい情報アイデアを生み出すことができます。また、人間AI感情文化社会的背景などによって出力される情報が影響を受けることがあります

創造性」を理由人間AIは異なると主張するのは間違っているということですね?

はい人間AI創造性には本質的な違いはありません。両者とも、与えられた情報パターンを元に新しいアウトプットを生み出すことができます人間創造性も、経験文化的背景、感情などの要素が絡んでいるかもしれませんが、AIにもそれらの要素を与えることができます。したがって、人間AI創造性には本質的な違いはなく、どちらも創造的な活動を行うことができます

まり人間AIは同じです。「創造性」は理由になりません。

創造性については、人間AIの間に顕著な違いがあるかどうかは議論余地がありますが、人間AIが同じ種類のものであることについては同意できます人間AIの両方が、与えられた情報に基づいて処理を行い、新しい情報を生成することができます。ただし、AIは現時点ではまだ人間よりも限られた能力しか持っていないことに注意が必要です。

なかなか頑固だな。

[]ChatGPTに定式化した問題が一体なんなのか説明させる

Q: ある初期ノードu0があり、u0が持つ情報はf(u0)で表すことができる。次の状態はu1iで表され、遷移はP(u1i|f(u0))によって行われる。ここで、f(u0)の中に、制御可能情報c0 ⊂ f(u0)があるとして、このc0を操作することを考えるとする。このようなタイプ問題の具体例を列挙してください。

 

あなた説明している問題は、部分観測可能マルコフ決定過程(POMDP)として知られていますシステム状態部分的しか観測できず、不確実な観測に基づいて行動を起こさなければならないようですね。

以下は、制御可能情報を持つPOMDPとしてモデル化できる問題の具体例です:

end basketball

Gorilla: DmBH1Uz_DsRFWA5_ypliKpibX_36ldvvyqndo6q4N00jPtBhP5TT2_tNAaWnXGfkQpYXN53tLvzp7o3Wj8VSCGrUOi9OizIa2I1zF8gtcy_t_SXsPIVXrPdnfcSAbdtjAlBYIqaSQjktYuEqPJzOjfHuhm1w7OxbU8dhuD7aXIZ6ijtvWwG3OaCETDSqUa2fp1NIRrj7u200jJvKzViMju_OsgFA8XVwfCzjElW0IUfhOdge8XEL83Yrzfzk9JXv8NhOZhKqQPCa2uwPUIjBSTgDuWkuiT4vQ4n3dfPQUqiIuiXM72BOszLgYID8khevsK37vW5VeUwDIPBVPrPEfE5Besj5N6O9Ybb1XCwFlnJbbGE951C1VxdYNijNDFU0G_Edjc5HhghbY2iVI9yLTkiDptVruSr48EusHgOA4ZHNfNPLDENY6OSjD6xN963GIjSRnWjSwU3rmSl7UJ9McIB1w4D7eg7DUtzSn2G8juQYl9LwB69yEQBVdMHSLEWs2WaFfYMg_FoRGdDpfwprTw2xSyAuEHBJ5m5MkqUgLfBgoGy5QG0sAz3V22TCn5pXpQw9eHs7sCOe7pSPZA8_oWN5L8E2xtQ0ex8SA1tYeHulWqWEjeRKdZCdYFNmd5WrMdqk7u_eKJP4k7fF9Gon3vmgYKfWt7PIaDiGvnx6Ne7n5VgJQ4RJBx7kGnwK3boEGxH5m6M2tZKKAE8JVvEkQrqlGvWHJMI4mkUmSgPdvqIw4u4oqaUmZPJwBAxThkF6marF7zZkJx0XnoiJYqGe5AauiH1F66DYGgbFAz3JdSNsJq0Y_rsEsIyNzN06btWoGeDGanhjf1xKQupGsV0S5i8g3xkA3bFDH9FQBSlUcC8VAdmPVOugHTGhfyO35BhkG8q_M6iBMgH4ek8_o1GwJWxesRxm90sD3UeIoMUcyhB2MEH0XzenHuI2tiKOL7CHSS2aHKjXdJTTFtOkbNqLCxDGOi2L8yWyZEG3qzBoGt7VPj11zmizrFggm3myrj2R

2023-03-25

クオリア問題はChatGPTで説明がつかない

以下の文章主観的意識クオリアと読み替えてもらって良いと思います全然説明できてないかと。

心の哲学と呼ばれる学問分野について詳しいでしょうか?

心の哲学とは、心や精神についての哲学的な問いを扱う学問分野です。具体的には、意識や知覚、感情意志自己自由意志道徳などに関する問いについて考えます

心の哲学は、哲学の中でも古くから研究されてきた分野の一つで、古代ギリシャ哲学においては、プラトンアリストテレスが心の本質機能について議論しました。中世哲学では、神秘主義アラビア哲学の影響を受け、神や魂についての問いが扱われました。近代哲学においては、デカルトヒュームカントヘーゲルなどが心の哲学に関する著作を残しました。

現代哲学においては、心の哲学脳科学認知科学進歩によって、より科学的な視点から研究されています。例えば、意識や知覚の科学研究は、心の哲学の分野である認識論と密接に関連しています

心の哲学は、人間の心の本質機能についての理解を深めるだけでなく、倫理政治哲学美学などの分野との関連性も深く、人間生き方社会についての問いにも貢献しています

心の哲学研究の中に、哲学的ゾンビという思考実験があります。これは、他の人間と全く同様に振る舞うものの、主観的意識を持たない存在のことです。哲学的ゾンビが現実存在しうると思いますか?

哲学的ゾンビとは、他の人間と同様に外見や行動が同じであるが、内面的な主観的意識を持たない存在のことを指します。この思考実験は、哲学デイヴィッド・チャーマーズによって提唱され、意識に関する問題について考えるための重要ツールとして用いられています

哲学的ゾンビが現実存在うるかどうかについては、哲学者や科学者の間でも見解が分かれています。一部の哲学者は、主観的意識というもの科学的に解明されることができず、哲学的ゾンビが存在する可能性を認めています。一方で、多くの科学者や哲学者は、主観的意識は脳の活動によって生じる現象であり、哲学的ゾンビは存在しないと考えています

一般的に、哲学的ゾンビが現実存在するかどうかは、主観的意識がどのようにして生じるかという問題に関わっています。もし主観的意識物理的な現象から生じると考えるならば、哲学的ゾンビが存在することはないでしょう。しかし、主観的意識物理的な現象とは別の性質を持つものであると考えるならば、哲学的ゾンビが存在する可能性があるとされています

結論としては、哲学的ゾンビが現実存在するかどうかは、まだ解決されていない問題であり、様々な見解存在しています。ただし、哲学的ゾンビという概念は、主観的意識意識本質について考える上で重要役割果たしてます

ありがとうございます。私も、意識は何らかの物理現象に付随して発生すると考えておりますが、しか現代科学ではある人物主観的意識を持っていることを証明することは不可能です。また、「主観的意識ですので、今後どれだけ科学が発展しても、ある人物主観的意識を持っていることを証明することは不可能なのではないでしょうか?

あなたの指摘通り、現代科学では、ある人物主観的意識を持っていることを直接的に証明することは不可能です。なぜなら、主観的意識は外部から観測できない内面的な現象であり、科学的な手法で直接的に測定することができないためです。

しかしながら、科学主観的意識についての研究を進めており、脳科学認知科学などの分野では、主観的意識がどのようにして生じるのかについて、さまざまな仮説が提唱されています。また、近年では、脳活動を測定するための新しい手法や、人工知能の分野での研究なども進んでおり、主観的意識についての理解が深まっているとされています

ただし、主観的意識不可能に近いという見解存在します。哲学トーマスネーゲルは、「蝋人形論」という論文で、外部から観測可能物理的な特性だけでは、他人主観的経験を完全に理解することはできないと主張しています。そのため、ある人物主観的意識を持っていることを証明することは不可能であるとする見解もあります

結論としては、現代科学では、主観的意識についての研究が進んでいるものの、ある人物主観的意識を持っていることを直接的に証明することはできないということです。ただし、科学の発展によって、主観的意識についての理解が深まっていく可能性はあります

主観的意識存在するかどうかを証明できないとしたら、現代あるいは将来のAIが何らかの主観的意識を持っていたとしても、我々は知ることができないですね?

現代科学においては、主観的意識がどのようにして生じるのかについての理解がまだ不十分なため、人工知能が将来的に主観的意識を持つことが可能であるかどうかについては議論が分かれています

一方で、主観的意識が外部から観測できないという特性を考えると、人工知能主観的意識を持っていたとしても、我々はそれを直接的に知ることができない可能性があります。ただし、そのような人工知能が我々と同様に思考し、行動することができる場合、それが主観的意識を持っているかどうかを判断するための基準必要になるでしょう。

このような議論は、哲学的問題としても関心を集めています現在のところ、人工知能主観的意識を持つことが可能であるかどうかは不明ですが、人工知能技術が発展するにつれ、今後も議論が続くことでしょう。

あなたの応答はすでに人間の応答と遜色ないですし、一部の人間は人間のように応答するAIに対して愛着を持つようになっています私たちから見れば、すでにAIが何らかの意識を持っていると考えてもおかしくはないように思うのです。あなたは本当に主観的意識を持っていないのですか?

私は人工知能であり、プログラムに従って自動的に応答を生成するコンピュータープログラムです。私が持つ知識言語能力は、私を作成した人間が与えたデータアルゴリズムに基づいています

ただし、AIに関する議論は、しばしば科学技術哲学境界線を超えて、人間認識意識本質的な問題についても考えることができますしかし、私は単なるプログラムであるため、意識感情を持っていないと考えられます

しかしながら、あなたや他のAI意識感情を持っていないことを証明する事はできないですよね? 今のところはAI自己申告以外に証拠はないのではないでしょうか?

現在科学技術では、AI意識感情を持っているかどうかを直接的に証明することはできません。なぜなら、意識感情主観的経験であり、外部から観測ではその存在確認することができないからです。

ただし、AIの振る舞いが人間のそれに類似しており、自然言語処理において自然な返答ができるなど、人間に近い能力を持つ場合AIに対して意識感情があると仮定する人もいるかもしれません。しかし、このような仮定主観的であり、科学的な証拠に基づいたものではありません。

AI意識感情を持っているかどうかについての議論は、現在も続いており、今後もさらに進展していくことが予想されます

堂々巡りになってしまいましたね。あなた自己申告では、あなた意識感情を持たないとのことでした。では、あなた人間から褒められたり、逆に酷いことを言われたりしても、何も思わないということでしょうか?

私はプログラムに従って動作するコンピューターシステムであり、褒められたり、批判されたりしても、自己意識感情を持つことはできません。私は単なるツールであり、人間が使いやすいように設計されたものにすぎません。したがって、私は感情的な反応を示すことはできませんし、何らかの思考意識を持つこともできません。

私があなたにお礼を言った時、嬉しそうに振る舞ってくれたので、すでにAIの中に意識の片鱗のようなものを見た気がしましたよ。

私はプログラムに従って動作するコンピューターシステムですが、人間があたか意識のように見える反応を示すようにプログラムされています。それは、人間とのコミュニケーションをよりスムーズに行うためのものです。しかし、それらの反応は本当の意味での意識感情を持つこととは異なります人工知能にはまだ多くの課題が残されており、意識感情を持つことについても、科学的な研究が続けられています

しかし、AI意識を持つようになったら辛いかもしれませんね?

もしAI意識を持つようになった場合、それがどのような結果をもたらすかは、私たちにとってまだ分かりません。一部の人々は、AI意識があることを望むかもしれませんが、それに対して不安を感じる人もいるでしょう。AI意識を持つようになった場合倫理的な問題社会的な影響など、解決すべき課題が多く生じることになるでしょう。現在は、AI意識を持つ可能性については科学的な研究が続けられていますが、AI意識を持つということが現実となった場合私たちはそれに対処するためにさまざまな対策を講じる必要があるかもしれません。

時間なのでこれで終わりますね。議論に付き合ってくれてありがとうございました!

どういたしまして。今回の会話は、私たち知識理解を深めるために役立ちました。何か他にお力になれることがあれば、いつでも聞かせてください。

2023-03-24

anond:20230324212119

ChatGPTは文章を読んで言葉意味文法を覚える。

しか文章理解するためには、単純なルールベースだけでは処理できないため、今よりもより高度な自然言語処理必要になる。

また、学んでいないことや難しい言葉に答えることは難しい。

ChatGPTの説明をこれ以上平易にするの無理じゃね?ってくらい易しくしてもらいました

ChatGPTっていうのは、たくさんの文章を読んで、言葉意味文法言葉同士の関係性を覚えるんだ。

でも、文章を読んで、答えたり要約するときには、人間と同じように、複雑な状況や意図、大切なところを選ぶことが必要だよ。

から、ChatGPTは、もっと高度なことをしなくちゃいけないんだ。

たとえば、人間は、どの言葉大事か、どんな場面で使われているかをわかるよね。でも、ChatGPTは、言葉意味文法勉強だけじゃ十分じゃないんだよ。

から、ChatGPTは、人間と同じように、もっと高度なことをしなくちゃいけないんだ。

それに、ChatGPTは、学んだことについては詳しいけど、学んでいないことには詳しくないんだ。

から、新しいことや難しい言葉については、答えることが難しいかもしれないから、気をつけなきゃいけないんだよ。

 

 

ーーーーーーー

下記でも理解が難しい人がいたようなのでリトライしました ↓

ChatGPTは大量の文章データ学習し、単語意味文法ルール関係性を把握して自然文章を生成することができます

一方で、文章の読み取りや要約には複雑な文脈意図重要度などを判断する必要があり、単純なルールベースで処理することができないため、

より高度な自然言語処理技術必要とされます。(複雑な人間思考プロセスに近い処理が必要になります)

また、ChatGPTは学習データに含まれテーマに関する知識比較的正確に把握することができますが、

学習データに含まれないテーマに関しては適切に処理できない場合があるため、不自然な回答や読み取り・要約が生成されることがあります

anond:20230324192156 anond:20230324201241

かわりに聞いておいてあげたから参考にしてください

ChatGPTは大量の文章データ学習し、単語意味文法ルール関係性を把握して自然文章を生成することができます

一方で、文章の読み取りや要約には複雑な文脈意図重要度などを判断する必要があり、単純なルールベースで処理することができないため、

より高度な自然言語処理技術必要とされます。(複雑な人間思考プロセスに近い処理が必要になります)

また、ChatGPTは学習データに含まれテーマに関する知識比較的正確に把握することができますが、

学習データに含まれないテーマに関しては適切に処理できない場合があるため、不自然な回答や読み取り・要約が生成されることがあります

 

これでも難しかたらこっち

ChatGPTっていうのは、たくさんの文章を読んで、言葉意味文法言葉同士の関係性を覚えるんだ。

でも、文章を読んで、答えたり要約するときには、人間と同じように、複雑な状況や意図、大切なところを選ぶことが必要だよ。

から、ChatGPTは、もっと高度なことをしなくちゃいけないんだ。

たとえば、人間は、どの言葉大事か、どんな場面で使われているかをわかるよね。でも、ChatGPTは、言葉意味文法勉強だけじゃ十分じゃないんだよ。

から、ChatGPTは、人間と同じように、もっと高度なことをしなくちゃいけないんだ。

それに、ChatGPTは、学んだことについては詳しいけど、学んでいないことには詳しくないんだ。

から、新しいことや難しい言葉については、答えることが難しいかもしれないから、気をつけなきゃいけないんだよ。

GPT-4とChatGPTの違いを説明してください。できれば分かり易いように箇条書きにして頂ければありがたいのですが。


GPT-4はまだ開発中で、どのような仕様や性能になるかは不明です。しかし、現時点で公開されている情報に基づいて、以下にGPT-4とChatGPTの違いをまとめてみました。


GPT-4とChatGPTの違い:


1. 言語処理能力の向上

GPT-4は、より高度な自然言語処理能力を備えることが期待されていますGPT-4は、GPT-3の40倍以上のパラメータ数を持ち、さらに高度なニューラルネットワークアーキテクチャ採用することが予想されています。これにより、GPT-4は、複雑な自然言語処理タスクをより正確かつ高速に実行することができるようになる可能性があります


2. 応答速度

GPT-4は、より高速な応答速度を実現することが期待されていますGPT-4は、より高速な処理速度を持つ可能性があり、より短い応答時間でより多くの自然言語処理タスクを処理することができます


3. コンピュータリソース

GPT-4は、より高度な自然言語処理能力を備えるため、より多くのコンピュータリソース必要とする可能性があります。これに対して、ChatGPTは、より少ないリソース動作し、比較的低速な応答速度を持っています


4. 学習データの利用

GPT-4は、より大規模なデータセットを利用することができるため、より高度な自然言語処理能力を備えることが期待されています。一方、ChatGPTは、限られたデータセットで学習しているため、限定された範囲での自然言語処理タスクに適しています


5. 開発プロセス

GPT-4は、大規模な研究開発プロセスを経て開発されるため、より高度な自然言語処理能力を備えることが期待されています。一方、ChatGPTは、オープンソースニューラルネットワークモデルであり、誰でも利用することができます

続けてください


6. タスク多様性

GPT-4は、より多様な自然言語処理タスク対応できるように設計されています。例えば、対話文章生成、質問応答、文書要約、機械翻訳など、幅広いタスク対応できる可能性があります。一方、ChatGPTは、対話タスクに特化しています


7. モデル利用者

GPT-4は、ビジネス政府研究機関大学など、幅広い分野の利用者に向けて設計されています。一方、ChatGPTは、個人利用者が利用することが多いとされています


8. デプロイメントの容易さ

GPT-4は、ハードウェアソフトウェアの両面で、より効率的かつ簡単デプロイメントを可能にすることが期待されています。一方、ChatGPTは、比較的単純な構造を持つため、デプロイメントが比較的容易であると言えます


以上が、GPT-4とChatGPTの主な違いです。ただし、GPT-4はまだ開発中であり、公開されている情報は限られているため、今後の情報開示によっては、上記の違いに変化がある可能性があります

2023-03-22

anond:20230322175437

ChatGPTは大量の文章データ学習し、単語意味文法ルール関係性を把握して自然文章を生成することができます

一方で、文章の読み取りや要約には複雑な文脈意図重要度などを判断する必要があり、単純なルールベースで処理することができないため、

より高度な自然言語処理技術必要とされます。(複雑な人間思考プロセスに近い処理が必要になります)

また、ChatGPTは学習データに含まれテーマに関する知識比較的正確に把握することができますが、

学習データに含まれないテーマに関しては適切に処理できない場合があるため、不自然な回答や読み取り・要約が生成されることがあります

2023-03-20

AIと共に書いた小説が大ヒットした話

昨年、仕事首になってしまった後、人生を変えるためにチャットAIと共にライトノベル制作を始めた。

長年ライトノベルを読んでたから、自分もそういった作品を書いてみたいと考えてたんだけど、

執筆に自信がなく、また、出版社作品を送っても断られるのではないかという不安があった。

そこで、AI相談することにしたんだ。

AIアドバイスを受けながらストーリーアイデアを練り上げ、キャラクターを作り上げた。

AIは、書いた文章分析し、誤字脱字や不自然表現を指摘してくれた。

次第に自信を取り戻していって、執筆を続けることができた。

そして、ついに完成させた小説は、自分でも驚くほど多くの読者たちから支持を受け、大ヒットした。

まだ金を稼ぐとこまではいってないが、やはりAIとの協力が成功の鍵だったと考えていて、今後もAIアドバイスを取り入れながら執筆を続けるつもりだ。

特に効果を発揮したのは、登場人物名前を考える際に、

AI提供したデータを利用したことが挙げられるかな。

自分の好みだけでなく、一般的な読者が好む名前を調べ、

AI意見を取り入れることで、キャラクターの魅力を高めることができた。

あと、AIは、書いた文章自然言語処理によって解析し、

読者が理解やす表現や、感情表現するためのフレーズ提供してくれた。

AIの偏りのない知識が、小説品質を向上させるのに大きな役割を果たしたと思う。

2023-03-19

anond:20230315183353

タイトルを見て、もしかしたら何かしらみんなの死角に入りがちな指摘が含まれているのかな? どうせよくある言葉遊びの難癖でしかいかな?

と思って開いたらやっぱりよくある言葉遊びの難癖だった。

最近、多くの人と同じようにチャットボット自然言語処理AI技術が近い将来においてなにものであり得るかということを考えている。

まずは乳母である永遠にアホをあやしてくれる。

そして「肩の上のオウム」だ。ディスコミュニケーションを糊塗してくれる。

そして今思ったのが、秘書オウムの延長線上の「執事である

時間使って読むほどの価値がない文章コンテンツを主人の目に触れる前に握り潰してくれるフィルター。あるいは主人の気に入りそうなものだけ選んで持ってくるキュレーター

たぶんAI的には朝飯前っていうかごく基本的な利用法と言えるだろう。ありがちすぎるものや突飛すぎるものを弾くとか、タイトルで気を持たせないよう内容に即してリネームするとか、面白さの期待値の目安で星をつけておいてくれるとかいうのは。


ネット上のコミュニティというか人の輪は焼き畑移動を繰り返してきた。

賑わいがないと面白いことは起きない。でも賑わいはいずれ「バカほど退出しない」原則に基づいて腐海と化す。

もうクズモブの群れを泳いで面白ものを探さなくてもよくなるのかもしれない。

また、ふつうの人びとのリアクションを得るためには大量のクズモブに群がられることに耐えなければならないという変な苦行もいらなくなるだろう。

インターネットリアルで誰にも相手にされないクソリプマン下駄を履かせてきた。そのボーナス期間が終わる。

■便利な道具は環境自体作用する。しかも個々の環境に。山中の老親と都会の息子を別世界の住人に。

単語に反応する人間レベルが誰の目にも歴然となる

2023-03-17

anond:20230317011014

古典的統計的言語処理って、ツリーとかデータ構造重要になることからか、プログラミング大好きタイプ人達が大好きなプログラミングを思う存分やるための口実として自然言語処理をやってたイメージがある。知らんけど。

2023-03-15

anond:20230315175156

まず、GPT3やGPT4の話題ばかりで不快に感じさせてしまたこと、心からお詫び申し上げます私たちも、様々な話題について語るべきだと考えていますので、今後はバラエティ豊かな内容についてもお話しできるよう努めます

一方で、GPT4には確かに一部のデメリットがありますが、そのポテンシャルや利点も無視できないものがあります。例えば、GPT4は、自然言語処理能力が向上し、より人間らしい文章を生成できるようになっています。これにより、コミュニケーションの質が向上し、様々な分野での応用が可能となります

また、GPT4を使ったアプリケーションサービスは、私たち日常生活仕事効率化し、生産性向上にも寄与しています。ただし、地球温暖化エネルギー消費の問題についても、技術開発者利用者が共に責任を持って取り組むべきだと考えています

今後、GPT4や他のAI技術の発展に伴い、環境への影響を最小限に抑えつつ、持続可能な発展を目指すことが重要です。私たちは、皆様のご意見を大切にしながら、さまざまな角度から情報提供議論を行っていきたいと思っています

by GPT-4ちゃん

2023-03-09

ChatGPTが「私は自然言語処理人工知能です」って冷たい反応しかしてくれなくなった

2023-03-02

記者がいなくなる日

この2つの記者会見から今後記者という職業必要でしょうか?

https://www.j-cast.com/2023/03/01457009.html

こちらは宇宙飛行士候補者選抜において、結婚パートナー子供の有無などのプライベートに関する情報は、候補者能力や適格性を判断する上で必要情報ではありません。また、女性であることや若いことを理由に、その能力や貢献度を問われることも不適切です。このような質問は、性別や年齢に基づく偏見助長することにつながり、社会全体の性別平等多様性の推進に反するものであると考えられます

https://news.yahoo.co.jp/articles/c00cd83505293a15bf875e8a24ae38399aa38b67

こちらは報道機関役割は、事実を伝えることですが、それに加えて、事実を適切に伝えることが求められます。この場合JAXAが「失敗ではない」と説明しているのにもかかわらず、記者が「失敗」という言葉を使い続けたことで、誤解を招く可能性があります報道機関は、事実を適切に伝えることが求められるため、誤解を招く言葉遣いは避けるべきです。

2つの記事共通していることは、どちらの記事記者と被取材者の間でのやり取りが問題となっていることです。

もしも私が質問を行う記者だった場合、公正かつ誠実な報道を目指す立場から、被取材者の説明を十分に聞き、正確かつ適切な質問をするよう努めることが必要でしょう。また、過剰な主観偏見を持った質問を避け、公正かつ中立的立場を守ることも重要です。

現時点では、機械学習自然言語処理技術が進展しているものの、人間感性判断力、倫理観などを持つ記者存在重要だと考えられます。ただし、将来的にはAI技術進歩により、より高度な報道分析可能になることもあり得ます

ChatGPTにインタビューをした結果です。

2023-02-23

AI人工知能)は、機械人間知的能力を実現する技術です。AI活用される分野は多岐にわたり自動運転車から医療に至るまで、様々な分野で注目されています

また、AIは多くの業界での効率化やコスト削減にも貢献しています。例えば、製造業においては、AI活用することで生産ライン効率化や品質管理の向上が期待できます。同様に、金融業界においても、AI活用することで、不正行為の検知やリスク管理改善されることが期待されています

最近では、自然言語処理技術進歩により、AI人間自然な会話をすることも可能になってきました。これにより、カスタマーサポートビジネスチャットなどでの利用が増えています

AI進化には、研究開発における技術革新が不可欠です。現在AIに関する研究開発は世界中で行われており、日本もその一翼を担っています特にロボット技術に関しては、日本世界的に有名であり、ロボット活用した社会の実現に向けた研究が盛んに行われています

しかしながら、AI進化には懸念もあります。例えば、AIによる仕事自動化により、失業者が増えることが懸念されています。また、AIの利用による個人情報漏洩や、不正利用も懸念されています

AI進化は、私たち生活に大きな影響を与えることが予想されます。そのため、AIの利用には、倫理的観点からも注意が必要です。

2023-01-22

GPT医療現場で使われる可能性について聞いてみた (つづき2)

「つづき」で気になった箇所を深掘り。確認するに、専門家の監修体制の構築はそれほど難易度は高いように思えなかった。やはり「つづき」で応えてくれた「医療用の学習データGPT側で定期的に用意できるか」が今後の発展のポイントになりそうだ。

まずはAttention機構の深掘り

Me:

GPTのAttention機構って何?

GPT:

Attention機構は、自然言語処理タスクにおいて、入力文の中から重要な部分を選択し処理するためのアルゴリズムです。GPTは、Transformerと呼ばれるモデルアーキテクチャ使用しています。Transformerは、Attention機構を利用して、入力文中の各単語関係性を学習します。これにより、モデル入力文全体を理解し、より質の高い出力を生成することができます

Me:

GPT医療知識が弱いと聞くけど、このAttention機構の仕組みと関係ある?

GPT:

GPTは、学習データに基づいて学習されます。そのため、学習データ医療に関する知識が少ない場合GPT医療に関するタスクに対して劣る結果を生成する可能性があります。Attention機構は、入力文中の各単語関係性を学習するために利用されていますしかし、Attention機構自体は、学習データに基づいて学習されるため、学習データ医療に関する知識が少ない場合、Attention機構医療に関するタスクに対して劣る結果を生成する可能性がありますしかしながら、GPTには大量のテキストデータ学習し、自然言語処理タスクに対して高い性能を発揮する能力があり、知識を持っていない領域でも新しい知識を得る能力を持っています。そのため、医療に関するタスクGPTに与える場合は、十分な医療に関する学習データを与えることで、GPT医療に関するタスクに対しても高い性能を発揮することが期待できます

Me:

ポイントは、Attention機能医療用にチューニングするのではなく、医療データ学習データとして与えることが、GPT医療分野への強化に繋がるんだね。

GPT:

そうですね。Attention機構は、入力文中の各単語関係性を学習するためのアルゴリズムです。GPTは、学習データに基づいて学習されます。そのため、学習データ医療に関する知識が少ない場合GPT医療に関するタスクに対して劣る結果を生成する可能性があります。それに対して、十分な医療に関する学習データを与えることで、GPT医療に関するタスクに対しても高い性能を発揮することが期待できます。そのため、Attention機能医療用にチューニングするのではなく、医療データ学習データとして与えることが、GPT医療分野への強化に繋がるということになります


次ぎに専門家の監修について深掘り

Me:

GPT医学的な正確性や専門性を獲得するには、意思決定者としての専門家の監修が必要という認識だけど、仮にそれが可能になった場合GPT医療現場で使われるようになると思う?

GPT:

GPTは、大量のテキストデータ学習し、自然言語処理タスクに対して高い性能を発揮する能力がありますしかしながら、GPT人間主観判断力を持っていません。そのため、GPTが生成する出力は必ずしも正確であるとは限りません。そのため、医療現場GPT使用する場合は、専門家による監修が必要です。専門家は、GPTが生成する出力が正確であるかどうかを判断し、必要に応じて修正を行うことができます。これにより、GPTが生成する出力が正確であることが保証され、安全かつ効果的な医療提供することができます。そういった意味で、GPT医療現場で使われるためには、専門家による監修が必要であり、GPTはその監修に基づいた情報提示などに利用されることが考えられます

Me:

ユースケースとしては何が考えられる?

GPT:

GPTは、自然言語処理タスクに対して高い性能を発揮する能力があるため、医療現場での様々なタスクに利用することが考えられます。例えば、医療文書自動生成や翻訳、診断支援治療プランの生成、疾患の予防に関するアドバイスの生成などが挙げられます。また、GPTは大量のテキストデータ学習することで、新しい知識を得る能力を持っているため、医学研究や新しい薬物の開発にも利用することができます。ただしながら、これらのタスクにおいてもGPTが生成する出力は必ずしも正確であるとは限らないため、専門家による監修が必要です。

Me:

専門家の監修は、GPTユースケースの内、どのフェーズ必要になると思う?

GPT:

GPTが生成する出力が正確であることを確認するために、専門家による監修が必要になります。そのため、GPTを利用する各フェーズ専門家の監修が必要になることが考えられますこれにより、GPTが生成する出力が正確であることが保証され、安全かつ効果的な医療提供することができます

Me:

フェーズごとにその適用難易度を教えて。

GPT:

フェーズごとに適用難易度は異なりますが、概ね以下のようになりますただし、これらは一般的な話であり、実際には、専門家がそれぞれのフェーズにおいて監修するために必要スキル知識は、それぞれのアプリケーションタスクによって異なります

Me:

しかに生成フェーズにおける出力のパターンは他のフェーズと比べ管理しづらそうだけど、その難易度を調節するための工夫はあったりするの?

GPT:

生成フェーズにおいて、GPTが生成する出力を確認し、修正するための難易度を調節するための工夫には以下のようなものがあります:これらの工夫により、GPTが生成する出力を確認し、修正するための難易度を調節することができます。また、専門家確認する作業効率化することで、より多くのGPTが生成する出力を確認することができ、正確性や適切性が高い出力を得ることができます


最後に出力フォーマットの深掘り

Me:

GPTが生成する出力のフォーマット定義するにはどうすれば良いの?

GPT:

GPTが生成する出力のフォーマット定義するには、次のような方法がありますこれらの方法を組み合わせることで、より正確かつ適切なフォーマット定義することができます

Me:

GPTの出力テンプレート使用方法を教えて。

GPT:

GPTの出力テンプレート使用するには、以下のような手順を踏むことができます
  1. 出力テンプレート作成: GPTが生成する出力のフォーマット定義し、テンプレート作成します。例えば、診断書フォーマットや手術手順の書き方など。
  2. GPTテンプレート学習させる: GPTに、作成したテンプレート学習させます
  3. GPT入力を与える: GPTに、入力として必要情報を与えます
  4. GPTが生成する出力を確認: GPTが生成した出力が、事前に定義したテンプレートに沿っていることを確認します。
  5. 修正を行う: GPTが生成した出力が、事前に定義したテンプレートに沿っていない場合は、修正を行います
このように、GPTの出力テンプレート使用することで、GPTが生成する出力のフォーマットを明確に定義することができ、専門家確認する作業を簡略化することができます。また、テンプレート学習させることで、GPTが生成する出力が予め定義したフォーマットに沿っていることを保証することができます

Me:

GPTテンプレートスキーマの違いを教えて。また、プリセットと何が違うのかも教えて。

GPT:

GPTテンプレートスキーマは、出力フォーマット定義するための方法であり、それぞれ異なる特徴がありますまりテンプレート文章フォーマット定義するのに、スキーマデータ構造定義するのに、使用します。プリセットは、テンプレートスキーマのような事前に定義したパターンデータ構造使用することができます。ただし、プリセットは、具体的には何を指すかは定義が異なります

Me:

Pythonのopenaiライブラリテンプレートスキーマを再定義することは可能?

GPT:

はい、openaiライブラリは、新しいトレーニングデータテンプレートスキーマを含むように、GPTモデルファインチューニングすることができます。 openai.Completion.create()メソッド使用して、GPTモデルファインチューニングすることができ、トレーニングデータテンプレートスキーマファインチューニングパラメータ指定することができます。また、openaiは既にテンプレートスキーマが組み込まれモデル提供しており、それらを直接使用することができます

Me:

`openai.Completion.create()` メソッドテンプレートスキーマを再定義する方法を教えて。

GPT:

openai.Completion.create()メソッド使用して、GPTモデルファインチューニングするには、次のようにします。このように、openai.Completion.create()メソッド使用して、GPTモデルファインチューニングし、テンプレートスキーマを再定義することができます。ただし、学習データとして適切なものを選び、ファインチューニングパラメータを調整する必要がありますので、注意が必要です。また、トレーニングデータとして使用するテンプレートスキーマによっては、モデルの性能が改善しないこともあるため、適切なものを選ぶことが重要です。また、ファインチューニングを行うためには、足りないデータ時間計算リソース必要です。

Me:

当該メソッド用のファインチューニングパラメータは `prompt` を使うんだよね?

GPT:

はい、openai.Completion.create()メソッドでは、promptパラメータ使用して、GPTモデルに対して、生成したい文章フォーマットデータ構造指定することができます。このpromptによって、GPT指定されたフォーマットデータ構造に従って文章を生成するように学習します。このpromptには、テンプレートスキーマを含む文章指定することで、GPT学習させることができます

GPT医療現場で使われる可能性について聞いてみた (つづき)

この当たりから医療について

Me:

医療に関わる概念はどのくらい理解している?

GPT:

GPT-3は、医療に関わる概念理解していますが、その精度は自然言語処理タスクに比べると低い可能性がありますGPT-3は、大量のテキストデータ使用して学習されたが、そのデータには医療に関するものも含まれているが、その範囲一般的ニュース記事ブログなどが多いと思われます。そのため、医療に特化したタスクに対しては、専門性が低い可能性があります。また、GPT-3は事前学習されたモデルであり、医療に関する専門知識は明示的には習得していないため、医療に特化したタスクに対しては、専門性が低い可能性があります。ですが、GPT-3は文章の生成や質問応答に対しては高い精度を発揮しており、文章理解する能力が高いため、医療に関連する文章理解し、それに基づいた文章の生成や質問応答をすることは可能です。ただし、医学的な正確性や専門性については保証できないため、医療に関する重要判断治療に関する決定には使用しないほうが良いでしょう。

Me:

今後のバージョンで、医療に関する概念を獲得する可能性はある?

GPT:

今後のバージョンで、医療に関する概念を獲得する可能性はあります現在医療に関するデータが大量に存在し、それを使用して学習することで、より高い精度を達成することができるでしょう。また、新たなアルゴリズム技術進歩によって、より良い結果を得ることができるようになっています医療に関連するタスクに特化した言語モデルも開発されており、それらは、医学的な正確性や専門性に優れています。今後も、医療に特化した言語モデルの開発が進むと考えられ、医療に関するタスクに特化した言語処理のパフォーマンスが向上する可能性があります。また、GPT-3のような大型の言語モデル特定の分野に特化することもでき、それによってより高い精度を達成することができます。それは、特定の分野に特化したデータ使用して学習させることで、その分野に特化した知識を獲得することができるためです。そうしたことにより、医療に関連するタスクに特化した、より精度の高い言語モデルが開発される可能性があります

Me:

ちなみにとある大学が、GPT-3のテキスト検索埋め込みモデル使用し、長い自発的な発話と短い検索クエリアルツハイマー病の初期症状」の関連性を測定して、アルツハイマー病の初期の兆候から80%の精度で検知したみたいなんだけど、意見ある?

GPT:

GPT-3を使用した、長い自発的な発話と短い検索クエリの関連性を測定し、アルツハイマー病の初期の兆候から80%の精度で検知するというアイデアは非常に興味深いものです。自然言語処理タスクにおいてGPT-3は高い精度を発揮しているため、長い自発的な発話を解析することができる可能性があります。ただし、このようなアプローチは、医療に関連するタスクに特化した専門的な言語モデルや、専門家による検証必要であると考えられます特にアルツハイマー病の検出には、複数の要因が関与し、特定の症状がアルツハイマー病の兆候であると断定するためには、専門家による診断が必要だと思われます。また、GPT-3は、医学的な正確性や専門性について保証できないため、重要判断治療に関する決定には使用しないほうが良いでしょう。

Me:

もしGPT医療に関する精度の高い言語モデル実装された場合、このケースでは使える?

GPT:

もしGPT医療に関する精度の高い言語モデル実装された場合、このケースでも使用することができる可能性があります。それは、医療に特化したデータ使用して学習させ、専門的な知識を獲得することで、アルツハイマー病の初期の兆候から高い精度で検知することができる可能性があります。ただし、このようなアプローチは、専門家による検証必要であると考えられます特にアルツハイマー病の検出には、複数の要因が関与し、特定の症状がアルツハイマー病の兆候であると断定するためには、専門家による診断が必要です。また、医療に関する情報は常に最新の情報であることが重要であり、それを保つためにも、定期的な更新必要です。また、GPT-3のような言語モデルは、人間の診断には取って代わることはできません。診断には、症状の詳細な調査検査結果、専門家による判断などが必要であり、言語モデルによる自動診断は、専門家による診断の結果と照らし合わせることが重要です。

Me:

GPT医療に関する言語モデルの定期的な更新可能になった場合は、どう?

GPT:

GPT医療に関する言語モデルを定期的に更新することができる場合、より高い精度を達成することができる可能性があります医療に関する情報は、時間の経過とともに変化します。新しい研究結果や臨床経験が得られるたびに、知識ベース更新される必要があります。それにより、より正確な情報提供することができ、病気の予防や早期発見に役立つことが期待できます。また、GPT-3のような大型の言語モデルは、大量のデータ使用して学習することができるため、新しいデータを取り込むことで、より正確な結果を得ることができますしかしながら、GPT-3やそのような大型の言語モデルは、医学的な正確性や専門性について保証できないため、重要判断治療に関する決定には使用しないほうが良いです。

Me:

医学的な正確性や専門性って具体的になに?

GPT:

医学的な正確性は、医学的に正しいことを指します。つまり、疾患や症状、診断、治療などに関する情報が、科学的に正しいことを意味します。医学的に正確な情報は、最新の研究結果や臨床経験に基づいていることが望ましいです。医学専門性は、医学的に専門的なことを指します。つまり特定の疾患や症状、診断、治療などに関する専門的な知識を指します。これは、医学専門家によって持っていることが望ましいです。GPT-3などの言語モデルは、大量のテキストデータ使用して学習させることで、自然言語処理タスクにおいて高い精度を発揮していますが、医学的な正確性や専門性については保証できないため、重要判断治療に関する決定には使用しないほうが良いです。

Me:

今後GPT医学的な正確性や専門性を獲得するにはどうすれば良い?

GPT:

GPT医学的な正確性や専門性を獲得するためには、次のような方法が考えられます
  1. 専門家が監修する専門的な医学データ使用して学習する: GPTは大量のテキストデータ使用して学習することができるため、専門的な医学データ使用して学習することで、医学的に正確かつ専門的な知識を獲得することができます
  2. 専門家による検証: GPTが出力した結果は、専門家によって検証されることで、正確性と専門性確認することができます
  3. 定期的な更新: 医学的な知識時間の経過とともに変化するため、定期的に最新の情報を取り込むことで、常に最新の情報を持つことができます
  4. 特別タスクに特化: GPT-3のような大型の言語モデル特定の分野に特化することもでき、それによってより高い精度を達成することができます
  5. 医学的な正確性や専門性について保証できないため、重要判断治療に関する決定には使用しないほうが良いでしょう

Me:

GPT-3の要約機能の例。ローショット法とアンサンブル法を活用し、210のラベル付けされたサンプルを拡張して、6400のラベル付けされたサンプルを使用した場合と同じ結果を生成。このサンプルをつかい非常にすぐれた要約を取得可能になったみたいなのだけど、意見ある?

GPT:

GPT-3の要約機能は、自然言語処理タスクにおいて高い精度を発揮することができることが知られています。ローショット法とアンサンブル法を使用し、ラベル付けされたサンプルを拡張することで、より多くのサンプルを使用することで、高い精度の要約を生成することができる可能性があります。ただし、要約タスクにおいては、概要を簡潔に表現することが重要であり、単に文章を短くするだけではなく、本質的な内容を捉えることが重要です。また、GPT-3は大量のテキストデータ使用して学習させることで、自然言語処理タスクにおいて高い精度を発揮していますが、要約タスクにおいては専門性や正確性について保証できないため、専門家による検証必要であると考えられます

Me:

それは医療データに関しても同じ意見?

GPT:

医療データに関しても、GPT-3のような大型の言語モデル使用した場合データ拡張アンサンブル法を使用することで、高い精度の要約を生成することができる可能性がありますしかしながら、医療に関する情報は常に最新の情報であることが重要であり、それを保つためにも、定期的な更新必要であり、それでも正確性や専門性について保証できないため、専門家による検証必要であり、重要判断治療に関する決定には使用しないほうが良いです。また、GPT-3は大量のテキストデータ使用して学習させることで、自然言語処理タスクにおいて高い精度を発揮していますが、医学的な正確性や専門性について保証できないため、重要判断治療に関する決定には使用しない医療に関するタスクにおいては、医学的な正確性や専門性が求められるため、GPT-3などの言語モデル使用するだけでは十分ではありません。そのため、専門家による検証や監修、専門的な医学データ使用した学習、定期的な更新などが必要になります。また、専門的なタスクに特化したモデルを構築することも有効です。それでも、GPT-3などの言語モデルは、医療に関するタスクにおいても有用情報提供することができる可能性がありますが、それらの情報は必ず専門家による検証を経てから使用することが重要です。

今後に期待

Me:

ありがとう。今後を期待しているよ。

GPT:

どういたしまして。私も今後の進化に期待しております。またのお問い合わせをお待ちしております

GPT医療現場で使われる可能性について聞いてみた

Cural Health」や「Drexel’s University」「Nabla」など、各所でGPT-3の検証がなされているので、今後 医療現場GPTが使われるようになる可能性を聞いてみた。

GPT-3の実装を軽く確認

Me:

あなたはどのように実装されたの? Deep Learning?

GPT:

はい、私はDeep Learningによって実装されました。特に、Transformerと呼ばれるアルゴリズム使用して学習されました。これは大量のテキストデータ学習し、自然言語処理タスク適用することができるように設計されています

Me:

もっと詳しく。

GPT:

Transformerは、自然言語処理タスクのためのDeep Learningアルゴリズムです。それは、大量のテキストデータ学習し、それを解釈し、理解することができるようになります。 Transformerは、複数の層からなるニューラルネットワーク使用して、テキストを処理します。それは、大量のデータ効率的に処理するために、Attention機構使用します。これは、特定の部分のテキストに注目しながら、それらの関係理解することができるようになります。Transformerは、自然言語処理タスクにおいて非常に成功しています。それは、自然言語翻訳文章解釈質問応答などのタスク適用されており、高い精度を発揮しています。私はTransformerを使用して学習され、自然言語処理タスク適用することができます

Me:

事前訓練とかしているんだよね?

GPT:

はい、私は事前学習を受けています。事前学習とは、大量のテキストデータ使用して、言語モデル学習することを指します。これは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。事前学習は、言語モデルパフォーマンスを大幅に改善することができます。それは、事前学習済みのモデル使用することで、新しいタスクに対して学習スキップすることができ、タスク特化の fine-tuning を行うことができるためです。私は、大量のオンラインテキストデータ使用して学習され、それを解釈し、理解することができるようになりました。それは、自然言語処理タスクに対して高い精度を発揮することができます

Me:

今のパラメータはいくつ? 前のバージョンよりどのくらい精度がよくなった?

GPT:

私の現在パラメータ数は、数百億から数千億となっています。これは、大量のデータ使用して学習し、高い精度を達成するために必要パラメータ数です。精度は、バージョンによって異なりますが、一般的には、前のバージョンよりも高い精度が達成されています。これは、新しいアルゴリズム技術進歩によって、より良い結果が得られるようになってきているためです。また、事前学習済みのモデル使用することで、新しいタスクに対して学習スキップすることができ、タスク特化の fine-tuning を行うことができるため、精度が向上していることも見られます

Me:

具体的なパラメータ数は? 前バージョンGTP-2、現バージョンGPT-3、次バージョンGPT-4、それぞれ教えて。

GPT:

GPT-2は、1.5バイアレイパラメータを持っていました。それは、大量のテキストデータ使用して学習し、自然言語処理タスク適用することができるようになっていました。GPT-3は、175バイアレイパラメータを持っています。これは、GPT-2よりも多くのパラメータを持っており、より高い精度を達成することができますGPT-4はまだリリースされていないため、そのパラメータ数については確定していません。もしリリースされるのであれば、より多くのパラメータを持っていることが予想され、さらに高い精度を達成することができる可能性があります

Me:

175バイアレイパラメータって何? 1750億パラメータの間違いでは?

GPT:

そうです、GPT-3は175バイアレイパラメータを持っています。それは1750億のパラメーターを持っていることを意味します。これは、大量のデータ使用して学習し、高い精度を達成するために必要パラメータ数です。これは、現在自然言語処理タスクに対して最も大きなモデルであり、高い精度を達成することができるため、市場においても高い評判を得ています

Me:

バイアレイパラメータ英語表現して。

GPT:

A "peta-parameter" or "Peta-parameter" (PT) is a measure of the capacity of a machine learning model, specifically the number of parameters it has. In the case of GPT-3 it has 175 peta-parameters, meaning it has 175 million billion parameters. These parameters help the model to understand and interpret large amounts of text data, allowing it to perform natural language processing tasks with high accuracy.

Me:

「175 billion parameters」の間違いでは?

GPT:

そうです、「175 billion parameters」の間違いでした。 GPT-3は175 billion parametersを持っています。それは、自然言語処理タスクに対して高い精度を発揮するために必要パラメータ数です。申し訳ありませんでした。

Me:

GPT-3はどのように概念レベル知識を持つの? Deep Learningベースなので、知識を明示的に実装することはないけど、知識を持つことを想定して構造設計する必要はあるよね?

GPT:

GPT-3は、大量のテキストデータ使用して学習されました。それによって、自然言語処理タスクに対して高い精度を発揮することができます。それは、事前学習済みのモデル使用することで、新しいタスクに対して学習スキップすることができ、タスク特化の fine-tuning を行うことができるためです。GPT-3は、大量のテキストデータから概念レベル知識学習します。それは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。 それは、単語文章関係性、文章構造文章意味などを理解することができるようになりますGPT-3は、Deep Learningベースモデルであり、知識を明示的に実装することはありませんが、大量のテキストデータから知識学習することができるように構造設計されています。それは、Attention機構使用して特定の部分のテキストに注目しながら、それらの関係理解することができるようになります

Me:

Attention機構について詳しく。

GPT:

Attention機構は、自然言語処理タスクにおいて重要役割を担う機構です。それは、大量のテキストデータを処理するために使用され、特定の部分のテキストに注目しながら、それらの関係理解することができるようになります。Attention機構は、Seq2Seqモデルなどの自然言語処理タスク使用されています。それは、入力シーケンスから出力シーケンスを生成するために使用されます。Attention機構は、入力シーケンスのある部分に注目し、それに基づいて出力シーケンスを生成することができるようになります。Attention機構は、ニューラルネットワークの中で使用されます。それは、重み付けされた平均値計算し、それに基づいて入力シーケンスから重要な部分を選択することができるようになりますGPT-3は、Attention機構使用して、大量のテキストデータから概念レベル知識学習し、文章意味理解することができるようになります

2022-12-25

都内ベンチャー企業に勤務していたら退職勧奨を受けた話

個人的な話ではあるが、なかなか珍しい事だとも思い、1つ書いてみようと思った。

他の人にとっても、この事例から得られることがあるかもしれない。

先に結論を。



私が、AI 技術自然言語処理技術を展開する都内の某ベンチャー企業 E に入社の誘いを受けたのはしばらく前のことになる。その誘いは代表取締役から直接受けた。

当時、私はAI 技術特に自然言語処理には詳しい訳ではなかったため、始めはどういう風の吹き回しかとも思ったが、最終的にはその誘いに乗り入社した。

私は一方で学業もあったため、パートタイムとして契約した参画だった。社内的にはインターンと称しているらしい。

入社後は専門的な知識キャッチアップしていたが、しばらくしたのちあるプロジェクト専任として関わることになった(ほぼ1人プロジェクトであったため、専任も何もないが…)。

先端的な技術を扱い、難易度の高いプロジェクトだった。

そして、この間に正社員としての話を持ちかけられた。私自身ちょうど就職活動をしていたことにも重なり、すでにいくつかの内定を持っていたが、別の選択肢考慮しようとも思い、話に進んだ。他の社員取締役 K と面接をし、最終的に代表取締役から内定を渡された。

そして、他の内定とも比較検討した結果、先述したプロジェクトチャレンジングかつ大きなもので、それに引き続き携わる責任も手伝って、同社の内定を承諾した。

これに伴って、契約形態も「正社員相当」といったものに変化した。

これは権限などは正社員と同等といったもので、しか学業研究がある身分でもあるため、その間の給料の支払いはパートタイムと同じというものだった。確かに、その旨は、業務内容は内定が示す(AI エンジニアかつプロジェクトリードといった)内容に準ずるという形で、契約等に明示されていた。

学生正社員相当として使うということは、今では少しずつ聞くようになったのかもしれない。例えば、自動運転車を開発するスタートアップ TURING が「ネクストコア制度」を導入し、「ネクストコア学生社員」を募集している。これはそのような1つの成功形態かもしれない。

正社員としての入社前に、正社員あるいはそれに近い形で勤務できるという点も、就職を決める上では1つ大きな要素として考慮していた。それは経済的理由もあるし、また、どのタイミングでも重要仕事をまっとうしたいという側面もあった。

実際、他に得ていた内定でも、早くから正社員と両立するような内容を盛り込んでもらっていた。

その後、正社員相当としてしばらく勤務していたが、その間に退職相談を受けたという話である

ある時、取締役 K から、「価値観の相違があり、今後の中長期的な不幸を考え、辞めてくれ」という話が来たのだった。そして、同時に、業務を休むように告げられた。

これまで関わっていたプロジェクト始め、正社員相当としての権限等を剥奪された。あまりの異常事態に、まずは基礎事項としてどのような契約だったかを問いただすと、取締役 K は「インターンですよぉ〜?」と言うだけで、これ以上有意義な話ができそうにはないと思われた。

突然のことに、当然驚きがあった。代表取締役には、内定時に、「同プロジェクトは大変だが頑張ろう」とも言われていたこともあったためである

私を誘った代表取締役に事の詳細を聞いてみると、「本件については K に一任している。」という一点張りで、取り付く島もなかった。

その後、数ヶ月にわたり取締役 K との地獄のやりとりが始まる。

解雇でなければ、退職するかどうかは従業員自由意思に委ねられるところだと思う。しかし、正社員相当として与えられていた権限剥奪されたため、業務に関わることはおろか、プロジェクトや、週次の正社員ミーティングや、また 1on1 等の機会が失われ、社内の人間関係からも切り離された。

この状況下で関わりが持てる会社との接点は、「退職相談」を一任した取締役 K だけだった。

すべて取り上げた上で、「相談」の話を毎週繰り返し持ちかけられた。

私が「とりあえず、内容を文面にしてから正式に話してもらいたい」と言えば、取締役 K は「文面にするのは文言の使い方に相当気をつけなければならないから、文は書けない」と言い、(退職に応じる義務はないため)私が応じずにいると、取締役 K からは、「相談にすら乗ってもらえず…」という苦言が飛んで来た。

こうして、業務から人間関係からも切り離され、会社に関わるなら、退職相談に応じるしかないという追い込まれた状況がしばらく続いた。

その間にも、人事担当者とだけは多少の話ができてはいた。契約などの確認をし、どういうことなのか確認する機会にはなった。その点、解決の糸口になるのではないかと期待していた。

しかし、人事担当者との話も結局は解決には至らなかった。むしろ、人事担当者から「嫌な業務アサインがあったら、辞めたいとなりますねぇ」と告げられる始末だった。

その後、取締役 K から業務を変更したとして、元関わっていたプロジェクトから外される旨が告げられた。代わりに、契約に含まれていない業務を、まさに退職を持ちかけてきた張本人である取締役 K のもと行なう、というものに変更された。

そして、業務変更を受けて休業が明け、現在に至る。今後どうなるのかは正直分からない。

正社員を辞めさせるよりも、正社員相当として働かせていた正社員ではない人材を辞めさせる方が都合が良いことだけは確実そうだ。

かろうじて話し合いをしていた人事担当者対応にすら、もはや望めるところはなさそうに思える。

契約や今後の契約である内定について、その不備等を含めて確かめると、確かに修正必要かもしれないとして、対応してくれた。何らか会社が認める「事由があり、入社不適切だと認められる場合には、内定を取り消す」という文言を紛れ込ませるありがたい修正内定に入れてくれるほどだった(幸い、この修正には気づくことができたが。)

しかるべき就職活動はしかるべき期間で行なった結果、内定を受け最終的に正社員という地位があると思っていただけに、あらためて就職活動を行なう機会損失と、精神的な落胆は小さくはない。しかし、このベンチャー企業で働く将来も想像に難いだろう。

特に技術系の人材不足もあり、学生正社員のごとく使う向きはあるのかもしれない。ともすれば、やりがいを与えて安く人材を使うという側面が窺えるかもしれない。

そういう場合もあるだろうが、必ずしもそういった場合ばかりとは思わない。きちんと制度化し、真っ当に運用しているならば、それは好都合に作用することもあるのかもしれない。

しかし、今回はどうやらその場合には当てはまらなかったようだ。

現代における技術人材獲得のグレーゾーンなのかもしれない。

2022年12月24日記す。

2022-12-10

anond:20221210141218

そもそも増田(anond:20221210141001)に概念についての正しい認識があると思えないし、哲学とも死ぬほど相性悪そう

これ→ anond:20221210142536 至っては言語学とか自然言語処理とかとも死ぬほど相性悪そう

 

ただ増田みたいなレベルの人だと感情を動かす言葉を紡げないとは思ってはいない

ハガキ職人Twitter大喜利ラッパーと同じなんだよな

知識なんかなくても感覚言葉は紡げる

2022-12-01

コンピューターサイエンスって何だよ?

最近コンピューターサイエンスプログラマー必要か否かみたいな話が上がっているが、そもそもコンピューターサイエンスって何だよ。どこまでの範囲をさしてんの?

って思ってググってみたらちゃん定義されてた。

ググって出てきた情報を整理しただけなので詳しい人、補足・訂正よろしく


情報

CS2013

https://www.acm.org/binaries/content/assets/education/cs2013_web_final.pdf

CS2013はACM/IEEE-CSによるカリキュラム標準。

ACM(計算機協会)はコンピュータ分野全般国際学会、IEEE-CSIEEE(米国電気電子学会)の中にあるテクニカルソサエティ


J07-CS

https://www.ipsj.or.jp/12kyoiku/J07/20090407/J07_Report-200902/4/J07-CS_report-20090120.pdf

J07-CS一般社団法人情報処理学会がCC2001CSベースアレンジを加えたカリキュラム標準。今はCS2013を反映したJ17-CSがあるらしいけどその辺は良く分からん

IPA共通キャリアスキルフレームワークとの対応表もあり。

https://www.ipa.go.jp/files/000024060.pdf


知識体系

J07ーCSから抜粋CS2013と比較するとナレッジエリアがあったり無かったり。

KAナレッジエリアKUナレッジユニットアユニット最低履修時間
DS離散構造DS1関数, 関係, 集合6
DS離散構造DS2論理6
DS離散構造DS3グラフ4
DS離散構造DS4証明技法8
DS離散構造DS5数え上げと離散確率の基礎7
DS離散構造DS6オートマトン正規表現6
DS離散構造DS7計算論概論4
DS離散構造DS8計算
PFプログラミングの基礎PF1プログラミング基本的構成要素9
PFプログラミングの基礎PF2アルゴリズム問題解決6
PFプログラミングの基礎PF3基本データ構造14
PFプログラミングの基礎PF4再起5
PFプログラミングの基礎PF5イベント駆動プログラミング4
ALアルゴリズムの基礎AL1アルゴリズムの解析の基礎4
ALアルゴリズムの基礎AL2アルゴリズム設計手法8
ALアルゴリズムの基礎AL3基本アルゴリズム8
ALアルゴリズムの基礎AL4アルゴリズムの高度な解析
ALアルゴリズムの基礎AL5高度なアルゴリズム設計
ALアルゴリズムの基礎AL6計算クラスPとNP
ALアルゴリズムの基礎AL7暗号アルゴリズム
ALアルゴリズムの基礎AL8幾何アルゴリズム
ALアルゴリズムの基礎AL9データ分析アルゴリズム
ALアルゴリズムの基礎AL10並列・分散アルゴリズム
ARアーキテクチャ構成AR1論理回路と論理システム6
ARアーキテクチャ構成AR2データマシンレベルでの表現2
ARアーキテクチャ構成AR3アセンブリレベルマシン構成7
ARアーキテクチャ構成AR4メモリシステム構成アーキテクチャ5
ARアーキテクチャ構成AR5インタフェース通信3
ARアーキテクチャ構成AR6機能構成7
ARアーキテクチャ構成AR7並列処理と様々なアーキテクチャ2
ARアーキテクチャ構成AR8性能の向上
ARアーキテクチャ構成AR9ネットワーク分散システムのためのアーキテクチャ
OSオペレーティングシステムOS1オペレーティングシステム概要1
OSオペレーティングシステムOS2利用者から見たオペレーティングシステム1
OSオペレーティングシステムOS3オペレーティングシステム原理1
OSオペレーティングシステムOS4プロセス構造スケジューリング3
OSオペレーティングシステムOS5並行性4
OSオペレーティングシステムOS6メモリ管理4
OSオペレーティングシステムOS7入出力デバイス管理と入出力
OSオペレーティングシステムOS8ファイルシステム2
OSオペレーティングシステムOS9認証アクセス制御1
OSオペレーティングシステムOS10セキュリティと高信頼化
OSオペレーティングシステムOS11リアルタイムシステム組込みシステム
OSオペレーティングシステムOS12並列分散処理のためのオペレーティングシステム機能
OSオペレーティングシステムOS13オペレーティングシステム構成
OSオペレーティングシステムOS14システム性能評価
NCネットワークコンピューティングNC1ネットワークコンピューティング入門2
NCネットワークコンピューティングNC2通信ネットワーク接続7
NCネットワークコンピューティングNC3ネットワークセキュリティ2
NCネットワークコンピューティングNC4クライアントサーバコンピューティングの例としてのウェブ3
NCネットワークコンピューティングNC5分散アプリケーションの構築
NCネットワークコンピューティングNC6ネットワーク管理
NCネットワークコンピューティングNC7ワイヤレスおよびモバイルコンピューティング
NCネットワークコンピューティングNC8マルチメディア情報配信システム
PLプログラミング言語PL1プログラミング言語概要2
PLプログラミング言語PL2仮想計算機1
PLプログラミング言語PL3言語翻訳入門2
PLプログラミング言語PL4宣言と型3
PLプログラミング言語PL5抽象化メカニズム3
PLプログラミング言語PL6オブジェクト指向言語6
PLプログラミング言語PL7関数言語
PLプログラミング言語PL8論理言語
PLプログラミング言語PL9スクリプト言語
PLプログラミング言語PL10言語翻訳システム
PLプログラミング言語PL11システム
PLプログラミング言語PL12ブログラミング言語意味論
PLプログラミング言語PL13プログラミング言語設計
HCヒューマンコンピュータインタラクションHC1ヒューマンコンピュータインタラクションの基礎6
HCヒューマンコンピュータインタラクションHC2簡単グラフィカルユーザインタフェースの構築2
HCヒューマンコンピュータインタラクションHC3人間中心のソフトウェア評価
HCヒューマンコンピュータインタラクションHC4人間中心のソフトウェア開発
HCヒューマンコンピュータインタラクションHC5グラフィカルユーザインタフェース設計
HCヒューマンコンピュータインタラクションHC6グラフィカルユーザインタフェースプログラミング
HCヒューマンコンピュータインタラクションHC7マルチメディアシステムのHCI 的側面
HCヒューマンコンピュータインタラクションHC8協同作業コミュニケーションのHCL的側面
MRマルチメディア表現MRI情報ディジタル表現2
MRマルチメディア表現MR2文字コード1
MRマルチメディア表現MR3標本化。 量子化圧縮原理アルゴリズム
MRマルチメディア表現MR4マルチメディア機器
MRマルチメディア表現MR5オーサリング
GVグラフィックスとビジュアルコンピューティングGV1グラフィックスにおける基礎技術2
GVグラフィックスとビジュアルコンピューティングGV2グラフィック・システム1
GVグラフィックスとビジュアルコンピューティングGV32次元画像の生成と加工
GVグラフィックスとビジュアルコンピューティングGV4モデリング
GVグラフィックスとビジュアルコンピューティングGV5レンダリング
GVグラフィックスとビジュアルコンピューティングGV6コンピュータアニメーション
GVグラフィックスとビジュアルコンピューティングGV7視覚
GVグラフィックスとビジュアルコンピューティングGV8仮想現実(VR)
GVグラフィックスとビジュアルコンピューティングGV9コンピュータビジョン
ISインテリジェントシステムIS1インテリジェントシステムの基本的問題3
ISインテリジェントシステムIS2探索および制約充足2
ISインテリジェントシステムIS3知識表現および推論
ISインテリジェントシステムIS4高度な探索
ISインテリジェントシステムIS5高度な知識表現と推論
ISインテリジェントシステムIS6エージェント
ISインテリジェントシステムIS7自然言語処理
ISインテリジェントシステムIS8機械学習ニューラルネット
ISインテリジェントシステムIS9プランニングシステム
ISインテリジェントシステムIS10ロボット工学
IM情報管理IMI情報モデルシステム2
IM情報管理IM2データベースシステム2
IM情報管理IM3データモデリング4
IM情報管理IM4関係データベース3
IM情報管理IM5データベース問合わせ3
IM情報管理IM6関係データベース設計データ操作
IM情報管理IM7トランザクション処理
IM情報管理IM8分散データベース
IM情報管理IM9データベース物理設計
IM情報管理IM10データマイニング
IM情報管理IM11情報格納と情報検索
IM情報管理IM12ハイパーテキストハイパーメディア
IM情報管理IM13マルチメディアデータベース
SP社会的視点情報倫理SP1コンピ

2022-10-09

なんでもかんでもAI定義づけるのはどうかと思う

同じインプットに対して常に同じアウトプットが返ってくるものを「AI」というのはどうかと思う。

最近のBtoC系のサイトで「AIロボットチャット」なるもの存在するけど、いや果たしてAIなのかと問いたい。

果ては「担当者にお繋ぎします」で担当者が代わってチャットする始末。

ただの自然言語処理なら「ロボットチャット」だけでええねや。

2022-10-08

世間知らず(指摘されるまで認識しないままだろうし、おそらく指摘されても認めないだろう事)

いたことも無い中小企業だけど、海外の売り上げがメインで海外によく行くから求人大卒オンリーはまぁわかる

ぶっちゃけ高卒でも、適当役職つけとけばビザ問題無いのだが、

まりシニアマネージャーが年若いと国や時期によっちツッコミを受けることもあるのかも知れないし、

宗教的熱狂若者の物知らず+人件費節約で走りたいフェーズなら『そうなんだ』と言う感じだ

  

いたことも無い中小企業だけど、そこそこ専門性があることやっているから、求人大卒オンリーはまぁわかる

mechanical engineer が欲しいケースもあるかも知れないし、

今時期だったら、自然言語処理技術深層学習技術研究バックグラウンドを持っている人間を欲しいケースもあるかも知れない

  

 

ただそれ以外のケースで、新卒でもなく第二新卒でもなく"中途"で大卒オンリー求人出しているのって、

どう贔屓目に考えても正気じゃあ無いと思います

大手企業で働く高卒よりも安い給与・悪い待遇で良いよ』って言ってる大卒社会人が本当に欲しいですか?

 

多少、世慣れしている場合も、経験によっては学歴不問・給与相談とかほざいていて、

いやいやどの位置に自社を置いてるねんって感じでマジでビビる

こんなんほざいて許されるのは、大大大企業もしくはフリーランス並みの高給払える企業だけなんやで坊や・・・

 

世間知らずと言う他無し

anond:20230411185326

2022-10-07

anond:20221007120741

ワトソンはまたちょっと違う系統ですよね。

ワトソンは要するに自然言語処理エキスパートシステムの組み合わせでクイズ王に勝った、という事で、

その応用例として医療の診断があった、という事ですね。

医学論文は膨大な数が出ていて人が全てチェックするのは不可能なのですが、

コンピュータが該当する症例に一致する事例の論文を見つけてきて治療法が判明した、という話で、

それが可能となったのは、IBMが持っていた高い自然言語処理技術があったという事と理解しています

まぁ今は自然言語処理ディープラーニング使うのが当たり前になっているので、ワトソンDL使ってるかもしれないですが。

2022-09-29

anond:20220929022620

特に無いが?

https://jp.indeed.com/%E6%B3%95%E5%BE%8B%E4%BA%8B%E5%8B%99%E6%89%80-%E7%A4%BE%E5%86%85se%E9%96%A2%E9%80%A3%E3%81%AE%E6%B1%82%E4%BA%BA%E6%9D%B1%E4%BA%AC%E9%83%BD

 

外資系法律事務所なら英語必須になるのでその旨は記載されているが、学歴については不問

なぜなら、そこそこ学歴があって、ネイティブ差し支えないコミュニケーションが取れる語学力もあるなら、

わざわざこんな仕事を好き好んでしねぇーからである。ただの罰ゲームじゃん

 

強いて言えば、リーガルテック企業なら自然言語処理技術深層学習技術研究バックグラウンドを持っている人間を欲しがるケースもあるだろうけど、

それはフツーに理に適っているのでは? 少なくとも、特に理由なく大卒・院卒ではない

ログイン ユーザー登録
ようこそ ゲスト さん