はてなキーワード: 進化とは
バカにする用のホームレスAIロボットを作れば、今人をなぶりものにして遊んでる層が何を求めてるのかはっきりしてくる
(a) 誰かをバカにするのが心底楽しくて、人の失敗をエンジョイしてる
(b) ホームレスが社会に何らかの害悪を与えていると思っていて、そいつに罰を与えることで正義心を満足させている
このうち(a)の人間は別にAIロボット相手だあろうが延々とエンジョイし続けるので、そのままロボットと遊んでくれればいい。AIが進化すればそのうち人間の反応と変らなくなってきてくるし、今のAIチャットボットの出来から考えるとそれは遠くない未来だ
Me:
医療に関わる概念はどのくらい理解している?
GPT:
GPT-3は、医療に関わる概念も理解していますが、その精度は自然言語処理タスクに比べると低い可能性があります。 GPT-3は、大量のテキストデータを使用して学習されたが、そのデータには医療に関するものも含まれているが、その範囲は一般的なニュース記事やブログなどが多いと思われます。そのため、医療に特化したタスクに対しては、専門性が低い可能性があります。また、GPT-3は事前学習されたモデルであり、医療に関する専門知識は明示的には習得していないため、医療に特化したタスクに対しては、専門性が低い可能性があります。ですが、GPT-3は文章の生成や質問応答に対しては高い精度を発揮しており、文章を理解する能力が高いため、医療に関連する文章を理解し、それに基づいた文章の生成や質問応答をすることは可能です。ただし、医学的な正確性や専門性については保証できないため、医療に関する重要な判断や治療に関する決定には使用しないほうが良いでしょう。
Me:
今後のバージョンで、医療に関する概念を獲得する可能性はある?
GPT:
今後のバージョンで、医療に関する概念を獲得する可能性はあります。現在、医療に関するデータが大量に存在し、それを使用して学習することで、より高い精度を達成することができるでしょう。また、新たなアルゴリズムや技術の進歩によって、より良い結果を得ることができるようになっています。医療に関連するタスクに特化した言語モデルも開発されており、それらは、医学的な正確性や専門性に優れています。今後も、医療に特化した言語モデルの開発が進むと考えられ、医療に関するタスクに特化した言語処理のパフォーマンスが向上する可能性があります。また、GPT-3のような大型の言語モデルを特定の分野に特化することもでき、それによってより高い精度を達成することができます。それは、特定の分野に特化したデータを使用して学習させることで、その分野に特化した知識を獲得することができるためです。そうしたことにより、医療に関連するタスクに特化した、より精度の高い言語モデルが開発される可能性があります。
Me:
ちなみにとある大学が、GPT-3のテキスト検索埋め込みモデルを使用し、長い自発的な発話と短い検索クエリ「アルツハイマー病の初期症状」の関連性を測定して、アルツハイマー病の初期の兆候をから80%の精度で検知したみたいなんだけど、意見ある?
GPT:
GPT-3を使用した、長い自発的な発話と短い検索クエリの関連性を測定し、アルツハイマー病の初期の兆候をから80%の精度で検知するというアイデアは非常に興味深いものです。自然言語処理タスクにおいてGPT-3は高い精度を発揮しているため、長い自発的な発話を解析することができる可能性があります。ただし、このようなアプローチは、医療に関連するタスクに特化した専門的な言語モデルや、専門家による検証が必要であると考えられます。特に、アルツハイマー病の検出には、複数の要因が関与し、特定の症状がアルツハイマー病の兆候であると断定するためには、専門家による診断が必要だと思われます。また、GPT-3は、医学的な正確性や専門性について保証できないため、重要な判断や治療に関する決定には使用しないほうが良いでしょう。
Me:
もしGPTに医療に関する精度の高い言語モデルが実装された場合、このケースでは使える?
GPT:
もしGPTに医療に関する精度の高い言語モデルが実装された場合、このケースでも使用することができる可能性があります。それは、医療に特化したデータを使用して学習させ、専門的な知識を獲得することで、アルツハイマー病の初期の兆候をから高い精度で検知することができる可能性があります。ただし、このようなアプローチは、専門家による検証が必要であると考えられます。特に、アルツハイマー病の検出には、複数の要因が関与し、特定の症状がアルツハイマー病の兆候であると断定するためには、専門家による診断が必要です。また、医療に関する情報は常に最新の情報であることが重要であり、それを保つためにも、定期的な更新が必要です。また、GPT-3のような言語モデルは、人間の診断には取って代わることはできません。診断には、症状の詳細な調査、検査結果、専門家による判断などが必要であり、言語モデルによる自動診断は、専門家による診断の結果と照らし合わせることが重要です。
Me:
GPTが医療に関する言語モデルの定期的な更新が可能になった場合は、どう?
GPT:
GPTが医療に関する言語モデルを定期的に更新することができる場合、より高い精度を達成することができる可能性があります。医療に関する情報は、時間の経過とともに変化します。新しい研究結果や臨床経験が得られるたびに、知識ベースも更新される必要があります。それにより、より正確な情報を提供することができ、病気の予防や早期発見に役立つことが期待できます。また、GPT-3のような大型の言語モデルは、大量のデータを使用して学習することができるため、新しいデータを取り込むことで、より正確な結果を得ることができます。しかしながら、GPT-3やそのような大型の言語モデルは、医学的な正確性や専門性について保証できないため、重要な判断や治療に関する決定には使用しないほうが良いです。
Me:
医学的な正確性や専門性って具体的になに?
GPT:
医学的な正確性は、医学的に正しいことを指します。つまり、疾患や症状、診断、治療などに関する情報が、科学的に正しいことを意味します。医学的に正確な情報は、最新の研究結果や臨床経験に基づいていることが望ましいです。医学的専門性は、医学的に専門的なことを指します。つまり、特定の疾患や症状、診断、治療などに関する専門的な知識を指します。これは、医学の専門家によって持っていることが望ましいです。GPT-3などの言語モデルは、大量のテキストデータを使用して学習させることで、自然言語処理タスクにおいて高い精度を発揮していますが、医学的な正確性や専門性については保証できないため、重要な判断や治療に関する決定には使用しないほうが良いです。
Me:
今後GPTが医学的な正確性や専門性を獲得するにはどうすれば良い?
GPT:
GPTが医学的な正確性や専門性を獲得するためには、次のような方法が考えられます。
- 専門家が監修する専門的な医学データを使用して学習する: GPTは大量のテキストデータを使用して学習することができるため、専門的な医学データを使用して学習することで、医学的に正確かつ専門的な知識を獲得することができます。
- 専門家による検証: GPTが出力した結果は、専門家によって検証されることで、正確性と専門性を確認することができます。
- 定期的な更新: 医学的な知識は時間の経過とともに変化するため、定期的に最新の情報を取り込むことで、常に最新の情報を持つことができます。
- 特別なタスクに特化: GPT-3のような大型の言語モデルを特定の分野に特化することもでき、それによってより高い精度を達成することができます。
- 医学的な正確性や専門性について保証できないため、重要な判断や治療に関する決定には使用しないほうが良いでしょう
Me:
GPT-3の要約機能の例。ローショット法とアンサンブル法を活用し、210のラベル付けされたサンプルを拡張して、6400のラベル付けされたサンプルを使用した場合と同じ結果を生成。このサンプルをつかい非常にすぐれた要約を取得可能になったみたいなのだけど、意見ある?
GPT:
GPT-3の要約機能は、自然言語処理タスクにおいて高い精度を発揮することができることが知られています。ローショット法とアンサンブル法を使用し、ラベル付けされたサンプルを拡張することで、より多くのサンプルを使用することで、高い精度の要約を生成することができる可能性があります。ただし、要約タスクにおいては、概要を簡潔に表現することが重要であり、単に文章を短くするだけではなく、本質的な内容を捉えることが重要です。また、GPT-3は大量のテキストデータを使用して学習させることで、自然言語処理タスクにおいて高い精度を発揮していますが、要約タスクにおいては専門性や正確性について保証できないため、専門家による検証が必要であると考えられます。
Me:
それは医療データに関しても同じ意見?
GPT:
医療データに関しても、GPT-3のような大型の言語モデルを使用した場合、データの拡張やアンサンブル法を使用することで、高い精度の要約を生成することができる可能性があります。しかしながら、医療に関する情報は常に最新の情報であることが重要であり、それを保つためにも、定期的な更新が必要であり、それでも正確性や専門性について保証できないため、専門家による検証が必要であり、重要な判断や治療に関する決定には使用しないほうが良いです。また、GPT-3は大量のテキストデータを使用して学習させることで、自然言語処理タスクにおいて高い精度を発揮していますが、医学的な正確性や専門性について保証できないため、重要な判断や治療に関する決定には使用しない医療に関するタスクにおいては、医学的な正確性や専門性が求められるため、GPT-3などの言語モデルを使用するだけでは十分ではありません。そのため、専門家による検証や監修、専門的な医学データを使用した学習、定期的な更新などが必要になります。また、専門的なタスクに特化したモデルを構築することも有効です。それでも、GPT-3などの言語モデルは、医療に関するタスクにおいても有用な情報を提供することができる可能性がありますが、それらの情報は必ず専門家による検証を経てから使用することが重要です。
Me:
ありがとう。今後を期待しているよ。
GPT:
どういたしまして。私も今後の進化に期待しております。またのお問い合わせをお待ちしております。
優生思想とか実力主義そのものが変わるなら良いと思うけどそれは変えないんだよね
カトリック?もなんかエリート養成機関みたいなのやってるし単なる富の独占したいだけじゃないのかな
もしかしたら人類が宇宙で初めての知的生命体かもしれないよね!
知的生命体の定義は「宇宙の年齢を測れる科学知識を持ってる」として。
「この宇宙には知的生命体はいるんだけど地球には来てないだけ」って言うけど、
宇宙で最初の知的生命体も同じように考えると思うんだよね。なんか切ない。
生命の誕生は奇跡的な偶然だけじゃなくて、環境が揃えば似たような生命は生まれるんじゃないかな。
他には、「うちらもわからないんですけど、自然とトランジスタができて、
それが論理回路を構成して進化してこんなロボットになったんですよねえ」って機械生命体とか。
電流が電流が流れてる星なんだろうな。動ける体が先な気がするけど。
地球ができて46億年経って人類が生まれて、宇宙の年齢が138億年から考えると遅いような。
それに人類が宇宙の大きさをしってからまだ100年も経ってない。200年前は宇宙も知らなかったし。
人類が他の星へ信号出すべきだと思う。やりがいはなさそうだけど。
その方法は「太陽の光を大きな壁で遮ったり光らせたりだね!素数の間隔でかな。
だって他の宇宙から見れるような明るい光を作るのは太陽を作るのと同じだし、
太陽作るよりは明るさを変化させる大きな壁の方が作れそう。
#他の生命体とコンタクトを取りたい!って考える知的生命体は地球人だけだったりして。
#偶然コンタクト取れても「なんでそんなことしたいの?」って、
何事も良い面もあれば悪い面もある、というのは置いといて。
良い面は勝手に指摘が入ると思うので、悪い面を挙げていく。
ネットにつながらないから推敲するという時代なら良かっただろうが、思いついたのをそのまま流し、それに対して多くの人が巻き込まれる状況はどうなのだろうか。
個々人が複数の情報を比較し、取捨選択し、その結果として発信している、ならわかる。
でもそうではない。
スマホ、パソコンを含め、コンピュータは進化し情報収取する手段は増えたようでいて、考えるための材料は広まっておらず、その場その場で感情に任せるだけになった。
党派性が重視するあまり、過激な言動も目立つ。それを民意だと拡散する。
動画やブログにまとめてそれが個人の創作であり儲ける手段となっているのは、法律云々はおいといて、個人的にはなんだかなと思ってる。(創作か?)
東京に住んでいる人がネットでは多くなるが、これだと村と村が争っているのと何も変わらないではないか。
そして適切な窓口に意見を言っているわけではないのに、なぜか自分の意見が通じないんだとか、民意と勘違いしてしまう。
多くの一般人はメリットなんぞなく、バズったら炎上のデメリットの方が多いだろう。
まともな人ほどネットから離れてリアルにいる(ように見える)。
テクノロジーによって貧困をなくそうとか、多くの意見を集まればもっと良い方法が見つかるはずだとか、そんなことはなかった。
旧メディアはダメでネットが代わりになるといってたが、自浄作用もなく、面白おかしくなければアクセス数が稼げないのでより過激になるものが出ただけだった。
直接関係ないから無責任に煽れるし、滅茶苦茶になるのを面白がる多数の集団。
テクノロジーで人を集めるだけ集めて統治能力が低かったからこうなったのか。
UI/UXを考える人も、どうやって異なる意見を持つ同士の集団を議論させ、議論を集約するか、というのは考えない。
AIが色々出てくるが、学習やファインチューニングしようとすると性能が足りない。
個人のパソコンで出来る範囲で学習させると、それほど便利な物が出来ない。
メモリーは128GBまでなら個人でも買える価格だが、多くが使い道がない。
24GB程度か、頑張って40GB程度だろう。
レイトレ話題になったが、ゲームでも拡大して見比べないと違いがわからない程度。
かといって本格的なフォトリアルなものだと性能が足りず、未だに8個のGPUをレンダリングファームで借りるとかになる。
CPUのコア数増えても、ベンチ以外でフル活用出来るソフトがそもそもない。
かと思ったらAIだとCPUは全然使われて無くてGPU性能で決まる。
音楽だとDAWでオーケストラなんてやろうとすると何故かまだ止まる。
性能足りてそうなのにリアルタイムが悪いのか、ソフトが悪いのか。
GPU2個以上にしようとすると、コンセントのワット数超えるしさ。
2台以上のパソコンでクラスタ分散処理ってなると、出来るソフトが限られる。
そんなふうに疑ってしまう。
極めて意識が低い。
つまりプロジェクトではなく利潤を稼いでいる。目的を変えてますから。組織存続が目的になっています。
@lll537486291
返信先:
@Toshizoo_wanko
さん
そうか?
https://thinktank.php.co.jp/kaeruhito/3543/
第一にミッションが一致しているかどうかですね。本当にいろんな団体がいるので。地域開発をミッションとして、活動の一環として児童買春の課題にも取り組んでいるという団体もあるし、人身売買がターゲットではあるけど、労働力としての人身売買も範囲内だし、未成年にも限らないといった団体もあります。なので一見同じように見えても、児童買春にどういうスタンスで取り組んでいるかに限って見てみると、いろいろと違いがあるんですよね。
つまりいうほど歓迎はされていない。そして青木の卒業と終了が一致。
あとは、ここ3年間くらいのリーダーとしての旅は、辛かったような気がしますね。リーダーとしての自分のクセと問題点と、それに対する諦めみたいなものをもてるように割り切ったりしながら進んで行く過程が大変でした。
なにか引っかかる。