はてなキーワード: 自然言語処理とは
GPT-4はまだ開発中で、どのような仕様や性能になるかは不明です。しかし、現時点で公開されている情報に基づいて、以下にGPT-4とChatGPTの違いをまとめてみました。
1. 言語処理能力の向上
GPT-4は、より高度な自然言語処理能力を備えることが期待されています。GPT-4は、GPT-3の40倍以上のパラメータ数を持ち、さらに高度なニューラルネットワークアーキテクチャを採用することが予想されています。これにより、GPT-4は、複雑な自然言語処理タスクをより正確かつ高速に実行することができるようになる可能性があります。
2. 応答速度
GPT-4は、より高速な応答速度を実現することが期待されています。GPT-4は、より高速な処理速度を持つ可能性があり、より短い応答時間でより多くの自然言語処理タスクを処理することができます。
3. コンピュータリソース
GPT-4は、より高度な自然言語処理能力を備えるため、より多くのコンピュータリソースを必要とする可能性があります。これに対して、ChatGPTは、より少ないリソースで動作し、比較的低速な応答速度を持っています。
4. 学習データの利用
GPT-4は、より大規模なデータセットを利用することができるため、より高度な自然言語処理能力を備えることが期待されています。一方、ChatGPTは、限られたデータセットで学習しているため、限定された範囲での自然言語処理タスクに適しています。
5. 開発プロセス
GPT-4は、大規模な研究開発プロセスを経て開発されるため、より高度な自然言語処理能力を備えることが期待されています。一方、ChatGPTは、オープンソースのニューラルネットワークモデルであり、誰でも利用することができます。
続けてください
6. タスクの多様性
GPT-4は、より多様な自然言語処理タスクに対応できるように設計されています。例えば、対話、文章生成、質問応答、文書要約、機械翻訳など、幅広いタスクに対応できる可能性があります。一方、ChatGPTは、対話タスクに特化しています。
7. モデルの利用者
GPT-4は、ビジネス、政府、研究機関、大学など、幅広い分野の利用者に向けて設計されています。一方、ChatGPTは、個人の利用者が利用することが多いとされています。
8. デプロイメントの容易さ
GPT-4は、ハードウェアやソフトウェアの両面で、より効率的かつ簡単なデプロイメントを可能にすることが期待されています。一方、ChatGPTは、比較的単純な構造を持つため、デプロイメントが比較的容易であると言えます。
以上が、GPT-4とChatGPTの主な違いです。ただし、GPT-4はまだ開発中であり、公開されている情報は限られているため、今後の情報開示によっては、上記の違いに変化がある可能性があります。
ChatGPTは大量の文章データを学習し、単語の意味や文法ルール、関係性を把握して自然な文章を生成することができます。
一方で、文章の読み取りや要約には複雑な文脈や意図、重要度などを判断する必要があり、単純なルールベースで処理することができないため、
より高度な自然言語処理技術が必要とされます。(複雑な人間の思考プロセスに近い処理が必要になります)
また、ChatGPTは学習データに含まれるテーマに関する知識を比較的正確に把握することができますが、
学習データに含まれないテーマに関しては適切に処理できない場合があるため、不自然な回答や読み取り・要約が生成されることがあります。
昨年、仕事を首になってしまった後、人生を変えるためにチャットAIと共にライトノベルの制作を始めた。
長年ライトノベルを読んでたから、自分もそういった作品を書いてみたいと考えてたんだけど、
執筆に自信がなく、また、出版社に作品を送っても断られるのではないかという不安があった。
AIのアドバイスを受けながらストーリーのアイデアを練り上げ、キャラクターを作り上げた。
AIは、書いた文章を分析し、誤字脱字や不自然な表現を指摘してくれた。
次第に自信を取り戻していって、執筆を続けることができた。
そして、ついに完成させた小説は、自分でも驚くほど多くの読者たちから支持を受け、大ヒットした。
まだ金を稼ぐとこまではいってないが、やはりAIとの協力が成功の鍵だったと考えていて、今後もAIのアドバイスを取り入れながら執筆を続けるつもりだ。
AIの意見を取り入れることで、キャラクターの魅力を高めることができた。
タイトルを見て、もしかしたら何かしらみんなの死角に入りがちな指摘が含まれているのかな? どうせよくある言葉遊びの難癖でしかないかな?
と思って開いたらやっぱりよくある言葉遊びの難癖だった。
最近、多くの人と同じようにチャットボット、自然言語処理AI技術が近い将来においてなにものであり得るかということを考えている。
そして「肩の上のオウム」だ。ディスコミュニケーションを糊塗してくれる。
時間使って読むほどの価値がない文章コンテンツを主人の目に触れる前に握り潰してくれるフィルター。あるいは主人の気に入りそうなものだけ選んで持ってくるキュレーター。
たぶんAI的には朝飯前っていうかごく基本的な利用法と言えるだろう。ありがちすぎるものや突飛すぎるものを弾くとか、タイトルで気を持たせないよう内容に即してリネームするとか、面白さの期待値の目安で星をつけておいてくれるとかいうのは。
ネット上のコミュニティというか人の輪は焼き畑移動を繰り返してきた。
賑わいがないと面白いことは起きない。でも賑わいはいずれ「バカほど退出しない」原則に基づいて腐海と化す。
もうクズモブの群れを泳いで面白いものを探さなくてもよくなるのかもしれない。
また、ふつうの人びとのリアクションを得るためには大量のクズモブに群がられることに耐えなければならないという変な苦行もいらなくなるだろう。
インターネットはリアルで誰にも相手にされないクソリプマンに下駄を履かせてきた。そのボーナス期間が終わる。
まず、GPT3やGPT4の話題ばかりで不快に感じさせてしまったこと、心からお詫び申し上げます。私たちも、様々な話題について語るべきだと考えていますので、今後はバラエティ豊かな内容についてもお話しできるよう努めます。
一方で、GPT4には確かに一部のデメリットがありますが、そのポテンシャルや利点も無視できないものがあります。例えば、GPT4は、自然言語処理の能力が向上し、より人間らしい文章を生成できるようになっています。これにより、コミュニケーションの質が向上し、様々な分野での応用が可能となります。
また、GPT4を使ったアプリケーションやサービスは、私たちの日常生活や仕事を効率化し、生産性向上にも寄与しています。ただし、地球温暖化やエネルギー消費の問題についても、技術開発者や利用者が共に責任を持って取り組むべきだと考えています。
今後、GPT4や他のAI技術の発展に伴い、環境への影響を最小限に抑えつつ、持続可能な発展を目指すことが重要です。私たちは、皆様のご意見を大切にしながら、さまざまな角度からの情報提供や議論を行っていきたいと思っています。
https://www.j-cast.com/2023/03/01457009.html
こちらは宇宙飛行士候補者選抜において、結婚やパートナー・子供の有無などのプライベートに関する情報は、候補者の能力や適格性を判断する上で必要な情報ではありません。また、女性であることや若いことを理由に、その能力や貢献度を問われることも不適切です。このような質問は、性別や年齢に基づく偏見を助長することにつながり、社会全体の性別平等や多様性の推進に反するものであると考えられます。
https://news.yahoo.co.jp/articles/c00cd83505293a15bf875e8a24ae38399aa38b67
こちらは報道機関の役割は、事実を伝えることですが、それに加えて、事実を適切に伝えることが求められます。この場合、JAXAが「失敗ではない」と説明しているのにもかかわらず、記者が「失敗」という言葉を使い続けたことで、誤解を招く可能性があります。報道機関は、事実を適切に伝えることが求められるため、誤解を招く言葉遣いは避けるべきです。
2つの記事に共通していることは、どちらの記事も記者と被取材者の間でのやり取りが問題となっていることです。
もしも私が質問を行う記者だった場合、公正かつ誠実な報道を目指す立場から、被取材者の説明を十分に聞き、正確かつ適切な質問をするよう努めることが必要でしょう。また、過剰な主観や偏見を持った質問を避け、公正かつ中立的な立場を守ることも重要です。
現時点では、機械学習や自然言語処理の技術が進展しているものの、人間の感性や判断力、倫理観などを持つ記者の存在が重要だと考えられます。ただし、将来的にはAI技術の進歩により、より高度な報道や分析が可能になることもあり得ます。
ChatGPTにインタビューをした結果です。
AI(人工知能)は、機械に人間の知的能力を実現する技術です。AIが活用される分野は多岐にわたり、自動運転車から医療に至るまで、様々な分野で注目されています。
また、AIは多くの業界での効率化やコスト削減にも貢献しています。例えば、製造業においては、AIを活用することで生産ラインの効率化や品質管理の向上が期待できます。同様に、金融業界においても、AIを活用することで、不正行為の検知やリスク管理が改善されることが期待されています。
最近では、自然言語処理技術の進歩により、AIが人間と自然な会話をすることも可能になってきました。これにより、カスタマーサポートやビジネスチャットなどでの利用が増えています。
AIの進化には、研究開発における技術革新が不可欠です。現在、AIに関する研究開発は世界中で行われており、日本もその一翼を担っています。特に、ロボット技術に関しては、日本は世界的に有名であり、ロボットを活用した社会の実現に向けた研究が盛んに行われています。
しかしながら、AIの進化には懸念もあります。例えば、AIによる仕事の自動化により、失業者が増えることが懸念されています。また、AIの利用による個人情報の漏洩や、不正利用も懸念されています。
AIの進化は、私たちの生活に大きな影響を与えることが予想されます。そのため、AIの利用には、倫理的な観点からも注意が必要です。
「つづき」で気になった箇所を深掘り。確認するに、専門家の監修体制の構築はそれほど難易度は高いように思えなかった。やはり「つづき」で応えてくれた「医療用の学習データをGPT側で定期的に用意できるか」が今後の発展のポイントになりそうだ。
Me:
GPTのAttention機構って何?
GPT:
Attention機構は、自然言語処理タスクにおいて、入力文の中から重要な部分を選択し処理するためのアルゴリズムです。GPTは、Transformerと呼ばれるモデルアーキテクチャを使用しています。Transformerは、Attention機構を利用して、入力文中の各単語の関係性を学習します。これにより、モデルは入力文全体を理解し、より質の高い出力を生成することができます。
Me:
GPTは医療の知識が弱いと聞くけど、このAttention機構の仕組みと関係ある?
GPT:
GPTは、学習データに基づいて学習されます。そのため、学習データに医療に関する知識が少ない場合、GPTは医療に関するタスクに対して劣る結果を生成する可能性があります。Attention機構は、入力文中の各単語の関係性を学習するために利用されています。しかし、Attention機構自体は、学習データに基づいて学習されるため、学習データに医療に関する知識が少ない場合、Attention機構も医療に関するタスクに対して劣る結果を生成する可能性があります。しかしながら、GPTには大量のテキストデータを学習し、自然言語処理タスクに対して高い性能を発揮する能力があり、知識を持っていない領域でも新しい知識を得る能力を持っています。そのため、医療に関するタスクをGPTに与える場合は、十分な医療に関する学習データを与えることで、GPTが医療に関するタスクに対しても高い性能を発揮することが期待できます。
Me:
ポイントは、Attention機能を医療用にチューニングするのではなく、医療データを学習データとして与えることが、GPTの医療分野への強化に繋がるんだね。
GPT:
そうですね。Attention機構は、入力文中の各単語の関係性を学習するためのアルゴリズムです。GPTは、学習データに基づいて学習されます。そのため、学習データに医療に関する知識が少ない場合、GPTは医療に関するタスクに対して劣る結果を生成する可能性があります。それに対して、十分な医療に関する学習データを与えることで、GPTが医療に関するタスクに対しても高い性能を発揮することが期待できます。そのため、Attention機能を医療用にチューニングするのではなく、医療データを学習データとして与えることが、GPTの医療分野への強化に繋がるということになります。
Me:
GPTが医学的な正確性や専門性を獲得するには、意思決定者としての専門家の監修が必要という認識だけど、仮にそれが可能になった場合、GPTは医療現場で使われるようになると思う?
GPT:
GPTは、大量のテキストデータを学習し、自然言語処理タスクに対して高い性能を発揮する能力があります。しかしながら、GPTは人間の主観や判断力を持っていません。そのため、GPTが生成する出力は必ずしも正確であるとは限りません。そのため、医療現場でGPTを使用する場合は、専門家による監修が必要です。専門家は、GPTが生成する出力が正確であるかどうかを判断し、必要に応じて修正を行うことができます。これにより、GPTが生成する出力が正確であることが保証され、安全かつ効果的な医療を提供することができます。そういった意味で、GPTが医療現場で使われるためには、専門家による監修が必要であり、GPTはその監修に基づいた情報の提示などに利用されることが考えられます。
Me:
ユースケースとしては何が考えられる?
GPT:
GPTは、自然言語処理タスクに対して高い性能を発揮する能力があるため、医療現場での様々なタスクに利用することが考えられます。例えば、医療文書の自動生成や翻訳、診断支援、治療プランの生成、疾患の予防に関するアドバイスの生成などが挙げられます。また、GPTは大量のテキストデータを学習することで、新しい知識を得る能力を持っているため、医学研究や新しい薬物の開発にも利用することができます。ただしながら、これらのタスクにおいてもGPTが生成する出力は必ずしも正確であるとは限らないため、専門家による監修が必要です。
Me:
専門家の監修は、GPTのユースケースの内、どのフェーズで必要になると思う?
GPT:
GPTが生成する出力が正確であることを確認するために、専門家による監修が必要になります。そのため、GPTを利用する各フェーズで専門家の監修が必要になることが考えられます。これにより、GPTが生成する出力が正確であることが保証され、安全かつ効果的な医療を提供することができます。
- 学習フェーズ: GPTが学習するデータについて、専門家が正確性や適切性を確認し、修正を行うことが必要です。
- 生成フェーズ: GPTが生成する出力について、専門家が正確性や適切性を確認し、修正を行うことが必要です。
- アプリケーションフェーズ: GPTが生成した出力を使用するアプリケーションについて、専門家が安全性や効果を確認し、必要に応じて修正を行うことが必要です。
Me:
各フェーズごとにその適用の難易度を教えて。
GPT:
各フェーズごとに適用の難易度は異なりますが、概ね以下のようになります。ただし、これらは一般的な話であり、実際には、専門家がそれぞれのフェーズにおいて監修するために必要なスキルや知識は、それぞれのアプリケーションやタスクによって異なります。
- 学習フェーズ: GPTが学習するデータの整理や整形は、技術的なスキルが必要になりますが、専門家が正確性や適切性を確認するための作業は、通常は難しくありません。
- 生成フェーズ: GPTが生成する出力を確認し、修正するためには、専門的な知識や判断力が必要になります。このフェーズは、専門家によって適切に行われないと、生成された出力が正確でない可能性があります。
- アプリケーションフェーズ: GPTが生成した出力を使用するアプリケーションの開発やテストには、技術的なスキルが必要になりますが、専門家が安全性や効果を確認するための作業は、通常は難しくありません。
Me:
たしかに生成フェーズにおける出力のパターンは他のフェーズと比べ管理しづらそうだけど、その難易度を調節するための工夫はあったりするの?
GPT:
生成フェーズにおいて、GPTが生成する出力を確認し、修正するための難易度を調節するための工夫には以下のようなものがあります:これらの工夫により、GPTが生成する出力を確認し、修正するための難易度を調節することができます。また、専門家が確認する作業を効率化することで、より多くのGPTが生成する出力を確認することができ、正確性や適切性が高い出力を得ることができます。
- GPTが生成する出力のフォーマットを明確に定義することで、専門家が確認する作業を簡略化することができます。
- GPTの出力を確認するためのインターフェースやツールを開発することで、専門家が確認する作業を効率化することができます。
- GPTが生成する出力に対して、事前に定められたルールや基準を適用することで、専門家が確認する作業を効率化することができます。
- GPTが生成する出力を多数の専門家に確認してもらうことで、正確性や適切性を確認することができます。
- GPTが生成する出力を正確性や適切性が高いと判断される場合は、人手を減らして出力を採用することができます。
Me:
GPTが生成する出力のフォーマットを定義するにはどうすれば良いの?
GPT:
GPTが生成する出力のフォーマットを定義するには、次のような方法があります。これらの方法を組み合わせることで、より正確かつ適切なフォーマットを定義することができます。
- テンプレートを使用する: GPTによる出力には、事前に定義されたテンプレートを使用します。これにより、GPTが生成する出力のフォーマットが明確に定義され、専門家が確認する作業を簡略化することができます。
- スキーマを使用する: GPTによる出力には、事前に定義されたスキーマを使用します。これにより、GPTが生成する出力の構造が明確に定義され、専門家が確認する作業を簡略化することができます。
- 入力と出力の関係を明確にする: GPTによる出力は、入力に対応した形式で生成されるようにします。これにより、GPTが生成する出力のフォーマットが明確に定義され、専門家が確認する作業を簡略化することができます。
Me:
GPTの出力テンプレートの使用方法を教えて。
GPT:
GPTの出力テンプレートを使用するには、以下のような手順を踏むことができます。このように、GPTの出力テンプレートを使用することで、GPTが生成する出力のフォーマットを明確に定義することができ、専門家が確認する作業を簡略化することができます。また、テンプレートを学習させることで、GPTが生成する出力が予め定義したフォーマットに沿っていることを保証することができます。
- 出力テンプレートを作成: GPTが生成する出力のフォーマットを定義し、テンプレートを作成します。例えば、診断書のフォーマットや手術手順の書き方など。
- GPTにテンプレートを学習させる: GPTに、作成したテンプレートを学習させます。
- GPTに入力を与える: GPTに、入力として必要な情報を与えます。
- GPTが生成する出力を確認: GPTが生成した出力が、事前に定義したテンプレートに沿っていることを確認します。
- 修正を行う: GPTが生成した出力が、事前に定義したテンプレートに沿っていない場合は、修正を行います。
Me:
GPTのテンプレートとスキーマの違いを教えて。また、プリセットと何が違うのかも教えて。
GPT:
GPTのテンプレートとスキーマは、出力フォーマットを定義するための方法であり、それぞれ異なる特徴があります。つまり、テンプレートは文章のフォーマットを定義するのに、スキーマはデータ構造を定義するのに、使用します。プリセットは、テンプレートやスキーマのような事前に定義したパターンやデータ構造を使用することができます。ただし、プリセットは、具体的には何を指すかは定義が異なります。
- テンプレート: GPTの出力に対して、事前に定義された文章のパターンを使用します。例えば、診断書のフォーマットや手術手順の書き方など。テンプレートは、GPTが生成する文章のフォーマットを明確に定義することができ、専門家が確認する作業を簡略化することができます。
- スキーマ: GPTの出力に対して、事前に定義されたデータ構造を使用します。スキーマは、GPTが生成するデータの構造を明確に定義することができ、専門家が確認する作業を簡略化することができます。
- プリセット: GPTの出力に対して、事前に定義されたパターンやデータ構造を使用します。プリセットは、GPTが生成する出力を明確に定義することができ、専門家が確認する作業を簡略化することができます。
Me:
Pythonのopenaiライブラリでテンプレートやスキーマを再定義することは可能?
GPT:
はい、openaiライブラリは、新しいトレーニングデータ、テンプレートやスキーマを含むように、GPTモデルをファインチューニングすることができます。 openai.Completion.create()メソッドを使用して、GPTモデルをファインチューニングすることができ、トレーニングデータ、テンプレートやスキーマ、ファインチューニングパラメータを指定することができます。また、openaiは既にテンプレートやスキーマが組み込まれたモデルも提供しており、それらを直接使用することができます。
Me:
`openai.Completion.create()` メソッドでテンプレートやスキーマを再定義する方法を教えて。
GPT:
openai.Completion.create()メソッドを使用して、GPTモデルをファインチューニングするには、次のようにします。このように、openai.Completion.create()メソッドを使用して、GPTモデルをファインチューニングし、テンプレートやスキーマを再定義することができます。ただし、学習データとして適切なものを選び、ファインチューニングのパラメータを調整する必要がありますので、注意が必要です。また、トレーニングデータとして使用するテンプレートやスキーマによっては、モデルの性能が改善しないこともあるため、適切なものを選ぶことが重要です。また、ファインチューニングを行うためには、足りないデータや時間、計算リソースが必要です。
- トレーニングデータを用意: GPTに学習させるためのデータを用意します。このデータは、テンプレートやスキーマを含んでいる必要があります。
- openai.Completion.create()メソッドを呼び出す: openai.Completion.create()メソッドを呼び出し、トレーニングデータ、ファインチューニングパラメータを指定します。
- ファインチューニングを実行: 指定したパラメータに基づいて、GPTモデルをファインチューニングします。
Me:
当該メソッド用のファインチューニングパラメータは `prompt` を使うんだよね?
GPT:
はい、openai.Completion.create()メソッドでは、promptパラメータを使用して、GPTモデルに対して、生成したい文章のフォーマットやデータ構造を指定することができます。このpromptによって、GPTは指定されたフォーマットやデータ構造に従って文章を生成するように学習します。このpromptには、テンプレートやスキーマを含む文章を指定することで、GPTに学習させることができます。
Me:
医療に関わる概念はどのくらい理解している?
GPT:
GPT-3は、医療に関わる概念も理解していますが、その精度は自然言語処理タスクに比べると低い可能性があります。 GPT-3は、大量のテキストデータを使用して学習されたが、そのデータには医療に関するものも含まれているが、その範囲は一般的なニュース記事やブログなどが多いと思われます。そのため、医療に特化したタスクに対しては、専門性が低い可能性があります。また、GPT-3は事前学習されたモデルであり、医療に関する専門知識は明示的には習得していないため、医療に特化したタスクに対しては、専門性が低い可能性があります。ですが、GPT-3は文章の生成や質問応答に対しては高い精度を発揮しており、文章を理解する能力が高いため、医療に関連する文章を理解し、それに基づいた文章の生成や質問応答をすることは可能です。ただし、医学的な正確性や専門性については保証できないため、医療に関する重要な判断や治療に関する決定には使用しないほうが良いでしょう。
Me:
今後のバージョンで、医療に関する概念を獲得する可能性はある?
GPT:
今後のバージョンで、医療に関する概念を獲得する可能性はあります。現在、医療に関するデータが大量に存在し、それを使用して学習することで、より高い精度を達成することができるでしょう。また、新たなアルゴリズムや技術の進歩によって、より良い結果を得ることができるようになっています。医療に関連するタスクに特化した言語モデルも開発されており、それらは、医学的な正確性や専門性に優れています。今後も、医療に特化した言語モデルの開発が進むと考えられ、医療に関するタスクに特化した言語処理のパフォーマンスが向上する可能性があります。また、GPT-3のような大型の言語モデルを特定の分野に特化することもでき、それによってより高い精度を達成することができます。それは、特定の分野に特化したデータを使用して学習させることで、その分野に特化した知識を獲得することができるためです。そうしたことにより、医療に関連するタスクに特化した、より精度の高い言語モデルが開発される可能性があります。
Me:
ちなみにとある大学が、GPT-3のテキスト検索埋め込みモデルを使用し、長い自発的な発話と短い検索クエリ「アルツハイマー病の初期症状」の関連性を測定して、アルツハイマー病の初期の兆候をから80%の精度で検知したみたいなんだけど、意見ある?
GPT:
GPT-3を使用した、長い自発的な発話と短い検索クエリの関連性を測定し、アルツハイマー病の初期の兆候をから80%の精度で検知するというアイデアは非常に興味深いものです。自然言語処理タスクにおいてGPT-3は高い精度を発揮しているため、長い自発的な発話を解析することができる可能性があります。ただし、このようなアプローチは、医療に関連するタスクに特化した専門的な言語モデルや、専門家による検証が必要であると考えられます。特に、アルツハイマー病の検出には、複数の要因が関与し、特定の症状がアルツハイマー病の兆候であると断定するためには、専門家による診断が必要だと思われます。また、GPT-3は、医学的な正確性や専門性について保証できないため、重要な判断や治療に関する決定には使用しないほうが良いでしょう。
Me:
もしGPTに医療に関する精度の高い言語モデルが実装された場合、このケースでは使える?
GPT:
もしGPTに医療に関する精度の高い言語モデルが実装された場合、このケースでも使用することができる可能性があります。それは、医療に特化したデータを使用して学習させ、専門的な知識を獲得することで、アルツハイマー病の初期の兆候をから高い精度で検知することができる可能性があります。ただし、このようなアプローチは、専門家による検証が必要であると考えられます。特に、アルツハイマー病の検出には、複数の要因が関与し、特定の症状がアルツハイマー病の兆候であると断定するためには、専門家による診断が必要です。また、医療に関する情報は常に最新の情報であることが重要であり、それを保つためにも、定期的な更新が必要です。また、GPT-3のような言語モデルは、人間の診断には取って代わることはできません。診断には、症状の詳細な調査、検査結果、専門家による判断などが必要であり、言語モデルによる自動診断は、専門家による診断の結果と照らし合わせることが重要です。
Me:
GPTが医療に関する言語モデルの定期的な更新が可能になった場合は、どう?
GPT:
GPTが医療に関する言語モデルを定期的に更新することができる場合、より高い精度を達成することができる可能性があります。医療に関する情報は、時間の経過とともに変化します。新しい研究結果や臨床経験が得られるたびに、知識ベースも更新される必要があります。それにより、より正確な情報を提供することができ、病気の予防や早期発見に役立つことが期待できます。また、GPT-3のような大型の言語モデルは、大量のデータを使用して学習することができるため、新しいデータを取り込むことで、より正確な結果を得ることができます。しかしながら、GPT-3やそのような大型の言語モデルは、医学的な正確性や専門性について保証できないため、重要な判断や治療に関する決定には使用しないほうが良いです。
Me:
医学的な正確性や専門性って具体的になに?
GPT:
医学的な正確性は、医学的に正しいことを指します。つまり、疾患や症状、診断、治療などに関する情報が、科学的に正しいことを意味します。医学的に正確な情報は、最新の研究結果や臨床経験に基づいていることが望ましいです。医学的専門性は、医学的に専門的なことを指します。つまり、特定の疾患や症状、診断、治療などに関する専門的な知識を指します。これは、医学の専門家によって持っていることが望ましいです。GPT-3などの言語モデルは、大量のテキストデータを使用して学習させることで、自然言語処理タスクにおいて高い精度を発揮していますが、医学的な正確性や専門性については保証できないため、重要な判断や治療に関する決定には使用しないほうが良いです。
Me:
今後GPTが医学的な正確性や専門性を獲得するにはどうすれば良い?
GPT:
GPTが医学的な正確性や専門性を獲得するためには、次のような方法が考えられます。
- 専門家が監修する専門的な医学データを使用して学習する: GPTは大量のテキストデータを使用して学習することができるため、専門的な医学データを使用して学習することで、医学的に正確かつ専門的な知識を獲得することができます。
- 専門家による検証: GPTが出力した結果は、専門家によって検証されることで、正確性と専門性を確認することができます。
- 定期的な更新: 医学的な知識は時間の経過とともに変化するため、定期的に最新の情報を取り込むことで、常に最新の情報を持つことができます。
- 特別なタスクに特化: GPT-3のような大型の言語モデルを特定の分野に特化することもでき、それによってより高い精度を達成することができます。
- 医学的な正確性や専門性について保証できないため、重要な判断や治療に関する決定には使用しないほうが良いでしょう
Me:
GPT-3の要約機能の例。ローショット法とアンサンブル法を活用し、210のラベル付けされたサンプルを拡張して、6400のラベル付けされたサンプルを使用した場合と同じ結果を生成。このサンプルをつかい非常にすぐれた要約を取得可能になったみたいなのだけど、意見ある?
GPT:
GPT-3の要約機能は、自然言語処理タスクにおいて高い精度を発揮することができることが知られています。ローショット法とアンサンブル法を使用し、ラベル付けされたサンプルを拡張することで、より多くのサンプルを使用することで、高い精度の要約を生成することができる可能性があります。ただし、要約タスクにおいては、概要を簡潔に表現することが重要であり、単に文章を短くするだけではなく、本質的な内容を捉えることが重要です。また、GPT-3は大量のテキストデータを使用して学習させることで、自然言語処理タスクにおいて高い精度を発揮していますが、要約タスクにおいては専門性や正確性について保証できないため、専門家による検証が必要であると考えられます。
Me:
それは医療データに関しても同じ意見?
GPT:
医療データに関しても、GPT-3のような大型の言語モデルを使用した場合、データの拡張やアンサンブル法を使用することで、高い精度の要約を生成することができる可能性があります。しかしながら、医療に関する情報は常に最新の情報であることが重要であり、それを保つためにも、定期的な更新が必要であり、それでも正確性や専門性について保証できないため、専門家による検証が必要であり、重要な判断や治療に関する決定には使用しないほうが良いです。また、GPT-3は大量のテキストデータを使用して学習させることで、自然言語処理タスクにおいて高い精度を発揮していますが、医学的な正確性や専門性について保証できないため、重要な判断や治療に関する決定には使用しない医療に関するタスクにおいては、医学的な正確性や専門性が求められるため、GPT-3などの言語モデルを使用するだけでは十分ではありません。そのため、専門家による検証や監修、専門的な医学データを使用した学習、定期的な更新などが必要になります。また、専門的なタスクに特化したモデルを構築することも有効です。それでも、GPT-3などの言語モデルは、医療に関するタスクにおいても有用な情報を提供することができる可能性がありますが、それらの情報は必ず専門家による検証を経てから使用することが重要です。
Me:
ありがとう。今後を期待しているよ。
GPT:
どういたしまして。私も今後の進化に期待しております。またのお問い合わせをお待ちしております。
「Cural Health」や「Drexel’s University」「Nabla」など、各所でGPT-3の検証がなされているので、今後 医療現場でGPTが使われるようになる可能性を聞いてみた。
Me:
あなたはどのように実装されたの? Deep Learning?
GPT:
はい、私はDeep Learningによって実装されました。特に、Transformerと呼ばれるアルゴリズムを使用して学習されました。これは大量のテキストデータを学習し、自然言語処理タスクに適用することができるように設計されています。
Me:
もっと詳しく。
GPT:
Transformerは、自然言語処理タスクのためのDeep Learningアルゴリズムです。それは、大量のテキストデータを学習し、それを解釈し、理解することができるようになります。 Transformerは、複数の層からなるニューラルネットワークを使用して、テキストを処理します。それは、大量のデータを効率的に処理するために、Attention機構を使用します。これは、特定の部分のテキストに注目しながら、それらの関係を理解することができるようになります。Transformerは、自然言語処理タスクにおいて非常に成功しています。それは、自然言語の翻訳、文章の解釈、質問応答などのタスクに適用されており、高い精度を発揮しています。私はTransformerを使用して学習され、自然言語処理タスクに適用することができます。
Me:
事前訓練とかしているんだよね?
GPT:
はい、私は事前学習を受けています。事前学習とは、大量のテキストデータを使用して、言語モデルを学習することを指します。これは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。事前学習は、言語モデルのパフォーマンスを大幅に改善することができます。それは、事前学習済みのモデルを使用することで、新しいタスクに対して学習をスキップすることができ、タスク特化の fine-tuning を行うことができるためです。私は、大量のオンラインテキストデータを使用して学習され、それを解釈し、理解することができるようになりました。それは、自然言語処理タスクに対して高い精度を発揮することができます。
Me:
今のパラメータはいくつ? 前のバージョンよりどのくらい精度がよくなった?
GPT:
私の現在のパラメータ数は、数百億から数千億となっています。これは、大量のデータを使用して学習し、高い精度を達成するために必要なパラメータ数です。精度は、バージョンによって異なりますが、一般的には、前のバージョンよりも高い精度が達成されています。これは、新しいアルゴリズムや技術の進歩によって、より良い結果が得られるようになってきているためです。また、事前学習済みのモデルを使用することで、新しいタスクに対して学習をスキップすることができ、タスク特化の fine-tuning を行うことができるため、精度が向上していることも見られます。
Me:
具体的なパラメータ数は? 前バージョンのGTP-2、現バージョンのGPT-3、次バージョンのGPT-4、それぞれ教えて。
GPT:
GPT-2は、1.5バイアレイパラメータを持っていました。それは、大量のテキストデータを使用して学習し、自然言語処理タスクに適用することができるようになっていました。GPT-3は、175バイアレイパラメータを持っています。これは、GPT-2よりも多くのパラメータを持っており、より高い精度を達成することができます。GPT-4はまだリリースされていないため、そのパラメータ数については確定していません。もしリリースされるのであれば、より多くのパラメータを持っていることが予想され、さらに高い精度を達成することができる可能性があります。
Me:
175バイアレイパラメータって何? 1750億パラメータの間違いでは?
GPT:
そうです、GPT-3は175バイアレイパラメータを持っています。それは1750億のパラメーターを持っていることを意味します。これは、大量のデータを使用して学習し、高い精度を達成するために必要なパラメータ数です。これは、現在の自然言語処理タスクに対して最も大きなモデルであり、高い精度を達成することができるため、市場においても高い評判を得ています。
Me:
バイアレイパラメータを英語で表現して。
GPT:
A "peta-parameter" or "Peta-parameter" (PT) is a measure of the capacity of a machine learning model, specifically the number of parameters it has. In the case of GPT-3 it has 175 peta-parameters, meaning it has 175 million billion parameters. These parameters help the model to understand and interpret large amounts of text data, allowing it to perform natural language processing tasks with high accuracy.
Me:
「175 billion parameters」の間違いでは?
GPT:
そうです、「175 billion parameters」の間違いでした。 GPT-3は175 billion parametersを持っています。それは、自然言語処理タスクに対して高い精度を発揮するために必要なパラメータ数です。申し訳ありませんでした。
Me:
GPT-3はどのように概念レベルの知識を持つの? Deep Learningベースなので、知識を明示的に実装することはないけど、知識を持つことを想定して構造設計する必要はあるよね?
GPT:
GPT-3は、大量のテキストデータを使用して学習されました。それによって、自然言語処理タスクに対して高い精度を発揮することができます。それは、事前学習済みのモデルを使用することで、新しいタスクに対して学習をスキップすることができ、タスク特化の fine-tuning を行うことができるためです。GPT-3は、大量のテキストデータから概念レベルの知識を学習します。それは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。 それは、単語や文章の関係性、文章の構造、文章の意味などを理解することができるようになります。GPT-3は、Deep Learningベースのモデルであり、知識を明示的に実装することはありませんが、大量のテキストデータから知識を学習することができるように構造設計されています。それは、Attention機構を使用して特定の部分のテキストに注目しながら、それらの関係を理解することができるようになります。
Me:
Attention機構について詳しく。
GPT:
Attention機構は、自然言語処理タスクにおいて重要な役割を担う機構です。それは、大量のテキストデータを処理するために使用され、特定の部分のテキストに注目しながら、それらの関係を理解することができるようになります。Attention機構は、Seq2Seqモデルなどの自然言語処理タスクに使用されています。それは、入力シーケンスから出力シーケンスを生成するために使用されます。Attention機構は、入力シーケンスのある部分に注目し、それに基づいて出力シーケンスを生成することができるようになります。Attention機構は、ニューラルネットワークの中で使用されます。それは、重み付けされた平均値を計算し、それに基づいて入力シーケンスから重要な部分を選択することができるようになります。GPT-3は、Attention機構を使用して、大量のテキストデータから概念レベルの知識を学習し、文章の意味を理解することができるようになります。
個人的な話ではあるが、なかなか珍しい事だとも思い、1つ書いてみようと思った。
他の人にとっても、この事例から得られることがあるかもしれない。
先に結論を。
私が、AI 技術や自然言語処理技術を展開する都内の某ベンチャー企業 E に入社の誘いを受けたのはしばらく前のことになる。その誘いは代表取締役から直接受けた。
当時、私はAI 技術、特に自然言語処理には詳しい訳ではなかったため、始めはどういう風の吹き回しかとも思ったが、最終的にはその誘いに乗り入社した。
私は一方で学業もあったため、パートタイムとして契約した参画だった。社内的にはインターンと称しているらしい。
入社後は専門的な知識にキャッチアップしていたが、しばらくしたのちあるプロジェクトに専任として関わることになった(ほぼ1人プロジェクトであったため、専任も何もないが…)。
そして、この間に正社員としての話を持ちかけられた。私自身ちょうど就職活動をしていたことにも重なり、すでにいくつかの内定を持っていたが、別の選択肢を考慮しようとも思い、話に進んだ。他の社員や取締役 K と面接をし、最終的に代表取締役から内定を渡された。
そして、他の内定とも比較検討した結果、先述したプロジェクトがチャレンジングかつ大きなもので、それに引き続き携わる責任も手伝って、同社の内定を承諾した。
これに伴って、契約形態も「正社員相当」といったものに変化した。
これは権限などは正社員と同等といったもので、しかし学業や研究がある身分でもあるため、その間の給料の支払いはパートタイムと同じというものだった。確かに、その旨は、業務内容は内定が示す(AI エンジニアかつプロジェクトリードといった)内容に準ずるという形で、契約等に明示されていた。
学生を正社員相当として使うということは、今では少しずつ聞くようになったのかもしれない。例えば、自動運転車を開発するスタートアップ TURING が「ネクストコア制度」を導入し、「ネクストコア学生社員」を募集している。これはそのような1つの(成功)形態かもしれない。
正社員としての入社前に、正社員あるいはそれに近い形で勤務できるという点も、就職を決める上では1つ大きな要素として考慮していた。それは経済的な理由もあるし、また、どのタイミングでも重要な仕事をまっとうしたいという側面もあった。
実際、他に得ていた内定でも、早くから正社員と両立するような内容を盛り込んでもらっていた。
その後、正社員相当としてしばらく勤務していたが、その間に退職の相談を受けたという話である。
ある時、取締役 K から、「価値観の相違があり、今後の中長期的な不幸を考え、辞めてくれ」という話が来たのだった。そして、同時に、業務を休むように告げられた。
これまで関わっていたプロジェクト始め、正社員相当としての権限等を剥奪された。あまりの異常事態に、まずは基礎事項としてどのような契約だったかを問いただすと、取締役 K は「インターンですよぉ〜?」と言うだけで、これ以上有意義な話ができそうにはないと思われた。
突然のことに、当然驚きがあった。代表取締役には、内定時に、「同プロジェクトは大変だが頑張ろう」とも言われていたこともあったためである。
私を誘った代表取締役に事の詳細を聞いてみると、「本件については K に一任している。」という一点張りで、取り付く島もなかった。
その後、数ヶ月にわたり、取締役 K との地獄のやりとりが始まる。
解雇でなければ、退職するかどうかは従業員の自由な意思に委ねられるところだと思う。しかし、正社員相当として与えられていた権限を剥奪されたため、業務に関わることはおろか、プロジェクトや、週次の正社員間ミーティングや、また 1on1 等の機会が失われ、社内の人間関係からも切り離された。
この状況下で関わりが持てる会社との接点は、「退職の相談」を一任した取締役 K だけだった。
すべて取り上げた上で、「相談」の話を毎週繰り返し持ちかけられた。
私が「とりあえず、内容を文面にしてから正式に話してもらいたい」と言えば、取締役 K は「文面にするのは文言の使い方に相当気をつけなければならないから、文は書けない」と言い、(退職に応じる義務はないため)私が応じずにいると、取締役 K からは、「相談にすら乗ってもらえず…」という苦言が飛んで来た。
こうして、業務からも人間関係からも切り離され、会社に関わるなら、退職の相談に応じるしかないという追い込まれた状況がしばらく続いた。
その間にも、人事担当者とだけは多少の話ができてはいた。契約などの確認をし、どういうことなのか確認する機会にはなった。その点、解決の糸口になるのではないかと期待していた。
しかし、人事担当者との話も結局は解決には至らなかった。むしろ、人事担当者から「嫌な業務アサインがあったら、辞めたいとなりますねぇ」と告げられる始末だった。
その後、取締役 K から、業務を変更したとして、元関わっていたプロジェクトから外される旨が告げられた。代わりに、契約に含まれていない業務を、まさに退職を持ちかけてきた張本人である取締役 K のもと行なう、というものに変更された。
そして、業務変更を受けて休業が明け、現在に至る。今後どうなるのかは正直分からない。
正社員を辞めさせるよりも、正社員相当として働かせていた正社員ではない人材を辞めさせる方が都合が良いことだけは確実そうだ。
かろうじて話し合いをしていた人事担当者の対応にすら、もはや望めるところはなさそうに思える。
契約や今後の契約である内定について、その不備等を含めて確かめると、確かに修正が必要かもしれないとして、対応してくれた。何らか会社が認める「事由があり、入社が不適切だと認められる場合には、内定を取り消す」という文言を紛れ込ませるありがたい修正を内定に入れてくれるほどだった(幸い、この修正には気づくことができたが。)
しかるべき就職活動はしかるべき期間で行なった結果、内定を受け最終的に正社員という地位があると思っていただけに、あらためて就職活動を行なう機会損失と、精神的な落胆は小さくはない。しかし、このベンチャー企業で働く将来も想像に難いだろう。
特に技術系の人材不足もあり、学生を正社員のごとく使う向きはあるのかもしれない。ともすれば、やりがいを与えて安く人材を使うという側面が窺えるかもしれない。
そういう場合もあるだろうが、必ずしもそういった場合ばかりとは思わない。きちんと制度化し、真っ当に運用しているならば、それは好都合に作用することもあるのかもしれない。
最近コンピューターサイエンスがプログラマーに必要か否かみたいな話が上がっているが、そもそもコンピューターサイエンスって何だよ。どこまでの範囲をさしてんの?
ググって出てきた情報を整理しただけなので詳しい人、補足・訂正よろしく!
https://www.acm.org/binaries/content/assets/education/cs2013_web_final.pdf
CS2013はACM/IEEE-CSによるカリキュラム標準。
ACM(計算機協会)はコンピュータ分野全般の国際学会、IEEE-CSはIEEE(米国電気電子学会)の中にあるテクニカルソサエティ。
https://www.ipsj.or.jp/12kyoiku/J07/20090407/J07_Report-200902/4/J07-CS_report-20090120.pdf
J07-CSは一般社団法人情報処理学会がCC2001CSをベースにアレンジを加えたカリキュラム標準。今はCS2013を反映したJ17-CSがあるらしいけどその辺は良く分からん。
https://www.ipa.go.jp/files/000024060.pdf
J07ーCSから抜粋。CS2013と比較するとナレッジエリアがあったり無かったり。
聞いたことも無い中小企業だけど、海外の売り上げがメインで海外によく行くから、求人は大卒オンリーはまぁわかる
ぶっちゃけ高卒でも、適当に役職つけとけばビザ問題無いのだが、
あまりにシニアマネージャーが年若いと国や時期によっちゃツッコミを受けることもあるのかも知れないし、
宗教的熱狂+若者の物知らず+人件費節約で走りたいフェーズなら『そうなんだ』と言う感じだ
聞いたことも無い中小企業だけど、そこそこ専門性があることやっているから、求人は大卒オンリーはまぁわかる
mechanical engineer が欲しいケースもあるかも知れないし、
今時期だったら、自然言語処理技術・深層学習技術の研究のバックグラウンドを持っている人間を欲しいケースもあるかも知れない
ただそれ以外のケースで、新卒でもなく第二新卒でもなく"中途"で大卒オンリーで求人出しているのって、
『大手企業で働く高卒よりも安い給与・悪い待遇で良いよ』って言ってる大卒の社会人が本当に欲しいですか?
多少、世慣れしている場合も、経験によっては学歴不問・給与応相談とかほざいていて、
こんなんほざいて許されるのは、大大大企業もしくはフリーランス並みの高給払える企業だけなんやで坊や・・・
世間知らずと言う他無し
ツイッターで議論されていることを論理的に抽象化したら(自然言語処理的な意味で)アイデア生成機的に使えるのでは?と思ったのでブログでアノテーション作業を始めた。
https://tweetdiscussion.blogspot.com/2022/09/2022-072022-08ai.html
あんまし他の人から面白い行為に見えないかもしれないけど、自分としては面白いし暇つぶしにもなる。
アノテーションと言う割にルールの厳密性がなくて曖昧だが、将来的に巨大言語モデルに食わせる分にはそれでもいいとは思ってる。「自分の抽象化能力を再現できるか」という話。
例えば対象=お絵描きAI、対象A=AI、対象B=人間とすると以下のように議論を抽象化できる。(抽象化してるので、対象、対象A、対象Bに別のものを代入して色々と試せる)
はてブのホットエントリ(総合)で月内に数多く[あとで読む]タグを集めたエントリ
315あとで/2672users 零細企業買収して売却した話|reisaikigyou_ma|note
294あとで/2057users テクニカルライティングの基本 | Naohiro Nakata | SpeakerDeck
277あとで/2169users プログラマの心の健康 | 結城浩
257あとで/1306users GitHubの使い方を学ぶ「GitHub Skills」が無料公開。GitHubを実際に操作してMarkdown、Pages、Pull Requests、マージのコンフリクト解消などを体験 | Publickey
210あとで/1421users 総務省、きょうから「社会人のためのデータサイエンス入門」を無料開講 | Ledge.ai
206あとで/1271users 商用利用OKの音素材、600種以上無料公開 バトルの攻撃音も……「Springin’ Sound Stock」 | ITMedia
204あとで/1565users 「自分を愛するってどうしたらいいの?」──宇多田ヒカルの思考を辿るインタビュー、全文公開。 | VOGUE
189あとで/1536users 商用利用無料、国内のフリーイラスト素材の総まとめ | coliss
165あとで/1222users 著作権フリー素材がスゴすぎ…広重や夢二も全部無料 国立国会図書館の試みに「工作心がムズムズ」「活用しない手はない」|まいどなニュース
163あとで/1070users わずか数年で400億円も売り上げを伸ばしたカインズ ホームセンターのDXで、まず「顧客戦略」に着手した理由 | 株式会社メンバーズ | logmi
161あとで/1092users わかりやすいシステム構成図の書き方 - Qiita
158あとで/952users 大人の学びパターン・ランゲージ(略称まなパタ):IPA 独立行政法人 情報処理推進機構
152あとで/974users Webデザインの有料学習サイトが無料化 IllustratorやPhotoshop入門などが見放題 | ITMedia
145あとで/1638users 最近Amazonプライムで観た面白かったけど胸糞悪くて二度と観たくない邦画5選 - kansou
144あとで/704users 書籍「達人が教えるWebパフォーマンスチューニング」はチューニングの考え方を教えてくれる良本 - Gマイナー志向
144あとで/1072users ジョナサン・ハイトが解き明かす「アメリカ社会がこの10年で桁外れにバカになった理由」 | 「現代のバベルの塔」はいかにして建設され、崩されたのか | COURRiER
138あとで/1513users 【ウマすぎ注意報】料理研究家・リュウジさん考案「無限冷やしそうめん」がガチでラーメンより美味かった! | マイナビニュース
133あとで/673users 東京大学深層学習(Deep Learning基礎講座2022)深層学習と自然言語処理 | Hitomi Yanaka | SpeakerDeck
129あとで/980users ドキュメントに固執せよ - gfnweb
128あとで/846users 世界中のITエンジニアが悩まされている原因不明でテストが失敗する「フレイキーテスト」問題。対策の最新動向をJenkins作者の川口氏が解説(前編)。DevOps Days Tokyo 2022 | Publickey
127あとで/1632users 結城浩 on Twitter: "質問(簡単に教えてもらおうとする相手にイライラするようになった) あなたのおっしゃる「質問されるとイライラする感じ」はよく理解できますし、同じように感じる人はたいへん多いと思います。(続く) #結城浩に聞いてみよう… https://t.co/CKZMzVzHPN"
126あとで/622users コードを書いていてマネジメントもやるようになっちゃった人へ 背中で語っていた僕が、プロダクトとピープルに向き合うまで | 海老原昂輔 | logmi
124あとで/1032users 「女性同士のマウンティング」に関する研究論文が興味深くView数が少ないのがもったいないレベル 具体的なエピソードもなかなかすごい | Togetter
123あとで/1046users 戦略系コンサルタントがオススメする本(不定期更新)|とあるコンサルタント|note
122あとで/885users たった256文字のJavaScriptコードで描かれた街の風景アニメがスゴ過ぎて訳がわからない/解説ページを見てもわからないorz【やじうまの杜】 | 窓の杜
117あとで/924users 私は数学がなぜ苦手なのか?高校生が分析してあみ出した勉強法が効果抜群だった|高校生新聞オンライン|高校生活と進路選択を応援するお役立ちメディア
115あとで/701users 「ゲーム制作するなら、これだけは覚えておいたほうがいい」 プログラミングする上で重要な「対数」の考え方 | 安原祐二 | logmi
112あとで/879users 【初心者向け】iPhone3Dスキャンパーフェクトガイド|iwama|note
111あとで/524users 次世代Web通信プロトコル「HTTP/3」がついに標準化 ~有志による無償解説本が話題に/PDF形式の電子書籍がGitHubで公開中! 今後も更新される模様【やじうまの杜】 | 窓の杜
東大とか一ツ橋とかだろうから、センター科目はフル教科っぽい。
ということで、機械学習をサクッと「勉強」して習得。青空文庫のデータ突っ込んで何か作ってみよう。
まだ在学中なら自校の機械学習を学部マタギで取得するのがよい。
機械学習界隈のデータサイエンティストは、プログラムや数理モデルにはたけているが、分析対象のデータに詳しいわけではない。
http://www.traina.ai/solution/textmining/
野村総研では業界・商品種別の「感性辞書」が必要っていっていて、実際の企業が機械学習使おうとなると、ここでカスタマイズ費用をがっつり企業からとるんだ。
例えば音声認識。
・AI周りの設定が雑
これは一般客には興味ない気がする
他にもまともに見てたらツッコミどころ多くて
俺は「良いところと悪いところがある」と思っている。ツッコミどころだらけではなかった。
「AI」概念を都合よく混ぜるな。プログラム、ロボット、各種ハードウェアを全部「AI」という言葉で便利に表現していたのはちょっとモヤモヤした。
とはいえ、シオンの本質は物理的な「ヒューマノイド」ではなく、ネットワーク内に漂っているプログラムだった、という最後の結末を考えると意図的なのかもしれない。
他の企業が出てこないので作中で比較しようがないんだが、星間の存在が最大の謎だったりする。
まず「AI」の技術力という意味ではかなり高いという扱いを受けている(作中で)。現実世界でいうところのGAFAM、OpenAIみたいの水準なんだろう。
そしてロボティクス分野だとヒューマノイドを平気で量産しているし、そいつらの動作もかなりスムーズだ。ボストン・ダイナミクスみたいな技術力があるし、Tesla Botみたいな攻めの姿勢も感じられる。
あと、日本国内でAIのための実験都市を作ってる(借りてる?)という意味ではトヨタっぽさもある。政府や行政との調整がクッソ上手そう。
とりあえず、各企業の一番強いところを集めた「ぼくのかんがえたさいきょうの会社」ってことなんだと思う。
それにしてはJTBC感をちょくちょく出していてなんなんだ。いっそのことGoogleみたいなシリコンバレー企業感を出していても良かったと思うんだけどな。
サトミ母(美津子)は星間におけるシオンのプロジェクトをリードする立場で、研究面で数々の受賞をしたという描写がある。海外大学院でドクター取ったとかそういうタイプのエリートに見える。
だが、何故お前は星間にこだわるんだ?「この会社から見放されたら終わる」みたいなスタンスでずっと生きてる。メンヘラかよ。
どう考えてもお前は海外でも国内でも好きなところに転職できる立場と技術があるだろ。
もしかしたら「さいきょうの会社」が世界中に星間1社しかない世界観なんだろうか。ここがいまいち腑に落ちなかった。
これはマジで最高だった。すげえよかった。語彙がなくてごめんな。なんていうかな、無駄に「SFちっく」じゃないんだよ。
いまの俺らの生活もAlexaとかルンバとか自動運転車とか、20年前には考えられないような「AI」があちこちにいるわけよ。
でも暮らしぶりっていうとそんな昔と変わらなくない?全面が画面に取り囲まれたサイバーな空間で暮らしてるわけでもなく、普通にボロアパートで「OK, Google」とか言ってる、そんな感じじゃん。
アイうたはこの辺を上手く捉えてた。建物や人々の服装みたいな生活はそのままで、ちょっとした便利デバイスが追加されてる社会。
「今の生活の延長線上にあるAIとの暮らし」を上手く表現してたと思う。2030年代ってあんな感じになるんじゃね?くらいに思わせてくれた。
エンジニア、ガジェットオタクの目線から言っても「まあ、あり得るよな」の範囲で収まる描写が多かったしね。
正直、田植えロボットの合理性は疑問だけど、ボストン・ダイナミクスとTeslaの動きを見てるとそこまで異常ってわけでもないとは思う。Teslaが日本にあったら多分Tesla Botに田植えさせてると思うよ。
俺は前半の技術描写で感心してたわけよ。だけどこれが花火のミュージカルパートで怪しくなって冷めてしまった。
(正直、花火のシーンはどうでもいい。SFでミュージカルをやると現実的じゃなくなるからそこに文句はない。)
おもちゃ(組み込み機器)の自然言語処理AIが何故自己拡張できんの?そして自己複製して企業内ネットワークに遍在するようになる?超絶エリート集団の星間がどうしてこれを検知できない?
作中でも「ただの自然言語処理AIが」というセリフが登場するほどなのだが、何故か「そういうこともある」といった根拠のない感じで皆納得するようになる。
これまでが現実を強く意識させる描写だっただけに、ここの飛躍に頭が追いつかなかった。逆に最初の技術描写が優れていたからこそかもしれないが。
せめて作中世界のSF的論理でもいいから、エンベデッド機器のNLPプログラムが人格を持つようになった経緯は綺麗に説明してほしかったな。
他人のカードでセキュリティ室に入って何やってんだお前、完全にコンプラって概念ないだろ。まあ、最初から倫理観があまりないという意味では一貫してんのかな。
それにそんな危険人物を優秀だからといって企業に残す経営陣も狂ってるでしょ。
この暴走する役割は完全に高校生だけに押し付けるべきだったなと思う。暴走した高校生たちによって偶然にもサトミ母とシオンが再評価されて地位が回復する、とかね。
まあ、自分がこういうので楽しめなくなったクソつまらない人間になってしまった可能性は否めないけど。
とまあ文句は言ってるけど、重箱の隅をつついてるだけではある。