はてなキーワード: 単語とは
chatGPTを類語・対義語辞典として活用すると自分の知らない・忘れていた単語を想起させるのに使えるよ
関連する用語がない単語なんてこの世に存在しないと思うんだけど。
余程、特殊な業界用語であればそのジャンルを検索してれば出てくるはずだし。
例えば中世ルネッサンス期の彫刻に使われているジャーゴンとかだったら中世ルネッサンス期の彫刻について書かれたものを調べればいいわけだし。
「つづき」で気になった箇所を深掘り。確認するに、専門家の監修体制の構築はそれほど難易度は高いように思えなかった。やはり「つづき」で応えてくれた「医療用の学習データをGPT側で定期的に用意できるか」が今後の発展のポイントになりそうだ。
Me:
GPTのAttention機構って何?
GPT:
Attention機構は、自然言語処理タスクにおいて、入力文の中から重要な部分を選択し処理するためのアルゴリズムです。GPTは、Transformerと呼ばれるモデルアーキテクチャを使用しています。Transformerは、Attention機構を利用して、入力文中の各単語の関係性を学習します。これにより、モデルは入力文全体を理解し、より質の高い出力を生成することができます。
Me:
GPTは医療の知識が弱いと聞くけど、このAttention機構の仕組みと関係ある?
GPT:
GPTは、学習データに基づいて学習されます。そのため、学習データに医療に関する知識が少ない場合、GPTは医療に関するタスクに対して劣る結果を生成する可能性があります。Attention機構は、入力文中の各単語の関係性を学習するために利用されています。しかし、Attention機構自体は、学習データに基づいて学習されるため、学習データに医療に関する知識が少ない場合、Attention機構も医療に関するタスクに対して劣る結果を生成する可能性があります。しかしながら、GPTには大量のテキストデータを学習し、自然言語処理タスクに対して高い性能を発揮する能力があり、知識を持っていない領域でも新しい知識を得る能力を持っています。そのため、医療に関するタスクをGPTに与える場合は、十分な医療に関する学習データを与えることで、GPTが医療に関するタスクに対しても高い性能を発揮することが期待できます。
Me:
ポイントは、Attention機能を医療用にチューニングするのではなく、医療データを学習データとして与えることが、GPTの医療分野への強化に繋がるんだね。
GPT:
そうですね。Attention機構は、入力文中の各単語の関係性を学習するためのアルゴリズムです。GPTは、学習データに基づいて学習されます。そのため、学習データに医療に関する知識が少ない場合、GPTは医療に関するタスクに対して劣る結果を生成する可能性があります。それに対して、十分な医療に関する学習データを与えることで、GPTが医療に関するタスクに対しても高い性能を発揮することが期待できます。そのため、Attention機能を医療用にチューニングするのではなく、医療データを学習データとして与えることが、GPTの医療分野への強化に繋がるということになります。
Me:
GPTが医学的な正確性や専門性を獲得するには、意思決定者としての専門家の監修が必要という認識だけど、仮にそれが可能になった場合、GPTは医療現場で使われるようになると思う?
GPT:
GPTは、大量のテキストデータを学習し、自然言語処理タスクに対して高い性能を発揮する能力があります。しかしながら、GPTは人間の主観や判断力を持っていません。そのため、GPTが生成する出力は必ずしも正確であるとは限りません。そのため、医療現場でGPTを使用する場合は、専門家による監修が必要です。専門家は、GPTが生成する出力が正確であるかどうかを判断し、必要に応じて修正を行うことができます。これにより、GPTが生成する出力が正確であることが保証され、安全かつ効果的な医療を提供することができます。そういった意味で、GPTが医療現場で使われるためには、専門家による監修が必要であり、GPTはその監修に基づいた情報の提示などに利用されることが考えられます。
Me:
ユースケースとしては何が考えられる?
GPT:
GPTは、自然言語処理タスクに対して高い性能を発揮する能力があるため、医療現場での様々なタスクに利用することが考えられます。例えば、医療文書の自動生成や翻訳、診断支援、治療プランの生成、疾患の予防に関するアドバイスの生成などが挙げられます。また、GPTは大量のテキストデータを学習することで、新しい知識を得る能力を持っているため、医学研究や新しい薬物の開発にも利用することができます。ただしながら、これらのタスクにおいてもGPTが生成する出力は必ずしも正確であるとは限らないため、専門家による監修が必要です。
Me:
専門家の監修は、GPTのユースケースの内、どのフェーズで必要になると思う?
GPT:
GPTが生成する出力が正確であることを確認するために、専門家による監修が必要になります。そのため、GPTを利用する各フェーズで専門家の監修が必要になることが考えられます。これにより、GPTが生成する出力が正確であることが保証され、安全かつ効果的な医療を提供することができます。
- 学習フェーズ: GPTが学習するデータについて、専門家が正確性や適切性を確認し、修正を行うことが必要です。
- 生成フェーズ: GPTが生成する出力について、専門家が正確性や適切性を確認し、修正を行うことが必要です。
- アプリケーションフェーズ: GPTが生成した出力を使用するアプリケーションについて、専門家が安全性や効果を確認し、必要に応じて修正を行うことが必要です。
Me:
各フェーズごとにその適用の難易度を教えて。
GPT:
各フェーズごとに適用の難易度は異なりますが、概ね以下のようになります。ただし、これらは一般的な話であり、実際には、専門家がそれぞれのフェーズにおいて監修するために必要なスキルや知識は、それぞれのアプリケーションやタスクによって異なります。
- 学習フェーズ: GPTが学習するデータの整理や整形は、技術的なスキルが必要になりますが、専門家が正確性や適切性を確認するための作業は、通常は難しくありません。
- 生成フェーズ: GPTが生成する出力を確認し、修正するためには、専門的な知識や判断力が必要になります。このフェーズは、専門家によって適切に行われないと、生成された出力が正確でない可能性があります。
- アプリケーションフェーズ: GPTが生成した出力を使用するアプリケーションの開発やテストには、技術的なスキルが必要になりますが、専門家が安全性や効果を確認するための作業は、通常は難しくありません。
Me:
たしかに生成フェーズにおける出力のパターンは他のフェーズと比べ管理しづらそうだけど、その難易度を調節するための工夫はあったりするの?
GPT:
生成フェーズにおいて、GPTが生成する出力を確認し、修正するための難易度を調節するための工夫には以下のようなものがあります:これらの工夫により、GPTが生成する出力を確認し、修正するための難易度を調節することができます。また、専門家が確認する作業を効率化することで、より多くのGPTが生成する出力を確認することができ、正確性や適切性が高い出力を得ることができます。
- GPTが生成する出力のフォーマットを明確に定義することで、専門家が確認する作業を簡略化することができます。
- GPTの出力を確認するためのインターフェースやツールを開発することで、専門家が確認する作業を効率化することができます。
- GPTが生成する出力に対して、事前に定められたルールや基準を適用することで、専門家が確認する作業を効率化することができます。
- GPTが生成する出力を多数の専門家に確認してもらうことで、正確性や適切性を確認することができます。
- GPTが生成する出力を正確性や適切性が高いと判断される場合は、人手を減らして出力を採用することができます。
Me:
GPTが生成する出力のフォーマットを定義するにはどうすれば良いの?
GPT:
GPTが生成する出力のフォーマットを定義するには、次のような方法があります。これらの方法を組み合わせることで、より正確かつ適切なフォーマットを定義することができます。
- テンプレートを使用する: GPTによる出力には、事前に定義されたテンプレートを使用します。これにより、GPTが生成する出力のフォーマットが明確に定義され、専門家が確認する作業を簡略化することができます。
- スキーマを使用する: GPTによる出力には、事前に定義されたスキーマを使用します。これにより、GPTが生成する出力の構造が明確に定義され、専門家が確認する作業を簡略化することができます。
- 入力と出力の関係を明確にする: GPTによる出力は、入力に対応した形式で生成されるようにします。これにより、GPTが生成する出力のフォーマットが明確に定義され、専門家が確認する作業を簡略化することができます。
Me:
GPTの出力テンプレートの使用方法を教えて。
GPT:
GPTの出力テンプレートを使用するには、以下のような手順を踏むことができます。このように、GPTの出力テンプレートを使用することで、GPTが生成する出力のフォーマットを明確に定義することができ、専門家が確認する作業を簡略化することができます。また、テンプレートを学習させることで、GPTが生成する出力が予め定義したフォーマットに沿っていることを保証することができます。
- 出力テンプレートを作成: GPTが生成する出力のフォーマットを定義し、テンプレートを作成します。例えば、診断書のフォーマットや手術手順の書き方など。
- GPTにテンプレートを学習させる: GPTに、作成したテンプレートを学習させます。
- GPTに入力を与える: GPTに、入力として必要な情報を与えます。
- GPTが生成する出力を確認: GPTが生成した出力が、事前に定義したテンプレートに沿っていることを確認します。
- 修正を行う: GPTが生成した出力が、事前に定義したテンプレートに沿っていない場合は、修正を行います。
Me:
GPTのテンプレートとスキーマの違いを教えて。また、プリセットと何が違うのかも教えて。
GPT:
GPTのテンプレートとスキーマは、出力フォーマットを定義するための方法であり、それぞれ異なる特徴があります。つまり、テンプレートは文章のフォーマットを定義するのに、スキーマはデータ構造を定義するのに、使用します。プリセットは、テンプレートやスキーマのような事前に定義したパターンやデータ構造を使用することができます。ただし、プリセットは、具体的には何を指すかは定義が異なります。
- テンプレート: GPTの出力に対して、事前に定義された文章のパターンを使用します。例えば、診断書のフォーマットや手術手順の書き方など。テンプレートは、GPTが生成する文章のフォーマットを明確に定義することができ、専門家が確認する作業を簡略化することができます。
- スキーマ: GPTの出力に対して、事前に定義されたデータ構造を使用します。スキーマは、GPTが生成するデータの構造を明確に定義することができ、専門家が確認する作業を簡略化することができます。
- プリセット: GPTの出力に対して、事前に定義されたパターンやデータ構造を使用します。プリセットは、GPTが生成する出力を明確に定義することができ、専門家が確認する作業を簡略化することができます。
Me:
Pythonのopenaiライブラリでテンプレートやスキーマを再定義することは可能?
GPT:
はい、openaiライブラリは、新しいトレーニングデータ、テンプレートやスキーマを含むように、GPTモデルをファインチューニングすることができます。 openai.Completion.create()メソッドを使用して、GPTモデルをファインチューニングすることができ、トレーニングデータ、テンプレートやスキーマ、ファインチューニングパラメータを指定することができます。また、openaiは既にテンプレートやスキーマが組み込まれたモデルも提供しており、それらを直接使用することができます。
Me:
`openai.Completion.create()` メソッドでテンプレートやスキーマを再定義する方法を教えて。
GPT:
openai.Completion.create()メソッドを使用して、GPTモデルをファインチューニングするには、次のようにします。このように、openai.Completion.create()メソッドを使用して、GPTモデルをファインチューニングし、テンプレートやスキーマを再定義することができます。ただし、学習データとして適切なものを選び、ファインチューニングのパラメータを調整する必要がありますので、注意が必要です。また、トレーニングデータとして使用するテンプレートやスキーマによっては、モデルの性能が改善しないこともあるため、適切なものを選ぶことが重要です。また、ファインチューニングを行うためには、足りないデータや時間、計算リソースが必要です。
- トレーニングデータを用意: GPTに学習させるためのデータを用意します。このデータは、テンプレートやスキーマを含んでいる必要があります。
- openai.Completion.create()メソッドを呼び出す: openai.Completion.create()メソッドを呼び出し、トレーニングデータ、ファインチューニングパラメータを指定します。
- ファインチューニングを実行: 指定したパラメータに基づいて、GPTモデルをファインチューニングします。
Me:
当該メソッド用のファインチューニングパラメータは `prompt` を使うんだよね?
GPT:
はい、openai.Completion.create()メソッドでは、promptパラメータを使用して、GPTモデルに対して、生成したい文章のフォーマットやデータ構造を指定することができます。このpromptによって、GPTは指定されたフォーマットやデータ構造に従って文章を生成するように学習します。このpromptには、テンプレートやスキーマを含む文章を指定することで、GPTに学習させることができます。
「Cural Health」や「Drexel’s University」「Nabla」など、各所でGPT-3の検証がなされているので、今後 医療現場でGPTが使われるようになる可能性を聞いてみた。
Me:
あなたはどのように実装されたの? Deep Learning?
GPT:
はい、私はDeep Learningによって実装されました。特に、Transformerと呼ばれるアルゴリズムを使用して学習されました。これは大量のテキストデータを学習し、自然言語処理タスクに適用することができるように設計されています。
Me:
もっと詳しく。
GPT:
Transformerは、自然言語処理タスクのためのDeep Learningアルゴリズムです。それは、大量のテキストデータを学習し、それを解釈し、理解することができるようになります。 Transformerは、複数の層からなるニューラルネットワークを使用して、テキストを処理します。それは、大量のデータを効率的に処理するために、Attention機構を使用します。これは、特定の部分のテキストに注目しながら、それらの関係を理解することができるようになります。Transformerは、自然言語処理タスクにおいて非常に成功しています。それは、自然言語の翻訳、文章の解釈、質問応答などのタスクに適用されており、高い精度を発揮しています。私はTransformerを使用して学習され、自然言語処理タスクに適用することができます。
Me:
事前訓練とかしているんだよね?
GPT:
はい、私は事前学習を受けています。事前学習とは、大量のテキストデータを使用して、言語モデルを学習することを指します。これは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。事前学習は、言語モデルのパフォーマンスを大幅に改善することができます。それは、事前学習済みのモデルを使用することで、新しいタスクに対して学習をスキップすることができ、タスク特化の fine-tuning を行うことができるためです。私は、大量のオンラインテキストデータを使用して学習され、それを解釈し、理解することができるようになりました。それは、自然言語処理タスクに対して高い精度を発揮することができます。
Me:
今のパラメータはいくつ? 前のバージョンよりどのくらい精度がよくなった?
GPT:
私の現在のパラメータ数は、数百億から数千億となっています。これは、大量のデータを使用して学習し、高い精度を達成するために必要なパラメータ数です。精度は、バージョンによって異なりますが、一般的には、前のバージョンよりも高い精度が達成されています。これは、新しいアルゴリズムや技術の進歩によって、より良い結果が得られるようになってきているためです。また、事前学習済みのモデルを使用することで、新しいタスクに対して学習をスキップすることができ、タスク特化の fine-tuning を行うことができるため、精度が向上していることも見られます。
Me:
具体的なパラメータ数は? 前バージョンのGTP-2、現バージョンのGPT-3、次バージョンのGPT-4、それぞれ教えて。
GPT:
GPT-2は、1.5バイアレイパラメータを持っていました。それは、大量のテキストデータを使用して学習し、自然言語処理タスクに適用することができるようになっていました。GPT-3は、175バイアレイパラメータを持っています。これは、GPT-2よりも多くのパラメータを持っており、より高い精度を達成することができます。GPT-4はまだリリースされていないため、そのパラメータ数については確定していません。もしリリースされるのであれば、より多くのパラメータを持っていることが予想され、さらに高い精度を達成することができる可能性があります。
Me:
175バイアレイパラメータって何? 1750億パラメータの間違いでは?
GPT:
そうです、GPT-3は175バイアレイパラメータを持っています。それは1750億のパラメーターを持っていることを意味します。これは、大量のデータを使用して学習し、高い精度を達成するために必要なパラメータ数です。これは、現在の自然言語処理タスクに対して最も大きなモデルであり、高い精度を達成することができるため、市場においても高い評判を得ています。
Me:
バイアレイパラメータを英語で表現して。
GPT:
A "peta-parameter" or "Peta-parameter" (PT) is a measure of the capacity of a machine learning model, specifically the number of parameters it has. In the case of GPT-3 it has 175 peta-parameters, meaning it has 175 million billion parameters. These parameters help the model to understand and interpret large amounts of text data, allowing it to perform natural language processing tasks with high accuracy.
Me:
「175 billion parameters」の間違いでは?
GPT:
そうです、「175 billion parameters」の間違いでした。 GPT-3は175 billion parametersを持っています。それは、自然言語処理タスクに対して高い精度を発揮するために必要なパラメータ数です。申し訳ありませんでした。
Me:
GPT-3はどのように概念レベルの知識を持つの? Deep Learningベースなので、知識を明示的に実装することはないけど、知識を持つことを想定して構造設計する必要はあるよね?
GPT:
GPT-3は、大量のテキストデータを使用して学習されました。それによって、自然言語処理タスクに対して高い精度を発揮することができます。それは、事前学習済みのモデルを使用することで、新しいタスクに対して学習をスキップすることができ、タスク特化の fine-tuning を行うことができるためです。GPT-3は、大量のテキストデータから概念レベルの知識を学習します。それは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。 それは、単語や文章の関係性、文章の構造、文章の意味などを理解することができるようになります。GPT-3は、Deep Learningベースのモデルであり、知識を明示的に実装することはありませんが、大量のテキストデータから知識を学習することができるように構造設計されています。それは、Attention機構を使用して特定の部分のテキストに注目しながら、それらの関係を理解することができるようになります。
Me:
Attention機構について詳しく。
GPT:
Attention機構は、自然言語処理タスクにおいて重要な役割を担う機構です。それは、大量のテキストデータを処理するために使用され、特定の部分のテキストに注目しながら、それらの関係を理解することができるようになります。Attention機構は、Seq2Seqモデルなどの自然言語処理タスクに使用されています。それは、入力シーケンスから出力シーケンスを生成するために使用されます。Attention機構は、入力シーケンスのある部分に注目し、それに基づいて出力シーケンスを生成することができるようになります。Attention機構は、ニューラルネットワークの中で使用されます。それは、重み付けされた平均値を計算し、それに基づいて入力シーケンスから重要な部分を選択することができるようになります。GPT-3は、Attention機構を使用して、大量のテキストデータから概念レベルの知識を学習し、文章の意味を理解することができるようになります。
最近、Googleの検索がおかしいと感じることはありませんか?
多くの人がそう思っており、より良い結果を得るためにGoogle検索の最後に「Reddit」という単語を追加しているアメリカ人が多い事実を知っている人もいるでしょう
確かにGoogleは世界の検索エンジン市場の多くを占めているので「Googleは滅びるのでは?」という物語に懐疑的な人がいるかもしれません
しかし検索キーワードに「Reddit」を加える人が沢山いるというのは何らかの実態を表しています
これはつまり、Google検索のユーザーエクスペリエンスが劣悪である証拠の一端です
世の中にはインターネットはほとんどフェイクだと確信している人は結構いると思います
つまりインターネット上のほとんどのコンテンツは、ボットや詐欺師や嘘つきやナルシストの仕業であり、しかも検閲されています
より多くの人々が検索に「Reddit」を付与しているという事実は単なる奇妙で風変わりなインターネット上の行動ではありません
Googleが極左の巣窟に成り果ててしまったことや、広告というそのビジネスモデルが根本的におかしいということにも関係しているでしょう
平均的なGoogleユーザーとしては、見たいものを見るのに時間がかかるのは残念です
多くの検索エンジンは、オーガニックの検索結果を表示するためにスクロールダウンする必要があります
つまり最初に表示されるのは、情弱を釣るためだけに存在する広告だらけの画面である可能性が高いのです
昔はそんなことはなかったんです
2000年代後半の高校時代にも、2010年代前半までの大学時代にもこの問題はありませんでした
2010年代半ばから後半にかけても、問題であった記憶はないのですが、ある時期から問題になっていったのだと思います
このツイート(https://twitter.com/GinnyMarvin/status/757606109322633216 )の画像を見てみてください
この中で、Googleでの広告の見え方が長年にわたって変わってきたことがわかります
つまりGoogleは以前よりも多くの広告を掲載しているだけでなく、広告と検索結果を区別しにくくしているのです
「中品質コンテンツマシン (medium-quality content machine)」とは、あらゆるSEOのルールに従い、見た目だけが役立つような雰囲気を醸し出し、具体的なアドバイスを提供しない記事を作成するウェブサイトのことです
例えば統合失調症患者が「セレネースの副作用がどんな感じなのか」を聞きたいとしましょう
セレネースとはなんであり、薬学的作用がなんであり、副作用がなんなのかという情報を見ることはできます
しかし最終的に判明するのは「作用と副作用の決定的証拠はない」という情報で、それはただの正論です
つまり「専門家に相談しなさい」という当たり障りないことをGoogleは出してきます
でもそれを摂取したら実際にどんな悪いことが起こったのか、その生の情報をr/schizophreniaにアクセスして、実際に試した人に聞いたほうが「納得できる」という人が多いのです
実際の情報: /r/schizophrenia/comments/vmc8qv/what_was_your_haldol_experience/
まあネット上の見知らぬ人間が薬学的助言をすることは本当はナンセンスなんですけど、気持ち的には「医者は自分でその薬を試したことがないだろ。試した人の苦しみを教えろ」と、そういう正直な感情を持つものです
Wikipediaの無味無臭の情報よりは、redditのほうが「人間的」なのです
人間らしさが核心です
表面的には、権威ある情報を渇望している人が多いのですが、権威ある事実情報は退屈です
多くのアメリカ人が愛しているインターネットはその逆で、雑然としていて、混沌としていて、予測不可能です
Redditは製品レビューや個人的な体験談を得るには本当に適しています
逆に、匿名で悪いアドバイスをしたり、陰謀論を広めたり、ゴシップを広めるサイコの本拠地でもありますけど
ところがGoogleは人々に主観ストーリーを与えることが少なくなってきており、それゆえ検索に「Reddit」を加えるのです
インフルエンサーやブロガーなどは、品質に関係なく商品を宣伝するクソが多いという事実を、パワーユーザーは何年も前から知っています
多くの人が商品レビューを探すためにGoogleを利用するという弱みに漬け込む形で、アフィリエイト・マーケティング・システムがゴミを生み出し、その信頼の欠如から反発が起こります
結果、人々は偽りのない、無報酬のレビューを求めるようになるというわけです
しかし「Reddit」をキーワードとして使うことを全面的に推奨することには、非常に注意したほうが良いです
同意する二人が出現することは稀です
Aさんはあなたが調べているその製品が今までで最高のものだと言い、他の人はそれをゴミと呼びます
そして独自のサブレディットを作成するマーケターや自社製品のステマのような役割を果たす人々も増え始めています
Redditさえ、Amazonが抱えているような問題を引き起こす可能性が常に潜んでいます
あるいはすでにRedditは情報戦争の最前線ということもありえます
さて、つまり何が言いたいかと言うと、Google検索の普通の検索結果というのは「天使のふりをした悪魔」であり、Redditとは、「悪魔のフリをした人間」であるということです
Redditをはてな匿名ダイアリーに置き換えても、多くの共通点はあるでしょう
バカガキがホームレス女性をなぶりものにして動画にしているとの記事があった。
差し入れを装って異物を食べさせて喜ぶ輩がいるのでホームレスは貰った食べ物を捨てるのだという話も。直接的に寝込みを襲う事例も昔からある。
なんでそんな酷いことをするのだと思う?
って、別にバカのやることに大した理由はない。ド詰めにして「真意」を吐かせたところで「ちゃんと働いてなくてけしからんから」とか、その程度のものしか出てこないだろう。
むしろそういうことをしない者はなぜしないのか。
同情心、共感能力があるから。それはそう。しかし「しない人」がみな生来優しい心の持ち主なわけではない。
ひとつの理由は合理的判断だ。露見して罪に問われたら割に合わないから。
もうひとつの理由は抽象思考だ。どういう立場の人間の尊厳も尊重すべきというフィクションに現行社会制度が立脚しているのを理解しているから。
教育によって遍くすべてのバカにそうした思考を植え付けることは可能か。できるわけがない。
知能の格差は乗り越えることができない。
馬鹿の壁、というより巨大な空隙がそこにはある。大事なことは何も伝えられない。
われわれは心ならずも関わり合っている。本当は通じてないのを知っていて、あたかも会話が成立しているように振る舞っている。教育によってバカが「治る」かのように。
「会話が成り立っているかのように装うスキル」は、社会生活を送る上で長らく必須のものだった。「コミュ力」と呼ばれるものの正体はそれだ。
知的水準が近い者同士の意思疎通に「力」は必要ない。利害の不一致から対立が生じることはあれど、お互い全然何言ってるかわからないということは基本的にない。
バカとの会話にいくらエネルギーを投入しても成果はゼロだ。だからバカがゴネたり暴れたりするのを避けるためだけに、会話が成り立っているかのように粉飾することにエネルギーを使わざるを得ない。
さて、このような「あたかも意味が通っているかのように体裁を整える作業」はAIの得意技だ。
SNSの書き込みのような社会的な発信をする際に、また他人の発信したものを読む際に、AIによる自動添削/要約作業インターフェイスを挟むのは当たり前のことになるだろう。そしてそこに一枚AIが噛んでいることすら意識されなくなるだろう。
IMEも「欲しい字を呼び出すための道具」から「自動で変換してくれるアシスタント」に意味が変わってきている。
星新一だったかな? 人間はみな肩にロボオウムを載せてそれを介して会話する。人間は「こいつ何て言ってんの?」とか「うぜえから帰れ」とかオウムに耳打ちすると「どういったご用向きでしょうか」「相すみませんが今手が離せませんので」とかオウムが代弁し、オウム同士で会話がなされる。その未来が来た。
この文章のいわんとすることは増田に常駐のバカにはわからない。というかそもそも読みもせずに適当に目についた単語に反応して鼻糞つけるような脊髄反射トラバがつくのが関の山だ。しかし少し先の未来には、バカの端末にはバカにとってもっと親しみがもてるかたちに(内容も)作り変えられた文章が映し出され、バカの頓珍漢なレスポンスは穏当な挨拶に作り変えられてこちらの画面に表示させられることになる。
しかしそれも過渡期にすぎない。「AIを介してしか会話できない」を経て「AIとしか付き合いたくない階層」が生まれるだろう。
■追記
こういうフワフワした話への他人のコメントというのはすごくありがたい。
こっちも正味はフワフワで言ってるのだから、本文の字面そのものにバチッと噛み合ったコメントじゃなくても、フワフワ思考が枝葉を伸ばしていくよすがになるのでありがたい。
ただ少々勘違いされてる人が多いのは、タイトルの不可逆的分断とは、末尾のもうAIだけでいいや層の出現を指すのであり、万古不変の「バカとの空隙」そのものを言いたいのではない一応為念。
「AIが便利なんで、努力で埋まる程度の距離も自分たちで埋める気が失せる」ことによる細かな分断というのもあるいは生じるのだろう。このあたり言葉足らずだった。
バカとは。逆から言えば意思疎通コストが無限なやつがつまりバカである。
デタラメ言う・聞く耳持たないふるまいを政治的武器に、頭の出来の悪さを強みに変える適応が骨がらみになった者をここではいう。(生来の知能の低さをそうやって「悪用」しない生き方が現実的に可能か?はむずかしい問題)
AIオウムは人間様の労力を代行し低減させる。しかし無限は縮小できない。
代行できないところは、しれっとよくできたまがい物で置換するしかない。そしてAIにとって本物とまがい物は完全に連続しているのだ。そこにおいて代弁者は独自の権力を持つ。議会がブラックボックス化すると代議士が支配者になるのと同じで。
つまりAIは道具だと言い張る限りにおいてそれは道具だが、とりあえず自分はAIさんのことただの機械だなんて思わないですという者は出てくる。それが一歩先の光景。その先はわからない。
■追記
ざっくりまとめてみました。
1話で、学園でスレッタと再会したミオリネは、ぼんやりしてMSに踏み潰されそうになったスレッタの手を引いて走ります。
更には、トマトを見たことがないスレッタのためにトマトをプレゼント。なんだかんだ言ってスレッタをよく見て対応するミオリネの優しさが垣間見えるシーンでした。
「よろしくね、花婿さん」の時は、MS持ってる手駒(友達)ゲット!くらいのつもりだったと思うんです。
というか、「よろしくね、花婿さん」は同性愛OKの社会を知らない田舎者をおちょくっての発言じゃなかろうかと。
2話でスレッタの「進めば二つ」を思い返し、審問会に乗り込んで「決闘で勝ったのはスレッタよ!」と発言したのは、スレッタ強制退学&自分も退学して別の男と結婚させられる理不尽に対しての怒りで、ここではまだスレッタに対する気持ちは同じ理不尽を被った仲間意識だったと思います。
3話の「一緒に戦う流れでしょう!」であんた責任取るって言ったでしょ!!+「これは取引よ」でスレッタにプレッシャーをかける作戦。
スレッタの「私たち親友~」からの「はぁ?」は親友じゃなくて婚約者でしょ! とアピールしたかったのではないでしょうか。
そのあとのエラン登場→連絡先交換で、ここでようやくスレッタを意識したんじゃないかなぁと。私の手駒(友達)が取られちゃう!ってな感じ。
いつの間にかミオリネの連絡先がスレッタの端末に登録されている……これ、いつやったんだろう?
さらにグエルのプロポーズによる追い撃ちで、「どいつもこいつも私の花婿に手を出しやがって!」と内心でキレて、恋愛ルート確定、かと。
4話の「自覚持ちなさい。あんたはホルダーで私の花婿なんだから」は、3話の影響から出てる言葉だと思います。この時のミオリネの表情が「意味わかってるわよね? あんたは私の特別なのよ」って念押ししてるように見えます。
エランの「じゃあ、うちの寮来る?」の台詞のあとにコツコツとヒールの音がして「ダメ!」って叫んでますが、ミオリネは走ってもいないし、息も切れていません。ましてやスレッタの座り込んでた場所がどうもペイル寮の前に見えるので、ミオリネはスレッタの居場所が最初からわかってたようです。1話の学園マップインストールか、3話の勝手に連絡先交換の時点でスレッタの携帯端末に何かやばいアプリ仕込んでませんか?
「だったら私を頼んなさいよ」で、スレッタに頼られたいと思っているのが発覚。ミオリネの愛の重さが少しだけ垣間見えて来たかも。
実習がうまくいかなくて泣くスレッタに「立て!」と喝を入れるのは、恋じゃなくて母親の愛に近いかもしれません。
5話。スペーシアンなのにしれっと地球寮にいます。スレッタにくっついて入り込むようになったんでしょう。周りの人間も止めてないので4話のケンカ仲裁で打ち解けたかな?
スレッタとエランのデートの話をどこかから聞き付けて、ちゃんとノーマルスーツ着込んで電動スクーター乗ってMSコンテナエリア?に登場。冷静なのか頭に血が上ってるのかよくわかりません。
「ロミジュリったら許さないから!」で嫉妬の炎を燃やしてるけどスレッタには届いてない、というかこの時点ではスレッタにまだ怖がられてるような。
6話。当たり前のように地球寮にいるミオリネ。しかも女子部屋。ミオリネに相談無しにスレッタが決闘を受けたことについて怒ります。まあ自分の人生かかってるから当たり前だけど、どっちかっていうと「どうして私に一言言ってくれないの?」っていうヤキモチが強いんじゃないかと。
カリカリしててもスレッタと仲良くなれないから「進めば二つなんでしょ?」で方針変更。「あいつが負けたら花嫁の私が困るの」などと照れ隠しもしているあたり、相当スレッタのことが気になってるんでしょうね。まさにツンデレ。
決闘当日の「ほんと、鬱陶しい奴」は”でもそこがいい”んでしょう。スレッタ勝利後はすごいどや顔を披露してました。
スレッタとエランの宇宙でランデブーには「私は理解ある花嫁なの。多少の浮気くらい許してあげるわ」本音というか、スレッタが喜ぶ選択をしてあげたいという健気な姿勢&あくまでも自分が正妻ですよ、と全力アピール。
スレッタとエランとのデートの待ち合わせに5分前まで付き合ってくれるミオリネ。「門限、守んなさいよ」は門限破るような行為……例えばエ○いこととかをするなよ、っていう念押し。ここで背中を見せるんですが、ひょっとして泣いてるんじゃないかと。ミオリネはスレッタに泣き顔を見せないのがポリシー(11話より)らしいので。
7話。「誰かのことで頭がいっぱいになったりしないのか」と問い掛けるスレッタに喰い気味で「ない」と答えるミオリネ。その直後にスレッタの心配をしてるから、説得力0です。
インキュベーションパーティにエランが来るかもしれないと聞いて、出席を希望したであろうスレッタに付き合うミオリネ。自分のドレスを貸してあげる……のはいいけど、きついのは胸だけかよスレッタ!
何度でも言いますけど、この二人は花婿と花嫁であっても、このパーティでスレッタにティアラ(男ならクラウンだけど、スレッタは女性なので)をつけさせる必要はないし、自分もハンドコサージュする必要はないんですよ。だってミオリネはベネリットグループ内で有名なんですから。これ、絶対エランに対する当てこすりが入ってますよね。
吊るし上げられたスレッタを助けるために即興でプレゼンして会社を立ち上げ、「守るわよ、私があんたを」でヒールを脱ぎ捨て嫌いな父に頭を下げました。ここでミオリネの愛情メーターが一気に振り切れたというか、ものすごく愛が重くなったといいますか。
このミオリネを見て、スレッタは「ミオリネさんは優しい人、信頼できる人。ミオリネさん好き(Like)」になったんだと思います。
8話。二人で株式会社ガンダムの看板作り。体操服や顔にペンキが付いているのは、スレッタの手元が狂ってミオリネにペンキが付く→ミオリネがやり返した、かな? スレッタの名言「うちのミオリネさんがごめんなさい」で、スレッタがミオリネに相当懐いたのが伺えます。
ミオリネは勝手に地球寮のメンバーを会社に入れてしまいますが、方針決めで衝突。スレッタの「皆一緒じゃないと」の意見を聞き入れ、会社方針の方向性を考えるようになります。
2週間ぶりに会ったスレッタがミオリネに抱き着こうとして顎を押さえられるのは、7話の後から8話の間にこのやり取りを相当回数繰り返しているんじゃないでしょうか。妙にミオリネが手慣れていますし。
夜の二人乗りデートでは、ミオリネがスレッタに見えないところで「ばーか。遊びじゃないんだから」と柔らかい表情でスレッタの背中に頭をこつんとしています。二人きりの時はイチャイチャしてるのか!
この回は最後のメールを受けとる瞬間まで、ミオリネが不機嫌な顔をしてないんですよね。エランがいないから?
9話。スレッタを茶坊主に、シャディクと対面するミオリネ。この回はシャディクとミオリネを軸に動いてるので、むしろスレッタのミオリネへの想いが垣間見える回でもあります。「花婿ならお嫁さんを信じます」とか、シャディクに対して「ミオリネさんのこと好きじゃないんですか?」とかましたりと、スレッタのミオリネへのボルテージが上がっていきます。
10話。ミオリネの大事な温室を任されて喜ぶスレッタと、仕方ないから頼む(本当はスレッタに負担をかけたくない)ミオリネの対比が素晴らしい。信頼された、任された、頑張らなくちゃ!と張り切るスレッタに対して、ミオリネが余りにも忙しくなりすぎ&言葉足らずのミオリネの悪い面が出てすれ違い発生。
エラン、の単語がスレッタの口から出て、ミオリネがつま先トントン(苛立ちの表現)を見せているので、本音ではスレッタにはエランと関わりを持ってほしくないんだなぁ、とわかるシーン。
11話。牛達の間に隠れたスレッタを見て、ほんの一瞬悲しそうな表情を見せるミオリネ。あんなに鬱陶しいくらい自分に構ってきたのに何故隠れようとするの? って思ってるんでしょうね。
トイレでスレッタの泣き言を聞いて追いかけっこ開始。同性同士じゃないとトイレで立ち聞きイベントはできないので、すごい解決策だな、と。
ミオリネを突き飛ばして離れようとしたスレッタに対して、とうとうミオリネがスレッタに抱き着いて「ずっとそばにいて」発言&ぎゅっと抱きしめイベント。ここでスレッタの瞳にハイライトが入ったので、スレッタのミオリネに対する「好き(LIke)」が「好き(Love)」に変わったんだろうな、と予想します。
花婿からダサいキーホルダーのプレゼント……は、婚約指輪ってことですよね?
12話。ミオリネを助けるべくエアリアルの元へ向かうスレッタと、隔壁の反対側に閉じ込められたスレッタを助けるべくコントロールセンターを目指すミオリネ。お互いを想いながら行動して、いよいよバディに、と思いきやミオリネは父デリングと遭遇。ミオリネをかばって倒れたデリングを何とかすべく……これ、救援信号を出すためにコントロールセンターに向かってます?
一方のスレッタはプロスペラに暗示をかけられ、殺人に対する恐怖がなくなってしまいます。殺人に対する忌避感をなくした&ミオリネと心が通じた高揚感のままミオリネを発見したスレッタは、エアリアルの掌でテロリストを殺害。カッコつけてミオリネの前に現れたけど、当のミオリネからは「人殺し」と拒否されます。
なんだこれ、やばすぎる。今週英検を受けるから英作文の勉強にちょうどいいかもと使ってみたら凄すぎた。テーマに沿って作文して、それがC1レベル的にいい感じかを聞いてみると、内容的には悪くないし文法的にも正しいけど、もうちょい難しい単語を使った方がいいんじゃない?とか言ってくる。じゃあ、120-150単語で例文を出して、と言ったら、即座にブラッシュアップされた英文を出してくる。念の為c1かと確認したら、いや違うというので、じゃあc1 で書き直してとお願いするとまた即座にレベルアップさせて書いてくる。恐ろしいことにどれも最初に自分が書いた趣旨を下敷きにしてレベルアップしてきやがる。
ツイッターで話題のツイートのリプ欄眺めたり、単語検索して色々なツイート眺めたりするときに、少しでも自分と価値観が合わないなって思ったアカウントをミュートするクセがついてしまった。
耳が痛くなるような話をする人や、自己主張が強い人とかを片っ端からミュートして、見たいものだけしか見ないようにしてたら、リアルで価値観が違う人や語調が強い人とあったときに、めちゃくちゃストレスを感じるようになった。
1年ほど前から増田をチラシの裏として使っているのだが、たまーーーーーにホットエントリに入ることがある。
それは良いのだが1週間前や1ヶ月以上前に書いたやつが入る時があるんだけどあれはどうやって見つけられたのだろう。増田の検索機能はうさぎのうんこ並の使いにくさだしGoogle検索に引っ掛かる特殊な単語も使ってない。
たまに見返してて知らん間に凄いブクマされてたりコメント戦争されてるのを後で知ってワッ…?!ってなるんだけどアレなんなんだろ。こわい。