はてなキーワード: テキストとは
「つづき」で気になった箇所を深掘り。確認するに、専門家の監修体制の構築はそれほど難易度は高いように思えなかった。やはり「つづき」で応えてくれた「医療用の学習データをGPT側で定期的に用意できるか」が今後の発展のポイントになりそうだ。
Me:
GPTのAttention機構って何?
GPT:
Attention機構は、自然言語処理タスクにおいて、入力文の中から重要な部分を選択し処理するためのアルゴリズムです。GPTは、Transformerと呼ばれるモデルアーキテクチャを使用しています。Transformerは、Attention機構を利用して、入力文中の各単語の関係性を学習します。これにより、モデルは入力文全体を理解し、より質の高い出力を生成することができます。
Me:
GPTは医療の知識が弱いと聞くけど、このAttention機構の仕組みと関係ある?
GPT:
GPTは、学習データに基づいて学習されます。そのため、学習データに医療に関する知識が少ない場合、GPTは医療に関するタスクに対して劣る結果を生成する可能性があります。Attention機構は、入力文中の各単語の関係性を学習するために利用されています。しかし、Attention機構自体は、学習データに基づいて学習されるため、学習データに医療に関する知識が少ない場合、Attention機構も医療に関するタスクに対して劣る結果を生成する可能性があります。しかしながら、GPTには大量のテキストデータを学習し、自然言語処理タスクに対して高い性能を発揮する能力があり、知識を持っていない領域でも新しい知識を得る能力を持っています。そのため、医療に関するタスクをGPTに与える場合は、十分な医療に関する学習データを与えることで、GPTが医療に関するタスクに対しても高い性能を発揮することが期待できます。
Me:
ポイントは、Attention機能を医療用にチューニングするのではなく、医療データを学習データとして与えることが、GPTの医療分野への強化に繋がるんだね。
GPT:
そうですね。Attention機構は、入力文中の各単語の関係性を学習するためのアルゴリズムです。GPTは、学習データに基づいて学習されます。そのため、学習データに医療に関する知識が少ない場合、GPTは医療に関するタスクに対して劣る結果を生成する可能性があります。それに対して、十分な医療に関する学習データを与えることで、GPTが医療に関するタスクに対しても高い性能を発揮することが期待できます。そのため、Attention機能を医療用にチューニングするのではなく、医療データを学習データとして与えることが、GPTの医療分野への強化に繋がるということになります。
Me:
GPTが医学的な正確性や専門性を獲得するには、意思決定者としての専門家の監修が必要という認識だけど、仮にそれが可能になった場合、GPTは医療現場で使われるようになると思う?
GPT:
GPTは、大量のテキストデータを学習し、自然言語処理タスクに対して高い性能を発揮する能力があります。しかしながら、GPTは人間の主観や判断力を持っていません。そのため、GPTが生成する出力は必ずしも正確であるとは限りません。そのため、医療現場でGPTを使用する場合は、専門家による監修が必要です。専門家は、GPTが生成する出力が正確であるかどうかを判断し、必要に応じて修正を行うことができます。これにより、GPTが生成する出力が正確であることが保証され、安全かつ効果的な医療を提供することができます。そういった意味で、GPTが医療現場で使われるためには、専門家による監修が必要であり、GPTはその監修に基づいた情報の提示などに利用されることが考えられます。
Me:
ユースケースとしては何が考えられる?
GPT:
GPTは、自然言語処理タスクに対して高い性能を発揮する能力があるため、医療現場での様々なタスクに利用することが考えられます。例えば、医療文書の自動生成や翻訳、診断支援、治療プランの生成、疾患の予防に関するアドバイスの生成などが挙げられます。また、GPTは大量のテキストデータを学習することで、新しい知識を得る能力を持っているため、医学研究や新しい薬物の開発にも利用することができます。ただしながら、これらのタスクにおいてもGPTが生成する出力は必ずしも正確であるとは限らないため、専門家による監修が必要です。
Me:
専門家の監修は、GPTのユースケースの内、どのフェーズで必要になると思う?
GPT:
GPTが生成する出力が正確であることを確認するために、専門家による監修が必要になります。そのため、GPTを利用する各フェーズで専門家の監修が必要になることが考えられます。これにより、GPTが生成する出力が正確であることが保証され、安全かつ効果的な医療を提供することができます。
- 学習フェーズ: GPTが学習するデータについて、専門家が正確性や適切性を確認し、修正を行うことが必要です。
- 生成フェーズ: GPTが生成する出力について、専門家が正確性や適切性を確認し、修正を行うことが必要です。
- アプリケーションフェーズ: GPTが生成した出力を使用するアプリケーションについて、専門家が安全性や効果を確認し、必要に応じて修正を行うことが必要です。
Me:
各フェーズごとにその適用の難易度を教えて。
GPT:
各フェーズごとに適用の難易度は異なりますが、概ね以下のようになります。ただし、これらは一般的な話であり、実際には、専門家がそれぞれのフェーズにおいて監修するために必要なスキルや知識は、それぞれのアプリケーションやタスクによって異なります。
- 学習フェーズ: GPTが学習するデータの整理や整形は、技術的なスキルが必要になりますが、専門家が正確性や適切性を確認するための作業は、通常は難しくありません。
- 生成フェーズ: GPTが生成する出力を確認し、修正するためには、専門的な知識や判断力が必要になります。このフェーズは、専門家によって適切に行われないと、生成された出力が正確でない可能性があります。
- アプリケーションフェーズ: GPTが生成した出力を使用するアプリケーションの開発やテストには、技術的なスキルが必要になりますが、専門家が安全性や効果を確認するための作業は、通常は難しくありません。
Me:
たしかに生成フェーズにおける出力のパターンは他のフェーズと比べ管理しづらそうだけど、その難易度を調節するための工夫はあったりするの?
GPT:
生成フェーズにおいて、GPTが生成する出力を確認し、修正するための難易度を調節するための工夫には以下のようなものがあります:これらの工夫により、GPTが生成する出力を確認し、修正するための難易度を調節することができます。また、専門家が確認する作業を効率化することで、より多くのGPTが生成する出力を確認することができ、正確性や適切性が高い出力を得ることができます。
- GPTが生成する出力のフォーマットを明確に定義することで、専門家が確認する作業を簡略化することができます。
- GPTの出力を確認するためのインターフェースやツールを開発することで、専門家が確認する作業を効率化することができます。
- GPTが生成する出力に対して、事前に定められたルールや基準を適用することで、専門家が確認する作業を効率化することができます。
- GPTが生成する出力を多数の専門家に確認してもらうことで、正確性や適切性を確認することができます。
- GPTが生成する出力を正確性や適切性が高いと判断される場合は、人手を減らして出力を採用することができます。
Me:
GPTが生成する出力のフォーマットを定義するにはどうすれば良いの?
GPT:
GPTが生成する出力のフォーマットを定義するには、次のような方法があります。これらの方法を組み合わせることで、より正確かつ適切なフォーマットを定義することができます。
- テンプレートを使用する: GPTによる出力には、事前に定義されたテンプレートを使用します。これにより、GPTが生成する出力のフォーマットが明確に定義され、専門家が確認する作業を簡略化することができます。
- スキーマを使用する: GPTによる出力には、事前に定義されたスキーマを使用します。これにより、GPTが生成する出力の構造が明確に定義され、専門家が確認する作業を簡略化することができます。
- 入力と出力の関係を明確にする: GPTによる出力は、入力に対応した形式で生成されるようにします。これにより、GPTが生成する出力のフォーマットが明確に定義され、専門家が確認する作業を簡略化することができます。
Me:
GPTの出力テンプレートの使用方法を教えて。
GPT:
GPTの出力テンプレートを使用するには、以下のような手順を踏むことができます。このように、GPTの出力テンプレートを使用することで、GPTが生成する出力のフォーマットを明確に定義することができ、専門家が確認する作業を簡略化することができます。また、テンプレートを学習させることで、GPTが生成する出力が予め定義したフォーマットに沿っていることを保証することができます。
- 出力テンプレートを作成: GPTが生成する出力のフォーマットを定義し、テンプレートを作成します。例えば、診断書のフォーマットや手術手順の書き方など。
- GPTにテンプレートを学習させる: GPTに、作成したテンプレートを学習させます。
- GPTに入力を与える: GPTに、入力として必要な情報を与えます。
- GPTが生成する出力を確認: GPTが生成した出力が、事前に定義したテンプレートに沿っていることを確認します。
- 修正を行う: GPTが生成した出力が、事前に定義したテンプレートに沿っていない場合は、修正を行います。
Me:
GPTのテンプレートとスキーマの違いを教えて。また、プリセットと何が違うのかも教えて。
GPT:
GPTのテンプレートとスキーマは、出力フォーマットを定義するための方法であり、それぞれ異なる特徴があります。つまり、テンプレートは文章のフォーマットを定義するのに、スキーマはデータ構造を定義するのに、使用します。プリセットは、テンプレートやスキーマのような事前に定義したパターンやデータ構造を使用することができます。ただし、プリセットは、具体的には何を指すかは定義が異なります。
- テンプレート: GPTの出力に対して、事前に定義された文章のパターンを使用します。例えば、診断書のフォーマットや手術手順の書き方など。テンプレートは、GPTが生成する文章のフォーマットを明確に定義することができ、専門家が確認する作業を簡略化することができます。
- スキーマ: GPTの出力に対して、事前に定義されたデータ構造を使用します。スキーマは、GPTが生成するデータの構造を明確に定義することができ、専門家が確認する作業を簡略化することができます。
- プリセット: GPTの出力に対して、事前に定義されたパターンやデータ構造を使用します。プリセットは、GPTが生成する出力を明確に定義することができ、専門家が確認する作業を簡略化することができます。
Me:
Pythonのopenaiライブラリでテンプレートやスキーマを再定義することは可能?
GPT:
はい、openaiライブラリは、新しいトレーニングデータ、テンプレートやスキーマを含むように、GPTモデルをファインチューニングすることができます。 openai.Completion.create()メソッドを使用して、GPTモデルをファインチューニングすることができ、トレーニングデータ、テンプレートやスキーマ、ファインチューニングパラメータを指定することができます。また、openaiは既にテンプレートやスキーマが組み込まれたモデルも提供しており、それらを直接使用することができます。
Me:
`openai.Completion.create()` メソッドでテンプレートやスキーマを再定義する方法を教えて。
GPT:
openai.Completion.create()メソッドを使用して、GPTモデルをファインチューニングするには、次のようにします。このように、openai.Completion.create()メソッドを使用して、GPTモデルをファインチューニングし、テンプレートやスキーマを再定義することができます。ただし、学習データとして適切なものを選び、ファインチューニングのパラメータを調整する必要がありますので、注意が必要です。また、トレーニングデータとして使用するテンプレートやスキーマによっては、モデルの性能が改善しないこともあるため、適切なものを選ぶことが重要です。また、ファインチューニングを行うためには、足りないデータや時間、計算リソースが必要です。
- トレーニングデータを用意: GPTに学習させるためのデータを用意します。このデータは、テンプレートやスキーマを含んでいる必要があります。
- openai.Completion.create()メソッドを呼び出す: openai.Completion.create()メソッドを呼び出し、トレーニングデータ、ファインチューニングパラメータを指定します。
- ファインチューニングを実行: 指定したパラメータに基づいて、GPTモデルをファインチューニングします。
Me:
当該メソッド用のファインチューニングパラメータは `prompt` を使うんだよね?
GPT:
はい、openai.Completion.create()メソッドでは、promptパラメータを使用して、GPTモデルに対して、生成したい文章のフォーマットやデータ構造を指定することができます。このpromptによって、GPTは指定されたフォーマットやデータ構造に従って文章を生成するように学習します。このpromptには、テンプレートやスキーマを含む文章を指定することで、GPTに学習させることができます。
FEエンゲージやってる。出てきたキャラクターが一部メインに絡む王族勢除いて初登場以降は基本シナリオ上の出番皆無になるの、まあロストがある以上はそうだよな……と納得しつつも若干寂しさを覚えてしまう。
風花雪月で自分が一番感動した部分が、まさにこの「SRPGである分キャラクターの数が膨大になりがちであり、かつロストする以上どうしても一部のメイン各以外のキャラクターに本筋のシナリオ上で出番を与えることができない」構造を、「キャラクターのグループと物語の本筋自体を三つに分けることでまず本筋自体に絡むキャラクターの絶対数を減らし、その上で各本筋におけるキャラクターのフラグ管理をやりきる」という形で、文字通りの力技ながら克服した点であったからだ。
風花がそのあたりに異様に手入れてたのは事実としても、ならばせめて今までのいつものFEのように支援が充実していれば……と思えど、支援の組み合わせの種類が飛びぬけて多いわけでもなさそう、かつ支援会話もあっさりしたノリなのがなんとも(覚醒ifでももうちょい一つの会話内でネタが広がっていた気がするのだが、今回一会話が本当にすぐ終わってしまう)。
指輪関係の会話が全キャラ分あるようだからそこは楽しみにしているのだが、マルスと主人公の最初の会話が文字通りの二言三言で終わってしまったので、これもどこまで期待して良いものやら……。
キャラのモデリングや声、モーションは本当に力入っている。女の子がちゃんと可愛いだけじゃなくてイケメンがしっかりイケメンとして表現されていたのも驚いた。とにかく画面が華やかで(主人公の髪色もストーリー上の意味あるんだろうなと思えば慣れる)、単純に動かしているだけで楽しい。
動きも操作の邪魔しないレベルにサクサクだし、難易度含めてゲームとしてきちんとやり応えがありそうな気配はばっちり感じる。
物語自体も戦争だ~政治だ~じゃなくて「邪竜復活阻止のために仲間集めだ!」を地で行くシンプルさで、画面のポップな感じと良く合ってる。
台詞についても、このテキストを声優さんに読ませるのか……と若干思ってしまう部分はあれど、キャラ自体は基本皆素朴な正義感を持った善人ばかりなのでそういった面での不快感はあまりないし(この点は後で来るだろう邪竜信仰の国のメンバーの加入経緯が若干不安ではあるが)。
なので現時点ではあと一つ何か物足りない……!という感想なのだが、それこそ老害オタクの贅沢みたいなもんなのかもしれない。ゆっくりやっていきたい。
Me:
医療に関わる概念はどのくらい理解している?
GPT:
GPT-3は、医療に関わる概念も理解していますが、その精度は自然言語処理タスクに比べると低い可能性があります。 GPT-3は、大量のテキストデータを使用して学習されたが、そのデータには医療に関するものも含まれているが、その範囲は一般的なニュース記事やブログなどが多いと思われます。そのため、医療に特化したタスクに対しては、専門性が低い可能性があります。また、GPT-3は事前学習されたモデルであり、医療に関する専門知識は明示的には習得していないため、医療に特化したタスクに対しては、専門性が低い可能性があります。ですが、GPT-3は文章の生成や質問応答に対しては高い精度を発揮しており、文章を理解する能力が高いため、医療に関連する文章を理解し、それに基づいた文章の生成や質問応答をすることは可能です。ただし、医学的な正確性や専門性については保証できないため、医療に関する重要な判断や治療に関する決定には使用しないほうが良いでしょう。
Me:
今後のバージョンで、医療に関する概念を獲得する可能性はある?
GPT:
今後のバージョンで、医療に関する概念を獲得する可能性はあります。現在、医療に関するデータが大量に存在し、それを使用して学習することで、より高い精度を達成することができるでしょう。また、新たなアルゴリズムや技術の進歩によって、より良い結果を得ることができるようになっています。医療に関連するタスクに特化した言語モデルも開発されており、それらは、医学的な正確性や専門性に優れています。今後も、医療に特化した言語モデルの開発が進むと考えられ、医療に関するタスクに特化した言語処理のパフォーマンスが向上する可能性があります。また、GPT-3のような大型の言語モデルを特定の分野に特化することもでき、それによってより高い精度を達成することができます。それは、特定の分野に特化したデータを使用して学習させることで、その分野に特化した知識を獲得することができるためです。そうしたことにより、医療に関連するタスクに特化した、より精度の高い言語モデルが開発される可能性があります。
Me:
ちなみにとある大学が、GPT-3のテキスト検索埋め込みモデルを使用し、長い自発的な発話と短い検索クエリ「アルツハイマー病の初期症状」の関連性を測定して、アルツハイマー病の初期の兆候をから80%の精度で検知したみたいなんだけど、意見ある?
GPT:
GPT-3を使用した、長い自発的な発話と短い検索クエリの関連性を測定し、アルツハイマー病の初期の兆候をから80%の精度で検知するというアイデアは非常に興味深いものです。自然言語処理タスクにおいてGPT-3は高い精度を発揮しているため、長い自発的な発話を解析することができる可能性があります。ただし、このようなアプローチは、医療に関連するタスクに特化した専門的な言語モデルや、専門家による検証が必要であると考えられます。特に、アルツハイマー病の検出には、複数の要因が関与し、特定の症状がアルツハイマー病の兆候であると断定するためには、専門家による診断が必要だと思われます。また、GPT-3は、医学的な正確性や専門性について保証できないため、重要な判断や治療に関する決定には使用しないほうが良いでしょう。
Me:
もしGPTに医療に関する精度の高い言語モデルが実装された場合、このケースでは使える?
GPT:
もしGPTに医療に関する精度の高い言語モデルが実装された場合、このケースでも使用することができる可能性があります。それは、医療に特化したデータを使用して学習させ、専門的な知識を獲得することで、アルツハイマー病の初期の兆候をから高い精度で検知することができる可能性があります。ただし、このようなアプローチは、専門家による検証が必要であると考えられます。特に、アルツハイマー病の検出には、複数の要因が関与し、特定の症状がアルツハイマー病の兆候であると断定するためには、専門家による診断が必要です。また、医療に関する情報は常に最新の情報であることが重要であり、それを保つためにも、定期的な更新が必要です。また、GPT-3のような言語モデルは、人間の診断には取って代わることはできません。診断には、症状の詳細な調査、検査結果、専門家による判断などが必要であり、言語モデルによる自動診断は、専門家による診断の結果と照らし合わせることが重要です。
Me:
GPTが医療に関する言語モデルの定期的な更新が可能になった場合は、どう?
GPT:
GPTが医療に関する言語モデルを定期的に更新することができる場合、より高い精度を達成することができる可能性があります。医療に関する情報は、時間の経過とともに変化します。新しい研究結果や臨床経験が得られるたびに、知識ベースも更新される必要があります。それにより、より正確な情報を提供することができ、病気の予防や早期発見に役立つことが期待できます。また、GPT-3のような大型の言語モデルは、大量のデータを使用して学習することができるため、新しいデータを取り込むことで、より正確な結果を得ることができます。しかしながら、GPT-3やそのような大型の言語モデルは、医学的な正確性や専門性について保証できないため、重要な判断や治療に関する決定には使用しないほうが良いです。
Me:
医学的な正確性や専門性って具体的になに?
GPT:
医学的な正確性は、医学的に正しいことを指します。つまり、疾患や症状、診断、治療などに関する情報が、科学的に正しいことを意味します。医学的に正確な情報は、最新の研究結果や臨床経験に基づいていることが望ましいです。医学的専門性は、医学的に専門的なことを指します。つまり、特定の疾患や症状、診断、治療などに関する専門的な知識を指します。これは、医学の専門家によって持っていることが望ましいです。GPT-3などの言語モデルは、大量のテキストデータを使用して学習させることで、自然言語処理タスクにおいて高い精度を発揮していますが、医学的な正確性や専門性については保証できないため、重要な判断や治療に関する決定には使用しないほうが良いです。
Me:
今後GPTが医学的な正確性や専門性を獲得するにはどうすれば良い?
GPT:
GPTが医学的な正確性や専門性を獲得するためには、次のような方法が考えられます。
- 専門家が監修する専門的な医学データを使用して学習する: GPTは大量のテキストデータを使用して学習することができるため、専門的な医学データを使用して学習することで、医学的に正確かつ専門的な知識を獲得することができます。
- 専門家による検証: GPTが出力した結果は、専門家によって検証されることで、正確性と専門性を確認することができます。
- 定期的な更新: 医学的な知識は時間の経過とともに変化するため、定期的に最新の情報を取り込むことで、常に最新の情報を持つことができます。
- 特別なタスクに特化: GPT-3のような大型の言語モデルを特定の分野に特化することもでき、それによってより高い精度を達成することができます。
- 医学的な正確性や専門性について保証できないため、重要な判断や治療に関する決定には使用しないほうが良いでしょう
Me:
GPT-3の要約機能の例。ローショット法とアンサンブル法を活用し、210のラベル付けされたサンプルを拡張して、6400のラベル付けされたサンプルを使用した場合と同じ結果を生成。このサンプルをつかい非常にすぐれた要約を取得可能になったみたいなのだけど、意見ある?
GPT:
GPT-3の要約機能は、自然言語処理タスクにおいて高い精度を発揮することができることが知られています。ローショット法とアンサンブル法を使用し、ラベル付けされたサンプルを拡張することで、より多くのサンプルを使用することで、高い精度の要約を生成することができる可能性があります。ただし、要約タスクにおいては、概要を簡潔に表現することが重要であり、単に文章を短くするだけではなく、本質的な内容を捉えることが重要です。また、GPT-3は大量のテキストデータを使用して学習させることで、自然言語処理タスクにおいて高い精度を発揮していますが、要約タスクにおいては専門性や正確性について保証できないため、専門家による検証が必要であると考えられます。
Me:
それは医療データに関しても同じ意見?
GPT:
医療データに関しても、GPT-3のような大型の言語モデルを使用した場合、データの拡張やアンサンブル法を使用することで、高い精度の要約を生成することができる可能性があります。しかしながら、医療に関する情報は常に最新の情報であることが重要であり、それを保つためにも、定期的な更新が必要であり、それでも正確性や専門性について保証できないため、専門家による検証が必要であり、重要な判断や治療に関する決定には使用しないほうが良いです。また、GPT-3は大量のテキストデータを使用して学習させることで、自然言語処理タスクにおいて高い精度を発揮していますが、医学的な正確性や専門性について保証できないため、重要な判断や治療に関する決定には使用しない医療に関するタスクにおいては、医学的な正確性や専門性が求められるため、GPT-3などの言語モデルを使用するだけでは十分ではありません。そのため、専門家による検証や監修、専門的な医学データを使用した学習、定期的な更新などが必要になります。また、専門的なタスクに特化したモデルを構築することも有効です。それでも、GPT-3などの言語モデルは、医療に関するタスクにおいても有用な情報を提供することができる可能性がありますが、それらの情報は必ず専門家による検証を経てから使用することが重要です。
Me:
ありがとう。今後を期待しているよ。
GPT:
どういたしまして。私も今後の進化に期待しております。またのお問い合わせをお待ちしております。
「Cural Health」や「Drexel’s University」「Nabla」など、各所でGPT-3の検証がなされているので、今後 医療現場でGPTが使われるようになる可能性を聞いてみた。
Me:
あなたはどのように実装されたの? Deep Learning?
GPT:
はい、私はDeep Learningによって実装されました。特に、Transformerと呼ばれるアルゴリズムを使用して学習されました。これは大量のテキストデータを学習し、自然言語処理タスクに適用することができるように設計されています。
Me:
もっと詳しく。
GPT:
Transformerは、自然言語処理タスクのためのDeep Learningアルゴリズムです。それは、大量のテキストデータを学習し、それを解釈し、理解することができるようになります。 Transformerは、複数の層からなるニューラルネットワークを使用して、テキストを処理します。それは、大量のデータを効率的に処理するために、Attention機構を使用します。これは、特定の部分のテキストに注目しながら、それらの関係を理解することができるようになります。Transformerは、自然言語処理タスクにおいて非常に成功しています。それは、自然言語の翻訳、文章の解釈、質問応答などのタスクに適用されており、高い精度を発揮しています。私はTransformerを使用して学習され、自然言語処理タスクに適用することができます。
Me:
事前訓練とかしているんだよね?
GPT:
はい、私は事前学習を受けています。事前学習とは、大量のテキストデータを使用して、言語モデルを学習することを指します。これは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。事前学習は、言語モデルのパフォーマンスを大幅に改善することができます。それは、事前学習済みのモデルを使用することで、新しいタスクに対して学習をスキップすることができ、タスク特化の fine-tuning を行うことができるためです。私は、大量のオンラインテキストデータを使用して学習され、それを解釈し、理解することができるようになりました。それは、自然言語処理タスクに対して高い精度を発揮することができます。
Me:
今のパラメータはいくつ? 前のバージョンよりどのくらい精度がよくなった?
GPT:
私の現在のパラメータ数は、数百億から数千億となっています。これは、大量のデータを使用して学習し、高い精度を達成するために必要なパラメータ数です。精度は、バージョンによって異なりますが、一般的には、前のバージョンよりも高い精度が達成されています。これは、新しいアルゴリズムや技術の進歩によって、より良い結果が得られるようになってきているためです。また、事前学習済みのモデルを使用することで、新しいタスクに対して学習をスキップすることができ、タスク特化の fine-tuning を行うことができるため、精度が向上していることも見られます。
Me:
具体的なパラメータ数は? 前バージョンのGTP-2、現バージョンのGPT-3、次バージョンのGPT-4、それぞれ教えて。
GPT:
GPT-2は、1.5バイアレイパラメータを持っていました。それは、大量のテキストデータを使用して学習し、自然言語処理タスクに適用することができるようになっていました。GPT-3は、175バイアレイパラメータを持っています。これは、GPT-2よりも多くのパラメータを持っており、より高い精度を達成することができます。GPT-4はまだリリースされていないため、そのパラメータ数については確定していません。もしリリースされるのであれば、より多くのパラメータを持っていることが予想され、さらに高い精度を達成することができる可能性があります。
Me:
175バイアレイパラメータって何? 1750億パラメータの間違いでは?
GPT:
そうです、GPT-3は175バイアレイパラメータを持っています。それは1750億のパラメーターを持っていることを意味します。これは、大量のデータを使用して学習し、高い精度を達成するために必要なパラメータ数です。これは、現在の自然言語処理タスクに対して最も大きなモデルであり、高い精度を達成することができるため、市場においても高い評判を得ています。
Me:
バイアレイパラメータを英語で表現して。
GPT:
A "peta-parameter" or "Peta-parameter" (PT) is a measure of the capacity of a machine learning model, specifically the number of parameters it has. In the case of GPT-3 it has 175 peta-parameters, meaning it has 175 million billion parameters. These parameters help the model to understand and interpret large amounts of text data, allowing it to perform natural language processing tasks with high accuracy.
Me:
「175 billion parameters」の間違いでは?
GPT:
そうです、「175 billion parameters」の間違いでした。 GPT-3は175 billion parametersを持っています。それは、自然言語処理タスクに対して高い精度を発揮するために必要なパラメータ数です。申し訳ありませんでした。
Me:
GPT-3はどのように概念レベルの知識を持つの? Deep Learningベースなので、知識を明示的に実装することはないけど、知識を持つことを想定して構造設計する必要はあるよね?
GPT:
GPT-3は、大量のテキストデータを使用して学習されました。それによって、自然言語処理タスクに対して高い精度を発揮することができます。それは、事前学習済みのモデルを使用することで、新しいタスクに対して学習をスキップすることができ、タスク特化の fine-tuning を行うことができるためです。GPT-3は、大量のテキストデータから概念レベルの知識を学習します。それは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。 それは、単語や文章の関係性、文章の構造、文章の意味などを理解することができるようになります。GPT-3は、Deep Learningベースのモデルであり、知識を明示的に実装することはありませんが、大量のテキストデータから知識を学習することができるように構造設計されています。それは、Attention機構を使用して特定の部分のテキストに注目しながら、それらの関係を理解することができるようになります。
Me:
Attention機構について詳しく。
GPT:
Attention機構は、自然言語処理タスクにおいて重要な役割を担う機構です。それは、大量のテキストデータを処理するために使用され、特定の部分のテキストに注目しながら、それらの関係を理解することができるようになります。Attention機構は、Seq2Seqモデルなどの自然言語処理タスクに使用されています。それは、入力シーケンスから出力シーケンスを生成するために使用されます。Attention機構は、入力シーケンスのある部分に注目し、それに基づいて出力シーケンスを生成することができるようになります。Attention機構は、ニューラルネットワークの中で使用されます。それは、重み付けされた平均値を計算し、それに基づいて入力シーケンスから重要な部分を選択することができるようになります。GPT-3は、Attention機構を使用して、大量のテキストデータから概念レベルの知識を学習し、文章の意味を理解することができるようになります。
っていう増田が前いたんだけどさ
応用情報処理試験に合格すると高度情報処理試験の午前I試験免除になるの知らんのかな?
つまり応用情報の内容は高度情報処理試験の範囲内ってことじゃん?
多分その辺の関係を知らない人なんだと思った。
みたいな勘違いしてると思う
実際は
高度情報処理試験 > 応用情報処理試験 > 基本情報処理試験
応用情報のネットワークの問題がわからないなら、基本情報のネットワーク問題に戻ってみましょう。とか。
応用でデータベースを選択するなら、むしろデータベーススペシャリスト試験を受けるつもりで専用テキストを読んで勉強しましょう。
みたいな感じで、各試験は繋がってるのに。
辺な勘違いしてる人がいるもんだなと思った。
ガチのセラピストとガチでやる認知行動療法についてはあんまり知識ない(ちゃんと受けたことない)から、自分一人でやるカラム法みたいなカジュアルなやつに限った話になる上に、めっちゃ偏見まみれだけど(まさに「認知の偏り」?)。
昔から、認知行動療法のライン作業感というか、「はい、あなたに今生じた感情は〇〇という自動思考によるものですよー、それは△△という認知の偏りに基づいていますねー、この場合の合理的な思考は何でしょうかー、そう□□ですねー、『正しい認知』ができて楽になりました、よかったですねー」みたいな一連の流れがクソだなって思っていて、それは「あらゆる人の個別的な考えがテンプレ的なフレームに則って画一的に処理されていく」ことへの不快感によるものだと理解していたのだけど、最近になってそれとは別の切り口から嫌いな理由が考えられるようになった。
すなわち、「最初から『望ましい状態』という目標≒『結論』が決められているから」という理由。
認知行動療法って、結局「外部から与えられた定義における『不適応を起こしている人間』」を「外部から与えられた定義による『望ましい状態』」に持っていく技術なわけじゃん。前者に関してはまあ「生きづらさを感じている」とか「トラブルが多い」とか、本人の困り感に立脚したものが多いだろうから置いておくとしても、後者の「望ましい状態」というのが、最初から自明のものとして設定されているというか、「合理的な認知に基づいてストレスの少ない(ストレスに遭っても対処できる)人になりましょう!」という目標(≒結論)が何の疑いもなく立てられてる感じがする。そして、セルフワーク系認知行動療法においては、「不適応を起こしている人間=自分」に対して、認知行動療法という「治療」を行うことで、「望ましい状態」に変わって(変えて)いこうね!っていう流れなんだろうけど、私はその「望ましい状態=合理的な認知に基づいてストレスの少ない(ストレスに遭っても対処できる)人」という前提が何の迷いもなく置かれているのが怖い。
確かに、「解決すべき課題」や「なりたい自分」といった「目標」を持った人が、認知行動療法によってそれを達成しようとする時、認知行動療法というのは良いツールだと思う。「職場の人と円滑にコミュニケーションを取りたい」と思っている人にとって、「なりたい自分」は認知行動療法で定義される「望ましい状態」と一致するだろうから、セラピストなりテキストなりと二人三脚で目標達成に向けて頑張れば良い結果になると思う。
でも、自分の中で「解決すべき課題」がはっきり見つかっていない、あるいは「なりたい自分」が明確に定義されていないうちに、治療者側(テキストを作った側)が考える「望ましい状態」こそが「目標」であると宣言され、そこに向かって自己変容をすることが「正しい」から頑張ろうね、と旗を振られることは、何というか、押し付けじゃないのかな?って思うのだ。それが本当に「正しい」のかどうか考える余地が与えられていないことに、息苦しさを感じるのだ。
もちろん、多くの人にとって「合理的な認知ができる、ストレスのない状態」というのは「快」であり、「望ましい」、ひいては「正しい」ことなんだと思う。でも、うまく言えないけど、「不合理な認知」も「ストレスで苦しんでいる状態」というのも、それが「自分」の一面である以上、「正しくない、間違っている」と断言することは乱暴なんじゃないかな、と思うのだ。認知行動療法が定義する「正しい」認知に基づく生き方を推奨するあまり、「偏った認知を持った人」が「偏った認知を持ったまま生きる」ことが否定されるのはダメなんじゃないか、と。
多分ガチの認知行動療法だとこの辺の問題はクリアされてるのかなとも思うけど、セルフワーク系だとここらへんの認識があまりに雑なイメージ(偏見かもしれん)があるから、何となく書いてみた。あんまりまとまってないから書き直すかもしれない。
お前は人工知能より頭がいいのか?研究によると、パラメータの大きな言語モデルプログラムが人間の知性を凌駕する可能性があることがわかっている。
Generative Pre-trained Transformer 3が、知能を測る一連の推論テストにおいて平均的な大学生を上回っていることが発見されている。例えばN-gram LMsはカウントベースのマルコフモデルパラメータフィッティングを用いるが、GPT3はより巨大なパラメータを持つ。入力に対して人間のようなテキスト、つまり確率の高いものを出力する。GPT3はOpenAIが生み出した技術で、言語翻訳やチャットボットなどのアプリケーションのテキスト生成など、さまざまな用途がある。
1750億のパラメータを持つ、最大かつ最も強力な言語処理AIモデルのひとつだ。
ではGPT-3は「天才」なのか?研究では、一般知識、SAT試験のスコア、IQという3つの重要な要素において、プログラムが人間に匹敵する能力を持つかどうかを調べられた。プレプリントサーバー「arXiv」で公開された結果によると、AI言語モデルは3つのカテゴリーすべてにおいて、人間よりも高いパーセンタイルでゴールしていることがわかっている。
実際のIQテストでのGPT-3の成績はどうか?平均的な大学受験生を相手に、様々な言語モデルが分析的推論問題でどのような結果を出したかについての調査結果を発表された。AIが明らかに勝者となった。とのこと https://twitter.com/AiBreakfast/status/1607594052785930240
"GPT-3は、抽象的なパターン誘導に驚くほど強い能力を示し、ほとんどの場面で人間の能力と一致するか、あるいはそれを上回ることが分かりました。我々の結果は、GPT-3のような大規模言語モデルが、広範な類推問題に対するゼロショット解を見つけるための創発的能力を獲得したことを示しています"と研究者は言う。
同チームは、GPT-3が「明示的に訓練されていないにもかかわらず、生物学的知性がとるのとは根本的に異なる経路を経て、人間の類推の基礎と考えられているものと同様のメカニズムを開発することを余儀なくされた」ことを付け加えている。
GPT-3は、すべての問題タイプにおいて、生成精度...および多肢選択精度ともに、人間の参加者を上回った 。https://twitter.com/AiBreakfast/status/1607594057735278592
この研究によると、ほとんどの質問に答え、人の代わりに論文の下書きまでできるAIプログラムは、問題をゼロから解かなければならないときや、多肢選択式のテストから選択するとき、人間を上回ったそうだ。
AIの専門家で作家のアラン・D・トンプソン博士は、GPT-3が120以上のIQを示すことを示唆している。
増田を全削除するのであればPower Automation DesktopかSelenium IDEあたりでも使えば可能ですが、中にはブクマを集めた珠玉の増田やブクマは付かなくても割と気に入ってる増田もあるので全削除はしたくありませんでした。
Masuda Deleter
https://github.com/oribeolive/masuda-deleter/
Masuda DeleterはDockerコンテナに環境を作って動くのでDockerが必要です。
M1 Macで動作していますがWindowsは検証できるマシンが手元にないので動作未確認です。
インストールはGitHubのREADMEに書かれたコマンドを実行すればできると思います。
Masuda Deleterははてラボにログインして指定されたページ分の自分の増田の投稿をスクレイピングしてローカルのDBに保存します。
取得された投稿のリストがブラウザで見られるので、そこで削除するものを選んで実行すると、またログインして投稿を削除しにいきます。
ページのアクセスごとに読み込みと遠慮のために1秒から数秒sleepするので少し時間がかかります。
一旦投稿をローカルに保存するという過程があるため副作用として自分の投稿を検索できます。
これにより
が容易になります。
増田にはAPIがないので、IDとパスワードを使ってログインして、表示されている文章をスクレイピングしてくるという原始的なやり方になります。
(2回目からはcookieがある場合はcookieを復元してログイン状態になります。)
ユーザーが知らない外部サイトにクレデンシャルを渡すのは危険であり、サービス運営側としてもパスワードを平文で持ちたくないので、Webサービスとして実装せずセルフサービスとしております。
ユーザーによってローカルの.envファイルに書かれたIDとパスワードを使用する形です。
ソースをオープンしておりますので怪しいことをしていないかも確認ができるかと思います。
一応下にプログレスバーが出ますが、ページ遷移すると見られなくなります。進捗は進捗管理でも確認できます。
取得された投稿はリアルタイムで画面に反映されないのでブラウザをリロードしてください。
増田のID、タイトル、本文の省略、投稿日時、ブクマ数、トラバ数が表示されます。
「あとで消す」投稿をチェックし、「あとで消す」記事をついに消すボタンで削除を実行します。
チェックは別のページに遷移しても有効です。
こちらは実行した時点で表示されているページのみリアルタイムに画面に反映されます。
投稿の全文を見られます。タグ等は取得しないのでテキストのみになります。
投稿を個別に取得してローカルの文章とブクマ数とトラバ数を更新します。
対象の投稿のタイトルを空に、本文をスペース1文字にしにいきます。
処理の進捗(何件中何件処理済みか)を見ることと、処理を停止させることができます。
排他処理(取込と取込、特定IDの削除と同じIDの削除等)にしているので動いていなそうな処理を停止して再度処理を実行するときに使います。
停止する場合は停止ボタンを押すか、それでも停止しそうにない場合は強制停止ボタンを押してください。
「停止」は今行っている最中の処理ではなく次以降の処理を停止するという形になります。
停止ボタンを押したときに4ページ目を取得している場合は、5ページ目の取得を始める前に処理を終了することになります。
そのためプロセスそのものが止まっている場合は停止されません。
「強制停止」はプロセスをkillします。スクリプト名とプロセスIDでプロセスを検索して子プロセスも含めてkillします。
おまけとして、投稿日とブクマ数、投稿日と3ブクマ以上の投稿の件数、投稿時間(hour)ごとの1ブクマ以上の投稿の件数のグラフが見られます。
ブクマが付いた瞬間ではなく投稿日時なので、いつの時期に投稿した、何時に投稿した増田が活きが良いのかを見られる程度です。
集計データを別に持っていないので増田を削除するとグラフに使用されるデータも消えます。
私はこれで多いときには4000件程度あった増田を3000件程度に減らしました。
これを開発する前からも増え続ける増田の削除に日々勤しんでいたので総数はもっと多いはず。
まだまだ削除したいです。
たまに
Message: unknown error: net::ERR_CONNECTION_CLOSED
というSeleniumのエラーが出て処理が実行されないことがあります。再度実行してください。
フロントエンドがレガシーなのでMasuda Deleterの開発に飽きていなければもう少しモダンにリプレースしようと思っています。
使用していないDjango REST frameworkがrequirements.txtに入っているのはその名残です。
ちょっとなんだか多分専門的な話しで
紙面レイアウト、
適当に考えずに文字をテキストの配置に流し込んでみてA3のサイズの紙で印刷してみると
まあ余白のバランスが変だったりして
これなんで変なんだろう?って思っていろいろとレイアウトの記事を適当に検索して見てみてゲッツした情報によると、
紙面の余白の小口アキ、のどアキ、天あき、地あき
とりあえず
へーあんまり意識していなかった紙とか私そういうのは慣れていないので、
でも最低限のそう言うところを抑えておけば
何となく見栄えの良いレイアウトの体裁は整えられるような気がするんだけど
多分レイアウトのプロのディスクトップパブリッシング検定を取っている人から見たら素人がーって言われそうだけどね。
とりあえずは
もしかしたら隣の会社のそう言う紙媒体のお手伝いが飛んでくるかも知れないとんでもない状況下の中
無いことを切に祈るけれど、
まあそう言うことで
ふーんっていろいろとそう言うノウハウを漁っているのよ。
のどアキのことを考えていなかったというかそう言うこと知らなかったので、
折った山折り谷折りのところの要は中心が文字が詰まっちゃってキツくなるのはなんでだろう?って
テツアンドトモさんばりに思っていたのよ。
そしたら、
まあそう言うアキの部分をってことらしいわ。
ふーん。
もう今日はふーんの連発だと思うけど
一面15段で別れていて横に15分割スライスして、
そのグリッドで考えるみたいな
それなんてツイッターブートスタンプのグリッド?って思わずにはいられない衝動だったわ。
結局は紙面レイアウトを制するものが紙面レイアウトを制する!ってことなのよね。
そういうのはお手軽動画サイトで32倍速して8秒で文字通り秒で理解したい鯛刺いただきながらでちょうどいいタイムパフォーマンスだわ。
奥が深いわーってこれ。
そう言う隣の会社のそうなったときに舞い込む仕事のお手伝いが来たら万全よ!って
もう言えそうな勢いではないけど、
知識として持っておけば
いろんな細かいルールがもっと他にもたくさんあるのかも知れないし
棚全部一面紙面レイアウトの本たったりするぐらいたぶん奥深さの奥行きよ。
そう思うと恐ろしいわ。
そんな本がたくさんあるはずよ。
ネッツ書店はピンポイントで本を買うには便利過ぎるぐらいのインターネッツだけど
なにかしら棚一面を見渡して
どれにしようかなーって
目隠しして本を探すには決まって大型書店と相場が決まっているとそうダブルで決まっているから、
私以前誰かにもらったそういう内容のレイアウトの本があったんだけど、
それどこにいったのかしら?って
書名も著者も分からないし
うーん、
鰯気になりそう。
レイアウトの本で黄色い表紙でーってことしか分からない検索の仕方。
そう言う時はやっぱり大型リアル店舗に
うふふ。
あれコンビニでたまに見かけるんだけど
多分それに十分引っ張られまくりまくりすてぃーなことだと思うのよね。
私の炒飯の口は無事救われました!って
ジャンキーみのある味ではあることは確かだけど、
たまにはそう言うジャンキーなものを食べたいっ!ってときない?
たまに寄るコンビニエンスストアもいいわね。
今朝はなんだかちょっと心なしか温かいような感じがしたんだけど、
まあ梅干しだけど
みんなも試してみて!
すいすいすいようび~
今日も頑張りましょう!
情勢を知らない、時流を知らない、まるで原始人。
カスタムトレーニングでメニューは、プランク、太もも系、ストレッチ系、肩周り。
このメニューを20日やった。プランクとフロントプッシュがキツかった。
結果。
”君は何も知らないから”、”自分達が学んだ真理を知れば”、”○○は核心をついた組織だからこそ”、”ちゃんと勉強していれば”
そのものだって言われてるんだよ。その社会学のテキストを読めば献血はボイコットすべきという結論になるの?
読んでわからなかったら「わかるまで読んでないからわからないだけ、わかるまで読め」としか言わないでしょ?そういうのは学問ではなくて宗教って言うんだよ。
例えば”名誉男性”
フェミニズムを名乗る人たちがこれらの言葉を使う事はこれまで多々あったし
そもそもサイレントマジョリティ側からすればいきなり発狂して攻撃しているようにすら見える事はそう珍しくはない
彼女ら、もしくは彼らは「そんなことはない、これは性差別が可視化されて」と自らの行為や言動の正当性を訴えかける
しかし如何に正当性を訴えかけられたところでマジョリティにとっては”ただの怖い人達”になりつつあるのだ
そして正直、彼らには近づきたくもないし寄ってきてほしくもない
自らの考えを反省する前に、そもそもそんな過激な人間とは距離を置こうと思ってしまう
ぶっちゃけ、関わり合いになりたくないから避けるという現象がオタクだけではなく若い世代を中心に広まりつつあるのだ
ちょっとずつ、少なくとも私の回りではジェンダーだとかフェミニズムだとかそんな言葉を口にするだけで出来うる限り関わり合いにならないというところまで来ている
反フェミニズムではない。反発するのではなく、遠ざけようとするスタンスが徐々に出来上がりつつある
https://institute.dentsu.com/articles/2234/
ここでカルトの定義を明らかにしよう。オウム真理教のような集団では定義が狭すぎる。
これらを満たすとされている
正直②や③については個別で考えなければならず、そもそもツイフェミと別な気はするし、⑤についてはフェミニズムというくくりだけでは定義に添えない部分が多い
これらすべてがガッチリと当てはまるかといえば当てはまらない所もある
しかし過激派、主にツイッターで目立つツイフェミと呼ばれる方々に関して言えば「当てはまるのではないか」と思わされるような言動、発言を多く感じられる
これについては論を俟たない。名誉男性という言葉が全てを物語っている
この言葉を攻撃として用いている場面は多々見てきたはずだし、なんならツイッターでざっくり探っても簡単に見つかるだろう
事実、ツイフェミに反対的、無関心な人間がこのような蔑称を投げかけられる。なんならツイフェミから離れた人間や即座に従わない人間にも使われている
ツイフェミに反対的な人間を叩く人間はツイッターを見回せば掃いて捨てるほどいるのだ(これは④にも関わってくるが後に語る)
……本来個人主義ならば、「どんな人間が居てもよい」と発言するはずだ
要するに「フェミニズムの遂行のために、世の中の女性は反フェミに反対するべきなのだ」という発言、思想がそもそも全体主義に片足を突っ込んでいる
無論、これが悪いわけではない。私は関わり合いになりたくないだけで
ここについては個別な気はするけどツイッターバトルとかはてブロでレスバするところはかなりエッセンスが含まれているのではないだろうか?
(実際擁護すると怒られる所については片足つっこんでると思う。何もしてなくて怒られるって段階じゃないだけかもだけど)
強制までは行ってない(やらなかったら村八分されて生活がままならないとか)から多分ここに当てはまる所は少ないのではないだろうか?
[はじめに]大切な人が変わってしまった!-ありがちな対応の結末
さて、 これ を 踏まえ て、 先 ほどの 対応 を もう一度 見 て み ましょ う。
「あなた が 言っ て た ○ ○( 組織 名) って とこ、 何 か 怪しい ん じゃ ない の?」
〝君 は 何 も 知ら ない から、 怪しい って 思う ん だ よ。 僕たち が 学ん だ 真理 を 知れ ば、 君 だって 本当 の こと を 理解 できる さ〟
「○ ○ って、 こんな ひどい こと を し てる って、 週刊誌 に 書い て あっ た わよ」
〝週刊誌 の 記事 を 信じる なんて 最低! ○ ○ は 核心 を つい た 組織 だ から こそ、 世間 から 言わ れ なき 非難 を 浴びせかけ られる の。 私 みたい に ちゃんと 勉強 し て いれ ば、 そんな たわごと に 踊ら さ れ ず に 済む のに〟
「そんな こと を 信じ てる なんて 馬鹿らしい! なんで、 それ が おかしい って わから ない ん だ」
〝おかしい って 思いこん でる だけ だろ!? わかっ て ない のは、 お前 の 方 だ よ〟
「これ を よく 読め ば、 お前 が 信じ て いる こと が 間違い だ と わかる よ」
〝これ って、 反対 派 が 書い た 本 じゃ ない か。 こんな 間違っ た もの なんか、 読む わけ ない だろ。 それ より、 自分 の 方 が 間違っ て いる こと に 気づく 方 が 先 だ よ!〟
「○ ○ の □ □ という 考え方 は おかしい。 なぜ なら ば……」
〝何 も 知ら ない 人 が 屁理屈 を こね た って 無駄 だ よ。 僕たち の 知っ て いる 真理 は、 これ までの 理論 を はるか に 超え て いる ん だ から〟
日本脱カルト協会. カルトからの脱会と回復のための手引き《改訂版》 〈必ず光が見えてくる〉本人・家族・相談者が対話を続けるために (Kindle の位置No.131-142). 遠見書房. Kindle 版.
……どうだろうか?
見てこなかっただろうか?
”君は何も知らないから”、”自分達が学んだ真理を知れば”、”○○は核心をついた組織だからこそ”、”ちゃんと勉強していれば”
”わかってないのは、お前の方だよ”
……これを書いてる間、ずぅっとデジャビュを感じていた。
ここなのだ。まさにこの部分が、ツイフェミがカルトに一歩足を突っ込んでるところなのだ
全部どこかで見たことがある。少なくとも勉強不足となじって対話を拒否するあたりなんか特にそうだ
そして一番厄介なのは、これが実際にある学問であるということだ
だから規制するべきだなんて言わない。言うつもりもないしそんな事を言う人間を信用もできないが、少なくとも私は近寄りたくないし学びたいと思わない
学んだ結果、このような会話になるのだからフェミニズムという学問が恐ろしくて堪らない
ただの知らない人が学ぶのなら止めないが、知り合いや友人なら殴ってでも止めるだろう
正直私にとってフェミニズムはオウムとの間違い探しのレベルになってる
ここまで書いてきたが、とくに②、③については当てはまる部分がかなりあやしい、むしろ当てはまらない部分があると思う
⑤についても正直微妙なところで、ぶっちゃけ反ツイフェミについては死ぬほど叩くだろうけど
ただそもそも組織が細分化していることやリーダーと呼べる人間がどのくらいいるかにもよる
ここまで書いたけれども筆者は別にカルト研究をしている人間というわけではない。ただの一般人だ
こんなものを書いてみようと思ったきっかけも知人がフェミニズムを学んでかなり過激なフェミニストになった事がきっかけだったりする
(そして家にあるジャンプやゲームや漫画を捨てられそうになった。3万円くらいの被害)
正直な話、フェミニストは怖いのだ。近寄ってほしくない。近寄りたくもない。どこか遠くの場所で野垂れ死んで消え失せてほしい
あの人が、この人がフェミニストだったらと思うと怖くて堪らないし、母親、知人、友人の誰かがフェミニストになってしまったらもはやカルトと同じように扱う
そしてこの考えが徐々に増えている事に安心しているし、同時に葛藤もしている。実際に私は一人の友人と縁を切ったし
恐ろしかった。とてもとても恐ろしかった。恐ろしくて仕方がないから遠ざけたくて仕方がない
近寄ってほしくない。近寄りたくもない。なんなら国会にフェミニストと自称する議員が出ることがそもそも吐き気がする
そういう段階になりつつある。そういう段階を踏みつつある
参政党やNHK党に投票するのをためらうくせに、多分彼らがフェミニズムの根絶を訴えたら投票してしまうかもしれないくらい怖くて堪らない
そもそもお寿司猫ロスの絵文字だって怖い。雄○ね○すと言ってはばからない人間がそこらじゅうにいるかもしれない
カルトを思い起こさせる程度には恐ろしいのだ
出来うることならツイッターでレスバするんじゃなくて、議員さんに手紙を書こう
実はこれものすごく効果がある。ツイッターでリプ送るよりよっぽど効果があるし、基本的にあまり無視できない
(実際ただのフリーターでも国籍が日本なら無視はしないし彼らと喋る機会もままある)
よっぽどフェミニストとして有名でない限りは自分の地区の議員さんに手紙を書いて送ればいい
メールじゃないぞ。手紙だ。あと国会議員さんを中心にやるとよい
左派はこういう活動を通じて勢力を伸ばした。同じことをすればいい
https://anond.hatelabo.jp/20230109012839
まさにこれ。これ④で見たよな。そういうことだ。
マジでこんな感じなんだ。
https://anond.hatelabo.jp/20230109025104
https://anond.hatelabo.jp/20230109030346
④でみたやつだよなこれも。
正直、フェミニストで「理解してもらおうとするような態度」に出会った事がない
勉強不足だなんだといいながらセクシストのレッテルを貼ってくる
彼女らは自らが優れている事を証明したくて仕方がないと同時に、他者との違いがとんでもなく苦手だ
基本的にカルト・メンバーは普段の会話や組織の理念に専門用語を使う。
これは「自分達は一般社会よりも高等で高尚な考えを持っている」と感じさせると共に、「社会では通じない言葉であるから結果として社会から隔離される」という結果を生み出す
”仲間意識を強くさせながら社会から切り離させる”って事をするんだ。話通じないやつと関わりたくないだろう?
普通に考えてみてくれ。どこかの理系の研究者や、文系の教授でもいい
「わからないから教えて」って言うと専門用語を一般化して伝えようとしてくれるだろう?
しかしカルトではそもそも「社会のための一般化」って概念がない。当人が社会から隔離されてた方が嬉しいからだ。
結果として、もう見えてるよな?
やつらが専門用語を使い始めたとき、定義を聞いたら薄っぺらかっただろう?端々に現れてるんだよ。
https://anond.hatelabo.jp/20230109025436
まさにその通り。
https://anond.hatelabo.jp/20230109030119
ぶっちゃけ全体主義的で批判の封鎖を行ってる時点でもはやカルトにしか見えないってだけの話だし、やべーやつだから近づきたくないってだけだよ
そして示し合わせたわけでもないのにそういうのが増えてることをもう少し考えてくれ。考えた上でどっかいってくれ
https://anond.hatelabo.jp/20230109030007
正直ミサンドリーもミソジニーもアンフェもツイフェも思想は自由だけど過激派には近寄ってほしくない。
どこかで野垂れ死んでくれ。頼むから。