「テキスト」を含む日記 RSS

はてなキーワード: テキストとは

2023-01-22

GPT医療現場で使われる可能性について聞いてみた (つづき2)

「つづき」で気になった箇所を深掘り。確認するに、専門家の監修体制の構築はそれほど難易度は高いように思えなかった。やはり「つづき」で応えてくれた「医療用の学習データGPT側で定期的に用意できるか」が今後の発展のポイントになりそうだ。

まずはAttention機構の深掘り

Me:

GPTのAttention機構って何?

GPT:

Attention機構は、自然言語処理タスクにおいて、入力文の中から重要な部分を選択し処理するためのアルゴリズムです。GPTは、Transformerと呼ばれるモデルアーキテクチャ使用しています。Transformerは、Attention機構を利用して、入力文中の各単語関係性を学習します。これにより、モデル入力文全体を理解し、より質の高い出力を生成することができます

Me:

GPT医療知識が弱いと聞くけど、このAttention機構の仕組みと関係ある?

GPT:

GPTは、学習データに基づいて学習されます。そのため、学習データ医療に関する知識が少ない場合GPT医療に関するタスクに対して劣る結果を生成する可能性があります。Attention機構は、入力文中の各単語関係性を学習するために利用されていますしかし、Attention機構自体は、学習データに基づいて学習されるため、学習データ医療に関する知識が少ない場合、Attention機構医療に関するタスクに対して劣る結果を生成する可能性がありますしかしながら、GPTには大量のテキストデータ学習し、自然言語処理タスクに対して高い性能を発揮する能力があり、知識を持っていない領域でも新しい知識を得る能力を持っています。そのため、医療に関するタスクGPTに与える場合は、十分な医療に関する学習データを与えることで、GPT医療に関するタスクに対しても高い性能を発揮することが期待できます

Me:

ポイントは、Attention機能医療用にチューニングするのではなく、医療データ学習データとして与えることが、GPT医療分野への強化に繋がるんだね。

GPT:

そうですね。Attention機構は、入力文中の各単語関係性を学習するためのアルゴリズムです。GPTは、学習データに基づいて学習されます。そのため、学習データ医療に関する知識が少ない場合GPT医療に関するタスクに対して劣る結果を生成する可能性があります。それに対して、十分な医療に関する学習データを与えることで、GPT医療に関するタスクに対しても高い性能を発揮することが期待できます。そのため、Attention機能医療用にチューニングするのではなく、医療データ学習データとして与えることが、GPT医療分野への強化に繋がるということになります


次ぎに専門家の監修について深掘り

Me:

GPT医学的な正確性や専門性を獲得するには、意思決定者としての専門家の監修が必要という認識だけど、仮にそれが可能になった場合GPT医療現場で使われるようになると思う?

GPT:

GPTは、大量のテキストデータ学習し、自然言語処理タスクに対して高い性能を発揮する能力がありますしかしながら、GPT人間主観判断力を持っていません。そのため、GPTが生成する出力は必ずしも正確であるとは限りません。そのため、医療現場GPT使用する場合は、専門家による監修が必要です。専門家は、GPTが生成する出力が正確であるかどうかを判断し、必要に応じて修正を行うことができます。これにより、GPTが生成する出力が正確であることが保証され、安全かつ効果的な医療提供することができます。そういった意味で、GPT医療現場で使われるためには、専門家による監修が必要であり、GPTはその監修に基づいた情報提示などに利用されることが考えられます

Me:

ユースケースとしては何が考えられる?

GPT:

GPTは、自然言語処理タスクに対して高い性能を発揮する能力があるため、医療現場での様々なタスクに利用することが考えられます。例えば、医療文書自動生成や翻訳、診断支援治療プランの生成、疾患の予防に関するアドバイスの生成などが挙げられます。また、GPTは大量のテキストデータ学習することで、新しい知識を得る能力を持っているため、医学研究や新しい薬物の開発にも利用することができます。ただしながら、これらのタスクにおいてもGPTが生成する出力は必ずしも正確であるとは限らないため、専門家による監修が必要です。

Me:

専門家の監修は、GPTユースケースの内、どのフェーズ必要になると思う?

GPT:

GPTが生成する出力が正確であることを確認するために、専門家による監修が必要になります。そのため、GPTを利用する各フェーズ専門家の監修が必要になることが考えられますこれにより、GPTが生成する出力が正確であることが保証され、安全かつ効果的な医療提供することができます

Me:

フェーズごとにその適用難易度を教えて。

GPT:

フェーズごとに適用難易度は異なりますが、概ね以下のようになりますただし、これらは一般的な話であり、実際には、専門家がそれぞれのフェーズにおいて監修するために必要スキル知識は、それぞれのアプリケーションタスクによって異なります

Me:

しかに生成フェーズにおける出力のパターンは他のフェーズと比べ管理しづらそうだけど、その難易度を調節するための工夫はあったりするの?

GPT:

生成フェーズにおいて、GPTが生成する出力を確認し、修正するための難易度を調節するための工夫には以下のようなものがあります:これらの工夫により、GPTが生成する出力を確認し、修正するための難易度を調節することができます。また、専門家確認する作業効率化することで、より多くのGPTが生成する出力を確認することができ、正確性や適切性が高い出力を得ることができます


最後に出力フォーマットの深掘り

Me:

GPTが生成する出力のフォーマット定義するにはどうすれば良いの?

GPT:

GPTが生成する出力のフォーマット定義するには、次のような方法がありますこれらの方法を組み合わせることで、より正確かつ適切なフォーマット定義することができます

Me:

GPTの出力テンプレート使用方法を教えて。

GPT:

GPTの出力テンプレート使用するには、以下のような手順を踏むことができます
  1. 出力テンプレート作成: GPTが生成する出力のフォーマット定義し、テンプレート作成します。例えば、診断書フォーマットや手術手順の書き方など。
  2. GPTテンプレート学習させる: GPTに、作成したテンプレート学習させます
  3. GPT入力を与える: GPTに、入力として必要情報を与えます
  4. GPTが生成する出力を確認: GPTが生成した出力が、事前に定義したテンプレートに沿っていることを確認します。
  5. 修正を行う: GPTが生成した出力が、事前に定義したテンプレートに沿っていない場合は、修正を行います
このように、GPTの出力テンプレート使用することで、GPTが生成する出力のフォーマットを明確に定義することができ、専門家確認する作業を簡略化することができます。また、テンプレート学習させることで、GPTが生成する出力が予め定義したフォーマットに沿っていることを保証することができます

Me:

GPTテンプレートスキーマの違いを教えて。また、プリセットと何が違うのかも教えて。

GPT:

GPTテンプレートスキーマは、出力フォーマット定義するための方法であり、それぞれ異なる特徴がありますまりテンプレート文章フォーマット定義するのに、スキーマデータ構造定義するのに、使用します。プリセットは、テンプレートスキーマのような事前に定義したパターンデータ構造使用することができます。ただし、プリセットは、具体的には何を指すかは定義が異なります

Me:

Pythonのopenaiライブラリテンプレートスキーマを再定義することは可能?

GPT:

はい、openaiライブラリは、新しいトレーニングデータテンプレートスキーマを含むように、GPTモデルファインチューニングすることができます。 openai.Completion.create()メソッド使用して、GPTモデルファインチューニングすることができ、トレーニングデータテンプレートスキーマファインチューニングパラメータ指定することができます。また、openaiは既にテンプレートスキーマが組み込まれモデル提供しており、それらを直接使用することができます

Me:

`openai.Completion.create()` メソッドテンプレートスキーマを再定義する方法を教えて。

GPT:

openai.Completion.create()メソッド使用して、GPTモデルファインチューニングするには、次のようにします。このように、openai.Completion.create()メソッド使用して、GPTモデルファインチューニングし、テンプレートスキーマを再定義することができます。ただし、学習データとして適切なものを選び、ファインチューニングパラメータを調整する必要がありますので、注意が必要です。また、トレーニングデータとして使用するテンプレートスキーマによっては、モデルの性能が改善しないこともあるため、適切なものを選ぶことが重要です。また、ファインチューニングを行うためには、足りないデータ時間計算リソース必要です。

Me:

当該メソッド用のファインチューニングパラメータは `prompt` を使うんだよね?

GPT:

はい、openai.Completion.create()メソッドでは、promptパラメータ使用して、GPTモデルに対して、生成したい文章フォーマットデータ構造指定することができます。このpromptによって、GPT指定されたフォーマットデータ構造に従って文章を生成するように学習します。このpromptには、テンプレートスキーマを含む文章指定することで、GPT学習させることができます

FEエンゲージやってる。出てきたキャラクターが一部メインに絡む王族勢除いて初登場以降は基本シナリオ上の出番皆無になるの、まあロストがある以上はそうだよな……と納得しつつも若干寂しさを覚えてしまう。

風花雪月で自分が一番感動した部分が、まさにこの「SRPGであるキャラクターの数が膨大になりがちであり、かつロストする以上どうしても一部のメイン各以外のキャラクターに本筋のシナリオ上で出番を与えることができない」構造を、「キャラクターグループ物語の本筋自体を三つに分けることでまず本筋自体に絡むキャラクター絶対数を減らし、その上で各本筋におけるキャラクターフラグ管理をやりきる」という形で、文字通りの力技ながら克服した点であったからだ。

風花がそのあたりに異様に手入れてたのは事実としても、ならばせめて今までのいつものFEのように支援が充実していれば……と思えど、支援の組み合わせの種類が飛びぬけて多いわけでもなさそう、かつ支援会話もあっさりしたノリなのがなんとも(覚醒ifでももうちょい一つの会話内でネタが広がっていた気がするのだが、今回一会話が本当にすぐ終わってしまう)。

指輪関係の会話が全キャラ分あるようだからそこは楽しみにしているのだが、マルス主人公最初の会話が文字通りの二言三言で終わってしまったので、これもどこまで期待して良いものやら……。

キャラモデリングや声、モーションは本当に力入っている。女の子ちゃん可愛いだけじゃなくてイケメンがしっかりイケメンとして表現されていたのも驚いた。とにかく画面が華やかで(主人公の髪色もストーリー上の意味あるんだろうなと思えば慣れる)、単純に動かしているだけで楽しい

動きも操作邪魔しないレベルサクサクだし、難易度含めてゲームとしてきちんとやり応えがありそうな気配はばっちり感じる。

物語自体戦争だ~政治だ~じゃなくて「邪竜復活阻止のために仲間集めだ!」を地で行くシンプルさで、画面のポップな感じと良く合ってる。

台詞についても、このテキスト声優さんに読ませるのか……と若干思ってしまう部分はあれど、キャラ自体は基本皆素朴な正義感を持った善人ばかりなのでそういった面での不快感はあまりないし(この点は後で来るだろう邪竜信仰の国のメンバーの加入経緯が若干不安ではあるが)。

なので現時点ではあと一つ何か物足りない……!という感想なのだが、それこそ老害オタクの贅沢みたいなもんなのかもしれない。ゆっくりやっていきたい。

GPT医療現場で使われる可能性について聞いてみた (つづき)

この当たりから医療について

Me:

医療に関わる概念はどのくらい理解している?

GPT:

GPT-3は、医療に関わる概念理解していますが、その精度は自然言語処理タスクに比べると低い可能性がありますGPT-3は、大量のテキストデータ使用して学習されたが、そのデータには医療に関するものも含まれているが、その範囲一般的ニュース記事ブログなどが多いと思われます。そのため、医療に特化したタスクに対しては、専門性が低い可能性があります。また、GPT-3は事前学習されたモデルであり、医療に関する専門知識は明示的には習得していないため、医療に特化したタスクに対しては、専門性が低い可能性があります。ですが、GPT-3は文章の生成や質問応答に対しては高い精度を発揮しており、文章理解する能力が高いため、医療に関連する文章理解し、それに基づいた文章の生成や質問応答をすることは可能です。ただし、医学的な正確性や専門性については保証できないため、医療に関する重要判断治療に関する決定には使用しないほうが良いでしょう。

Me:

今後のバージョンで、医療に関する概念を獲得する可能性はある?

GPT:

今後のバージョンで、医療に関する概念を獲得する可能性はあります現在医療に関するデータが大量に存在し、それを使用して学習することで、より高い精度を達成することができるでしょう。また、新たなアルゴリズム技術進歩によって、より良い結果を得ることができるようになっています医療に関連するタスクに特化した言語モデルも開発されており、それらは、医学的な正確性や専門性に優れています。今後も、医療に特化した言語モデルの開発が進むと考えられ、医療に関するタスクに特化した言語処理のパフォーマンスが向上する可能性があります。また、GPT-3のような大型の言語モデル特定の分野に特化することもでき、それによってより高い精度を達成することができます。それは、特定の分野に特化したデータ使用して学習させることで、その分野に特化した知識を獲得することができるためです。そうしたことにより、医療に関連するタスクに特化した、より精度の高い言語モデルが開発される可能性があります

Me:

ちなみにとある大学が、GPT-3のテキスト検索埋め込みモデル使用し、長い自発的な発話と短い検索クエリアルツハイマー病の初期症状」の関連性を測定して、アルツハイマー病の初期の兆候から80%の精度で検知したみたいなんだけど、意見ある?

GPT:

GPT-3を使用した、長い自発的な発話と短い検索クエリの関連性を測定し、アルツハイマー病の初期の兆候から80%の精度で検知するというアイデアは非常に興味深いものです。自然言語処理タスクにおいてGPT-3は高い精度を発揮しているため、長い自発的な発話を解析することができる可能性があります。ただし、このようなアプローチは、医療に関連するタスクに特化した専門的な言語モデルや、専門家による検証必要であると考えられます特にアルツハイマー病の検出には、複数の要因が関与し、特定の症状がアルツハイマー病の兆候であると断定するためには、専門家による診断が必要だと思われます。また、GPT-3は、医学的な正確性や専門性について保証できないため、重要判断治療に関する決定には使用しないほうが良いでしょう。

Me:

もしGPT医療に関する精度の高い言語モデル実装された場合、このケースでは使える?

GPT:

もしGPT医療に関する精度の高い言語モデル実装された場合、このケースでも使用することができる可能性があります。それは、医療に特化したデータ使用して学習させ、専門的な知識を獲得することで、アルツハイマー病の初期の兆候から高い精度で検知することができる可能性があります。ただし、このようなアプローチは、専門家による検証必要であると考えられます特にアルツハイマー病の検出には、複数の要因が関与し、特定の症状がアルツハイマー病の兆候であると断定するためには、専門家による診断が必要です。また、医療に関する情報は常に最新の情報であることが重要であり、それを保つためにも、定期的な更新必要です。また、GPT-3のような言語モデルは、人間の診断には取って代わることはできません。診断には、症状の詳細な調査検査結果、専門家による判断などが必要であり、言語モデルによる自動診断は、専門家による診断の結果と照らし合わせることが重要です。

Me:

GPT医療に関する言語モデルの定期的な更新可能になった場合は、どう?

GPT:

GPT医療に関する言語モデルを定期的に更新することができる場合、より高い精度を達成することができる可能性があります医療に関する情報は、時間の経過とともに変化します。新しい研究結果や臨床経験が得られるたびに、知識ベース更新される必要があります。それにより、より正確な情報提供することができ、病気の予防や早期発見に役立つことが期待できます。また、GPT-3のような大型の言語モデルは、大量のデータ使用して学習することができるため、新しいデータを取り込むことで、より正確な結果を得ることができますしかしながら、GPT-3やそのような大型の言語モデルは、医学的な正確性や専門性について保証できないため、重要判断治療に関する決定には使用しないほうが良いです。

Me:

医学的な正確性や専門性って具体的になに?

GPT:

医学的な正確性は、医学的に正しいことを指します。つまり、疾患や症状、診断、治療などに関する情報が、科学的に正しいことを意味します。医学的に正確な情報は、最新の研究結果や臨床経験に基づいていることが望ましいです。医学専門性は、医学的に専門的なことを指します。つまり特定の疾患や症状、診断、治療などに関する専門的な知識を指します。これは、医学専門家によって持っていることが望ましいです。GPT-3などの言語モデルは、大量のテキストデータ使用して学習させることで、自然言語処理タスクにおいて高い精度を発揮していますが、医学的な正確性や専門性については保証できないため、重要判断治療に関する決定には使用しないほうが良いです。

Me:

今後GPT医学的な正確性や専門性を獲得するにはどうすれば良い?

GPT:

GPT医学的な正確性や専門性を獲得するためには、次のような方法が考えられます
  1. 専門家が監修する専門的な医学データ使用して学習する: GPTは大量のテキストデータ使用して学習することができるため、専門的な医学データ使用して学習することで、医学的に正確かつ専門的な知識を獲得することができます
  2. 専門家による検証: GPTが出力した結果は、専門家によって検証されることで、正確性と専門性確認することができます
  3. 定期的な更新: 医学的な知識時間の経過とともに変化するため、定期的に最新の情報を取り込むことで、常に最新の情報を持つことができます
  4. 特別タスクに特化: GPT-3のような大型の言語モデル特定の分野に特化することもでき、それによってより高い精度を達成することができます
  5. 医学的な正確性や専門性について保証できないため、重要判断治療に関する決定には使用しないほうが良いでしょう

Me:

GPT-3の要約機能の例。ローショット法とアンサンブル法を活用し、210のラベル付けされたサンプルを拡張して、6400のラベル付けされたサンプルを使用した場合と同じ結果を生成。このサンプルをつかい非常にすぐれた要約を取得可能になったみたいなのだけど、意見ある?

GPT:

GPT-3の要約機能は、自然言語処理タスクにおいて高い精度を発揮することができることが知られています。ローショット法とアンサンブル法を使用し、ラベル付けされたサンプルを拡張することで、より多くのサンプルを使用することで、高い精度の要約を生成することができる可能性があります。ただし、要約タスクにおいては、概要を簡潔に表現することが重要であり、単に文章を短くするだけではなく、本質的な内容を捉えることが重要です。また、GPT-3は大量のテキストデータ使用して学習させることで、自然言語処理タスクにおいて高い精度を発揮していますが、要約タスクにおいては専門性や正確性について保証できないため、専門家による検証必要であると考えられます

Me:

それは医療データに関しても同じ意見?

GPT:

医療データに関しても、GPT-3のような大型の言語モデル使用した場合データ拡張アンサンブル法を使用することで、高い精度の要約を生成することができる可能性がありますしかしながら、医療に関する情報は常に最新の情報であることが重要であり、それを保つためにも、定期的な更新必要であり、それでも正確性や専門性について保証できないため、専門家による検証必要であり、重要判断治療に関する決定には使用しないほうが良いです。また、GPT-3は大量のテキストデータ使用して学習させることで、自然言語処理タスクにおいて高い精度を発揮していますが、医学的な正確性や専門性について保証できないため、重要判断治療に関する決定には使用しない医療に関するタスクにおいては、医学的な正確性や専門性が求められるため、GPT-3などの言語モデル使用するだけでは十分ではありません。そのため、専門家による検証や監修、専門的な医学データ使用した学習、定期的な更新などが必要になります。また、専門的なタスクに特化したモデルを構築することも有効です。それでも、GPT-3などの言語モデルは、医療に関するタスクにおいても有用情報提供することができる可能性がありますが、それらの情報は必ず専門家による検証を経てから使用することが重要です。

今後に期待

Me:

ありがとう。今後を期待しているよ。

GPT:

どういたしまして。私も今後の進化に期待しております。またのお問い合わせをお待ちしております

GPT医療現場で使われる可能性について聞いてみた

Cural Health」や「Drexel’s University」「Nabla」など、各所でGPT-3の検証がなされているので、今後 医療現場GPTが使われるようになる可能性を聞いてみた。

GPT-3の実装を軽く確認

Me:

あなたはどのように実装されたの? Deep Learning?

GPT:

はい、私はDeep Learningによって実装されました。特に、Transformerと呼ばれるアルゴリズム使用して学習されました。これは大量のテキストデータ学習し、自然言語処理タスク適用することができるように設計されています

Me:

もっと詳しく。

GPT:

Transformerは、自然言語処理タスクのためのDeep Learningアルゴリズムです。それは、大量のテキストデータ学習し、それを解釈し、理解することができるようになります。 Transformerは、複数の層からなるニューラルネットワーク使用して、テキストを処理します。それは、大量のデータ効率的に処理するために、Attention機構使用します。これは、特定の部分のテキストに注目しながら、それらの関係理解することができるようになります。Transformerは、自然言語処理タスクにおいて非常に成功しています。それは、自然言語翻訳文章解釈質問応答などのタスク適用されており、高い精度を発揮しています。私はTransformerを使用して学習され、自然言語処理タスク適用することができます

Me:

事前訓練とかしているんだよね?

GPT:

はい、私は事前学習を受けています。事前学習とは、大量のテキストデータ使用して、言語モデル学習することを指します。これは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。事前学習は、言語モデルパフォーマンスを大幅に改善することができます。それは、事前学習済みのモデル使用することで、新しいタスクに対して学習スキップすることができ、タスク特化の fine-tuning を行うことができるためです。私は、大量のオンラインテキストデータ使用して学習され、それを解釈し、理解することができるようになりました。それは、自然言語処理タスクに対して高い精度を発揮することができます

Me:

今のパラメータはいくつ? 前のバージョンよりどのくらい精度がよくなった?

GPT:

私の現在パラメータ数は、数百億から数千億となっています。これは、大量のデータ使用して学習し、高い精度を達成するために必要パラメータ数です。精度は、バージョンによって異なりますが、一般的には、前のバージョンよりも高い精度が達成されています。これは、新しいアルゴリズム技術進歩によって、より良い結果が得られるようになってきているためです。また、事前学習済みのモデル使用することで、新しいタスクに対して学習スキップすることができ、タスク特化の fine-tuning を行うことができるため、精度が向上していることも見られます

Me:

具体的なパラメータ数は? 前バージョンGTP-2、現バージョンGPT-3、次バージョンGPT-4、それぞれ教えて。

GPT:

GPT-2は、1.5バイアレイパラメータを持っていました。それは、大量のテキストデータ使用して学習し、自然言語処理タスク適用することができるようになっていました。GPT-3は、175バイアレイパラメータを持っています。これは、GPT-2よりも多くのパラメータを持っており、より高い精度を達成することができますGPT-4はまだリリースされていないため、そのパラメータ数については確定していません。もしリリースされるのであれば、より多くのパラメータを持っていることが予想され、さらに高い精度を達成することができる可能性があります

Me:

175バイアレイパラメータって何? 1750億パラメータの間違いでは?

GPT:

そうです、GPT-3は175バイアレイパラメータを持っています。それは1750億のパラメーターを持っていることを意味します。これは、大量のデータ使用して学習し、高い精度を達成するために必要パラメータ数です。これは、現在自然言語処理タスクに対して最も大きなモデルであり、高い精度を達成することができるため、市場においても高い評判を得ています

Me:

バイアレイパラメータ英語表現して。

GPT:

A "peta-parameter" or "Peta-parameter" (PT) is a measure of the capacity of a machine learning model, specifically the number of parameters it has. In the case of GPT-3 it has 175 peta-parameters, meaning it has 175 million billion parameters. These parameters help the model to understand and interpret large amounts of text data, allowing it to perform natural language processing tasks with high accuracy.

Me:

「175 billion parameters」の間違いでは?

GPT:

そうです、「175 billion parameters」の間違いでした。 GPT-3は175 billion parametersを持っています。それは、自然言語処理タスクに対して高い精度を発揮するために必要パラメータ数です。申し訳ありませんでした。

Me:

GPT-3はどのように概念レベル知識を持つの? Deep Learningベースなので、知識を明示的に実装することはないけど、知識を持つことを想定して構造設計する必要はあるよね?

GPT:

GPT-3は、大量のテキストデータ使用して学習されました。それによって、自然言語処理タスクに対して高い精度を発揮することができます。それは、事前学習済みのモデル使用することで、新しいタスクに対して学習スキップすることができ、タスク特化の fine-tuning を行うことができるためです。GPT-3は、大量のテキストデータから概念レベル知識学習します。それは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。 それは、単語文章関係性、文章構造文章意味などを理解することができるようになりますGPT-3は、Deep Learningベースモデルであり、知識を明示的に実装することはありませんが、大量のテキストデータから知識学習することができるように構造設計されています。それは、Attention機構使用して特定の部分のテキストに注目しながら、それらの関係理解することができるようになります

Me:

Attention機構について詳しく。

GPT:

Attention機構は、自然言語処理タスクにおいて重要役割を担う機構です。それは、大量のテキストデータを処理するために使用され、特定の部分のテキストに注目しながら、それらの関係理解することができるようになります。Attention機構は、Seq2Seqモデルなどの自然言語処理タスク使用されています。それは、入力シーケンスから出力シーケンスを生成するために使用されます。Attention機構は、入力シーケンスのある部分に注目し、それに基づいて出力シーケンスを生成することができるようになります。Attention機構は、ニューラルネットワークの中で使用されます。それは、重み付けされた平均値計算し、それに基づいて入力シーケンスから重要な部分を選択することができるようになりますGPT-3は、Attention機構使用して、大量のテキストデータから概念レベル知識学習し、文章意味理解することができるようになります

2023-01-20

つい俳になれなかった。ただのツイ廃で終わることもなく。別のテキスト中心のSNSサービスはないものだろうか。

  

2023-01-19

えー。データベーススペシャリスト試験「秋」だけやん

基本情報処理試験応用情報処理試験必要ない資格

高度情報処理試験だけは必要かな(ニチャァ

 

っていう増田が前いたんだけどさ

 

応用情報処理試験合格すると高度情報処理試験の午前I試験免除になるの知らんのかな?

まり応用情報の内容は高度情報処理試験範囲内ってことじゃん?

 

多分その辺の関係を知らない人なんだと思った。

 

その人多分試験名前だけ見て

基本情報処理試験応用情報処理試験もいらない知識だけど

高度情報処理試験は実務そのもの!!

みたいな勘違いしてると思う

 

実際は

高度情報処理試験 > 応用情報処理試験 > 基本情報処理試験

みたいな感じで範囲として含まれてるのに

 

応用情報ネットワーク問題がわからないなら、基本情報ネットワーク問題に戻ってみましょう。とか。

応用でデータベース選択するなら、むしろデータベーススペシャリスト試験を受けるつもりで専用テキストを読んで勉強しましょう。

みたいな感じで、各試験は繋がってるのに。

辺な勘違いしてる人がいるもんだなと思った。

2023-01-17

セルフワーク系の)認知行動療法が嫌いな理由

ガチセラピストガチでやる認知行動療法についてはあんまり知識ない(ちゃんと受けたことない)から自分一人でやるカラム法みたいなカジュアルなやつに限った話になる上に、めっちゃ偏見まみれだけど(まさに「認知の偏り」?)。

から認知行動療法ライン作業感というか、「はいあなたに今生じた感情は〇〇という自動思考によるものですよー、それは△△という認知の偏りに基づいていますねー、この場合合理的思考は何でしょうかー、そう□□ですねー、『正しい認知』ができて楽になりました、よかったですねー」みたいな一連の流れがクソだなって思っていて、それは「あらゆる人の個別的な考えがテンプレ的なフレームに則って画一的に処理されていく」ことへの不快感によるものだと理解していたのだけど、最近になってそれとは別の切り口から嫌いな理由が考えられるようになった。

すなわち、「最初から『望ましい状態』という目標≒『結論』が決められているから」という理由

認知行動療法って、結局「外部から与えられた定義における『不適応を起こしている人間』」を「外部から与えられた定義による『望ましい状態』」に持っていく技術なわけじゃん。前者に関してはまあ「生きづらさを感じている」とか「トラブルが多い」とか、本人の困り感に立脚したものが多いだろうから置いておくとしても、後者の「望ましい状態」というのが、最初から自明のものとして設定されているというか、「合理的認知に基づいてストレスの少ない(ストレスに遭っても対処できる)人になりましょう!」という目標(≒結論)が何の疑いもなく立てられてる感じがする。そして、セルフワーク系認知行動療法においては、「不適応を起こしている人間自分」に対して、認知行動療法という「治療」を行うことで、「望ましい状態」に変わって(変えて)いこうね!っていう流れなんだろうけど、私はその「望ましい状態合理的認知に基づいてストレスの少ない(ストレスに遭っても対処できる)人」という前提が何の迷いもなく置かれているのが怖い。

かに、「解決すべき課題」や「なりたい自分」といった「目標」を持った人が、認知行動療法によってそれを達成しようとする時、認知行動療法というのは良いツールだと思う。「職場の人と円滑にコミュニケーションを取りたい」と思っている人にとって、「なりたい自分」は認知行動療法定義される「望ましい状態」と一致するだろうからセラピストなりテキストなりと二人三脚目標達成に向けて頑張れば良い結果になると思う。

でも、自分の中で「解決すべき課題」がはっきり見つかっていない、あるいは「なりたい自分」が明確に定義されていないうちに、治療者側(テキストを作った側)が考える「望ましい状態」こそが「目標である宣言され、そこに向かって自己変容をすることが「正しい」から頑張ろうね、と旗を振られることは、何というか、押し付けじゃないのかな?って思うのだ。それが本当に「正しい」のかどうか考える余地が与えられていないことに、息苦しさを感じるのだ。

もちろん、多くの人にとって「合理的認知ができる、ストレスのない状態」というのは「快」であり、「望ましい」、ひいては「正しい」ことなんだと思う。でも、うまく言えないけど、「不合理な認知」も「ストレスで苦しんでいる状態」というのも、それが「自分」の一面である以上、「正しくない、間違っている」と断言することは乱暴なんじゃないかな、と思うのだ。認知行動療法定義する「正しい」認知に基づく生き方を推奨するあまり、「偏った認知を持った人」が「偏った認知を持ったまま生きる」ことが否定されるのはダメなんじゃないか、と。

多分ガチ認知行動療法だとこの辺の問題クリアされてるのかなとも思うけど、セルフワーク系だとここらへんの認識があまりに雑なイメージ偏見かもしれん)があるから何となく書いてみた。あんまりまとまってないから書き直すかもしれない。

2023-01-16

anond:20230116211540

世間デザイナーってみんなこんな感じなのか?

たいていのデザイナー他人のものをうっすらパクって制作してるよ。

ももちろん依頼者がギョッとするようなパクリはやらないのが普通

デザイナーなんて下請け立場なのが普通で、先方の納得するものを作るのが当たり前だけど、増田のケースは特殊みたいね

コピペ作品にならないようテキストサイズやら配置やらなにやらまで指示してやればいいんじゃないかな。死ぬほど面倒で手間がかかるだろうけど。

正直加賀FEあんま好きじゃなかったんだよな

キャラ贔屓激しいし一部展開やキャラ少女漫画だし

ほぼ既婚者に片想いみたいなドロドロ展開多いし

まあテキストは少し読んだだけであっ加賀だ、てなるくらい特徴あったし好きな人がいるのはわかるけど

全体的に戦闘バランス微妙だし…

今のストーリーぶん投げてSRPG部分に特化してる方向のが好きだな

今のFEが好きなのに、なぜか FEおじさんと呼ばれる人種なのはなんでなんだろうな

2023-01-15

言語モデル頭脳関係があるのか

お前は人工知能より頭がいいのか?研究によると、パラメータの大きな言語モデルプログラム人間の知性を凌駕する可能性があることがわかっている。

Generative Pre-trained Transformer 3が、知能を測る一連の推論テストにおいて平均的な大学生を上回っていることが発見されている。例えばN-gram LMsはカウントベースマルコフモデルパラメータフィッティングを用いるが、GPT3はより巨大なパラメータを持つ。入力に対して人間のようなテキスト、つまり確率の高いものを出力する。GPT3はOpenAIが生み出した技術で、言語翻訳チャットボットなどのアプリケーションテキスト生成など、さまざまな用途がある。

1750億のパラメータを持つ、最大かつ最も強力な言語処理AIモデルひとつだ。

ではGPT-3は「天才」なのか?研究では、一般知識SAT試験スコアIQという3つの重要な要素において、プログラム人間匹敵する能力を持つかどうかを調べられた。プレプリントサーバーarXiv」で公開された結果によると、AI言語モデルは3つのカテゴリーすべてにおいて、人間よりも高いパーセンタイルでゴールしていることがわかっている。

実際のIQテストでのGPT-3の成績はどうか?平均的な大学受験生を相手に、様々な言語モデル分析的推論問題でどのような結果を出したかについての調査結果を発表された。AIが明らかに勝者となった。とのこと https://twitter.com/AiBreakfast/status/1607594052785930240

"GPT-3は、抽象的なパターン誘導に驚くほど強い能力を示し、ほとんどの場面で人間能力と一致するか、あるいはそれを上回ることが分かりました。我々の結果は、GPT-3のような大規模言語モデルが、広範な類推問題に対するゼロショット解を見つけるための創発能力を獲得したことを示しています"と研究者は言う。

同チームは、GPT-3が「明示的に訓練されていないにもかかわらず、生物学的知性がとるのとは根本的に異なる経路を経て、人間類推の基礎と考えられているものと同様のメカニズムを開発することを余儀なくされた」ことを付け加えている。

GPT-3は、すべての問題タイプにおいて、生成精度...および多肢選択精度ともに、人間参加者を上回った 。https://twitter.com/AiBreakfast/status/1607594057735278592

この研究によると、ほとんどの質問に答え、人の代わりに論文の下書きまでできるAIプログラムは、問題ゼロから解かなければならないときや、多肢選択式のテストから選択するとき人間を上回ったそうだ。

AI専門家作家アラン・D・トンプソン博士は、GPT-3が120以上のIQを示すことを示唆している。

結論: ということで、GPT所詮IQ120程度ってことだな。

anond:20230115221217

2023-01-13

増田削除アプリを作った

動機

趣味増田の削除です。

増田を全削除するのであればPower Automation DesktopSelenium IDEあたりでも使えば可能ですが、中にはブクマを集めた珠玉増田ブクマは付かなくても割と気に入ってる増田もあるので全削除はしたくありませんでした。

なので選択的に増田を削除するためのアプリ作りました

アプリ概要

Masuda Deleter

https://github.com/oribeolive/masuda-deleter/

Masuda DeleterはDockerコンテナ環境を作って動くのでDocker必要です。

M1 Mac動作していますWindows検証できるマシンが手元にないので動作未確認です。

インストールGitHubのREADMEに書かれたコマンドを実行すればできると思います

Masuda Deleterははてラボログインして指定されたページ分の自分増田投稿スクレイピングしてローカルDBに保存します。

取得された投稿リストブラウザで見られるので、そこで削除するものを選んで実行すると、またログインして投稿を削除しにいきます

ページのアクセスごとに読み込みと遠慮のために1秒から数秒sleepするので少し時間がかかります

一旦投稿ローカルに保存するという過程があるため副作用として自分投稿検索できます

これにより

が容易になります

増田にはAPIがないので、IDパスワードを使ってログインして、表示されている文章スクレイピングしてくるという原始的なやり方になります

(2回目からcookieがある場合cookie復元してログイン状態になります。)

ユーザーが知らない外部サイトにクレデンシャルを渡すのは危険であり、サービス運営側としてもパスワードを平文で持ちたくないので、Webサービスとして実装せずセルフサービスとしております

ユーザーによってローカルの.envファイルに書かれたIDパスワード使用する形です。

ソースオープンしておりますので怪しいことをしていないか確認ができるかと思います

機能

取込

ページ数を入れて取込ボタンを押すと投稿の取得が始まります

一応下にプログレスバーが出ますが、ページ遷移すると見られなくなります。進捗は進捗管理でも確認できます

取得された投稿リアルタイムで画面に反映されないのでブラウザリロードしてください。

検索

自分増田キーワードブクマ数やトラバ数で検索できます

キーワードは濁点を区別していません。

一覧

増田IDタイトル、本文の省略、投稿日時、ブクマ数、トラバ数が表示されます

ブクマ数やトラバ数でソートできます

あとで消す(選択削除)

「あとで消す」投稿をチェックし、「あとで消す」記事をついに消すボタンで削除を実行します。

チェックは別のページに遷移しても有効です。

「あとで消す」選択全解除ボタンで解除できます

削除を実行すると下にプログレスバーが出ます

こちらは実行した時点で表示されているページのみリアルタイムに画面に反映されます

リロードすれば現時点でのデータが見られます

詳細

投稿の全文を見られますタグ等は取得しないのでテキストのみになります

再読込

投稿個別に取得してローカル文章ブクマ数とトラバ数を更新します。

削除

投稿個別に削除しにいきます

Space Masuda

隠し機能デフォルトではOFF。

対象投稿タイトルを空に、本文をスペース1文字にしにいきます

進捗管理(Progresses)

処理の進捗(何件中何件処理済みか)を見ることと、処理を停止させることができます

排他処理(取込と取込、特定IDの削除と同じIDの削除等)にしているので動いていなそうな処理を停止して再度処理を実行するときに使います

停止する場合は停止ボタンを押すか、それでも停止しそうにない場合強制停止ボタンを押してください。

進捗一覧ではプログレスバーアニメーションはありません。

「停止」は今行っている最中の処理ではなく次以降の処理を停止するという形になります

停止ボタンを押したときに4ページ目を取得している場合は、5ページ目の取得を始める前に処理を終了することになります

そのためプロセスのものが止まっている場合は停止されません。

強制停止」はプロセスをkillします。スクリプト名とプロセスIDプロセス検索して子プロセスも含めてkillします。

グラフ

おまけとして、投稿日とブクマ数、投稿日と3ブクマ以上の投稿件数投稿時間(hour)ごとの1ブクマ以上の投稿件数グラフが見られます

ブクマが付いた瞬間ではなく投稿日時なので、いつの時期に投稿した、何時に投稿した増田が活きが良いのかを見られる程度です。

集計データ別に持っていないので増田を削除するとグラフ使用されるデータも消えます

その他

私はこれで多いときには4000件程度あった増田を3000件程度に減らしました。

これを開発する前からも増え続ける増田の削除に日々勤しんでいたので総数はもっと多いはず。

まだまだ削除したいです。

たまに

Message: unknown error: net::ERR_CONNECTION_CLOSED

というSeleniumエラーが出て処理が実行されないことがあります。再度実行してください。

今後

フロントエンドレガシーなのでMasuda Deleterの開発に飽きていなければもう少しモダンリプレースしようと思っています

使用していないDjango REST frameworkがrequirements.txtに入っているのはその名残です。

紙のレイアウトをやってみる増田朱眞ル見テッヤを刀安入れのミカ回文

おはようございます

ちょっとなんだか多分専門的な話しで

紙面レイアウト

適当に考えずに文字テキストの配置に流し込んでみてA3サイズの紙で印刷してみると

まあ余白のバランスが変だったりして

これなんで変なんだろう?って思っていろいろとレイアウト記事適当検索して見てみてゲッツした情報によると、

紙面の余白の小口アキ、のどアキ、天あき、地あき

さらには柱、ノンブルとかのバランスも見て

とりあえず

紙面のテンプレートをまず作らなくてはいけないようなのよね。

へーあんまり意識していなかった紙とか私そういうのは慣れていないので、

ぽんこつさ加減が爆発してしまうんだけど、

でも最低限のそう言うところを抑えておけば

何となく見栄えの良いレイアウト体裁は整えられるような気がするんだけど

多分レイアウトプロディスクトップパブリッシング検定を取っている人から見たら素人がーって言われそうだけどね。

とりあえずは

ベーステンプレートさえあれば!って感じかしら。

しかしたら隣の会社のそう言う紙媒体のお手伝いが飛んでくるかも知れないとんでもない状況下の中

無いことを切に祈るけれど、

まあそう言うことで

ふーんっていろいろとそう言うノウハウを漁っているのよ。

A3レイアウトをしてA4に半分に折ってってなると

のどアキのことを考えていなかったというかそう言うこと知らなかったので、

折った山折り谷折りのところの要は中心が文字が詰まっちゃってキツくなるのはなんでだろう?って

テツアンドトモさんばりに思っていたのよ。

そしたら、

まあそう言うアキの部分をってことらしいわ。

ふーん。

もう今日はふーんの連発だと思うけど

ちなみに新聞紙面のレイアウト

一面15段で別れていて横に15分割スライスして、

そのグリッドで考えるみたいな

それなんてツイッターブートスタンプグリッド?って思わずはいられない衝動だったわ。

結局は紙面レイアウトを制するものが紙面レイアウトを制する!ってことなのよね。

そういうのはお手軽動画サイトで32倍速して8秒で文字通り秒で理解したい鯛刺いただきながらでちょうどいいタイムパフォーマンスだわ。

紙面紙のレイアウツって

奥が深いわーってこれ。

そう言う隣の会社のそうなったときに舞い込む仕事のお手伝いが来たら万全よ!って

もう言えそうな勢いではないけど、

知識として持っておけば

ポケットに入るだけの知識じゃない。

ポケットを叩けばビスケットが2つ理論とは違う感じ。

いろんな細かいルールもっと他にもたくさんあるのかも知れないし

多分書店本屋さんのレイアウトのそう言った類いのコーナーには

棚全部一面紙面レイアウトの本たったりするぐらいたぶん奥深さの奥行きよ。

そう思うと恐ろしいわ。

今度ちょっと近所の大型書店に行ってみようかしら?

そんな本がたくさんあるはずよ。

ネッツ書店ピンポイントで本を買うには便利過ぎるぐらいのインターネッツだけど

なにかしら棚一面を見渡して

どれにしようかなーって

目隠しして本を探すには決まって大型書店相場が決まっているとそうダブルで決まっているから、

リアル店舗メリットたっぷりだし、

私以前誰かにもらったそういう内容のレイアウトの本があったんだけど、

それどこにいったのかしら?って

書名も著者も分からないし

ただ黄色い表紙の本だってことは確かなんだけどなぁ!

うーん、

そう言う時の検索の仕方がネッツでは弱き門じゃない?

鰯気になりそう。

レイアウトの本で黄色い表紙でーってことしかからない検索の仕方。

そう言う時はやっぱり大型リアル店舗

ガチリアルに出向くしかないのかしら、

こういう時に探すのが本屋での出会いよね。

出会ますように!って願うわ。

黄色い本よ黄色い本!

うふふ。


今日朝ご飯

炒飯おにぎり

あれコンビニでたまに見かけるんだけど

なんか今朝というか夜寝たとき炒飯食べる夢を見たので

多分それに十分引っ張られまくりまくりすてぃーなことだと思うのよね。

そんで店頭なにげに見つけたので

私の炒飯の口は無事救われました!って

朝の濃い味炒飯は効くわ!

ジャンキーみのある味ではあることは確かだけど、

たまにはそう言うジャンキーものを食べたいっ!ってときない?

今朝はジャンキースロットオール炒飯だったってことよ。

たまに寄るコンビニエンスストアもいいわね。

デトックスウォーター

今朝はなんだかちょっと心なしかかいような感じがしたんだけど、

でも朝一のホッツ白湯ストレートウォーラー

今日ソルティープラムインの

まあ梅干しだけど

久しぶりにホッツ梅干し白湯ウォーラーだったかもしれないわ。

簡単ホッツだから

みんなも試してみて!


すいすいすいようび~

今日も頑張りましょう!

2023-01-11

中学受験算数は全員勉強したほうがいい

大人子供も。というのも、数学思考の基礎がしっかり学べるからだ。

たとえば植木算。経験上、植木算のような基本かつ簡単な数え方をちゃん理解している高校生は、驚くべきことにコンスタント数学偏差値65以上を出す上位生だけである増田予備校講師である)。たいていこのまま大人になるのだからいか中学受験テキストちゃん植木算のような考え方を学ぶことが必要な人が多いかである

anond:20230111091508

「薄らとしたミソジニーが増えている」っていうのはある種の思い込みじゃないかな。大半の人はそんなことに考えを巡らすこともなく生きている。それを考えなければいけなくなった境遇には同情するが、味方が増えているように思うのは良くない。ただ思考的に別の世界で生きていて、こういうテキスト出会ったときに始めて存在認知される。そして永遠に交差することはない。

2023-01-09

ぷにるんずを知らない増田ブクマカゴミ

情勢を知らない、時流を知らない、まるで原始人。

ネット無駄テキストを垂れ流す環境汚染者。

大人になれないくせに童心を失った妖怪

カスタムトレーニングメニューは、プランク、太もも系、ストレッチ系、肩周り。

このメニュー20日やった。プランクフロントプッシュがキツかった。

結果。

  • 硬さは変わらないが勃起持続力が改善した。中折れしなくなった
  • 持久力が増したので、最後までできた。
  • 嫁によるとキスエロくなったらしい。体力ついて余裕があるから
  • 腕立てとかするとすぐ肩が痛くなっていたが、少し改善した
  • 前屈で手が届きそう!明らかに体が柔らかくなった

anond:20230109012839

元増田じゃないけど、そのリアクションがまさに

”君は何も知らないから”、”自分達が学んだ真理を知れば”、”○○は核心をついた組織からこそ”、”ちゃん勉強していれば”

のものだって言われてるんだよ。その社会学テキストを読めば献血ボイコットすべきという結論になるの?

読んでわからなかったら「わかるまで読んでないからわからないだけ、わかるまで読め」としか言わないでしょ?そういうのは学問ではなくて宗教って言うんだよ。

”正直フェミニズムってカルトだし近寄りたくない”って所まで来ている

例えば”名誉男性

例えば”お寿司 猫 ロサンゼルス

例えば”性的搾取

    

フェミニズムを名乗る人たちがこれらの言葉を使う事はこれまで多々あったし

そもそもサイレントマジョリティからすればいきなり発狂して攻撃しているようにすら見える事はそう珍しくはない

彼女ら、もしくは彼らは「そんなことはない、これは性差別可視化されて」と自らの行為言動正当性を訴えかける

  

しかし如何に正当性を訴えかけられたところでマジョリティにとっては”ただの怖い人達”になりつつあるのだ

そして正直、彼らには近づきたくもないし寄ってきてほしくもない

自らの考えを反省する前に、そもそもそんな過激人間とは距離を置こうと思ってしま

ぶっちゃけ、関わり合いになりたくないから避けるという現象オタクだけではなく若い世代を中心に広まりつつあるのだ

  

ちょっとずつ、少なくとも私の回りではジェンダーだとかフェミニズムだとかそんな言葉を口にするだけで出来うる限り関わり合いにならないというところまで来ている

フェミニズムではない。反発するのではなく、遠ざけようとするスタンスが徐々に出来上がりつつある

事実フェミニズムを嫌う若者は増えたのだ

  

The Man Box:男らしさに関する意識調査

https://institute.dentsu.com/articles/2234/

  

カルトとツイフェミ

ここでカルト定義を明らかにしよう。オウム真理教のような集団では定義が狭すぎる。

例えば日本脱カルト協会定義に則れば

全体主義集団であること

集団生活に埋没させ

③各メンバー私生活剥奪して

メンバーや外部から批判を封鎖し

組織リーダーへの絶対服従を強いる

  

これらを満たすとされている

正直②や③については個別で考えなければならず、そもそもツイフェミと別な気はするし、⑤についてはフェミニズムというくくりだけでは定義に添えない部分が多い

これらすべてがガッチリと当てはまるかといえば当てはまらない所もある

  

しか過激派、主にツイッターで目立つツイフェミと呼ばれる方々に関して言えば「当てはまるのではないか」と思わされるような言動発言を多く感じられる

  

~①全体主義集団であること~

  

これについては論を俟たない。名誉男性という言葉が全てを物語っている

この言葉攻撃として用いている場面は多々見てきたはずだし、なんならツイッターでざっくり探っても簡単に見つかるだろう

事実、ツイフェミに反対的、無関心な人間がこのような蔑称を投げかけられる。なんならツイフェミから離れた人間や即座に従わない人間にも使われている

ツイフェミに反対的な人間を叩く人間ツイッターを見回せば掃いて捨てるほどいるのだ(これは④にも関わってくるが後に語る)

  

そして彼女らの意見はこんなものが多い

曰く、「女性ならこういう風潮・思想に反対してしかるべき!」

  

……本来個人主義ならば、「どんな人間が居てもよい」と発言するはずだ

要するに「フェミニズム遂行のために、世の中の女性は反フェミに反対するべきなのだ」という発言思想そもそも全体主義に片足を突っ込んでいる

  

無論、これが悪いわけではない。私は関わり合いになりたくないだけで

  

~②集団生活に埋没させ、③各メンバー私生活剥奪して~

ここについては個別な気はするけどツイッターバトルとかはてブロレスバするところはかなりエッセンスが含まれているのではないだろうか?

(実際擁護すると怒られる所については片足つっこんでると思う。何もしてなくて怒られるって段階じゃないだけかもだけど)

  

強制までは行ってない(やらなかったら村八分されて生活がままならないとか)から多分ここに当てはまる所は少ないのではないだろうか?

    

~④メンバーや外部から批判を封鎖し~

ここで、カルト脱会の手引という本から引用しよう

  

カルトから脱会回復のための手引き〈〈改訂版〉〉

[はじめに]大切な人が変わってしまった!-ありがちな対応の結末

  さて、 これ を 踏まえ て、 先 ほどの 対応 を もう一度 見 て み ましょ う。

    

あなた が 言っ て た ○ ○( 組織 名) って とこ、 何 か 怪しい ん じゃ ない の?」

あなた の 大切 な 人 は、 こう 思い ます

〝君 は 何 も 知ら ない から、 怪しい って 思う ん だ よ。 僕たち が 学ん だ 真理 を 知れ ば、 君 だって 本当 の こと を 理解 できる さ〟

「○ ○ って、 こんな ひどい こと を し てる って、 週刊誌 に 書い て あっ た わよ」

週刊誌記事 を 信じる なんて 最低!   ○ ○ は 核心 を つい た 組織から こそ、 世間 から 言わ れ なき 非難 を 浴びせかけ られる の。 私 みたい に ちゃん勉強 し て いれ ば、 そんな たわごと に 踊ら さ れ ず に 済む のに〟

「そんな こと を 信じ てる なんて 馬鹿らしい!   なんで、 それ が おかしい って わから ない ん だ」

おかしい って 思いこん でる だけ だろ!?  わかっ て ない のは、 お前 の 方 だ よ〟

「これ を よく 読め ば、 お前 が 信じ て いる こと が 間違い だ と わかる よ」

〝これ って、 反対 派 が 書い た 本 じゃ ない か。 こんな 間違っ た もの なんか、 読む わけ ない だろ。 それ より、 自分 の 方 が 間違っ て いる こと に 気づく 方 が 先 だ よ!〟

「○ ○ の □ □ という 考え方 は おかしい。 なぜ なら ば……」

〝何 も 知ら ない 人 が 屁理屈 を こね た って 無駄 だ よ。 僕たち の 知っ て いる 真理 は、 これ までの 理論はるか に 超え て いる ん だ から

  

  

日本脱カルト協会. カルトから脱会回復のための手引き《改訂版》 〈必ず光が見えてくる〉本人・家族相談者が対話を続けるために (Kindle位置No.131-142). 遠見書房. Kindle 版.

  

……どうだろうか?

見てこなかっただろうか?

”君は何も知らないから”、”自分達が学んだ真理を知れば”、”○○は核心をついた組織からこそ”、”ちゃん勉強していれば”

  

”わかってないのは、お前の方だよ”

  

……これを書いてる間、ずぅっとデジャビュを感じていた。

ここなのだ。まさにこの部分が、ツイフェミカルトに一歩足を突っ込んでるところなのだ

全部どこかで見たことがある。少なくとも勉強不足となじって対話拒否するあたりなんか特にそうだ

そして一番厄介なのは、これが実際にある学問であるということだ

  

から規制するべきだなんて言わない。言うつもりもないしそんな事を言う人間を信用もできないが、少なくとも私は近寄りたくないし学びたいと思わない

学んだ結果、このような会話になるのだからフェミニズムという学問が恐ろしくて堪らない

ただの知らない人が学ぶのなら止めないが、知り合いや友人なら殴ってでも止めるだろう

  

正直私にとってフェミニズムオウムとの間違い探しレベルになってる

  

~⑤組織リーダーへの絶対服従を強いる~

  

ここまで書いてきたが、とくに②、③については当てはまる部分がかなりあやしい、むしろ当てはまらない部分があると思う

⑤についても正直微妙なところで、ぶっちゃけ反ツイフェミについては死ぬほど叩くだろうけど

ただそもそも組織が細分化していることやリーダーと呼べる人間がどのくらいいるかにもよる

  

  

総評して

  

ここまで書いたけれども筆者は別にカルト研究をしている人間というわけではない。ただの一般人

こんなものを書いてみようと思ったきっかけも知人がフェミニズムを学んでかなり過激フェミニストになった事がきっかけだったりする

(そして家にあるジャンプゲーム漫画を捨てられそうになった。3万円くらいの被害

  

正直な話、フェミニストは怖いのだ。近寄ってほしくない。近寄りたくもない。どこか遠くの場所で野垂れ死んで消え失せてほしい

あの人が、この人がフェミニストだったらと思うと怖くて堪らないし、母親、知人、友人の誰かがフェミニストになってしまったらもはやカルトと同じように扱う

そしてこの考えが徐々に増えている事に安心しているし、同時に葛藤もしている。実際に私は一人の友人と縁を切ったし

  

恐ろしかった。とてもとても恐ろしかった。恐ろしくて仕方がないから遠ざけたくて仕方がない

近寄ってほしくない。近寄りたくもない。なんなら国会フェミニストと自称する議員が出ることがそもそも吐き気がする

そういう段階になりつつある。そういう段階を踏みつつある

参政党やNHK党に投票するのをためらうくせに、多分彼らがフェミニズムの根絶を訴えたら投票してしまうかもしれないくらい怖くて堪らない

  

そもそも寿司猫ロスの絵文字だって怖い。雄○ね○すと言ってはばからない人間がそこらじゅうにいるかもしれない

  

フェミニストの方々にもう少し自覚してほしい

あなた方は怖いのだ。排除したくなるくらいには

カルトを思い起こさせる程度には恐ろしいのだ

  

あとがき

出来うることなツイッターレスバするんじゃなくて、議員さんに手紙を書こう

実はこれものすごく効果がある。ツイッターでリプ送るよりよっぽど効果があるし、基本的にあまり無視できない

(実際ただのフリーターでも国籍日本なら無視はしないし彼らと喋る機会もままある)

  

よっぽどフェミニストとして有名でない限りは自分地区議員さんに手紙を書いて送ればいい

メールじゃないぞ。手紙だ。あと国会議員さんを中心にやるとよい

左派はこういう活動を通じて勢力を伸ばした。同じことをすればいい

    

追記コメ返

https://anond.hatelabo.jp/20230109012839

まさにこれ。これ④で見たよな。そういうことだ。

勉強してこい、社会学テキストを読め、そんな感じ。

マジでこんな感じなんだ。

  

  

https://anond.hatelabo.jp/20230109025104

https://anond.hatelabo.jp/20230109030346

④でみたやつだよなこれも。

正直、フェミニストで「理解してもらおうとするような態度」に出会った事がない

勉強不足だなんだといいながらセクシストのレッテルを貼ってくる

これがたまらなく恐ろしい。だから遠ざけたくて仕方がない

彼女らは自らが優れている事を証明したくて仕方がないと同時に、他者との違いがとんでもなく苦手だ

  

基本的カルトメンバー普段の会話や組織理念専門用語を使う。

これは「自分達は一般社会よりも高等で高尚な考えを持っている」と感じさせると共に、「社会では通じない言葉であるから結果として社会から隔離される」という結果を生み出す

仲間意識を強くさせながら社会から切り離させる”って事をするんだ。話通じないやつと関わりたくないだろう?

  

普通に考えてみてくれ。どこかの理系研究者や、文系教授でもいい

「わからいから教えて」って言うと専門用語一般化して伝えようとしてくれるだろう?

ここがカルト研究者の違いだ。

しかカルトではそもそも社会のための一般化」って概念がない。当人社会から隔離されてた方が嬉しいからだ。

結果として、もう見えてるよな?

やつらが専門用語を使い始めたとき定義を聞いたら薄っぺらかっただろう?端々に現れてるんだよ。

    

https://anond.hatelabo.jp/20230109025436

まさにその通り。

そして動き方もマジでカルトのものなんだよね。怖い

    

https://anond.hatelabo.jp/20230109030119

カルト定義を書いたんだが読めていないらしいな

ぶっちゃけ全体主義的で批判の封鎖を行ってる時点でもはやカルトしか見えないってだけの話だし、やべーやつだから近づきたくないってだけだよ

そして示し合わせたわけでもないのにそういうのが増えてることをもう少し考えてくれ。考えた上でどっかいってくれ

    

https://anond.hatelabo.jp/20230109030007

マジで選民思想してる。カルトカルトしてる。

正直ミサンドリーミソジニーもアンフェもツイフェも思想自由だけど過激派には近寄ってほしくない。

どこかで野垂れ死んでくれ。頼むから

2023-01-08

anond:20230107221259

こういうの重大なネット文化の衰退を招くよね

ネタテキスト表現の向こう側を魅せにいく者がいなくなったらおしまい

アイドルのインスタ見てたら

メンバー満月見ましたみたいな写真に添えたテキスト

満月と間違ってしばらく電球撮ってました こわい」とあって、

いや怖いわ。

2023-01-06

Reactで小数点入力できない問題

みんなどうしているのか?いまいちベストプラクティスが見つからない。

例えば、テキストボックスに"1.1"を入力しようとして、"1."まで入力したとする。

数値に変換してstateを保存しようとすると、変換の際に末尾の小数点がそぎ落とされて、表示されるのは"1"になってしまう。

レンダリングが早いので、ユーザーからすると、小数点入力が受け付けられていないように感じる。

仕組みが分っていれば、"11"を入力してから間に小数点を挿入すれば入力可能だが、ユーザーにそれを求めるわけにもいかない。

2022-12-31

anond:20221231172230

うそう。そういう感じ。

から俺はevernoteも単なるテキストファイルクラウド管理ツールとしてだけ使ってて複雑なことは一切してない。

検索性とか情報の整理度合いとかは落ちるけど単純さの方が俺には重要なんだよな。

最近ネット怪談

複数ウェブサイトテキストや音声ファイル動画ファイルを駆使して複数メディア情報分散して読者をあちこちに横断させ怪異実在性を高めていく作品が増えた 

読者はその断片的な情報を拾い集めて考察していく

具体的には梨や阿澄思惟などの系統

しか面白いんだけど、ギミックに凝りすぎて肝心の真相あんまり怖くなかったりする

だいたい情報分散させる方法最初は新鮮だったけど今となってはお決まりパターンの一つで陳腐になってる。

そういうときに昔の洒落怖とかを読むとシンプル怖い話に感動する

anond:20221230142549

notionはブロック単位にされてしまうのが日本語と相性合わないなーと思いつつメインで使ってる

小説はWrixでDropboxプレーンテキストでかきちらかしている

色々拡張できて楽しいと言う点で今現在でObsidianが一番アツい

ログイン ユーザー登録
ようこそ ゲスト さん