はてなキーワード: 使用とは
車がほしい。所有してるやつらが羨ましい。
今住んでいるのは駅チカ物件なので、職場に行くにも日々の買い物にも電車で十分である。そもそもテレワークだから、通勤すらしていない。車は日常生活には不要だ。
それにカーシェアも契約してるから、空いていれば家から徒歩5分にあるステーションからドライブに出かけることもできる。それで月に数回妻と出かけたりしている。たった月々1万円程度の出費でドライブは可能なのだ。
なのに、なんでこんなにクルマが欲しいのだろう!
月に数回カーシェアを使う試算だと、所有する場合はどうやっても損益分岐点を超えない。週3くらいの使用頻度がないと計算上所有する結論には至らないのだ。でもこの生活だと週3で車を使うことはないだろう。
そもそも単に移動をラクにしたいのであれば、タクシーを使うことだって可能だ。実のところ、車の維持費を考えればタクシーはかなりコスパがいいサービスである。ケチな自分はほとんどタクシーを使ったことはないが..
しかし、そういうことではないのだ。
所有したい!マンションに並べたい!
金がないではない。
30半ばだが、すでに金融資産は3000万を超えている。しかもこれは自分ひとりの状況なので、世帯でいうともう少しある計算になる。
これだけあれば、アッパーミドルな新車を購入したとしても、即座に家計が傾く出費ではない。正直なところ、ここまで積み上げたご褒美がそろそろ欲しい感覚もある。
もちろん、昨今のFIREだとか金融リテラシーの文脈からするとバカげた出費だ。
家は賃貸で十分、車はカーシェアで十分、服はユニクロで十分、腕時計はスマホがあれば十分、、
しかし、そういうふうに斜に構えていると、人生の重要な面、主観的な経験を逃している気がしてならないのだ。
結局の所、決断力が足りてないだけだ。
金がなくとも車を買う手段なんて溢れているし、金がどれだけあっても買わない理由も溢れている。その中で自分は決断せずにグズグズしているだけなのだ。
そう思って軽自動車の新古車程度なら、とカーセンサーを開き、100万程度なら買えてしまうなと溜飲を下げ、今日もブラウザをそっと閉じるのである。
https://anond.hatelabo.jp/20230121004759
感謝の声が多いのと、想定外にバズってしまったので、土地編とか金額についても来週末書こうと思う。
震えて待ってろ。
「つづき」で気になった箇所を深掘り。確認するに、専門家の監修体制の構築はそれほど難易度は高いように思えなかった。やはり「つづき」で応えてくれた「医療用の学習データをGPT側で定期的に用意できるか」が今後の発展のポイントになりそうだ。
Me:
GPTのAttention機構って何?
GPT:
Attention機構は、自然言語処理タスクにおいて、入力文の中から重要な部分を選択し処理するためのアルゴリズムです。GPTは、Transformerと呼ばれるモデルアーキテクチャを使用しています。Transformerは、Attention機構を利用して、入力文中の各単語の関係性を学習します。これにより、モデルは入力文全体を理解し、より質の高い出力を生成することができます。
Me:
GPTは医療の知識が弱いと聞くけど、このAttention機構の仕組みと関係ある?
GPT:
GPTは、学習データに基づいて学習されます。そのため、学習データに医療に関する知識が少ない場合、GPTは医療に関するタスクに対して劣る結果を生成する可能性があります。Attention機構は、入力文中の各単語の関係性を学習するために利用されています。しかし、Attention機構自体は、学習データに基づいて学習されるため、学習データに医療に関する知識が少ない場合、Attention機構も医療に関するタスクに対して劣る結果を生成する可能性があります。しかしながら、GPTには大量のテキストデータを学習し、自然言語処理タスクに対して高い性能を発揮する能力があり、知識を持っていない領域でも新しい知識を得る能力を持っています。そのため、医療に関するタスクをGPTに与える場合は、十分な医療に関する学習データを与えることで、GPTが医療に関するタスクに対しても高い性能を発揮することが期待できます。
Me:
ポイントは、Attention機能を医療用にチューニングするのではなく、医療データを学習データとして与えることが、GPTの医療分野への強化に繋がるんだね。
GPT:
そうですね。Attention機構は、入力文中の各単語の関係性を学習するためのアルゴリズムです。GPTは、学習データに基づいて学習されます。そのため、学習データに医療に関する知識が少ない場合、GPTは医療に関するタスクに対して劣る結果を生成する可能性があります。それに対して、十分な医療に関する学習データを与えることで、GPTが医療に関するタスクに対しても高い性能を発揮することが期待できます。そのため、Attention機能を医療用にチューニングするのではなく、医療データを学習データとして与えることが、GPTの医療分野への強化に繋がるということになります。
Me:
GPTが医学的な正確性や専門性を獲得するには、意思決定者としての専門家の監修が必要という認識だけど、仮にそれが可能になった場合、GPTは医療現場で使われるようになると思う?
GPT:
GPTは、大量のテキストデータを学習し、自然言語処理タスクに対して高い性能を発揮する能力があります。しかしながら、GPTは人間の主観や判断力を持っていません。そのため、GPTが生成する出力は必ずしも正確であるとは限りません。そのため、医療現場でGPTを使用する場合は、専門家による監修が必要です。専門家は、GPTが生成する出力が正確であるかどうかを判断し、必要に応じて修正を行うことができます。これにより、GPTが生成する出力が正確であることが保証され、安全かつ効果的な医療を提供することができます。そういった意味で、GPTが医療現場で使われるためには、専門家による監修が必要であり、GPTはその監修に基づいた情報の提示などに利用されることが考えられます。
Me:
ユースケースとしては何が考えられる?
GPT:
GPTは、自然言語処理タスクに対して高い性能を発揮する能力があるため、医療現場での様々なタスクに利用することが考えられます。例えば、医療文書の自動生成や翻訳、診断支援、治療プランの生成、疾患の予防に関するアドバイスの生成などが挙げられます。また、GPTは大量のテキストデータを学習することで、新しい知識を得る能力を持っているため、医学研究や新しい薬物の開発にも利用することができます。ただしながら、これらのタスクにおいてもGPTが生成する出力は必ずしも正確であるとは限らないため、専門家による監修が必要です。
Me:
専門家の監修は、GPTのユースケースの内、どのフェーズで必要になると思う?
GPT:
GPTが生成する出力が正確であることを確認するために、専門家による監修が必要になります。そのため、GPTを利用する各フェーズで専門家の監修が必要になることが考えられます。これにより、GPTが生成する出力が正確であることが保証され、安全かつ効果的な医療を提供することができます。
- 学習フェーズ: GPTが学習するデータについて、専門家が正確性や適切性を確認し、修正を行うことが必要です。
- 生成フェーズ: GPTが生成する出力について、専門家が正確性や適切性を確認し、修正を行うことが必要です。
- アプリケーションフェーズ: GPTが生成した出力を使用するアプリケーションについて、専門家が安全性や効果を確認し、必要に応じて修正を行うことが必要です。
Me:
各フェーズごとにその適用の難易度を教えて。
GPT:
各フェーズごとに適用の難易度は異なりますが、概ね以下のようになります。ただし、これらは一般的な話であり、実際には、専門家がそれぞれのフェーズにおいて監修するために必要なスキルや知識は、それぞれのアプリケーションやタスクによって異なります。
- 学習フェーズ: GPTが学習するデータの整理や整形は、技術的なスキルが必要になりますが、専門家が正確性や適切性を確認するための作業は、通常は難しくありません。
- 生成フェーズ: GPTが生成する出力を確認し、修正するためには、専門的な知識や判断力が必要になります。このフェーズは、専門家によって適切に行われないと、生成された出力が正確でない可能性があります。
- アプリケーションフェーズ: GPTが生成した出力を使用するアプリケーションの開発やテストには、技術的なスキルが必要になりますが、専門家が安全性や効果を確認するための作業は、通常は難しくありません。
Me:
たしかに生成フェーズにおける出力のパターンは他のフェーズと比べ管理しづらそうだけど、その難易度を調節するための工夫はあったりするの?
GPT:
生成フェーズにおいて、GPTが生成する出力を確認し、修正するための難易度を調節するための工夫には以下のようなものがあります:これらの工夫により、GPTが生成する出力を確認し、修正するための難易度を調節することができます。また、専門家が確認する作業を効率化することで、より多くのGPTが生成する出力を確認することができ、正確性や適切性が高い出力を得ることができます。
- GPTが生成する出力のフォーマットを明確に定義することで、専門家が確認する作業を簡略化することができます。
- GPTの出力を確認するためのインターフェースやツールを開発することで、専門家が確認する作業を効率化することができます。
- GPTが生成する出力に対して、事前に定められたルールや基準を適用することで、専門家が確認する作業を効率化することができます。
- GPTが生成する出力を多数の専門家に確認してもらうことで、正確性や適切性を確認することができます。
- GPTが生成する出力を正確性や適切性が高いと判断される場合は、人手を減らして出力を採用することができます。
Me:
GPTが生成する出力のフォーマットを定義するにはどうすれば良いの?
GPT:
GPTが生成する出力のフォーマットを定義するには、次のような方法があります。これらの方法を組み合わせることで、より正確かつ適切なフォーマットを定義することができます。
- テンプレートを使用する: GPTによる出力には、事前に定義されたテンプレートを使用します。これにより、GPTが生成する出力のフォーマットが明確に定義され、専門家が確認する作業を簡略化することができます。
- スキーマを使用する: GPTによる出力には、事前に定義されたスキーマを使用します。これにより、GPTが生成する出力の構造が明確に定義され、専門家が確認する作業を簡略化することができます。
- 入力と出力の関係を明確にする: GPTによる出力は、入力に対応した形式で生成されるようにします。これにより、GPTが生成する出力のフォーマットが明確に定義され、専門家が確認する作業を簡略化することができます。
Me:
GPTの出力テンプレートの使用方法を教えて。
GPT:
GPTの出力テンプレートを使用するには、以下のような手順を踏むことができます。このように、GPTの出力テンプレートを使用することで、GPTが生成する出力のフォーマットを明確に定義することができ、専門家が確認する作業を簡略化することができます。また、テンプレートを学習させることで、GPTが生成する出力が予め定義したフォーマットに沿っていることを保証することができます。
- 出力テンプレートを作成: GPTが生成する出力のフォーマットを定義し、テンプレートを作成します。例えば、診断書のフォーマットや手術手順の書き方など。
- GPTにテンプレートを学習させる: GPTに、作成したテンプレートを学習させます。
- GPTに入力を与える: GPTに、入力として必要な情報を与えます。
- GPTが生成する出力を確認: GPTが生成した出力が、事前に定義したテンプレートに沿っていることを確認します。
- 修正を行う: GPTが生成した出力が、事前に定義したテンプレートに沿っていない場合は、修正を行います。
Me:
GPTのテンプレートとスキーマの違いを教えて。また、プリセットと何が違うのかも教えて。
GPT:
GPTのテンプレートとスキーマは、出力フォーマットを定義するための方法であり、それぞれ異なる特徴があります。つまり、テンプレートは文章のフォーマットを定義するのに、スキーマはデータ構造を定義するのに、使用します。プリセットは、テンプレートやスキーマのような事前に定義したパターンやデータ構造を使用することができます。ただし、プリセットは、具体的には何を指すかは定義が異なります。
- テンプレート: GPTの出力に対して、事前に定義された文章のパターンを使用します。例えば、診断書のフォーマットや手術手順の書き方など。テンプレートは、GPTが生成する文章のフォーマットを明確に定義することができ、専門家が確認する作業を簡略化することができます。
- スキーマ: GPTの出力に対して、事前に定義されたデータ構造を使用します。スキーマは、GPTが生成するデータの構造を明確に定義することができ、専門家が確認する作業を簡略化することができます。
- プリセット: GPTの出力に対して、事前に定義されたパターンやデータ構造を使用します。プリセットは、GPTが生成する出力を明確に定義することができ、専門家が確認する作業を簡略化することができます。
Me:
Pythonのopenaiライブラリでテンプレートやスキーマを再定義することは可能?
GPT:
はい、openaiライブラリは、新しいトレーニングデータ、テンプレートやスキーマを含むように、GPTモデルをファインチューニングすることができます。 openai.Completion.create()メソッドを使用して、GPTモデルをファインチューニングすることができ、トレーニングデータ、テンプレートやスキーマ、ファインチューニングパラメータを指定することができます。また、openaiは既にテンプレートやスキーマが組み込まれたモデルも提供しており、それらを直接使用することができます。
Me:
`openai.Completion.create()` メソッドでテンプレートやスキーマを再定義する方法を教えて。
GPT:
openai.Completion.create()メソッドを使用して、GPTモデルをファインチューニングするには、次のようにします。このように、openai.Completion.create()メソッドを使用して、GPTモデルをファインチューニングし、テンプレートやスキーマを再定義することができます。ただし、学習データとして適切なものを選び、ファインチューニングのパラメータを調整する必要がありますので、注意が必要です。また、トレーニングデータとして使用するテンプレートやスキーマによっては、モデルの性能が改善しないこともあるため、適切なものを選ぶことが重要です。また、ファインチューニングを行うためには、足りないデータや時間、計算リソースが必要です。
- トレーニングデータを用意: GPTに学習させるためのデータを用意します。このデータは、テンプレートやスキーマを含んでいる必要があります。
- openai.Completion.create()メソッドを呼び出す: openai.Completion.create()メソッドを呼び出し、トレーニングデータ、ファインチューニングパラメータを指定します。
- ファインチューニングを実行: 指定したパラメータに基づいて、GPTモデルをファインチューニングします。
Me:
当該メソッド用のファインチューニングパラメータは `prompt` を使うんだよね?
GPT:
はい、openai.Completion.create()メソッドでは、promptパラメータを使用して、GPTモデルに対して、生成したい文章のフォーマットやデータ構造を指定することができます。このpromptによって、GPTは指定されたフォーマットやデータ構造に従って文章を生成するように学習します。このpromptには、テンプレートやスキーマを含む文章を指定することで、GPTに学習させることができます。
妻:毎回洗う
↓
だってさ、マーガリンの蓋にへこみあるじゃん。あれ、バターナイフを入れておいてくださいというへこみじゃないの?でも確かにたまには洗った方がいいなと思った
妻:できるだけカスがつかないようにしてる
↓
これは俺が悪かった。二人で使うんだから相手のことを思いやるべき
俺:表面を上からまんべんなく削る
妻:端から底が見えるまで順に取っていく
↓
まあどっちでもいいかと思って譲った
↓
結果:どちらのマーガリンも買い、バターナイフも2つに。それぞれ自分専用のマーガリンとした
そしたら妻が
「なんでマーガリンでこんなに争わなきゃいけないんだろ・・・・・り、別居してるみたい」
とポツリと言った
いや、俺も辛いんだけど、言いたいことは分かる
マーガリン1つでこんなことになるなんて、先が思いやられる
ついでに書くと、タオルのたたみ方だって、妻の希望通り伊達巻みたいに畳んでるし、トイレも座ってしてるし。
車も将来のためにヴォクシー買ったし
でも毎回毎回こんなことで譲ったり言い争ってたら辛い
妻は「私もできるだけ譲ってがまんしてるんだよ」と言うが、こっちもそうなんだが
ただマーガリンのこととか、気に留めなかった
まあ、なんとかやっていくよ。不安だけど
(追記)
今見たらコメントたくさん来ててびっくりした!
ちょっと返信。
まずはブコメ
いや、確かにそうだ。座ってするのが当然で理にかなってるんだよ
譲るというより、妻が正しいんだよな。自分が頑固なんだと思う
新婚の時期ってたぶんみんなこんな感じ
きっとそうなんだろうけど、こんなことで争ってたら将来的に無理ってなりそうなんで、不安になる
こういう部分は合うんだよなぜか
こんなもんでしょ。こういうこれまでの生活とは違うやり方に違和感抱く瞬間なんていくらでもあって、それぞれ別のやり方するのか一緒にするのかから、擦り合わせる作業を一生やるんだよ、一生一緒にいるなら
好きで結婚したんだし頑張るよ
それなら嬉しいんだが。
車買う時も「将来家族ができたら大きい車いるから」と言われ揉めたんだよ。結局ヴォクシー買ったけど
譲ってばかりかどうかじゃなくて、奥さんは「話し合い」がしんどいんじゃないか。
二人とも白黒はっきりさせたいタイプならいいが、増田だけ議論したくて奥さんはグレーのままがいいのかも。
時によって黙って自分流を押し付けたり、押し付けられた増田流を不満に思いつつ仕方なく受け入れたりする方が楽なのかもしれない。
それ!その通りなんだよ。うちの妻は話し合いができなくて、途中でイライラし始めるんだ。「怒ってないし!」って怒りながら言うんだよ。
だから自分が折れることが多い。全部話し合いはやめて、要所要所で話し合うのがいいかな
大丈夫じゃない!俺は数回使うけど妻は一回。でもこれは1回使ったら洗うことになった
パンやめたら?
すまない、二人はパン派で一致してるんだ
今後は話し合うべきところは話し合って、他はうまく合わせてやっていくことにするよ
37歳になったおばさん
自分が作ったものが動くところや、エラーが解消する瞬間のドキドキはむしろ好きだ
でも、会社の業務で使用する以外の言語を学ぼう、スキルを増やそうと思えるほどのモチベーションはなかった
一時期、「これじゃいけない」と思ってPythonやプログラミングゲームに手を出したけど挫折してしまった
じゃあ、プロジェクトマネジメント方面のスキルはどうかというと、こっちは全然ダメ
短期記憶が弱くてテンパりやすいから、想定外のことに弱くて柔軟に動くことができない
かといって先延ばしグセがあるからスケジュールがルーズになりがち
それに、人に厳しいことが言えないから、イエスマンか正論マンになっちゃう
上司に事務系や作業系の職種に社内転職できないか聞いたけど、そっち方面は過剰気味で空きがないらしい
こんな無能おばさんを10年以上養ってくれて、本当に感謝しかない
でも、この先10年もお願いしますは無理だろうし、何より自分自身がだめだ
コロナ前にハロワに一回行ってメンター的な人にあって履歴書みてもらったけど控えめにだけど転職は厳しいと言われちゃった
その後、辛くてハロワには言ってない
もちろん転職にむけて具体的な行動は何もできていない
なんかもう人生積んでいる
こんなおばさんが70歳までなんとか細く長く生きる方法はないだろうか
というかあと33年生きないといけないのか
そんなに長い間、何をすればいいんだろうかすらわからない
Me:
医療に関わる概念はどのくらい理解している?
GPT:
GPT-3は、医療に関わる概念も理解していますが、その精度は自然言語処理タスクに比べると低い可能性があります。 GPT-3は、大量のテキストデータを使用して学習されたが、そのデータには医療に関するものも含まれているが、その範囲は一般的なニュース記事やブログなどが多いと思われます。そのため、医療に特化したタスクに対しては、専門性が低い可能性があります。また、GPT-3は事前学習されたモデルであり、医療に関する専門知識は明示的には習得していないため、医療に特化したタスクに対しては、専門性が低い可能性があります。ですが、GPT-3は文章の生成や質問応答に対しては高い精度を発揮しており、文章を理解する能力が高いため、医療に関連する文章を理解し、それに基づいた文章の生成や質問応答をすることは可能です。ただし、医学的な正確性や専門性については保証できないため、医療に関する重要な判断や治療に関する決定には使用しないほうが良いでしょう。
Me:
今後のバージョンで、医療に関する概念を獲得する可能性はある?
GPT:
今後のバージョンで、医療に関する概念を獲得する可能性はあります。現在、医療に関するデータが大量に存在し、それを使用して学習することで、より高い精度を達成することができるでしょう。また、新たなアルゴリズムや技術の進歩によって、より良い結果を得ることができるようになっています。医療に関連するタスクに特化した言語モデルも開発されており、それらは、医学的な正確性や専門性に優れています。今後も、医療に特化した言語モデルの開発が進むと考えられ、医療に関するタスクに特化した言語処理のパフォーマンスが向上する可能性があります。また、GPT-3のような大型の言語モデルを特定の分野に特化することもでき、それによってより高い精度を達成することができます。それは、特定の分野に特化したデータを使用して学習させることで、その分野に特化した知識を獲得することができるためです。そうしたことにより、医療に関連するタスクに特化した、より精度の高い言語モデルが開発される可能性があります。
Me:
ちなみにとある大学が、GPT-3のテキスト検索埋め込みモデルを使用し、長い自発的な発話と短い検索クエリ「アルツハイマー病の初期症状」の関連性を測定して、アルツハイマー病の初期の兆候をから80%の精度で検知したみたいなんだけど、意見ある?
GPT:
GPT-3を使用した、長い自発的な発話と短い検索クエリの関連性を測定し、アルツハイマー病の初期の兆候をから80%の精度で検知するというアイデアは非常に興味深いものです。自然言語処理タスクにおいてGPT-3は高い精度を発揮しているため、長い自発的な発話を解析することができる可能性があります。ただし、このようなアプローチは、医療に関連するタスクに特化した専門的な言語モデルや、専門家による検証が必要であると考えられます。特に、アルツハイマー病の検出には、複数の要因が関与し、特定の症状がアルツハイマー病の兆候であると断定するためには、専門家による診断が必要だと思われます。また、GPT-3は、医学的な正確性や専門性について保証できないため、重要な判断や治療に関する決定には使用しないほうが良いでしょう。
Me:
もしGPTに医療に関する精度の高い言語モデルが実装された場合、このケースでは使える?
GPT:
もしGPTに医療に関する精度の高い言語モデルが実装された場合、このケースでも使用することができる可能性があります。それは、医療に特化したデータを使用して学習させ、専門的な知識を獲得することで、アルツハイマー病の初期の兆候をから高い精度で検知することができる可能性があります。ただし、このようなアプローチは、専門家による検証が必要であると考えられます。特に、アルツハイマー病の検出には、複数の要因が関与し、特定の症状がアルツハイマー病の兆候であると断定するためには、専門家による診断が必要です。また、医療に関する情報は常に最新の情報であることが重要であり、それを保つためにも、定期的な更新が必要です。また、GPT-3のような言語モデルは、人間の診断には取って代わることはできません。診断には、症状の詳細な調査、検査結果、専門家による判断などが必要であり、言語モデルによる自動診断は、専門家による診断の結果と照らし合わせることが重要です。
Me:
GPTが医療に関する言語モデルの定期的な更新が可能になった場合は、どう?
GPT:
GPTが医療に関する言語モデルを定期的に更新することができる場合、より高い精度を達成することができる可能性があります。医療に関する情報は、時間の経過とともに変化します。新しい研究結果や臨床経験が得られるたびに、知識ベースも更新される必要があります。それにより、より正確な情報を提供することができ、病気の予防や早期発見に役立つことが期待できます。また、GPT-3のような大型の言語モデルは、大量のデータを使用して学習することができるため、新しいデータを取り込むことで、より正確な結果を得ることができます。しかしながら、GPT-3やそのような大型の言語モデルは、医学的な正確性や専門性について保証できないため、重要な判断や治療に関する決定には使用しないほうが良いです。
Me:
医学的な正確性や専門性って具体的になに?
GPT:
医学的な正確性は、医学的に正しいことを指します。つまり、疾患や症状、診断、治療などに関する情報が、科学的に正しいことを意味します。医学的に正確な情報は、最新の研究結果や臨床経験に基づいていることが望ましいです。医学的専門性は、医学的に専門的なことを指します。つまり、特定の疾患や症状、診断、治療などに関する専門的な知識を指します。これは、医学の専門家によって持っていることが望ましいです。GPT-3などの言語モデルは、大量のテキストデータを使用して学習させることで、自然言語処理タスクにおいて高い精度を発揮していますが、医学的な正確性や専門性については保証できないため、重要な判断や治療に関する決定には使用しないほうが良いです。
Me:
今後GPTが医学的な正確性や専門性を獲得するにはどうすれば良い?
GPT:
GPTが医学的な正確性や専門性を獲得するためには、次のような方法が考えられます。
- 専門家が監修する専門的な医学データを使用して学習する: GPTは大量のテキストデータを使用して学習することができるため、専門的な医学データを使用して学習することで、医学的に正確かつ専門的な知識を獲得することができます。
- 専門家による検証: GPTが出力した結果は、専門家によって検証されることで、正確性と専門性を確認することができます。
- 定期的な更新: 医学的な知識は時間の経過とともに変化するため、定期的に最新の情報を取り込むことで、常に最新の情報を持つことができます。
- 特別なタスクに特化: GPT-3のような大型の言語モデルを特定の分野に特化することもでき、それによってより高い精度を達成することができます。
- 医学的な正確性や専門性について保証できないため、重要な判断や治療に関する決定には使用しないほうが良いでしょう
Me:
GPT-3の要約機能の例。ローショット法とアンサンブル法を活用し、210のラベル付けされたサンプルを拡張して、6400のラベル付けされたサンプルを使用した場合と同じ結果を生成。このサンプルをつかい非常にすぐれた要約を取得可能になったみたいなのだけど、意見ある?
GPT:
GPT-3の要約機能は、自然言語処理タスクにおいて高い精度を発揮することができることが知られています。ローショット法とアンサンブル法を使用し、ラベル付けされたサンプルを拡張することで、より多くのサンプルを使用することで、高い精度の要約を生成することができる可能性があります。ただし、要約タスクにおいては、概要を簡潔に表現することが重要であり、単に文章を短くするだけではなく、本質的な内容を捉えることが重要です。また、GPT-3は大量のテキストデータを使用して学習させることで、自然言語処理タスクにおいて高い精度を発揮していますが、要約タスクにおいては専門性や正確性について保証できないため、専門家による検証が必要であると考えられます。
Me:
それは医療データに関しても同じ意見?
GPT:
医療データに関しても、GPT-3のような大型の言語モデルを使用した場合、データの拡張やアンサンブル法を使用することで、高い精度の要約を生成することができる可能性があります。しかしながら、医療に関する情報は常に最新の情報であることが重要であり、それを保つためにも、定期的な更新が必要であり、それでも正確性や専門性について保証できないため、専門家による検証が必要であり、重要な判断や治療に関する決定には使用しないほうが良いです。また、GPT-3は大量のテキストデータを使用して学習させることで、自然言語処理タスクにおいて高い精度を発揮していますが、医学的な正確性や専門性について保証できないため、重要な判断や治療に関する決定には使用しない医療に関するタスクにおいては、医学的な正確性や専門性が求められるため、GPT-3などの言語モデルを使用するだけでは十分ではありません。そのため、専門家による検証や監修、専門的な医学データを使用した学習、定期的な更新などが必要になります。また、専門的なタスクに特化したモデルを構築することも有効です。それでも、GPT-3などの言語モデルは、医療に関するタスクにおいても有用な情報を提供することができる可能性がありますが、それらの情報は必ず専門家による検証を経てから使用することが重要です。
Me:
ありがとう。今後を期待しているよ。
GPT:
どういたしまして。私も今後の進化に期待しております。またのお問い合わせをお待ちしております。
「Cural Health」や「Drexel’s University」「Nabla」など、各所でGPT-3の検証がなされているので、今後 医療現場でGPTが使われるようになる可能性を聞いてみた。
Me:
あなたはどのように実装されたの? Deep Learning?
GPT:
はい、私はDeep Learningによって実装されました。特に、Transformerと呼ばれるアルゴリズムを使用して学習されました。これは大量のテキストデータを学習し、自然言語処理タスクに適用することができるように設計されています。
Me:
もっと詳しく。
GPT:
Transformerは、自然言語処理タスクのためのDeep Learningアルゴリズムです。それは、大量のテキストデータを学習し、それを解釈し、理解することができるようになります。 Transformerは、複数の層からなるニューラルネットワークを使用して、テキストを処理します。それは、大量のデータを効率的に処理するために、Attention機構を使用します。これは、特定の部分のテキストに注目しながら、それらの関係を理解することができるようになります。Transformerは、自然言語処理タスクにおいて非常に成功しています。それは、自然言語の翻訳、文章の解釈、質問応答などのタスクに適用されており、高い精度を発揮しています。私はTransformerを使用して学習され、自然言語処理タスクに適用することができます。
Me:
事前訓練とかしているんだよね?
GPT:
はい、私は事前学習を受けています。事前学習とは、大量のテキストデータを使用して、言語モデルを学習することを指します。これは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。事前学習は、言語モデルのパフォーマンスを大幅に改善することができます。それは、事前学習済みのモデルを使用することで、新しいタスクに対して学習をスキップすることができ、タスク特化の fine-tuning を行うことができるためです。私は、大量のオンラインテキストデータを使用して学習され、それを解釈し、理解することができるようになりました。それは、自然言語処理タスクに対して高い精度を発揮することができます。
Me:
今のパラメータはいくつ? 前のバージョンよりどのくらい精度がよくなった?
GPT:
私の現在のパラメータ数は、数百億から数千億となっています。これは、大量のデータを使用して学習し、高い精度を達成するために必要なパラメータ数です。精度は、バージョンによって異なりますが、一般的には、前のバージョンよりも高い精度が達成されています。これは、新しいアルゴリズムや技術の進歩によって、より良い結果が得られるようになってきているためです。また、事前学習済みのモデルを使用することで、新しいタスクに対して学習をスキップすることができ、タスク特化の fine-tuning を行うことができるため、精度が向上していることも見られます。
Me:
具体的なパラメータ数は? 前バージョンのGTP-2、現バージョンのGPT-3、次バージョンのGPT-4、それぞれ教えて。
GPT:
GPT-2は、1.5バイアレイパラメータを持っていました。それは、大量のテキストデータを使用して学習し、自然言語処理タスクに適用することができるようになっていました。GPT-3は、175バイアレイパラメータを持っています。これは、GPT-2よりも多くのパラメータを持っており、より高い精度を達成することができます。GPT-4はまだリリースされていないため、そのパラメータ数については確定していません。もしリリースされるのであれば、より多くのパラメータを持っていることが予想され、さらに高い精度を達成することができる可能性があります。
Me:
175バイアレイパラメータって何? 1750億パラメータの間違いでは?
GPT:
そうです、GPT-3は175バイアレイパラメータを持っています。それは1750億のパラメーターを持っていることを意味します。これは、大量のデータを使用して学習し、高い精度を達成するために必要なパラメータ数です。これは、現在の自然言語処理タスクに対して最も大きなモデルであり、高い精度を達成することができるため、市場においても高い評判を得ています。
Me:
バイアレイパラメータを英語で表現して。
GPT:
A "peta-parameter" or "Peta-parameter" (PT) is a measure of the capacity of a machine learning model, specifically the number of parameters it has. In the case of GPT-3 it has 175 peta-parameters, meaning it has 175 million billion parameters. These parameters help the model to understand and interpret large amounts of text data, allowing it to perform natural language processing tasks with high accuracy.
Me:
「175 billion parameters」の間違いでは?
GPT:
そうです、「175 billion parameters」の間違いでした。 GPT-3は175 billion parametersを持っています。それは、自然言語処理タスクに対して高い精度を発揮するために必要なパラメータ数です。申し訳ありませんでした。
Me:
GPT-3はどのように概念レベルの知識を持つの? Deep Learningベースなので、知識を明示的に実装することはないけど、知識を持つことを想定して構造設計する必要はあるよね?
GPT:
GPT-3は、大量のテキストデータを使用して学習されました。それによって、自然言語処理タスクに対して高い精度を発揮することができます。それは、事前学習済みのモデルを使用することで、新しいタスクに対して学習をスキップすることができ、タスク特化の fine-tuning を行うことができるためです。GPT-3は、大量のテキストデータから概念レベルの知識を学習します。それは、言語処理タスクを実行するために必要な基礎知識を獲得するために行われます。 それは、単語や文章の関係性、文章の構造、文章の意味などを理解することができるようになります。GPT-3は、Deep Learningベースのモデルであり、知識を明示的に実装することはありませんが、大量のテキストデータから知識を学習することができるように構造設計されています。それは、Attention機構を使用して特定の部分のテキストに注目しながら、それらの関係を理解することができるようになります。
Me:
Attention機構について詳しく。
GPT:
Attention機構は、自然言語処理タスクにおいて重要な役割を担う機構です。それは、大量のテキストデータを処理するために使用され、特定の部分のテキストに注目しながら、それらの関係を理解することができるようになります。Attention機構は、Seq2Seqモデルなどの自然言語処理タスクに使用されています。それは、入力シーケンスから出力シーケンスを生成するために使用されます。Attention機構は、入力シーケンスのある部分に注目し、それに基づいて出力シーケンスを生成することができるようになります。Attention機構は、ニューラルネットワークの中で使用されます。それは、重み付けされた平均値を計算し、それに基づいて入力シーケンスから重要な部分を選択することができるようになります。GPT-3は、Attention機構を使用して、大量のテキストデータから概念レベルの知識を学習し、文章の意味を理解することができるようになります。
一条工務店のことに言及する増田やブクマカがちらほらいるので、一条工務店で建てた俺がなんとなく語る。
一条工務店は家を建てることに興味がなければそもそも認知してないっていう人のほうが多いメーカーだが、注文住宅の年間着工棟数でトップクラスのメーカーである。
特徴は大量生産のメーカーでありながら断熱・気密性能の高い家を建てていること。
主力商品のi-smartの場合、壁の断熱材は一般的に使われるグラスウールよりも性能の高いウレタンフォームを使用し、厚みも増し増し。
窓もLow-eアルゴンガス封入のトリプルガラス樹脂サッシが標準という徹底ぶり。
気密面では気密のとりやすいツーバイ構造を採用している(壁の断熱材の厚みを増やすために2x4ではなく2x6にしている)
もちろん全棟気密測定を実施。
それでいてお値段は有名大手メーカよりも若干安いくらいに抑えられている。
(断熱や気密の数値は公式ページでもみてください)
快適性では高い断熱気密に標準の全館床暖房をあわせることで家中ほぼ同じ温度を実現できる。
風呂にすら床暖ある。
ただしあくまで大手メーカーの中では飛び抜けた性能であって、中小の工務店でさらに高いスペックを安価に実現しているところはある。
まあ中小工務店はちゃんと実現してくれるところを探すだけの知識が必要になるのと、建てる地域によってはそもそもそんな工務店無いなんてこともあるので、全国に一定のスペックを担保して建てられるというのが強みであるとも思う。
また、性能的には素晴らしいものの、このコストパフォーマンスを生み出すために犠牲にしている部分もあって
コストを下げるために仕様の選択肢を限定していて、どの家も似たような見た目になる
全館床暖房いらないとか一種換気いらないという融通は効かない(というか無くしても減額されない)
などなど人によっては選択肢から外す理由になる要素もそれなりにある。
なのでこれらネガが気にならない人にマッチするというものになっている。
増田やブクマカも断熱についてはかなり意識するようになってきているので、家を建てるときの参考になればと思います。
あと大手だとスウェーデンハウスも断熱気密すごいので気になるなら調べてみるとよろし。
お値段すごいけど。
日本の家はどれだけ暖房を効かせても肝心な部分の断熱がダメで暖かくならない→海外では使用禁止の国もある代物らしい
https://togetter.com/li/2053113
Vol.9 大手はなぜ樹脂サッシを使わないのか?
https://www.kosodate-sekkei.co.jp/blog/matsuo-2-vol9/
みたいなことばっかりで朝から本当にバカしかいないのか?と憂鬱になる
の順でしか効果薄いよ、としっかり書かれてるのに「樹脂サッシにしろ」の大合唱
しかもこの計算はだいぶサッシ寄りで最近はやりの窓が大きめで開放感重視の家だとほとんどガラスの性能になる
ガラスを三重とかにすると樹脂部分が大きくなって見た目が悪いし防犯ガラスを考えたりすると複合しか選択肢がなかったり性能以外も考えることは多い
あと複合サッシも種類によるけれどちゃんとした複合サッシなら熱貫流率も十分な性能があるのに
「複合サッシじゃなくて樹脂サッシを」
とか、もはや宗教じみてて怖い
「1万棟建てるのに2万円増えたらいくらになると思う?」
標準仕様に採用しろ、っていうのなら1万棟に採用するぐらいしっかり検証しないと住宅メーカーの責任問題になるからおいそれと採用しない
まぁそれでも金を出すのは施主だけど
20〜30万値上がりしたら他のハウスメーカーに取られる、とかも完全にそんなことはない
価格は重要なファクターだけど支配的ではないのでたかだか数十万の差でハウスメーカーを選んだりはしない
あと、住宅メーカーはヤバいところもあるけど、基本的にメーカーの責任で効果の有無をしっかり検証してる
なぜなら「じゃぁやめます」ってできないので20年とか30年後に問題になったりするから
街の工務店はぶっちゃけ建てたら終わりの自己責任なので効果検証なんてそこそこに社長の一声で採用ってのも多い
なので水道管に怪しいシールを貼るような工務店だって少なくないし過剰な性能の家も多い
工務店の家は街のPCショップが作った自作PCみたいなもんだと思ってる
「なぜハウスメーカーは水冷を採用しないのか!効果は絶大なのに!」
って言ってるようなもん
https://www.nichifuri.co.jp/item/matsuyagyumeshi.html
まさに牛めし!!
オタクだらけの班入れられて「こいつらと食うぐらいなら便所飯したほうがマシだから」って昼休みの弁当障害者用トイレで食べてた
使う人居ないのは知ってた
班決めのときもヤンキーに忖度した担任が俺にオタクを押し付けたよね
人数が足りなくなるのに押し通されたよね
例外処理を許したよね
優しいからよく許したね
こんなやつらと飯食うなら便所のほうがマシだよね
便所で隠し持ってたスマホでTwitterやりつつ飯食ってたほうが楽しいよね
今思えば先駆者だよね
いやヤンキーは持ってきてたけどね
自分が優しいからよく押し付けられるし、自分の不正だけ正されるんだよね
中2の頃は年間100回遅刻してたよね
登校中ずっと葛藤してたよね、行くべきかどうか
もし便所飯したり引きこもったりしてる中学生の子がいて、しかもその理由に自分がかつてそうであったかのように妥当性があったら何て声をかけるかな
はてブとかではあまり話題にならないっぽいんだけど、台湾向け輸出イチゴが向こうの残留農薬検査に引っかかってニュースになった。基準値と生産事情との両方をカバーする説明が今回に限らず見当たらないのでどこかに説明を書いとこうと思った。
増田はイチゴを輸出したいと地元農家に言われて技術面を中心にいろいろ検討したことがある普及指導員。
長くなったので要約すると
・南の国ではイチゴはマイナーな食べ物であり、安全性評価が進んでいないため極めて安全側に寄った残留基準が設定されていることが多い。
・イチゴはほとんどの場合、輸出専用の生産ではなく国内基準準拠の生産をしているため、基準の違いに引っかかりやすい。しかし国内向けよりも雑な対応をしているのも事実。
・1月後半〜2月は高品質なのに国内相場が割安なことが輸出の動機となっている、つまり今のイチゴは買い。
台湾で日本産イチゴの農薬残留超過が出た。それだけではなく、あまりに頻度が高いので台湾当局はついに日本産イチゴの全ロット検査を決定した。
記事にあるように、もともと超過が頻繁なため抜き取り検査の割合が引き上げられていたにもかかわらず繰り返したためだ。
1/3付のニュース
https://news.yahoo.co.jp/articles/ce6f0d52c02403ab2ebf420b6fa87145d5ed4632
https://japan.focustaiwan.tw/society/202301030007
先週書いたものを寝かせていたら1/17にも出ていた。またフロニカミド。
https://japan.focustaiwan.tw/society/202301170005
農薬の残留基準値は国が品目(農産物の種類、タマネギ・ニンジン・ジャガイモみたいな区別で、メークインや男爵みたいな「品種」ではない)ごと、農薬成分ごとに決めていて、残留基準値が定まっていない農薬は一律で検出されてはいけない。
基準値は国ごとに違う。日本の場合は760の品目に対して様々な農薬の残留基準値が決まっている。日本における米のように食文化的に重要かつ国内の栽培で農薬を使いたい品目は、効率的な栽培をしつつ生産物を毎日大量に食べても安全になるラインがよく検討されている。一方外国から来たまるっきり未知の野菜や果物は、リスク評価に基づいて基準値が検討されるまではどの農薬も検出されてはいけない。近年輸入するようになって安全評価が進んでいない品目は、かなり安全に寄った基準になる。
東南アジアにおけるイチゴは食文化もあまりないマイナー品目扱いなので、ほとんどの農薬成分に関して評価されていない=検出されてはいけない設定になっているか、とても安全に寄った数字になっている。また、重要な品目ほどその国での安定栽培に必要な農薬をきちんと精査して基準設定するが、暖かい国ではほとんど栽培していないので、栽培に必要な農薬について使いつつ安全な基準を考える動きにもあまりならない。
イチゴは輸出品目として有望視されており、農水省は諸外国の残留基準値を調べて公表している。
https://www.maff.go.jp/j/shokusan/export/attach/pdf/zannou_kisei-185.pdf
https://www.maff.go.jp/j/shokusan/export/zannou_kisei.html
この通り、日本より厳しい国は多い。
輸出相手国の残留農薬基準値に対応した 生果実(いちご)の病害虫防除マニュアル (平成27年のため農薬の情報は古い)にその動きが書いてある。
https://www.maff.go.jp/j/syouan/syokubo/boujyo/pdf/ichigo_shousai.pdf
台湾では生果実(いちご)の生産はあるが、主要作物ではないことから、日本からの残留農薬基準値に対する要望を受け入れられる余地がある。2015年2月12日には台湾の生果実(いちご)で違反事例が最も多かったシフルメトフェンの基準値が国内基準と同じ2ppmに変更された。 輸出用の出荷量が国内消費に比べて圧倒的に少ない生果実(いちご)では、輸出向け専用に生果実(いちご)を生産することは困難であることから、台湾等に対して引き続き残留農薬基準値の変更を求めていくことが重要と考えられる。
今回の農薬はフロニカミド(商品名ウララDF、多分アブラムシとコナジラミ対策)とシアントラニリプロール(商品名ベネビアOD、多分アザミウマ対策)で、どちらも台湾の残留基準値そのものが日本よりかなり低い。
フロニカミドは台湾向けイチゴでよく引っかかる成分だ。天敵カブリダニを導入している状況で利用できる。似たようなシチュエーションで使う剤としてピメトロジン(商品名チェス)があり、これも台湾向け輸出で残留超過が多い剤だったが、基準値が引き上げられた。しかし国内ではチェスからウララにシフトする傾向がある。栽培地の状況と輸入国の基準が噛み合っていない。
ベネビアも上市からまだ10年経っていない剤で、それ以前のジアミド系統(プレバソンなど)については台湾側はそれなりに基準値引き上げをしてくれているが、ベネビアの基準値は改訂されていない。
手間のかかる検討を経て妥当な残留基準値が設定される過程を後押しするのは農薬を使いたい生産者(と売りたい農薬メーカー)の希望なので、生産が活発でない国ではどうしても使用農薬の変遷に遅れる。
今回は基準値の違いが主な原因だろうが、台湾に関しては検査手法の違いもある。
台湾はイチゴの農薬に関してさまざまな安全性評価を進めてくれており、基準値はだんだん改定されている。しかし、台湾の残留検査は流通状態で検査するとして対象にヘタを含める。日本は可食部つまりヘタを除いた部分で検査する。台湾に関しては基準値が同じでもこの差で引っかかることがある。
イチゴの花の中心部、丸い黄色いところ(花托)が膨らんで実になる。農薬は面積あたり一定量が付着するので、花のうちに散布された農薬は実が大きくなってから散布された農薬よりずっと少ない量が付いている(肥大希釈)。
実が赤くなるころには表面にただの水でもついてほしくないので、収穫の直前にはあまり農薬散布をしない。なので大きくなったイチゴの実本体にかかっている農薬の量は、同じ表面積の葉よりずっと少ない。
しかし花の時点でガク(=ヘタ)は既に出来上がっていて、肥大希釈が効かない。しかも輸出するような立派な実になる花はガクも立派だ。台湾向け出荷ではどうしてもこれがネックになる。
これら基準の違いはとっくにわかっていることで、やや難しいが対応可能だ。なのに基準超過を繰り返し、ついに全ロット調査まで基準を厳しくされてしまったことは、手間のかかる残留基準値見直しをやって買おうとしてくれている台湾消費者への不義理だと私は思う。
国内向けにはきちんと対策していても、輸出では基準超過を出し続け評判を落として来たのが日本産イチゴ輸出体制だ。今回国内向けにも使用している産地ロゴがしっかり写った荷姿の写真がヤフーニュースにまで載ったことはそれなりに衝撃だと思う。輸出での不手際が最も恐れている国内評価の下落に繋がる。
輸出で残留基準値を超過しても、いまのところ「その商品が廃棄になる」くらいしか直接的なペナルティがない。国内では出荷回数に対して検査回数が圧倒的に少ないので、流通済みのものに遡って影響する。後は消費者や取引先が離れるという社会的制裁がペナルティだ。
実際に数年前に自分が対応した件でも「その国の基準値を下回ることを誰が保証するのか(あるいはしないのか)」について曖昧だった。
日本の基準を守るためには、農薬登録制度、地域の防除暦、すぐ参照できる使用記録、出荷組合による自主検査と何重もの仕組みがあるが、輸出先の基準について日本基準並みの保証はできない。しかし先に挙げたような農水省の技術情報から農薬の使い方を検討し、輸出向けの残留検査をするなどはできる。
輸出はJAなど出荷組合が直接海外の需要者と取引する場合もあるが、卸売業者を経由する場合がほとんどだ。卸売業者が買って海外需要者に販売する形式になる。もし基準値超過があれば、取引の現場では卸売業者の評判が下がっていくのだろう。しかし今回ネットニュースにパッケージが掲載されてしまったように、社会的制裁部分を被るのは生産者だ。
そもそも制裁がなくとも消費者への誠実さがあるべきだ。卸売業者は、台湾に売るなら台湾の人が求める基準に合致するものを責任を持って仕入れるべきだし、生産者も台湾行きだとわかっているならきちんと基準をクリアするような栽培をするべきだ。どちらも国内向けなら絶対に基準値超過を避ける動きをするだろう。なのに台湾向けとなるとやってしまうのは、台湾消費者の軽視ではないか。
イチゴの輸出に関して、絶対に輸出で商売していきたい、と思っている産地はほとんどない。
イチゴは花がいくつもついた枝(果房)を1本出し、花が実になって収穫でき、その間にまた次の果房が出てくるというふうに収穫の小さなピークを繰り返す。10~11月ごろに1番果(最初の果房)の出荷が始まりクリスマス〜年末の高値シーズンがある。その後早ければ1月に2番果の出荷が始まる。(市場では定植のずれや1.5番があるので販売は連続する。)
2番果の最初の実は大きいし、大抵の産地で味がいい時期だが、国内は行事もなく相場はいまいちだ。この時期の実を外国で高く売りたい、気温が低くて痛みにくいし、春節商戦に間に合えばなおよし、という事情がイチゴ輸出を後押ししている。
そんな調子なので完全に輸出に的を絞った栽培などはごく少なく、基本的に日本向けの残留基準値に対応した栽培から、それぞれのレベルで「気をつけている」のが日本産輸出イチゴだ。2番果のみ台湾向けならまだ防除体系(何の病害虫に対して、いつ頃どのような農薬を使えばよいか)の組み立てができるが、1番果の輸出や2番果でもより厳しい香港などに出すとなるとほとんど有機栽培のような防除になる。きちんと「輸出用の畑では収穫予定の◯日前を過ぎたらこの農薬は使わない」など決めているところもあるが、そうではない産地が多いので頻繁に残留基準値超過が発生してしまう。日本産の農産物は安全であり、日本の基準を守っていれば十分という誤った感覚はよく指摘されるところだ。
完全な余談だが、前述したように輸出したいくらい割安なので、今の時期のイチゴは買いだ。
ネットで見かける1番果がいちばん美味しいというのは近年の秋の高温からすると無理があると思う。1番でも2番でも果房の最初の方が大きくて味がよく、後の方になると小さくて美味しくないのだが、1番の頂果が肥大する頃は気温が高く消耗しがちだ。
冬の天気が悪い地域では日照不足で味が落ちる傾向は確かにあるが、冬に天気がいい地域なら今が最高だろう。選ぶなら単純に大きい方が美味い。同じ大きさならヘタが立派なのがいい。酸味は品種差によるところが大きいが、好み次第なところもある。
農薬についてはきちんと安全性が検討された結果の基準値が設定されていてそれで十分だ。さらにイチゴしか食べないとか基準値が想定する以上の摂取量を予定している人のためにお伝えすると、自分が見てきた農薬散布が少ない冬の自主検査結果では使用した農薬でも検出限界以下まで下がっているものが多い。(これを過信して輸出して事故を起こすわけだが。)
また、イチゴの場合は葉裏にくっついて汁を吸う害虫ダニの天敵であるカブリダニの利用が基本技術になっているため、畑に天敵ダニが投入される秋以降はそいつらが死なない程度の毒性の農薬しか使えない。今回引っかかったウララDFとベネビアODは、天敵ダニを生かしつつ天敵ダニが食べない種類の害虫を退治するための殺虫剤だ。というわけでイチゴをカロリー源に生きてもそう問題は発生しないだろう。
そんなわけで、私は1月に入ってからイチゴを大量に食べている。こちらでも栽培が増えた「恋みのり」は着色しにくい品種特性があり、色が理由で割安になっているものが多く手に入る。酸味やイチゴらしい香りが弱いという欠点はあるが、空洞果がほぼ発生せず重量があり、色がいまいちでも甘みが強いので腹いっぱい食べたい人におすすめだ。もちろん他品種も今がいい時期だ。ぜひ今買ってほしい。
ドイツでは「メス」とは人を救うための道具を指すのに対し
品性に欠けるためだ。
こういう語句の不適切な使用が国の衰退を招いた一因でありこの国で長らく続いた男性社会文化の産み出した闇である。
実際、腰を打ち付けているのはオス側であるのに対し
支配感、万能感で猿程の脳も無い人間は、自分が優位だと錯誤する。
そうした幾重も顔に皺の刻まれ腰の曲ったボス猿ばかりなのである。
彼らを良く観察すると、メスの個体が甲斐甲斐しく世話をする振りをしながらも全てを管理している。
莫大な富と名声は彼らにとって栄誉となるのだ。
生殖に成功したものたちは、対になった雄猿の交友関係を自慢しようとする。
どれだけ手下がいるかということは人間社会では強力な武器である。
私はこの猿共の群れから抜け出したい。
論点のすり替え、見下し、はぐらかし、逆張りばかりでまるでコミュニケーションする気の無いこの矮小な世界。
一匹の異性を巡り、多数の同性が憎しみ蹴落とし合う社会。
そんな地獄から抜け出して、横に並べる者達と温かいスープを分け合うのだ。
その味はこの舌に合わないかも知れない。腹を下すかも知れない。
迫りくる、冬の訪れに震えながら、私達は大小様々なものを共有するのだ。