はてなキーワード: インテリとは
俺は「プログレッシブロック」(以下:プログレ)っていうジャンルの音楽が好きだ。高校生の頃出会ってからずっと好き。特にKansasのJourney from Mariabronnていう曲が好き。(現在29歳)
でもこのジャンルって、世間的には"ニッチ"って言われる。小難しいとか、インテリ音楽とか言われてるのをネット記事なんかでよく見る。
言わんとすることはわかるし、たしかにイマっぽいポップミュージックとは一線を画すことは認めよう。
しかし世間というものは広くて、そういう音楽を愛する人っていうのが一定層いる。
と、思っていた。
しかしこれは罠だった。ここからが愚痴なのだが、俺は本当の意味でプログレを好きな奴ってのをほぼ見たことがない。
あいつら、プログレをファッションにしてやがるんだよ。ニッチなジャンル攻めてる俺。っていう。偽者だらけよ。俺はカンがいいから、そういう偽者がすぐわかる。
ジャズ畑とかにも多いんだけど、通常のポップミュージックをお前ら、ちょっと下に見てるだろ。それだよ。俺が引っかかるのはそれ。
俺から言われせれば、プログレは通常のポップミュージックと変わらない、すごくわかりやすい音楽だ。そういう仕組みになってる。
わかりにくくみえているのは、お前らが今まで社会から受けてきた音楽洗脳のせいである。つまり、「これが曲というものですよ」っていう洗脳が染みついちゃってるわけ。構成とかね。
(松本人志お笑い問題に似ている)だから、その構成に沿わないものを耳にしたときに「これは曲じゃない」ってなっちゃうの。オートでね。俺はその洗脳教育が終わるか終わらないかのところでたぶん、出会えてたからこそ、プログレを「わかりやすい音楽」として認識できるんだろう。
ちょっと勉強したからわかったんだけど、ホンモノのプログレってのは(Yesとか)かなり綿密に構成が練られている。これは、ホンモノじゃない「なんちゃってプログレ」と聴き比べるとわかる。なんちゃってプログレはマジですぐ飽きる。それは構成が練られてないから。
萌え絵の消費者層がキモオタだから萌え絵が嫌われるは事実すぎるから笑ったけど(確認したけどこの人もオタクではある、その上でこういうツイートをしているのでリベラル系オタクって奴だ)
ただ、こういう論法の裏で、オタクだけが差別的で、普通の日本人はそうではありませんよっていうムーブしてる奴がいるのもキモくはある
前に「オタクが何故ネトウヨになってしまうのか?」って言ってた増田の時も思ったんだけど
現実的には非オタクというか、絵画好きにも、クラシック好きにもキモい奴というか、ノンポリという名の保守、差別的な野郎共ってわんさかいるはずというか、いるんだよな
絵画にトマトスープぶっかけて壁に手を貼り付けた活動家を罵った絵画好きっていっぱいいたし
消費者層が上品なインテリ集団だったら萌え絵はキモがられないってのも、その上品なインテリ集団って何を想定してるのかがちょっとわからなくはある
昨今では差別する奴は頭の良し悪しの問題にすることは反差別内で咎められる行為だし
上品だろうがインテリだろうが、差別してたら台無しだし(差別するのが下品、インテリではないとして結局頭の良し悪しの問題にする事の問題に収束する)
あとは自分は他のオタクとは違うんですよ~って感じでこの論法を利用しているであろうリベラル系オタクが、ばりばりトランス差別してるとかもあるある(引用ツイートの人は違うだろうけど)
https://twitter.com/otaota_1215_m/status/1660820623072051201
オタギリ💙💛
@otaota_1215_m
萌え絵から感じるキモさって、絵自体ではなく、萌え絵を好む人間に起因するのだと思う。もし仮に、萌え絵を支持する層が上品なインテリ連中だったなら、世間のイメージは全く違っていただろう
オタギリ💙💛
@otaota_1215_m
当たり前のことを呟いただけなのに、マヌケなキモオタが湧いてチーチー鳴いててキショい🥺
コンテンツのイメージってのは、それを支持する連中の質で変わる。例えば絵画やクラシック音楽も、もし仮に萌え絵愛好家みたいなキモオタ連中がメイン支持層だったら世間から気持ち悪がられるよ🤓
でたらめにもほどがある。
創作物である以上、本当に「必要な戦い」は認めるしかない。この点が憲法9条や非武装主義を掲げる日本のリベラルとは相性が悪い
闘争を否定しないとネトウヨならば(ルフィのやってることは戦争ではない)、「三里塚闘争」「辺野古基地闘争」をしている人たちはネトウヨなのだろうか。
それにワンピースもガンダムも「国家」や「権力」を全く信用のできないものとして描いているんだが、なぜそこに触れないのか。
ガンダムのニュータイプ表現なんて当時の欧米のインテリリベラル層に流行したスピリチュアル思想の改変だろ。
あとワンピースは反権力反政府なのに反感を抱く左派がいるが、彼らはインテリの嫌う「任侠的な空気」に反発しているのであって、
「リベラル」がインテリ好みの世界観でない=右翼的と決めつける癖がある(そうして庶民を振り落とす)証拠でしかない。
エヴァが流行った90年代にもオタク層は反権力やリベラルの方にややシンパシーを感じる者が多かった。
宮崎事件でオタク叩きが激しかったから、一般社会に怨念を持つものが多くいた。権力による表現規制も含めて。
このあたりの流れが00年代以降に反政府ではなく反マスコミに回収されたことのほうが反「リベラル」の風潮には直接的に影響しているのでは。
そもそも「ラピュタ」「トトロ」「魔女の宅急便」のどこに日本ホルホルにつながるものがあるのか。
ガチ左翼の網野史学を取り入れ、リベラル読書層が持ち上げた「もののけ姫」以前には日本称揚につながるような話はほぼない。
トトロの農村コミュニティへの懐古(それもインテリが「腰掛ける」対象としての)くらいではないか。
これだって「火垂るの墓」と併映で、セットでのキャッチコピーも「忘れ物を届けに来ました」で現代日本批判だったことを忘れてはいけないし。
加えて、90年代には「日本軍が米軍をかっこよくやっつける」話も流行したが、アニメオタク層とはズレたところでブームになってる。
「沈黙の艦隊」も「紺碧の艦隊」もオタク層の外側での流行。日本ホルホルの流れは宮崎よりは荒巻の方がずっと直接的で影響が強い。
荒巻が受け入れられたのも、今からは考えられないくらい日本が経済的に強くて全能感に社会全体があふれていて
なのに湾岸戦争で1兆ドル分捕られたとかで「反米」感情が高まっていたことが背景。中国も韓国も問題にもならない雑魚だったから。
90年代の世界的な反米ブームが忘れられているんだな。アメリカメディアが自分たちの嫌われっぷりにショックを受けて特集を何度も組むレベルだったのに。
現状の「反中反韓」をベースにした流れは教科書問題と日韓ワールドカップとどちらもアニメと無関係。
そうした流れが一般メディアの黙殺に反発する形でネットコミュニティ、とりわけ2ちゃんねるに流れ込んで、
同じくネットコミュニティを拠点としたアニオタ層と一部クロスオーバーするようになったって流れではないのか。
それがアニメオタクに受け入れられた(とするなら)その理由はまた別に考える必要はあるし。
やり直し。
徒然草の話だけど、当時西暦1300年頃、たぶん「念仏とかインドの言葉を中国語に直して日本式に唱えて意味あんのかよ」とか
インテリ的な懐疑心があったんだと思うんだよ。でも心から毎日信じてやり続けることが結果につながることがあるよ、とかいいたかったんじゃないかなって思う。侍が出てきた、っていうこと自体は超常的でないよね。神様が雲にのってやってきたみたいな話でなくて。
テレビもNHK以外基本禁止、漫画もなく、ポケモンも遊戯王もプレステもない家庭で育った。
親父の口癖は「テレビは毒」「俺は芸能人なんて一人も知らない」
平成初期生まれなので、自分が小中高のときはバラエティ全盛期。でも話に全くついていけず、「不思議ちゃん」扱いを受けた。仕方がない。SMAPも嵐もダウンタウンもとんねるずも知らなかったんだから。
毎日勉強しろと言われ、頑張っていたが、高得点を取っても褒められることはなかった。友達は上位50%でゲームソフトを買ってもらっていたのに、私のクリスマスプレゼントは毎年、欲しいとも言っていない本だった。
部活も無駄だから辞めろと言われたけれど、部活が唯一の居場所だったので、部活だけは続けた。正解だったと思う。
経済的には何故か余裕があったのか、海外旅行にはそれなりに行かせてもらった。周りからは良い家庭にみえていたんだろう。でも百万円以上かけて家族でヨーロッパへ行くより、5万で皆が持ってるゲームを買ってほしかった。iPodを買ってほしかった。週刊少年ジャンプを買ってほしかった。
別に海外旅行なんて大して行きたくなかった。中学受験だってしたくなかった。
意識高い系の親に育てられる息苦しさを知っているので、私は絶対に意識高い系とは結婚しないだろう。
「最低march」とか、馬鹿みたいだ。高卒で生きていける人なんて山ほどいるじゃないか。
小学生のとき、新宿の公園に連れていかれてホームレスの人を前にして「お前も勉強しないとこうなる」と言われた。
大人になって実家に戻ってみたら親がやってることと言えばスマホゲームかワイドショー見て政治家に文句言ってるだけ。学もない。
学がないから、インテリっぽいものを子供に浴びせ続ければ子供が幸せになるとでも思ってたんだろうか。
今考えたら馬鹿みたいだ。
-----
言っとくけどこれ思春期だけじゃなく大学一年になったときもだからね。こっちが入るサークルにまで口出してバイトはするなとかさ、頭おかしいんじゃない?
高校生まで勉強しろとしか言わなかった癖にせっかく自分でチャレンジしようと思った再受験は反対とか
人の人生なんだと思ってんだよ。クソつまんない十代二十代だったよ。一生引きずるよ。
大人になっても自分が少年時代に流行っていたことを何一つ知らない、なにも共感できない。
同世代でみんな聴いていた音楽も観ていたドラマも流行っていたゲームもやってない。
うちにあったのは意味の分からない知育系玩具と歴史漫画と科学雑誌。
あんたら、インテリでもなんでもない癖に、ふざけた教育してんなよ。
なんで子供にクリスマスプレゼントに買い与えるのは欲しくもない本なのに、自分たちが暇な時間やってることとはスマホゲームとワイドショー見て政治家に文句言う事なんだよ。
ホリエモンがひろゆきを評して 「あいつはふつうの左翼になってしまった」 と言っていたことがあったが、最近の彼の発言を聞いていると、彼もまたふつうの左翼になってしまったように思う。
大学で社会科学をやって理想を語っていたのが、(日本)社会に揉まれてちょっと保守化した、元インテリ層みたいな主張になってるよね、この人。
少子化少子化と叫ばれるが、私の周りには子供3人以上いる知り合いが多い。
そんな家庭の共通点を考えてみたが、国立大卒インテリもいれば高卒や中卒マイルドヤンキーもいる。稼ぎまくってる金持ちもいれば、貧乏人もいる。専業主婦もいれば、フルタイム共働きもいる。夫が家事育児に協力的な家庭もあれば、夫が一切家事をしない家庭もある。サラリーマンもいれば、自営業者もいる。都会に住んでる人もいれば、地方に住んでる人もいる。実家が近くていつでも助けてもらえる人もいれば、実家が遠くて夫婦二人で頑張らないといけない人もいる。なかなか共通点が見つからなかった。
そんな中で見つけた共通点らしきものは、夫婦仲が悪くはないということと(でないとそもそも子供を作れない)、夫婦の一方または両方が、社交的または楽観的なパーソナリティである、ということぐらいであった。
やっぱり少子化を止めるのは無理だな。
https://arxiv.org/pdf/2305.00833.pdf
Learning to Reason and Memorize with Self-Notes
大規模な言語モデルは、限られたコンテキスト メモリと多段階の推論に苦労することが示されています。
モデルが自己メモを取ることを可能にすることにより、これらの問題の両方を解決するための簡単な方法を提案します。
最近のスクラッチパッド アプローチとは異なり、モデルはいつでも入力コンテキストから逸脱して明示的に考えることができます。
これにより、モデルはコンテキストを読み取りながら情報を想起し、オンザフライで推論を実行できるため、メモリが拡張され、複数ステップの推論が可能になります。
複数のタスクに関する私たちの実験は、推論時に自己メモを取ることにより、トレーニング設定からより長く複雑なインスタンスに私たちの方法がうまく一般化できることを示しています.
1. イントロダクション
Transformers (Vaswani et al., 2017) および同様のバリアントは、シーケンスベースのタスクで印象的な結果を示しています
特に、GPT-3 (Brown et al., 2020) などの大規模な言語モデル (LM) はトランスフォーマーを使用し、質問応答 (QA) などのさまざまな NLP タスクを解決できます。
LM を QA タスクに使用すると、図 1 (上) に示すように、事実情報と質問を含むコンテキスト プロンプトが与えられ、モデルが直接回答を生成します。 ただし、この自己回帰の「ワンステップ」アプローチは、複数ステップの推論タスクと格闘します (Austin et al., 2021; Press et al., 2022a; Creswell et al., 2023)。 これは、バニラ LM が各トークンに対して固定された計算を行い、現在のコンテキストに応じてさらに「考える」オプションがないという事実から生じると主張します。 (2021) 図 1 (中央) に示すように、モデルが質問に答える前に推論トークンを生成できるようにするスクラッチパッドの使用を提案しましたが、完全なコンテキストと質問を読み取った後です。 同様に、一連の思考を促す方法 (Wei et al., 2022; Zelikman*Equal Contributor 1Meta AI. への対応: JackLanchantin <jacklanchantin@meta.com>, Sainbayar Sukhbaatar<sainbar@meta.com>.et al., 2022; Huang et al., 2022) は、モデルをプッシュして、一度に 1 ステップずつ答えを説明し、より首尾一貫した最終的な答えに導きます。 非線形タスク (Fan et al., 2020)、LSTM (Hochreiter and Schmidhuber, 1997) などの再帰型先行モデルが十分に備えられているもの。 Fan et al., 2020; Ju et al., 2022; Hutchins et al., 2022)、しかし、それでも与えられたプロンプトに対して一定量の計算を使用します。 推論と状態追跡メモリがより扱いやすくなります。 私たちの方法である「Self-Notes」により、LM はオンザフライでコンテキスト プロンプトから逸脱し、明示的な推論トークンを生成できます。 図 1 (下) に示すように、スクラッチパッドとは異なり、モデルは生成されたトークンを入力コンテキストとインターリーブできます。 このようなセルフ ノートは、明示的な中間推論ステップと状態追跡用のメモリの両方として機能します。 具体的には、推論ステップで 2 つの事実を組み合わせる必要がある場合、結果として得られる推論をセルフ ノートに書き込んで、将来の推論に使用することができます。したがって、中間推論ステップとして機能します。 たとえば、「アリスは箱を持っています」と「アリスは公園にいます」が与えられた場合、「箱は公園にある」と推測してそれを自己メモに書き、将来のステートメント「鍵は in the box」で「鍵は公園にある」と結論付ける。 さらに、コンテキストをトラバースしながらモデルがエンティティの最新の状態を新しいトークンとして書き込むことができるため、SelfNote はワーキング メモリの形式として機能できます。 たとえば、プログラミング環境では、最初に x=5 を想定し、次に x を 1 ずつ増やします。モデルが x=6 をセルフ ノートとして正しく記述していると仮定すると、元の x=5 ステートメントをそのコンテキストから安全に削除できます。 モデルが x の値について問い合わせられた場合、モデルは既に答えを持っています。
私たちの提案した方法と、スクラッチパッド (Nye et al., 2021)、思考の連鎖 (Wei et al., 2022)、または内部独白 (Huang et al., 2022) などの以前の研究との主な違いは、モデルを許可することです。 各コンテキストステートメントを順番に読み取るときに、複数のメモを明示的に書き出す。 InarXiv:2305.00833v1 [cs.LG] 2023 年 5 月 1 日図 1: (上) ベースライン バニラ LM は、コンテキスト (C) と質問 (Q) が与えられると、回答 (A) を直接生成します。 (中央)スクラッチパッドを使用すると、モデルは質問に答える前に中間推論トークンを生成できますが、コンテキストが表示された後です。 (下) 私たちの Self-Notes メソッドにより、モデルはいつでも推論してメモを取るために入力コンテキストから逸脱することができます。言い換えれば、私たちのアプローチは、将来の推論に役立つ可能性のある情報でコンテキストを補強するスクラッチパッドのインライン形式です。 私たちはこれを、人間が読む方法と同様に、明示的に述べられていない情報を推測するための行間の読み取り (および書き込み) の形式と見なします (van den Broek et al., 2009)。 以前の方法では、モデルが完全なコンテキストを読み取った後に反芻することができ、読み取っている間ではなく、最後に大量の推論を行うように強制されます。
さらに、そのようなポストコンテキスト推論は、推論が開始される前に以前のコンテキストトークンがモデルのコンテキストウィンドウからすでに出ている可能性があるため、メモリとして機能できません。 たとえば、数週間または数か月の対話履歴を持つインテリジェント エージェントを考えてみましょう。 直観的には、最初から考え直すことなく、以前の対話で行った推論ステップを使用できることは理にかなっています。自己メモを生成するようにモデルに教えるために、トレーニング中に、入力の一部としてグラウンド トゥルース自己メモを言語モデルに提供することを検討します。 コンテクスト。 推論中に、トレーニング中に学習した特別なトークンを生成する場合、モデルはコンテキストから逸脱し、SelfNote を生成できます。モデルが Self-Note の生成を完了すると、元のコンテキスト トークンが引き続き供給されます。 これにより、モデルは最後だけでなく、入力トークンの処理中にメモリを推論および作成できます。 また、Self-Notes をトレーニングするための半教師ありおよび教師なしの方法も提案します。多段階の推論と状態追跡を評価するように設計された 5 つのテキスト データセットでこの方法をテストします。 , 2020; Anil et al., 2022)、および 2 つの現実世界のチェス ゲーム タスク (Toshniwal et al., 2022)。 私たちの方法は、明示的なメモ取りを行わない微調整された言語モデルとスクラッチパッドのベースラインの両方よりも優れています.2. 方法シーケンス内の次のトークンを予測する自己回帰変換モデル M を考えてみましょう