はてなキーワード: 過大評価とは
若い頃の孔明は自らを管仲や楽毅に比肩する才能があると自負していたようだけど、実績からいうと政治・軍略いずれにおいても孔明の才は両者に遠く及ばなかった。
三国志演義に描かれる時代はとくに傑出した人物がでなかったおかげで小競り合いが長引いて、物語の脚色上ろくに実績のない武将や文官まで英雄扱いされてしまっているだけで、
他の戦乱期と比較してみればスケールの大きな人物がほとんど輩出されない小者だらけの時代だった。
創作の世界では三国志最強武将として扱われる呂布も一時期曹操を苦しめていたのが過大評価されてるだけで他の時代の名将たちと比較して華々しい戦歴があるわけではないし、
あくまで三国志前半の物語を盛り上げることのできる特異な経歴をもったトリックスターであったということだけが呂布の強みであり値打ちだった。
この辺を未だにゴチャゴチャにしてるメディアがいて怖い。
発売前の圧倒的人気は初期の売上に直結するけど、作品のクオリティとの相関関係は決して高くない。
現在は発売直後からレビューが沢山出るようになったし、フラゲしてレビューするのを生きがいにしてる連中もいるから前評判が完全に過大評価の場合はすぐに知れ渡っている。
でも過大評価の程度が緩やかな場合は多くの人が「なんとなく期待外れだったかも」と口にするまで真実はヴェールを被ったままに時が過ぎる。
患者は大きな業績という空想(圧倒的な知能または美しさについて賞賛されること、名声や影響力をもつこと、または素晴らしい恋愛を経験すること)にとらわれています。自分が、普通の人とではなく、自分と同様に特別で才能のある人とのみ関わるべきであると考えています。患者はこのような並はずれた人々との付き合いを、自尊心を支え、高めるために利用します。
自己愛性パーソナリティ障害の患者は過度の賞賛を受ける必要があるため、患者の自尊心は他者からよく思われることに依存しています。このため、患者の自尊心は通常は非常に壊れやすいものです。患者はしばしば他者が自分のことをどのように考えているかを注視しており、自分がどれだけうまくやっているかを吟味しています。
自己愛性パーソナリティ障害の患者は、他者による批判、また恥辱感や敗北感を味わう失敗に敏感であり、これらを気にしています。怒りや軽蔑をもって反応したり、荒々しく反撃したりすることがあります。または、自尊心を守るために、引きこもったり、表向きはその状況を受け入れたりすることもあります。患者は失敗する可能性のある状況を避けることがあります。
診断
自己愛性パーソナリティ障害の診断を下すには、以下の5つ以上に示されるように、自分の価値についての過大評価、賞賛への欲求、共感性のなさが持続的に認められる必要があります。
- 自分の重要性や才能について、誇大な、根拠のない感覚を抱いている(誇大性)。
- 途方もない業績、影響力、権力、知能、美しさ、または素晴らしい恋という空想にとらわれている。
- 自分が特別かつ独特であり、最も優れた人々とのみ付き合うべきであると信じている。
- 無条件に賞賛されたいという欲求をもっている。
- 特権意識をもっている。
- 目標を達成するために他者を利用する。
- 共感性に欠けている。
- 他者を嫉妬しており、また他者が自分を嫉妬していると信じている。
- 傲慢かつ横柄である。
15年くらい前に知り合った友人と最近どうにも話が合わない。
結局のところ、私は彼を過大評価していたのだと思う。
私がこうあってほしいと思う人物ではなかったのだ。
それがわかってしまったので、もはや彼が何を言っても批判的になってしまう。
悪いのは私の方だ。それはわかっているつもりだ。
友人であることをやめなくても良いかもしれないが、距離は取った方がいい。
しばらく話すのをやめようと思う。
それだけでは「格」は決まらない!
というのなら、売り上げや洗練さや影響度を持ってしても過大評価と言える理由をちゃんと述べればいいと思うよ
さっきからなんか色々言ってるわりに結局何も言ってないので
うーんとね、、、エヴァが第何時かのアニメブームを牽引してクリエイターに影響を与えて商業的にも大成功した、ってのはわりと一般的な言説として存在してるよね?
はっきりいうが俺はファンでもないなんでもない、何度も言うけど一般的に存在してる言説を例に出しただけなの。なんでさっきもこれ言ってるのに俺をファン扱いするのかよくわからないんだけども。
てかまあ流れを見りゃわかると思うけど、そもそもエヴァの話が主題ではなかったからね。
君がエヴァを過大評価されてると思ってるのは、わかった、わかったよ。
とはいえもう20年以上前のことだから今から検証するのは大変だし、
今存在するああいった一般的な言説が人々の共通認識として撤回されるまで今更考えが変わることもないので、
俺が小学生の頃。
体育の授業が終わりに近づき、平均台(バランス台)をクラスの皆で片付けることになった。
あれは小学生1人では動かせないため2人から4人がかりで移動させていた。
女子2人で運んでいるチームがいて、俺はそこを手伝おうと彼女らに加わった。
そうすると他のクラスメイトも次々と加わり、平均台を6人くらいで運んでいる状況だ。
6人という人数はこの小ぶりな平均台からすると明らかに人員過剰でかえって運びにくいし危険。
また他にも女子2人だけ運んでいるチームがいた。
こっちは人数が十分すぎるから、俺は手を離しそっちのチームの手伝いに入った。
そのほうが全体として片付けというミッションは早く終わるから。つまり生産性が高い。
とにかく皆で運んでいるのだから最後まで皆で運べというみたいなことを言っていた。
年のいったおばちゃん先生だったし合理性よりも「教科書通り」を重視した結果だろう。
状況とか結果とか二の次なんだろう。
AI反対派の絵師がガイドライン違反の二次創作をしてるのを見て、改めて思った。
とにかく、ネットの絵師様達はイラストAIに対して攻撃的なのに、自分たちの振る舞いは自分勝手すぎる。以下に例を書く
AIの学習を著作権法違反で叩くのなら、自分たちのやりたい放題の二次創作を考え直せ。
お金を取ったり、ガイドライン違反が当たり前だったり、もはやモラルハザードなんだよ。
二次創作は著作権法における翻案権と同一性保持権の侵害なんだよ。法律に立ち返れ。
学習されてる!違反だ!ってその学習元こそ違反して作られてるじゃねえか。
学習元の利益を損ねる学習は違反だ?いやお前らの利益だって違法に得たものじゃねえか
絵師たちは二次創作は黙認だとかお目こぼしだというが、もはやそうされるのが当たり前だと思ってるだろ?
なんで自分たちで黙認だとか判断してるんだよ。何の権利があるんだ。
東方みたいに極めて寛大な作品もあるが、それをアニメやゲーム全体に拡げるな。
これもツイッターを代表する絵師界隈がムラコミュニティを形成してるのが悪い。
村社会の理屈で何でも決めてそれがネット全体に適用できると思うな。
まあ二次創作にはファン活動という面もあるから、無料で見られる場所に絵を描いてアップするのはまだわかる。
でもなんでfanboxとかskebで金取ってるんだよ。なんとも思わないのか。ダメに決まってるやろが。
人の著作物で金儲けするんじゃないよ。違法に盗んだもの売ってんじゃねよ。盗品市場か。
二次創作はやりたい放題なのに、トレパクには異様に厳しい。まるで殺人以上の重罪扱い。
トレパクを殺人以下の重罪にするな、実際には著作権法で違反の判例が出たこともないんだ。トレパクが違法とは限らない。
自分たちでルールを決めて、自分たちでトレパクを私刑して裁くな。なんで平然と立法と司法を兼ねてるんだよ。分立しろ。
そもそも絵師って、イラストレーターという単語が先にあって、イラストレーターのような大層な身分じゃないなあ、じゃあせめて絵師と名乗るか、という経緯で生まれた
へりくだった肩書のはずだったのに、絵師様でございみたいな態度の奴が多すぎる。
所詮ちょっと絵を描けるだけなんですみたいな謙虚なやつはいないのか。
そもそも絵師ってさ(笑)。お前ら浮世絵とか描けるのかよ。幕府お抱え絵師になれるのかよ。なれないだろ。
若いころからコミケが当たり前にあってネットが当たり前にある20代前半以下は、ある意味かわいそうだよ。
これって著作権法違反じゃないですか?とかお金取っていいんですか?とか顧みる機会がない。
ちょっとでも村の掟に背いて疑問を呈したらフルボッコになる環境だもんね。
先輩たちはちゃんと正しい教育をしないといけないんだよ、本来。
先日のスープストックの件でもちょっと言われてたが、無産という言葉は一部の人に精神的ダメージが大きすぎる。
自分の友人でも、10年くらいやっと不妊治療をして流産も経験してやっと子供産んだ人とか、
どうしても子供が欲しくても40代になって諦めた人も知ってる。
その人たちがこの言葉を聞いたらどう思う?
絵が描けないだけで生殖活動できないようなことな言葉、よく使えるな。
この言葉はひどい言葉だから言い換えましょうとか、振り返ったことありますか?自分は聞いたことがないね。
イラストAIが出てから、絵師たちの中には自分たちが攻撃されていることに驚いている人がいる。
いやこっちがびっくりだよ。今まで嫌われてなかったと思ってるの?
これだけモラルハザード起こしてて、かつ絵が描けない人を無能力者のごとくゴミ扱いしててさ。
所詮モラルハザード集団の大したことない絵師にもさ、なぜか推し文化が波及して囲いが付く。
推し絵師だとか寒い言葉を言い出す。こいつらが絵師様を調子に乗らせてる。
腰巾着のごとき囲いのやつらさ、君ら推すことが目的になってるだろ?推す価値がある対象か、考えたことあります?
一次創作してて、だれにも真似できない絵を描いてる人はえらいと思うよ。
そういう人の絵は楽しく見させてもらってます。
二次創作からスタートして一次創作するようになった人もまあわかる。
それに比べて一次創作もできないコバンザメ以下はもっと謙虚になって自覚を持てよ。
絵が描けるというのは人間の能力であるが、君たちはあまりにもその能力を過大評価しすぎ。
絵が描けない人たちを無能力者のようにゴミ扱いしてて罵倒してるだろ。
ちょっと将棋ができるからってなんだよとって腹が立つだろ?それと同じなんだよ。世の中の一つの能力にすぎない。
でもこれで人権の有無を決めるがごとく振舞えるのがすごいわ。
なぜここまで絵師が攻撃的なのかというと、絵を描けることだけがアイデンティティだからだよ。
そりゃ自分のアイデンティティが攻撃されてるなら過剰反応するよな。
あとろくに収入得てなくて二次創作で食いつないでる人も攻撃してるだろうな。
そう考えるとちょっと絵がかけるだけのニート崩れが食えてたのがおかしいんだよ。真っ当な職に就け。
これも不思議なのだが、AIは君たちから絵を描くことを奪ったりしない。
いや、描きたければ黙って描けばいいじゃん。一次創作者の利益を損ねない範囲で。
なのに絵が描けないと咽び泣く。
ようは絵を描くのが好きなのではく、チヤホヤされたい、承認欲求を満たしたいだけなんだろ?正直になれよ。
コミケだって100回以上の歴史がある。昔に何もないところから二次創作文化を立ち上げた人はえらいと思うよ。
ネットも携帯電話も一切ないころに、権利を勝ち取るべく頑張ったんだ。
それに比べて今のネット絵師の人たちは何の権利も勝ち取ってなく、いつの間にか得られた権利の上で甘えてる
フリーライダーなんだよ。わかる?
こないだの反AI絵師も、責められたらすぐに好きだから愛だからリスペクトしてるから許してくださいとか言う。
真に好きだったら一次創作者の権利を何も考えず侵したりしないよね。
責められなくても、好きだからいいよねとかすぐ言い出すやつがネットに多すぎる。
ホント言葉が軽いよな。愛とかリスペクトとかの言葉に対して遜色ない行動を取れているとは思えない。
AIイラストや絵師にまつわる問題は、法律やガイドラインについての問題なんだよ。
前も言ったけど絵師という言葉に対する異常なこだわり、滑稽すぎるよ。
君らが満足するのならAIプロンプターでもAIジェネレーターでも好きに言葉を作るよ。
それで満足なの?それが本当の問題なの?
あのさ、ファン活動・好きでやってる活動・趣味の活動でお金を使うのは当たり前だろ?
それなのに君たちはお金をかけないどころか、利益を出そうとしてる。
昔のようにネットもなく遠征して即売会で赤字覚悟で売ってるのはまだわからなくもない。
でもネットでデジタルで書いてデジタルでアップするのなんてそれよりめちゃくちゃコスト低いじゃんか。
それなのお金かけたくないとか、何言ってるの?
お絵描きツール代がかかる?だからさっきのキャンプ道具の例で考えてみろよ。
時給分のお金が欲しい?ファン活動なのになんで時給もらえるの?実は仕事なの?
だからなんで君たちがルールを決められるの?なんで勝手に線引きをするの?いい加減にしろ。
いいわけないじゃん。AIだろうと著作権法違反は同じなんだよ。そこはAIでも手描きでも変わらんよ。
それなのにAI絵師のウマ娘●ロだけ攻撃するんだもんな。ダブルスタンダードやめろ。
イラストAIを法律面で規制するなら、二次創作も法律で規制しろ、それでイーブンだ。
二次創作でお金を取るとかガイドライン違反をするとかもってのほかだ。というかそいつらは警察に逮捕されろ。
具体的には二次創作は申告制や許可制にするか、無料で誰でも見られる場所の絵のみ許可するかだ。
即売会でも無料で配布しろ。販売ではなく頒布なんだろ?ごっそり持ってく人がいるならせめて100円以下にしろ。
また一次創作元がガイドラインを定めるなら、それを金科玉条のように崇めて従え。
仕事は年々プレッシャーが強くなり(てか転職でか)自殺が常に頭をよぎり始める。まだ行動に至るまでではないが、常に頭をジブジブ焼かれている。
子供はいるがまだ小さい。わけあって一人で生きていくのは難しいかもしれない子だ。当然俺が死ぬ訳にはいかない。あの子にはどんな形でもいいから本人が幸せを感じて生きてほしい。多少他人に迷惑かけるかもしれん。俺が代わりに死ぬから許せ他人の方々。
仕事をしている人々はなぜ正気でいれるのか。実はみな自殺と隣り合わせて笑い合ってるのだろうか。かといってなんかほぼ責任とか増えずにやってる人々もそれはそれで別に幸せそうではない。
なんでみんなそんな普通に仕事してるんだ。土日も子供連れて友達の家に行って俺はずっとパソコンとにらめっこ。友達の子供と遊んでいたけど、全然かまえない。情けない、ダサい、カッコ悪い……そんなものになりたくなかった。颯爽と定時で仕事を終えていた俺はどこに行った。
10何年も無駄に年次だけ増えて、若い人のほうが仕事素早くできて、俺は足引っ張ってしかいない。でも給料だけはもらって…見合ってない高給がこんなに自分を追い込むとは思わなかった。有能だけが高給になるべきだなほんと。。いやできると錯角はしていたんだが。。
昔は尻拭いもしたことはあったが、拭われる方もなかなか辛いな。なんでこんなに無能なんだ俺は。子供がかわいそうだ。ウチに産まれてしまったお前に謝りたい。最低限食って行けるなら、あとは経済力よりもいかに子供のことを考えられる親か。金でなく時間をかけて、可能性を一緒に考えてあげて。できてない今俺はそれが。こんな人間ではなかったのに。仕事がつらい。
客は俺に高い金を払ってる。こんな無能に。本当に申し訳ない。下手したらこんな増田で身バレしてしまうかもしれない。「これあの無能高給おじさんじゃねwさっさと抜けろよw」とか…むしろそのくらい言っててくれ。会社にも迷惑がかかる。しかし吐き出さずには辛い……
適切な評価ってのは、つまり地獄への入口だよ…(俺のは過大評価かもしれんが)。出世したいよみたいな空気感を出すんじゃなかった、本当はのうのうと過ごしていたかった。
自決は多分保険金出ないよな、追い詰められたら田舎にでも行けばいいとか言うやつもいるが、追い詰められたら思考回路なんて回らん。もはや飲み屋の予約一つできなくなってきた。GWも予定はボロボロ。年金も今辞めたらめちゃしょぼい額になって、そこからどう生きていくんだ。。
身の丈、身の丈。それが一番だな。でも身の丈って自分じゃ全然わからない。
あーーー仕事が進まない。終わらないじゃなくて進まない。
そうやって「人生でさっさと消費しておかなきゃいけないコンテンツ」を次々積み上げていけば倍速でどうにかするしかなくなるだろうよ。
たとえば今の老害はのび太の宇宙小戦争やのび太の魔界大冒険を人生で必ず見るべき傑作として語るけどそんなレベルの作品なんかじゃないだろ。
まあその程度のカスは黙ってなさいってことだ。
「お前が無視すればいいだろ」っていうのは違うぜ?
電話してる時にくそウッセー選挙カーの騒音に邪魔されたのを「無視すればいいだろ?」で終わらせられるかって言うと違うだろ?
邪魔なんだよ。
くせー息をする口を閉じろって言わないと伝わらねえか?
これぐらいハッキリ言えば少しは伝わるか?
https://arxiv.org/pdf/2304.10466.pdf
試行錯誤によって方針を学習する深層強化学習アルゴリズムは、環境と積極的に相互作用することによって収集された限られた量のデータから学習しなければならない。多くの先行研究が、データ効率の良いRLを実現するためには適切な正則化技術が重要であることを示していますが、データ効率の良いRLにおけるボトルネックの一般的な理解は不明なままでした。その結果、すべての領域でうまく機能する普遍的な技術を考案することは困難であった。
本論文では、非定常性、過剰な行動分布シフト、オーバーフィッティングなどのいくつかの潜在的な仮説を検討することにより、サンプル効率的な深層RLの主要なボトルネックを理解することを試みている。
強化学習ってよく知らない
我々は、状態ベースのDeepMind control suite(DMC)タスクについて、制御された体系的な方法で徹底的な実証分析を行い、遷移の検証セットにおける高い時間差(TD)誤差が、深いRLアルゴリズムの性能に深刻な影響を与える主犯であり、良い性能をもたらす先行手法は、実際、検証TD誤差を低く制御することを示した。この観察から、ディープRLを効率化するための強固な原理が得られる。すなわち、教師あり学習の正則化技術を利用することで、検証TD誤差をヒルクライムできる。
誤差を減らすのがDeepLearningだけど、それが時間差なのか。
我々は、検証TD誤差をターゲットとするシンプルなオンラインモデル選択法が、状態ベースのDMCとGymタスクにおいて効果的であることを示す。
1 はじめに
強化学習(RL)法は、大容量の深層ニューラルネット関数近似器と組み合わせた場合、ロボット操作などのドメインで有望視されている(Andrychowicz et al、
2020)、チップ配置(Mirhoseini et al.、2020)、ゲーム(Silver et al.、2016)、データセンターの冷却(Lazic et al.、2018)。アクティブなオンラインデータ収集の単位ごとに費用が発生するため(例.
実際のロボットを動かす、シミュレーションによるチップ評価など)、限られた経験量でも効率的に学習できる、サンプル効率の良い深層RLアルゴリズムを開発することが重要である。このような効率的なRLアルゴリズムの考案が、近年の重要な研究課題となっています(Janner et al、
2019; Chen et al., 2021; Hiraoka et al., 2021)。
原理的には、オフポリシーRL法(例えば、SAC (Haarnoja et al., 2018), TD3 (Fujimoto et al., 2018), Rainbow (Hessel et al., 2018))は、データ収集のステップごとに多くの勾配ステップのポリシーと値関数を改善することを可能にするため、良いサンプル効率が得られるはずです。しかし、このメリットは実際には実現できないようで、1回の学習ステップを多く取りすぎることでを収集した各遷移は、多くの環境において実際にパフォーマンスを害する。過大評価(Thrun & Schwartz, 1993; Fujimoto et al., 2018)といったいくつかの仮説、非定常性(Lyle ら、2022)、またはオーバーフィッティング(Nikishinら、2022)が根本的な原因として提案されている。
これらの仮説に基づき、より多くの勾配ステップを持つオフポリシーRLを可能にする方法として、モデルベースのデータ増強(Jannerら、2019)、アンサンブルの使用(Chenら、2021)、ネットワークの正則化(Hiraokaら、2021)、再生バッファを維持しながらRLエージェントをゼロから定期的にリセット(Nikishinら、2022)などのいくつかの緩和戦略が提案されている。これらのアプローチはそれぞれサンプル効率を大幅に向上させるが、これらの修正の有効性は(これから示すように)タスクに大きく依存する可能性があり、根本的な問題やこれらの手法の挙動を理解することはまだ未解決である。
ICLR 2023で会議論文として発表 本論文では、より多くの勾配ステップを取ることが深層RLアルゴリズムの性能悪化につながる理由、ヒューリスティック戦略が役立つ場合がある理由、そしてこの課題をより原理的かつ直接的な方法で軽減する方法を理解しようとするものである。
最近提案されたタンデム学習パラダイム(Ostrovski et al., 2021)を用いた実証分析を通じて、TD学習アルゴリズムは、学習の初期段階において、すぐに高い検証時間差(TD)誤差(すなわち、保留した検証セットにおけるQ-ネットワークとブートストラップターゲットの間の誤差)を得る傾向にあり、悪い最終解をもたらすことを明らかにする。
このホワイト ペーパーでは、深い RL アルゴリズムで勾配ステップを増やすとパフォーマンスが低下する理由、場合によってはヒューリスティック戦略が役立つ理由、およびこの課題をより原則的かつ直接的な方法で軽減する方法を理解しようとします。 最近提案されたタンデム学習パラダイム (Ostrovski et al., 2021) を使用した実証分析を通じて、トレーニングの初期段階で、TD 学習アルゴリズムが高い検証時間差を迅速に取得する傾向があることを示します。
(TD) エラー (つまり、保留された検証セットでの Q ネットワークとブートストラップ ターゲットとの間のエラー) が発生し、最終的なソリューションが悪化します。 さらに、データ効率の高い RL 設定のために考案された多くの既存の方法が、検証 TD エラーを低く制御する限り有効であることを示します。
この洞察は、深い RL を効率的にするための堅牢な原則を提供します。データ効率を向上させるために、検証 TD エラーを山登りすることによって、特定の問題に最も適した正則化を選択するだけです。
この原則は、オンラインRLトレーニングの過程で特定のタスクに最適な正則化戦略を自動的に発見しようとする単純なオンラインモデル選択方法の形で実現され、これを検証TDエラーを使用した自動モデル選択(AVTD)と呼びます。
AVTD は、各エージェントが異なる正則化を適用する共有リプレイ バッファーで、いくつかのオフポリシー RL エージェントをトレーニングします。 次に、AVTD は、環境内で動作するための検証 TD エラーが最小のエージェントを動的に選択します。
この単純な戦略だけでも、多くの場合、さまざまな Gym および DeepMind コントロール スイート (DMC) タスクで個々の正則化スキームと同様のパフォーマンスを発揮するか、それを上回ることがわかります。 重要なのは、パフォーマンスがドメイン間で大幅に異なる可能性がある以前の正則化方法とは異なり、私たちのアプローチはすべてのドメインで堅牢に動作することに注意してください。
要約すると、私たちの最初の貢献は、サンプル効率の高いディープ RL のボトルネックの実証分析です。 これらの課題の背後にあるいくつかの潜在的な説明を厳密に評価し、トレーニングの初期段階で高い検証 TD エラーを取得することが、データ効率の高いディープ RL のパフォーマンスを阻害する最大の原因の 1 つであることを観察します。 私たちの 2 番目の貢献は、単純なアクティブ モデル選択法 (AVTD) です。これは、検証 TD エラーの山登りによって正則化スキームを自動的に選択しようとします。 多くの場合、私たちの方法は、さまざまな Gym および DMC タスクで、最適な個々の正則化スキームに匹敵するか、それを上回ります。