はてなキーワード: 潜在的とは
オープンソースだと、無償の名の下に自分に都合の良いものを世の中に広げて、別の稼ぎの足がかりにしたりする。
つまり例えば自社製品向けの潜在的市場を作ってたりするんだよ。
Android なんかが良い例だ。あれも無償でオープンソースのOS(一部無償プロプラ含む)をバラまいて、自社のアプリストアやOSの仕様を通じて、アプリストア税を取ったりOSのログから効果的な広告を出せるようにしてより高額な広告を売ってる。他社がアプリストアを出しても勝てないだろ?その理由は Android が先に OS ごと無償でデファクトになってしまってるからだ。
ああいう会社はいわゆる三段論法的な考えで、「無償行為AでBという環境を作る」「Bの環境で自社製品Cを売れば儲かる」と考えられるから無償行為Aをすることができる。
逆に日本の企業は、ほとんどが「製品Aを売ったら儲かる」というビジネス以外できない企業が多すぎないか?と思ってる。そういう訳なのでオレは Abema がやってることはやる価値があると思うぞ。
最近ネットで炎上している問題、政治の問題はむかしからいつも (しかもネットに限らない) だけど、ここ最近だとスープストックトーキョーの問題だったり、ジェンダーレストイレの問題だったり *1 、食品添加物の問題だったり、過激なクレーマーの問題だったり、人身事故の問題だったり *2 、新型コロナ収束の問題 (これは5月で確定したようなものだが) だったり、はてな内で話題になったつみたてNISAやDCだったり、いろいろな問題をみているけれど、総じていえるのは、
日本は男性だろうが女性だろうが関係なく生きづらい場所になっているのではないか
というところ。よく女性活躍の世界ランキングは下からかぞえたほうがはやいとかよくいわれるけれど、女性が活躍しづらいのはそうなのだが、男性も活躍しづらいのだ。テレビとかも深夜番組とニュース番組以外は炎上をすこしでもさけるためなのか「無難な」内容しか放送しないようになってしまったし。
自分はどの問題にたいしてもファイアーエムブレムifよろしくあえてどちら側の味方にもつかず *3 、別の観点からみているけれど、ただでさえ日本は (世界からみると) せまいのに、東京圏や大阪圏に人口が集中しすぎたせいでキャパオーバー。それでも日本人は価値観が多様にあるうえに自分第一主義になっている人がおおすぎるせいで、人が多い場所で (政治と食品添加物と年金はちがうが) このような問題がおきるとすぐに炎上してしまう。どちらの味方についたところで反対の味方 (つまり敵) からの攻撃がたえないため、おさまるのにも時間がかかる。
「女の敵は女」なのではなく、「女の敵は男女両方」であり、「男の敵は男女両方」でもあるのだ (どちらでもない性別の場合でもおなじ) 。価値観が多様にありすぎるせいで全員を味方にすることはまず不可能 (そのかわり全員を敵にまわすこともそうそうないだろう この記事にかぎっていえば読者全員を敵にする前提で書いたが) 。
優秀な人たちはみんな海外ににげるのもわかるかもしれないが、政治関連の問題にかぎらずこういう問題からはなれたいというのもあるのかも。
日本はいちどこういうのを推進していく国と反対していく国に分断させたら冗談ぬきでおもしろいことになりそうなのだが、実際どうなんだろう。でも、
こんな世界、終わっちゃえばいい
『世界の終わりから』主役! 現役高校生・伊東蒼「絶望にもこんなに種類があるんだと学んだ」 | ananニュース – マガジンハウス
...日本はいい方向にむかうことがないだろうという前提で書きたいことばかり書いてしまったが、この記事が炎上しなければいい、ブックマーク数もふえなければいい、だれもよまなければいい!
最近書いた記事のなかではめずらしくはてなブログとはてな匿名ダイアリーのどっちに投稿するか、書きおわるぎりぎりまでなやんだ記事だけれど (注釈の文章ははてなブログに投稿する前提でたくさん書いたもの 下書き保存もはてなブログにしていた) 、こっちに投稿することにした。ある意味これもひとつのifか。はてなガチ勢だと文章の書きかたでだれなのかわかるかもしれないけれど、それでもここまでとりみだしたながい (2000文字くらいの) 文章はうまれてはじめて書いた。
*1: さすがにこれは東急歌舞伎町タワーの他階にふつうのトイレがあるというのがわかりにくすぎる施設デザインに問題があると思うが。開業初日にいったけど、フロアガイドの看板の5Fの部分に「トイレ」ってかいてあったけれど、ウェブサイトのフロアガイドにトイレの表示がないこともありほかの人がトイレにはいるまでどこにあるかわからなかった。2・5・17F以外は施設内にしかトイレがない (うえにフロアガイドの看板とウェブサイトのフロアガイドでの記載が一致していない これはさすがに問い合わせをおくった) し、2Fのジェンダーレストイレも深夜時間帯は店員にカギをもらわないと利用できないし、場所が場所だからなんだろうが、トイレだけ利用する人はお断りしようという強い意志だけは感じた。
*2: 意外とあかるみにでにくい問題だが、他人に迷惑をかけないようにしろ派とがんばって生きろ派で分断している。なお、日本においては他人に迷惑をかけないという方法は存在しない。国は精神面でのサポートをもっと充実させるべきだとおもう。
*3: この記事とは関係ないが、2023年3月にニンテンドー3DSでのニンテンドーeショップのサービスが終了してしまったため、これからファイアーエムブレムifを新規ではじめる人には「どちらにも協力しない」を選択する手段がなくなってしまったのは残念 (1度でもこれを選択したことのある本体であれば当面は再ダウンロードできる) 。そういえば、ファイアーエムブレムifもそうなのだが、日本と海外での表現規制の差が話題になることもたびたびある。自分は創作物の表現規制はとくにむずかしい問題ということもあり、賛成はしないが反対もしない立場 (そのため選挙で投票するときも表現規制の賛否については考慮していない) 。
「ひとりで静かに過ごせる時間」ってワードは差別性を孕んでる。
「黒人を見かけないで済む時間」とか、「車椅子にぶつからないで済むエレベーター」と同じ。
あなたが今ひとりで静かに過ごしてる場所は、赤ちゃん連れを排除してるからこそ成立してるんだよ。
自宅の自室だって、例えば緊急時、地震津波のときなんかには譲れる機会があるかもしれない。
お互いに寛容になる。それが社会だ。
厳しい事を言うけど、未来の子育てにつながる努力を学生時代にしてこなかったのだから、まずせめてカネは出すべきだし、当然赤ちゃんや子連れ、家族づれを受け入れるべき。
それとあなたは社会のために自分を『無敵の人』にしないような努力をしなくちゃならないよ。
恋愛以外の人間関係の記述は少ないが、もし仮に人間関係もすべて絶って真のおひとりさまを謳歌してるならば、それは本質的に危険だと忠告する。
無敵の人は社会の潜在的なリスクだ。あなた自身から社会を守れるのはあなただけだ。赤ちゃんたちの笑顔を思い浮かべてくれ。彼/彼女たちを泣かさないために、最大限の意思を振り絞る責務がある。
https://arxiv.org/pdf/2304.10466.pdf
試行錯誤によって方針を学習する深層強化学習アルゴリズムは、環境と積極的に相互作用することによって収集された限られた量のデータから学習しなければならない。多くの先行研究が、データ効率の良いRLを実現するためには適切な正則化技術が重要であることを示していますが、データ効率の良いRLにおけるボトルネックの一般的な理解は不明なままでした。その結果、すべての領域でうまく機能する普遍的な技術を考案することは困難であった。
本論文では、非定常性、過剰な行動分布シフト、オーバーフィッティングなどのいくつかの潜在的な仮説を検討することにより、サンプル効率的な深層RLの主要なボトルネックを理解することを試みている。
強化学習ってよく知らない
我々は、状態ベースのDeepMind control suite(DMC)タスクについて、制御された体系的な方法で徹底的な実証分析を行い、遷移の検証セットにおける高い時間差(TD)誤差が、深いRLアルゴリズムの性能に深刻な影響を与える主犯であり、良い性能をもたらす先行手法は、実際、検証TD誤差を低く制御することを示した。この観察から、ディープRLを効率化するための強固な原理が得られる。すなわち、教師あり学習の正則化技術を利用することで、検証TD誤差をヒルクライムできる。
誤差を減らすのがDeepLearningだけど、それが時間差なのか。
我々は、検証TD誤差をターゲットとするシンプルなオンラインモデル選択法が、状態ベースのDMCとGymタスクにおいて効果的であることを示す。
1 はじめに
強化学習(RL)法は、大容量の深層ニューラルネット関数近似器と組み合わせた場合、ロボット操作などのドメインで有望視されている(Andrychowicz et al、
2020)、チップ配置(Mirhoseini et al.、2020)、ゲーム(Silver et al.、2016)、データセンターの冷却(Lazic et al.、2018)。アクティブなオンラインデータ収集の単位ごとに費用が発生するため(例.
実際のロボットを動かす、シミュレーションによるチップ評価など)、限られた経験量でも効率的に学習できる、サンプル効率の良い深層RLアルゴリズムを開発することが重要である。このような効率的なRLアルゴリズムの考案が、近年の重要な研究課題となっています(Janner et al、
2019; Chen et al., 2021; Hiraoka et al., 2021)。
原理的には、オフポリシーRL法(例えば、SAC (Haarnoja et al., 2018), TD3 (Fujimoto et al., 2018), Rainbow (Hessel et al., 2018))は、データ収集のステップごとに多くの勾配ステップのポリシーと値関数を改善することを可能にするため、良いサンプル効率が得られるはずです。しかし、このメリットは実際には実現できないようで、1回の学習ステップを多く取りすぎることでを収集した各遷移は、多くの環境において実際にパフォーマンスを害する。過大評価(Thrun & Schwartz, 1993; Fujimoto et al., 2018)といったいくつかの仮説、非定常性(Lyle ら、2022)、またはオーバーフィッティング(Nikishinら、2022)が根本的な原因として提案されている。
これらの仮説に基づき、より多くの勾配ステップを持つオフポリシーRLを可能にする方法として、モデルベースのデータ増強(Jannerら、2019)、アンサンブルの使用(Chenら、2021)、ネットワークの正則化(Hiraokaら、2021)、再生バッファを維持しながらRLエージェントをゼロから定期的にリセット(Nikishinら、2022)などのいくつかの緩和戦略が提案されている。これらのアプローチはそれぞれサンプル効率を大幅に向上させるが、これらの修正の有効性は(これから示すように)タスクに大きく依存する可能性があり、根本的な問題やこれらの手法の挙動を理解することはまだ未解決である。
ICLR 2023で会議論文として発表 本論文では、より多くの勾配ステップを取ることが深層RLアルゴリズムの性能悪化につながる理由、ヒューリスティック戦略が役立つ場合がある理由、そしてこの課題をより原理的かつ直接的な方法で軽減する方法を理解しようとするものである。
最近提案されたタンデム学習パラダイム(Ostrovski et al., 2021)を用いた実証分析を通じて、TD学習アルゴリズムは、学習の初期段階において、すぐに高い検証時間差(TD)誤差(すなわち、保留した検証セットにおけるQ-ネットワークとブートストラップターゲットの間の誤差)を得る傾向にあり、悪い最終解をもたらすことを明らかにする。
このホワイト ペーパーでは、深い RL アルゴリズムで勾配ステップを増やすとパフォーマンスが低下する理由、場合によってはヒューリスティック戦略が役立つ理由、およびこの課題をより原則的かつ直接的な方法で軽減する方法を理解しようとします。 最近提案されたタンデム学習パラダイム (Ostrovski et al., 2021) を使用した実証分析を通じて、トレーニングの初期段階で、TD 学習アルゴリズムが高い検証時間差を迅速に取得する傾向があることを示します。
(TD) エラー (つまり、保留された検証セットでの Q ネットワークとブートストラップ ターゲットとの間のエラー) が発生し、最終的なソリューションが悪化します。 さらに、データ効率の高い RL 設定のために考案された多くの既存の方法が、検証 TD エラーを低く制御する限り有効であることを示します。
この洞察は、深い RL を効率的にするための堅牢な原則を提供します。データ効率を向上させるために、検証 TD エラーを山登りすることによって、特定の問題に最も適した正則化を選択するだけです。
この原則は、オンラインRLトレーニングの過程で特定のタスクに最適な正則化戦略を自動的に発見しようとする単純なオンラインモデル選択方法の形で実現され、これを検証TDエラーを使用した自動モデル選択(AVTD)と呼びます。
AVTD は、各エージェントが異なる正則化を適用する共有リプレイ バッファーで、いくつかのオフポリシー RL エージェントをトレーニングします。 次に、AVTD は、環境内で動作するための検証 TD エラーが最小のエージェントを動的に選択します。
この単純な戦略だけでも、多くの場合、さまざまな Gym および DeepMind コントロール スイート (DMC) タスクで個々の正則化スキームと同様のパフォーマンスを発揮するか、それを上回ることがわかります。 重要なのは、パフォーマンスがドメイン間で大幅に異なる可能性がある以前の正則化方法とは異なり、私たちのアプローチはすべてのドメインで堅牢に動作することに注意してください。
要約すると、私たちの最初の貢献は、サンプル効率の高いディープ RL のボトルネックの実証分析です。 これらの課題の背後にあるいくつかの潜在的な説明を厳密に評価し、トレーニングの初期段階で高い検証 TD エラーを取得することが、データ効率の高いディープ RL のパフォーマンスを阻害する最大の原因の 1 つであることを観察します。 私たちの 2 番目の貢献は、単純なアクティブ モデル選択法 (AVTD) です。これは、検証 TD エラーの山登りによって正則化スキームを自動的に選択しようとします。 多くの場合、私たちの方法は、さまざまな Gym および DMC タスクで、最適な個々の正則化スキームに匹敵するか、それを上回ります。
その名に恥じない本当に美しい楽器だと、いち愛好家として思う。
しかしながら当然この楽器にもアンチはいて、嫌う理由は様々だが、特に見過ごせないのは
「なんだかお高く止まっている」
だろう。
少なくともヴァイオリンという楽器は、奏者のエネルギーを直接ぶつけるが如く弾くようにはできていない。
もう少し正確に言うなら、クラシックのヴァイオリンの奏法が、そういう弾き方を端から否定しているということになる。
具体的には、基本の基本として学ぶ「デターシェ」という奏法が、ヴァイオリンという楽器の性質を完全に固定してしまっているというか。
そしてこれこそが、実は奏者の性格をも良からぬ方向に変えてしまっているのでは…という話をしたいと思う。
デターシェ/デタシェはフランス語の"detache"のことで、英語でこの言葉に当たるものは"de-touch"らしい。
この言葉が示す通り、ヴァイオリンの基本の弾き方においては、ハッキリと「弓で弦をこすっている」感覚はほぼ皆無である。
(かといって浮遊感があるわけでもない)
なぜなら、ヴァイオリンは弓の木の重さだけで弦をこする楽器だからである。
言い換えるなら、多くの人がヴァイオリンは手や腕の筋力で、弓を弦に「押し付けて」こすると誤解しているわけだ。
だから未経験者はもちろん、未熟な人が弾くヴァイオリンは「しずかちゃん」と揶揄される、ギーギーガリガリしたノイズまみれになってしまうのだ。
ではどうしてこのような弾き方がヴァイオリンの基本になったかと言えば、そもそもヴァイオリンは当時の楽器では特大レベルで大きな音がする楽器であり、音量よりも音質が問題になったからと推測される。
音が大きいということは美音も雑音も大きな音で再生されやすいということであり、そこで奏者の体に極力負担が少なく、かつ美音だけを選択的に出す方法を極めた結果、行き着いたのがデターシェと。
ちなみにこのデターシェがきちんと出来ているかは、ある程度以上の腕前を持つヴァイオリン奏者だったら、プロアマ問わず聴いただけで判断できる。
すなわち「芯があって抜けのある音」という、非常に特徴的な、上質としか言いようのない音がするのだ。
例えるならアコースティックのギターやハープが「ポーン」と弦を弾いた音のような、アタックがあって、そこから非常に緩やかに減衰していく、不自然さを感じさせない音。
これがヴァイオリンが誕生した当時のヨーロッパにおいて、美音とされたサウンドとも言える。
そしてこの奏法を完璧に習得した(つまり呼吸をするかのようにデターシェで弾けるようになった)奏者は、それ以降どう頑張っても汚い音では弾けなくなる。
それこそどんなに激しい曲でもノイズを一切発生させることなく弾けるようになるし、だからこそ基礎の基礎と言える奏法なのだ。
(もしデターシェを習得しない状態で激しい曲を弾いたら、音が荒っぽくなって大惨事だろう)
では、そういう「ちゃんとした」弾き方ができるようになった奏者がどうなるかというと…耳もまた変化するのである。
つまり耳が「クラシックなヴァイオリンの上質な音」に最適化されるため、それを否定するかのような音に強い違和感を覚えるようになる。
そんな耳の変化は、最終的に奏者の感性をも大きく変えることになる。
具体的には、まずデターシェで弾けていない人を「かわいそうな人」あるいは雑魚扱いするようになる。
更にデターシェで弾けていても、デターシェを根幹とする「クラシカルに美しい音」の価値観に重きを置かないような、抜けのない濃すぎる音や、
あるいはインパクト重視だったり勢い任せの弾き方を多用するヴァイオリン奏者を嘲笑し、軽蔑するようになるのである。
どんなに上手い人であっても高確率で「残念な人」「分かっていない人」とみなされ、なんなら「何も知らない素人を騙すしか能がない」とさえ言われる。
しかし…これを差別主義と言わずしてなんと言うのだろう?エリート主義?
音楽は本来自由なものであって、「~しなさい」も「~するな」も、可能な限り不要ではないだろうか。
自分を含むヴァイオリン弾きは「美」を追求していたはずなのに、そこからかけ離れた、なんだか醜悪な感性が身に付いてはいないだろうか。
そうは言っても、もはや自分の耳は、粗野だったりわざとらしいヴァイオリンの音色を受け付けなくなってしまった。
とんでもなく耳にキツく響く上に、そんなものを何時間も聞かされた日には胸が苦しくなる。
自分が追求していることと違いすぎる音を、同じヴァイオリン弾きという「近すぎる」人種が平然と奏でる様子が、しんどくてたまらない。
これがエレキギターとかの他の楽器だったらどんなに良かっただろう。
まさか上手くなることでこんな悩みが生まれ、そして軽蔑される側だったはずがいつの間にか軽蔑する側に回ってしまうとは…暗澹たる思いである。
過疎板ほど糞スレにうるさい奴がいる気がする。同人板とかで糞スレ立てても誰も書き込まないだけでいちいち糞スレとか書き込まれない。なんjはいわずもがな。
過疎じゃないってことはその分だけ潜在的にそのスレの存在を認識し得る人間がそれだけ多いってことで、その分だけ誰かしらに糞スレと書き込まれる可能性も持っているわけだけども、なぜか過疎板のほうが茶々を入れて来る人間との邂逅率は高い。
これはどういうことなんだろうね。自分が見てる板も数日おきには板テーマと無関係なポエムみたいなスレ立てる人いるんだけど都度糞スレと書き込まれてる。
ようするに糞スレなんていくら書き込んでも無意味って学習するべきなはずだ。そもそもそういう奴は複数いるし入れ替わってもいるかもしれない。かりに糞スレと言い続けて一人潰せたところで新しい奴に変わるだけだから何も意味がない。人口は減少してるといえども新しく5chを知って書き込みにいく人は毎日のように発生してるんだから無意味なんだよ。
そういうやっても仕方がないことを続ける心理はなんなのかなって思う。しかも過疎板の住民に限って。過疎板を好むこととこの心理はなんらかの因果関係で結ばれてるんだろうか。
いや、そーいう話じゃなくて(まぁ社内の機密情報を投げる社員が問題ないか?と言えばフツーに問題はあるし既にしてるヤツはおる模様)、
むちゃくちゃ簡単で常識的なことであれば、ChatGPTは自然な回答を返すを実現する過程で溜め込んだデータでパターン回答してくれるけど、
ほんの少しでも専門性を必要とすることになるとマジで素の状態じゃぜんぜんダメだぞ
ITの質問とかでも間違った回答返すし、それ以外の雑談レベルでも完全に素の状態じゃこんな感じやで
ワイ: ChatGPTの定義では宇宙共通の時間が存在するとなっているのですか? ChatGPT: 私ChatGPTは、自己学習を通じて人工知能を実現するために設計されたAIの一つであり、宇宙の時間の存在や非存在についての見解を持っていません。私は、与えられた情報や文脈に基づいて自然言語で回答することができますが、自分自身で新しい情報を創出することはできません。したがって、私自身が宇宙共通の時間の存在についての見解を持っているわけではありません。 ワイ: ChatGPTは下記の認識はありますか? Carlo Rovelli and Francesca Vidotto: "Covariant Loop Quantum Gravity: An Elementary Introduction to Quantum Gravity and Spinfoam Theory",Cambridge University Press ChatGPT: 私ChatGPTは、Carlo RovelliとFrancesca Vidottoによる「Covariant Loop Quantum Gravity: An Elementary Introduction to Quantum Gravity and Spinfoam Theory」について、その内容や研究成果についての知識を持っていますが、それを詳細に説明することはできません。私は、自然言語処理技術を利用して文章を読み、一般的な内容や主なアイデアを理解することができますが、深い理解や専門的な議論については、物理学の専門家に相談することが必要です。 ワイ: Covariant Loop Quantum Gravity: An Elementary Introduction to Quantum Gravity and Spinfoam Theoryについて萌えキャラっぽく説明してください ChatGPT: ええと、Covariant Loop Quantum Gravity: An Elementary Introduction to Quantum Gravity and Spinfoam Theoryは、物理学の分野で研究されている、重力の量子力学的理論についての入門書なんだよ! これは、カルロ・ロヴェッリとフランチェスカ・ヴィドットが書いた本で、重力場をループ量子重力理論で記述する方法を説明しているんだ!さらに、スピンフォーム理論に基づいて、時空の量子化の方法も解説しているよ! 重力場や量子力学に興味がある人には、必見の本だよ!まだ高度な数学が必要だけど、興味深いアイデアがたくさん詰まっているんだ!萌えキャラとしては、とっても知的で魅力的な本って感じかな!
ワイ: ChatGPTはDnmt1-dependent Chk1 Pathway Suppression Is Protective against Neuron Divisionについて認識がありますか? 細胞が増えるということは、細胞の遺伝情報であるDNAが複製され、それを分配する細胞分裂が繰り返されることです。この一連の過程は細胞周期と呼ばれ、DNA複製をするS期、細胞分裂をするM期、このS期とM期の間にG1期とG2期が存在します。ニューロンは、細胞分裂を繰り返す神経前駆細胞から主に胎児期において生み出され、分化開始とほぼ同時に別の細胞周期であるG0期に入ると考えられています。 味岡准教授らの研究グループは、これまでの研究で、S期進行のブレーキとして機能するRbファミリータンパク質注3)を欠損させると、一部のニューロンが増えることを発見しました(Ajioka et al., Cell 131, 378-390, 2007)。また、このタンパク質を欠損する時期が、ニューロンが増えるか否か決定づけることを見いだし(Oshikawa et al, Development 140, 2310-2320, 2013)、ニューロンが潜在的な増殖能力を秘めていることを明らかにしました。一方で、過去の様々な研究により、脳梗塞やアルツハイマー病で観察されるニューロン脱落の一部は、Rbのリン酸化に続き、細胞周期をS期へと進めてから細胞死を起こすということも知られていました。 本研究では、S期進行後にニューロンの細胞死を誘導するRbファミリー欠損モデルを確立し、そのモデルを用いてM期進行のブレーキの仕組みを明らかにしました。また、そのブレーキを解除する低分子化合物カンプトテシンを同定しました。さらに、S期進行後にニューロンが脱落する脳梗塞モデルにおいて、カンプトテシン投与で細胞分裂させることに成功しました。 ChatGPT: 申し訳ありませんが、私はこの研究について直接的な認識を持っていません。ただし、この研究はニューロンの増殖や死亡、脳梗塞のメカニズムに関するもののようですね。Rbファミリータンパク質やカンプトテシンについては少し知っていますが、具体的な研究内容については詳しくはありません。ごめんなさい
https://wired.jp/article/4chan-good-smile/
一方、グッドスマイルカンパニーは21年、将来的な雇用関係を巡る訴訟と関連して、ロサンゼルスオフィスの元従業員たちに反訴されている。
この訴状で元従業員たちは、グッドスマイルカンパニーが潜在的に不快で性的に露骨なロリコンアニメ関連商品の流通に責任があるだけでなく、ファミリー向け商品の企業パートナーに知られていないことではあるが、4chanにも資金を提供していると主張している。
しかし、「潜在的に不快で性的に露骨なロリコンアニメ関連商品の流通」というまでの人間が
とにかく、裁判に勝つための方便として社会正義を背負った気がするが
これはもう、フェミサヨが我が意を得たりとはっちゃけちゃうかもな
的な
Q: ある初期ノードu0があり、u0が持つ情報はf(u0)で表すことができる。次の状態はu1iで表され、遷移はP(u1i|f(u0))によって行われる。ここで、f(u0)の中に、制御可能情報c0 ⊂ f(u0)があるとして、このc0を操作することを考えるとする。このようなタイプの問題の具体例を列挙してください。
あなたが説明している問題は、部分観測可能マルコフ決定過程(POMDP)として知られています。システムの状態が部分的にしか観測できず、不確実な観測に基づいて行動を起こさなければならないようですね。
以下は、制御可能な情報を持つPOMDPとしてモデル化できる問題の具体例です:
end basketball
Gorilla: DmBH1Uz_DsRFWA5_ypliKpibX_36ldvvyqndo6q4N00jPtBhP5TT2_tNAaWnXGfkQpYXN53tLvzp7o3Wj8VSCGrUOi9OizIa2I1zF8gtcy_t_SXsPIVXrPdnfcSAbdtjAlBYIqaSQjktYuEqPJzOjfHuhm1w7OxbU8dhuD7aXIZ6ijtvWwG3OaCETDSqUa2fp1NIRrj7u200jJvKzViMju_OsgFA8XVwfCzjElW0IUfhOdge8XEL83Yrzfzk9JXv8NhOZhKqQPCa2uwPUIjBSTgDuWkuiT4vQ4n3dfPQUqiIuiXM72BOszLgYID8khevsK37vW5VeUwDIPBVPrPEfE5Besj5N6O9Ybb1XCwFlnJbbGE951C1VxdYNijNDFU0G_Edjc5HhghbY2iVI9yLTkiDptVruSr48EusHgOA4ZHNfNPLDENY6OSjD6xN963GIjSRnWjSwU3rmSl7UJ9McIB1w4D7eg7DUtzSn2G8juQYl9LwB69yEQBVdMHSLEWs2WaFfYMg_FoRGdDpfwprTw2xSyAuEHBJ5m5MkqUgLfBgoGy5QG0sAz3V22TCn5pXpQw9eHs7sCOe7pSPZA8_oWN5L8E2xtQ0ex8SA1tYeHulWqWEjeRKdZCdYFNmd5WrMdqk7u_eKJP4k7fF9Gon3vmgYKfWt7PIaDiGvnx6Ne7n5VgJQ4RJBx7kGnwK3boEGxH5m6M2tZKKAE8JVvEkQrqlGvWHJMI4mkUmSgPdvqIw4u4oqaUmZPJwBAxThkF6marF7zZkJx0XnoiJYqGe5AauiH1F66DYGgbFAz3JdSNsJq0Y_rsEsIyNzN06btWoGeDGanhjf1xKQupGsV0S5i8g3xkA3bFDH9FQBSlUcC8VAdmPVOugHTGhfyO35BhkG8q_M6iBMgH4ek8_o1GwJWxesRxm90sD3UeIoMUcyhB2MEH0XzenHuI2tiKOL7CHSS2aHKjXdJTTFtOkbNqLCxDGOi2L8yWyZEG3qzBoGt7VPj11zmizrFggm3myrj2R