はてなキーワード: ベイズとは
この問題は量子力学の情報論的解釈とエントロピーの動きもんを扱うんや。
ここでは、量子ベイズっちゅうもんを使うて、「主体(見る奴)」「対象(見られる奴)」「環境」の3つがおる場合に、対象が環境や主体とからんだ時のエントロピーの変化について話すで。
対象が環境とからむと、対象の量子状態が環境とモツレて、キレイな状態からグチャグチャな状態になんねん。これで、対象のエントロピーが増えるんや。
主体が対象を見ると、主体から見た対象の状態がハッキリするんや。これは対象のことをよう知ったってことやから、エントロピーが減るってわけや。
観測で対象の状態に対する主体の考えが変わんねん。この考えの変わり方はベイズ則っちゅうもんに従うて、確率的な情報の変化を表すんや。
ほんじゃ、この2つの過程がエントロピーにどう影響するか、数式で説明したるで。
ρ_obj' = Tr_env [ U (ρ_obj ⊗ ρ_env) U† ]
量子エントロピーはフォン・ノイマンエントロピー S(ρ) = -Tr(ρ log ρ) で表すんや。
デコヒーレンスで対象はキレイな状態からグチャグチャな状態になって、エントロピーが増えんねん:
S(ρ_obj') > S(ρ_obj)
環境とのからみ合いが進むと、対象の状態は環境の情報を失うて、一番グチャグチャな状態に近づくんや。
主体が対象を見ると、波動関数が縮むから対象の状態がハッキリして、エントロピーが減んねん:
S(ρ_obj^posterior) < S(ρ_obj^prior)
主体が観測で対象のことを知る過程は、量子ベイズ則に従うんや。
量子ベイズの考え方に従うと、観測後の考え(後分布)は観測前の考え(事前分布)を観測結果で更新すんねん。観測前後のエントロピーの差はこう説明できんねん。
H_prior = -∑_i P(i) log P(i)
P(i|O) = P(O|i)P(i) / ∑_j P(O|j)P(j)
H_posterior = -∑_i P(i|O) log P(i|O)
H_posterior < H_prior
が成り立つんや。
この不等式はエントロピーが減ることを示して、観測が情報を得て対象の状態をハッキリさせる効果があるってことやで。
量子ベイズの考え方で以下のことがわかったんや:
1. 対象が環境とからむとデコヒーレンスが起こって、対象のエントロピーが増えんねん。
2. 主体が対象を見ると対象の状態の情報が得られて、エントロピーが減んねん。
つまり、デコヒーレンスと観測はそれぞれエントロピーを増やしたり減らしたりするんや。これが量子ベイズの形式で数字でちゃんと説明できるってわけやで!
Σₖ pₖ S(ρₖ) ≤ S(ρ)
S(ρ) ≤ S(ρ ◦ E)
ここで、S(ρ) は密度行列 ρ のエントロピー、pₖ はそれぞれの観測結果の確率、E はデコヒーレンスを表す行列である。
ρ → ρₖ = (Pₖ ρ Pₖ) / pₖ
pₖ = tr(Pₖ ρ)
ここで、Pₖ は完全直交射影演算子の集合であり、Σₖ Pₖ = I を満たす。また、エントロピーは一般に凹関数 h(x) を用いて次のように定義される:
S(ρ) = tr[h(ρ)]
⟨S⟩ = Σₖ pₖ S(ρₖ) = Σₖ pₖ tr[h(ρₖ)]
この期待値が初期状態のエントロピー S(ρ) よりも小さい、すなわち次の不等式が成り立つことを示す:
Σₖ pₖ S(ρₖ) ≤ S(ρ)
主要化とは、あるベクトル λ が別のベクトル μ を主要化する (λ ≺ μ) とき、次の不等式が成り立つことを意味する:
Σᵢ h(λᵢ) ≤ Σᵢ h(μᵢ)
ここで、λ(ρ) は密度行列 ρ の固有値のベクトルである。もし λ(ρₖ) ≺ λ(ρ) が成立するならば、観測後のエントロピー S(ρₖ) が元のエントロピー S(ρ) よりも小さいことが示される。
ρₖ = (Pₖ ρ Pₖ) / pₖ
pₖ = tr(Pₖ ρ)
Σₖ pₖ S(ρₖ) = Σₖ pₖ tr[h(ρₖ)]
3. 一方で、元のエントロピー S(ρ) は次のように表される:
S(ρ) = tr[h(ρ)]
4. ここで、主要化の結果を利用すると、次の不等式が成り立つ:
λ(ρₖ) ≺ λ(ρ)
5. この不等式に基づき、次のエントロピー不等式が得られる:
Σₖ pₖ S(ρₖ) ≤ S(ρ)
これにより、観測後のエントロピーが元のエントロピーよりも小さいことが証明された。
ρ → ρ ◦ E
ここで、E はデコヒーレンス行列で、その要素は Eᵢⱼ = ⟨εⱼ | εᵢ⟩ である。この操作はSchur積と呼ばれ、行列の対応する要素ごとに積を取る操作である。
デコヒーレンス後のエントロピーが増加することを次の不等式で示す:
S(ρ) ≤ S(ρ ◦ E)
この証明も、主要化の結果に基づいている。具体的には、次のように進める:
1. デコヒーレンス後の密度行列 ρ ◦ E の固有値ベクトル λ(ρ ◦ E) が、元の密度行列 ρ の固有値ベクトル λ(ρ) を主要化する:
λ(ρ ◦ E) ≺ λ(ρ)
2. 主要化に基づき、次のエントロピー不等式が成り立つ:
S(ρ) ≤ S(ρ ◦ E)
これにより、デコヒーレンスがエントロピーを増加させることが証明された。
Σₖ pₖ S(ρₖ) ≤ S(ρ) ≤ S(ρ ◦ E)
効用関数 U: X → ℝ が消費者の選好を定義し、効用空間 X 上のレベルセットが無差別曲線を形成する。無差別曲線 U⁻¹(c) は効用関数 U のレベルセットとして定義される。
無差別曲線は効用空間内でのプレーンに対応し、その勾配 ∇U は無差別曲線に直交する。
ゲーム理論では、プレイヤー i の戦略空間を多様体 S_i とし、全プレイヤーの戦略空間を S = ∏_i S_i とする。プレイヤーの利得関数 π_i: S → ℝ はゲームの結果として得られる。
プレイヤーの戦略の選択は戦略空間 S 上の点で表現され、ゲームの均衡は戦略空間上での最大化問題としてモデル化される。
完全ベイズ均衡では、情報の不完全性を考慮し、プレイヤーの信念と戦略を統合する。プレイヤー i のタイプ空間を Θ_i とし、信念空間を Δ(Θ_i) とする。信念 μ_i はプレイヤー i のタイプ θ_i に対する確率分布を示す。
情報理論の要素をゲーム理論に統合するために、以下のように対応させる:
1. エントロピーと不確実性:
ゲーム理論と情報理論を統合するために、以下の枠組みを考える:
1. 共通の多様体: 効用空間 X、戦略空間 S、信念空間 Δ(Θ)、情報空間 ℙ を統一的な多様体としてモデル化する。
2. ファイバーバンドル: 各理論の構造をファイバーバンドルとして表現し、効用、戦略、信念、情報を抽象的に結びつける。
3. リーマン計量: 各多様体上のリーマン計量を用いて、効用、戦略、信念、情報の変化を統一的に扱う。
digraph G { // グラフの設定 rankdir=LR; node [shape=box, color=lightgrey]; // ノードの定義 UtilitySpace [label="効用空間\n(X, U)", shape=ellipse]; StrategySpace [label="戦略空間\n(S, π)", shape=ellipse]; BeliefSpace [label="信念空間\n(Δ(Θ), μ)", shape=ellipsel]; InformationSpace [label="情報空間\n(ℙ, H)", shape=ellipse]; // ノード間の関係 UtilitySpace -> StrategySpace [label="効用関数\nU(x)"]; StrategySpace -> BeliefSpace [label="戦略の期待値\nE[π_i | θ_i]"]; BeliefSpace -> InformationSpace [label="エントロピー\nH(μ)"]; InformationSpace -> UtilitySpace [label="情報の多様体\nℙ"]; // フォーマット設定 edge [color=black, arrowhead=normal]; }
digraph G { rankdir=LR; node [shape=ellipse, style=filled, color=white, fontcolor=black, penwidth=2, fillcolor=white, color=black]; // Nodes UtilitySpace [label="Utility Space (X)"]; StrategySpace [label="Strategy Space (S)"]; BeliefSpace [label="Belief Space (Δ(Θ))"]; InformationSpace [label="Information Space (ℙ)"]; FiberBundle [label="Fiber Bundle"]; RiemannMetric [label="Riemannian Metric"]; KL_Divergence [label="Minimize D_{KL}(μ_i || ν_i)"]; ParetoOptimality [label="Pareto Optimality"]; Constraints [label="Constraints"]; Optimization [label="Optimization"]; // Edges UtilitySpace -> FiberBundle; StrategySpace -> FiberBundle; BeliefSpace -> FiberBundle; InformationSpace -> FiberBundle; FiberBundle -> RiemannMetric; RiemannMetric -> KL_Divergence [label="Measure Change"]; KL_Divergence -> Optimization; Constraints -> Optimization; Optimization -> ParetoOptimality [label="Achieve"]; // Subgraph for constraints subgraph cluster_constraints { label="Constraints"; node [style=filled, color=white, fontcolor=black, penwidth=2]; StrategyChoice [label="Strategy Choice"]; BeliefUpdate [label="Belief Update"]; StrategyChoice -> BeliefUpdate; BeliefUpdate -> Constraints; } }
1. プレイヤー集合: N = {P₁, P₂, ..., Pₙ}
2. 行動集合: 各プレイヤー Pᵢ の行動の集合を Aᵢ とする
3. 情報集合: 各プレイヤー Pᵢ の情報集合を Hᵢ とする
4. 選好関係: 各プレイヤー Pᵢ の選好関係を ≽ᵢ とする
1. 履歴: H = ∪ Hᵢ
各プレイヤー Pᵢ に対して、効用関数 uᵢ: Z → ℝ を定義する
1. 完備性と推移性:
2. 期待効用仮説:
p ≽ᵢ q ⇔ 𝔼ₚ[uᵢ] ≥ 𝔼ᵩ[uᵢ]
σᵢ: Hᵢ → Δ(Aᵢ), ここで Δ(Aᵢ) は Aᵢ 上の確率分布の集合
μ を各情報集合 h ∈ H に対する確率測度 μₕ ∈ Δ(h) の集合と定義
(σ*, μ*) が完全ベイズ均衡であるとは、以下を満たすとき:
https://anond.hatelabo.jp/20240615223307
前々から思ってて、さらにこの対談見て確信したけど、暇空さん、地平線の向こう側に勝手に一人で行ってない?
物事の理解や議論の折衷みたいな考え方の1つとして、哲学ではガダマー『真理と方法』(1960年)という本に1つの答えがある。(まあ、人間の脳における「理解」の現代の専門分野は、脳科学や認知心理学(cognitive psychology)に取って代わった感もあるが)
これはどんな考え方かというと、「理解」とは「地平の融合 fusion of horizons」であるという考え方である。
では「地平の融合」とはどういう概念かというと、今まで持ってる知識に新しい知識が合わさってこの中間(水平)にくる、というこの作業が「理解」というシロモノであるといっている。
例えば、新しいモノをわかりやすく理解するために例え話を使ったりするが、これはまさに、新しいモノを事前に知ってる古いモノで例えて理解という作業を試みてるわけである。
さらに、確率・統計に例えるとこの概念はベイズ統計にかなり近い。ベイズ統計では事前に知ってる事前確率(事前情報)に新しい観測データとして尤度(新しい情報)を計算しそれを使って、事後確率(事前確率と尤度の間)へ更新計算をする。「地平の融合」とかなり近い。
この「地平の融合」の考え方は、議論でも重宝される。A案、B案の2案ありそれぞれの立場の議論において、地平の融合により折衷案Cを生み出せるわけある。議論において、この「地平の融合」を目指すべきなんてはこの効用があるためよく言われる(もちろん、トンデモ案は融合を目指す必要なく却下される前提だが)。
で、暇空さんの議論のやり口って、こういった「地平の融合」みたいなのは無さすぎないか?という話である。
人間誰しも多少なりとも偏見(事前情報)を持ってるわけだが、これは他の人や本、ネットなどとのコミュニケーションにより、情報交換が発生し(新しい情報を得る)、多少な偏見は均される(地平の融合)。(情報哲学において情報交換が大事なんて言われるのはこの辺だったりする。)
暇空さんの場合、地平の融合どころか持論展開だけで地平線の向こう側に勝手に一人で行ってないか?
正直、石丸氏もウォッチャーが付くレベルのトンデモなので、こんなのに丸め込まれてる場合かと言いたくるなるが、丸め込まれてる理由はここである。地平線の向こう側に勝手に一人で行っている。
コンテンツ集合Xがあります。各々の要素x∈ Xは特徴量f_1(x)∈Y_1 を持っています。
同様にユーザーu ∈ Uが存在し、特徴量f_2(u)∈Y_2を持っています。
コンテンツには単価P(x)が存在し、ユーザーuがコンテンツをm回消費することをg(u, x, m)=m*P(x)_uで表し、全てのユーザーU, 全てのコンテンツXに対して行列M∘P = g(U, X, M) が存在します。
回答
この問題は、コンテンツとユーザーの特徴量を考慮して、ユーザーがコンテンツを消費する回数を最大化するものです。このような問題は、推薦システムの分野で広く研究されており、協調フィルタリングと呼ばれるアプローチが一般的に使われています。
協調フィルタリングアルゴリズム
協調フィルタリングには、以下のようなアルゴリズムが考えられます。
1. 行列因子分解 (Matrix Factorization)
行列因子分解は、ユーザー・コンテンツ行列を低ランク近似することで、ユーザーとコンテンツの潜在的な特徴を抽出します。具体的には、ユーザー行列Uとコンテンツ行列Vを求め、その内積U^TVで元の行列を近似します。この手法は、Netflix Prizeで優れた成績を収めました。[1]
2. ニューラルコラボレーティブフィルタリング (Neural Collaborative Filtering)
ニューラルネットワークを用いて、ユーザーとコンテンツの非線形な関係を学習します。入力としてユーザーIDとコンテンツIDを与え、出力として評価値を予測します。この手法は、従来の行列因子分解よりも高い精度が期待できます。[2]
3. 階層的ベイズモデル (Hierarchical Bayesian Model)
ユーザーとコンテンツの特徴量を階層ベイズモデルに組み込むことで、より柔軟なモデリングが可能になります。この手法は、Cold-Start問題(新規ユーザー・コンテンツの推薦が困難)の解決に有効です。[3]
4. 強化学習 (Reinforcement Learning)
ユーザーの行動履歴を環境として捉え、報酬最大化のためのアクションを学習します。この手法は、長期的な利益最大化に適しています。[4]
これらのアルゴリズムは、ユーザーとコンテンツの特徴量を考慮しながら、目的関数を最大化するように設計されています。実装の際は、データセットの特性やモデルの複雑さ、計算リソースなどを考慮する必要があります。[5]
Citations:
[1] https://aicontentfy.com/en/blog/understanding-algorithms-behind-content-distribution
[2] https://marketbrew.ai/optimizing-your-websites-content-with-genetic-programming
[3] https://sproutsocial.com/insights/social-media-algorithms/
[4] https://surferseo.com/blog/the-new-algorithm-for-content-analysis/
[5] https://www.linkedin.com/advice/0/what-best-ways-measure-content-relevance-x6apf
「参加型宇宙」は、宇宙物理学者ジョン・ホイーラーが提唱した概念で、観測者(行為主体)が世界を捉える視点を重視し、世界の記述が必然的に主観的になるというものである。
この概念は量子ベイズ主義(QBism)という量子力学の新しい解釈とも関連がある。
量子ベイズ主義は量子力学に現れる「確率」の概念を、「客観的」なものではなく「主観的」なものとして解釈する。
量子ベイズ主義(QBism)、情報理論、量子観測、エントロピーの関係は非常に深く、それぞれが相互に影響を与えている。
https://anond.hatelabo.jp/20231218011659
【マッチングアプリをはじめた】
・懲りずにマッチングアプリをはじめた。メッセージが全く続かなくてとても辛い。自分がもらういいね数が増えるほど、相手からいいね帰ってくる率も上がってくるのは理解したが、何故か少し嬉しくなってしまう自分が嫌になってきた。いいねが増えても会えないし面白くないメッセージの応酬で縁が切れてちゃんちゃんってだけ。
・敗因はメッセージが下手すぎること。マッチはするが途中で切られてるなということがわかった。1月は結局一度もデートはできていない。ちなみに1月にもらったいいねの数は56だった。でも実際に会えた数はゼロ。おそらくだが誘い方が下手な気がする。遅いとか通話への移行が下手とか。
・しかし、数日前にとある女の子と通話からスタートするとトントン拍子でLINE交換まで進んでしまった。その子はめちゃくちゃ一方的にしゃべる子だった。その時はひたすら聞き役に徹していた。2月半ばに会ってみようみたいな話をした。んー。あまり私に興味を持ってくれているような感じはしない。多分会えない気がする。
・2月に一個下の子とランチ行く約束をした。デートの前に通話をする予定だが、そこで切られる気がしないでもない。懇切丁寧にメッセージを送ってくれるものだから、こちらも堅めな文章を返しているが、うーん。仲良くなれるのだろうか。
・プロフィールに上げた自炊した料理の写真は褒められるし、素直に嬉しいんだけど、結局メッセージが世界で一番下手なので料理ができてもなんのアピールにもなんねぇなといった感じ。
・とはいったものの、プロフの写真や趣味は相手がこっちに話を振りやすくしてくれるための道具なので、自分の話をふくらませて相手にぶん投げるよう話題提供をするべきだなというのが1月学べたこと。しかしメッセージでそれをやるのは至難の業と思った。
・自分語りはキモいから普段からしないようにしてるけど、こういう場だと油断すると質問攻めなってそれまたうまくいかないしどうしたもんだか。
・マッチングアプリではない通話アプリを始めてみた。社会人になって偏った人付き合いをしているのがなんとなしにまずいと思ったのと、ボケ防止だったり、ボキャ貧防止だったりという理由ではじめた。
・声を褒められることが多かった。わー。多少わざとらしく声のトーン落としてたのもあるけど。
・おもしろいって言われたのも嬉しかった。どういうノリだったかボケが始まっているので当然忘れてしまったが、コブラ(漫画)の「いるさっここにひとりな!」とか言ってふざけてたら相手が何故かツボった。ゲラの人と結婚したい。
・LINE交換しよと言ってくる人がかなりいた。結論としてはメッセージはめちゃくちゃ苦手だが、通話のほうが適正があるっぽいことがわかった。基本的には聞き役ばかりやっているが、たまに派手にボケることができる自分に驚いた。
・LINE交換は一応応じるが、だいたい数回やりとりしてどうでもよくなるため意味がないということがわかった。(出会いを仄めかす年下の女性もいるが、色々調べて見るにトラブルの種になりがちなんだなということも理解した。全力で回避した。
【その他】
・趣味のボルダリングを今年はめっちゃ頑張ろうと思って1月は4回ほどジムへ通った。登れないのはわかっていても誘いには乗るようにし、行ったことのないジムを開拓できた。が、社会人2年目は勉強ばかりしていたため保持力が当然消えていた。先は長い。
・化粧水と乳液をわしわし使い始めた。お肌つやつやになって草。ニキビとかできてたけど、そもそも乾燥がよくなかったんだな〜という学び。
・自炊技術がもう少しほしい。とりあえず2月の目標は3万以下の食費を目指そうと思う。
・浮いたお金ですぐに皿とかマグカップとかキッチン用品を買うのやめろ。外に出るための服を買え。行ったことのない店にいけ。家から出ろ。
・そういえば、お金がかかったとしても余力がある限りカフェ勉しにいくのありだな〜と思った。ちゃんと普段から服着るようになるし、人の目あるからちゃんとした服着るようになるし、でいいことばかり。
・だれか俺に統計学を教えてください。
・2月のデートに失敗したら美容院の兄ちゃんのせいにすることにした。その時はヘラヘラしながら謝罪してくれるらしい。兄ちゃんに初めてのパーマを依頼する際に、良い話を持ち込めるように2月は頑張る。
【追記】
増田見てくれる連中優しいやつらばかりか〜〜〜?自身へフィードバックのために適当にコメントをば掻い摘んでいきます。
すぐ彼女できそう
HAHAHAHAHAHAHAHAHA。次。
馬鹿野郎。お前らに殴られに来たのになんだお前ら。ちゃんとなじってくれないと困るんじゃ。次。
ボルダリングなら御岳デートとかでもいいのでは。忍者岩とかチッピング騒動以降触っていないけど、下地がずいぶんと上がって登りやすくなったとは聞く。忍者返し失われたのは痛いけど、影響受けた課題以外登ろう。
上京したばかりの1年目に御岳に行ったが、その時ですら忍者返しの岩は何も登れなかったので今行くと悲惨な目に遭うのが想像に難くない。それと御岳に行くより都内のジムにコンスタントに通うような習慣をつけたいから御岳に行くモチベは今のところない。そもそも御岳にクライミングデートしたがるような女性は相手だいたいいる気がする。次。
会うまで長すぎなんじゃね。
メッセージから次のターンへ進むタイミングが遅い気がするので2月は3回こちらからメッセージ送るまでに「メッセージではこれ以上お互いのことわからないので通話しましょう」とか言ってみるつもり。メッセージがつまらねぇのはゆるせサスケ。。。次。
会うのが億劫そうな印象
これよ。これな。これなんだよ。そうなんですよ。
今の生活で完成してしまっているもんで、生活自体は安定はしているものの新しいことを始めることに対する腰の重たさは感じている。故にメッセージも当然つまんねぇし、だらだら続けようとしてしまっている。直すべきは出不精からか?と思って土日は外に出るようにしている。都内のおすすめのカフェ(できれば勉強とか読書とかできるとこ)あったら俺が喜ぶから教えてくれると泣いて喜ぶ。次。
そんなことはない。俺より頭のいい女性は全員素敵に見える。ちなみに書いたからといってメッセージが(ry
統計2級くらいを今はゆるゆる勉強している感じ。ベイズとかは大学か大学院でやったような気もするけど頭からはすっぽ抜けてる。なんで勉強しているかというとDSコンペとかに出たいのでそれが目標。
だけど副業とか始めちゃったし、友人巻き込んで個人開発も始めてるからコンペに腰を据えて参加するのは当分無理だけど、まぁ気合いで参加して気合いで勉強して気合いでなんとかできればいいんじゃないかなと思ってる(雑)。次。
1個下の「子」
そうね。細かいけどこういう敬意の足りてない言動は減らしていきたいね。まだまだおつむが足りてない。感謝。次。
こんなところかな。そういえばガンダムseedの映画最高だったからみんな見に行こう。また来月も書くからその時はお前らのツッコミを待ってるぜ!
つい最近エントロピーの増田記事を見たが、ワイもちょっとだけメモすんで。
ユニタリ量子力学を想定した宇宙論があるとして、系・観測者・環境という3者がそこに存在すると考えられるわな。
だから熱力学の第2法則は「系のエントロピーは観察者と相互作用しない限り減少できず、環境と相互作用しない限り増加できない」と言い換えられんねん。
観察者と系の相互作用については、量子ベイズ定理から得られるわけや。
宇宙論的インフレーションで生じる長距離エンタングルメントがあるが、宇宙エントロピーは観測された情報ビット数に比例するのではなく、指数関数的に減少して、特定の観察者が脳が保存できる情報量よりもさらに多くのエントロピーを減少させられるってわけや。