「ベイズ」を含む日記 RSS

はてなキーワード: ベイズとは

2024-11-15

量子力学エントロピー、ほんまにおもろいわー

この問題量子力学情報論的解釈エントロピーの動きもんを扱うんや。

ここでは、量子ベイズっちゅうもんを使うて、「主体(見る奴)」「対象(見られる奴)」「環境」の3つがおる場合に、対象環境主体からんだ時のエントロピーの変化について話すで。

背景

1. デコヒーレンス:

対象環境からむと、対象の量子状態環境モツレて、キレイ状態からグチャグチャな状態になんねん。これで、対象エントロピーが増えるんや。

2. 観測:

主体対象を見ると、主体から見た対象状態がハッキリするんや。これは対象のことをよう知ったってことやからエントロピーが減るってわけや。

3. 量子ベイズ:

観測対象状態に対する主体の考えが変わんねん。この考えの変わり方はベイズ則っちゅうもんに従うて、確率的な情報の変化を表すんや。

ほんじゃ、この2つの過程エントロピーにどう影響するか、数式で説明したるで。

1. 系の状態

量子状態密度行列 ρ で表すんや。

ρ_obj' = Tr_env [ U (ρ_obj ⊗ ρ_env) U† ]

ここで U は環境対象からみ合いを表す演算子やで。

2. エントロピー

量子エントロピーフォン・ノイマンエントロピー S(ρ) = -Tr(ρ log ρ) で表すんや。

デコヒーレンス環境とのからみ合い)

デコヒーレンス対象キレイ状態からグチャグチャな状態になって、エントロピーが増えんねん:

S(ρ_obj') > S(ρ_obj)

環境とのからみ合いが進むと、対象状態環境情報を失うて、一番グチャグチャな状態に近づくんや。

観測主体対象からみ合い)

主体対象を見ると、波動関数が縮むから対象状態がハッキリして、エントロピーが減んねん:

S(ρ_obj^posterior) < S(ρ_obj^prior)

主体観測対象のことを知る過程は、量子ベイズ則に従うんや。

量子ベイズによる証明

量子ベイズの考え方に従うと、観測後の考え(後分布)は観測前の考え(事前分布)を観測結果で更新すんねん。観測前後エントロピーの差はこう説明できんねん。

1. 事前分布エントロピー:

H_prior = -∑_i P(i) log P(i)

ここで P(i) は事前分布確率やで。

2. 観測結果による更新(後分布):

P(i|O) = P(O|i)P(i) / ∑_j P(O|j)P(j)

3. 後分布エントロピー:

H_posterior = -∑_i P(i|O) log P(i|O)

観測対象状態がハッキリするから普通

H_posterior < H_prior

が成り立つんや。

この不等式はエントロピーが減ることを示して、観測情報を得て対象状態をハッキリさせる効果があるってことやで。

結論

量子ベイズの考え方で以下のことがわかったんや:

1. 対象環境からむとデコヒーレンスが起こって、対象エントロピーが増えんねん。

2. 主体対象を見ると対象状態情報が得られて、エントロピーが減んねん。

まりデコヒーレンス観測はそれぞれエントロピーを増やしたり減らしたりするんや。これが量子ベイズ形式数字ちゃん説明できるってわけやで!

2024-10-09

anond:20241009172616

それは頻度論の立場の話であって、人間感覚ベイズ統計でいう事前分布と事後分布なんだよ

2024-09-02

量子論現実数学構造

基本構造

状態観測

力学情報

複合系と相互作用

抽象化一般

まとめ

2024-08-19

量子ベイズに基づく熱力学第二法則証明

この証明では、次の2つの不等式を示す:

1. 観測エントロピーを減少させる:

Σₖ pₖ S(ρₖ) ≤ S(ρ)

2. デコヒーレンスエントロピーを増加させる:

S(ρ) ≤ S(ρ ◦ E)

ここで、S(ρ) は密度行列 ρ のエントロピー、pₖ はそれぞれの観測結果の確率、E はデコヒーレンスを表す行列である

1. 観測によるエントロピーの減少の証明

まず、観測は次のように表現される:

ρ → ρₖ = (Pₖ ρ Pₖ) / pₖ

pₖ = tr(Pₖ ρ)

ここで、Pₖ は完全直交射影演算子の集合であり、Σₖ Pₖ = I を満たす。また、エントロピー一般に凹関数 h(x) を用いて次のように定義される:

S(ρ) = tr[h(ρ)]

観測後のエントロピー期待値は次のように表される:

⟨S⟩ = Σₖ pₖ S(ρₖ) = Σₖ pₖ tr[h(ρₖ)]

この期待値が初期状態エントロピー S(ρ) よりも小さい、すなわち次の不等式が成り立つことを示す:

Σₖ pₖ S(ρₖ) ≤ S(ρ)

主要化とは、あるベクトル λ が別のベクトル μ を主要化する (λ ≺ μ) とき、次の不等式が成り立つことを意味する:

Σᵢ h(λᵢ) ≤ Σᵢ h(μᵢ)

ここで、λ(ρ) は密度行列 ρ の固有値ベクトルである。もし λ(ρₖ) ≺ λ(ρ) が成立するならば、観測後のエントロピー S(ρₖ) が元のエントロピー S(ρ) よりも小さいことが示される。

1. 観測後の状態 ρₖ は、次の形式を取る:

ρₖ = (Pₖ ρ Pₖ) / pₖ

pₖ = tr(Pₖ ρ)

2. 観測後のエントロピー期待値は次のように書ける:

Σₖ pₖ S(ρₖ) = Σₖ pₖ tr[h(ρₖ)]

3. 一方で、元のエントロピー S(ρ) は次のように表される:

S(ρ) = tr[h(ρ)]

4. ここで、主要化の結果を利用すると、次の不等式が成り立つ:

λ(ρₖ) ≺ λ(ρ)

5. この不等式に基づき、次のエントロピー不等式が得られる:

Σₖ pₖ S(ρₖ) ≤ S(ρ)

これにより、観測後のエントロピーが元のエントロピーよりも小さいことが証明された。

2. デコヒーレンスによるエントロピーの増加の証明

次に、デコヒーレンスは次のように表現される:

ρ → ρ ◦ E

ここで、E はデコヒーレンス行列で、その要素は Eᵢⱼ = ⟨εⱼ | εᵢ⟩ である。この操作はSchur積と呼ばれ、行列対応する要素ごとに積を取る操作である

デコヒーレンス後のエントロピーが増加することを次の不等式で示す:

S(ρ) ≤ S(ρ ◦ E)

この証明も、主要化の結果に基づいている。具体的には、次のように進める:

1. デコヒーレンス後の密度行列 ρ ◦ E の固有値ベクトル λ(ρ ◦ E) が、元の密度行列 ρ の固有値ベクトル λ(ρ) を主要化する:

λ(ρ ◦ E) ≺ λ(ρ)

2. 主要化に基づき、次のエントロピー不等式が成り立つ:

S(ρ) ≤ S(ρ ◦ E)

これにより、デコヒーレンスエントロピーを増加させることが証明された。

結論

以上の2つの不等式により、定理が次のように証明された:

Σₖ pₖ S(ρₖ) ≤ S(ρ) ≤ S(ρ ◦ E)

この証明により、観測エントロピーを減少させ、デコヒーレンスエントロピーを増加させることが確定された。

2024-08-08

[] いくつかの数学理論統合

1. 無差別曲線分析

効用関数 U: X → ℝ が消費者の選好を定義し、効用空間 X 上のレベルセットが無差別曲線形成する。無差別曲線 U⁻¹(c) は効用関数 U のレベルセットとして定義される。

無差別曲線効用空間内でのプレーン対応し、その勾配 ∇U は無差別曲線直交する。

2. ゲーム理論

ゲーム理論では、プレイヤー i の戦略空間多様体 S_i とし、全プレイヤー戦略空間を S = ∏_i S_i とする。プレイヤーの利得関数 π_i: S → ℝ はゲームの結果として得られる。

プレイヤー戦略選択戦略空間 S 上の点で表現され、ゲームの均衡は戦略空間上での最大化問題としてモデル化される。

3. 完全ベイズ均衡

完全ベイズ均衡では、情報の不完全性を考慮し、プレイヤーの信念と戦略統合する。プレイヤー i のタイプ空間を Θ_i とし、信念空間を Δ(Θ_i) とする。信念 μ_i はプレイヤー i のタイプ θ_i に対する確率分布を示す。

  • 信念: μ_i ∈ Δ(Θ_i)。
  • 均衡条件: プレイヤー i の戦略 σ_i が、信念に基づく利得の期待値を最大化する場合、均衡が成立する。すなわち、σ_i(θ_i) ∈ argmax_{s_i ∈ S_i} E[π_i(s_i, s_{-i}) | θ_i]。

4. 情報理論との統合

情報理論の要素をゲーム理論統合するために、以下のように対応させる:

1. エントロピーと不確実性:

2. ゲーム情報構造:

3. 情報量と戦略選択:

統合的枠組み

ゲーム理論情報理論統合するために、以下の枠組みを考える:

1. 共通多様体: 効用空間 X、戦略空間 S、信念空間 Δ(Θ)、情報空間 ℙ を統一的な多様体としてモデル化する。

2. ファイバーバンドル: 各理論構造ファイバーバンドルとして表現し、効用戦略、信念、情報抽象的に結びつける。

3. リーマン計量: 各多様体上のリーマン計量を用いて、効用戦略、信念、情報の変化を統一的に扱う。

graphvizによる視覚

digraph G {
    // グラフの設定
    rankdir=LR;
    node [shape=box, color=lightgrey];

    // ノード定義
    UtilitySpace [label="効用空間\n(X, U)", shape=ellipse];
    StrategySpace [label="戦略空間\n(S, π)", shape=ellipse];
    BeliefSpace [label="信念空間\n(Δ(Θ), μ)", shape=ellipsel];
    InformationSpace [label="情報空間\n(ℙ, H)", shape=ellipse];

    // ノード間の関係
    UtilitySpace -> StrategySpace [label="効用関数\nU(x)"];
    StrategySpace -> BeliefSpace [label="戦略期待値\nE[π_i | θ_i]"];
    BeliefSpace -> InformationSpace [label="エントロピー\nH(μ)"];
    InformationSpace -> UtilitySpace [label="情報多様体\nℙ"];

    // フォーマット設定
    edge [color=black, arrowhead=normal];
}
digraph G {
    rankdir=LR;
    node [shape=ellipse, style=filled, color=white, fontcolor=black, penwidth=2, fillcolor=white, color=black];

    // Nodes
    UtilitySpace [label="Utility Space (X)"];
    StrategySpace [label="Strategy Space (S)"];
    BeliefSpace [label="Belief Space (Δ(Θ))"];
    InformationSpace [label="Information Space (ℙ)"];
    FiberBundle [label="Fiber Bundle"];
    RiemannMetric [label="Riemannian Metric"];
    KL_Divergence [label="Minimize D_{KL}(μ_i || ν_i)"];
    ParetoOptimality [label="Pareto Optimality"];
    Constraints [label="Constraints"];
    Optimization [label="Optimization"];

    // Edges
    UtilitySpace -> FiberBundle;
    StrategySpace -> FiberBundle;
    BeliefSpace -> FiberBundle;
    InformationSpace -> FiberBundle;
    FiberBundle -> RiemannMetric;
    RiemannMetric -> KL_Divergence [label="Measure Change"];
    KL_Divergence -> Optimization;
    Constraints -> Optimization;
    Optimization -> ParetoOptimality [label="Achieve"];

    // Subgraph for constraints
    subgraph cluster_constraints {
        label="Constraints";
        node [style=filled, color=white, fontcolor=black, penwidth=2];
        StrategyChoice [label="Strategy Choice"];
        BeliefUpdate [label="Belief Update"];
        StrategyChoice -> BeliefUpdate;
        BeliefUpdate -> Constraints;
    }
}

2024-07-23

[] 公理主義ゲーム理論モデル

ゲーム構造

1. プレイヤー集合: N = {P₁, P₂, ..., Pₙ}

2. 行動集合: 各プレイヤー Pᵢ の行動の集合を Aᵢ とする

3. 情報集合: 各プレイヤー Pᵢ の情報集合を Hᵢ とする

4. 選好関係: 各プレイヤー Pᵢ の選好関係を ≽ᵢ とする

履歴戦略

1. 履歴: H = ∪ Hᵢ

2. 終端履歴: Z をゲームの終端履歴の集合とする

3. 純粋戦略: Sᵢ = ∏ Aᵢ(h)

4. 戦略プロファイル: S = ∏ Sᵢ

効用関数

プレイヤー Pᵢ に対して、効用関数 uᵢ: Z → ℝ を定義する

公理

1. 完備性と推移性:

  • 完備性: ∀z, z' ∈ Z, z ≽ᵢ z' ∨ z' ≽ᵢ z
  • 推移性: ∀z, z', z'' ∈ Z, (z ≽ᵢ z' ∧ z' ≽ᵢ z'') → z ≽ᵢ z''

2. 期待効用仮説:

p ≽ᵢ q ⇔ 𝔼ₚ[uᵢ] ≥ 𝔼ᵩ[uᵢ]

行動戦略

σᵢ: Hᵢ → Δ(Aᵢ), ここで Δ(Aᵢ) は Aᵢ 上の確率分布の集合

信念システム

μ を各情報集合 h ∈ H に対する確率測度 μₕ ∈ Δ(h) の集合と定義

完全ベイズ均衡 (PBE)

(σ*, μ*) が完全ベイズ均衡であるとは、以下を満たすとき:

1. 逐次合理性: ∀i ∈ N, ∀h ∈ Hᵢ,

σᵢ*(h) ∈ arg max σᵢ(h) 𝔼σ₋ᵢ*,μₕ*[uᵢ | h, σᵢ(h)]

2. ベイズ一貫性: 信念は可能な限り戦略から Bayes 則で導出

2024-07-17

anond:20240717002504

ベイズの逆確率くらい計算してから自分はどのくらい違うか示せよって話やな

2024-06-16

暇空さん地平線の向こう側に勝手に一人で行ってない?

https://anond.hatelabo.jp/20240615223307

前々から思ってて、さらにこの対談見て確信したけど、暇空さん、地平線の向こう側に勝手に一人で行ってない?

物事理解議論折衷みたいな考え方の1つとして、哲学ではガダマー『真理と方法』(1960年)という本に1つの答えがある。(まあ、人間の脳における「理解」の現代の専門分野は、脳科学認知心理学(cognitive psychology)に取って代わった感もあるが)

これはどんな考え方かというと、「理解」とは「地平の融合 fusion of horizons」であるという考え方である

では「地平の融合」とはどういう概念かというと、今まで持ってる知識に新しい知識が合わさってこの中間(水平)にくる、というこの作業が「理解」というシロモノであるといっている。

例えば、新しいモノをわかりやす理解するために例え話を使ったりするが、これはまさに、新しいモノを事前に知ってる古いモノで例えて理解という作業を試みてるわけである

さらに、確率統計に例えるとこの概念ベイズ統計にかなり近い。ベイズ統計では事前に知ってる事前確率(事前情報)に新しい観測データとして尤度(新しい情報)を計算しそれを使って、事後確率事前確率と尤度の間)へ更新計算をする。「地平の融合」とかなり近い。

この「地平の融合」の考え方は、議論でも重宝される。A案、B案の2案ありそれぞれの立場議論において、地平の融合により折衷案Cを生み出せるわけある。議論において、この「地平の融合」を目指すべきなんてはこの効用があるためよく言われる(もちろん、トンデモ案は融合を目指す必要なく却下される前提だが)。

で、暇空さんの議論のやり口って、こういった「地平の融合」みたいなのは無さすぎないか?という話である

人間誰しも多少なりとも偏見(事前情報)を持ってるわけだが、これは他の人や本、ネットなどとのコミュニケーションにより、情報交換が発生し(新しい情報を得る)、多少な偏見は均される(地平の融合)。(情報哲学において情報交換が大事なんて言われるのはこの辺だったりする。)

暇空さんの場合、地平の融合どころか持論展開だけで地平線の向こう側に勝手に一人で行ってないか

正直、石丸氏もウォッチャーが付くレベルトンデモなので、こんなのに丸めまれてる場合かと言いたくるなるが、丸めまれてる理由はここである。地平線の向こう側に勝手に一人で行っている。

2024-06-09

Perplexityのテスト: アルゴリズム提案

質問

コンテンツ集合Xがあります。各々の要素x∈ Xは特徴量f_1(x)∈Y_1 を持っています

同様にユーザーu ∈ Uが存在し、特徴量f_2(u)∈Y_2を持っています

コンテンツには単価P(x)が存在し、ユーザーuがコンテンツをm回消費することをg(u, x, m)=m*P(x)_uで表し、全てのユーザーU, 全てのコンテンツXに対して行列M∘P = g(U, X, M) が存在します。

目的関数M∘Pを最大化したいのですが、どんなアルゴリズムが考えられるでしょうか。

回答

この問題は、コンテンツユーザーの特徴量を考慮して、ユーザーコンテンツを消費する回数を最大化するものです。このような問題は、推薦システムの分野で広く研究されており、協調フィルタリングと呼ばれるアプローチ一般的に使われています

協調フィルタリングアルゴリズム

協調フィルタリングには、以下のようなアルゴリズムが考えられます

1. 行列子分解 (Matrix Factorization)

行列子分解は、ユーザーコンテンツ行列を低ランク近似することで、ユーザーコンテンツ潜在的な特徴を抽出します。具体的には、ユーザー行列Uとコンテンツ行列Vを求め、その内積U^TVで元の行列を近似します。この手法は、Netflix Prizeで優れた成績を収めました。[1]

2. ニューラコラボレーティフィルタリング (Neural Collaborative Filtering)

ニューラルネットワークを用いて、ユーザーコンテンツ非線形関係学習します。入力としてユーザーIDコンテンツIDを与え、出力として評価値を予測します。この手法は、従来の行列子分解よりも高い精度が期待できます。[2]

3. 階層ベイズモデル (Hierarchical Bayesian Model)

ユーザーコンテンツの特徴量を階層ベイズモデルに組み込むことで、より柔軟なモデリング可能になります。この手法は、Cold-Start問題(新規ユーザーコンテンツの推薦が困難)の解決有効です。[3]

4. 強化学習 (Reinforcement Learning)

ユーザーの行動履歴環境として捉え、報酬最大化のためのアクション学習します。この手法は、長期的な利益最大化に適しています。[4]

これらのアルゴリズムは、ユーザーコンテンツの特徴量を考慮しながら、目的関数を最大化するように設計されています実装の際は、データセットの特性モデルの複雑さ、計算リソースなどを考慮する必要があります。[5]

Citations:

[1] https://aicontentfy.com/en/blog/understanding-algorithms-behind-content-distribution

[2] https://marketbrew.ai/optimizing-your-websites-content-with-genetic-programming

[3] https://sproutsocial.com/insights/social-media-algorithms/

[4] https://surferseo.com/blog/the-new-algorithm-for-content-analysis/

[5] https://www.linkedin.com/advice/0/what-best-ways-measure-content-relevance-x6apf

2024-05-27

anond:20240527081333

違うんだよ、もっと根本的な哲学・信念的な部分でベイズを組み込んでくる輩が一定数いるんだよね

パラメータ探索でベイズ手法が使えるって、それはプラグマティックでよろしいとなるけど、現実狂信者がいる

2024-05-05

anond:20240505081451

ニューラルネットが脳の構造模倣して、ぐらいの話ならまあなんとかAIと言えるかなと雰囲気は感じるけど、単純ベイズってどっちかというと単なる数式って感じ

2024-04-01

参加型宇宙と量子観測

「参加型宇宙」は、宇宙物理学者ジョン・ホイーラーが提唱した概念で、観測者(行為主体)が世界を捉える視点を重視し、世界記述必然的主観的になるというものである

この概念は量子ベイズ主義(QBism)という量子力学の新しい解釈とも関連がある。

量子ベイズ主義量子力学に現れる「確率」の概念を、「客観的」なものではなく「主観的」なものとして解釈する。

量子ベイズ主義(QBism)、情報理論、量子観測エントロピー関係は非常に深く、それぞれが相互に影響を与えている。

より一般的な測定のモデル記述するためには、量子測定理論の枠組みが必要となる。

2024-01-30

恋愛経験のない26歳院卒男にアドバイスをくれ〜1月編〜

https://anond.hatelabo.jp/20231218011659

増田です。1月出来事です。

マッチングアプリをはじめた】

・懲りずにマッチングアプリをはじめた。メッセージが全く続かなくてとても辛い。自分がもらういいね数が増えるほど、相手からいいね帰ってくる率も上がってくるのは理解したが、何故か少し嬉しくなってしま自分が嫌になってきた。いいねが増えても会えないし面白くないメッセージ応酬で縁が切れてちゃんちゃんってだけ。

・敗因はメッセージが下手すぎること。マッチはするが途中で切られてるなということがわかった。1月は結局一度もデートはできていない。ちなみに1月にもらったいいねの数は56だった。でも実際に会えた数はゼロ。おそらくだが誘い方が下手な気がする。遅いとか通話への移行が下手とか。

しかし、数日前にとある女の子通話からスタートするとトントン拍子でLINE交換まで進んでしまった。その子はめちゃくちゃ一方的にしゃべる子だった。その時はひたすら聞き役に徹していた。2月半ばに会ってみようみたいな話をした。んー。あまり私に興味を持ってくれているような感じはしない。多分会えない気がする。

2月に一個下の子ランチ行く約束をした。デートの前に通話をする予定だが、そこで切られる気がしないでもない。懇切丁寧にメッセージを送ってくれるものからこちらも堅めな文章を返しているが、うーん。仲良くなれるのだろうか。

プロフィールに上げた自炊した料理写真は褒められるし、素直に嬉しいんだけど、結局メッセージ世界で一番下手なので料理ができてもなんのアピールにもなんねぇなといった感じ。

・とはいったものの、プロフ写真趣味相手がこっちに話を振りやすくしてくれるための道具なので、自分の話をふくらませて相手にぶん投げるよう話題提供をするべきだなというのが1月学べたこと。しかメッセージでそれをやるのは至難の業と思った。

自分語りはキモいから普段からしないようにしてるけど、こういう場だと油断すると質問攻めなってそれまたうまくいかないしどうしたもんだか。

通話アプリを始めた】

マッチングアプリではない通話アプリを始めてみた。社会人になって偏った人付き合いをしているのがなんとなしにまずいと思ったのと、ボケ防止だったり、ボキャ貧防止だったりという理由ではじめた。

・声を褒められることが多かった。わー。多少わざとらしく声のトーン落としてたのもあるけど。

おもしろいって言われたのも嬉しかった。どういうノリだったかボケが始まっているので当然忘れてしまったが、コブラ(漫画)の「いるさっここにひとりな!」とか言ってふざけてたら相手が何故かツボった。ゲラの人と結婚したい。

LINE交換しよと言ってくる人がかなりいた。結論としてはメッセージはめちゃくちゃ苦手だが、通話のほうが適正があるっぽいことがわかった。基本的には聞き役ばかりやっているが、たまに派手にボケることができる自分に驚いた。

LINE交換は一応応じるが、だいたい数回やりとりしてどうでもよくなるため意味がないということがわかった。(出会いを仄めかす年下の女性もいるが、色々調べて見るにトラブルの種になりがちなんだなということも理解した。全力で回避した。

【その他】

趣味ボルダリングを今年はめっちゃ頑張ろうと思って1月は4回ほどジムへ通った。登れないのはわかっていても誘いには乗るようにし、行ったことのないジム開拓できた。が、社会人2年目は勉強ばかりしていたため保持力が当然消えていた。先は長い。

化粧水乳液をわしわし使い始めた。お肌つやつやになって草。ニキビとかできてたけど、そもそも乾燥がよくなかったんだな〜という学び。

自炊技術がもう少しほしい。とりあえず2月の目標は3万以下の食費を目指そうと思う。

・浮いたお金ですぐに皿とかマグカップとかキッチン用品を買うのやめろ。外に出るための服を買え。行ったことのない店にいけ。家から出ろ。

・そういえば、お金がかかったとしても余力がある限りカフェ勉しにいくのありだな〜と思った。ちゃん普段から服着るようになるし、人の目あるからちゃんとした服着るようになるし、でいいことばかり。

・だれか俺に統計学を教えてください。

2月デートに失敗したら美容院の兄ちゃんのせいにすることにした。その時はヘラヘラしながら謝罪してくれるらしい。兄ちゃんに初めてのパーマを依頼する際に、良い話を持ち込めるように2月は頑張る。

眠いおやすみ

追記

増田見てくれる連中優しいやつらばかりか〜〜〜?自身フィードバックのために適当コメントをば掻い摘んでいきます

すぐ彼女できそう

HAHAHAHAHAHAHAHAHA。次。

あんアドバイスいらん感じだな。その調子経験積んでいけばいいんじゃないかな

馬鹿野郎。お前らに殴られに来たのになんだお前ら。ちゃんとなじってくれないと困るんじゃ。次。

ボルダリングなら御岳デートとかでもいいのでは。忍者岩とかチッピング騒動以降触っていないけど、下地がずいぶんと上がって登りやすくなったとは聞く。忍者返し失われたのは痛いけど、影響受けた課題以外登ろう。

上京したばかりの1年目に御岳に行ったが、その時ですら忍者返しの岩は何も登れなかったので今行くと悲惨な目に遭うのが想像に難くない。それと御岳に行くより都内ジムコンスタントに通うような習慣をつけたいか御岳に行くモチベは今のところない。そもそも御岳クライミングデートしたがるような女性相手だいたいいる気がする。次。

会うまで長すぎなんじゃね。

これで会えないんだから相当メッセージがつまんねぇんだろうな。

メッセージから次のターンへ進むタイミングが遅い気がするので2月は3回こちからメッセージ送るまでに「メッセージではこれ以上お互いのことわからないので通話しましょう」とか言ってみるつもり。メッセージがつまらねぇのはゆるせサスケ。。。次。

会うのが億劫そうな印象

これよ。これな。これなんだよ。そうなんですよ。

今の生活で完成してしまっているもんで、生活自体は安定はしているものの新しいことを始めることに対する腰の重たさは感じている。故にメッセージも当然つまんねぇし、だらだら続けようとしてしまっている。直すべきは出不精からか?と思って土日は外に出るようにしている。都内おすすめカフェ(できれば勉強とか読書とかできるとこ)あったら俺が喜ぶから教えてくれると泣いて喜ぶ。次。

誰か俺に統計学を教えて下さい これをマチアプに書けば? 女に統計学を教わるのは嫌な人?

そんなことはない。俺より頭のいい女性は全員素敵に見える。ちなみに書いたからといってメッセージ(ry

統計2級くらいを今はゆるゆる勉強している感じ。ベイズとかは大学大学院でやったような気もするけど頭からはすっぽ抜けてる。なんで勉強しているかというとDSコンペとかに出たいのでそれが目標

だけど副業とか始めちゃったし、友人巻き込んで個人開発も始めてるからコンペに腰を据えて参加するのは当分無理だけど、まぁ気合いで参加して気合いで勉強して気合いでなんとかできればいいんじゃないかなと思ってる(雑)。次。

1個下の「子」

そうね。細かいけどこういう敬意の足りてない言動は減らしていきたいね。まだまだおつむが足りてない。感謝。次。

こんなところかな。そういえばガンダムseed映画最高だったからみんな見に行こう。また来月も書くからその時はお前らのツッコミを待ってるぜ!

2024-01-18

anond:20240117172008

俺は統計バカ感覚で捻じ曲げるのが嫌いだ

統計統計言ってるから頻度主義ベイズ主義哲学的立場の違いとか認識論的な話をしてんのかと思ったらただの集計の話かよ。統計学を勉強してから出直してきてくれ。

2023-12-29

きょうだいベイズ問題

お前が有能なら俺が無能である確率

に置き換えると2/3がしっくりくるな

2023-12-18

勉強しないといけないのにやる気でない

pythonで動かすベイズ統計って本、配信たらみんな来てくれるかな?

2023-11-27

anond:20231127124736

1%確率で100ダメージ100%確率で1ダメージなら同じなので、発生確率のみでは判断できない。

これはベイズリスクの話ですね。

適当にググった感じで参考にしてよさそうなのはこの辺かなあ。

https://news.fbc.keio.ac.jp/~hhayami/texts/youngsmith03.pdf

2023-11-11

存在は偶然ではない?

地球状態があまりにも人間の都合が良い状態に保たれている理由について説明する時、

ぐらいのバリエーションはあると思うが、偶然説はありえないと個人的には思う。

2023-09-23

anond:20230923180859

モンティホール問題とかそうな気がする

ベイズ式出すと何も言わなくなるけど、言葉で平易に説明しようとすると論破しようとしだす奴がうじゃうじゃ出てくる

2023-09-20

熱力学の第2法則

つい最近エントロピー増田記事を見たが、ワイもちょっとだけメモすんで。

 

ユニタリ量子力学を想定した宇宙論があるとして、系・観測者・環境という3者がそこに存在すると考えられるわな。

 

から熱力学の第2法則は「系のエントロピーは観察者と相互作用しない限り減少できず、環境相互作用しない限り増加できない」と言い換えられんねん。

 

観察者と系の相互作用については、量子ベイズ定理から得られるわけや。

宇宙論インフレーションで生じる長距離エンタングルメントがあるが、宇宙エントロピー観測された情報ビット数に比例するのではなく、指数関数的に減少して、特定の観察者が脳が保存できる情報量よりもさらに多くのエントロピーを減少させられるってわけや。

 

ログイン ユーザー登録
ようこそ ゲスト さん