一般化線形モデルは基本中の基本なので、「暗に仮定」も何も、知ってて当然現れたらスッと解釈できて当然の内容だと思うんだけど。
いや、だからy=aφ(x)+b型の回帰なんて一般化線形モデルに限らないのになんで「知ってて当然現れたらスッと解釈できて当然の内容だと思うんだけど」なの?
俺は一般化線形モデルを普通に勉強したことがあるし解釈できるが、俺のコメントはモデルが明示された後にそれを解釈できるかどうかを問うているのではなく「何も言及されていないのにφと書かれた関数だけをみて一般化線形モデルだと判断できないだろう」ということを言っている
なおあなたがそれしか知らないから「基本中の基本だしわかるだろ」って言ってるだけで基本中の基本でこの形の関数なんていくらでもあるからな
ガウス過程回帰かもしれないし、カーネル回帰かもしれないしスプライン回帰かもしれないし最近ならニューラルネットを使ってるかもしれない それこそどれも基本中の基本だ どれを想定しているかなんて神にしか分からんだろう
例えばX~Pって書かれたときに「Pは正規分布。これは基本中の基本なので、「暗に仮定」も何も、知ってて当然現れたらスッと解釈できて当然の内容だと思うんだけど。」とか言われたらあなた納得するの?
(書かれている文章のレベル感的に本当に納得しそうだから怖いんだよな・・・)
俺は一般化線形モデルの解説を求めているわけではなく断りなしに一般化線形モデルをいきなり持ち出してくるのがおかしいって言ってる。
上にも書いたけど、X~Pって書かれたときに何も言及なくPは正規分布を想定するって言われたらそりゃ文句を言うでしょ 候補は他にもいくらでもあるんだから
「相関を持ち出すなんて平均しか考慮していない!外れ値や分散を考慮していない!」とかご高説を垂れておきながらy=aφ(x)+bでは一般化線形モデル以外の候補は想定しなくてよい、みたいなこと言っちゃうのダブルスタンダードなんじゃないかぁ
一般化線形モデルの非線形部分は決定論的な項の話なので、加法的ガウスノイズを仮定しているならば非線形部分がどんな関数だろうと相関の強さは一意に定まる。
問題点がわかってないな・・・偉そうに上から目線でご高説を垂れてきた割にこのレベル感とか頼むよマジで
この人は専門ではないけど修論で一般化線形モデル周りだけ勉強して統計を使ってましたくらいのレベル感か?多分
リンク関数を一つ定めれば相関が定まるのはあなたがいうところの「当たり前」の話 その程度の話は問題にすらしていないことを文章から読み取れてほしい
読み取れてないならあなたの勉強不足だよもう 単語の使い方も雑だし
ただ一般化線形モデルでリンク関数にどれを使うかで相関が変わるの。線形相関を使う場合ならリンク関数はφ(x)=xで定まっていて特に議論なく終えることができるけど、非線形を許容し始めると「どのリンク関数を使うのか?」で相関が変わってしまうのにいったいどうやってリンク関数を定めて、そのうえで「相関が強い」ということを示すつもりなんだということを聞いている。リンク関数の選び方によっては同じデータでも非線形相関を0にもほぼ1にもできたりするんだけど。
夜遅くまで返信返してくれてありがたいことだけど返信されていない俺のコメントを再度貼っておこう
他の都合悪そうなコメントについても何一つ返信ないですよ? 頼むでホンマ
あと分散という語が持ち出されたので統計の文脈で書くと(知っているとは思うけれど)相関という語を使う場合一般には分散も考慮される 元エントリでは「強く相関している」と書...
軽い気持ちで相関って書いたら突っかかられて面倒になってきたな コメントでの記法に準拠するけど、ここで相関の強さという語は普通想定されると思われる相関係数の大小を指してい...
あと一応指摘しておくとわざわざ回帰の式にφを使っているのは何か意味があるんだろうか?y=ax+εとせずわざわざφとか使っている時点で非線形関数を考えているのかと思うが、例えば...
他人にはわざわざ予防線を張った単語にまで都合よく言葉尻を曲解したつっこみを入れておいて、自分の時は一言も言及なく一般化線形モデルを暗に仮定ですか? 知らないかもしれない...
他人にはわざわざ予防線を張った単語にまで都合よく言葉尻を曲解したつっこみを入れておいて、自分の時は一言も言及なく一般化線形モデルを暗に仮定ですか? 知らないかもしれな...
一般化線形モデルは基本中の基本なので、「暗に仮定」も何も、知ってて当然現れたらスッと解釈できて当然の内容だと思うんだけど。 いや、だからy=aφ(x)+b型の回帰なんて一般化線形...
一晩待ったけど今見てもこの人から結局返信がなかったからあきらめたってことでいいのかな 死体蹴りするみたいで申し訳ないが、別枠で変に勝利宣言されたまま終わるのも腹立たしい...