ズレを平均μ分散σのガウス分布でモデリングしてμとσを測定値から推定するというのが最もシンプルなやり方だと思うが、測定値の平均がゼロなんだったら平均μはゼロと推定するしかないな(厳密にはロバスト推定とかノイズモデルの想定によって色んな推定方法があるが)。基準値をずらすだけ(これをバイアスと言う)で対応しようとするなら、それが最も合理的でそうならざるを得ないと思うけど、それでは実運用的に困るということなんだろうか?困るのだということは、基準値をずらすだけの処理では実際にやりたいことを実現できないということだろう。その場合は分散を考慮したり、実際に起こっている困った現象に沿ったモデリングとその利用を考える必要がある。
具体的にどういうことが起こってどう困ってるのかをもう少し具体的に書いてくれたら何か言えることがあるかも。
今スマホ向けゲームの遅延設定処理書いてるんだけど文系には難しすぎる 一定のリズムに合わせて10回ボタン押してもらって、その端末で何秒ずれてるか予想して基準点変更するって処...
ズレを平均μ分散σのガウス分布でモデリングしてμとσを測定値から推定するというのが最もシンプルなやり方だと思うが、測定値の平均がゼロなんだったら平均μはゼロと推定するしか...
分散じゃあかんの?
たった10回だと難しいってだけなのでは
ちゃんとやるならスミルノフ・グラブス検定かなあ、値が正規分布である(ディスプレイの遅れとぴったり同じところの値が出ることが1番多くて、そこからだんだん離れていくと出るこ...
大きくズレる確率を10%くらいやろって勝手に見積もって、ズレの大きいものから順に3つを捨てて残りの7つ使えば?