タグ付けされた質問 「kalman-filter」

カルマンフィルターは、状態空間モデルの未知の状態の平均ベクトルと分散共分散行列を推定するためのアルゴリズムです。

3
時変バイアスでバイアスされたコインをモデル化する方法は?
バイアスコインのモデルには、通常、1つのパラメーターます。一連の描画からを推定する1つの方法は、ベータ事前分布を使用し、二項尤度で事後分布を計算することです。θθ = P(頭| θ )θ=P(Head|θ)\theta = P(\text{Head} | \theta)θθ\theta 私の設定では、奇妙な物理的プロセスのために、私のコインのプロパティはゆっくりと変化し、は時間関数になります。私のデータは、順序付けられた描画のセット、つまりです。私は、離散的で通常の時間グリッドでは、ごとに1つのドローしかないと考えることができます。T { H 、T 、H 、H 、H 、T 、。。。} tθθ\thetattt{ H、T、H、H、H、T、。。。}{H,T,H,H,H,T,...}\{H,T,H,H,H,T,...\}ttt これをどのようにモデル化しますか?私は、隠れた変数があるという事実に適応し、二項尤度を維持するカルマンフィルターのようなものを考えています。推論を扱いやすくするために、をモデル化するために何を使用できますか?P (θ (T + 1 )| θ (T ))θθ\thetaP(θ (t + 1 )| θ (t ))P(θ(t+1)|θ(t))P(\theta(t+1)|\theta(t)) 次の回答を編集してください(ありがとう!):HMMまたはカルマンフィルターで行われるように、を次数1のマルコフ連鎖としてモデル化したいと思います。私ができる唯一の仮定は、が滑らかであることです。私はをで小さなガウスノイズ(カルマンフィルターのアイデア)と書くことができますが、これはままにする必要があります。@J Davのアイデアに従って、プロビット関数を使用して実際の線をにマッピングすることができますが、これは非分析的な解決策を与えるという直感があります。平均ベータ分布θ (T )P (θ (T + 1 )| θ (T ))= θ (T …

2
カルマンフィルターのパラメーターを推定する方法
前の質問で、いくつかの非ガウス経験的データへの分布のあてはめについて質問しました。 データがガウスであり、カルマンフィルターを最初に当てはめると仮定して、オフラインで使用するよう提案されました。次に、エラーに応じて、より洗練されたものを開発する価値があるかどうかを判断します。それは理にかなっている。 したがって、時系列データの適切なセットを使用して、カルマンフィルターを実行するためにいくつかの変数を推定する必要があります。 (もちろん、どこかにRパッケージがあると思いますが、実際に自分でこれを行う方法を学びたいと思います。)

1
ARIMA対カルマンフィルター-それらはどのように関連していますか
カルマンフィルターについて読み始めたとき、それはARIMAモデル(つまりARIMA(0,1,1))の特殊なケースであると思いました。しかし、実際には状況はより複雑であるようです。まず、ARIMAは予測に使用でき、カルマンフィルターはフィルタリングに使用できます。しかし、それらは密接に関連していませんか? 質問: ARIMAとカルマンフィルターの関係は何ですか?別のものを使用していますか?別の特別なケースですか?

1
カルマンフィルターと平滑化スプライン
Q:スプラインを平滑化する代わりに状態空間モデリングとカルマンフィルターを使用するのが適切なデータはどれですか?2つの間に同等の関係はありますか? これらの方法がどのように組み合わされるかについて、ある程度の高レベルの理解を得ようとしています。Johnstoneの新しいGaussian Estimation:Sequence and Multiresolution Modelsを閲覧しました。意外なことに、状態空間モデルとカルマンフィルタリングについては1つも言及されていません。なぜそこにないのですか?これは、この種の問題に対する最も標準的なツールではありませんか?代わりに、焦点はスプラインの平滑化とウェーブレットしきい値処理にありました。私は今とても混乱しています。

1
線形動的システムに関連する混乱
この本を読んでいたのは、ビショップのパターン認識と機械学習です。線形力学系の導出に関して混乱がありました。LDSでは、潜在変数が連続的であると想定しています。Zが潜在変数を示し、Xが観測変数を示す場合 p(zn|zn−1)=N(zn|Azn−1,τ)p(zn|zn−1)=N(zn|Azn−1,τ)p(z_n|z_{n-1}) = N(z_n|Az_{n-1},\tau) p(xn|zn)=N(xn,Czn,Σ)p(xn|zn)=N(xn,Czn,Σ)p(x_n|z_n) = N(x_n,Cz_n,\Sigma) p(z1)=N(z1|u0,V0)p(z1)=N(z1|u0,V0)p(z_1) = N(z_1|u_0,V_0) LDSでは、アルファベータ前方後方メッセージパッシングを使用して、事後潜在分布、つまりp (z n | X )が計算されます。p(zn|X)p(zn|X)p(z_n|X) α(zn)=p(x1...xn,zn)α(zn)=p(x1...xn,zn)\alpha(z_n)=p(x1...xn,z_n) α^(zn)=α(zn)/P(x1....xn)α^(zn)=α(zn)/P(x1....xn)\hat\alpha(z_n) = \alpha(z_n)/P(x1....xn) 私の最初の質問は、それが与えられている本の中にあります α^(zn)=N(zn|un,Vn)α^(zn)=N(zn|un,Vn)\hat\alpha(z_n) = N(z_n|u_n,V_n) α^(zn)α^(zn)\hat\alpha(z_n)N(zn|un,Vn))N(zn|un,Vn))N(z_n|u_n,V_n)) 添付されている本のページのスクリーンショットをたどることができるので、私の次の質問は派生に関連しています。ませんでしたKnKnK_n un=Aun−1+Kn(xn−CAun−1)un=Aun−1+Kn(xn−CAun−1)u_n = Au_{n-1} + K_n(x_n - CAu_{n-1}) Vn=I−KnC)P(n−1)Vn=I−KnC)P(n−1)V_n = I - K_nC)P_(n-1) cn=N(xn|CAun−1,CPn−1CT+Σcn=N(xn|CAun−1,CPn−1CT+Σc_n = N(x_n|CAu_{n-1},CP_{n-1}C^T + \Sigma KnKnK_nPn−1CT(CPn−1CT+Σ)−1Pn−1CT(CPn−1CT+Σ)−1P_{n-1}C^T(CP_{n-1}C^T + \Sigma) ^ {-1} 上記の方程式をどのように導き出したのか、つまり un=Aun−1+Kn(xn−CAun−1)un=Aun−1+Kn(xn−CAun−1)u_n …

1
観測されたイベントと期待されたイベントを比較する方法は?
4つの可能なイベントの頻度の1つのサンプルがあるとします。 Event1 - 5 E2 - 1 E3 - 0 E4 - 12 そして、私は自分のイベントの発生が予想される確率を持っています: p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 4つのイベントの観測頻度の合計(18)を使用して、イベントの予想頻度を計算できますか? expectedE1 - 18 * 0.2 = 3.6 expectedE2 - 18 * 0.1 = 1.8 expectedE1 - 18 * 0.1 = 1.8 expectedE1 - …
9 r  statistical-significance  chi-squared  multivariate-analysis  exponential  joint-distribution  statistical-significance  self-study  standard-deviation  probability  normal-distribution  spss  interpretation  assumptions  cox-model  reporting  cox-model  statistical-significance  reliability  method-comparison  classification  boosting  ensemble  adaboost  confidence-interval  cross-validation  prediction  prediction-interval  regression  machine-learning  svm  regularization  regression  sampling  survey  probit  matlab  feature-selection  information-theory  mutual-information  time-series  forecasting  simulation  classification  boosting  ensemble  adaboost  normal-distribution  multivariate-analysis  covariance  gini  clustering  text-mining  distance-functions  information-retrieval  similarities  regression  logistic  stata  group-differences  r  anova  confidence-interval  repeated-measures  r  logistic  lme4-nlme  inference  fiducial  kalman-filter  classification  discriminant-analysis  linear-algebra  computing  statistical-significance  time-series  panel-data  missing-data  uncertainty  probability  multivariate-analysis  r  classification  spss  k-means  discriminant-analysis  poisson-distribution  average  r  random-forest  importance  probability  conditional-probability  distributions  standard-deviation  time-series  machine-learning  online  forecasting  r  pca  dataset  data-visualization  bayes  distributions  mathematical-statistics  degrees-of-freedom 

2
データのROC曲線を計算する
そのため、ハミング距離を使用して生体認証特性から個人を認証しようとしている16のトライアルがあります。しきい値は3.5に設定されています。私のデータは以下であり、トライアル1のみが真陽性です。 Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 7 0.47 8 0.32 9 0.39 10 0.45 11 0.42 12 0.37 13 0.66 14 0.39 15 0.44 16 0.39 私の混乱のポイントは、このデータからROC曲線(FPR対TPR OR FAR対FRR)を作成する方法が本当にわからないということです。どちらでもかまいませんが、どうやって計算するのか混乱しています。任意の助けいただければ幸いです。
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 

3
分布を見つけて正規分布に変換する
1時間にイベントが発生する頻度(「1時間あたりの数」、nph)とイベントが持続する時間(「1秒あたりの秒数」、dph)を説明するデータがあります。 これは元のデータです: nph <- c(2.50000000003638, 3.78947368414551, 1.51456310682008, 5.84686774940732, 4.58823529414907, 5.59999999993481, 5.06666666666667, 11.6470588233699, 1.99999999998209, NA, 4.46153846149851, 18, 1.05882352939726, 9.21739130425452, 27.8399999994814, 15.3750000002237, NA, 6.00000000004109, 9.71428571436649, 12.4848484848485, 16.5034965037115, 20.6666666666667, 3.49999999997453, 4.65882352938624, 4.74999999996544, 3.99999999994522, 2.8, 14.2285714286188, 11.0000000000915, NA, 2.66666666666667, 3.76470588230138, 4.70588235287673, 13.2727272728677, 2.0000000000137, 18.4444444444444, 17.5555555555556, 14.2222222222222, 2.00000000001663, 4, 8.46153846146269, 19.2000000001788, 13.9024390245481, 13, 3.00000000004366, NA, …
8 normal-distribution  data-transformation  logistic  generalized-linear-model  ridge-regression  t-test  wilcoxon-signed-rank  paired-data  naive-bayes  distributions  logistic  goodness-of-fit  time-series  eviews  ecm  panel-data  reliability  psychometrics  validity  cronbachs-alpha  self-study  random-variable  expected-value  median  regression  self-study  multiple-regression  linear-model  forecasting  prediction-interval  normal-distribution  excel  bayesian  multivariate-analysis  modeling  predictive-models  canonical-correlation  rbm  time-series  machine-learning  neural-networks  fishers-exact  factorisation-theorem  svm  prediction  linear  reinforcement-learning  cdf  probability-inequalities  ecdf  time-series  kalman-filter  state-space-models  dynamic-regression  index-decomposition  sampling  stratification  cluster-sample  survey-sampling  distributions  maximum-likelihood  gamma-distribution 

2
カルマンフィルターで不完全なデータを処理する方法
カルマンフィルターで不完全なデータを処理するための典型的なアプローチは何ですか?私は、観測ベクトルのいくつかの要素が状況について話しているytyty_t全体の観測ベクトルの場合は異なる欠けている、ytyty_t逃しています。これについての別の考え方は、観測されたベクトルの次元pppが各時点で異なるということです。 私のコンテキストをもう少し説明すると、観測値は各時点で実行されたロジスティック回帰から推定されたパラメーターです。各ロジスティック回帰には同じ共変量が含まれていますが、その時点のデータの共線性が原因で推定値が定義されていない場合があります。

1
どこから始めるか:多数の外れ値またはランダム性がある不等間隔の時系列
何ができるのか本当にわからないので、正しい方向への指針を求めています。 時間と位置の測定値があります。これは、歩いている人、道路上の車、駐車場、オフィスのプリンターなど、あらゆるものです。2点間の車両の移動時間を計算する必要があります。曲がりくねったルートをたどる場合もあれば、AからBに到着するまでに数日かかる場合もあります。あるいは、歩行者や緊急時のサービス車両である場合もあります。 メインルートに沿った通常の車両の推定所要時間を知りたい。 検出は、特定の半径を持つ検出器の近くに誰かがいるときはいつでも行われます。検出が非常に少ない場合があります。これは、道路が空で、所要時間が適切であることを意味しますが、道路が閉鎖されていることを示している可能性があり、所要時間はひどいものになります。または、交通が動いていないことを示す検出がたくさんあり、道路をオフにするためにキューに入れられている可能性がありますが、他の車両は通常の速度で走行しています。 プロットはランダムノイズのように見えます。 編集: 現在、私は2つの方法を検討しています。 四分位範囲を使用して外れ値を破棄する カルマンフィルターを使用します。 時々刻々と変化することを期待しない限り、私は旅行時間のモデルを持っていないので、フィルターは行くのに間違った方法だと思います。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.