タグ付けされた質問 「uninformative-prior」

1
情報のないベータ事前分布の選択
私は、二項プロセス(ヒット/ミス)で機能するベータ分布の情報価値のない事前分布を探しています。最初は、均一なPDFを生成する、またはJeffrey以前のを使用することを考えました。しかし、事後結果に最小限の影響しか与えない事前分布を実際に探しています。そして、不適切な事前分布を使用することを考えました。ここでの問題は、少なくとも1つのヒットと1つのミスがある場合にのみ、事後分布が機能することです。これを克服するために、ような非常に小さな定数を使用して、後部のおよびがなるようにすることを考えました。α=1,β=1α=1,β=1\alpha=1, \beta=1α=0.5,β=0.5α=0.5,β=0.5\alpha=0.5, \beta=0.5α=0,β=0α=0,β=0\alpha=0, \beta=0α=0.0001,β=0.0001α=0.0001,β=0.0001\alpha=0.0001, \beta=0.0001αα\alphaββ\beta>0>0>0 このアプローチが受け入れられるかどうかは誰にも分かりますか?私はこれらの事前を変更することの数値的効果を見ますが、誰かがこのような小さな定数を事前として置くことの一種の解釈を私に与えることができますか?

1
情報のない事前分布のポイントは何ですか?
なぜ情報量の少ない事前分布があるのでしょうか?に関する情報は提供しません。なぜそれらを使用するのですか?なぜ有益な事前分布を使用しないのですか?例えば、仮定θ ∈ [ 0 、1 ]。そして、あるθ 〜U(0 、1 )のための無情報事前θ?θθ\thetaθ∈[0,1]θ∈[0,1] \theta \in [0,1]θ∼U(0,1)θ∼U(0,1)\theta \sim \mathcal{U}(0,1)θθ\theta

4
ベイジアンの情報のない事前分布と頻度主義の帰無仮説:関係とは?
こちらのブログ投稿でこの画像を見つけました。 この声明を読んでも、この男の場合と同じ顔の表情を引き出せなかったことにがっかりした。 では、帰無仮説は、常連客が情報のない先を表現する方法であるという声明の意味は何ですか?本当ですか? 編集:私は誰かが、少し緩い意味でさえ、声明を真実にする慈善的な解釈を提供できることを望んでいます。

3
線形回帰を行う場合、スロープには情報のない事前情報が必要ですか?
ベイジアン線形回帰を実行する場合、勾配と切片事前分布を割り当てる必要があります。以来、、それが前に均一に割り当てることは理にかなって位置パラメータです。しかし、私はがスケールパラメータに似ているように見え、その前にユニフォームを割り当てるのは不自然に思われます。b b aaaabbbbbbaaa 一方で、線形回帰の傾きに通常の有益ではないジェフリー事前分布()を割り当てることはまったく適切ではないようです。一つには、それは否定的なことができます。しかし、私はそれが他に何であるかを見ることができません。1 / a1/a1/a では、ベイジアン線形回帰の傾きの事前の「適切な」非情報とは何でしょうか。(参考文献をいただければ幸いです。)

3
一様分布のパラメータの推定:不適切な事前?
我々は、N個のサンプルを有する、一様分布からここで不明です。データからを推定します。XiXiX_i[0,θ][0,θ][0,\theta]θθ\thetaθθ\theta ベイズの法則... f(θ|Xi)=f(Xi|θ)f(θ)f(Xi)f(θ|Xi)=f(Xi|θ)f(θ)f(Xi)f(\theta | {X_i}) = \frac{f({X_i}|\theta)f(\theta)}{f({X_i})} そして可能性は: 0≤XI≤θIf(Xi|θ)=∏Ni=11θf(Xi|θ)=∏i=1N1θf({X_i}|\theta) = \prod_{i=1}^N \frac{1}{\theta} (edit:when for all、0 for -thanks whuber)0≤Xi≤θ0≤Xi≤θ0 \le X_i \le \thetaiii に関する他の情報がないため、事前分布は(つまり均一)または(Jeffreys事前?)に比例しているように見えが、私の積分は収束せず、どうすればよいかわかりません。何か案は?θθ\theta1111L1L\frac{1}{L}[0,∞][0,∞][0,\infty]

4
Rの離散時間イベント履歴(生存)モデル
Rに離散時間モデルを適合させようとしていますが、その方法がわかりません。 従属変数を時間監視ごとに1つずつ異なる行に編成し、glm関数をlogitまたはcloglogリンクで使用できることを読みました。この意味で、私は3つの列があります:ID、Event(各time-obsで1または0)およびTime Elapsed(観測の開始以降)、および他の共変量。 モデルに合うようにコードを書くにはどうすればよいですか?従属変数はどれですか?Event従属変数として使用できTime Elapsed、共変量に含めることができると思います。しかし、どうなりIDますか?必要ですか? ありがとう。
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 


3
SVDを実行して欠損値を代入する方法、具体例
SVDを適用する前に欠損値を処理する方法に関する素晴らしいコメントを読みましたが、簡単な例でどのように機能するか知りたいです。 Movie1 Movie2 Movie3 User1 5 4 User2 2 5 5 User3 3 4 User4 1 5 User5 5 1 5 上記のマトリックスを考えると、NAの値を削除すると、User2とUser5しかなくなります。これは、私のUが2×kになることを意味します。しかし、欠損値を予測する場合、Uは5×kである必要があります。これは、特異値とVで乗算できます。 上記のマトリックスで、最初に欠損値のあるユーザーを削除してからSVDを適用して、欠損値を記入する人はいますか?数学記号を使いすぎずに、適用した手順の非常に簡単な説明を提供し、答えを実用的なものにしてください(つまり、数値に別の数値を掛けると答えが得られます)。 次のリンクを読みました。 stats.stackexchange.com/q/33142 stats.stackexchange.com/q/31096 stats.stackexchange.com/q/33103
8 r  missing-data  data-imputation  svd  sampling  matlab  mcmc  importance-sampling  predictive-models  prediction  algorithms  graphical-model  graph-theory  r  regression  regression-coefficients  r-squared  r  regression  modeling  confounding  residuals  fitting  glmm  zero-inflation  overdispersion  optimization  curve-fitting  regression  time-series  order-statistics  bayesian  prior  uninformative-prior  probability  discrete-data  kolmogorov-smirnov  r  data-visualization  histogram  dimensionality-reduction  classification  clustering  accuracy  semi-supervised  labeling  state-space-models  t-test  biostatistics  paired-comparisons  paired-data  bioinformatics  regression  logistic  multiple-regression  mixed-model  random-effects-model  neural-networks  error-propagation  numerical-integration  time-series  missing-data  data-imputation  probability  self-study  combinatorics  survival  cox-model  statistical-significance  wilcoxon-mann-whitney  hypothesis-testing  distributions  normal-distribution  variance  t-distribution  probability  simulation  random-walk  diffusion  hypothesis-testing  z-test  hypothesis-testing  data-transformation  lognormal  r  regression  agreement-statistics  classification  svm  mixed-model  non-independent  observational-study  goodness-of-fit  residuals  confirmatory-factor  neural-networks  deep-learning 


1
対数正規尤度とジェフリーズの事前確率の事後密度の導出
対数正規分布の尤度関数は次のとおりです。 f(x ; μ 、σ)∝ ∏ん私11σバツ私exp( − (lnバツ私- μ )22つのσ2)f(バツ;μ、σ)αΠ私1ん1σバツ私exp⁡(−(ln⁡バツ私−μ)22σ2)f(x; \mu, \sigma) \propto \prod_{i_1}^n \frac{1}{\sigma x_i} \exp \left ( - \frac{(\ln{x_i} - \mu)^2}{2 \sigma^2} \right ) ジェフリーズの事前は次のとおりです。 p (μ 、σ)∝ 1σ2p(μ、σ)α1σ2p(\mu,\sigma) \propto \frac{1}{\sigma^2} したがって、2つを組み合わせると次のようになります。 f(μ 、σ2| x)= ∏ん私11σバツ私exp( − (lnバツ私- μ )22つのσ2) ⋅ σ− 2f(μ、σ2|バツ)=Π私1ん1σバツ私exp⁡(−(ln⁡バツ私−μ)22σ2)⋅σ−2f(\mu,\sigma^2|x)= \prod_{i_1}^n \frac{1}{\sigma x_i} \exp \left …

1
情報がない事前分布の選択
モデルの一部でキャリブレーション関数として機能する醜いパラメーター化された関数に依存するモデルに取り組んでいます。ベイジアン設定を使用して、関数を説明するパラメーターについて、情報を提供しない事前情報を取得する必要があります。理想的には、参照または少なくともジェフリーズ事前分布を導出する必要があることを知っていますが、関数は非常に醜く、多くのパラメーターがあり、実際に結果を得る可能性について悲観的です。それで、私はこの可能性を落とし、彼らが非常に有益でないようにそれらを詮索する私の前の経験的に経験的に選ぶことにしました。これが私の2つの質問です。 詮索好き以上のものを作って、推論結果から彼らの非情報性について洞察を与えることはできますか?編集:事後Vs以前のプロットが最初のポイントになると思います。たぶん、MAPとMLの推定値を比較することは、2番目の引数かもしれません。 さらに、それは「次元分析」からの選択のいくつかの側面を正当化するのに意味がありますか?例として、私は(簡単な回帰設定で)形の可能性の構造を考慮した場合: DOは、あなたは、私が上で事前のための任意の「構造」を推測することができると思いますし、B 1が重さという事実に基づいて、Xを、他方の重さE のx?Y|a,b,x=a.x+b.e−x+ϵY|a,b,x=a.x+b.e−x+ϵ Y | a,b,x = a.x+b.e^{-x} + \epsilon aaabbbxxxexexe^x
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.