タグ付けされた質問 「bayesian」

ベイズ推定は、モデルパラメータを確率変数として扱い、ベイズの定理を適用して、観測されたデータセットを条件とするパラメータまたは仮説に関する主観的な確率ステートメントを推定することに依存する統計的推定の方法です。


3
一様分布のパラメータの推定:不適切な事前?
我々は、N個のサンプルを有する、一様分布からここで不明です。データからを推定します。XiXiX_i[0,θ][0,θ][0,\theta]θθ\thetaθθ\theta ベイズの法則... f(θ|Xi)=f(Xi|θ)f(θ)f(Xi)f(θ|Xi)=f(Xi|θ)f(θ)f(Xi)f(\theta | {X_i}) = \frac{f({X_i}|\theta)f(\theta)}{f({X_i})} そして可能性は: 0≤XI≤θIf(Xi|θ)=∏Ni=11θf(Xi|θ)=∏i=1N1θf({X_i}|\theta) = \prod_{i=1}^N \frac{1}{\theta} (edit:when for all、0 for -thanks whuber)0≤Xi≤θ0≤Xi≤θ0 \le X_i \le \thetaiii に関する他の情報がないため、事前分布は(つまり均一)または(Jeffreys事前?)に比例しているように見えが、私の積分は収束せず、どうすればよいかわかりません。何か案は?θθ\theta1111L1L\frac{1}{L}[0,∞][0,∞][0,\infty]

3
統計学習の要素の演習2.2
教科書は最初にいくつかの2クラスデータを生成します。 それは与える: そしてそれは尋ねます: 私はこれをこのグラフィカルモデルで最初にモデル化することでこれを解決しようとします: ここで、はラベル、hccc選択された平均値の指標である M個のCのH、および Xのデータポイントです。これはh(1≤h≤10)h(1≤h≤10)h\,(1\le h \le 10)mchmhcm_h^cxxx Pr(x∣mch)=Pr(mch∣h,c=blue)=Pr(mch∣h,c=orange)=Pr(h)=Pr(c)=N(mch,I/5)N((1,0)T,I)N((0,1)T,I)11012Pr(x∣mhc)=N(mhc,I/5)Pr(mhc∣h,c=blue)=N((1,0)T,I)Pr(mhc∣h,c=orange)=N((0,1)T,I)Pr(h)=110Pr(c)=12 \begin{align*} \Pr(x\mid m_h^c) =& \mathcal{N}(m_h^c,\mathbf{I}/5)\\ \Pr(m_h^c\mid h,c=\mathrm{blue}) =& \mathcal{N}((1,0)^T,\mathbf{I})\\ \Pr(m_h^c\mid h,c=\mathrm{orange}) =& \mathcal{N}((0,1)^T,\mathbf{I})\\ \Pr(h) =& \frac{1}{10}\\ \Pr(c) =& \frac{1}{2} \end{align*} {x:Pr(c=blue∣x)=Pr(c=orange∣x)}{x:Pr(c=blue∣x)=Pr(c=orange∣x)}\{x:\Pr(c=\mathrm{blue}\mid x)=\Pr(c=\mathrm{orange}\mid x)\} Pr(c∣x)=Pr(x∣c)=Pr(x∣c)Pr(c)∑cPr(x∣c)Pr(c)∑h∫mchPr(h)Pr(mch∣h,c)Pr(x∣mch)Pr(c∣x)=Pr(x∣c)Pr(c)∑cPr(x∣c)Pr(c)Pr(x∣c)=∑h∫mhcPr(h)Pr(mhc∣h,c)Pr(x∣mhc) \begin{align*} \Pr(c\mid x) =& \frac{\Pr(x\mid c)\Pr(c)}{\sum_c\Pr(x\mid c)\Pr(c)}\\ \Pr(x\mid c) =& \sum_h\int_{m_h^c}\Pr(h)\Pr(m_h^c\mid h,c)\Pr(x\mid m_h^c) \end{align*} x=yx=yx=ymchmhcm_h^c404040 …

2
この単一の値はその分布と一致しますか?
これは非常に素朴な質問のように感じますが、私は答えを見るのに苦労しています。 30個の値のセットが1つあります。独立して私は31番目の値を得ました。帰無仮説は、31番目の値が同じ分布の一部であるというものです。代替案は、その違いです。ある種のp値または尤度の尺度が必要です。 私が持っていたいくつかの考え: これは、2つのサンプルのt検定を実行するのに似ています。ただし、2番目のサンプルの場合、1つの値しかなく、30の値が必ずしも正規分布しているわけではありません。 30回の測定の代わりに10000回の測定をした場合、単一の測定のランクがいくつかの有用な情報を提供する可能性があります。 この尤度またはp値を計算するにはどうすればよいですか? ありがとう!ヤニック

4
Rの離散時間イベント履歴(生存)モデル
Rに離散時間モデルを適合させようとしていますが、その方法がわかりません。 従属変数を時間監視ごとに1つずつ異なる行に編成し、glm関数をlogitまたはcloglogリンクで使用できることを読みました。この意味で、私は3つの列があります:ID、Event(各time-obsで1または0)およびTime Elapsed(観測の開始以降)、および他の共変量。 モデルに合うようにコードを書くにはどうすればよいですか?従属変数はどれですか?Event従属変数として使用できTime Elapsed、共変量に含めることができると思います。しかし、どうなりIDますか?必要ですか? ありがとう。
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

3
Winbugsおよびその他のMCMC(事前配布の情報なし)
パラメータの分布がわからない場合はどうなりますか?どのアプローチを使用する必要がありますか? ほとんどの場合、特定の変数が特定の種の存在/不在に何らかの影響を及ぼし、その変数が変数の重要度に従って受け入れられるかどうかについては、十分に検討することを目指しています。これは、ほとんどの場合、パラメーターが持つはずの推定分布については考えていません。 b1、b2、b3およびb4が-2と2の間で変化し、b0が-5と5の間で変化する可能性があることを私が知っているすべてのパラメーターが正規分布に従うと仮定することは正しいですか? model { # N observations for (i in 1:N) { species[i] ~ dbern(p[i]) logit(p[i]) <- b0 + b1*var1[i] + b2*var2[i] + b3*var3[i] + b4*var4[i] } # Priors b0 ~ dnorm(0,10) b1 ~ dnorm(0,10) b2 ~ dnorm(0,10) b3 ~ dnorm(0,10) b4 ~ dnorm(0,10) }
10 r  bayesian  mcmc  bugs  winbugs 

5
最初にベイジアンモデルを適合させてから、事前分布を弱め始めることは問題ありませんか?
頻出統計を行う場合、より多くのデータを収集することを決定する前に統計的検定の結果を確認するなど、大きな禁止事項の長いリストがあります。ベイジアン統計に含まれる方法論について同様のno-nosリストがあるかどうか、一般的には次のいずれかであるかどうか、私は一般的に思っています。 最近、私がフィッティングしている一部のモデルについて、私のプロセスは、情報を提供する事前分布をモデルに適合させ、それが機能するかまたは爆発するかを確認し、次に、事前情報を弱くするか、情報を提供しないか、弱くすることであることに気づきました。モデルを再フィットします。 これに対する私の動機は、これらのモデルをJAGS / Stanで作成しているという事実に関係しています。そして、私の心では、統計的なものよりもプログラミングタスクのように扱ってきました。したがって、私は最初の実行を行い、有益な事前分布を使用してすばやく収束するようにリギングして、作成したモデルのエラーを簡単にキャッチできるようにします。次に、モデルをデバッグした後、情報が不十分な、または情報量の少ない事前計算を行います。 私の質問は、私がこのプロセスでいくつかの深刻なルールを破っているのかどうかです。たとえば、私の推論を有効にして、研究者の自由度を活用することを避けるために、モデルのフィッティングを開始する前に特定の事前確率にコミットする必要がありますか?

1
WinBUGSで特定の変数の予測を取得する方法は?
私はWinBUGSの新しいユーザーであり、あなたの助けに1つの質問があります。次のコードを実行した後、私はのパラメータを持っbeta0てbeta4(統計情報、密度)が、私は最後の値の予測を取得する方法がわからないh私がするように設定、NAコード内でモデル化することを。 誰かが私にヒントを与えることができますか?何かアドバイスをいただければ幸いです。 model { for(i in 1: N) { CF01[i] ~ dnorm(0, 20) CF02[i] ~ dnorm(0, 1) h[i] ~ dpois (lambda [i]) log(lambda [i]) <- beta0 + beta1*CF03[i] + beta2*CF02[i] + beta3*CF01[i] + beta4*IND[i] } beta0 ~ dnorm(0.0, 1.0E-6) beta1 ~ dnorm(0.0, 1.0E-6) beta2 ~ dnorm(0.0, 1.0E-6) beta3 ~ dnorm(0.0, …

1
R線形回帰のカテゴリ変数「非表示」の値
これは私が何度か遭遇した例にすぎないため、サンプルデータはありません。Rで線形回帰モデルを実行する: a.lm = lm(Y ~ x1 + x2) x1は連続変数です。x2カテゴリ型で、「低」、「中」、「高」の3つの値があります。ただし、Rによって与えられる出力は次のようになります。 summary(a.lm) Estimate Std. Error t value Pr(>|t|) (Intercept) 0.521 0.20 1.446 0.19 x1 -0.61 0.11 1.451 0.17 x2Low -0.78 0.22 -2.34 0.005 x2Medium -0.56 0.45 -2.34 0.005 私は、Rがそのような要因(要因x2であること)に何らかのダミーコーディングを導入していることを理解しています。私はただ疑問に思っていx2ます。「高」の値をどのように解釈しますか?たとえば、ここで示した例の「High」x2は応答変数にどのような影響を与えますか? これの例を他の場所(例:ここ)で見ましたが、理解できる説明は見つかりませんでした。
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

4
10D MCMCチェーンがある場合、Rでその事後モードをどのように決定できますか?
質問: 10次​​元のMCMCチェーンを使用して、ドローのマトリックスを渡す準備ができているとしましょう。特に複数のモードに関心があります。 バックグラウンド:私自身は計算に精通している統計学者だと思いますが、同僚がこの質問をしたとき、私は合理的な答えを出すことができなかったことを恥ずかしく思いました。主な懸念事項は、複数のモードが表示される可能性があることですが、10次元のうち少なくとも8次元程度が考慮される場合に限られます。私の最初の考えは、カーネル密度推定を使用することでしたが、Rを検索しても、3次元を超える問題については何も約束されませんでした。同僚は10次元のアドホックビニング戦略を提案し、最大値を検索しましたが、帯域幅が重大なスパース性の問題を引き起こすか、複数のモードを識別するための解像度が不足する可能性があるのではないかと心配しています。とは言っても、自動化された帯域幅の提案、10カーネル密度推定器へのリンクなど、知っていることなら何でも喜んで受け入れます。 懸念事項: ディストリビューションはかなり歪んでいると思われます。したがって、事後平均ではなく事後モードを識別したいとします。 いくつかの事後モードが存在する可能性があることを懸念しています。 可能であれば、Rベースの提案をお勧めします。しかし、実装するのが信じられないほど難しくない限り、どのようなアルゴリズムでも機能します。最初から自動化された帯域幅選択を備えたNdカーネル密度推定器を実装したくないと思います。

1
確率的プログラミングとは何ですか?
過去1年間、私はPyMC3やStanなどの確率的プログラミング(PP)フレームワーク、およびPPがいかに優れているかについて多くのことを聞いてきました。そして今日、誰かがこのリンクを私と共有しました: Pyro:深い確率的プログラミング言語 ただし、PPで実行できることは他の汎用言語で実行できるように感じるため、特別なことには触れません。PPには魅力的な技術的側面(並列計算など)があると確信していますが、これはさておき、PPは他の言語と本当に違うのですか? 質問:私は、PPとは何か、それがR、Matlab、Mathematicaなどの他の統計に焦点を当てたソフトウェアとどのように異なるのかについてコンセンサスがあるのか​​と思っていました。これは、ことに留意すべきであるPyMC3とStan多くのベイズ分析に焦点を当てています。 Googleで少し調べてみたところ、次の2つの定義に出くわしました。1つ目はより抽象的で、2つ目はPPの技術的特徴についてです。 1.2。確率的プログラミングは 代わりに、確率的プログラミングは統計モデリングのためのツールです。アイデアは、プログラミング言語の世界からの教訓を借り、統計モデルの設計と使用の問題に適用することです。専門家は統計モデルをすでに手作業で紙の数学表記で構築していますが、機械的な推論ではサポートが難しい専門家のみのプロセスです。PPの重要な洞察は、統計モデリングが十分に行うと、プログラミングのように感じ始めることができるということです。飛躍を遂げ、実際にモデリングに実際の言語を使用すると、多くの新しいツールが実現可能になります。各インスタンスの論文を書くことを正当化するために使用されたタスクの自動化を開始できます。 次に、2番目の定義を示します。確率的プログラミング言語はrand、プログラムの統計的動作を理解するのに役立つ関連ツールの非常に大きな山を備えた通常のプログラミング言語です。 これらの定義はどちらも正確です。彼らは同じ核となる考えに異なる角度を強調するだけです。どちらが適切かは、PPを何に使用するかによって異なります。しかし、PPLプログラムが通常のソフトウェア実装によく似ているという事実に気を取られないでください。その目的は、プログラムを実行して何らかの出力を取得することです。PPの目標は、実行ではなく分析です(強調を追加)。 - 確率的プログラミング 一般的な統計コミュニティがPPのこれら2つの定義に同意するかどうか、および他の特性がある場合、この定義が欠落している可能性があるかどうか知りたい。

1
ベイズ後部(ベルンシュタインフォンミーゼス)の漸近正規性はいつ失敗しますか?
(いつものように)指定された事後密度関数を考える π(θ)∏i=1nf(xi;θ),π(θ)∏i=1nf(xi;θ), \pi(\theta) \prod_{i=1}^n f(x_i;\theta), 前濃度とππ\piと分布f(⋅;θ)f(⋅;θ)f(\cdot;\theta)のnnn観測値x1,…,xnx1,…,xnx_1, \dots, x_n、パラメータ値条件としますθθ\theta。 特定の条件下では、事後分布は漸近的に正規です(結果はバーンスタインフォンミーゼスの定理として知られています。厳密な引数については、egvd Vaart、漸近統計、セクション10.2、またはYoung&Smith、Essentials of Statistical Inference、セクション9.12を参照してください。 、非公式の議論のために。) ベイジアン事後が漸近的に正常でない(うまくいけば基本的な)例はありますか?特に、次のような例があります。 ππ\piとfffはに関して連続的に微分可能θθ\thetaですか? π(θ)>0π(θ)>0\pi(\theta) > 0すべてのπ (θ )> 0θθ\theta? 文献で指摘した1つの例は、が位置パラメータθをもつ独立したコーシー確率変数であるというものです。この場合、正の確率で、尤度関数の複数の極大が存在します(Young&Smith、例8.3を参照)。おそらくこれはB-vMの定理に問題があるかもしれませんが、よくわかりません。X1,…,XnX1,…,XnX_1, \dots, X_nθθ\theta 更新: BvMの十分な条件は次のとおりです(vd Vaart、セクション10.2に記載)。 データは、固定パラメータで分布から得られるθ0θ0\theta_0 実験はで「`平方平均で微分可能である正則フィッシャー情報行列を持つI (θ 0)θ0θ0\theta_0I(θ0)I(θ0)I(\theta_0) 以前は、周辺地域の絶対連続であるθ0θ0\theta_0 モデルは連続的で識別可能です H0:θ=θ0H0:θ=θ0H_0 : \theta = \theta_0ε > 0H1:∥θ−θ0∥≥εH1:‖θ−θ0‖≥εH_1 : \|\theta -\theta_0\| \geq \varepsilonε>0ε>0\varepsilon > 0

2
サンプリングなしの高次元推論問題における不確実性推定?
勾配ベースの最適化と遺伝的アルゴリズムの組み合わせを使用して対数事後のグローバル最大値を見つけることにより、MAP推定を確実に実行できる高次元推論問題(約2000モデルのパラメーター)に取り組んでいます。 MAP推定値を見つけることに加えて、モデルパラメーターの不確実性をある程度推定できるようになりたいです。 パラメータに関して対数事後の勾配を効率的に計算できるため、長期的にはハミルトニアンMCMCを使用してサンプリングを行うことを目指していますが、今のところ、非サンプリングベースの推定に興味があります。 私だけが知っているアプローチ我々は計算してもいるので、多変量正規として後方に近似するモードで、ヘッセ行列の逆行列を計算し、それでもこれは、このような大規模なシステムのために実現不可能と思われることです〜4 × 106∼4×106\sim 4\times10^{6}の要素をHessianその逆を見つけることができなかったと確信しています。 このような場合に一般的にどのようなアプローチが使用されているかを誰かが提案できますか? ありがとう! 編集 -問題に関する追加情報 背景 これは、大規模な物理学実験に関連する逆問題です。いくつかの物理フィールドを記述する2D三角形メッシュがあり、モデルパラメーターは、メッシュの各頂点におけるそれらのフィールドの物理値です。メッシュには約650個の頂点があり、3つのフィールドをモデル化するため、2000個のモデルパラメーターがそこから取得されます。 私たちの実験データは、これらのフィールドを直接測定しない機器からのものですが、フィールドの複雑な非線形関数である量です。さまざまな機器のそれぞれについて、モデルパラメータを実験データの予測にマップするフォワードモデルがあり、予測と測定の比較により対数尤度が得られます。 次に、これらすべての異なる計測器からの対数尤度を合計し、フィールドにいくつかの物理的制約を適用するいくつかの対数優先値を追加します。 したがって、この「モデル」がカテゴリにきちんと分類されるかどうかは疑問です。モデルを選択することはできません。実験データを収集する実際の機器がどのように機能するかによって決まります。 データセット データセットは500x500の画像で構成され、カメラごとに1つの画像があるため、合計データポイントは500x500x4 = 10610610^6です。 エラーモデル 問題のすべてのエラーを現時点でガウス分布と見なします。ある時点で、柔軟性を高めるためにスチューデントtエラーモデルに移行しようとするかもしれませんが、ガウシアンだけでも問題なく機能するようです。 可能性の例 これはプラズマ物理実験であり、私たちのデータの大部分は、レンズの前に特定のフィルターを備えたプラズマに向けられたカメラから得られ、光スペクトルの特定の部分のみを見ています。 データを再現するには、2つのステップがあります。最初に、メッシュ上のプラズマからの光をモデル化する必要があります。次に、その光をモデル化してカメラ画像に戻す必要があります。 残念ながら、プラズマからの光のモデル化は、実効レート係数とは何かに依存します。これは、フィールドが与えられたさまざまなプロセスによって放出される光の量を示します。これらのレートはいくつかの高価な数値モデルによって予測されるため、それらの出力をグリッドに保存し、値を検索するために補間する必要があります。レート関数データは一度だけ計算されます-データを保存してから、コードの起動時にそこからスプラインを作成し、そのスプラインをすべての関数評価に使用します。 仮定するR1R1R_1及びR2R2R_2(我々は補間によって評価する)速度関数、で次に排出されている私ii「番目頂点メッシュのE私Ei\mathcal{E}_iによって与えられ、 E私= R1(x私、y私)+ z私R2(x私、y私)Ei=R1(xi,yi)+ziR2(xi,yi) \mathcal{E}_i = R_1(x_i, y_i) + z_i R_2(x_i, y_i) ここで(x 、y、z)(x,y,z)(x,y,z)メッシュ上でモデル化する3つのフィールドです。放出のベクトルをカメラ画像に取得するのは簡単です。これは、各カメラピクセルがメッシュのどの部分を透視するかをエンコードする行列GG\mathbf{G}を乗算するだけです。 エラーはガウスであるため、この特定のカメラの対数尤度は L=−12(GE⃗ −d⃗ )⊤Σ−1(GE⃗ −d⃗ )L=−12(GE→−d→)⊤Σ−1(GE→−d→) \mathcal{L} = -\frac{1}{2} (\mathbf{G}\vec{\mathcal{E}} …

1
なぜベイジアン後部はKL発散の最小化子に集中するのですか?
ベイズ事後考えてみましょθ∣Xθ∣X\theta\mid X。漸近的に、その最大値はMLE推定値で発生θだけ尤度最大化し、argminのθをθ^θ^\hat \thetaargminθfθ(X)argminθfθ(X)\operatorname{argmin}_\theta\, f_\theta(X)。 これらのすべての概念、つまり可能性を最大化するベイズの事前分布は、超原理的であり、まったく恣意的ではありません。ログが見えません。 しかし、MLEは、実際の分布とのKLダイバージェンスを最小限に抑えf~f~\tilde fとfθ(x)fθ(x)f_\theta(x)すなわち、それは最小限に抑え、 KL(f~∥fθ)=∫+∞−∞f~(x)[logf~(x)−logfθ(x)]dxKL(f~∥fθ)=∫−∞+∞f~(x)[log⁡f~(x)−log⁡fθ(x)]dx KL(\tilde f \parallel f_\theta) = \int_{-\infty}^{+\infty} \tilde f(x) \left[ \log \tilde f(x) - \log f_\theta(x) \right] \, dx うわー、これらのログはどこから来たのですか?特にKLの相違はなぜですか? たとえば、異なる発散を最小化することが、ベイジアン後任者の超原理的で動機付けられた概念に対応せず、上記の可能性を最大化しないのはなぜですか? このコンテキストでは、KLの相違やログについて特別なことがあるようです。もちろん、私たちは空中に手を投げて、それがまさに数学がそうであると言うことができます。しかし、明らかにするために、より深い直感やつながりがあるのではないかと思います。

3
ベイズ推定器は、真のパラメーターが前のものの可能な変量であることを要求しますか?
これは哲学的な質問のビットかもしれませんが、ここで私達は行く:決定理論では、リスクのベイズ推定量θ(X )のためのθ ∈ Θ事前分布に関して定義されたπのΘ。θ^(x)θ^(x)\hat\theta(x)θ∈Θθ∈Θ\theta\in\Thetaππ\piΘΘ\Theta ここで、一方で、真のがデータを生成した(つまり、「存在する」)には、θはπの下で可能な変数である必要があります。一方、θは既知ではないため、事前分布が選択されているため、真のθが、選択したπの下で可能な変量であるという保証はありません。θθ\thetaθθ\thetaππ\piθθ\thetaθθ\thetaππ\pi さて、どうやらθが変量になるようにを選択する必要があるようです。そうでなければ、特定の定理が成り立たなくなります。たとえば、ミニマックス推定値は、最も好ましい事前分布のベイズ推定値にはなりません。なぜなら、その領域からθを含む大きな領域を除外し、その領域からθを含めることで、事前分布を任意に悪くすることができるからです。ただし、θが実際に領域内にあることを保証することは困難です。ππ\piθθ\thetaθθ\thetaθθ\theta だから私の質問は: 一般的に、実際のはπの可能な変量であると想定されていますか?θθ\thetaππ\pi これは保証されますか? これに違反するケースは少なくとも何らかの方法で検出できるので、条件が満たされない場合、ミニマックスなどの定理に依存しませんか? それが必要でない場合、なぜ決定理論の標準結果が保持されるのですか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.