タグ付けされた質問 「fisher-information」

フィッシャー情報は対数尤度の曲率を測定し、推定量の効率を評価するために使用できます。


2
フィッシャー情報行列とヘッセ行列誤差および標準誤差との関係に関する基本的な質問
わかりました、これは非常に基本的な質問ですが、私は少し混乱しています。私の論文では、次のように書いています。 (観測された)フィッシャー情報行列の対角要素の平方根の逆数を計算することにより、標準誤差を見つけることができます。 -ログLI(μ、σ2)=H-1sμ^,σ^2=1I(μ^,σ^2)−−−−−−√sμ^,σ^2=1I(μ^,σ^2)\begin{align*} s_{\hat{\mu},\hat{\sigma}^2}=\frac{1}{\sqrt{\mathbf{I}(\hat{\mu},\hat{\sigma}^2)}} \end{align*} Rの最適化コマンドは最小化するため、(観測された)フィッシャー情報行列は、ヘッセ行列の逆数を計算することで見つけることができます: −logL−log⁡L-\log\mathcal{L}I( μ^、σ^2)= H− 1I(μ^,σ^2)=H−1\begin{align*} \mathbf{I}(\hat{\mu},\hat{\sigma}^2)=\mathbf{H}^{-1} \end{align*} 私の主な質問:これは私が言っていることは正しいですか? 7ページのこのソースでは次のように書かれているため、少し混乱しています。 情報行列は、ヘッセ行列の期待値の負です (したがって、ヘッセ行列の逆行列はありません。) 一方、このソースの 7ページ(脚注5)には次のように記載されています。 観測されたフィッシャー情報は等しくなります。(− H)− 1(−H)−1(-H)^{-1} (だからここは逆です。) 私はマイナス記号とそれをいつ使用するか、そしていつ使用しないかを知っていますが、なぜ逆符号をとるかどうかで違いがありますか?

3
フィッシャー情報とはどのような情報ですか?
ランダム変数ます。場合は trueパラメータだった、尤度関数を最大化し、ゼロに等しい派生する必要があります。これが最尤推定量の背後にある基本原則です。バツ〜F(x | θ )バツ〜f(バツ|θ)X \sim f(x|\theta)θ0θ0\theta_0 私が理解するように、フィッシャー情報は次のように定義されます 私(θ )= E [ (∂∂θf(X| θ))2]私(θ)=E[(∂∂θf(バツ|θ))2]I(\theta) = \Bbb E \Bigg[\left(\frac{\partial}{\partial \theta}f(X|\theta)\right)^2\Bigg ] したがって、が真のパラメーターである場合、です。しかし、が真のパラメーターでない場合、フィッシャーの情報が多くなります。θ0θ0\theta_0私(θ )= 0私(θ)=0I(\theta) = 0θ0θ0\theta_0 私の質問 フィッシャー情報は、特定のMLEの「エラー」を測定しますか?言い換えると、ポジティブなフィッシャー情報の存在は、私のMLEが理想的ではないことを意味しないのでしょうか? 「情報」のこの定義は、シャノンが使用する定義とどのように異なりますか?なぜそれを情報と呼ぶのですか?

3
フィッシャーメトリックと相対エントロピーの関係
誰かがフィッシャー情報メトリックと相対エントロピー(またはKL発散)の間の次の関係を純粋に数学的な厳密な方法で証明できますか? D(p(⋅,a+da)∥p(⋅,a))=12gi,jdaidaj+(O(∥da∥3)D(p(⋅,a+da)∥p(⋅,a))=12gi,jdaidaj+(O(‖da‖3)D( p(\cdot , a+da) \parallel p(\cdot,a) ) =\frac{1}{2} g_{i,j} \, da^i \, da^j + (O( \|da\|^3) ここでa=(a1,…,an),da=(da1,…,dan)a=(a1,…,an),da=(da1,…,dan)a=(a^1,\dots, a^n), da=(da^1,\dots,da^n)、gi,j=∫∂i(logp(x;a))∂j(logp(x;a)) p(x;a) dxgi,j=∫∂i(log⁡p(x;a))∂j(log⁡p(x;a)) p(x;a) dxg_{i,j}=\int \partial_i (\log p(x;a)) \partial_j(\log p(x;a))~ p(x;a)~dxgi,jdaidaj:=∑i,jgi,jdaidajgi,jdaidaj:=∑i,jgi,jdaidajg_{i,j} \, da^i \, da^j := \sum_{i,j}g_{i,j} \, da^i \, da^j(x; a)〜dxおよびg_ {i、j} \、da ^ i \、da ^ j:= \ sum_ …

2
階層モデルのフィッシャー情報
次の階層モデル、 および、 ここで、は正規分布です。与えられたの周辺分布のフィッシャー情報の正確な式を取得する方法はあり。つまり、次のフィッシャー情報は何ですか: 与えられた の周辺分布の式を取得できます。しかし、wrtを区別してから期待値を取ることは非常に難しいようです。明らかな何かが欠けていますか?任意の助けをいただければ幸いです。バツ〜N(μ 、1 )、バツ〜N(μ、1)、 X \sim {\mathcal N}(\mu,1), μ 〜L P L A C E(0 、C)μ〜Laplace(0、c) \mu \sim {\rm Laplace}(0, c) N(⋅ 、⋅ )N(⋅、⋅)\mathcal{N}(\cdot,\cdot)バツバツXcccp (x | c )= ∫p(x | μ )p (μ | c )dμp(バツ|c)=∫p(バツ|μ)p(μ|c)dμ p(x | c) = \int p(x|\mu) p(\mu|c) d\mu バツバツXcccccc

2
フィッシャー情報マトリックスが半正定値であるのはなぜですか?
ましょう。フィッシャー情報マトリックスは次のように定義されます。θ∈Rnθ∈Rn\theta \in R^{n} I(θ)i,j=−E[∂2log(f(X|θ))∂θi∂θj∣∣∣θ]I(θ)i,j=−E[∂2log⁡(f(X|θ))∂θi∂θj|θ]I(\theta)_{i,j} = -E\left[\frac{\partial^{2} \log(f(X|\theta))}{\partial \theta_{i} \partial \theta_{j}}\bigg|\theta\right] フィッシャー情報マトリックスが半正定値であることをどのように証明できますか?

2
観測されたフィッシャー情報が正確に使用されるのはなぜですか?
標準最尤設定(iidサンプル密度)の分布からの)および指定されたモデルの場合、フィッシャー情報は F Y(Y | θ 0をY1、… 、YnY1,…,YnY_{1}, \ldots, Y_{n}fy(y| θ0fy(y|θ0f_{y}(y|\theta_{0} 私(θ )= − Eθ0[ ∂2θ2lnfy(θ )]I(θ)=−Eθ0[∂2θ2ln⁡fy(θ)]I(\theta) = -\mathbb{E}_{\theta_{0}}\left[\frac{\partial^{2}}{\theta^{2}}\ln f_{y}(\theta) \right] ここでは、データを生成した真の密度に関して予測が行われます。観察されたフィッシャー情報を読んだ J^(θ)=−∂2θ2lnfy(θ)J^(θ)=−∂2θ2ln⁡fy(θ)\hat{J}(\theta) = -\frac{\partial^{2}}{\theta^{2}}\ln f_{y}(\theta) (予想される)フィッシャー情報の計算に含まれる積分が場合によっては実行できない可能性があるため、私を混乱させているのは、積分が実行可能であっても、未知のパラメーター値が関係している真のモデルに関して期待をしなければならないことです。その場合は、を知らないを計算することは不可能です。これは本当ですか? θ 0 Iθ0θ0\theta_{0}θ0θ0\theta_{0}私II

2
ジェフリーズとは異なり、不変ではない事後確率につながる事前確率の例
ここで2週間ほど前に出した質問への「回答」を再投稿しています。なぜジェフリーズの事前知識が役に立つのですか?しかし、それは本当に質問でした(また、私はその時点でコメントを投稿する権利もありませんでした)。 上記のリンクでは、Jeffreysの以前の興味深い特徴は、モデルを再パラメータ化するときに、結果の事後分布が、変換によって課せられる制限に従う事後確率を与えるということです。そこに説明されているように、ベータベルヌーイの例の成功確率からオッズに移動するとき、事後が。θθ\thetaψ=θ/(1−θ)ψ=θ/(1−θ)\psi=\theta/(1-\theta)P(1/3≤θ≤2/3∣X=x)=P(1/2≤ψ≤2∣X=x)P(1/3≤θ≤2/3∣X=x)=P(1/2≤ψ≤2∣X=x)P(1/3\leq\theta\leq 2/3\mid X=x)=P(1/2\leq\psi\leq 2\mid X=x) をオッズに変換するためのジェフリーズの不変性の数値例を作成し、さらに興味深いことに、他の事前分布(たとえば、Haldane、ユニフォーム、または任意のもの)がないことを作成したいと考えました。θθ\thetaψψ\psi さて、成功確率の事後がベータである場合(ジェフリーズだけでなく任意のベータ事前の場合)、オッズの事後は同じパラメーターで第2種のベータ分布(Wikipediaを参照)に従います。次に、以下の数値例で強調されているように、Jeffreysだけでなく、ベータ事前の選択(alpha0_Uおよびで遊んでくださいbeta0_U)に不変性があることは(少なくとも私にとって)それほど驚くことではありません。プログラムの出力。 library(GB2) # has the Beta density of the 2nd kind, the distribution of theta/(1-theta) if theta~Beta(alpha,beta) theta_1 = 2/3 # a numerical example as in the above post theta_2 = 1/3 odds_1 = theta_1/(1-theta_1) # the corresponding odds odds_2 = theta_2/(1-theta_2) n …

2
観測された情報マトリックスは、予想される情報マトリックスの一貫した推定量ですか?
弱一貫性最尤推定器(MLE)で評価された観測情報行列が、期待される情報行列の弱一貫性推定器であることを証明しようとしています。これは広く引用された結果ですが、誰も参照や証明をしていません(Googleの結果の最初の20ページと統計テキストを使い果たしたと思います)。 弱一貫性のあるMLEシーケンスを使用して、大きな数の弱い法則(WLLN)と連続マッピング定理を使用して、必要な結果を得ることができます。ただし、連続マッピング定理は使用できないと思います。代わりに、多数の統一法則(ULLN)を使用する必要があると思います。誰かがこれの証拠を持っている参照を知っていますか?ULLNを試みていますが、簡潔にするため、現時点では省略します。 この質問の長さをおaびしますが、表記を導入する必要があります。表記は次のとおりです(私の証明は最後です)。 我々は確率変数のIIDサンプルがあるとし{Y1,…,YN}{Y1,…,YN}\{Y_1,\ldots,Y_N\}密度のf(Y~|θ)f(Y~|θ)f(\tilde{Y}|\theta)、ここで(は、サンプルのメンバーのいずれか1つと同じ密度の単なる一般的なランダム変数です)。ベクトルは、すべてのであるすべてのサンプルベクトルのベクトルです。。密度の真のパラメーター値はであり、θ∈Θ⊆Rkθ∈Θ⊆Rk\theta\in\Theta\subseteq\mathbb{R}^{k}Y~Y~\tilde{Y}Y=(Y1,…,YN)TY=(Y1,…,YN)TY=(Y_1,\ldots,Y_N)^{T}Yi∈RnYi∈RnY_{i}\in\mathbb{R}^{n}i=1,…,Ni=1,…,Ni=1,\ldots,Nθ N(Y )θ0θ0\theta_{0}θ^N(Y)θ^N(Y)\hat{\theta}_{N}(Y)はの弱一貫性最尤推定量(MLE)です。規則性条件に従って、フィッシャー情報マトリックスは次のように記述できます。θ0θ0\theta_{0} I(θ)=−Eθ[Hθ(logf(Y~|θ)]I(θ)=−Eθ[Hθ(log⁡f(Y~|θ)]I(\theta)=-E_\theta \left[H_{\theta}(\log f(\tilde{Y}|\theta)\right] ここでヘッセ行列です。同等のサンプルはHθHθ{H}_{\theta} IN(θ)=∑i=1NIyi(θ),IN(θ)=∑i=1NIyi(θ),I_N(\theta)=\sum_{i=1}^N I_{y_i}(\theta), ここで、。観測された情報行列は次のとおりです。Iyi=−Eθ[Hθ(logf(Yi|θ)]Iyi=−Eθ[Hθ(log⁡f(Yi|θ)]I_{y_i}=-E_\theta \left[H_{\theta}(\log f(Y_{i}|\theta)\right] J(θ)=−Hθ(logf(y|θ)J(θ)=−Hθ(log⁡f(y|θ)J(\theta) = -H_\theta(\log f(y|\theta)、 (一部の人々は行列がで評価される需要θが、一部にはありません)。サンプルの観測情報マトリックスは次のとおりです。θ^θ^\hat{\theta} JN(θ)=∑Ni=1Jyi(θ)JN(θ)=∑i=1NJyi(θ)J_N(\theta)=\sum_{i=1}^N J_{y_i}(\theta) ここで、。Jyi(θ)=−Hθ(logf(yi|θ)Jyi(θ)=−Hθ(log⁡f(yi|θ)J_{y_i}(\theta)=-H_\theta(\log f(y_{i}|\theta) Iは、推定の確率に収束を証明することができるにI (θ )ではなくのN - 1 J N(θ N(Y ))にI (θ 0)。ここまでが私の証明です。N−1JN(θ)N−1JN(θ)N^{-1}J_N(\theta)I(θ)I(θ)I(\theta)N−1JN(θ^N(Y))N−1JN(θ^N(Y))N^{-1}J_{N}(\hat{\theta}_N(Y))I(θ0)I(θ0)I(\theta_{0}) 今の要素である(R 、よ)のJ N(θ )いずれかのために、R 、s = 1 、… 、k(JN(θ))rs=−∑Ni=1(Hθ(logf(Yi|θ))rs(JN(θ))rs=−∑i=1N(Hθ(log⁡f(Yi|θ))rs(J_{N}(\theta))_{rs}=-\sum_{i=1}^N (H_\theta(\log f(Y_i|\theta))_{rs}(r,s)(r,s)(r,s)JN(θ)JN(θ)J_N(\theta)r,s=1,…,kr,s=1,…,kr,s=1,\ldots,k。サンプルはIIDされている場合は、多数(WLLN)の弱法則、確率のこれらの加数が収束の平均によるに。したがって、N − 1(J N(θ )−Eθ[(Hθ(logf(Y1|θ))rs]=(IY1(θ))rs=(I(θ))rs−Eθ[(Hθ(log⁡f(Y1|θ))rs]=(IY1(θ))rs=(I(θ))rs-E_{\theta}[(H_\theta(\log …

1
帰無仮説の下で交換可能なサンプルの背後にある直感は何ですか?
順列テスト(ランダム化テスト、再ランダム化テスト、または正確なテストとも呼ばれます)は非常に便利で、たとえば、必要な正規分布の仮定がt-test満たされていない場合や、ランク付けによる値の変換時に役立ちますノンパラメトリックテストのようにMann-Whitney-U-test、より多くの情報が失われます。ただし、この種の検定を使用する場合、帰無仮説の下でのサンプルの交換可能性の仮定は1つだけの仮定を見落とすべきではありません。coinRパッケージで実装されているようなサンプルが3つ以上ある場合にも、この種のアプローチを適用できることも注目に値します。 この仮定を説明するために、平易な英語で比fig的な言葉や概念的な直観を使ってください。これは、私のような非統計学者の間で見過ごされているこの問題を明確にするのに非常に役立つでしょう。 注: 置換テストの適用が同じ仮定の下で保持または無効にならない場合に言及することは非常に役立ちます。 更新: 私の地区の地元の診療所から無作為に50人の被験者を収集したとします。彼らは、1:1の比率で薬またはプラセボを無作為に割り当てられました。それらはすべてPar1、V1(ベースライン)、V2(3か月後)、およびV3(1年後)のパラメーター1について測定されました。50個の被験者はすべて、機能Aに基づいて2つのグループにサブグループ化できます。Aポジティブ= 20およびAネガティブ=30。これらは、機能Bに基づいて別の2つのグループにサブグループ化することもできます。Bポジティブ= 15およびBネガティブ=35 。今、私はPar1すべての訪問ですべての被験者からの値を持っています。交換可能性の仮定の下で、次のPar1場合に順列検定を使用するレベルを比較でき ますか?-薬物と被験者をV2でプラセボを投与した被験者と比較する ますか?-機能Aの対象とV2の機能Bの対象を比較しますか? -V2で機能Aを持つ対象とV3で機能Aを持つ対象を比較しますか? -この比較はどのような状況で無効であり、交換可能性の仮定に違反しますか?
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

1
フィッシャー情報マトリックスの存在条件
異なる教科書では、フィッシャー情報マトリックスの存在に関する異なる条件を引用しています。そのような条件のいくつかを以下にリストします。それぞれの条件は、「フィッシャー情報マトリックス」の定義のすべてではなく一部に表示されます。 標準的な最小限の条件セットはありますか? 以下の5つの条件のうち、どれを廃止できますか? 条件の1つをなくすことができる場合、そもそもその条件が含まれていたと考えるのはなぜですか? 条件の1つで解決できない場合、それを指定しなかった教科書は誤った、または少なくとも不完全な定義を与えたということですか? ザックス、統計的推論の理論(1971)、p。194 マトリックスすべてのための正定のθ ∈ Θ。 I(θ)I(θ)\mathcal{I}\left(\theta\right)θ∈Θθ∈Θ\theta\in\Theta Schervish、Theory of Statistics(1997、corr。2nd print)、Definition 2.78、p。111 集合すべてについて同じですθ。 C={x:f(x;θ)>0}C={x:f(x;θ)>0}C=\left\{x:f\left(x;\theta\right)>0\right\}θθ\theta f(x;θ)f(x;θ)f\left(x;\theta\right)θiθi\theta_i I(θ)I(θ)\mathcal{I}\left(\theta\right) ∂2∂θi∂θjf(x;θ)∂2∂θi∂θjf(x;θ)\frac{\partial^2}{\partial\theta_i\partial\theta_j}f\left(x;\theta\right) これと比較して、ここにリーマンとカセッラの条件の完全なリストがあります。ポイント推定の理論(1998)。p。124: ΘΘ\Theta C={x:f(x,θ)>0}C={x:f(x,θ)>0}C=\left\{x:f\left(x,\theta\right)>0\right\}θ∈Θθ∈Θ\theta\in\Theta ∂f(x;θ)∂θi∂f(x;θ)∂θi\frac{\partial f\left(x;\theta\right)}{\partial\theta_i} そしてここに、Barra、Notions fondamentales de statistique mathematique(1971)の条件の完全なリストがあります。定義1、p。35: θ∈Θθ∈Θ\theta\in\Theta=0=0=0 ∫f(x;θ) μ(dx)∫f(x;θ) μ(dx)\int f\left(x;\theta\right)\space \mu\left(dx\right)θiθi\theta_i

1
フィッシャー情報の決定要因
(同様の質問をmath.seに投稿しました。) 情報幾何学では、フィッシャー情報行列の行列式は統計多様体上の自然な体積形式であるため、幾何学的な解釈が優れています。たとえば、ジェフリーズの事前定義に現れるという事実は、再パラメータ化の下での不変性に関連しています。これは幾何学的特性です。 しかし、統計におけるその決定要因は何ですか?意味のあるものを測定しますか?(たとえば、ゼロの場合、パラメーターは独立していないと言います。これはさらに先へ進みますか?) また、少なくともいくつかの「簡単な」場合に、それを計算するための閉じた形式はありますか?

2
過剰パラメーター化モデルのフィッシャー情報行列行列式
ベルヌーイ確率変数の検討X∈{0,1}X∈{0,1}X\in\{0,1\}パラメータとθθ\theta(成功の確率)。尤度関数とフィッシャー情報(1×11×11 \times 1行列)は次のとおりです。 L1(θ;X)I1(θ)=p(X|θ)=θX(1−θ)1−X=detI1(θ)=1θ(1−θ)L1(θ;X)=p(X|θ)=θX(1−θ)1−XI1(θ)=detI1(θ)=1θ(1−θ) \begin{align} \mathcal{L}_1(\theta;X) &= p(\left.X\right|\theta) = \theta^{X}(1-\theta)^{1-X} \\ \mathcal{I}_1(\theta) &= \det \mathcal{I}_1(\theta) = \frac{1}{\theta(1-\theta)} \end{align} 成功の確率:今、二つのパラメータを持つ「オーバー・パラメータ」バージョンを検討と失敗の確率。(であり、この制約はパラメーターの1つが冗長であることを意味します。)この場合、尤度関数とフィッシャー情報行列(FIM)は次のとおりです。θ1θ1\theta_1θ0θ0\theta_0θ1+θ0=1θ1+θ0=1\theta_1+\theta_0=1 L2(θ1,θ0;X)I2(θ1,θ0)detI2(θ)=p(X|θ1,θ0)=θX1θ1−X0=(1θ1001θ0)=1θ1θ0=1θ1(1−θ1)L2(θ1,θ0;X)=p(X|θ1,θ0)=θ1Xθ01−XI2(θ1,θ0)=(1θ1001θ0)detI2(θ)=1θ1θ0=1θ1(1−θ1) \begin{align} \mathcal{L}_2(\theta_1,\theta_0;X) &= p(\left.X\right|\theta_1,\theta_0) = \theta_1^{X}\theta_0^{1-X} \\ \mathcal{I}_2(\theta_1,\theta_0) &= \left( \begin{matrix} \frac{1}{\theta_1} & 0 \\ 0 & \frac{1}{\theta_0} \end{matrix} \right) \\ \det \mathcal{I}_2(\theta) &= \frac{1}{\theta_1 \theta_0} = \frac{1}{\theta_1 (1-\theta_1)} \end{align} …

1
相互に排他的でないカテゴリを分類できる深層学習モデル
例:仕事の説明に「英国のJavaシニアエンジニア」という文があります。 私は2つのカテゴリとして、それを予測することは、深い学習モデルを使用したい:English とIT jobs。従来の分類モデルを使用する場合softmax、最後のレイヤーで機能を持つ1つのラベルのみを予測できます。したがって、2つのモデルのニューラルネットワークを使用して、両方のカテゴリで「はい」/「いいえ」を予測できますが、さらに多くのカテゴリがあると、コストがかかりすぎます。では、2つ以上のカテゴリを同時に予測するためのディープラーニングまたは機械学習モデルはありますか? 「編集」:従来のアプローチによる3つのラベルでは、[1,0,0]によってエンコードされますが、私の場合、[1,1,0]または[1,1,1]によってエンコードされます 例:3つのラベルがあり、文がこれらすべてのラベルに収まる場合。したがって、softmax関数からの出力が[0.45、0.35、0.2]である場合、3つのラベルまたは2つのラベルに分類する必要がありますか、それとも1つにすることができますか?それを行うときの主な問題は、1、2、または3つのラベルに分類するための適切なしきい値は何ですか?
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

1
変換の下で観察されたフィッシャー情報
:Y. Pawitanによって"オール尤度尤度を使用して統計的モデリングと推論"、再パラメータ化の可能性として定義される L *(ψ )= 最大{ θ :G (θ )= ψ } L (θ ) したがって、gが1対1の場合、L ∗(ψ )= L (g − 1(ψ )θ ↦ グラム(θ )= ψθ↦g(θ)=ψ\theta\mapsto g(\theta)=\psiL∗(ψ )= 最大{ θ :g(θ )= ψ }L (θ )L∗(ψ)=max{θ:g(θ)=ψ}L(θ) L^*(\psi)=\max_{\{\theta:g(\theta)=\psi\}} L(\theta) gggL∗(ψ )= L (g− 1(ψ ))L∗(ψ)=L(g−1(ψ))L^*(\psi)=L(g^{-1}(\psi))(p。45)。私があればと述べたエクササイズ2.20を表示しようとしていますスカラーである(と私は推測gは、同様のスカラ関数であると考えられる)、その後、 私は*(G (θ))= I (θ)| ∂ …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.