タグ付けされた質問 「inference」

サンプルデータから母集団パラメーターに関する結論を導き出す。https://en.wikipedia.org/wiki/Inferenceおよびhttps://en.wikipedia.org/wiki/Statistical_inferenceを参照してください

3
「扱いやすい」分布とはどういう意味ですか?
たとえば、生成的敵対的ネットワークでは、潜在変数zが与えられたxの条件付き分布が「扱いやすい」ため、推論が容易であるとよく耳にします。また、ボルツマンマシンと変分オートエンコーダーが使用され、事後分布が扱いにくいため、何らかの近似を適用する必要があることをどこかで読んだことがあります。厳密な定義で、「扱いやすい」とはどういう意味ですか?または、上記の例で誰かが説明できますか?そのコンテキストで扱いやすいとはどういう意味ですか?

3
研究者1は1000回の回帰を実行し、研究者2は1回のみを実行しますが、どちらも同じ結果になります。異なる推論を行う必要がありますか?
研究者がデータセットを調査しており、1000の異なる回帰を実行し、それらの間に1つの興味深い関係を見つけたとします。 ここで、同じデータ を持つ別の研究者がたった1つの回帰を実行し、他の研究者が1000の回帰を見つけて見つけたものと同じであることがわかります。研究者2は研究者1を知りません。 研究者1は研究者2とは異なる推論をすべきですか?どうして?たとえば、研究者1は多重比較補正を実行すべきですが、研究者2は実行すべきではありませんか? 研究者2が最初に単一の回帰を示した場合、どのような推測をしますか?その後、研究者1が結果を示した場合、推論を変更する必要がありますか?もしそうなら、なぜそれが重要なのでしょうか? PS 1:仮想の研究者について話すと問題が抽象化されるので、考えてみてください。利用可能な最良の方法を使用して、論文の回帰を1回だけ実行したと想像してください。次に、別の研究者が、あなたが実行したまったく同じ回帰が見つかるまで、同じデータで1000の異なる回帰を調査しました。二人は異なる推論をする必要がありますか?両方のケースで証拠は同じですか?他の研究者の結果を知っている場合、推論を変更する必要がありますか?公衆は2つの研究の証拠をどのように評価すべきですか? PS 2:可能であれば、具体的で、数学的/理論的な正当化を提供するようにしてください!

4
ARIMAでトレンド定常シリーズをモデル化できますか?
ARIMA(X)でのモデリングに必要な定常シリーズについて質問/混乱があります。私はこれを推論(介入の効果)の観点から考えていますが、予測と推論が反応に何らかの違いをもたらすかどうかを知りたいです。 質問: 私が読んだすべての入門資料は、シリーズが静止している必要があると述べています。これは私にとって理にかなっています。 私を混乱させているのは、ARIMA(X)のトレンドとドリフトの使用、および定常要件に対する影響(ある場合)です。 定数/ドリフト項および/またはトレンド変数を外生変数として使用する(つまり、「t」をリグレッサーとして追加する)と、シリーズが定常であるという要件が無効になりますか?シリーズに単位根がある場合(adfテストなど)、決定論的な傾向はあるが単位根がない場合、答えは異なりますか? または ARIMA(X)を使用する前に、差分および/またはトレンド除去を介して作成されたシリーズは常に静止している必要がありますか?

1
混合効果モデルの固定効果の推論
相関データがあり、ロジスティック回帰混合効果モデルを使用して、対象の予測変数の個々のレベル(条件付き)効果を推定しています。標準的な限界モデルの場合、Waldテストを使用したモデルパラメーターの推論は、尤度比テストとスコアテストで一貫していることを知っています。通常、これらはほぼ同じです。Waldは計算が簡単で、R出力で利用できるため、その99%の時間を使用します。 しかし、混合効果モデルでは、Rのモデル出力で報告されている固定効果のWaldテストと、「手作業」の尤度比テストの間に大きな違いがあることに興味をそそられました。実際に縮小モデルに適合します。直観的に、なぜこれが大きな違いを生むのかがわかります。なぜなら、縮小モデルでは、ランダム効果の分散が再推定され、尤度に大きく影響するからです。 誰か説明できますか 固定効果のWald検定統計量はどのようにRで計算されますか? 混合効果モデルの推定モデルパラメーターの情報マトリックスは何ですか?(そしてWald検定統計量の計算元と同じmxですか?) 説明したケースの2つのテストの結果の解釈の違いは何ですか?どのモデルが一般的に動機付けられ、推論のために文献で使用されていますか?

1
pymcを使用したベイジアンネットワーク推論(初心者の混乱)
現在、コースラでダフネ・コラーのPGMコースを受講しています。その点で、一般にベイジアンネットワークを、観測データの一部である変数の原因と結果の有向グラフとしてモデル化します。しかし、PyMCのチュートリアルと例では、PGMまたは少なくとも私が混乱しているのと同じようにモデル化されていないことが一般的にわかります。PyMCでは、観測された実世界変数の親は、多くの場合、変数のモデル化に使用する分布のパラメーターです。 今、私の質問は本当に実用的なものです。データが観測される3つの変数(A、B、C)があると仮定します(これらはすべて、それのためにすべて連続変数であると仮定します)。ある分野の知識から、AとBがCを引き起こすと言うことができます。したがって、ここにはBNがあります-A、Bは親であり、Cは子です。BN方程式からP(A、B、C)= P(C | A、B)* P(A)* P(B) AとBはmuとsigmaを含む正規分布であると言えますが、P(C | A、B)をモデル化するにはどうすればよいですか?私が学びたい一般的な考え方は、BNを照会できるように、PyMCを使用してこのBNをどのように学習するかです。または、何らかの方法でモデルのパラメーターを使用してBNを増強する必要がありますか? この問題はpymcを使用して解決できますか?または、いくつかの基本的な間違いがありましたか? 助けていただければ幸いです!

1
テニスの試合が1つの大きなセットであった場合、同じ精度を与えるゲームはいくつありますか?
テニスには独特の3層のスコアリングシステムがあり、より良いプレーヤーを決定するための実験としての試合という観点から、これには統計的な利点があるのだろうかと思います。 慣れていない人のために、通常のルールでは、2ポイントのリードがある限り、ゲームは最初から4ポイントで勝ちます(つまり、4-2の場合は勝ちますが、4-3の場合はさらに1ポイントが必要です。 1人のプレイヤーが2つ先になるまで進みます)。 セットはゲームのコレクションであり、セットは最初から6までに勝ち、再び2で勝たなければなりません。ただし、今回は特別なタイブレーカーゲームが行われます(ウィンブルドンの最終セットなどを除く)。 ..) 試合は、競争に応じて最初の2セットまたは3セットで勝ちます。 今、テニスはゲームが不公平であるという点でも奇妙です。どの時点でも、サーバーには大きな利点があります。したがって、サーバーが交互に行うゲームは異なります。 タイブレーカーゲームでは、すべてのポイントの後にサーブが交互に行われ、2ポイントのリードで、最初から7ポイントになります。 プレーヤーAがサーブでポイントを獲得する確率がpspsp_sあり、を受け取ったと仮定しprprp_rます。 問題はこれです。 A)ビッグ「Nゲームのベスト」マッチとしてテニスをしたばかりで、通常のベスト5セットテニスと同じ精度を与えるゲームの数 B)ちょうど大きなタイブレーカーゲームとしてテニスをプレイした場合、5セットテニスの通常のベストと同じ精度を与えるポイントはいくつですか? 明らかに、これらの答えはとp rの値自体に依存するため、知っておくとよいでしょうpspsp_sprprp_r C)、p rが一定の場合、通常のテニスでプレイされるゲームとポイントの予想数はいくらですかpspsp_sprprp_r 「精度」の定義 両方のプレイヤーのスキルが一定であると仮定した場合、無限の時間プレイした場合、プレイの形式に関係なく、いずれかのプレイヤーがほぼ確実に勝ちます。このプレイヤーは「正しい」勝者です。正しい勝者はのプレイヤーであると確信しています。pr+ps>1pr+ps>1p_r+p_s > 1 プレイのより良い形式は、同じポイント数で正しい勝者をより頻繁に生成するか、逆に少数のポイントで同じ確率で正しい勝者を生成するものです。

2
Behrens–Fisher問題
Behrens–Fisher問題に対してとられてきたさまざまなアプローチについて、数学的な詳細を含む公開された説明的な説明はありますか?

2
ベイズ推定では、なぜ一部の項が事後予測から除外されるのですか?
ケビンマーフィーのガウス分布の共役ベイズ分析では、事後予測分布は p(x∣D)=∫p(x∣θ)p(θ∣D)dθp(x∣D)=∫p(x∣θ)p(θ∣D)dθ p(x \mid D) = \int p(x \mid \theta) p(\theta \mid D) d \theta ここで、はモデルが適合するデータであり、は見えないデータです。私が理解していないのは、積分の最初の項でへの依存がなくなる理由です。確率の基本的なルールを使用して、私は期待したでしょう:DDDxxxDDD p(a)p(a∣b)p(x∣D)=∫p(a∣c)p(c)dc=∫p(a∣c,b)p(c∣b)dc↓=∫p(x∣θ,D)⋆p(θ∣D)dθp(a)=∫p(a∣c)p(c)dcp(a∣b)=∫p(a∣c,b)p(c∣b)dc↓p(x∣D)=∫p(x∣θ,D)⏞⋆p(θ∣D)dθ \begin{align} p(a) &= \int p(a \mid c) p(c) dc \\ p(a \mid b) &= \int p(a \mid c, b) p(c \mid b) dc \\ &\downarrow \\ p(x \mid D) &= \int \overbrace{p(x \mid …


2
「Xのエラー」モデルがより広く使用されないのはなぜですか?
回帰係数の標準誤差を計算するとき、計画行列ランダム性は考慮しません。たとえばOLSでは、をとして計算しますXXXvar(β^)var(β^)\text{var}(\hat{\beta})var((XTX)−1XTY)=σ2(XTX)−1var((XTX)−1XTY)=σ2(XTX)−1\text{var}((X^TX)^{-1}X^TY) = \sigma^2(X^TX)^{-1} がランダムであると見なされる場合、総分散の法則は、ある意味で、の分散の追加の寄与も要求します。すなわちXXXXXX var (β^)= var (E(β^| バツ))+ E(var (β^| バツ))。var(β^)=var(E(β^|X))+E(var(β^|X)).\text{var}(\hat{\beta}) = \text{var}(E(\hat{\beta}|X)) + E(\text{var}(\hat{\beta}|X)). これは、OLS推定量が本当に不偏である場合、期待値が一定であるため、最初の項が消えます。2番目の項は実際には次のようになります:。σ2cov (X)− 1σ2cov(X)−1\sigma^2 \text{cov}(X)^{-1} パラメトリックモデルがわかっている場合は、を実際の共分散推定値に置き換えてみませんか。たとえば、が無作為化された治療の割り当てである場合、二項分散より効率的な推定値にする必要がありますか?XXXXTXXTXX^TXXXXE(X)(1−E(X))E(X)(1−E(X))E(X)(1-E(X)) 柔軟なノンパラメトリックモデルを使用して、OLS推定でのバイアスの考えられる原因を推定し、最初の合計の法則分散項設計への感度(つまりの分布)を適切に考慮しないのはなぜですか?XXXvar(E(β^|X))var(E(β^|X))\text{var}(E(\hat{\beta}|X))

1
GLMパラメータの推論には自由度補正を使用する必要がありますか?
この質問は、Martijnのこちらの回答に触発されています。 二項モデルやポアソンモデルのような1つのパラメーターファミリーにGLMを当てはめ、それが(たとえば、準ポアソンとは対照的に)完全な尤度手順であると仮定します。次に、分散は平均の関数です。二項式:およびポアソン。var[X]=E[X]E[1−X]var[X]=E[X]E[1−X]\text{var}[X] = E[X]E[1-X]var[X]=E[X]var[X]=E[X]\text{var}[X] = E[X] 残差が正規分布している場合の線形回帰とは異なり、これらの係数の有限の正確なサンプリング分布は不明であり、結果と共変量のおそらく複雑な組み合わせです。また、GLMの平均の推定値を使用します。これは、結果の分散のプラグイン推定値として使用されます。 ただし、線形回帰と同様に、係数には漸近正規分布があるため、有限標本推論では、それらの標本分布を正規曲線で近似できます。 私の質問は、有限サンプル内の係数のサンプリング分布にT分布近似を使用することで何かを得られるかどうかです。一方で、我々は知っている、ブートストラップやジャックナイフ推定が適切にこれらの矛盾を説明することができるとき、T近似は間違った選択のように思えるので、分散をまだ我々は正確な分布を知りません。一方で、T分布のわずかな保守主義は、​​実際には単純に好まれます。

2
ベイジアン手法は本質的に逐次的ですか?
つまり、頻出主義の方法で逐次分析(収集するデータの量が事前に正確にわからない)を行うには、特別な注意が必要です。p値が十分に小さくなるか、信頼区間が十分に短くなるまで、データを収集することはできません。 しかし、ベイジアン分析を行うとき、これは懸念事項ですか?信頼できる間隔が十分に小さくなるまで、データ収集などを自由に行うことができますか?


2
長期的な変化を推測/予測するために断面データを使用するのはなぜ悪いことですか?
存在することを望んでいる論文を探していますが、存在するかどうかはわかりません。横断的データを使用して長期的な変化を推測/予測することが悪いことである可能性がある理由について、ケーススタディのセット、および/または確率論からの議論である可能性があります(つまり、必ずしもそうではないかもしれませんが)。 私はいくつかの大きな間違いがあったのを見てきました。イギリスの裕福な人々は旅行するため、社会が豊かになるにつれて、人口は全体としてより多く旅行するという推論がなされました。その推論は、10年以上の長期間にわたって真実ではないことが判明しました。そして、国内の電力使用と同様のパターン:横断的なデータは、時間とともに明らかにならない、収入の大幅な増加を意味します。 コホート効果やサプライサイドの制約など、いくつかのことが起こっています。 そのようなケーススタディをまとめた単一のリファレンスがあると非常に便利です。および/または確率理論を使用して、横断データを使用して長期的な変化を推論/予測することが非常に誤解を招く可能性がある理由を説明する そのような論文は存在しますか、ある場合、それは何ですか?

1
ネグ二項とジェフリーズ・プリアー
負の二項分布のジェフリーズの事前分布を取得しようとしています。どこが悪いのかわからないので、誰かが指摘してくれると助かります。 さて、状況ように、このです。私は二項と負の二項を用いて得られた事前分布を比較するために午前、(両方の場合に)がある場合試験およびMの成功は。二項式の場合は正しい答えが得られますが、負の二項式の場合は得られません。んnnメートルmm レッツ・コールジェフリーズの事前。そして、πJ(θ )πJ(θ)\pi_J(\theta) πJ(θ )∝ [ I(θ )]1 / 2。πJ(θ)∝[I(θ)]1/2. \pi_J(\theta)\propto [I(\theta)]^{1/2}. 規則性の条件の下で(指数関数的なファミリーを扱っているので満たされます)、 ここで、負の二項のために、Nであり、X成功の総数が上記式(中mは固定されて、N)ではありません。分布-私は思う-は私(θ )= − E(∂2ログL (θ | x )∂θ2)I(θ)=−E(∂2log⁡L(θ|x)∂θ2) I(\theta)=-E\left(\frac{\partial^2 \log L(\theta|x)}{\partial \theta^2}\right) んnnバツxxmmmnnn p(m|θ)∝θm(1−θ)n−mp(m|θ)∝θm(1−θ)n−m p(m|\theta)\propto\theta^m(1-\theta)^{n-m} θθ\thetammmmmm L(θ|n)∝θm(1−θ)n−mlogL(θ|n)=mlogθ+(n−m)log(1−θ)∂logL(θ|n)∂θ=mθ−n−m1−θ∂2logL(θ|n)∂θ2=−mθ2−n−m(1−θ)2L(θ|n)∝θm(1−θ)n−mlog⁡L(θ|n)=mlog⁡θ+(n−m)log⁡(1−θ)∂log⁡L(θ|n)∂θ=mθ−n−m1−θ∂2log⁡L(θ|n)∂θ2=−mθ2−n−m(1−θ)2 L(\theta|n)\propto\theta^m(1-\theta)^{n-m}\\ \log L(\theta|n)=m\log\theta +(n-m)\log (1-\theta)\\ \frac{\partial\log L(\theta|n)}{\partial \theta}=\frac{m}{\theta}-\frac{n-m}{1-\theta}\\ \frac{\partial^2\log L(\theta|n)}{\partial \theta^2}=-\frac{m}{\theta^2}-\frac{n-m}{(1-\theta)^2} I(θ)=−E(∂2logL(θ|n)∂θ2)=mθ2+E(n)−m(1−θ)2=mθ2+mθ1−θ−m(1−θ)2=m(1−θ)2+mθ3(1−θ)−mθ2θ2(1−θ)2=m(1−2θ)+mθ3(1−θ)θ2(1−θ)2=m(1−2θ)(1−θ)+mθ3θ2(1−θ)3=m(1−3θ+2θ2+θ3)θ2(1−θ)3∝1−3θ+2θ2+θ3θ2(1−θ)3I(θ)=−E(∂2log⁡L(θ|n)∂θ2)=mθ2+E(n)−m(1−θ)2=mθ2+mθ1−θ−m(1−θ)2=m(1−θ)2+mθ3(1−θ)−mθ2θ2(1−θ)2=m(1−2θ)+mθ3(1−θ)θ2(1−θ)2=m(1−2θ)(1−θ)+mθ3θ2(1−θ)3=m(1−3θ+2θ2+θ3)θ2(1−θ)3∝1−3θ+2θ2+θ3θ2(1−θ)3 I(\theta)=-E\left(\frac{\partial^2\log L(\theta|n)}{\partial \theta^2}\right)=\frac{m}{\theta^2}+\frac{E(n)-m}{(1-\theta)^2}=\frac{m}{\theta^2}+\frac{\frac{m\theta}{1-\theta}-m}{(1-\theta)^2}\\ =\frac{m(1-\theta)^2+\frac{m\theta^3}{(1-\theta)}-m\theta^2}{\theta^2(1-\theta)^2}=\frac{m(1-2\theta)+\frac{m\theta^3}{(1-\theta)}}{\theta^2(1-\theta)^2}\\ =\frac{m(1-2\theta)(1-\theta)+m\theta^3}{\theta^2(1-\theta)^3}=\frac{m(1-3\theta+2\theta^2+\theta^3)}{\theta^2(1-\theta)^3}\\ \propto\frac{1-3\theta+2\theta^2+\theta^3}{\theta^2(1-\theta)^3} しかし、これは私に正しい答えを与えません。正解は …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.