タグ付けされた質問 「interpretation」

一般に、統計分析の結果から実質的な結論を出すことを指します。

3
GARCHパラメーターの解釈方法は?
標準のGARCHモデルを使用します: rtσ2t=σtϵt=γ0+γ1r2t−1+δ1σ2t−1rt=σtϵtσt2=γ0+γ1rt−12+δ1σt−12\begin{align} r_t&=\sigma_t\epsilon_t\\ \sigma^2_t&=\gamma_0 + \gamma_1 r_{t-1}^2 + \delta_1 \sigma^2_{t-1} \end{align} さまざまな係数の推定値があり、それらを解釈する必要があります。したがって、私は何をするか、素敵な解釈について疑問に思って、γ 1およびδ 1を表しますか?γ0γ0\gamma_0γ1γ1\gamma_1δ1δ1\delta_1 私がいることがわかり一定の一部のようなものです。したがって、それは一種の「周囲のボラティリティ」を表します。γ 1は、過去のショックへの調整を表しています。また、δ 1は私にとって非常に直感的ではありません:それは、PASのボラティリティへの調整を表しています。しかし、これらのパラメーターをより良く、より包括的に解釈したいと思います。γ0γ0\gamma_0γ1γ1\gamma_1δ1δ1\delta_1 缶誰かが私にそれらのパラメータが表すと(例えばあれば、それは何を意味してどのようなパラメータの変化を説明することができるものの良い説明与えるので、増加を?)。γ1γ1\gamma_1 また、いくつかの本(たとえばTsay)で調べましたが、良い情報を見つけることができなかったので、これらのパラメーターの解釈に関する文献の推奨事項は高く評価されます。 編集:永続性を解釈する方法にも興味があります。それでは、まさに永続性とは何ですか? いくつかの本では、私は、GARCH(1,1)の持続性があることを、読みが、著書で例えばキャロル・アレクサンダーページ283のは、彼がおよそだけ話しβパラメータ(私のδ 1を永続化されて)パラメータ。だから、ボラティリティの持続性(の間に差があるσ トン)とショックで永続性(のR tは)?γ1+δ1γ1+δ1\gamma_1+\delta_1ββ\betaδ1δ1\delta_1σtσt\sigma_trtrtr_t

1
OLS係数よりも大きいか、
リッジ回帰を実行する場合、最小二乗の下で対応する係数より大きくなる係数をどのように解釈しますか(特定の値について)?リッジ回帰は単調に係数を縮小すると想定されていませんか?λλ\lambda 関連するノートでは、リッジ回帰中に符号が変化する係数をどのように解釈しますか(つまり、リッジトレースプロットでリッジトレースが負から正に交差する)。

1
カテゴリー変数間の相互作用が含まれる場合の混合モデルからの回帰出力の解釈
混合モデル/ lmerの使用について質問があります。基本モデルは次のとおりです。 lmer(DV ~ group * condition + (1|pptid), data= df) グループと条件は両方の要因です。グループには2つのレベル(groupA、groupB)があり、条件には3つのレベル(condition1、condition2、condition3)があります。それは人間の被験者からのデータであるため、pptidは各人のランダムな効果です。 モデルは、p値の出力で以下を見つけました。 Estimate MCMCmean HPD95lower HPD95upper pMCMC Pr(>|t|) (Intercept) 6.1372 6.1367 6.0418 6.2299 0.0005 0.0000 groupB -0.0614 -0.0602 -0.1941 0.0706 0.3820 0.3880 condition2 0.1150 0.1151 0.0800 0.1497 0.0005 0.0000 condition3 0.1000 0.1004 0.0633 0.1337 0.0005 0.0000 groupB:condition2 -0.1055 -0.1058 …

4
「節度」対「相互作用」?
私はこれらの2つの用語に出くわしましたが、これらの用語は多くの文脈で同じ意味で使用されています。 基本的に、モデレーター(M)はXとYの関係に影響を与える要因です。通常、モデレーション分析は回帰モデルを使用して行われます。たとえば、性別(M)は、「製品調査」(X)と「製品購入」(Y)の関係に影響を与える可能性があります。 相互作用では、X1とX2が相互作用してYに影響します。ここで同じ例は、「製品研究」(X1)が「性別」(X2)の影響を受け、一緒に「製品購入」(Y)に影響することです。 節度では、MはXY関係に影響しますが、相互作用では、M(この場合は性別)が他のIVに影響することがわかります。 質問:プロジェクトの目的が性別がXとYの関係にどのように影響するかを確認することである場合、モデレーションまたはインタラクションを使用する必要がありますか? 注:私のプロジェクトは、XとYの因果関係ではなく、XとYの相関関係に関するものです。

1
ロジスティック回帰におけるインターセプトモデルの有無の違い
ロジスティック回帰における切片モデルの有無の違いを理解したい インターセプトでは係数がベースライングループと比較してlog(オッズ比)を考慮し、インターセプトなしではlog(odds)を考慮することを除いて、それらの間に違いはありますか?私が見たものから、係数は両方のケースで同じですが、重要性は常に同じではなく、なぜそれが理解されていない..さらに、どのケースで切片なしでモデルを使用するのが正しいでしょうか? これが私のモデルglm(NeverReturn ~ factor(Network) * TotalPrice , family = binomial)です。「実際の単語」では合計価格が50以下になることはないので、インターセプトを除外するかどうかはわかりませんが、確率は0ではなく1になるので混乱しています。

1
コルモゴロフ–スミルノフ検定対t検定
2つのサンプルKSテストの解釈、および2つのグループ間の通常のtテストとの違いを理解するのに多少の困難があります。 男性と女性に何らかのタスクを実行させ、そのタスクからいくつかのスコアを収集するとします。私の究極の目標は、そのタスクで男性と女性のパフォーマンスが異なるかどうかを判断することです したがって、私ができることの1つは、2つのグループ間でテストを実行することです。もう1つできることは、男性と女性のECDFを計算してプロットし、2サンプルのKSテストを実施することです。私はこのようなものを手に入れます: KSテスト KS検定の帰無仮説は、2セットの連続スコア分布が同じ母集団から得られるというものです KSテストを実行すると、D = 0.18888、p-value = 0.04742が得られます 最初に、結果の解釈が正しいことを確認します。ここでは、帰無仮説を棄却し、男性と女性のスコア分布は異なる母集団に由来すると言います。または、言い換えれば、男性と女性のスコアの分布は互いに異なります。 より具体的には、男性はこのタスクでより低いスコアを達成する可能性が高い傾向があり、それはプロットから解釈すると2つの性別の違いです T検定 テストでは、スコア変数で男性と女性の平均値の差をテストします。 このタスクで男性のパフォーマンスが女性より悪い場合を想像してみましょう。その場合、男性のスコアの分布は低い平均に集中し、女性のスコアの分布は高い平均に集中します。男性は低いスコアを達成する確率が高いため、このシナリオは上記のプロットと一致します。 t検定が有意であると判明した場合、私は女性が平均して男性よりも有意に高いスコアを獲得すると結論付けます。または、人口の観点では、女性のスコアは、男性の人口よりも平均が高い人口から引き出されます。これは、異なる人口から得られたKSの結論と非常によく似ています。 違いは何ですか? したがって、KSとtの両方のテストケースで説明する結論は同じです。男性は女性に比べて成績が低い。それで、あるテストを他のテストよりも使用する利点は何ですか?KSテストを使用して得られる新しい知識はありますか? 私が見ているように、分布が低い平均を中心とする男性と高い平均を中心とする女性が、有意なt検定の原因です。しかし、そのまったく同じ事実により、男性はより低い値をスコアリングする確率が高くなり、プロットが上記のようになり、重要なKSテストが行​​われます。そのため、両方のテストの結果には同じ根本原因がありますが、KSテストでは分布の平均以上のものを考慮し、分布の形状も考慮するが、原因を解析することは可能です。テスト結果からの重要なKSテストの では、テスト時にKSテストを実行することの価値は何ですか?そして、この質問のt検定の仮定を満たすことができると仮定しましょう

2
ポアソンGLM結果のパラメーター推定値の解釈方法[終了]
閉まっている。この質問はトピック外です。現在、回答を受け付けていません。 この質問を改善したいですか? 質問を更新して、相互検証のトピックになるようにします。 5年前に閉鎖されました。 Call: glm(formula = darters ~ river + pH + temp, family = poisson, data = darterData) Deviance Residuals: Min 1Q Median 3Q Max -3.7422 -1.0257 0.0027 0.7169 3.5347 Coefficients: Estimate Std.Error z value Pr(>|z|) (Intercept) 3.144257 0.218646 14.381 < 2e-16 *** riverWatauga -0.049016 0.051548 -0.951 0.34166 …

2
Rのcoxphの「coef」と「(exp)coef」の出力の違いは何ですか?
私は、coxphの「coef」および「(exp)coef」出力が正確に何を意味するかを見極めようとしています。「(exp)coef」は、コマンドで割り当てられたグループに応じたモデルの最初の変数の比較であるようです。 coxph関数は、「coef」および「(exp)coef」の値にどのように到達しますか? さらに、打ち切りが含まれる場合、coxphはこれらの値をどのように決定しますか?

1
カテゴリカルデータを使用した負の二項GLMからの.L&.Q出力の解釈
私は負の二項GLMを実行しただけで、これが出力です。 Call: glm.nb(formula = small ~ method + site + depth, data = size.dat, init.theta = 1.080668549, link = log) Deviance Residuals: Min 1Q Median 3Q Max -2.2452 -0.9973 -0.3028 0.3864 1.8727 Coefficients: Estimate Std. Error z value Pr(>|z|) (Intercept) 1.6954 0.1152 14.720 < 2e-16 *** method.L -0.6828 0.1637 -4.171 …

2
予測は統計学者の能力を判断するための「黄金の基準」ですか?
先週末、R(初版)でFarawayの教科書の線形モデルを読んでいました。Farawayには「統計戦略とモデルの不確実性」という章がありました。彼は非常に複雑なモデルを使用して人為的にいくつかのデータを生成したと述べ(158ページ)、学生にデータをモデル化し、学生の予測結果と読み取り結果を比較するように依頼しました。残念ながら、ほとんどの学生はテストデータを過剰に適合させ、予測値を完全に外れました。この現象を説明するために、彼は私に非常に印象的な何かを書きました: 「モデルが非常に異なっていた理由は、生徒がさまざまな方法を異なる順序で適用したためです。一部は変換前に変数選択を行い、他は逆になりました。ことを使用し、学生のいくつかと、明らかに間違って何も見つけることができなかった、彼らが行っていたものとします。一人の学生は、計算にミスを犯した彼または彼女は、予測値が、残りの部分では、明らかに間違って何もありませんでした。この割り当てのパフォーマンスが表示されませんでした試験におけるそれとの関係。 」 モデルの予測精度は、最高のモデル性能を選択するための「黄金の基準」であると教育を受けました。誤解しない限り、これはKaggleコンテストで使用される一般的な方法でもあります。しかし、ここでFarawayは、モデルの予測パフォーマンスには何の関係もないという、異なる性質のものを観察しました。関係する統計学者の能力を使って。つまり、予測力の観点から最適なモデルを構築できるかどうかは、実際の経験によって決定されるわけではありません。代わりに、それは巨大な「モデルの不確実性」(盲目的な運?)によって決定されます。私の質問は、これは実生活のデータ分析でも同様ですか?または、非常に基本的なものと混同されましたか?これが真実なら、実際のデータ分析への影響は計り知れないからです。データの背後にある「実際のモデル」を知らなくても、経験豊富な/経験のない統計学者によって行われた作業に本質的な違いはありません:利用可能なトレーニングデータ。

1
切片の標準誤差は、が0からさらに増加するのはなぜですか?
切片用語の標準誤差()においてによって与えられる ここで\バー{X}はありますx_iの平均。、Y=β1X+β0+εSE( β 0)2=σ2[1β^0β^0\hat{\beta}_0y=β1x+β0+εy=β1x+β0+εy=\beta_1x+\beta_0+\varepsilonˉXXISE(β^0)2=σ2[1n+x¯2∑ni=1(xi−x¯)2]SE(β^0)2=σ2[1n+x¯2∑i=1n(xi−x¯)2]SE(\hat{\beta}_0)^2 = \sigma^2\left[\frac{1}{n}+\frac{\bar{x}^2}{\sum_{i=1}^n(x_i-\bar{x})^2}\right]x¯x¯\bar{x}xixix_i 私が理解したことから、SEは不確実性を定量化します。たとえば、サンプルの95%で、区間[β^0−2SE,β^0+2SE][β^0−2SE,β^0+2SE][\hat{\beta}_0-2SE,\hat{\beta}_0+2SE]には真の\ beta_0が含まれます。β0β0\beta_0。SE(不確実性の尺度)が\ bar {x}とともにどのように増加するかを理解できませんx¯x¯\bar{x}。x¯=0x¯=0\bar{x}=0になるようにデータを単純にシフトすると、不確実性は下がりますか?それは不合理なようです。 類似の解釈は-データの非中心バージョンでは、β^0β^0\hat{\beta}_0はx=0x=0x=0での予測に対応し、中心データでは、β^0β^0\hat{\beta}_0はx = \での予測に対応しますbar {x}x=x¯x=x¯x=\bar{x}。したがって、これはx=0x=0x=0での予測に関する不確実性がx = \ bar {x}での予測に関する不確実性よりも大きいことを意味しx=x¯x=x¯x=\bar{x}ますか?それも理にかなっていないようで、エラーϵϵ\epsilonはxのすべての値に対して同じ分散を持っているxxxので、私の予測値の不確実性はすべてのxに対して同じでなければなりませんxxx。 私の理解にはギャップがあると思います。誰かが私が何が起こっているのか理解するのを手伝ってもらえますか?

4
ランダム性とは何ですか?
確率と統計では、「ランダム」と「ランダム性」の概念が頻繁に使用されます。多くの場合、偶然により発生するイベントをモデル化するために、ランダム変数の概念が使用されます。 私の質問は「ランダム」という用語に関するものです。ランダムとは何ですか?ランダム性は本当に存在しますか? 私は、ランダムなイベントを扱った経験が豊富な人が、ランダム性について考え、信じていることに興味があります。

3
Box-Cox変換されたデータで、元の単位で回答を表現します
一部の測定では、分析の結果が変換されたスケールで適切に表示されます。ただし、ほとんどの場合、元の測定スケールで結果を表示することが望ましいです(そうでない場合、作業は多かれ少なかれ価値がなくなります)。 たとえば、ログ変換されたデータの場合、ログに記録された値の平均は平均のログではないため、元のスケールでの解釈に問題が発生します。対数スケールでの平均の推定値の逆対数をとっても、元のスケールでの平均の推定値は得られません。 ただし、ログ変換されたデータに対称分布がある場合、次の関係が成り立ちます(ログは順序を保持するため)。 Mean[log(Y)]=Median[log(Y)]=log[Median(Y)]Mean[log⁡(Y)]=Median[log⁡(Y)]=log⁡[Median(Y)]\text{Mean}[\log (Y)] = \text{Median}[\log (Y)] = \log[\text{Median} (Y)] (ログ値の平均の逆対数は、測定の元のスケールの中央値です)。 したがって、元の測定スケールでの中央値の差(または比率)についてのみ推測できます。 母集団がほぼ標準偏差でほぼ正常である場合、2サンプルのt検定と信頼区間は最も信頼性が高いBox-Coxため、正規性の仮定に変換を使用するように誘惑される可能性があります(変換を安定化する分散でもあると思います)。 ただし、Box-Cox変換されたデータにt-toolsを適用すると、変換されたデータの平均の違いに関する推論が得られます。それらを元の測定スケールでどのように解釈できますか?(変換された値の平均は、変換された平均ではありません)。つまり、変換されたスケールで平均の推定値の逆変換を行っても、元のスケールでの平均の推定値は得られません。 この場合、中央値についてのみ推論することもできますか?(元のスケールで)平均に戻ることができる変換がありますか? この質問は最初はコメントとしてここに投稿されました

3
ロジスティック回帰の切片項
次のロジスティック回帰モデルがあるとします。 logit(p)=β0+β1x1+β2x2logit(p)=β0+β1x1+β2x2\text{logit}(p) = \beta_0+\beta_{1}x_{1} + \beta_{2}x_{2} であるイベントのオッズとき、X 1 = 0とX 2 = 0?言い換えれば、x 1とx 2が最低レベルにあるときのイベントのオッズです(これが0でなくても)。たとえば、x 1とx 2が値2と3のみをとる場合、それらを0に設定することはできません。β0β0\beta_0x1=0x1=0x_1 = 0x2=0x2=0x_2=0x1x1x_1x2x2x_2x1x1x_1x2x2x_2222333

2
発生率比の解釈
そのため、ランダム効果のネガティブ二項モデルを当てはめたいと思います。そのようなモデルの場合、STATAは指数係数を生成できます。ヘルプファイルによると、このような係数は発生率比として解釈できます。残念ながら、私は英語を母国語としないので、発生率の比率とは何か、またはそれらをどのように翻訳できるかを本当に理解していません。 したがって、私の質問は、発生率比をどのように解釈できるかです。例えば: モデルが1つの変数に対して0.7の発生率比を与えた場合。つまり、依存変数の予想される観測(カウント)の数です。独立変数が1単位変化すると、0.7変化しますか? 誰でも助けることができますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.