タグ付けされた質問 「interpretation」

一般に、統計分析の結果から実質的な結論を出すことを指します。

1
一般化推定方程式とGLMMの違いは何ですか?
ロジットリンクを使用して、3レベルの不均衡データでGEEを実行しています。これは、混合効果(GLMM)とロジットリンクを備えたGLMと(描画できる結論と係数の意味に関して)どのように異なりますか? 詳細:観察は単一ベルヌーイ試験です。それらは教室と学校にクラスター化されます。Rの使用。NAのケースワイズ省略。6予測子も相互作用項。 (私は子供たちがヘッズアップで着地するかどうかを確認するためにひっくり返していません。) 係数をオッズ比に累乗する傾向があります。これは両方で同じ意味を持っていますか? GEEモデルの「限界的手段」について、私の心の奥に何かが潜んでいます。私にそのビットを説明する必要があります。 ありがとう。

1
線形回帰の係数標準誤差の解釈方法は?
Rで表示関数を使用するときに、回帰の係数標準誤差をどのように解釈するのか疑問に思っています。 たとえば、次の出力では: lm(formula = y ~ x1 + x2, data = sub.pyth) coef.est coef.se (Intercept) 1.32 0.39 x1 0.51 0.05 x2 0.81 0.02 n = 40, k = 3 residual sd = 0.90, R-Squared = 0.97 より高い標準誤差はより大きな意味を意味しますか? また、残差標準偏差については、値が大きいほど広がりが大きいことを意味しますが、Rの2乗は非常に近い適合を示します。これは矛盾ではありませんか?

3
階層クラスター分析の樹状図の解釈方法
以下のRの例を考えてください。 plot( hclust(dist(USArrests), "ave") ) y軸の「高さ」とは正確に何を意味しますか? ノースカロライナ州とカリフォルニア州を見る(むしろ左側)。カリフォルニアはアリゾナよりもノースカロライナに「近い」のでしょうか?この解釈をすることはできますか? ハワイ(右)はかなり遅れてクラスターに参加します。これは他の州よりも「高い」ため、見ることができます。一般に、樹状図のラベルが「高い」または「低い」という事実をどのように解釈できますか?

3
カテゴリー変数を使用したロジット回帰の相互作用項の解釈
私は、回答者が4つのグループのいずれかにランダムに割り当てられた調査実験のデータを持っています。 > summary(df$Group) Control Treatment1 Treatment2 Treatment3 59 63 62 66 3つの治療グループは適用される刺激がわずかに異なりますが、私が気にする主な違いはコントロールと治療グループの間です。そこで、ダミー変数を定義しましたControl: > summary(df$Control) TRUE FALSE 59 191 調査では、回答者は(特に)次の2つのうちどちらを優先するかを選択するように求められました。 > summary(df$Prefer) A B NA's 152 93 5 次に、治療グループによって決定されたいくつかの刺激を受けた後(対照グループの場合は刺激なし)、回答者は同じ2つのことから選択するように求められました。 > summary(df$Choice) A B 149 101 3つの治療グループのうちの1つに属していることが、この最後の質問で回答者が行った選択に影響を与えたかどうかを知りたいです。私の仮説は、治療を受けた回答者が治療するよりAも選択する可能性が高いということですB。 カテゴリデータを使用していることを考えると、ロジット回帰を使用することにしました(それが間違っていると思われる場合はお気軽にご連絡ください)。回答者はランダムに割り当てられたため、他の変数(人口統計など)を必ずしも制御する必要はないという印象を受けているため、この質問ではそれらを省略しました。私の最初のモデルは単純に次のものでした: > x0 <- glm(Product ~ Control + Prefer, data=df, family=binomial(link="logit")) > summary(x0) Call: glm(formula …


3
AICおよびBIC番号の解釈
AIC(赤池情報量基準)とBIC(ベイズ情報量基準)の推定値を解釈する方法の例を探しています。 BIC間の負の差は、一方のモデルが他方のモデルの事後オッズとして解釈できますか?これを言葉にするにはどうすればよいですか?たとえば、BIC = -2は、他のモデルよりも優れたモデルのオッズが約ことを意味する場合があります。e2=7.4e2=7.4e^2= 7.4 基本的なアドバイスはこの新人によって高く評価されています。

3
重回帰において「その他はすべて等しい」とはどういう意味ですか?
重回帰を行って、変数の変化について変数の平均変化を調べて、他のすべての変数を一定に保持している場合、他の変数を一定に保持しているのはどの値ですか?彼らの平均?ゼロ?値はありますか?yyyxバツx 私はそれが価値があると思う傾向があります。明確化を探しています。誰かが証拠を持っているなら、それも素晴らしいでしょう。


3
部分依存プロットのy軸の解釈
この質問は、相互検証で回答できるため、Stack Overflowから移行されました。 5年前に移行され ました。 部分依存プロットに関する他のトピックを読みましたが、それらのほとんどは、それらを正確に解釈する方法ではなく、異なるパッケージで実際にプロットする方法に関するものです。 私はかなりの量の部分依存プロットを読んで作成しています。私は、彼らが私のモデルからの他のすべての変数(χc)の平均の影響で関数ƒS(χS)に対する変数χsの限界効果を測定することを知っています。yの値が大きいほど、クラスの正確な予測に大きな影響を与えます。しかし、私はこの定性的な解釈に満足していません。 私のモデル(ランダムフォレスト)は、2つの控えめなクラスを予測しています。「はい」と「いいえ」。TRIは、これに適した変数であることが証明されている変数です。 私が考え始めたのは、Y値が正しい分類の確率を示しているということです。例:y(0.2)は、TRI値が30を超えていると、True Positive分類を正しく識別する可能性が20%であることを示しています。 逆に y(-0.2)は、TRI値が<〜15の場合、True Negative分類を正しく識別する確率が20%であることを示しています。 文献で行われている一般的な解釈は、「TRI 30より大きい値がモデルの分類にプラスの影響を与え始める」というように聞こえますが、それだけです。潜在的にあなたのデータについて多くを語ることができるプロットにとって、それはとても曖昧で無意味に聞こえます。 また、すべてのプロットは、y軸の範囲内で-1から1の範囲で制限されます。-10〜10などの他のプロットを見ました。これは、予測しようとしているクラスの数の関数ですか? 誰もこの問題に話すことができるかどうか疑問に思っていました。これらのプロットまたは私を助けてくれるいくつかの文献をどのように解釈すべきかを教えてください。多分私はこれを読みすぎていますか? 統計学習の要素であるデータマイニング、推論、および予測を非常によく読んでおり、素晴らしい出発点でしたが、それだけです。

2
family = GammaでGLMのパラメーターを解釈する方法
この質問は、相互検証で回答できるため、Stack Overflowから移行されました。 5年前に移行され ました。 ガンマ分布従属変数を持つGLMのパラメーターの解釈に関して質問があります。これは、ログリンクを使用してGLMに対してRが返すものです。 Call: glm(formula = income ~ height + age + educat + married + sex + language + highschool, family = Gamma(link = log), data = fakesoep) Deviance Residuals: Min 1Q Median 3Q Max -1.47399 -0.31490 -0.05961 0.18374 1.94176 Coefficients: Estimate Std. Error t value Pr(>|t|) …

2
LDAハイパーパラメーターの自然な解釈
誰かがLDAハイパーパラメーターの自然な解釈を説明できますか?ALPHAおよびBETAは、それぞれ(文書ごと)トピックおよび(トピックごと)単語分布のディリクレ分布のパラメーターです。しかし、これらのハイパーパラメーターの大きな値と小さな値を選択することの意味を誰かが説明できますか?それは、文書内のトピックの疎さの観点から事前の信念を置き、単語の観点からトピックの相互排他性を置くことを意味しますか? この質問は潜在的なディリクレ配分についてですが、すぐ下のBGReeneによるコメントは線形判別分析に言及しており、紛らわしいことにLDAと省略されています。

3
相互作用効果が重要でない場合、主な効果をどのように解釈しますか?
Rで一般化線形混合モデルを実行し、2つの予測子間の相互作用効果を含めました。相互作用は重要ではありませんでしたが、主な効果(2つの予測子)は両方とも重要でした。今、多くの教科書の例は、相互作用の重要な効果がある場合、主な効果は解釈できないことを教えてくれます。しかし、相互作用が重要でない場合はどうでしょうか? 2つの予測子が応答に影響を及ぼすと結論付けることはできますか?または、インタラクションを省いた新しいモデルを実行する方が良いでしょうか?複数のテストを制御する必要があるため、そうしないことを好みます。

5
実験計画のブロックとは何ですか?
実験計画におけるブロックの概念について2つの質問があります。(1)ブロックと因子の違いは何ですか?(2)いくつかの本を読んでみましたが、はっきりしないことがあります。著者は、「ブロック要因」と他の要因の間に相互作用がないと常に仮定しているようです。

4
エッジケースの精度と再現率の正しい値は何ですか?
精度は次のように定義されます: p = true positives / (true positives + false positives) それは、それを修正しているtrue positivesとfalse positives、精度が1に近づくアプローチ0? リコールに関する同じ質問: r = true positives / (true positives + false negatives) 現在、これらの値を計算する必要がある統計テストを実装していますが、分母が0である場合があり、この場合にどの値を返すのか迷っています。 PS:不適切なタグをすみません、、およびを使用したいのですがrecall、新しいタグをまだ作成できません。precisionlimit
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

2
回帰に平方変数を含めるとどうなりますか?
OLS回帰から始めます ここで、Dはダミー変数で、推定値は低いp値でゼロとは異なります。次に、Ramsey RESETテストを実行し、方程式の誤認があることを発見しました。したがって、xの2乗を含みます Y = β 0 + β 1 X 1 + β 2 X 2 1 + β 3 D + εy=β0+β1x1+β2D+εy=β0+β1x1+β2D+ε y = \beta _0 + \beta_1x_1+\beta_2 D + \varepsilon y=β0+β1x1+β2x21+β3D+εy=β0+β1x1+β2x12+β3D+ε y = \beta _0 + \beta_1x_1+\beta_2x_1^2+\beta_3 D + \varepsilon 二乗項は何を説明しますか?(Yの非線形増加?) これを行うことにより、私のp推定値はゼロから変化せず、p値が高くなります。(一般的に)方程式の2乗項をどのように解釈しますか? 編集:質問を改善します。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.