タグ付けされた質問 「aic」

AICは、赤池情報量基準を表します。これは、ペナルティ付き尤度を使用してモデルのクラスから最適なモデルを選択するために使用される1つの手法です。AICが小さいほど、優れたモデルになります。

2
Rで「手動」でAICを計算する
私はRの線形回帰のAICを計算しようとしましたが、次のAICように関数を使用しませんでした: lm_mtcars <- lm(mpg ~ drat, mtcars) nrow(mtcars)*(log((sum(lm_mtcars$residuals^2)/nrow(mtcars))))+(length(lm_mtcars$coefficients)*2) [1] 97.98786 ただし、AIC異なる値を指定します。 AIC(lm_mtcars) [1] 190.7999 誰かが私が間違っていることを教えてもらえますか?

1
マルチモデル推論に関するBurnham-Andersonの本は推奨できますか?
Rの予測パッケージのデフォルトモデル選択統計がAICからAICcに最近変更されたことに動機付けられて、前者がどこにいても後者が実際に適用可能かどうかに興味があります。この点に関して一連の質問がありますが、ここが最初の質問です。 どこでもAICをAICcに置き換えることは、ここで要約されているBurnham and Anderson(非統計学者)による(1)の有名な本が推奨していることを知っています。この本は時々若い統計学者によって無批判に言及されています。たとえば、ロブ・ハイドマンによるこのブログ投稿へのコメントを参照してください。しかし統計学者のブライアン・リプリーは根本的に異なる方法で助言しました。 “Burnham and Anderson (2002) is a book I would recommend people NOT read until they have read the primary literature. I see no evidence that the authors have actually read Akaike’s papers." [quoted from [AIC MYTHS AND MISUNDERSTANDINGS][4] by Burnham-Anderson] リプリーが AICと関連する理論について書いていることから、警告は真剣に受け止められるべきであるということになる。赤池自身の論文の良いコレクションとバーナム・アンダーソンの本の両方を持っています。私は最終的に本の品質について自分の意見を持っていますが、それはまた、統計学者、老いも若きも、それについて考えていることを知るのに役立ちます。特に、モデルの選択にAICを使用する際の知識の有用な要約として本を明示的に推奨した統計学の教授(または他の統計学の優秀な学生)はいますか? 参照: (1)Burnham、KP&Anderson、DRモデル選択とマルチモデル推論:実用的な情報理論的アプローチSpringer、2002 PS。「Dr.BurnhamはPh.D.統計学者である」と述べた最近の「答え」に答えて、この説明を追加したいと思います。はい、彼は統計学者であり、ASAのフェローであり、ASAのDistinguished Achievement …

5
AICを使用してモデル選択を適用すると、変数の有意でないp値が得られる理由
AICについて質問がありますので、ご協力ください。データのAICに基づいて、モデルの選択(逆方向または順方向)を適用しました。また、選択した変数の一部は、p値が0.05を超えました。私は人々がp値の代わりにAICに基づいてモデルを選択すべきだと言っていることを知っているので、AICとp値は2つの異なる概念であるようです。誰かが違いを教えてもらえますか?私がこれまでのところ理解しているのは、それです: AICを使用した後方選択の場合、3つの変数(var1、var2、var3)があり、このモデルのAICはAIC *であるとします。これらの3つの変数のいずれか1つを除外しても、AIC *(df = 1のch-square分布に関して)より大幅に低いAICにならない場合、これら3つの変数が最終結果であると言えます。 3変数モデルの変数(var1など)の重要なp値は、その変数の標準化された効果サイズが0(Waldまたはt検定による)とは大きく異なることを意味します。 これら2つの方法の基本的な違いは何ですか?最良のモデル(AICで取得)に有意でないp値を持つ変数がある場合、どのように解釈すればよいですか?

2
AIC、BIC、GCV:ペナルティ付き回帰法で決定を下すのに最適なものは何ですか?
私の一般的な理解は、AICがモデルの適合度とモデルの複雑さの間のトレードオフを扱うことです。 A IC= 2 k − 2 l n (L )A私C=2k−2ln(L)AIC =2k -2ln(L) =モデル内のパラメーターの数kkk =尤度LLL ベイジアン情報基準BICは、AICと密接に関連しています。AICは、BICよりも少ない数のパラメーターにペナルティを科します。これらの2つは歴史的にどこでも使用されていることがわかります。しかし、一般化された相互検証(GCV)は私にとって新しいものです。GCVとBICまたはAICの関係 リッジのようなパネル化された回帰のペナルティ用語の選択で、これらの基準が一緒にまたは別々にどのように使用されますか? 編集: ここに考えて議論する例があります: require(lasso2) data(Prostate) require(rms) ridgefits = ols(lpsa~lcavol+lweight+age+lbph+svi+lcp+gleason+pgg45, method="qr", data=Prostate,se.fit = TRUE, x=TRUE, y=TRUE) p <- pentrace(ridgefits, seq(0,1,by=.01)) effective.df(ridgefits,p) out <- p$results.all par(mfrow=c(3,2)) plot(out$df, out$aic, col = "blue", type = "l", ylab = …

2
変数選択に対する矛盾するアプローチ:AIC、p値、またはその両方?
私が理解していることから、(少なくとも回帰コンテキストでは)p値に基づいた変数選択には大きな欠陥があります。AIC(または同様の)に基づく変数の選択も、同様の理由でいくつかの欠陥があると考えられますが、これは少し不明瞭に見えます(たとえば、このトピックに関する私の質問といくつかのリンクを参照してください。)。 ただし、これら2つの方法のいずれかを使用して、モデル内の最適な予測子のセットを選択するとします。 Burnham and Anderson 2002(モデル選択およびマルチモデル推論:実用的な情報理論的アプローチ、83ページ)では、AICに基づく変数選択と仮説検定に基づく変数選択を混在させないでください:「帰無仮説および情報理論的アプローチのテスト一緒に使用しないでください。これらは非常に異なる分析パラダイムです。」 一方、Zuur et al。2009(R、ページ541とエコロジーで拡張子を持つ混合効果モデル)の使用を提唱するように見える最初の最適なモデルを見つけ、その後、仮説検定を使用して「微調整」を実行するAICを:「欠点はAICが保守的であることができるということです、AICが最適なモデルを選択したら、(アプローチ1からの仮説検定を使用して)微調整を適用する必要がある場合があります。」 これにより、どちらのアプローチに従うべきかについて、両方の本の読者が混乱していることがわかります。 1)これらは、統計的思考の異なる「キャンプ」であり、統計学者の間の不一致のトピックですか?これらのアプローチの1つは、単に「時代遅れ」になっていますが、執筆時点では適切と考えられていましたか?または、最初から単純に間違っているのでしょうか? 2)このアプローチが適切となるシナリオはありますか?たとえば、私は生物学的背景から来ています。そこでは、どの変数が応答に影響を与えているか、またはそれを推進しているように見えるかを判断しようとしています。多くの場合、説明変数の候補がいくつかありますが、どちらが「重要」かを(相対的な観点から)見つけようとしています。また、候補予測変数のセットは、生物学的関連性があると考えられるものに既に削減されていますが、これには5-20の候補予測変数が含まれている場合があります。

4
モデルはauto.arima()によって識別されていますか?
私はARIMAモデルを学び、適用しようとしています。私はPankratzによってARIMAに優れた文章を読んでてきた- 予測を単変量ボックスで-ジェンキンスモデル:概念と事例。本文では、著者は特にARIMAモデルを選択する際の節約の原則を強調しています。 Rパッケージ予測のauto.arima()関数で遊び始めました。これが私がやったことです。ARIMAをシミュレートしてから適用しました。以下に2つの例を示します。両方の例でわかるように、多くの人が非慈善的と考えるモデルを明確に特定しました。特に例2では、実際にはARIMA(1,0,1)で十分かつpar約であるにもかかわらず、ARIMA(3,0,3)が識別されています。auto.arima()auto.arima()auto.arima() 以下は私の質問です。提案や推奨事項に感謝します。 次のような自動アルゴリズムを使用して特定されたモデルをいつ使用/変更するかについてのガイダンスはありますauto.arima()か? auto.arima()モデルを識別するためにAIC(これが使用していると思う)を使用するだけで落とし穴はありますか? 節約的な自動アルゴリズムを構築できますか? ちなみに、私はauto.arima()ちょうど例として使用しました。これは、自動アルゴリズムに適用されます。 以下は例1です。 set.seed(182) y <- arima.sim(n=500,list(ar=0.2,ma=0.6),mean = 10) auto.arima(y) qa <- arima(y,order=c(1,0,1)) qa 以下はからの結果ですauto.arima()。すべての係数は重要ではないことに注意してください。すなわち、ttt値<2。 ARIMA(1,0,2) with non-zero mean Coefficients: ar1 ma1 ma2 intercept 0.5395 0.2109 -0.3385 19.9850 s.e. 0.4062 0.4160 0.3049 0.0878 sigma^2 estimated as 1.076: log likelihood=-728.14 AIC=1466.28 AICc=1466.41 BIC=1487.36 以下は、arima()注文ARIMA(1,0,1)で定期的に実行した結果です。 Series: …

1
AIC / BIC:順列は何個のパラメーターをカウントしますか?
モデル選択の問題があり、AICまたはBICを使用してモデルを評価しようとしているとします。これは、の実数値パラメーターを持つモデルの場合、簡単です。kkk しかし、モデルの1つ(たとえばMallowsモデル)に順列があり、実際の値のパラメーターではなく、実際の値のパラメーターがいくつかある場合はどうでしょうか。モデルパラメーターの尤度を最大化することもできます。たとえば、置換とパラメーター取得します。ただし、はAIC / BICの計算にカウントされますか?ππ\pipppππ\pi


2
AICとシュワルツ基準を理解する
ロジスティックモデルを実行しています。実際のモデルデータセットには10​​0を超える変数がありますが、約25の変数があるテストデータセットを選択しています。その前に、8〜9個の変数を持つデータセットも作成しました。AICとSCの値を使用してモデルを比較できると言われています。変数のp値が低い場合(ex。0053)でも、モデルのSC値が高いことがわかりました。私の直感では、有意水準が高い変数を持つモデルは、SCとAICの値が低くなるはずです。しかし、それは起きていません。誰かがこれを明確にしてください。要するに、私は次の質問をしたい: 変数の数はSC AICと関係がありますか? p値または低いSC AIC値に集中すべきですか? SC AIC値を減らす典型的な方法は何ですか?

1
リッジ回帰のAIC:自由度とパラメーターの数
リッジ回帰モデルのAICcを計算します。問題はパラメーターの数です。線形回帰の場合、ほとんどの人は、パラメーターの数が推定係数とシグマ(誤差の分散)の数に等しいことを示唆しています。 リッジ回帰に関しては、ハットマトリックスのトレース(自由度(df))がAIC式のパラメーターの項の数として単純に使用されることを読みました(たとえばhereまたはhere)。 これは正しいです?dfを使用してAICcを計算することもできますか?エラー分散を説明するために、dfに+1を追加することはできますか?

3
単純な線形回帰、p値、およびAIC
このトピックは、例えばhereの前に何度も出てきましたが、回帰出力をどのように解釈するのが最善かはまだわかりません。 x値の列とy値の列で構成される非常に単純なデータセットがあり、場所(loc)に従って2つのグループに分割されています。ポイントはこんな感じ 同僚は、各グループに個別の単純な線形回帰を当てはめる必要があると仮定しましたy ~ x * C(loc)。出力を以下に示します。 OLS Regression Results ============================================================================== Dep. Variable: y R-squared: 0.873 Model: OLS Adj. R-squared: 0.866 Method: Least Squares F-statistic: 139.2 Date: Mon, 13 Jun 2016 Prob (F-statistic): 3.05e-27 Time: 14:18:50 Log-Likelihood: -27.981 No. Observations: 65 AIC: 63.96 Df Residuals: 61 BIC: 72.66 Df Model: …

1
モデルが同じデータセットに基づいている限り、AIC値を比較できますか?
Rob Hyndmanの予測パッケージを使用して、Rで予測を行っています。パッケージに属する論文はここで見つけることができます。 この論文では、自動予測アルゴリズムについて説明した後、著者は同じデータセットにアルゴリズムを実装しています。ただし、指数平滑法とARIMAモデルの両方を推定した後、私は理解できないステートメントを作成します(17ページ): 情報の基準は比較できないことに注意してください。 モデルの選択にAICを使用する利点は、同じデータセットを使用して推定される限り、異なるモデルのAIC値を比較できることだと思いました。これは間違っていますか? いわゆる赤池重みを使用して異なるモデルクラス(指数平滑法やARIMAなど)からの予測を結合することを計画していたため、この問題は私にとって特に興味深いです(赤池重みについてはBurnham and Anderson、2002を参照) 参照資料 バーナム、KP、およびアンダーソン、DR(2002)。モデル選択とマルチモデル推論:実用的な情報理論的アプローチ。スプリンガー出版。

2
AICとBICがまったく異なるモデルを選択する可能性はありますか?
1つの応答変数と6つの共変量を含むポアソン回帰モデルを実行しています。AICを使用したモデル選択により、すべての共変量と6つの交互作用項を持つモデルが作成されます。ただし、BICでは、共変量が2つのみで相互作用項がないモデルが作成されます。非常によく似た2つの基準がまったく異なるモデル選択をもたらす可能性はありますか?

1
ある
私の同僚は、応答変数を1のべき乗に変換してから、いくつかのデータを分析したいと考えています。(つまりy0.1251818\frac18y0.125y0.125y^{0.125})。 私はこれに不快感を覚えていますが、その理由を説明するのに苦労しています。この変換の機構的な理由は考えられません。これまでに見たこともないし、タイプIのエラー率などを膨らませるのではないかと心配していますが、これらの懸念をサポートするものは何もありません! さらに、私の同僚は、これらの変換されたモデルが、AIC比較で変換されていないモデルよりも優れていることを発見しました。これは、それ自体でその使用を正当化しますか?

2
AICに基づいてモデルを比較する方法は?
同じ方法を使用して対数尤度を計算する2つのモデルがあり、一方のAICは他方よりも低くなっています。ただし、AICが低い方の解釈ははるかに困難です。 難易度を紹介する価値があるかどうかを判断するのに苦労しており、AICの割合の差を使用してこれを判断しました。2つのAICの差はわずか0.7%であり、より複雑なモデルのAICは0.7%低いことがわかりました。 低いAICでモデルを使用することを避けるために、2つの間の低いパーセンテージの差は正当な理由ですか? 差異の割合は、それほど複雑ではないモデルでは0.7%の情報が失われることを説明していますか? 2つのモデルの結果は大きく異なる可能性がありますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.