ハスティら "統計的学習の要素"(2009)データ生成処理考える とE(ε )= 0とヴァー(ε )= σ 2 εを。
それらは、点での予想二乗予測誤差の次のバイアス分散分解を示します(p。223、式7.9): Err (x 0) 私自身の仕事で、私は指定されていない Fを(⋅)が、任意の予測取る yは(これが関連している場合)の代わりに。質問:バイアス2+分散 、より正確には Err(x0)-既約エラーの用語を探してい ます。
ハスティら "統計的学習の要素"(2009)データ生成処理考える とE(ε )= 0とヴァー(ε )= σ 2 εを。
それらは、点での予想二乗予測誤差の次のバイアス分散分解を示します(p。223、式7.9): Err (x 0) 私自身の仕事で、私は指定されていない Fを(⋅)が、任意の予測取る yは(これが関連している場合)の代わりに。質問:バイアス2+分散 、より正確には Err(x0)-既約エラーの用語を探してい ます。
回答:
削減可能なエラーを提案します。また、これは段落で採用する用語であるの2.1.1 ギャレス、ウィッテン、Hastie&Tibshirani、統計的学習への入門、基本的に彼らが使用するという事実を除いて、ESL +いくつかの非常にクールなRコード研究所の簡素化(あるブックattach
、しかし、ねえ、誰も完璧ではありません)。この用語の長所と短所の理由を以下に示します。
私たちのモデルの家族で。
「還元可能性」という用語が気に入らないのはなぜですか?これは、還元可能性の公理のように自己参照トートロジーをたたく。私は同意するラッセル1919ことを、私はそれがすべての可能世界で真であることを言うことによって意味されるものである還元性の公理が論理的に必要であると信じる理由が、表示されません」。のシステムにこの公理の入場したがって、論理は欠陥であり、疑わしい仮定です。」
注目すべきは、最初のサンプルを5分で落とすと、初期のサンプルを60分まで落とし続けるのと同じように、物理が順次改善することです。これは、GVが最終的には薬物の血漿濃度の優れたモデルを形成するものの、他の何かが初期に起こっていることを示しています。