タグ付けされた質問 「decision-theory」

1
二乗バイアスと分散の加重和を最小化する推定量は、どのようにして決定理論に適合しますか?
わかりました-私の元のメッセージは応答を引き出すことができませんでした。では、別の質問をさせてください。まず、意思決定理論の観点から、私の推定の理解について説明します。私は正式なトレーニングを受けていませんし、私の考えに何らかの欠陥があるとしても、私は驚かないでしょう。 損失関数ます。予想される損失は、(頻繁な)リスクです。L(θ,θ^(x))L(θ,θ^(x))L(\theta,\hat\theta(x)) R(θ,θ^(x))=∫L(θ,θ^(x))L(θ,θ^(x))dx,R(θ,θ^(x))=∫L(θ,θ^(x))L(θ,θ^(x))dx,R(\theta,\hat\theta(x))=\int L(\theta,\hat\theta(x))\mathcal{L}(\theta,\hat\theta(x))dx, ここで、は尤度です。ベイズのリスクは予想される頻出主義のリスクです:L(θ,θ^(x))L(θ,θ^(x))\mathcal{L}(\theta,\hat\theta(x)) r(θ,θ^(x))=∫∫R(θ,θ^(x))π(θ)dxdθ,r(θ,θ^(x))=∫∫R(θ,θ^(x))π(θ)dxdθ,r(\theta,\hat\theta(x))=\int\int R(\theta,\hat\theta(x))\pi (\theta)dxd\theta, ここで、は以前のものです。π(θ)π(θ)\pi (\theta) 一般的に、を最小化するが見つかり、これはすべてうまくいきます。さらに、Fubiniの定理が適用され、を最小化する任意のが他のすべてから独立するように、統合の順序を逆にすることができます。このようにして、尤度の原則に違反することなく、ベイジアンであることなどについて気分を良くすることができます。θ^(x)θ^(x)\hat\theta(x)rrrθ^(x)θ^(x)\hat\theta(x)rrr たとえば、おなじみの二乗誤差損失、頻度リスクは平均二乗誤差または合計です二乗バイアスと分散およびベイズのリスクは、事前に与えられた二乗バイアスと分散の予想合計です。つまり、事後予測損失です。L(θ,θ^(x))=(θ−θ^(x))2,L(θ,θ^(x))=(θ−θ^(x))2,L(\theta,\hat\theta(x))=(\theta- \hat\theta(x))^2, これは今のところ私には理にかなっているようです(かなり間違っている可能性もあります)。しかし、いずれにせよ、他のいくつかの目的については、物事は私にはあまり意味がありません。たとえば、均等に重み付けされた二乗バイアスと分散の合計を最小化する代わりに、等しく重み付けされていない合計を最小化したいとします。つまり、以下を最小化するです。θ^(x)θ^(x)\hat\theta(x) (E[θ^(x)]−θ)2+kE[(θ^(x)−E[θ^(x)])2],(E[θ^(x)]−θ)2+kE[(θ^(x)−E[θ^(x)])2],(\mathbb{E}[\hat\theta(x)]-\theta)^2+k\mathbb{E}[(\hat\theta(x)-\mathbb{E}[\hat\theta(x)])^2], ここで、は正の実定数(1以外)です。kkk 私は通常、このような合計を「目的関数」と呼びますが、その用語を誤って使用している可能性もあります。私の質問は、解決策を見つける方法についてではありません- この目的関数を最小化するを見つけることは数値的に実行可能です-むしろ、私の質問は2つあります:θ^(x)θ^(x)\hat\theta(x) そのような目的関数は、決定理論のパラダイムに適合しますか?そうでない場合、それが適合する別のフレームワークはありますか?はいの場合、どのようにですか?の関数であろう関連する損失関数のように思える、、およびので期待の- -である(これ私は思う)適切ではない。θθ\thetaθ^(x)θ^(x)\hat\theta(x)E[θ^(x)]E[θ^(x)]\mathbb{E}[\hat\theta(x)] このような目的関数は、任意の推定が他のすべての推定に依存するため(仮説であっても、尤度原理に違反します。それにもかかわらず、バイアスの減少とエラー分散の増加のトレードオフが望ましい場合があります。そのような目標が与えられた場合、可能性の原則に準拠するように問題を概念化する方法はありますか?θ^(xj)θ^(xj)\hat\theta(x_{j})θ^(xi≠j)θ^(xi≠j)\hat\theta(x_{i\neq j}) 私は、意思決定理論/推定/最適化に関するいくつかの基本的な概念を理解できなかったと想定しています。答えをお寄せいただき、ありがとうございます。この分野や数学のトレーニングは一般的に受けていないため、何も知らないと想定してください。さらに、(初心者の読者のために)提案された参考文献を歓迎します。

1
分散と標準偏差の最適解はどの問題またはゲームですか?
与えられた確率変数(または母集団、または確率論的プロセス)の場合、数学的な期待が質問への答えです。。また、これはゲームの最適な解決策であり、確率変数(または母集団からの新しい描画)の次の実現を推測します。値に線形の非効用がある場合は、値と推測の間の距離の2乗で罰します罰の。中央値は、絶対損失の下での対応する質問に対する答えであり、モードは、「全か無か」の損失の下での答えです。 質問:分散と標準偏差は同様の質問に答えますか?彼らは何ですか? この質問の動機は、中心的な傾向と広がりの基本的な指標を教えることにあります。中心的傾向の測定は上記の決定理論上の問題によって動機付けられますが、人はどのように拡散の測定を動機付けることができるのでしょうか。

3
ベイズ推定器は、真のパラメーターが前のものの可能な変量であることを要求しますか?
これは哲学的な質問のビットかもしれませんが、ここで私達は行く:決定理論では、リスクのベイズ推定量θ(X )のためのθ ∈ Θ事前分布に関して定義されたπのΘ。θ^(x)θ^(x)\hat\theta(x)θ∈Θθ∈Θ\theta\in\Thetaππ\piΘΘ\Theta ここで、一方で、真のがデータを生成した(つまり、「存在する」)には、θはπの下で可能な変数である必要があります。一方、θは既知ではないため、事前分布が選択されているため、真のθが、選択したπの下で可能な変量であるという保証はありません。θθ\thetaθθ\thetaππ\piθθ\thetaθθ\thetaππ\pi さて、どうやらθが変量になるようにを選択する必要があるようです。そうでなければ、特定の定理が成り立たなくなります。たとえば、ミニマックス推定値は、最も好ましい事前分布のベイズ推定値にはなりません。なぜなら、その領域からθを含む大きな領域を除外し、その領域からθを含めることで、事前分布を任意に悪くすることができるからです。ただし、θが実際に領域内にあることを保証することは困難です。ππ\piθθ\thetaθθ\thetaθθ\theta だから私の質問は: 一般的に、実際のはπの可能な変量であると想定されていますか?θθ\thetaππ\pi これは保証されますか? これに違反するケースは少なくとも何らかの方法で検出できるので、条件が満たされない場合、ミニマックスなどの定理に依存しませんか? それが必要でない場合、なぜ決定理論の標準結果が保持されるのですか?

1
L2が事後損失を計算するための優れた損失関数である場合の例は何ですか?
L2損失は、L0およびL1損失とともに、事後を最小事後予測損失で要約するときに使用される非常に一般的な「デフォルト」損失関数の3つです。この理由の1つは、それらが比較的簡単に計算できることです(少なくとも1d分布の場合)。L0は最頻値、L1は中央値、L2は平均値になります。教えるとき、L0とL1が合理的な損失関数である(そして単に「デフォルト」ではない)シナリオを思い付くことができますが、L2が合理的な損失関数であるシナリオに苦労しています。だから私の質問: 教育目的で、L2が最小事後損失を計算するための優れた損失関数である場合の例は何でしょうか? L0の場合、賭けのシナリオを思いつくのは簡単です。今度のサッカーゲームのゴールの合計数に対して事後を計算し、ゴールの数を正しく推測し、それ以外の場合は負けた場合、$$$に勝つ賭けをするとします。その場合、L0は妥当な損失関数です。 私のL1の例は少し不自然です。あなたは多くの空港の1つに到着し、それから車であなたのところへ行く友人に会っています。問題はあなたがどの空港か分からないことです(そして彼女は空中にいるのであなたの友人に電話をかけることができません)。彼女が着陸する可能性のある空港の後方を考えると、彼女が到着したときに彼女とあなたの間の距離が短くなるように自分を配置するのに適した場所はどこですか?ここで、予想されるL1損失を最小化するポイントは、彼女の車が一定の速度であなたの場所に直接移動するという単純な仮定をすると、合理的に思えます。つまり、1時間の待機時間は、30分の待機時間の2倍です。

2
ベイズリスクを理解する
推定量を評価する場合、おそらく最も一般的に使用される2つの基準は、最大リスクとベイズリスクです。私の質問は後者についてです: 以前のベイズリスク ππ\pi は次のように定義されます。 Bπ(θ^)=∫R(θ,θ^)π(θ)dθBπ(θ^)=∫R(θ,θ^)π(θ)dθB_{\pi} (\hat{\theta}) = \int R(\theta, \hat{\theta} ) \pi ( \theta ) d \theta 以前のが何をしているか、そしてそれをどのように解釈すべきか、私にはまったくわかりません。リスク関数あり、それをプロットする場合、直感的には、その領域を基準として、考えられるすべての値に対するリスクが「強い」かどうかを判断します。しかし、それは近いものの、以前のものを含むことは、この直観を再び破壊します。誰かが前のものを解釈する方法を手伝ってくれる?ππ\piR(θ,θ^)R(θ,θ^)R(\theta, \hat{\theta} )θθ\theta

1
信念のモデルとしてのベイズ推定の正式な正当化
ベイズ確率理論が信念を表すための唯一の有効な方法であるという証拠を覚えています。 私たちは、結果のいくつかの領域にわたって、いくつかの非負の機能によって信念を表します 信念は相加的です ... したがって、ベイズ確率理論は信念を表すための唯一の有効なアプローチです。 考えは、「信念関数」を構成するものについての非常に基本的で一般的な仮定の下では、ベイズ確率で「信念」をモデル化することになるということです。 どこで見たか忘れました。 誰かがこの証拠を知っていますか?またはオリジナルへの参照? 編集 これまでのところ、私が見つけた最高のリードは、次の場所にあることです。 サベージ、LJ(1954)。Foundation of Statistics、2nd edn、Dover、ニューヨーク。 (私はそれのコピーを持っていません)

1
統計理論と決定理論の関係は何ですか?
統計と決定理論はどのように関連しているのだろうと思っていましたか? それは私にすべての統計問題/タスクが決定理論で定式化できるように見えます。また、意思決定理論の問題は、統計/確率問題、または決定論的な方法で定式化できます。統計学は意思決定理論で研究された問題の一部に過ぎないのでしょうか? または、それらは重複している2つの理論にすぎず、どちらも完全に他方の中に収まらないのですか? しかし、統計学の理論と決定論がそれぞれどのようなトピックでカバーされているかについて体系的な全体像を持っているわけではないことを認めざるを得ません。 よろしくお願いします!

5
なぜ期待される効用をそんなに気にするのですか?
意思決定理論について素朴な質問があります。特定の決定を前提としてさまざまな結果の確率を計算し、各結果にユーティリティまたはコストを割り当てます。期待される最大の有用性を持つものを見つけることにより、最適な決定を見つけます。 しかし、なぜこのように推論する必要があるのでしょうか。実際、各決定には、それに関連する効用の分布があります。なぜ単一の要約統計量だけで異なる選択肢のユーティリティの分布を比較するのですか?そして、なぜモードや中央値などではなく平均値を選ぶのでしょうか? 2つの選択肢で期待される効用は同じであるが、効用の分布が大きく異なる場合を想像できます。確かに意思決定は、期待のみではなく、配布全体に基づいて行われるべきですか? 分布全体を使用して決定を行うためのスキームでは、期待される最大の効用で同じ結果が得られる効用関数が存在する必要があると言っていますか?もしそうなら、私たちはとにかくユーティリティを忠実に構築し、私たちが望むように決定ルールを選択するべきではないでしょうか?後で、忠実なユーティリティを、最大の期待で同じ結果が得られるユーティリティに変換できます。

2
密度予測は、損失関数が指定されている場合に、ポイント予測を超える価値を追加しますか?
密度予測は、ポイント予測よりも普遍的です。それらは、確率変数の具体的な関数(予測平均、中央値、変位値など)ではなく、確率変数の予測分布全体に関する情報を提供します。密度予測を利用できるため、さまざまなユーザーが関心のある関連要素(ポイント予測)を選択できます。一部のユーザーは、予測の評価に使用される損失関数(およびユーザーごとに異なる可能性があります)に応じて、予測平均に焦点を当てたり、予測中央値に焦点を合わせたりします。密度予測には確率関数に関するすべての確率的情報が含まれているため、密度予測があれば、損失関数に関係なくすべてのユーザーのニーズが満たされます。 ただし、具体的なユーザーを念頭に置いて、その損失関数を知っている場合、 密度予測は、損失関数に合わせたポイント予測に対して付加価値を提供しますか? 答えが一般的にいいえである場合、それをはいにするための条件は何ですか? PS @hejsebは、損失関数に合わせたポイント予測と十分な統計との間に興味深い類似点を描きます。おそらくこれは答えを刺激することができます。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.