タグ付けされた質問 「decision-theory」

27
眠れる森の美女のパラドックス
状況 一部の研究者は、あなたを眠らせたいと思っています。公正なコインの秘密のトスに応じて、彼らはあなたを一回(頭)または二回(尾)目覚めさせます。それぞれの目覚めの後、彼らはあなたがその目覚めを忘れさせる薬であなたを眠りに戻すでしょう。あなたが目覚めたとき、コイントスの結果はどの程度ヘッズだと信じるべきですか? (OK、この実験の対象になりたくないかもしれません!代わりに、Sleeping Beauty(SB)がそれに同意していると仮定します(もちろん、魔法の王国の治験審査委員会の完全な承認を得て)。 100年寝るので、とにかくあと1、2日は何ですか?) [ マックスフィールドパリッシュのイラストの詳細。] あなたはハーフまたはサードですか? Halferポジション。 シンプル!コインは公正であり、SBはそれを知っているので、彼女は頭の半分のチャンスがあると信じるべきです。 サードポジション。この実験が何度も繰り返された場合、コインはSBが目覚める時間の3分の1だけ頭になります。彼女の頭の確率は3分の1です。 サードに問題がある これについて書いた人のほとんどは、すべてではありませんが、第三者です。しかし: 日曜日の夕方、SBが眠る直前に、彼女は頭のチャンスが半分であると信じなければなりません:それは公正なコインであるということです。 SBが目覚めるたびに、彼女は日曜日の夜に彼女が知らなかったことを全く学ばなかった。 彼女は、頭への信念が今では半分ではなく3分の1であると述べるために、どのような合理的な議論をすることができますか? いくつかの試みられた説明 SBは、1/3以外のオッズで頭に賭けた場合、必然的にお金を失います。(Vineberg、inter alios) 半分は本当に正しい:量子力学のエバーレッティの「多くの世界」の解釈を使用するだけです!(ルイス)。 SBは、世界の彼女の「時間的位置」の自己認識に基づいて彼女の信念を更新します。(エルガ、ia) SBは混乱しています。「[目覚めたときの認識状態に、頭に対する明確な信念が含まれるべきではないと言うのはもっともらしいようです。…本当の問題は、既知の避けられない認知機能障害にどのように対処するかです。」[Arntzenius] 質問 この主題について既に書かれていることを考慮して(参考文献および以前の投稿を参照)、このパラドックスを統計的に厳密な方法でどのように解決できますか?これも可能ですか? 参照資料 Arntzenius、フランク(2002)。 眠れる森の美女分析に関する考察 62.1 pp 53-62。 ブラッドリー、DJ(2010)。 分岐世界での確認:エベレットの解釈と眠れる森の美女。ブリット。J.フィル。科学 0(2010)、1〜21。 エルガ、アダム(2000)。自己発見の信念と眠れる森の美女の問題。分析60 pp 143-7。 フランチェスキ、ポール(2005)。 眠れる森の美女と世界縮小の問題。プレプリント。 グロイスマン、ベリー(2007)。 眠れる森の美女の悪夢の終わり。プレプリント。 ルイス、D(2001)。 眠れる森の美女:Elgaへの返信。分析61.3 pp 171-6。 パピノー、デビッド、ビクターデュラビラ(2008)。 サードとエベレッティアン:ルイスの「眠れる森の美女」への返信。 Pust、Joel(2008)。 眠れる森の美女のホーガン。合成160 pp 97-101。 …

7
いくら支払う?実用的な問題
これは在宅での質問ではなく、当社が直面している本当の問題です。 ごく最近(2日前)、10000個の製品ラベルの製造をディーラーに注文しました。ディーラーは独立した人です。彼はラベルを外部から製造し、会社はディーラーに支払いをします。各ラベルの費用は会社にとって1ドルです。 昨日、ディーラーにはラベルが付属していましたが、ラベルはそれぞれ100ラベルのパケットにバンドルされていました。このように、合計100個のパケットがあり、各パケットには10​​0個のラベルが含まれていたため、合計10000個のラベルがありました。ディーラーに10000ドルの支払いを行う前に、数個のパケットをカウントして、各パケットに100個のラベルが正確に含まれるようにしました。ラベルを数えると、100ラベルに満たないパケットが見つかりました(97ラベルが見つかりました)。これが偶然ではなく意図的に行われたことを確認するために、さらに5つのパケットをカウントし、各パケット(最初のパケットを含む)で次の数のラベルを見つけました。 Packet Number Number of labels 1 97 2 98 3 96 4 100 5 95 6 97 すべてのパケットを数えることは不可能だったため、平均ベースで支払いを行うことにしました。したがって、6つのパケットのラベルの平均数は97.166であるため、合計支払い額は9716ドルでした。 統計学者がそのようなタイプの問題にどのように対処しなければならないかを知りたいだけです。 さらに、ラベル全体の実際の数を超えて支払われていないことを95%保証するために、いくら支払うべきかを知りたいと思います。 追加情報: P(100個を超えるラベルを含むパケット)= 0 P(90個未満のラベルを含むパケット)= 0 = {パケットの重みが小さいため、パケットのカウント中に90未満のラベルが簡単に検出されます} 編集: ディーラーはそのような不正行為を単に否定した。これらのディーラーは、会社が支払っている金額についてメーカーから受け取る特定のコミッションに基づいて機能していることがわかりました。メーカーに直接連絡したところ、メーカーでもディーラーの欠陥でもないことがわかりました。製造業者は、「シートのサイズが標準化されていないためラベルが短くなり、1枚のシートから何枚でも切り取ってパケットにまとめます」と述べています。 さらに、追加の情報で与えられた最初のアサーションが検証されます。これは、製造業者がシートのサイズのわずかな増加から、追加のラベルをカットできないこと、また、シートのサイズのわずかな縮小からはカットできないことを認めたためですまったく同じサイズの100個のラベル。

5
機械学習で階層/ネストされたデータを処理する方法
例で問題を説明します。いくつかの属性(年齢、性別、国、地域、都市)を与えられた個人の収入を予測するとします。あなたはそのようなトレーニングデータセットを持っています train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train CountryID RegionID CityID Age Gender Income 1 1 1 1 23 M 31 2 1 1 1 48 F 42 3 1 1 2 62 M 71 4 …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 


2
ベイズの信頼できる区間手順の決定理論的正当化とは何ですか?
(これを書いた理由を見るには、この質問に対する私の答えの下にあるコメントをチェックしてください。) タイプIIIエラーと統計的決定理論 間違った質問に正しい答えを与えることは、タイプIIIエラーと呼ばれることもあります。統計的決定理論は、不確実性の下での意思決定の形式化です。タイプIIIエラーの回避に役立つ概念的なフレームワークを提供します。フレームワークの重要な要素は損失関数と呼ばれます。これには2つの引数があります。1つ目は(関連するサブセットの)世界の真の状態です(たとえば、パラメーター推定問題では、真のパラメーター値θθ\theta)。2番目は、可能なアクションのセットの要素です(たとえば、パラメーター推定問題では、推定θ^)θ^)\hat{\theta})。出力は、世界のあらゆる可能な真の状態に関するあらゆる可能なアクションに関連する損失をモデル化します。たとえば、パラメータ推定問題では、いくつかのよく知られている損失関数は次のとおりです。 絶対誤差損失L(θ,θ^)=|θ−θ^|L(θ,θ^)=|θ−θ^|L(\theta, \hat{\theta}) = |\theta - \hat{\theta}| 二乗誤差損失L(θ,θ^)=(θ−θ^)2L(θ,θ^)=(θ−θ^)2L(\theta, \hat{\theta}) = (\theta - \hat{\theta})^2 Hal VarianのLINEX損失L(θ,θ^;k)=exp(k(θ−θ^))−k(θ−θ^)−1, k≠0L(θ,θ^;k)=exp⁡(k(θ−θ^))−k(θ−θ^)−1, k≠0L(\theta, \hat{\theta}; k) = \exp(k(\theta - \hat{\theta})) - k(\theta - \hat{\theta}) - 1,\text{ } k \ne0 答えを調べて質問を見つける 正しい損失関数の定式化に焦点を合わせ、決定論的アプローチの残りの部分を進めることで、タイプIIIのエラーを回避しようとする場合があります(ここでは詳しく説明しません)。簡単なことではありません。結局のところ、統計学者は、こうしたアプローチから派生していなくても、うまく機能する多くの手法と方法を十分に備えています。しかし、最終結果は、統計学者の大多数が統計的決定理論を知らず、気にしないということであり、見逃していると思います。それらの統計学者にとって、タイプIIIエラーを回避するという点で統計的決定理論が有益であると考える理由は、提案されたデータ分析手順を求めるフレームワークを提供するためだと主張します。プロシージャはどの損失関数(もしあれば)に最適に対処しますか?つまり、どのような意思決定状況において、正確に、それが最良の答えを提供しますか? 事後予想損失 ベイジアンの観点からは、損失関数だけが必要です。私たちはかなり決定理論の残りの部分をスキップすることができます-ほとんどの定義により、行うための最善のことは、損失を最小限事後期待している、あること、行動見つけるaaaその最小化L~(a)=∫ΘL(θ,a)p(θ|D)dθL~(a)=∫ΘL(θ,a)p(θ|D)dθ\tilde{L}(a) = \int_{\Theta}L(\theta, a)p(\theta|D)d\theta。 ?具体的には、ワルドの- (非ベイズ視点まあ用として、それはfrequentist決定理論の定理である完全なクラス定理こと- 最適なアクションが常にすることになりますベイズ事後予想損失を最小限に抑えるに関していくつか)(おそらく不適切この結果の難しさは、それが存在する定理が使用する前にどのガイダンスについても与えないことであるが、それは私たちがどの質問であるかを正確に把握するために「反転」できる手順のクラスを実に制限する特に、非ベイジアン手順を逆変換する最初のステップは、どのベイジアン手順を複製または近似するか(ある場合)を把握することです。) ねえ、シアン、これはQ&Aサイトだよね? 最後に統計的な質問に私をもたらします。ベイジアン統計では、単変量パラメーターの間隔推定値を提供する場合、2つの一般的な信頼できる間隔手順は、分位に基づく信頼できる間隔と最高事後密度の信頼できる間隔です。これらの手順の背後にある損失関数は何ですか?

4
どの条件の下で、ベイジアンおよび頻度点推定量が一致しますか?
平坦な事前分布では、ML(頻度-最大尤度)とMAP(ベイジアン-最大事後確率)推定量は一致します。 ただし、より一般的には、損失関数のオプティマイザーとして導出されたポイント推定量について話します。すなわち )X(x^(.)=argminE(L(X−x^(y))|y) (Bayesian) x^(.)=argminE(L(X−x^(y))|y) (Bayesian) \hat x(\,. ) = \text{argmin} \; \mathbb{E} \left( L(X-\hat x(y)) \; | \; y \right) \qquad \; \,\text{ (Bayesian) } x^(.)=argminE(L(x−x^(Y))|x)(Frequentist)x^(.)=argminE(L(x−x^(Y))|x)(Frequentist) \hat x(\,. ) = \text{argmin} \; \mathbb{E} \left( L(x-\hat x(Y)) \; | \; x \right) \qquad \text{(Frequentist)} ここで、は期待値演算子、は損失関数(ゼロで最小化)、は推定であり、パラメーターデータ与えられ、ランダム変数は大文字で示されます。 L X(Y )のY XEE\mathbb{E}LLLx^(y)x^(y)\hat x(y) …

2
コインフリッピング、意思決定プロセス、および情報の価値
次のセットアップを想像してください。2つのコインがあります。コインAは公平であることが保証され、コインBは公平である場合とそうでない場合があります。100コインフリップを行うように求められます。目的は、ヘッドの数を最大にすることです。 コインBについての事前情報は、コインBが3回裏返され、1つのヘッドが得られたことです。決定ルールが、2枚のコインの頭の予想確率を比較することに単に基づいている場合、コインAを100回裏返し、それで完了します。これは、コインBがより多くの頭を生み出すと信じる理由がないため、確率の合理的なベイズ推定(事後平均)を使用する場合でも当てはまります。 しかし、コインBが実際に頭に有利にバイアスされている場合はどうなりますか?確かに、コインBを数回ひっくり返して(したがって、その統計的特性に関する情報を取得して)あきらめる「潜在的な頭」は、ある意味で価値があり、したがって、決定に影響を与えます。この「情報の価値」を数学的にどのように説明できますか? 質問:このシナリオで、最適な決定ルールを数学的にどのように構築しますか?

1
厳密なフォンノイマン不等式の例
ましょうr(π,δ)r(π,δ)r(\pi, \delta)推定器の示すベイズリスクδδ\delta前に対してππ\piせ、ΠΠ\Piパラメータ空間上のすべての事前確率のセット表すΘΘ\Theta、およびlet ΔΔ\Delta(おそらくはランダム化)全ての集合を示す決定ルール。 ジョン・フォン・ノイマンのミニマックス不等式の統計的解釈は、 supπ∈Πinfδ∈Δr(π,δ)≤infδ∈Δsupπ∈Πr(π,δ),supπ∈Πinfδ∈Δr(π,δ)≤infδ∈Δsupπ∈Πr(π,δ), \sup_{\pi\in\Pi} \inf_{\delta\in\Delta} r(\pi, \delta) \leq \inf_{\delta\in\Delta}\sup_{\pi\in\Pi} r(\pi, \delta), と両方が有限である場合、一部のとに対して厳密な等価性が保証されます。δ′δ′\delta'π′π′\pi'ΘΘ\ThetaΔΔ\Delta 不平等が厳格な具体的な例を誰かが提供できますか?

2
完全な十分な統計とは何ですか?
完全な十分な統計を理解するのに苦労していますか? レッツ十分統計量とします。T=ΣxiT=ΣxiT=\Sigma x_i 場合確率が1で、いくつかの機能のためにG、それは完全に十分統計量です。E[g(T)]=0E[g(T)]=0E[g(T)]=0ggg しかし、これはどういう意味ですか?ユニフォームとベルヌーイ(6ページhttp://amath.colorado.edu/courses/4520/2011fall/HandOuts/umvue.pdf)の例を見てきましたが、直観的ではなく、統合を見るともっと混乱しました。 誰かがシンプルで直感的な方法で説明できますか?

1
美容師の難問
私の美容院のステイシーはいつも幸せそうな顔をしていますが、彼女の時間を管理することについてしばしばストレスを感じています。今日、ステイシーは私の約束のために遅れ、非常に謝罪しました。私の散髪をしている間、私は疑問に思いました:彼女の標準的な予定はどれくらいの長さであるべきですか?(お客様がクリーンなラウンド数を好む場合は、しばらくの間無視できます)。 考慮すべきことは、特定の「波及効果」であり、非常に遅い顧客の1人が一連の遅延した予約につながる可能性があります。実際には、美容師は直感的に、これらのストレスの多い日々を恐れて、予定を長くすることを直感的に学びます。しかし、最適でエレガントなソリューションは、統計的な天才によって達成可能でなければなりません。(現実を少し落とす場合) 仮定しましょう a)ヘアカット時間は通常分散され、 b)ヘアドレッサーは1つだけです。 予定を長く設定しすぎると、美容師が次の予定を待つ時間が無駄になることは明らかです。この無駄な時間は1分あたり1ドルかかります。 しかし、予定が十分に長くない場合、次の顧客は待たされ続けます。これは、顧客を愛するStaceyにとって、1分あたり3ドルのより重いコストです。 Staceyは1日あたり最大8時間働き、十分な数のアポイントメントを入力できる十分な需要があります。 平均的なヘアカットは、標準で30分かかります。10分の開発。(男性のカットも女性のカットも同じであるとしましょう!) 編集-一部の人は、Staceyが指定された時間より前にEARLYの顧客に出席できることを正しく指摘しました。これにより、さらに複雑なレイヤーが追加されますが、これを非常に現実的な問題として扱う場合は、それを含める必要があります。私の90/10仮定を忘れて、おそらく少し現実に近い仮定を試してみましょう。 遅れている顧客もいれば、早い顧客もいます。顧客の平均は2分遅れており、標準偏差は2分です(音は現実にかなり近いですか?) 正確にどのくらい彼女の予定が必要ですか? @alexplanation申し訳ありませんが、ゴールポストを移動しました!Rの読者はあなたの答えに感謝していると思います。

2
パーセプトロンの決定境界プロット
パーセプトロンアルゴリズムの決定境界をプロットしようとしていますが、いくつかのことで本当に混乱しています。私の入力インスタンスの形式は、基本的には2D入力インスタンス(x 1およびx 2)とバイナリクラスのターゲット値(y)[1または0]です。[ (x1、x2)、y][(x1,x2),y][(x_{1},x_{2}), y]バツ1x1x_{1}バツ2x2x_{2}yyy したがって、私の重みベクトルはという形式です。[ w1、w2][w1,w2][w_{1}, w_{2}] ここで、追加のバイアスパラメーターを組み込む必要があるため、私の重みベクトルは3 × 1ベクトルになりますか?それは1 × 3のベクトル?ベクトルは1行とn列しかないので、1 × 3にする必要があると思います。w0w0w_{0}3 × 13×13 \times 11 × 31×31 \times 31 × 31×31 \times 3 今度はをランダムな値にインスタンス化するとします。これの決定境界をどのようにプロットしますか?ここで、w 0は何を意味するのですか?あるwは0 / N O R M (ワット)原点から判定領域の距離?もしそうなら、これをどのようにキャプチャし、matplotlib.pyplotまたは同等のMatlabを使用してPythonでプロットしますか?[ w0、w1、w2][w0、w1、w2][w_{0}, w_{1}, w_{2}]w0w0w_{0}w0/ norm(w)w0/んorメートル(w)w_{0}/norm(w) この件に関して少しでも助けていただければ幸いです。

4
同じ試験を最短で受けることにより、すべての回答を正解する
雨は勉強しないので、はい/いいえの質問のみで構成されていても、中期には完全に無知です。幸い、Rainの教授は彼女が好きなだけ何度でも同じ中間学期を再受験することを許可していますが、彼はスコアを報告するだけなので、Rainは彼女が間違った問題を知りません。Rainは、最低限の回数の再受験ですべての正解を得るにはどうすればよいですか? より正式に言えば、試験の合計は nnn はい/いいえの質問、その正解は X1,X2,…,Xn∼iidBernoulli(0.5)X1,X2,…,Xn∼iidBernoulli(0.5)X_1, X_2, \dots, X_n \stackrel{iid}{\sim} \text{Bernoulli}(0.5)。Rainが再受験する必要があると予想される回数を最小限に抑える戦略を見つけたいです。 しばらく考えていました。レインが初めて中期を取るとき、彼女のスコアは常にBinom(n,0.5)Binom(n,0.5)\text{Binom}(n, 0.5)、彼女の答えに関係なく、各戦略は同じ量のエントロピーを減少させます。しかし、これが何を意味するのかはわかりません。ランダムな推測がすべて「はい」またはすべて「いいえ」で答えるのと同じくらい良いということですか? これは宿題ではありませんが、次の研究プロジェクトをベースに計画しているので、 本格的な答えの代わりにいくつかのヒントを提供してください。 この質問にすでに回答している場合は、ポインタを教えてください。

3
MAPは解
これらのスライド(スライド#16および#17)は、オンラインコースの1つで見つけました。インストラクターは、最大事後推定値(MAP)が実際にどのようにソリューションであるかを説明しようとしました。ここで、は真のパラメータ。θ ∗L(θ)=I[θ≠θ∗]L(θ)=I[θ≠θ∗]L(\theta) = \mathcal{I}[\theta \ne \theta^{*}]θ∗θ∗\theta^{*} 誰かがこれがどのように続くか説明できますか? 編集:リンクが壊れた場合に備えて、スライドを追加しました。

3
キャリブレーションの測定に最適なメトリックを選択するにはどうすればよいですか?
私はプログラミングし、テスト駆動開発を行います。コードに変更を加えた後、テストを実行します。成功することもあれば失敗することもあります。テストを実行する前に、テストが成功するという私の信任のために、0.01から0.99までの数字を書き留めます。 私のテストが成功するか失敗するかを予測することで、私が改善しているかどうかを知りたいです。また、テストが月曜日と金曜日のどちらで成功するかを予測するのが得意かどうかを追跡できるとよいでしょう。テストの成功を予測する私の能力が、追跡する他のメトリックと相関している場合は、知りたいです。 これにより、適切なメトリックを選択するタスクが残ります。SuperforcastingでPhilip Tetlockは、Brierスコアを使用して、専門家がどれだけうまく校正されているかを測定することを提案しています。文献で提案されているもう1つの指標は、対数スコアリングルールです。他の可能な候補者もいます。 使用するメトリックをどのように決定しますか?スコアリングルールを他のルールよりも優先することについての議論はありますか?

2
ダービン-ワトソンを除いて、どの仮説検定が決定的な結果を生み出しませんか?
ダービン・ワトソン検定統計量は、それが(この場合、ゼロ自己相関の)帰無仮説を拒絶する拒絶するか失敗するか不可能である不確定領域内に位置することができます。 「決定的でない」結果を生み出す可能性がある他の統計的検定 この一連のテストがバイナリの「拒否」/「失敗の拒否」の決定を行うことができない理由についての一般的な説明はありますか? 誰かが後者のクエリへの回答の一部として意思決定理論上の影響に言及できたら、それはおまけです—結論の(追加の)カテゴリの追加は、タイプIとタイプIIのコストを考慮する必要があることを意味しますかより洗練された方法でエラー?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.