タグ付けされた質問 「estimation」

このタグは一般的です。より具体的なタグを提供してください。特定の推定量のプロパティに関する質問については、代わりに[estimators]タグを使用してください。


2
パラメトリック推定に対するカーネル密度推定の利点
パラメトリック推定よりもカーネル密度推定を選択する特別な理由はありますか?私は自分のデータに分布を合わせる方法を学んでいました。この質問が私に来ました。 私のデータサイズは比較的大きく、7500データポイントです。オートクレーム。私の目標は、分布(ノンパラメトリックまたはパラメトリック)に適合させることです。次に、それを使用して自動請求データをシミュレートし、VaRまたはTVaRを計算します。 ログを使用してデータを変換し、比較的正常にした。正規、対数正規、ガンマ、tなどを含む多くの分布をフィッティングしました。AICと対数尤度を使用して、最適なフィッティングを特定しました。しかし、このフィッティングはすべてKSテストに合格しませんでした(p値はe-10で非常に小さい)。 そのため、どのような状況でKDEに切り替えるべきかを尋ねました。

2
帰無仮説ではなく、サンプリングを介して生成された信頼区間で帰無仮説を棄却できますか?
母集団からサンプリングした後、信頼区間の形式でパラメーター推定値を生成できることを教えられました。たとえば、95%の信頼区間には、違反のない仮定があり、母集団内で推定している真のパラメーターが何であれ、95%の成功率が含まれているはずです。 つまり、 サンプルからポイント推定を作成します。 理論的には推定しようとしている真の値が95%の確率で含まれる値の範囲を生成します。 ただし、トピックが仮説テストに移ったとき、手順は次のように説明されました。 一部のパラメーターを帰無仮説と仮定します。 この帰無仮説が真であるとすると、さまざまな点推定値が得られる可能性の確率分布を生成します。 帰無仮説が真の場合に得られる点推定が5%未満の時間で生成される場合は、帰無仮説を拒否します。 私の質問はこれです: 帰無仮説を棄却するために、帰無仮説を使用して信頼区間を生成する必要がありますか?最初の手順を実行し、真のパラメーターの推定値を取得して(信頼区間の計算で仮定値を明示的に使用せずに)、帰無仮説がこの区間に入らない場合は棄却しませんか? これは直感的には論理的には同等に思えますが、このように教えられる理由があると考えられるため、非常に根本的な何かを見逃しているのではないかと心配しています。

2
複数の衝突による逆誕生日問題
長さNが不明なエイリアン年があったと仮定します。異星人のランダムなサンプルがあり、それらのいくつかが誕生日を共有している場合、このデータを使用して年の長さを推定できますか? たとえば、100のサンプルでは、​​2つのトリプレット(つまり、3人のエイリアンが共有する2つの誕生日)と5つのペアと84個のシングルトンを持つことができます。Nの推定では、絶対最小値は91で、最大値は無制限ですが、妥当な期待値はどのようにして見つけますか? 仮定には、「すべての誕生日が同じくらい可能性が高い」などが含まれます。 ここで回答された別の質問とは異なり、部屋には既知の衝突があります。十分に長い年であれば、宇宙人の部屋で衝突がない可能性が非常に高くなります。ただし、非常に長い年は衝突の確率が低く、短い年はほとんど衝突の確率が低いため、最も可能性の高い年の長さに対して(理論的な)範囲が提供されます。

1
相互に排他的でないカテゴリを分類できる深層学習モデル
例:仕事の説明に「英国のJavaシニアエンジニア」という文があります。 私は2つのカテゴリとして、それを予測することは、深い学習モデルを使用したい:English とIT jobs。従来の分類モデルを使用する場合softmax、最後のレイヤーで機能を持つ1つのラベルのみを予測できます。したがって、2つのモデルのニューラルネットワークを使用して、両方のカテゴリで「はい」/「いいえ」を予測できますが、さらに多くのカテゴリがあると、コストがかかりすぎます。では、2つ以上のカテゴリを同時に予測するためのディープラーニングまたは機械学習モデルはありますか? 「編集」:従来のアプローチによる3つのラベルでは、[1,0,0]によってエンコードされますが、私の場合、[1,1,0]または[1,1,1]によってエンコードされます 例:3つのラベルがあり、文がこれらすべてのラベルに収まる場合。したがって、softmax関数からの出力が[0.45、0.35、0.2]である場合、3つのラベルまたは2つのラベルに分類する必要がありますか、それとも1つにすることができますか?それを行うときの主な問題は、1、2、または3つのラベルに分類するための適切なしきい値は何ですか?
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

2
ポアソンパラメーターの不偏推定量
1日あたりの事故の数は、パラメーター持つポアソン確率変数であり、ランダムに選択された10日に、事故の数が1,0,1,1,2,0,2,0,0,1として観測されました。公平な推定者になりますか?λλ\lambdaeλeλe^{\lambda} 私はこのようにしてみました:であることがわかりが、です。それでは、必要な不偏推定量は何でしょうか?E(x¯)=λ=0.8E(x¯)=λ=0.8E(\bar{x})=\lambda=0.8E(ex¯)≠ eλE(ex¯)≠ eλE(e^{\bar{x}})\neq\ e^{\lambda}

2
ベイズ推定量の比較
二次損失以前に与えられたで、です。ましょう 尤度。ベイズ推定器を見つけます。L(θ,δ)=(θ−δ)2L(θ,δ)=(θ−δ)2L(\theta,\delta)=(\theta-\delta)^2π(θ)π(θ)\pi(\theta)π(θ)∼U(0,1/2)π(θ)∼U(0,1/2)\pi(\theta)\sim U(0,1/2)f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}(x), \theta>0δπδπ\delta^\pi 加重二次損失 ここで、 前に ます。ましょう可能性です。ベイズ推定器を見つけます。Lw(θ,δ)=w(θ)(θ−δ)2Lw(θ,δ)=w(θ)(θ−δ)2L_w(\theta,\delta)=w(\theta)(\theta-\delta)^2w(θ)=I(−∞,1/2)w(θ)=I(−∞,1/2)w(\theta)=\mathbb{I}_{(-\infty,1/2)}π1(θ)=I[0,1](θ)π1(θ)=I[0,1](θ)\pi_1(\theta)=\mathbb{I}_{[0,1]}(\theta)f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}(x), \theta>0δπ1δ1π\delta^\pi_1 と比較するδπδπ\delta^\piδπ1δ1π\delta^\pi_1 最初に、に気づき、それが可能性であると想定しました。そうでない場合、事後は得られず、 したがって、2次損失に関するベイズ推定量は f(x|θ)∼Beta(θ,1)f(x|θ)∼Beta(θ,1)f(x|\theta)\sim Beta(\theta,1)π(θ|x)∝f(x|θ)π(θ)=θxθ−1I[0,1]∗2I(0,1/2)(θ)∼Beta(θ,1)π(θ|x)∝f(x|θ)π(θ)=θxθ−1I[0,1]∗2I(0,1/2)(θ)∼Beta(θ,1)\pi(\theta|x)\propto f(x|\theta)\pi(\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}*2\mathbb{I}_{(0,1/2)}(\theta)\sim Beta(\theta,1)E[π(θ|x)]=θθ+1E[π(θ|x)]=θθ+1\mathbb{E}[\pi(\theta|x)]=\frac{\theta}{\theta+1} 私は本「ベイジアンチョイス」を探しています。加重2次損失に関連するベイズ推定量に関する定理があり、それは δπ(x)=Eπ[w(θ)θ|x]Eπ[w(θ)|x]δπ(x)=Eπ[w(θ)θ|x]Eπ[w(θ)|x]\delta^\pi(x)=\frac{\mathbb{E}^\pi[w(\theta)\theta|x]}{\mathbb{E}^\pi[w(\theta)|x]} 誰かが私にそれを計算する方法を説明できますか? 私が試したのは: δπ(x)=∫θw(θ)f(x|θ)π(θ)dθ∫w(θ)f(x|θ)π(θ)dθ∫f(x|θ)π(θ)dθ∫w(θ)f(xθ)π(θ)dθδπ(x)=∫θw(θ)f(x|θ)π(θ)dθ∫w(θ)f(x|θ)π(θ)dθ∫f(x|θ)π(θ)dθ∫w(θ)f(xθ)π(θ)dθ\delta^\pi(x)=\frac{\frac{\int \theta w(\theta)f(x|\theta)\pi(\theta)d\theta}{\int w(\theta)f(x|\theta)\pi(\theta)d\theta}}{\frac{\int f(x|\theta)\pi(\theta)d\theta}{\int w(\theta)f(x\theta)\pi(\theta)d\theta}} サポートがであることは知っていますが、分子に統合しようとしたとき[0,12][0,12][0,\frac{1}{2}] ∫θw(θ)f(x|θ)π(θ)dθ=∫120θθxθ−1dθ=1x∫120θ2xθdθ∫θw(θ)f(x|θ)π(θ)dθ=∫012θθxθ−1dθ=1x∫012θ2xθdθ\int \theta w(\theta)f(x|\theta)\pi(\theta)d\theta=\int_0^\frac{1}{2}\theta\theta x^{\theta-1}d\theta=\frac{1}{x}\int_0^\frac{1}{2}\theta^2 x^\theta d\theta 良い結果は得られません。

3
関連する合計のみからバッグ内の果物の量を推定しますか?
私の大学のインストラクターがこのような質問をしました(クラスが終わって私がそこにいなかったので宿題ではありません)。どうすればいいのかわからない。 問題は、それぞれがさまざまな種類の果物を含む2つのバッグに関するものです。 最初の袋には、次のランダムに選択された果物が含まれています。 + ------------- + -------- + --------- + | 直径cm | 質量g | 腐った?| + ------------- + -------- + --------- + | 17.28 | 139.08 | 0 | | 6.57 | 91.48 | 1 | | 7.12 | 74.23 | 1 | | 16.52 | 129.8 | 0 …

1
同定から推定まで
私は現在、因果関係についてパールの作品(Pearl、2009、第2版)を読んでおり、モデルのノンパラメトリックな同定と実際の推定との間のリンクを確立するのに苦労しています。残念ながら、パール自身はこのトピックについて非常に沈黙しています。 例として、因果パスと、すべての変数w → x、w → zおよびw → yに影響を与える交絡因子を持つ単純なモデルを念頭に置いています。さらに、xとyは観測されていない影響x ← → yによって関連付けられます。do計算の規則により、介入後(離散)の確率分布が次の式で与えられることがわかりました。x→z→yx→z→yx \rightarrow z \rightarrow yw→xw→xw \rightarrow xw→zw→zw \rightarrow zw→yw→yw \rightarrow yxxxyyyx←→yx←→yx \leftarrow \rightarrow y P(y∣do(x))=∑w,z[P(z∣w,x)P(w)∑x[P(y∣w,x,z)P(x∣w)]].P(y∣do(x))=∑w,z[P(z∣w,x)P(w)∑x[P(y∣w,x,z)P(x∣w)]]. P(y \mid do(x)) = \sum_{w,z}\bigl[P(z\mid w,x)P(w)\sum_{x}\bigl[P(y\mid w,x,z)P(x\mid w)\bigr]\bigr]. (ノンパラメトリックに、またはパラメトリックな仮定を導入することによって)この量をどのように推定できるのか不思議に思っています。特に、が複数の交絡変数のセットであり、対象となる量が連続している場合は特にそうです。データの合同介入前分布を推定することは、この場合非常に非現実的であるように見えます。誰かがこれらの問題に対処するパールの方法の応用を知っていますか?ポインタをいただければ幸いです。 www

4
分布がわからない場合のサンプリング方法
私は統計学(初心者レベルの少数のUniコース)にかなり慣れていないので、未知の分布からのサンプリングについて疑問に思っていました。具体的には、基になるディストリビューションがわからない場合、代表的なサンプルを取得することを「保証」する方法はありますか? 説明する例:富のグローバルな分布を把握しようとしているとしましょう。特定の個人について、あなたはどういうわけか彼らの正確な富を見つけることができます。しかし、地球上のすべての人を「サンプリング」することはできません。したがって、n = 1000人をランダムにサンプリングするとします。 サンプルにビルゲイツが含まれていない場合、億万長者は存在しないと思うかもしれません。 サンプルにビルゲイツが含まれていた場合、億万長者が実際よりも一般的であると考えるかもしれません。 どちらの場合でも、億万長者がどれほど一般的またはまれであるかを実際に知ることはできません。存在するかどうかさえわからないかもしれません。 このような場合には、より良いサンプリングメカニズムが存在しますか? 使用するサンプリング手順(および必要なサンプル数)をアプリオリにどのように伝えますか? 合理的な確実性に近づくと、知るには人口の大部分を「サンプリング」する必要があるかもしれません。これは、億万長者が地球上にどの程度いるか、または珍しいかであり、これは基礎となる分布が少し難しいためです。一緒に働きます。

1
連続してボールを選択してマークすることにより、ボールの数を推定する
バッグにN個のボールがあるとします。最初のドローで、ボールにマークを付けてバッグに戻します。2回目の抽選で、マークされたボールを手に取ったら、バッグに戻します。ただし、マークの付いていないボールを拾った場合は、マークを付けてバッグに戻します。私はこれを何度も引き続けます。ドローの数とマークされた/マークされていないドローの履歴が与えられた場合、バッグ内の予想ボール数はいくつですか?

2
一般化線形モデルによるパラメーター推定
デフォルトglmでは、Rで関数を使用する場合、反復再重み付け最小二乗(IWLS)メソッドを使用して、パラメーターの最尤推定を見つけます。さて、二つ質問があります。 IWLS推定は、尤度関数のグローバル最大値を保証しますか?このプレゼンテーションの最後のスライドに基づいて、私はそうではないと思います!それを確かめたかっただけです。 上記の質問1の理由は、ほとんどすべての数値最適化メソッドがグローバルな最大値ではなくローカルな最大値でスタックする可能性があるという事実のためであると言えるでしょうか?

1
最尤推定はどのようにして近似正規分布を持っていますか?
適合分布を生成する方法としてMLEについて読んでいます。 最尤推定値は「おおよその正規分布をしている」という声明に出くわしました。 これは、自分のデータと適合させようとしている分布のファミリーにMLEを繰り返し適用した場合、取得したモデルは通常の分布になることを意味しますか?一連の分布にはどの程度正確に分布がありますか?

2
均一な事前分布は、最大尤度と事後モードから同じ推定にどのようにつながりますか?
私はさまざまなポイント推定方法を研究していて、MAPとMLの推定を使用する場合、「均一な事前分布」を使用する場合、推定は同一であることを読みました。誰かが「均一」事前分布とは何かを説明し、MAP推定値とML推定値が同じになる場合のいくつかの(単純な)例を示すことができますか?

1
調整済みR二乗は、固定スコアまたはランダムスコアの母集団をR二乗で推定しようとしますか?
母集団の二乗は、固定スコアまたはランダムスコアを想定して定義できます。ρ2ρ2\rho^2 固定スコア:予測子のサンプルサイズと特定の値は固定されます。したがって、は、予測子の値が一定に保たれているときに、母集団回帰式によって結果で説明される分散の割合です。ρ2fρf2\rho^2_f ランダムスコア:予測子の特定の値は、分布から抽出されます。したがって、は、予測子の値が予測子の母集団分布に対応する母集団の結果で説明される分散の割合を指します。ρ2rρr2\rho^2_r この区別が\ rho ^ 2の推定に大きな違いをもたらすかどうかρ2ρ2\rho^2については、以前尋ねました。また、\ rho ^ 2の公平な見積もりを計算する方法 ρ2ρ2\rho^2についても一般的に質問しました。 サンプルサイズが大きくなると、固定スコアとランダムスコアの区別が重要でなくなることがわかります。ただし、調整済みR2R2R^2が固定スコアまたはランダムスコア\ rho ^ 2を推定するように設計されているかどうかを確認しようとしていますρ2ρ2\rho^2。 ご質問 調整済みR2R2R^2 は、固定スコアまたはランダムスコア\ rho ^ 2を推定するように設計されていρ2ρ2\rho^2ますか? 調整済みr二乗の式が\ rho ^ 2の 1つまたは他の形式にどのように関係するかについての原理的な説明はありρ2ρ2\rho^2ますか? 私の混乱の背景 Yin and Fan(2001、p.206)を読んだとき、彼らはこう書いている: 重回帰モデルの基本的な前提の1つは、独立変数の値が既知の定数であり、実験前に研究者によって固定されることです。従属変数のみがサンプルごとに自由に変化します。その回帰モデルは、固定線形回帰モデルと呼ばれます。 ただし、社会科学および行動科学では、独立変数の値が研究者によって固定されることはほとんどなく、ランダムなエラーの影響も受けます。したがって、アプリケーションの2番目の回帰モデルが提案されており、従属変数と独立変数の両方を変化させることができます(Binder、1959; Park&Dudycha、1974)。そのモデルは、ランダムモデル(または修正モデル)と呼ばれます。ランダムモデルと固定モデルから取得した回帰係数の最尤推定値は正規性の仮定の下では同じですが、それらの分布は大きく異なります。ランダムモデルは非常に複雑であるため、一般的に使用される固定線形回帰モデルの代わりに、それを受け入れる前にさらに調査が必要です。したがって、通常は固定モデルが適用され、仮定が完全に満たされていなくても(Claudy、1978)。仮定に違反した固定回帰モデルをこのように適用すると、「オーバーフィッティング」が発生します。これは、不完全なサンプルデータから導入されたランダムエラーがプロセスで大文字にされる傾向があるためです。その結果、そのようにして得られたサンプルの多重相関係数は、真の母集団多重相関を過大評価する傾向があります(Claudy、1978; Cohen&Cohen、1983; Cummings、1982)。 したがって、上記のステートメントが、調整されたがランダムモデルによって導入されたエラーを補償することを言っているのか、またはこれがランダムモデルの存在を示すペーパーの単なる警告であったのかは不明でしたが、固定モデルに焦点を当てます。R2R2R^2 参考文献 Yin、P.&&Fan、X.(2001)。重回帰における収縮の推定:さまざまな分析方法の比較。Journal of Experimental Education、69(2)、203-224。PDFR2R2R^2

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.