タグ付けされた質問 「expected-value」

確率変数の期待値は、確率変数が取り得るすべての可能な値の加重平均であり、重みはその値を受け取る確率と同じです。

4
期待が算術平均と同じなのはなぜですか?
今日、数学的期待と呼ばれる新しいトピックに出会いました。私がフォローしている本は、期待は確率分布から来るランダム変数の算術平均であると言っています。しかし、それはいくつかのデータの積とその確率の合計として期待を定義します。これら2つ(平均と期待)を同じにすることができますか?確率の合計とデータの積は、どのようにして分布全体の平均になりますか?

4
テイラー級数(特に残り)の期待値を取得する
私の質問は、広く使用されている方法、つまり、Taylor Seriesの期待値を正当化することに関するものです。正の平均および分散を持つランダム変数があると仮定します。さらに、などの関数があります。XXXμμ\muσ2σ2\sigma^2log(x)log⁡(x)\log(x) 平均を中心にテイラー展開を行うと、 ここで、通常どおり、はst。logXlog⁡X\log XlogX=logμ+X−μμ−12(X−μ)2μ2+13(X−μ)3ξ3X,log⁡X=log⁡μ+X−μμ−12(X−μ)2μ2+13(X−μ)3ξX3, \log X = \log\mu + \frac{X - \mu}{\mu} - \frac12 \frac{(X-\mu)^2}{\mu^2} + \frac13 \frac{(X - \mu)^3}{\xi_X^3}, ξXξX\xi_X|ξX−μ|&lt;|X−μ||ξX−μ|&lt;|X−μ||\xi_X - \mu| < |X - \mu| 予想を立てると、通常は自明の何かと呼ばれる近似式が得られます(最初の式の記号を参照してください)≈≈\approx: ElogX≈logμ−12σ2μ2Elog⁡X≈log⁡μ−12σ2μ2 \mathbb{E}\log X \approx \log \mu - \frac12 \frac{\sigma^2}{\mu^2} 質問:剰余項の期待値が実際に無視できることを証明する方法に興味があります。つまり、 (または、言い換えれば、)。E[(X−μ)3ξ3X]=o(σ2)E[(X−μ)3ξX3]=o(σ2) \mathbb{E}\left[\frac{(X - \mu)^3}{\xi_X^3}\right] = o(\sigma^2) E[o(X−μ)2]=o(E[(X−μ)2])E[o(X−μ)2]=o(E[(X−μ)2])\mathbb{E}\bigl[o(X-\mu)^2\bigr] = o\bigl(\mathbb{E}\bigl[(X-\mu)^2\bigr]\bigr) 私が実行しようと何:と仮定し(これは、順に、手段で)、I は周囲、二つに積分を分割しようと一部とを …

3
ロジスティック回帰の95%信頼区間を手動で計算することと、Rでconfint()関数を使用することに違いがあるのはなぜですか?
皆さん、私は説明できない奇妙なことに気づきました、できますか?要約すると、ロジスティック回帰モデルで信頼区間を計算する手動のアプローチとR関数confint()は異なる結果をもたらします。 Hosmer&LemeshowのApplied Logistic Regression(第2版)を行ってきました。第3章には、オッズ比と95%の信頼区間を計算する例があります。Rを使用すると、モデルを簡単に再現できます。 Call: glm(formula = dataset$CHD ~ as.factor(dataset$dich.age), family = "binomial") Deviance Residuals: Min 1Q Median 3Q Max -1.734 -0.847 -0.847 0.709 1.549 Coefficients: Estimate Std. Error z value Pr(&gt;|z|) (Intercept) -0.8408 0.2551 -3.296 0.00098 *** as.factor(dataset$dich.age)1 2.0935 0.5285 3.961 7.46e-05 *** --- Signif. codes: 0 ‘***’ 0.001 …
34 r  regression  logistic  confidence-interval  profile-likelihood  correlation  mcmc  error  mixture  measurement  data-augmentation  r  logistic  goodness-of-fit  r  time-series  exponential  descriptive-statistics  average  expected-value  data-visualization  anova  teaching  hypothesis-testing  multivariate-analysis  r  r  mixed-model  clustering  categorical-data  unsupervised-learning  r  logistic  anova  binomial  estimation  variance  expected-value  r  r  anova  mixed-model  multiple-comparisons  repeated-measures  project-management  r  poisson-distribution  control-chart  project-management  regression  residuals  r  distributions  data-visualization  r  unbiased-estimator  kurtosis  expected-value  regression  spss  meta-analysis  r  censoring  regression  classification  data-mining  mixture 

5
CDFを使用して期待値を見つける
これは、本から出てくる宿題の問題だと言うことから始めます。数時間かけて期待値を見つける方法を調べましたが、何もわからないと判断しました。 LET CDF有する。 検索のそれらの値のためのれる存在します。XXXF(x)=1−x−α,x≥1F(x)=1−x−α,x≥1F(x) = 1 - x^{-\alpha}, x\ge1E(X)E(X)E(X)αα\alphaE(X)E(X)E(X) これを開始する方法すらわかりません。値が存在するかをどのように判断できますか?また、CDFをどうするかわかりません(これは累積分布関数を意味すると仮定しています)。周波数関数または密度関数がある場合に期待値を見つけるための公式があります。ウィキペディアによると、のCDFは、確率密度関数に関して次のように定義できます。αα\alphaXXXfff F(x)=∫x−∞f(t)dtF(x)=∫−∞xf(t)dtF(x) = \int_{-\infty}^x f(t)\,dt これは私が得た限りです。ここからどこに行きますか? 編集:私はを置くでした。x≥1x≥1x\ge1


6
歪度がゼロであるが対称ではない単峰性分布の例を誰かが提供できますか?
2010年5月、WikipediaユーザーのMcorazaoは、歪度の記事に「ゼロの値は、値が平均の両側に比較的均等に分布していることを示します。通常、対称分布を意味するわけではありません」ただし、wikiページには、この規則に違反する分布の実際の例はありません。「歪みがゼロの非対称分布の例」をグーグルで検索しても、少なくとも最初の20の結果では実際の例はありません。 定義を用いてスキューによって算出される、およびR式E[ (X- μσ)3]E⁡[(X−μσ)3] \operatorname{E}\Big[\big(\tfrac{X-\mu}{\sigma}\big)^{\!3}\, \Big] sum((x-mean(x))^3)/(length(x) * sd(x)^3) 歪度を低くするために、小さな任意の分布を作成できます。たとえば、分布 x = c(1, 3.122, 5, 4, 1.1) スキュー生み出す。しかし、これは小さなサンプルであり、さらに対称性からの逸脱は大きくありません。それで、非常に非対称であるが、歪度がほぼゼロである1つのピークを持つより大きな分布を構築することは可能ですか?- 5.64947 ⋅ 10− 5−5.64947⋅10−5-5.64947\cdot10^{-5}

6
期待される値の名前はなぜですか?
公平な6面ダイスを振る期待値として3.5を得る方法を理解しています。しかし、直感的には、各面に1/6の平等なチャンスが期待できます。 だから、サイコロを振るときの期待値は、同じ確率で1から6までの数字のいずれかではないでしょうか? 言い換えれば、「公平な6面ダイスを投げることに期待される価値は何ですか?」代わりに3.5です。 現実の世界では、誰かがサイコロを投げるときに期待する価値が3.5であることを誰かが説明できますか? 繰り返しますが、式や期待値の導出は必要ありません。

3
ブートストラップ分布の平均を報告してみませんか?
パラメータをブートストラップして標準エラーを取得すると、パラメータの分布が得られます。取得しようとしているパラメーターの結果または推定値として、その分布の平均を使用しないのはなぜですか?分布は実際の分布に近似すべきではありませんか?したがって、「実際の」値の適切な推定値を取得できますか?それでも、サンプルから取得した元のパラメーターを報告します。何故ですか? ありがとう

3
Brain-teaser:均一な[0,1]分布から引き出されたときに単調に増加しているiidシーケンスの予想される長さは何ですか?
これは、ここで報告されている定量アナリストの立場に対するインタビューの質問です。均一な分布から描画し、描画がiidであると仮定すると、単調に増加する分布の予想される長さは何ですか?つまり、現在の描画が前の描画以下である場合、描画を停止します。[0,1][0,1][0,1] 最初の数個を取得しました: \ Pr (\ text {length} = 2)= \ int_0 ^ 1 \ int_ {x_1} ^ 1 \ int_0 ^ {x_2} \ mathrm {d} x_3 \、\ mathrm {d} x_2 \、\ mathrm {d} x_1 = 1/3 \ Pr(\ text {length} = 3)= \ int_0 ^ 1 \ int_ {x_1} ^ …

1
自由度は非整数の数値にできますか?
GAMを使用すると、残留DFは(コードの最終行)になります。どういう意味ですか?GAMの例を超えて、一般に、自由度の数を整数以外の数にすることはできますか?26.626.626.6 &gt; library(gam) &gt; summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 -1.6217 -0.8971 1.2445 6.0516 (Dispersion Parameter for gaussian family taken to be 6.6717) Null Deviance: 1126.047 on 31 degrees of freedom Residual Deviance: 177.4662 on 26.6 degrees of …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 


3
分散とバイアスの2乗へのMSE分解
MSEを分散とバイアスの平方に分解できることを示すために、Wikipediaの証明には図で強調されているステップがあります。これはどのように作動しますか?第3段階から第4段階まで製品に期待はどのように押し込まれますか?2つの用語が独立している場合、両方の用語に期待を適用すべきではありませんか?そうでない場合、この手順は有効ですか?

3
なぜ最大尤度であり、予想尤度ではないのですか?
なぜパラメーターの最尤推定値を取得するのがそれほど一般的であるのに、予想尤度パラメーター推定値についてはほとんど聞いていません(つまり、尤度関数のモードではなく期待値に基づいています)。これは主に歴史的な理由によるものですか、それともより実質的な技術的または理論的な理由によるものですか? 最尤推定値ではなく予想尤度推定値を使用することには、大きな利点や欠点がありますか? 予想尤度推定が日常的に使用される領域はありますか?

4
平均(または別のモーメント)が存在しない非負の離散分布の例?
私はscipyでいくつかの仕事をしていて、非負の離散確率変数が未定義の瞬間を持つことができるかどうか、コアscipyグループのメンバーと会話ができました。彼は正しいと思いますが、便利な証拠はありません。誰でもこの主張を表示/証明できますか?(または、この主張が真実ではない場合) 離散確率変数がをサポートしている場合、便利な例はありませんが、Cauchy分布の離散化バージョンは、未定義の瞬間を得るための例として役立つはずです。非負性(おそらくを含む)の状態は、問題を(少なくとも私にとって)困難にしているようです。ZZ\mathbb{Z}000

5
なぜ正規分布の
初めて正規分布モンテカルロシミュレーションを行ったときにショックを受けたのは、サンプルサイズがのみであるサンプルからの標準偏差の平均がはるかに小さいことが判明したことです。つまり、回の平均よりも、母集団の生成に使用される\ sigmaです。ただし、これはあまり覚えていない場合はよく知られていますが、私はそれを知っていました。これがシミュレーションです。100100100100100100n=2n=2n=22π−−√2π \sqrt{\frac{2}{\pi }}σσ\sigma 100、n = 2、\ text {SD}の推定値、および\ text {E}(s_ {n = 2})= \ sqrt \を使用してN(0,1)の 95%信頼区間を予測する例を次に示します。 frac {\ pi} {2} \ text {SD}。N(0,1)N(0,1)N(0,1)n=2n=2n=2SDSD\text{SD}E(sn=2)=π2−−√SDE(sn=2)=π2SD\text{E}(s_{n=2})=\sqrt\frac{\pi}{2}\text{SD} RAND() RAND() Calc Calc N(0,1) N(0,1) SD E(s) -1.1171 -0.0627 0.7455 0.9344 1.7278 -0.8016 1.7886 2.2417 1.3705 -1.3710 1.9385 2.4295 1.5648 -0.7156 1.6125 2.0209 1.2379 …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.