タグ付けされた質問 「self-study」

クラスまたは自習用に使用される教科書、コース、またはテストからの定期的な練習。このコミュニティのポリシーは、完全な回答ではなく、そのような質問に「役立つヒントを提供する」ことです。


3
例:バイナリ結果にglmnetを使用したLASSO回帰
私は興味のある結果が二分されglmnetているLASSO回帰の使用に手を出し始めています。以下に小さな模擬データフレームを作成しました。 age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, 0.67, 0.91, 0.29, 0.88) m_edu <- c(0, 1, 1, 2, 2, 3, 2, 0, 1) p_edu <- c(0, 2, 2, …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 


8
時系列分析の落とし穴
時系列分析で自己学習を始めたばかりです。一般的な統計には当てはまらない潜在的な落とし穴がいくつかあることに気付きました。それで、一般的な統計的罪とは何ですか?、 私は質問したい: 時系列分析における一般的な落とし穴または統計的な罪とは何ですか? これは、コミュニティWikiであり、回答ごとに1つの概念があります。一般的な統計上の罪とは何ですか?

3
対数変換された予測子および/または応答の解釈
従属変数のみ、従属変数と独立変数の両方、または独立変数のみが対数変換されるかどうかの解釈に違いがあるのか​​と思います。 の場合を考えます log(DV) = Intercept + B1*IV + Error IVはパーセントの増加として解釈できますが、 log(DV) = Intercept + B1*log(IV) + Error または私が持っているとき DV = Intercept + B1*log(IV) + Error ?
46 regression  data-transformation  interpretation  regression-coefficients  logarithm  r  dataset  stata  hypothesis-testing  contingency-tables  hypothesis-testing  statistical-significance  standard-deviation  unbiased-estimator  t-distribution  r  functional-data-analysis  maximum-likelihood  bootstrap  regression  change-point  regression  sas  hypothesis-testing  bayesian  randomness  predictive-models  nonparametric  terminology  parametric  correlation  effect-size  loess  mean  pdf  quantile-function  bioinformatics  regression  terminology  r-squared  pdf  maximum  multivariate-analysis  references  data-visualization  r  pca  r  mixed-model  lme4-nlme  distributions  probability  bayesian  prior  anova  chi-squared  binomial  generalized-linear-model  anova  repeated-measures  t-test  post-hoc  clustering  variance  probability  hypothesis-testing  references  binomial  profile-likelihood  self-study  excel  data-transformation  skewness  distributions  statistical-significance  econometrics  spatial  r  regression  anova  spss  linear-model 

3
反復期待法則の一般化
私は最近このアイデンティティに出会いました: E[E(Y|X,Z)|X]=E[Y|X]E[E(Y|X,Z)|X]=E[Y|X]E \left[ E \left(Y|X,Z \right) |X \right] =E \left[Y | X \right] もちろん、そのルールのより単純なバージョン、つまりE[E(Y|X)]=E(Y)E[E(Y|X)]=E(Y)E \left[ E \left(Y|X \right) \right]=E \left(Y\right) には精通していますが、その一般化の正当性を見つけることができませんでした。 誰かがその事実についてそれほど技術的ではない参考文献を教えてくれたり、さらに良いことに、誰かがこの重要な結果の簡単な証拠を提示してくれたら、ありがたいです。

4
テイラー級数(特に残り)の期待値を取得する
私の質問は、広く使用されている方法、つまり、Taylor Seriesの期待値を正当化することに関するものです。正の平均および分散を持つランダム変数があると仮定します。さらに、などの関数があります。XXXμμ\muσ2σ2\sigma^2log(x)log⁡(x)\log(x) 平均を中心にテイラー展開を行うと、 ここで、通常どおり、はst。logXlog⁡X\log XlogX=logμ+X−μμ−12(X−μ)2μ2+13(X−μ)3ξ3X,log⁡X=log⁡μ+X−μμ−12(X−μ)2μ2+13(X−μ)3ξX3, \log X = \log\mu + \frac{X - \mu}{\mu} - \frac12 \frac{(X-\mu)^2}{\mu^2} + \frac13 \frac{(X - \mu)^3}{\xi_X^3}, ξXξX\xi_X|ξX−μ|&lt;|X−μ||ξX−μ|&lt;|X−μ||\xi_X - \mu| < |X - \mu| 予想を立てると、通常は自明の何かと呼ばれる近似式が得られます(最初の式の記号を参照してください)≈≈\approx: ElogX≈logμ−12σ2μ2Elog⁡X≈log⁡μ−12σ2μ2 \mathbb{E}\log X \approx \log \mu - \frac12 \frac{\sigma^2}{\mu^2} 質問:剰余項の期待値が実際に無視できることを証明する方法に興味があります。つまり、 (または、言い換えれば、)。E[(X−μ)3ξ3X]=o(σ2)E[(X−μ)3ξX3]=o(σ2) \mathbb{E}\left[\frac{(X - \mu)^3}{\xi_X^3}\right] = o(\sigma^2) E[o(X−μ)2]=o(E[(X−μ)2])E[o(X−μ)2]=o(E[(X−μ)2])\mathbb{E}\bigl[o(X-\mu)^2\bigr] = o\bigl(\mathbb{E}\bigl[(X-\mu)^2\bigr]\bigr) 私が実行しようと何:と仮定し(これは、順に、手段で)、I は周囲、二つに積分を分割しようと一部とを …

5
LDA対word2vec
単語の類似性を計算するためのLatent Dirichlet Allocationとword2vecの類似性を理解しようとしています。 私が理解しているように、LDAは単語を潜在トピックの確率のベクトルにマッピングし、word2vecはそれらを実数のベクトルにマッピングします(点ごとの相互情報の特異値分解に関連します。O。Levy 、Y. Goldberg、 "Neural Word Embedding暗黙的な行列因子分解として」 ; word2vecの仕組みも参照してください)。 理論的な関係(一方を他方の一般化、またはバリエーションと見なすことができます)と実用(一方を使用して他方を使用しない場合)の両方に興味があります。 関連: ドキュメント間の距離を計算する標準的な方法は何ですか?-DataScience.SE

9
このプロットの
次のプロットのYYYとXの関係は何XXXですか?私の見解では、負の線形関係がありますが、多くの外れ値があるため、関係は非常に弱いです。私は正しいですか?散布図をどのように説明できますか。

5
イタリア人の息子が小学校に通うことで、クラスに出席するイタリア人の子供の予想人数が変わりますか?
これは現実の状況に起因する質問であり、その答えについて私は本当に困惑しています。 私の息子はロンドンで小学校を始める予定です。私たちはイタリア人なので、すでに何人のイタリアの子供たちが学校に通っているのか知りたいと思いました。入学審査官に申請中にこれを尋ねると、クラスあたり平均2人のイタリア人の子供(30人)がいると彼女は言った。 私は今、自分の子供が受け入れられたことを知っている時点にいますが、他の子供に関する他の情報はありません。入場基準は距離に基づいていますが、この質問の目的のために、それは応募者の大規模なサンプルからのランダムな割り当てに基づいていると仮定できると思います。 息子のクラスには何人のイタリアの子供がいると予想されますか?2または3に近いでしょうか?

6
共分散推定量の分母がn-1ではなくn-2にならないのはなぜですか?
(不偏)分散推定量の分母はであり、観測値があり、推定されるパラメーターは1つだけです。n−1n−1n-1nnn V(X)=∑ni=1(Xi−X¯¯¯¯)2n−1V(X)=∑i=1n(Xi−X¯)2n−1 \mathbb{V}\left(X\right)=\frac{\sum_{i=1}^{n}\left(X_{i}-\overline{X}\right)^{2}}{n-1} 同様に、2つのパラメーターを推定するときに共分散の分母をにしないのはなぜでしょうか?n−2n−2n-2 Cov(X,Y)=∑ni=1(Xi−X¯¯¯¯)(Yi−Y¯¯¯¯)n−1Cov(X,Y)=∑i=1n(Xi−X¯)(Yi−Y¯)n−1 \mathbb{Cov}\left(X, Y\right)=\frac{\sum_{i=1}^{n}\left(X_{i}-\overline{X}\right)\left(Y_{i}-\overline{Y}\right)}{n-1}

3
多変量正規密度の導関数を取得する方法は?
多変量正規密度があるとします。二次(部分)微分wrtを取得したい。行列の微分をどのように取るかわからない。N(μ 、Σ )N(μ,Σ)N(\mu, \Sigma)μμ\mu ウィキによると、マトリックス内の要素ごとに派生要素を取得します。 ラプラス近似で作業してい モードはです。θ = μログPN(θ )= logPN− 12(θ − θ^)TΣ− 1(θ − θ^)。log⁡PN(θ)=log⁡PN−12(θ−θ^)TΣ−1(θ−θ^).\log{P}_{N}(\theta)=\log {P}_{N}-\frac{1}{2}{(\theta-\hat{\theta})}^{T}{\Sigma}^{-1}(\theta-\hat{\theta}) \>.θ^= μθ^=μ\hat\theta=\mu Iは、与えられたこれどのようにして生じたのですか?Σ− 1= - ∂2∂θ2ログp (θ^| y)、Σ−1=−∂2∂θ2log⁡p(θ^|y),{\Sigma}^{-1}=-\frac{{{\partial }^{2}}}{\partial {{\theta }^{2}}}\log p(\hat{\theta }|y), 私がしたこと: ログP(θ | y)= − k2ログ2個のπ− 12ログ| Σ | − 12(θ − θ^)TΣ− 1(θ − θ^)log⁡P(θ|y)=−k2log⁡2π−12log⁡|Σ|−12(θ−θ^)TΣ−1(θ−θ^)\log P(\theta|y) = -\frac{k}{2} …

3
モデルの赤池情報量基準(AIC)スコアはどういう意味ですか?
私はここで素人の言葉で何を意味するかについていくつかの質問を見てきましたが、これらはここでの私の目的にはあまりにも素人です。AICスコアの意味を数学的に理解しようとしています。 しかし同時に、より重要なポイントを見ないようにする厳密な証拠は必要ありません。たとえば、これが微積分であれば、私は無限小に満足し、これが確率論であれば、測定理論なしに満足します。 私の試み ここを読んで、自分自身のいくつかの表記シュガー、は、次のようにデータセットD上のモデル AIC基準です: \ text {AIC} _ {m、D} = 2k_m- 2 \ ln(L_ {m、D}) ここで、k_mはモデルmのパラメーターの数、L_ {m、D}はデータセットDのモデルmの最尤関数値です。 m D AIC m 、D = 2 k m − 2 ln (L m 、D)k m m L m 、D m DAICm,DAICm,D\text{AIC}_{m,D}mmmDDDAICm,D=2km−2ln(Lm,D)AICm,D=2km−2ln⁡(Lm,D) \text{AIC}_{m,D} = 2k_m - 2 \ln(L_{m,D}) kmkmk_mmmmLm,DLm,DL_{m,D}mmmDDD 上記が意味するものの私の理解はここにあります: m=arg maxθPr(D|θ)m=arg …

5
CDFを使用して期待値を見つける
これは、本から出てくる宿題の問題だと言うことから始めます。数時間かけて期待値を見つける方法を調べましたが、何もわからないと判断しました。 LET CDF有する。 検索のそれらの値のためのれる存在します。XXXF(x)=1−x−α,x≥1F(x)=1−x−α,x≥1F(x) = 1 - x^{-\alpha}, x\ge1E(X)E(X)E(X)αα\alphaE(X)E(X)E(X) これを開始する方法すらわかりません。値が存在するかをどのように判断できますか?また、CDFをどうするかわかりません(これは累積分布関数を意味すると仮定しています)。周波数関数または密度関数がある場合に期待値を見つけるための公式があります。ウィキペディアによると、のCDFは、確率密度関数に関して次のように定義できます。αα\alphaXXXfff F(x)=∫x−∞f(t)dtF(x)=∫−∞xf(t)dtF(x) = \int_{-\infty}^x f(t)\,dt これは私が得た限りです。ここからどこに行きますか? 編集:私はを置くでした。x≥1x≥1x\ge1

4
試験の結果は二項式ですか?
ここに私が与えられた簡単な統計の質問があります。私はそれを理解しているのか本当にわかりません。 X =試験の獲得ポイントの数(複数選択と正解は1ポイント)。X二項分布はありますか? 教授の答えは次のとおりです。 はい、正解か不正解しかありません。 私の答え: いいえ、各質問には異なる「成功確率」があります。私が理解したように、二項分布は単なる一連のベルヌーイ実験であり、それぞれが特定の成功確率pを持つ単純な結果(成功または失敗)を持ちます(そしてすべてがpに関して「同一」です)。たとえば、(公正な)コインを100回フリッピングすると、これは100ベルヌーイ実験であり、すべてp = 0.5になります。しかし、ここでの質問にはさまざまな種類がありますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.