タグ付けされた質問 「self-study」

クラスまたは自習用に使用される教科書、コース、またはテストからの定期的な練習。このコミュニティのポリシーは、完全な回答ではなく、そのような質問に「役立つヒントを提供する」ことです。

1
UMVUEを検索
ましょ、X1,X2,...,XnX1,X2,...,XnX_1, X_2, . . . , X_n pdfを持つiid確率変数 fX(x∣θ)=θ(1+x)−(1+θ)I(0,∞)(x)fX(x∣θ)=θ(1+x)−(1+θ)I(0,∞)(x)f_X(x\mid\theta) =\theta(1 +x)^{−(1+\theta)}I_{(0,\infty)}(x) ここで、θ>0θ>0\theta >0です。1のUMVUEを与える1θ1θ\frac{1}{\theta}とその分散の計算 私は、UMVUEを取得するためのそのような2つの方法について学びました。 クラマーラオ下限(CRLB) レーマンシェッフェテレオム 前者の2つを使ってこれを試みます。私はここで何が起こっているのか完全に理解していないことを認めなければなりません、そして私は私が試みた解決策を例の問題に基づいています。私はそれを持っているfX(x∣θ)fX(x∣θ)f_X(x\mid\theta)との完全なワンパラメータ指数分布族であります h (x )= I(0 、∞ )h(x)=I(0,∞)h(x)=I_{(0,\infty)}、c (θ )= θc(θ)=θc(\theta)=\theta、w (θ )= − (1 + θ )w(θ)=−(1+θ)w(\theta)=-(1+\theta)、t (x )= log (1 + x )t(x)=log(1+x)t(x)=\text{log}(1+x) 以来、w′(θ)=1w′(θ)=1w'(\theta)=1でゼロでΘΘ\Theta、CRLB結果が適用されます。我々は持っています log fX(x∣θ)=log(θ)−(1+θ)⋅log(1+x)log fX(x∣θ)=log(θ)−(1+θ)⋅log(1+x)\text{log }f_X(x\mid\theta)=\text{log}(\theta)-(1+\theta)\cdot\text{log}(1+x) ∂∂θlog fX(x∣θ)=1θ−log(1+x)∂∂θlog fX(x∣θ)=1θ−log(1+x)\frac{\partial}{\partial \theta}\text{log }f_X(x\mid\theta)=\frac{1}{\theta}-\text{log}(1+x) …

3
分布
日常的な練習として、私は√の分布を見つけようとしていますX2+Y2−−−−−−−√X2+Y2\sqrt{X^2+Y^2}XXX及びYYY独立しているU(0,1)U(0,1) U(0,1)ランダム変数。 (X,Y)(X,Y)(X,Y)の結合密度は fX,Y(x,y)=10&lt;x,y&lt;1fX,Y(x,y)=10&lt;x,y&lt;1f_{X,Y}(x,y)=\mathbf 1_{0\cos^{-1}\left(\frac{1}{z}\right)、のようにcosθcos⁡θ\cos\thetaに減少しているθ∈[0,π2]θ∈[0,π2]\theta\in\left[0,\frac{\pi}{2}\right]; そしてzsinθ&lt;1⟹θ&lt;sin−1(1z)zsin⁡θ&lt;1⟹θ&lt;sin−1⁡(1z)z\sin\theta<1\implies\theta<\sin^{-1}\left(\frac{1}{z}\right)、のようにsinθsin⁡θ\sin\theta上に増加しているθ∈[0,π2]θ∈[0,π2]\theta\in\left[0,\frac{\pi}{2}\right]。 したがって、1&lt;z&lt;2–√1&lt;z&lt;21< z<\sqrt 2、cos−1(1z)&lt;θ&lt;sin−1(1z)cos−1⁡(1z)&lt;θ&lt;sin−1⁡(1z)\cos^{-1}\left(\frac{1}{z}\right)<\theta<\sin^{-1}\left(\frac{1}{z}\right)。 変換のヤコビアンの絶対値です|J|=z|J|=z|J|=z こうしての関節密度(Z,Θ)(Z,Θ)(Z,\Theta)によって与えられます。 fZ,Θ(z,θ)=z1{z∈(0,1),θ∈(0,π/2)}⋃{z∈(1,2√),θ∈(cos−1(1/z),sin−1(1/z))}fZ,Θ(z,θ)=z1{z∈(0,1),θ∈(0,π/2)}⋃{z∈(1,2),θ∈(cos−1⁡(1/z),sin−1⁡(1/z))}f_{Z,\Theta}(z,\theta)=z\mathbf 1_{\{z\in(0,1),\,\theta\in\left(0,\pi/2\right)\}\bigcup\{z\in(1,\sqrt2),\,\theta\in\left(\cos^{-1}\left(1/z\right),\sin^{-1}\left(1/z\right)\right)\}} θθ\theta積分すると、次のようにZZZのpdfが得られます。 fZ(z)=πz210&lt;z&lt;1+(πz2−2zcos−1(1z))11&lt;z&lt;2√fZ(z)=πz210&lt;z&lt;1+(πz2−2zcos−1⁡(1z))11&lt;z&lt;2f_Z(z)=\frac{\pi z}{2}\mathbf 1_{0\sqrt 2 \end{cases} 正しい表現のように見えます。1 &lt; z &lt; √の場合のFZFZF_Z微分1&lt;z&lt;2–√1&lt;z&lt;21< z<\sqrt 2、すでに取得したpdfに簡単に単純化できない式を表示します。 最後に、私はCDFの正しい写真があると思います。 用0&lt;z&lt;10&lt;z&lt;10<z<1: そして1&lt;z&lt;2–√1&lt;z&lt;21<z<\sqrt 2: 網掛け部分は、領域の面積を示します{(x,y):0&lt;x,y&lt;1,x2+y2≤z2}{(x,y):0&lt;x,y&lt;1,x2+y2≤z2}\left\{(x,y):0<x,y< 1\,,\,x^2+y^2\le z^2\right\} 写真はすぐに得られます FZ(z)=Pr(−z2−X2−−−−−−−√≤Y≤z2−X2−−−−−−−√)=⎧⎩⎨⎪⎪⎪⎪πz24z2−1−−−−−√+∫1z2−1√z2−x2−−−−−−√dx, if 0&lt;z&lt;1, if 1&lt;z&lt;2–√FZ(z)=Pr(−z2−X2≤Y≤z2−X2)={πz24, if 0&lt;z&lt;1z2−1+∫z2−11z2−x2dx, if 1&lt;z&lt;2\begin{align} F_Z(z)&=\Pr\left(-\sqrt{z^2-X^2}\le Y\le\sqrt{z^2-X^2}\right) \\&=\begin{cases}\frac{\pi z^2}{4} &,\text{ if } …

1
word2vecのクロスエントロピー損失の導関数
私はcs224dオンラインスタンフォードクラスのコース教材の最初の問題セットを処理しようとしていますが、問題3Aでいくつかの問題があります。ソフトマックス予測関数とクロスエントロピー損失関数でスキップグラムword2vecモデルを使用すると、予測された単語ベクトルに関して勾配を計算したい。したがって、softmax関数が与えられます: wi^=Pr(wordi∣r^,w)=exp(wTir^)∑|V|jexp(wTjr^)wi^=Pr(wordi∣r^,w)=exp⁡(wiTr^)∑j|V|exp(wjTr^) \hat{w_i} = \Pr(word_i\mid\hat{r}, w) = \frac{\exp(w_i^T \hat{r})}{\sum_{j}^{|V|}exp(w_j^T\hat{r})} そしてクロスエントロピー関数: CE(w,w^)=−∑kwklog(wk^)CE(w,w^)=−∑kwklog(wk^)CE(w, \hat{w}) = -\sum\nolimits_{k} w_klog(\hat{w_k}) \ frac {\ partial {CE}} {\ partial {\ hat {r}}}を計算する必要があり∂CE∂r^∂CE∂r^\frac{\partial{CE}}{\partial{\hat{r}}} 私の手順は次のとおりです。 CE(w,w^)=−∑|V|kwklog(exp(wTkr^)∑|V|jexp(wTjr^))CE(w,w^)=−∑k|V|wklog(exp⁡(wkTr^)∑j|V|exp(wjTr^))CE(w, \hat{w}) = -\sum_{k}^{|V|} w_klog(\frac{\exp(w_k^T \hat{r})}{\sum_{j}^{|V|}exp(w_j^T\hat{r})}) =−∑|V|kwklog(exp(wTkr^)−wklog(∑|V|jexp(wTjr^))=−∑k|V|wklog(exp⁡(wkTr^)−wklog(∑j|V|exp(wjTr^))= -\sum_{k}^{|V|} w_klog(\exp(w_k^T \hat{r}) - w_klog(\sum_{j}^{|V|}exp(w_j^T\hat{r})) ここでwkwkw_kは1つのホットベクトルで、iは正しいクラスです。 CE(w,w^)=−wTir^+log(∑|V|jexp(wTjr^))CE(w,w^)=−wiTr^+log(∑j|V|exp(wjTr^))CE(w, \hat{w}) = - w_i^T\hat{r} + log(\sum_{j}^{|V|}exp(w_j^T\hat{r})) ∂CE∂r^=−wi+1∑|V|jexp(wTjr^)∑|V|jexp(wTjr^)wj∂CE∂r^=−wi+1∑j|V|exp(wjTr^)∑j|V|exp(wjTr^)wj\frac{\partial{CE}}{\partial{\hat{r}}} = -w_i + …

1
分散が最小の偏りのない推定量
ましょのランダムサンプルfeomこと分布G E O mはE T R I C (θ )のために0 &lt; θ &lt; 1。つまり、X1,...,XnX1,...,Xn X_1, ...,X_nGeometric(θ)Geometric(θ)Geometric(\theta)0&lt;θ&lt;10&lt;θ&lt;10<\theta<1 pθ(x)=θ(1−θ)x−1I{1,2,...}(x)pθ(x)=θ(1−θ)x−1I{1,2,...}(x)p_{\theta}(x)=\theta(1-\theta)^{x-1} I_{\{1,2,...\}}(x) g (θ )= 1の最小分散をもつ不偏推定量を求めますg(θ)=1θg(θ)=1θg(\theta)=\frac{1}{\theta} 私の試み: 幾何分布は指数族からのものであるため、統計は完全であり、θに対して十分です。また、T (X )= X 1がg (θ )の推定量である場合、偏りはありません。したがって、Rao-Blackwellの定理とLehmann-Schefféの定理により、 W (X )= E [ X 1 | ∑ X i ] は、私たちが探している推定量です。∑Xi∑Xi\sum X_i θθ \thetaT(X)=X1T(X)=X1T(X)=X_1g(θ)g(θ)g(\theta)W(X)=E[X1|∑Xi]W(X)=E[X1|∑Xi]W(X) = E[X_1|\sum X_i] 次のものがあります。 …

1
指数ファミリ:観察された統計と期待される十分な統計
私の質問は、ランダムベクトルの観測に基づいてディリクレ分布の最尤推定量を導出するという文脈で、証明なしに次のように述べているMinkaの「ディリクレ分布の推定」を読んでいることから生じます。 指数関数ファミリーの場合と同様に、勾配がゼロの場合、予想される十分な統計は、観測された十分な統計と等しくなります。 このように提示された指数関数の最尤推定を見たことがなく、検索で適切な説明も見つかりませんでした。誰かが観測された統計と予想される十分な統計との関係についての洞察を提供し、おそらくそれらの差を最小化することで最尤推定を理解するのを助けることができますか?

1
GLMの対数尤度
次のコードでは、glmを使用してグループ化されたデータとmle2を使用して「手動」でロジスティック回帰を実行します。RのlogLik関数で対数尤度logLik(fit.glm)=-2.336が得られるのはなぜですか。手作業で取得したものとは異なります。 library(bbmle) #successes in first column, failures in second Y &lt;- matrix(c(1,2,4,3,2,0),3,2) #predictor X &lt;- c(0,1,2) #use glm fit.glm &lt;- glm(Y ~ X,family=binomial (link=logit)) summary(fit.glm) #use mle2 invlogit &lt;- function(x) { exp(x) / (1+exp(x))} nloglike &lt;- function(a,b) { L &lt;- 0 for (i in 1:n){ L &lt;- L + sum(y[i,1]*log(invlogit(a+b*x[i])) …

3
統計学習の要素の演習2.2
教科書は最初にいくつかの2クラスデータを生成します。 それは与える: そしてそれは尋ねます: 私はこれをこのグラフィカルモデルで最初にモデル化することでこれを解決しようとします: ここで、はラベル、hccc選択された平均値の指標である M個のCのH、および Xのデータポイントです。これはh(1≤h≤10)h(1≤h≤10)h\,(1\le h \le 10)mchmhcm_h^cxxx Pr(x∣mch)=Pr(mch∣h,c=blue)=Pr(mch∣h,c=orange)=Pr(h)=Pr(c)=N(mch,I/5)N((1,0)T,I)N((0,1)T,I)11012Pr(x∣mhc)=N(mhc,I/5)Pr(mhc∣h,c=blue)=N((1,0)T,I)Pr(mhc∣h,c=orange)=N((0,1)T,I)Pr(h)=110Pr(c)=12 \begin{align*} \Pr(x\mid m_h^c) =& \mathcal{N}(m_h^c,\mathbf{I}/5)\\ \Pr(m_h^c\mid h,c=\mathrm{blue}) =& \mathcal{N}((1,0)^T,\mathbf{I})\\ \Pr(m_h^c\mid h,c=\mathrm{orange}) =& \mathcal{N}((0,1)^T,\mathbf{I})\\ \Pr(h) =& \frac{1}{10}\\ \Pr(c) =& \frac{1}{2} \end{align*} {x:Pr(c=blue∣x)=Pr(c=orange∣x)}{x:Pr(c=blue∣x)=Pr(c=orange∣x)}\{x:\Pr(c=\mathrm{blue}\mid x)=\Pr(c=\mathrm{orange}\mid x)\} Pr(c∣x)=Pr(x∣c)=Pr(x∣c)Pr(c)∑cPr(x∣c)Pr(c)∑h∫mchPr(h)Pr(mch∣h,c)Pr(x∣mch)Pr(c∣x)=Pr(x∣c)Pr(c)∑cPr(x∣c)Pr(c)Pr(x∣c)=∑h∫mhcPr(h)Pr(mhc∣h,c)Pr(x∣mhc) \begin{align*} \Pr(c\mid x) =& \frac{\Pr(x\mid c)\Pr(c)}{\sum_c\Pr(x\mid c)\Pr(c)}\\ \Pr(x\mid c) =& \sum_h\int_{m_h^c}\Pr(h)\Pr(m_h^c\mid h,c)\Pr(x\mid m_h^c) \end{align*} x=yx=yx=ymchmhcm_h^c404040 …

4
Rの離散時間イベント履歴(生存)モデル
Rに離散時間モデルを適合させようとしていますが、その方法がわかりません。 従属変数を時間監視ごとに1つずつ異なる行に編成し、glm関数をlogitまたはcloglogリンクで使用できることを読みました。この意味で、私は3つの列があります:ID、Event(各time-obsで1または0)およびTime Elapsed(観測の開始以降)、および他の共変量。 モデルに合うようにコードを書くにはどうすればよいですか?従属変数はどれですか?Event従属変数として使用できTime Elapsed、共変量に含めることができると思います。しかし、どうなりIDますか?必要ですか? ありがとう。
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

1
R線形回帰のカテゴリ変数「非表示」の値
これは私が何度か遭遇した例にすぎないため、サンプルデータはありません。Rで線形回帰モデルを実行する: a.lm = lm(Y ~ x1 + x2) x1は連続変数です。x2カテゴリ型で、「低」、「中」、「高」の3つの値があります。ただし、Rによって与えられる出力は次のようになります。 summary(a.lm) Estimate Std. Error t value Pr(&gt;|t|) (Intercept) 0.521 0.20 1.446 0.19 x1 -0.61 0.11 1.451 0.17 x2Low -0.78 0.22 -2.34 0.005 x2Medium -0.56 0.45 -2.34 0.005 私は、Rがそのような要因(要因x2であること)に何らかのダミーコーディングを導入していることを理解しています。私はただ疑問に思っていx2ます。「高」の値をどのように解釈しますか?たとえば、ここで示した例の「High」x2は応答変数にどのような影響を与えますか? これの例を他の場所(例:ここ)で見ましたが、理解できる説明は見つかりませんでした。
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

2
回帰予測からの信頼区間のブートストラップ
宿題では、投げ縄回帰を使用する予測子を作成/トレーニングするためのデータが与えられました。予測子を作成し、scikit learnのlasso pythonライブラリを使用して予測子をトレーニングします。 だから今私は与えられた入力が出力を予測できるというこの予測因子を持っています。 2番目の質問は、「ブートストラップメソッドを使用して予測の信頼区間を報告するように予測子を拡張する」ことでした。 私は周りを見回して、平均や他のことのためにこれをしている人々の例を見つけました。 しかし、私は予測のためにそれを行うにはどうすればよいのか全くわからない。scikit-bootstrapライブラリを使用しようとしています。 コースのスタッフは非常に無反応なので、どんな助けでもありがたいです。ありがとうございました。


5
場合はと  独立した事象であり、と独立したイベントです、どのように私がいることを示しますと  独立していますか?
ましょうと 独立したイベントも、と聞かせて と独立したイベントも。 とも独立したイベントであることをどのように示すのですか?あAABBBあAACCCあAAB ∪ CB∪CB\cup C 独立したイベントの定義によれば、 とは、場合に限り、独立していあAAB ∪ CB∪CB\cup CP(A ∩ (B ∪ C))= P(A )P(B ∪ C)。P(A∩(B∪C))=P(A)P(B∪C).P(A\cap (B\cup C)) = P(A)P(B\cup C). 以来、と とと 独立している、私が知っている あAABBBあAACCCP(A ∩ B )= P(A )P(B )そしてP(A ∩ C)= P(A )P(C)。P(A∩B)=P(A)P(B)andP(A∩C)=P(A)P(C).P(A\cap B) = P(A)P(B) \quad\text{and}\quad P(A\cap C)=P(A)P(C). しかし、私はこれを解決する方法がわかりません。私が知っている確率のルールを適用しようとしましたが、どこにも行きませんでした。

3
右打ち切りと左打ち切り
ウィキペディアは以下の定義を提供します: 右打ち切り:データポイントは特定の値を超えていますが、その量は不明です。 左打ち切り:データポイントが特定の値を下回っていますが、その量は不明です。 これらの定義では、次のことを意味します。 「データポイント」 「特定の価値」、および "いくら" 一般的に、右と左の打ち切りとは何ですか? 以下のステートメントは正しいですか? 「右打ち切りでは、打ち切り値の下限しかありません。」 左打ち切りの類似のステートメントは何でしょうか?

1
時系列の二乗が定常である場合、元の時系列は定常ですか?
時系列の2乗が静止している場合、元の時系列も同様であり、逆もまた同様であると述べた解決策を見つけました。しかし、私はそれを証明することができないようです、これが本当であるかどうか、そしてそれがそれを導き出す方法であるかどうか誰もが考えていますか?

2
確率
仮定X1X1X_1及びX2X2X_2、パラメータを持つ独立した幾何学的な確率変数であるppp。その確率は何であるX1≥X2X1≥X2X_1 \geq X_2? X1X1X_1とX2X2X_2については幾何学的であるということ以外は何も言われていないので、私はこの質問について混乱しています。X 1とX 2は範囲内にあるため、これは50%50%50\%はないでしょうか?X1X1X_1X2X2X_2 編集:新しい試み P(X1≥X2)=P(X1&gt;X2)+P(X1=X2)P(X1≥X2)=P(X1&gt;X2)+P(X1=X2)P(X1 ≥ X2) = P(X1 > X2) + P(X1 = X2) P(X1=X2)P(X1=X2)P(X1 = X2) =∑x∑x\sum_{x} (1−p)x−1p(1−p)x−1p(1−p)x−1p(1−p)x−1p(1-p)^{x-1}p(1-p)^{x-1}p =p2−pp2−p\frac{p}{2-p} P(X1&gt;X2)P(X1&gt;X2)P(X1 > X2) = P(X1&lt;X2)P(X1&lt;X2)P(X1 < X2)およびP(X1&lt;X2)+P(X1&gt;X2)+P(X1=X2)=1P(X1&lt;X2)+P(X1&gt;X2)+P(X1=X2)=1P(X1 < X2) + P(X1 > X2) + P(X1 = X2) = 1 したがって、P(X1&gt;X2)P(X1&gt;X2)P(X1 > X2) = 1−P(X1=X2)21−P(X1=X2)2\frac{1-P(X1 = X2)}{2} …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.