タグ付けされた質問 「parameterization」

いくつかの統計モデルをパラメーター化する方法、またはパラメーター化するさまざまな方法の比較についての質問。

7
ベイジアンは、1つの固定パラメーター値があることを認めますか?
ベイジアンデータ分析では、パラメーターはランダム変数として扱われます。これは、ベイズの確率の主観的概念化に由来します。しかし、ベイジアンは理論上、「実世界」には1つの真の固定パラメーター値があることを認めていますか? 明らかな答えは「はい」であるように思われます。なぜなら、パラメータを推定しようとすることはほとんど無意味だからです。この答えの学術的な引用は大歓迎です。

1
BUGSとRのパラメーター化はどの分布で異なりますか?
BUGSとRのパラメーター化が異なる正規分布、対数正規分布、ワイブル分布を見つけました。 これらのそれぞれについて、Rが使用する2番目のパラメーターは、BUGS(または私の場合はJAGS)で使用する前に逆変換(1 /パラメーター)する必要があることを収集します。 現在存在するこれらの変換の包括的なリストを知っている人はいますか? 私が見つけることができる最も近いものは、JAGS 2.2.0ユーザーマニュアルの表7の分布を、?rnorm等の結果と、おそらくいくつかの確率テキストと比較することです。このアプローチでは、変換をPDFから個別に推定する必要があるようです。 このタスク(および起こりうるエラー)が既に行われている場合は回避するか、ここからリストを開始します。 更新 Benの提案に基づいて、パラメーターのデータフレームをRからBUGSパラメーター化に変換する次の関数を作成しました。 ##' convert R parameterizations to BUGS paramaterizations ##' ##' R and BUGS have different parameterizations for some distributions. ##' This function transforms the distributions from R defaults to BUGS ##' defaults. BUGS is an implementation of the BUGS language, and these …

5
名前に含まれるもの:ハイパーパラメーター
したがって、正規分布では、平均と分散つのパラメーターがあります。本「パターン認識と機械学習」では、エラー関数の正則化項にハイパーパラメーターが突然現れます。μμ\muσ2σ2\sigma^2λλ\lambda ハイパーパラメーターとは何ですか?なぜそのような名前が付けられているのですか?そして、それらは一般的にパラメーターとどのように直感的に異なっていますか?

2
ランダムフォレスト:変数が重要であることがわかっている場合
私の理解では、ランダムフォレストはランダムにmtry変数を選択して各決定ツリーを構築します。したがって、mtry = ncol / 3の場合、各変数は平均してツリーの1/3で使用されます。そして、ツリーの2/3はそれらを使用しません。 しかし、単一の変数がおそらく非常に重要であることを知っている場合、この変数が各ツリーで選択される確率を手動で増やすとよいでしょうか?RのrandomForestパッケージで実現可能ですか?

2
相互検証とパラメーターの最適化
10分割交差検証を使用すると、パラメーターの最適化について質問があります。 すべてのフォールドのモデルトレーニング中にパラメーターを修正するかどうかを確認したい。つまり、(1)各フォールドの平均精度に対して最適化されたパラメーターのセットを1つ選択する。 または (2)すべての折りたたみに最適化されたパラメーターを見つけて、すべての折りたたみが異なる最適化パラメーターを使用してモデルをトレーニングし、それぞれの折りたたみのテストデータでテストし、最終的にすべての折りたたみの精度を平均しますか? 交差検証の正しい方法はどれですか?どうもありがとう。

2
過剰パラメーター化モデルのフィッシャー情報行列行列式
ベルヌーイ確率変数の検討X∈{0,1}X∈{0,1}X\in\{0,1\}パラメータとθθ\theta(成功の確率)。尤度関数とフィッシャー情報(1×11×11 \times 1行列)は次のとおりです。 L1(θ;X)I1(θ)=p(X|θ)=θX(1−θ)1−X=detI1(θ)=1θ(1−θ)L1(θ;X)=p(X|θ)=θX(1−θ)1−XI1(θ)=detI1(θ)=1θ(1−θ) \begin{align} \mathcal{L}_1(\theta;X) &= p(\left.X\right|\theta) = \theta^{X}(1-\theta)^{1-X} \\ \mathcal{I}_1(\theta) &= \det \mathcal{I}_1(\theta) = \frac{1}{\theta(1-\theta)} \end{align} 成功の確率:今、二つのパラメータを持つ「オーバー・パラメータ」バージョンを検討と失敗の確率。(であり、この制約はパラメーターの1つが冗長であることを意味します。)この場合、尤度関数とフィッシャー情報行列(FIM)は次のとおりです。θ1θ1\theta_1θ0θ0\theta_0θ1+θ0=1θ1+θ0=1\theta_1+\theta_0=1 L2(θ1,θ0;X)I2(θ1,θ0)detI2(θ)=p(X|θ1,θ0)=θX1θ1−X0=(1θ1001θ0)=1θ1θ0=1θ1(1−θ1)L2(θ1,θ0;X)=p(X|θ1,θ0)=θ1Xθ01−XI2(θ1,θ0)=(1θ1001θ0)detI2(θ)=1θ1θ0=1θ1(1−θ1) \begin{align} \mathcal{L}_2(\theta_1,\theta_0;X) &= p(\left.X\right|\theta_1,\theta_0) = \theta_1^{X}\theta_0^{1-X} \\ \mathcal{I}_2(\theta_1,\theta_0) &= \left( \begin{matrix} \frac{1}{\theta_1} & 0 \\ 0 & \frac{1}{\theta_0} \end{matrix} \right) \\ \det \mathcal{I}_2(\theta) &= \frac{1}{\theta_1 \theta_0} = \frac{1}{\theta_1 (1-\theta_1)} \end{align} …

1
ベーレンス・フィッシャー分布のパラメーター化
"Behrens–Fisher問題について:レビュー" Seock-Ho KimとAllen S. Cohen Journal of Educational and Behavioral Statistics、23巻、4号、1998年冬、ページ356〜377 私はこれを見ているとそれは言う: フィッシャー(1935、1939)統計を選択した[tはiは、通常1サンプルであるTため-statisticiは=1、2]θが最初に取られを象限と日焼けθ=S1/ √τ=δ−(x¯2−x¯1)s21/n1+s22/n2−−−−−−−−−−−√=t2cosθ−t1sinθτ=δ−(x¯2−x¯1)s12/n1+s22/n2=t2cos⁡θ−t1sin⁡θ \tau = \frac{\delta-(\bar x_2 - \bar x_1)}{\sqrt{s_1^2/n_1+s_2^2/n_2}} = t_2\cos\theta - t_1\sin\theta titit_ittti=1,2i=1,2i=1,2θθ\theta[。。。]の分布τがベーレンス-フィッシャー分布であり、3つのパラメータによって定義されるν1、ν2、及びθ、tanθ=s1/n1−−√s2/n2−−√.(13)(13)tan⁡θ=s1/n1s2/n2. \tan\theta = \frac{s_1/\sqrt{n_1}}{s_2/\sqrt{n_2}}.\tag{13} ττ\tauν1ν1\nu_1ν2ν2\nu_2θθ\theta パラメータは、、以前のように定義されたN I - 1ため、私は= 1 、2。νiνi\nu_ini−1ni−1n_i-1i=1,2i=1,2i=1,2 今ここに観察不能な事がさと2つの母平均μ 1、μ 2その差、δ、結果的にτと2つのT -statistics。サンプルSD s 1とs 2は観測可能であり、θを定義するために使用されるため、θは観測可能な統計であり、観測不可能な母集団パラメーターではありません。それでも、この分布のファミリのパラメータの1つとして使用されていることがわかります。δδ\deltaμ1μ1\mu_1μ2μ2\mu_2δδ\deltaττ\tauttts1s1s_1s2s2s_2θθ\thetaθθ\theta それは彼らが、パラメータがの逆正接であると述べている必要がありますということでしたs1/√ではなく n 2σ1/n1−−√σ2/n2−−√σ1/n1σ2/n2\dfrac{\sigma_1/\sqrt{n_1}}{\sigma_2/\sqrt{n_2}}?s1/n1−−√s2/n2−−√s1/n1s2/n2\dfrac{s_1/\sqrt{n_1}}{s_2/\sqrt{n_2}}

1
ベイジアン情報基準における離散またはバイナリパラメータの説明
BICは、パラメーターの数に基づいてペナルティを課します。一部のパラメーターが何らかのバイナリインジケーター変数である場合はどうなりますか?これらは完全なパラメーターとしてカウントされますか?しかし、バイナリパラメータを値を取る1つの離散変数に組み合わせることができます。これらはパラメータとしてカウントされるのか、1つのパラメータとしてカウントされるのか?{ 0 、1 、。。。、2 m − 1 } mメートルmm{ 0 、1 、。。。、2メートル− 1 }{0,1,...,2m−1}\{0,1,...,2^m-1\}メートルmm

1
サンプルの平均値と中央値から対数正規分布のパラメーターを取得できますか?
対数正規分布から抽出されたサンプルの平均値と中央値があります。これは変数のログの平均値と中央値ではないことに注意してください。もちろん、平均値と中央値のログを計算できます。この情報からμとσの閉じた形の解はありますか?数値解しかない場合、理想的にはRを使用して、それを見つける方法を教えてください。 私はこの質問は、ここで、サンプル平均と標本分散からμとσを導出するために回答されていることに注意してください: 私はサンプル平均と標本分散から対数正規分布のパラメータを推定するにはどうすればよい しかし、私は持っていません。サンプル分散、平均と中央値のみ。 閉じた形式または単純な数値解がない場合、サンプルの平均と中央値のログ、またはそれらの何らかの変換を使用すると、大規模なサンプル(数億単位)に対して適切な回答が得られるかどうかを知りたいです。 )。

1
グラフィカルモデルのポイントは何ですか?
私は1日をRでbnlearnパッケージについて学習するだけで、ベイジアンモデルが無向グラフでは機能しないことを発見しました。私はマルコフランダムフィールドネットワークについて学習しようとしていますが、これまでのところ、グラフィカルなLASSOを使用してグラフィカルな構造を作成することしかできません。 有向グラフでは、何らかの方法で「構造学習」を行った後、別の方法で「パラメータ学習」を行うという2段階のように見えます。私の考えでは、パラメーターの学習は、モデルに含まれる各変数(機能)間のエッジの重みについて教えてくれるということです。私の質問は...だから何ですか?エッジの重みが付いたグラフで何をしますか? 特徴による観測であるデータセットがあり、グラフのノードがこのデータセットからの特徴である場合(共分散行列の逆をエミュレートしようとするグラフィカルLASSOから収集)、これから何を学ぶことができますか?データのコホート(ターゲットクラス値で区切られた)を比較して、ノードにある種のp値分析を割り当てることはできますか?グラフィカルモデルの全体像について混乱していると思います。

2
推奨システムの行列因数分解モデルは、潜在的な特徴の数をどのように決定するのですか?
私は、単純なユーザーアイテム、評価推奨システムのための行列因数分解手法を設計しようとしています。これについて2つの質問があります。 最初に、映画の推奨のための行列因数分解手法について見た単純な実装で、作成者は潜在特徴の次元を初期化し、2つの潜在特徴のユーザーマトリックスとアイテムマトリックスのKと呼びましょう。定数Kを2としましょう。彼の潜在的な特徴行列PとQのNXKとMXKでした。Rは、NXM次元(NユーザーとMアイテム)で近似しようとしている元のユーザーアイテム評価マトリックスです。だから私の質問は、この場合に定数に設定するのではなく、どのようにして最適な「K」(潜在的な特徴の数)を決定するのですか? また、特定のユーザーの平均評価、ユーザーの性別、user_locationなど、私のデータセットに既にあるユーザーまたはアイテムの情報を、最終的な推奨を行いながら、行列分解のこの結果に組み込む方法もあります(私は推測)多分、他のコンテンツベースのフィルタリングモデルで表されるユーザーとアイテムの情報との混合モデルと、行列因数分解モデルが機能するでしょうか?) 1>最初の質問は、潜在的な特徴の最適な数をどのように決定するかですK 2>行列因数分解とコンテンツベースのフィルタリングの混合モデルを実装する最近の文献を知っている人はいます(人口統計情報を表す唯一の方法だと思うので)共通機能スペース内のユーザーとアイテムの数。)

1
SVMのコスト(C)パラメータはどういう意味ですか?
SVMをデータに適合させようとしています。私のデータセットには3つのクラスが含まれており、(LibSVMで)10分割交差検証を実行しています。 ./svm-train -g 0.5 -c 10 -e 0.1 -v 10 training_data それによりヘルプは次のように述べています -c cost : set the parameter C of C-SVC, epsilon-SVR, and nu-SVR (default 1) 私にとって、より高いコスト(C)値を提供すると、より高い精度が得られます。SVMのCは実際にはどういう意味ですか?Cのより高い/より低い値(またはLibSVMのデフォルト値)を使用する理由と時期を教えてください。

3
GLMは「パラメーターで線形」でなければなりません
「パラメータの線形」が何を意味するのかについて、いくつかの認知的不協和音が発生しています。たとえば、こことここ。 たとえば、私の理解は yi=β0+β1β2x1+exp(β3)(x2)2+ϵyi=β0+β1β2x1+exp⁡(β3)(x2)2+ϵy_i = \beta_0 + \beta_1\beta_2x_1 + \exp(\beta_3)(x_2)^2 + \epsilon 2つのパラメーター変数が一緒に乗算されているため(つまり、 β1,β2β1,β2{\beta_1, \beta_2})。 もし β1β1\beta_1 (言う)に置き換えられました γ1γ1\gamma_1、定数です。 誰かがこの点を明確にできるかどうか感謝します。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.