タグ付けされた質問 「dirichlet-distribution」

ディリクレ分布は、一変量ベータ分布の一般化である、多変量分布のファミリーを指します。

2
ディリクレ分布でシンプレックスを三角形サーフェスとして表すことの意味は?
Dirchiletの分布を紹介し、それについて図を示した本を読んでいます。しかし、私はそれらの数字を本当に理解することができませんでした。こちらの図を下に貼りました。私が理解していないのは、三角形の意味です。 通常、2つの変数の関数をプロットする場合は、var1とva2の値を取得してから、これら2つの変数の関数値の値をプロットします。これにより、3D次元で視覚化できます。しかし、ここには3つの次元と関数値の他の1つの値があるため、4D空間で視覚化されます。それらの数字が理解できません! 誰かがそれらを明確にしてくれることを願っています! 編集:これは、図2.14aから理解できないことです。したがって、K = 3ディリクレからサンプルtheta(基本的にはベクトル)、つまりtheta = [theta1、theta2、theta3]を描画しました。三角形は[theta1、theta2、theta3]をプロットします。原点から各theta_iまでの距離は、theta_iの値です。次に、theta_iごとに頂点を配置し、3つの頂点すべてを接続して三角形を作成します。[theta1、theta2、theta3]をdir(theta | a)に接続すると、ベクトルthetaの同時確率である1つの数値が得られることを知っています。また、連続確率変数の確率が面積の尺度であることも理解しています。しかし、ここには3次元があるので、結合確率はピンク色の平面とその下からの空間の体積の尺度になります...ピラミッド。ここで三角形の役割が何なのかわかりません。

1
新しい情報をディリクレ事前配布に組み込むにはどうすればよいですか?
私の問題はこれです。私は、それぞれが一連のクラスにわたって分布を生成する予測子のアンサンブルを持っています。 私がやりたいことは、最初にこのラベル分布がどのように見えるかについて非情報的な前もってあり、次にアンサンブルの各メンバーの予測でそれを更新することです。 そのため、以前は情報量の少ないディリクレを使用することを考え、それを予測として得られる各サンプル分布で更新しました。 私の質問は次のとおりです。このアプローチは有効ですか。そうである場合、以前のサンプルをどのように更新すれば、より多くのサンプルが蓄積されるので、より明確になりますか?

1
ディリクレ分布のPDFが1に統合されていないように見えるのはなぜですか?
Rのシンプレックス上でディリクレ密度関数との積を積分することにより、ディリクレ分布を持つ確率変数の関数の期待値を見つけようとしています。 Rに正しい関数を適用しているかどうかを確認するために、密度関数をシンプレックス全体に統合しようとしましたが、1になると期待していましたが、sqrt(n)にn個のカテゴリーが統合されたディリクレ分布の密度関数( RパッケージSimplicialCubature)。 これは間違っているはずだと思いましたが、次に2つのカテゴリの密度関数を見て、alphas =(1,1)の場合を考えてみます。次に、密度関数は一様に1になります(https://en.wikipedia.org/wiki/Dirichlet_distributionから密度関数を取ります)。したがって、1シンプレックス上の密度関数の積分は、1シンプレックスの長さを与えるだけです。しかし、Rコードで見つけたように、これはsqrt(2)です。 ここで何が欠けていますか?

1
ディリクレ分布から確率ベクトルをサンプリングするとはどういう意味ですか?
私は本質的に潜在ディリクレ配分について学んでいます。:私はここのビデオを見ているhttp://videolectures.net/mlss09uk_blei_tm/彼が分布からのサンプリングに説明し始めたとき分45時と立ち往生。 また、ディリケルト分布の詳細な紹介がない機械学習の本を調べてみました。私が読んでいる本では、ディリクレ分布から「確率ベクトル」をサンプリングする例を述べていましたが、それはどういう意味ですか? 分布からのサンプリングは、分布に従って確率変数のランダム値を取得することとして理解しています。したがって、p_X、Y(x、y)であるが、任意の分布のpmfであるとすると、この分布からのサンプリングは、ランダム(x、y)(つまり、xとyのランダム値)を取得することを意味します。イベントを取得する確率(X = x AND Y = y)を取得するために、分布のpmfを評価します...したがって、1つの数値のみを取得します。しかし、ここでは「確率ベクトル」とは何ですか! その本のスクリーンショットを添付しました。私はあなたが助けることができることを本当に望みます!


1
ディリクレ分布パラメーターのベイズ推定
ギブスサンプリングを使用してディリクレ混合モデルのパラメーターを推定したいのですが、いくつか質問があります。 ディリクレ分布の混合はディリクレ過程と同等ですか?そうでない場合の主な違いは何ですか? また、単一のディリクレ分布のパラメーターを推定する場合、ベイジアンフレームワークで事前分布として選択するパラメーターの分布はどれですか? すべての論文で、ディリクレ事前分布を使用した多項分布の推定を見つけました。多項式の事前分布を使用してディリクレ分布を推定する必要があるかもしれません。 事後関数もDIRICHLET(α+ N)の形式で、「ディリクレ事前分布を使用した多項分布の推定」の場合と同様ですか?iidサンプルの確率密度関数の乗算は、尤度関数の定義では考慮されないためです。理由がわかりません。 たとえば、この論文で述べたように:http : //www.stat.ufl.edu/~aa/cda/bayes.pdf または http://research.microsoft.com/en-us/um/people/minka/papers/ minka-multinomial.pdf あなたの注意をありがとう 私のデータはHyperion(一種のハイパースペクトルリモートセンシング画像)であり、ディリクレソースの混合を使用してハイパースペクトルアンミキシングを実行し、パラメーター推定にギブスサンプリング法を適用します。私のデータは次元(614 * 512 * 224)です。これは、Cuprite Nevada地区で一般的に利用可能なAVIRISセンサーデータであり、ほぼ200MBです。また、このデータは(http://aviris.jpl.nasa.gov/data/free_data.html)から入手できます。残念ながら、データを送信する方法を知りません。 私のPHD論文の統計モデリングタスクを手伝ってくれるようお願いします。私のモデリングの混乱を解決するのを手伝ってくれるなら、とても感謝しています。 すべての最高のソルマズ

1
相関コンポーネントを持つシンプレックスの分布
コンポーネントが通常の方法で相関しているシンプレックス上のある種の分布を探しています。場合は、されていることを単純に私たちの分布から引き出され、私は希望のpを私は積極的にその隣人と相関することがp個のI + 1とP I - 1、と言います。バニラディリクレは明らかにこの要件を満たすことができません。私が考える1つのオプションは、ディリクレ分布の混合です。たとえば、J = 4の場合、Dを取ることができますp = (p1、。。。、pJ)p=(p1,...,pJ)p = (p_1, ..., p_J)p私pip_ipi + 1pi+1p_{i + 1}pi − 1pi−1p_{i - 1}J= 4J=4J = 4または相関を誘導するために似たような、もう少し何かがある場合、私は思ったんだけどナチュラル。私が思う別のオプションは、上の任意の分布取ることです { 1 、2 、。。。、J }、 f (j | ηD(1、1、0、0)+ D(0、1、1、0)+ D(0、0、1、1)D(1,1,0,0)+D(0,1,1,0)+D(0,0,1,1)\mathcal D(1, 1, 0, 0) + \mathcal D(0, 1, 1, 0) + \mathcal D(0, 0, …

3
混合モデルとディリクレプロセス混合(初級講義または論文)
オンラインクラスタリングのコンテキストでは、「ディリクレプロセス」や「有限/無限混合モデル」など、多くの論文が頻繁に出てきます。 私がディリクレ過程や混合モデルについて一度も使用したり読んだりしていないことを考えると。そのことについて、わかりやすい導入講義や論文の提案を知っていますか?

1
非対称の事前知識を持つ多項分布のベイズ推定?
二項分布からいくつかのサンプルを取得するとします。私の以前の知識をモデル化する1つの方法は、パラメーターおよびベータ分布を使用することです。私が理解しているように、これは試験で「頭」を回見たのと同じです。そのため、本格的なベイジアン推論を行うための良い近道は、回の試行で頭を見た後の「頭」の確率の新しい平均としてを使用することです。β α α + β H + ααα\alphaββ\betaαα\alphaα + βα+β\alpha + \beta HのNh + αn + α + βh+αん+α+β\frac{h+\alpha}{n+\alpha+\beta}hhhんんn ここで、3つ以上の状態があると仮定します。そのため、多項分布からいくつかのサンプルを取得します。事前分布としてパラメーターを使用したディリクレ分布を使用するとします。ここでもショートカットとして、これをイベントの確率の事前知識としてと同等に扱うことができます回の試行でイベント回を目撃した場合、私の事後なります。。I α Iαα\alpha私私i IHNIH+αIα私Σのαjα私Σαj\frac{\alpha_i}{\sum \alpha_j}私私i hhhんんn私私ih + α私N + Σ αjh+α私ん+Σαj\frac{h + \alpha_i}{n + \sum \alpha_j} 今二項の場合には、それは「頭」の事前知識が発生していることをうまくいくで時間を裁判起こる「尾」に相当しますで時間をトライアル。論理的には、「尾」よりも「頭」の可能性についてより強い知識を持つことができるとは思いません。ただし、これは2つ以上の結果を伴ってより興味深いものになります。私が6面ダイスと言った場合、50トライアルではサイド1の事前知識は10に相当し、100トライアルではサイド2の事前知識は15 2に相当すると想像できます。α + β β α + βαα\alphaα + βα+β\alpha + \betaββ\betaα + βα+β\alpha + …
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.