タグ付けされた質問 「bayesian-network」

ベイジアンネットワークは、確率的有向非循環グラフです。ノードはベイズの意味でランダム変数を表します(観測可能または観測不可能)。エッジはノード間の条件依存関係を表します。

3
統計的独立は因果関係の欠如を意味しますか?
2つの確率変数AとBは統計的に独立しています。これは、プロセスのDAGで:およびもちろん意味します。しかし、それはまた、BからAへの玄関口がないことを意味しますか?(A⊥⊥B)(A⊥⊥B)(A {\perp\!\!\!\perp} B)P(A|B)=P(A)P(A|B)=P(A)P(A|B)=P(A) そのため、を取得する必要があるためです。その場合、統計的独立性は自動的に因果関係の欠如を意味しますか?P(A|do(B))=P(A)P(A|do(B))=P(A)P(A|do(B))=P(A)


3
なぜ、より正確な分類器よりも精度の低い分類器の方がAUCが高いのですか?
私は2つの分類器を持っています A:ナイーブベイジアンネットワーク B:ツリー(単一接続)ベイジアンネットワーク 精度およびその他の尺度の点では、AはBよりも比較的パフォーマンスが劣ります。ただし、RパッケージROCRおよびAUCを使用してROC分析を実行すると、AのAUCがBのAUCよりも高いことがわかります。これはなぜですかハプニング? 真陽性(tp)、偽陽性(fp)、偽陰性(fn)、真陰性(tn)、感度(sen)、特異性(spec)、陽性予測値(ppv)、陰性予測値(npv)、およびAおよびBの精度(acc)は次のとおりです。 +------+---------+---------+ | | A | B | +------+---------+---------+ | tp | 3601 | 769 | | fp | 0 | 0 | | fn | 6569 | 5918 | | tn | 15655 | 19138 | | sens | 0.35408 | 0.11500 | | spec …

5
ベイジアンネットワークとマルコフ過程の違いは?
ベイジアンネットワークとマルコフプロセスの違いは何ですか? 私は両方の原則を理解していると信じていましたが、今、2つを比較する必要があるとき、私は失われたと感じます。それらは私にとってほぼ同じ意味です。確かにそうではありません。 他のリソースへのリンクも歓迎します。

1
lmerモデルからの効果の再現性の計算
混合効果モデリングによる測定の再現性(別名信頼性、別名クラス内相関)の計算方法を説明するこの論文に出会ったばかりです。Rコードは次のようになります。 #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = attr(vc$id,'stddev')[1]^2 #compute the unadjusted repeatability R = intercept_var/(intercept_var+residual_var) #compute n0, the repeatability adjustment n = as.data.frame(table(my_data$unit)) k = nrow(n) N = sum(n$Freq) n0 = (N-(sum(n$Freq^2)/N))/(k-1) #compute the adjusted repeatability Rn = …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 

1
ベイジアンネットワークからニューラルネットワークへ:多変量回帰を多出力ネットワークに変換する方法
私はベイジアン階層線形モデルを扱っています。ここではそれを説明するネットワークです。 は、スーパーマーケットでの製品の毎日の販売を表します(観測)。YYY は、価格、プロモーション、曜日、天気、休日を含む、回帰変数の既知のマトリックスです。XXX 私は、各製品のバイナリ変数のベクトル一検討最も問題とさせる、各製品、未知の潜在在庫レベルである 1つのを示す欠品や製品の利用できないようにします。 理論的には不明であったとしても、各製品のHMMを使用して推定したため、Xとして知られていると見なされます。適切な形式のためにシェーディングを解除することにしました。SSS111 は、単一の製品の混合効果パラメーターであり、考慮される混合効果は製品価格、プロモーション、在庫切れです。ηη\eta は固定回帰係数のベクトルで、 b 1と b 2は混合効果係数のベクトルです。1つのグループはブランドを示し、もう1つのグループはフレーバーを示します(これは例であり、実際には多くのグループがありますが、ここではわかりやすくするために2つだけ報告しています)。ββ\betab1b1b_1b2b2b_2 、 Σ B 1及び ΣのB 2は、混合効果を超えるハイパーです。ΣηΣη\Sigma_{\eta}Σb1Σb1\Sigma_{b_1}Σb2Σb2\Sigma_{b_2} カウントデータがあるので、各製品の売り上げをリグレッサーに条件付きポアソン分布として扱うとしましょう(一部の製品では線形近似が成り立ち、他の製品ではゼロ膨張モデルが優れている場合でも)。そのような場合、私は製品を持っています(これはベイジアンモデル自体に興味がある人のためのものです、それが面白くないまたは些細ではない場合は質問にスキップしてください:)):YYY Ση∼IW(α0,γ0)Ση∼IW(α0,γ0)\Sigma_{\eta} \sim IW(\alpha_0,\gamma_0) Σb1∼IW(α1,γ1)Σb1∼IW(α1,γ1)\Sigma_{b_1} \sim IW(\alpha_1,\gamma_1) 、 α 0、γ 0、α 1、γ 1、α 2、γ 2知ら。Σb2∼IW(α2,γ2)Σb2∼IW(α2,γ2)\Sigma_{b_2} \sim IW(\alpha_2,\gamma_2)α0,γ0,α1,γ1,α2,γ2α0,γ0,α1,γ1,α2,γ2\alpha_0,\gamma_0,\alpha_1,\gamma_1,\alpha_2,\gamma_2 η∼N(0,Ση)η∼N(0,Ση)\eta \sim N(\mathbf{0},\Sigma_{\eta}) b1∼N(0,Σb1)b1∼N(0,Σb1)b_1 \sim N(\mathbf{0},\Sigma_{b_1}) b2∼N(0,Σb2)b2∼N(0,Σb2)b_2 \sim N(\mathbf{0},\Sigma_{b_2}) 、 Σはβ知られています。β∼N(0,Σβ)β∼N(0,Σβ)\beta \sim N(\mathbf{0},\Sigma_{\beta})ΣβΣβ\Sigma_{\beta} 、λtijk=β∗Xti+ηi∗Xppsti+b1j∗Ztj+b2kZtkλtijk=β∗Xti+ηi∗Xppsti+b1j∗Ztj+b2kZtk\lambda _{tijk} …

2
構造方程式モデル(SEM)対ベイジアンネットワーク(BN)
ここでの用語は混乱です。「構造方程式」は「建築の橋」と同じくらいあいまいで、「ベイジアンネットワーク」は本質的にベイジアンではありません。さらに良いことに、因果関係の神、Judea Pearlは、2つのモデルのモデルはほとんど同一であると述べています。 それで、重要な違いは何ですか? (私にとって驚くべきことに、SEMのWikipediaページには、この記事の執筆時点では「ネットワーク」という言葉すら含まれていません。)

3
因果的ベイジアンネットワークにおけるd分離理論の理解
因果ベイジアンネットワークのd分離ロジックを理解しようとしています。アルゴリズムがどのように機能するかは知っていますが、アルゴリズムで述べられているように「情報の流れ」が機能する理由を正確には理解していません。 たとえば、上記のグラフでは、Xのみが与えられ、他の変数は観測されていないと考えてみましょう。次に、d分離の規則に従って、XからDへの情報の流れ: Xは、であるAに影響します。AはXを引き起こし、効果Xを知っている場合、これは原因Aの信念に影響を与えるため、これは問題ありません。情報フロー。P(A)≠P(A|X)P(A)≠P(A|X)P(A)\neq P(A|X) XはBに影響を与えます。これはです。これは問題ありません。AはXに関する知識によって変更されているため、Aでの変更は、その原因であるBについての私たちの信念にも影響を与える可能性があります。P(B)≠P(B|X)P(B)≠P(B|X)P(B)\neq P(B|X) XはCに影響を与えます。これはです。これは問題ありません。なぜなら、Bはその間接効果Xに関する知識によってバイアスされていることを知っているからです。CはBの直接的な効果であり、Xに関する知識の影響を受けます。P(C)≠P(C|X)P(C)≠P(C|X)P(C)\neq P(C|X) さて、この時点まで、情報の流れは直感的な因果関係に従って発生するため、すべてが問題ありません。しかし、このスキームでは、いわゆる「V構造」や「コライダー」の特別な動作は得られません。d-Separation理論によれば、BとDは上のグラフのCの一般的な原因であり、Cまたはその子孫を観察しなかった場合、Xからのフロー情報はCでブロックされます。 、しかし私の質問はなぜですか? Xから開始した上記の3つのステップから、CはXに関する知識の影響を受け、情報フローは原因と結果の関係に従って発生することがわかりました。d-分離理論では、Cは観測されないため、CからDに進むことはできないとされています。しかし、私はCが偏っていてDがCの原因であることを知っているので、理論は反対のことを言いながらDも影響を受けるべきだと思います。私の思考パターンには明らかに何かが欠けていますが、それが何であるかを見ることができません。 したがって、Cが観察されない場合、Cで情報の流れがブロックされる理由の説明が必要です。

4
有向非巡回グラフのエッジは因果関係を表していますか?
私は、自習用の本である確率的グラフィカルモデルを研究しています。有向非巡回グラフ(DAG)のエッジは因果関係を表しますか? ベイジアンネットワークを構築したいのですが、その中の矢印の方向がわかりませんか?すべてのデータは、それらの相互リンクではなく、観測された相関関係を教えてくれます。次の章がこれらの問題に対処することを確信しているので、私は私があまりにも多くを求めていることを知っていますが、それについて考えることをやめられないというだけです。

2
ベイジアンニューラルネットワークを使用する利点は何ですか
最近、私は、ベイジアンニューラルネットワーク(BNN)[Neal、1992]、[Neal、2012]についてのいくつかの論文を読みました。このようなニューラルネットワークのトレーニングは、従来の逆伝播アルゴリズムとは異なるMCMCを介して行われます。 私の質問は次のとおりです。そのようなニューラルネットワークを使用する利点は何ですか?具体的には、NNよりもBNNに適した例をいくつか挙げていただけますか?

2
他の機械学習アプローチよりもベイジアンネットワークを使用する場合
この質問に対する決定的な答えはないだろうと思います。しかし、私は過去に多くの機械学習アルゴリズムを使用し、ベイジアンネットワークについて学習しようとしています。どのような状況下で、または他のアプローチよりもベイジアンネットワークを使用するためにどのような種類の問題を選択しますか?

1
pymcを使用したベイジアンネットワーク推論(初心者の混乱)
現在、コースラでダフネ・コラーのPGMコースを受講しています。その点で、一般にベイジアンネットワークを、観測データの一部である変数の原因と結果の有向グラフとしてモデル化します。しかし、PyMCのチュートリアルと例では、PGMまたは少なくとも私が混乱しているのと同じようにモデル化されていないことが一般的にわかります。PyMCでは、観測された実世界変数の親は、多くの場合、変数のモデル化に使用する分布のパラメーターです。 今、私の質問は本当に実用的なものです。データが観測される3つの変数(A、B、C)があると仮定します(これらはすべて、それのためにすべて連続変数であると仮定します)。ある分野の知識から、AとBがCを引き起こすと言うことができます。したがって、ここにはBNがあります-A、Bは親であり、Cは子です。BN方程式からP(A、B、C)= P(C | A、B)* P(A)* P(B) AとBはmuとsigmaを含む正規分布であると言えますが、P(C | A、B)をモデル化するにはどうすればよいですか?私が学びたい一般的な考え方は、BNを照会できるように、PyMCを使用してこのBNをどのように学習するかです。または、何らかの方法でモデルのパラメーターを使用してBNを増強する必要がありますか? この問題はpymcを使用して解決できますか?または、いくつかの基本的な間違いがありましたか? 助けていただければ幸いです!

1
フィッシャーの厳密検定と超幾何分布
私はフィッシャーの正確なテストをよりよく理解したかったので、次のおもちゃの例を考案しました。ここで、fとmは男性と女性に対応し、nとyは次のように「ソーダ消費」に対応します。 > soda_gender f m n 0 5 y 5 0 明らかに、これは大幅な簡略化ですが、コンテキストが邪魔になりたくありませんでした。ここで私は男性がソーダを飲まず、女性がソーダを飲まないと仮定し、統計手順が同じ結論になるかどうかを確認したかっただけです。 Rでフィッシャーの正確検定を実行すると、次の結果が得られます。 > fisher.test(soda_gender) Fisher's Exact Test for Count Data data: soda_gender p-value = 0.007937 alternative hypothesis: true odds ratio is not equal to 1 95 percent confidence interval: 0.0000000 0.4353226 sample estimates: odds ratio 0 ここでは、p値が0.007937であるため、性別とソーダ消費が関連付けられていると結論付けます。 フィッシャーの正確な検定が超幾何分布に関連していることを知っています。だから私はそれを使って同様の結果を得たいと思った。つまり、この問題は次のように表示できます。10個のボールがあり、5個が「男性」、5個が「女性」とラベル付けされており、交換せずに5つのボールをランダムに描画すると、0個の男性ボールが表示されます。 。この観察の可能性は何ですか?この質問に答えるために、次のコマンドを使用しました。 …

1
ベイジアンネットワークにおけるマルコフブランケットと通常の依存関係
ベイジアンネットワークについて読んでいると、「マルコフブランケット」という用語に出くわし、ベイジアンネットワークグラフでの独立性にひどく混乱しました。 マルコフブランケットは、すべてのノードがその親、子、および子の親にのみ依存していると簡単に述べています[図ではノードAの灰色の領域です]。 このBN、P(M,S,G,I,B,R)P(M,S,G,I,B,R)P(M,S,G,I,B,R)同時確率はどれくらいですか? (ソース:aiqus.com) ステップの親のみの独立性ルールに従う場合、それは次のとおりです。 P(M|S)P(S|G,I)P(I|B)P(R|B)P(G)P(B)P(M|S)P(S|G,I)P(I|B)P(R|B)P(G)P(B) P(M | S)P(S | G,I)P(I | B)P(R | B)P(G)P(B) P(I|G,B)P(I|G,B)P(I|\mathbf{G},B) P(M|S)P(S|G,I)P(I|G,B)P(R|B)P(G)P(B)P(M|S)P(S|G,I)P(I|G,B)P(R|B)P(G)P(B)P(M | S)P(S | G,I)P(I | \mathbf{G},B)P(R | B)P(G)P(B) それでは、このBNの正しい同時確率はどれですか。 更新:AIQUSでのこの質問の相互リンク そして それぞれの章と図は次のとおりです。 代替テキストhttp://img828.imageshack.us/img828/9783/img0103s.png 代替テキストhttp://img406.imageshack.us/img406/3788/img0104l.png


弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.