タグ付けされた質問 「graphical-model」

確率的グラフィカルモデルとも呼ばれ、因果関係があるかどうかにかかわらず、グラフで表される統計モデルに使用されます。(Nb、グラフ理論のように「グラフ」、図またはプロットのように*ない*)。

3
例:バイナリ結果にglmnetを使用したLASSO回帰
私は興味のある結果が二分されglmnetているLASSO回帰の使用に手を出し始めています。以下に小さな模擬データフレームを作成しました。 age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, 0.67, 0.91, 0.29, 0.88) m_edu <- c(0, 1, 1, 2, 2, 3, 2, 0, 1) p_edu <- c(0, 2, 2, …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 


2
線形モデルの仮定を検証するための残差対適合値プロットの解釈
Rを使用したFarawayの線形モデル(2005年、59ページ)の次の図を検討してください。 最初のプロットは、残差と適合値が無相関であることを示しているようです。これらは、正規分布誤差のあるホモセダスティック線形モデルにあるはずです。したがって、2番目と3番目のプロットは、残差と近似値の間の依存関係を示しているように見えますが、異なるモデルを示唆しています。 しかし、Farawayが指摘しているように、なぜ2番目のプロットは異分散線形モデルを示唆し、3番目のプロットは非線形モデルを示唆しているのでしょうか? 2番目のプロットは、残差の絶対値が近似値と強く正の相関があることを示しているようですが、3番目のプロットではそのような傾向は明らかではありません。そのため、理論的に言えば、正規分布誤差を持つ不均一線形モデルである場合 Cor(e,y^)=⎡⎣⎢⎢1⋮1⋯⋱⋯1⋮1⎤⎦⎥⎥Cor(e,y^)=[1⋯1⋮⋱⋮1⋯1] \mbox{Cor}\left(\mathbf{e},\hat{\mathbf{y}}\right) = \left[\begin{array}{ccc}1 & \cdots & 1 \\ \vdots & \ddots & \vdots \\ 1 & \cdots & 1\end{array}\right] (左の式は残差と近似値の間の分散共分散行列です)、これは2番目と3番目のプロットがFarawayの解釈と一致する理由を説明します。 しかし、これは事実ですか?そうでない場合、2番目と3番目のプロットに対するFarawayの解釈は他にどのように正当化できますか?また、なぜ3番目のプロットが必ずしも非線形性を示しているのですか?線形である可能性はありますが、エラーが正規分布していないか、または正規分布しているがゼロを中心にしない可能性がありますか?


4
グラフィカルモデルのグラフ理論はどこにありますか?
グラフィカルモデルの紹介では、それらを「...グラフ理論と確率理論の融合」と説明しています。 確率理論の部分はわかりますが、グラフ理論が正確に当てはまる場所を理解するのは困難です。グラフ理論からの洞察は、不確実性の下での確率分布と意思決定の理解を深めるのに役立ちましたか? PGMを「ツリー」、「二部」、「無向」などに分類するなど、PGMでのグラフ理論用語の明白な使用を超えて、具体的な例を探しています。


1
マルコフ確率場指数族はいつですか?
教科書のグラフィカルモデル、指数関数的ファミリーおよび変分推論では、M。ジョーダンとM.ウェインライトが指数関数的ファミリーとマルコフランダムフィールド(無向グラフィカルモデル)の関係について説明しています。 次の質問で、それらの関係をよりよく理解しようとしています。 すべてのMRFは指数ファミリーのメンバーですか? 指数ファミリーのすべてのメンバーをMRFとして表すことはできますか? MRFが指数ファミリーである場合、一方のタイプの分布が他方に含まれない良い例は何ですか?≠≠\neq 教科書(第3章)で理解していることから、ジョーダンとウェインライトは次の議論を提示します。 ある分布に従うaaスカラー確率変数Xがあり、 iid観測を描画し、を特定したいとします。n X 1、… X n ppppnnnバツ1、… Xnバツ1、…バツnX^1, \ldots X^nppp 特定の関数の経験的期待値を計算しますϕαϕα\phi_\alpha% μ^α= 1n∑ni = 1ϕα(X私)、μ^α=1n∑私=1nϕα(バツ私)、\hat{\mu}_\alpha= \frac{1}{n}\sum^n_{i=1}\phi_\alpha(X^i), すべてのα ∈ Iα∈私\alpha \in \mathcal{I} ここで、いくつかのセットの各、関数インデックスを付けますI φ α:X → Rαα\alpha私私\mathcal{I}ϕα: X→ Rϕα:バツ→R\phi_\alpha: \mathcal{X} \rightarrow R 次に、次の2セットの量を強制的に整合させる、つまり一致させる(を識別する)場合:ppp 期待される分布十分な統計φ PEp[ (ϕα(X)] = ∫バツϕα(x )p (x ) ν( dx )Ep[(ϕα(バツ)]=∫バツϕα(バツ)p(バツ)ν(dバツ)E_p[(\phi_\alpha(X)]=\int_\mathcal{X}\phi_\alpha(x)p(x)\nu(dx)ϕϕ\phippp 経験的分布の下での期待 …


3
因果的ベイジアンネットワークにおけるd分離理論の理解
因果ベイジアンネットワークのd分離ロジックを理解しようとしています。アルゴリズムがどのように機能するかは知っていますが、アルゴリズムで述べられているように「情報の流れ」が機能する理由を正確には理解していません。 たとえば、上記のグラフでは、Xのみが与えられ、他の変数は観測されていないと考えてみましょう。次に、d分離の規則に従って、XからDへの情報の流れ: Xは、であるAに影響します。AはXを引き起こし、効果Xを知っている場合、これは原因Aの信念に影響を与えるため、これは問題ありません。情報フロー。P(A)≠P(A|X)P(A)≠P(A|X)P(A)\neq P(A|X) XはBに影響を与えます。これはです。これは問題ありません。AはXに関する知識によって変更されているため、Aでの変更は、その原因であるBについての私たちの信念にも影響を与える可能性があります。P(B)≠P(B|X)P(B)≠P(B|X)P(B)\neq P(B|X) XはCに影響を与えます。これはです。これは問題ありません。なぜなら、Bはその間接効果Xに関する知識によってバイアスされていることを知っているからです。CはBの直接的な効果であり、Xに関する知識の影響を受けます。P(C)≠P(C|X)P(C)≠P(C|X)P(C)\neq P(C|X) さて、この時点まで、情報の流れは直感的な因果関係に従って発生するため、すべてが問題ありません。しかし、このスキームでは、いわゆる「V構造」や「コライダー」の特別な動作は得られません。d-Separation理論によれば、BとDは上のグラフのCの一般的な原因であり、Cまたはその子孫を観察しなかった場合、Xからのフロー情報はCでブロックされます。 、しかし私の質問はなぜですか? Xから開始した上記の3つのステップから、CはXに関する知識の影響を受け、情報フローは原因と結果の関係に従って発生することがわかりました。d-分離理論では、Cは観測されないため、CからDに進むことはできないとされています。しかし、私はCが偏っていてDがCの原因であることを知っているので、理論は反対のことを言いながらDも影響を受けるべきだと思います。私の思考パターンには明らかに何かが欠けていますが、それが何であるかを見ることができません。 したがって、Cが観察されない場合、Cで情報の流れがブロックされる理由の説明が必要です。

2
スタンで定義された事前分布のないパラメーター
スタンとを使うことを学び始めたところrstanです。JAGS / BUGSがどのように機能するかについていつも混乱していない限り、描画するモデルのすべてのパラメーターに対して何らかの事前分布を常に定義する必要があると考えました。ただし、Stanのドキュメントに基づいてこれを行う必要はないようです。ここに彼らが提供するサンプルモデルがあります。 data { int<lower=0> J; // number of schools real y[J]; // estimated treatment effects real<lower=0> sigma[J]; // s.e. of effect estimates } parameters { real theta[J]; real mu; real<lower=0> tau; } model { theta ~ normal(mu, tau); y ~ normal(theta, sigma); } 事前定義muもされtauていません。JAGSモデルの一部をStanに変換する際に、事前定義されていない多くのパラメーターまたはほとんどのパラメーターを残しておけば、機能することがわかりました。 問題は、事前定義が定義されていないパラメーターがある場合、スタンが何をしているのか理解できないことです。デフォルトは均一分布のようなものですか?これはHMCの特別なプロパティの1つですか?すべてのパラメーターに事前定義済みの定義を必要としませんか?

4
ベイズ確率理論や例によるグラフィカルモデルに関するチュートリアルはありますか?
Rでベイジアン確率理論を学習することへの参照を見てきましたが、おそらくPythonで特にこのようなものがあるのではないかと思っていましたか?ベイズ確率理論、推論、最尤推定、グラフィカルモデル、およびソートの学習を対象としていますか?

4
有向非巡回グラフのエッジは因果関係を表していますか?
私は、自習用の本である確率的グラフィカルモデルを研究しています。有向非巡回グラフ(DAG)のエッジは因果関係を表しますか? ベイジアンネットワークを構築したいのですが、その中の矢印の方向がわかりませんか?すべてのデータは、それらの相互リンクではなく、観測された相関関係を教えてくれます。次の章がこれらの問題に対処することを確信しているので、私は私があまりにも多くを求めていることを知っていますが、それについて考えることをやめられないというだけです。

3
ニューラルネットワークをグラフィカルモデルとして数学的にモデル化する
ニューラルネットワークとグラフィカルモデルを数学的に結びつけるのに苦労しています。 グラフィカルモデルでは、アイデアは単純です。確率分布はグラフのクリークに従って因数分解され、ポテンシャルは通常指数関数的ファミリーです。 ニューラルネットワークに同等の推論はありますか?制限付きボルツマンマシンまたはCNNのユニット(変数)の確率分布を、それらのエネルギー、またはユニット間のエネルギーの積の関数として表現できますか? また、確率分布は、指数ファミリーのRBMまたはディープビリーフネットワーク(CNNなど)によってモデル化されていますか? ジョーダン&ウェインライトがグラフィカルモデル、指数ファミリ、変分推論を使用してグラフィカルモデルに対して行ったのと同じ方法で、これらの最新タイプのニューラルネットワークと統計の間の接続を形式化するテキストを見つけたいと思っています。どんなポインタでも素晴らしいでしょう。

1
動的ベイジアンシステムの定義、およびHMMとの関係
ウィキペディアから 動的ベイジアンネットワーク(DBN)は、隣接するタイムステップで変数を相互に関連付けるベイジアンネットワークです。これは、Tの任意の時点で、変数の値は内部リグレッサと直前の値(時間T-1)から計算できると記載されているため、しばしば2タイムスライスBNと呼ばれます。DBNはロボット工学では一般的であり、幅広いデータマイニングアプリケーションの可能性を示しています。たとえば、音声認識、タンパク質配列決定、バイオインフォマティクスで使用されています。DBNは、隠れマルコフモデルおよびカルマンフィルターと同等のソリューションを生成することを示しています。 「直前の値(時間T-1)」がDBNの時間インデックスが常に離散的であることを意味するのかと思っていましたか? 「任意の時点Tで、変数の値は内部リグレッサから計算でき、直前の値(時間T-1)」は、DBNが離散時間マルコフプロセスであることを意味しますか? 私が正しく理解している場合、状態からの出力を同時に無視すると、HMMも離散時間マルコフプロセスになります。では、HMMとDBNは同じ概念なのでしょうか。しかし、ウィキペディアの別の記事に よると 隠れマルコフモデル(HMM)は、統計的マルコフモデルであり、モデル化されるシステムは、観測されていない(隠れた)状態のマルコフプロセスであると見なされます。HMMは、最も単純な動的ベイジアンネットワークと見なすことができます。 そして最初の記事からの別の引用があります: DBNは、隠れマルコフモデルおよびカルマンフィルターと同等のソリューションを生成することを示しています。 ありがとう!

2
グラフィカルモデルとボルツマンマシンは数学的に関連していますか?
物理学のクラスでボルツマンマシンを使って実際にプログラミングを行ったことがありますが、それらの理論的な特性についてはよく知りません。対照的に、私はグラフィカルモデルの理論については適度な量を知っています(ローリッツェンの本Graphical Modelsの最初の数章について)。 質問:グラフィカルモデルとボルツマンマシンの間に意味のある関係はありますか?ボルツマンマシンは一種のグラフィカルモデルですか? 明らかに、ボルツマンマシンは一種のニューラルネットワークです。ニューラルネットワークの中には、数学的にグラフィカルモデルに関連しているものとそうでないものがあると聞きました。 私の質問に答えないCrossValidatedの関連質問: これは、以前に尋ねられた前の質問に似ています:階層モデル、ニューラルネットワーク、グラフィカルモデル、ベイジアンネットワーク間の関係は何ですか?より具体的です。 さらに、その質問に対する受け入れられた回答は私の混乱を明確にしません-ニューラルネットワークの標準的なグラフィック表現のノードが確率変数を表さなくても、そのような表現が存在しないことを必ずしも意味しません。具体的には、マルコフ連鎖の典型的なグラフィカル表現のノードが確率変数ではなく可能な状態のセットをどのように表すかについて考えていますが、X i間の条件依存関係を示すグラフを作成することもできますバツ私XiX_iバツ私バツ私X_iこれは、すべてのマルコフ連鎖が実際にはマルコフ確率場であることを示しています。答えはまた、ニューラルネットワーク(おそらくボルツマンマシンを含む)は「弁別的」であると述べていますが、その主張が何を意味するかを詳しく説明することはしません。また、明らかなフォローアップの質問は「差別的ではないグラフィカルモデルですか?」対処した。同様に、受け入れられた回答リンクはケビンマーフィーのウェブサイト(実際にはベイジアンネットワークについて学ぶときに彼の博士論文の一部を読んでいます)にリンクしていますが、このウェブサイトはベイジアンネットワークのみを取り上げており、ニューラルネットワークについてはまったく触れていません。異なっています。 この他の質問はおそらく私のものに最も似ています:ニューラルネットワークをグラフィカルモデルとして数学的にモデル化します。ただし、どの回答も受け入れられず、同様に参照のみが示され、説明は説明されません(この回答など)。いつかリファレンスを理解できるようになると思いますが、今は基本的な知識レベルにいるので、できるだけ単純化した回答をいただければ幸いです。また、上位の回答(http://www.cs.toronto.edu/~tijmen/csc321/lecture_notes.shtml)にリンクされているトロントのコースでは、これについて説明していますが、詳細については詳しく説明していません。さらに、私の質問に答える可能性がある1つの講義のノートは公開されていません。 3月25日講演13b:Belief Nets 7:43。このスライドでは、ボルツマンマシンを念頭に置いてください。そこにも、隠れたユニットと目に見えるユニットがあり、すべて確率的です。BMとSBNには、違いよりも共通点があります。9:16。最近では、「グラフィカルモデル」はニューラルネットワークの特別なカテゴリと見なされることがありますが、ここで説明する歴史では、非常に異なるタイプのシステムと見なされていました。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.