ベイジアンディープラーニングとは何ですか?


13

ベイジアンディープラーニングとは何ですか?また、従来のベイジアン統計および従来のディープラーニングとどのように関連していますか?

関係する主な概念と数学は何ですか?それは単なるノンパラメトリックベイジアン統計と言えますか?現在の主要な開発およびアプリケーションと同様に、その独創的な作品は何ですか?

PS:Bayesian Deep Learningは大きな注目を集めています。NIPSワークショップをご覧ください。

回答:


10

NIPSワークショップリンクを離れて、Yee Whye TehはNIPSでBayesian Deep Learningで基調講演を行いました(ビデオ:https ://www.youtube.com/watch?v=LVBvJsTr3rg、スライド:http://csml.stats。 ox.ac.uk/news/2017-12-08-ywteh-breiman-lecture/)。講演のある時点で、Tehはベイジアンのディープラーニングを、ベイジアンフレームワークをディープラーニングからのアイデアに適用すること(ニューラルネットワークの重みに対する事後学習など)、およびディープベイジアンラーニングをディープラーニングからのアイデアに適用することとして要約したと思いますベイジアンフレームワーク(深いガウス過程または深い指数関数族のような)。もちろん、バリエーションオートエンコーダーのように、2つの概念の境界線をまたぐアイデアがあります。ほとんどの人がベイジアンディープラーニングと言うとき、それらは通常2つのうちのいずれかを意味し、それはあなたがリンクしたワークショップ(昨年のワークショップとともに)で受け入れられた論文に反映されます。アイデアは、90年代のニューラルネットワークのベイジアン学習に関するNealの研究に戻ります(http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.446.9306&rep=rep1&type=pdf)、そしてそれ以来長年にわたって研究が行われてきました。オリジナルの変分オートエンコーダーペーパー(https://arxiv.org/pdf/1312.6114.pdf)。


10

最初に、従来のベイジアンニューラルネットワークの基礎となる確率モデルとは何かをよく理解することをお勧めします。以下では、いくつかの用語を太字で記載します。これらの用語をグーグルで検索して、より詳細な情報を見つけてください。これは基本的な概要です。役に立てば幸いです。

のがの場合を考える回帰におけるフィードフォワードニューラルネットワークを、いくつかの表記法を確立します。

ましょうにおける予測子の値を示す入力層。値単位内層はによって表記するのために、。最後に、出力レイヤーます。Z 1... Z N = 1 ... L 1 y 1y kバツ1バツp=:z10zN00z1zN=1L1 (y1,,yk)=:(z1(L),,zNL(L))

レイヤーユニットi重みバイアスは、場合、それぞれとで示されます。、および。iwij()bi()=1,,L=1Nj=1N1

ましょうである活性化機能ユニットの層におけるため、と私は= 1 ... Nのℓを Iのℓの= 1 ... LgRN1R=1L=1N

一般的に使用されるアクティベーション関数は、ロジスティックReLU(別名ポジティブパート)、およびtanhです。

今、のため、層の遷移関数を定義 G R Nの- 1R NのZ - 1 1... Z - 1 Nの- 1Z 1... Z =1LZ I=G I

GRN1RNz11zN11z1zN
のためのiは=1... Nの
z=gj=1N1wjzj1+b
=1N

全ての層における全てのユニットの重みとバイアスのセットを示す、ある θ = { W I 、JB I= 1 ... Lθ 我々のニューラルネットワークは、機能のファミリーである G θR PR K層の遷移関数の組成によって得られる: G θ = G L G L - 1 ○は○はG 1

θ={wjb=1L;=1N;j=1N1}
GθRpRk
Gθ=GLGL1G1

上記の説明に関係する確率はありません。元のニューラルネットワークビジネスの目的は、関数フィッティングです。

ディープラーニングの「深い」とは、検討中のニューラルネットワークに多くの内部層が存在することを意味します。

{バツyRp×Rk=1n}

=1nyGθバツ2
θバツGθ^バツθ^目的関数へのペナルティ、またはトレーニング中のドロップアウトの使用など。Geoffrey Hinton(別名Deep Learning Godfather)と共同研究者は、これらの多くを発明しました。ディープラーニングの成功事例はどこにでもあります。

Lバツyθσ2σnexp12σ2=1nyGθバツ2
πθσ2exp12σ02=1L=1Nb2+j=1N1wj2×πσ2

σ02

ベイジアンディープラーニングは、対応する事後分布からのサンプリングという難しいタスクに直面しています。これが達成された事後予測分布で予測が自然に行われ、これらの予測に含まれる不確実性が完全に定量化されます。Bayesian Deep Learningの聖杯は、効率的でスケーラブルなソリューションの構築です。このクエストでは、Metropolis-Hastings and Gibbsサンプリングハミルトニアンモンテカルロ、さらに最近では変分推論など、多くの計算手法が使用されています。

いくつかのサクセスストーリーのためNIPS会議のビデオをチェックアウト:http://bayesiandeeplearning.org/

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.