1
Maxoutの正確な定義
ニューラルネットワークの "Maxout"アクティベーション機能が何を意味するのかを正確に理解しようとしています。あり、この質問、本論文では、とさえによって深い学習帳にBengioら。、ただし、ほんの少しの情報と、その隣に大きなTODOがある場合を除きます。 わかりやすくするために、ここで説明する表記を使用します。私はそれを再入力して質問を膨らませたくないだけです。簡単に言うと、aij=σ(zij)=σ(∑kai−1kwijk+bij)aji=σ(zji)=σ(∑kaki−1wjki+bji)a^i_j=\sigma(z^i_j)=\sigma(\sum\limits_k a^{i-1}_kw^i_{jk}+b^i_j)、言い換えると、ニューロンには単一のバイアス、各入力に対して単一の重み、次に、入力と重みの合計を合計し、バイアスを追加し、アクティブ化関数を適用して、出力(アクティブ化)値を取得します。 これまでのところ、Maxoutは「入力の最大値を出力する」アクティベーション関数であることを知っています。どういう意味ですか?これから私が解釈できるいくつかのアイデアがあります: aij=maxk(ai−1k)aji=maxk(aki−1)a^i_j=\max\limits_k (a^{i-1}_k) aij=maxk(ai−1kwijk)+bijaji=maxk(aki−1wjki)+bjia^i_j=\max\limits_k (a^{i-1}_kw^i_{jk})+b^i_jは、通常行われる合計を最大値で置き換えるだけです。 aij=maxk(ai−1kwijk+bijk)aji=maxk(aki−1wjki+bjki)a^i_j=\max\limits_k (a^{i-1}_kw^i_{jk}+b^i_{jk})、ここで各ニューロンは、適用された単一のバイアス値ではなく、各入力に対して1つのバイアス値を持ちますすべての入力を合計した後。これにより、バックプロパゲーションが異なりますが、それでも可能です。 各は通常どおりに計算され、各ニューロンには各入力に対して単一のバイアスと重みがあります。ただし、softmax(a ^ i_j = \ frac {\ exp(z ^ i_j)} {\ sum \ limits_k \ exp(z ^ i_k)})と同様に、現在のレイヤーのすべてのzの最大値を取ります。正式には、a ^ i_j = \ max \ limits_k z ^ i_kです。zijzjiz^i_jaij=exp(zij)∑kexp(zik)aji=exp(zji)∑kexp(zki)a^i_j = \frac{\exp(z^i_j)}{\sum\limits_k \exp(z^i_k)}zzzaij=maxkzikaji=maxkzkia^i_j=\max\limits_k z^i_k これらのいずれかが正しいですか?それとも何か違うのですか?