4 ドロップアウトによりモデルの一部のニューロンが抑制されるため、ドロップアウトレイヤーを追加するとディープ/機械学習のパフォーマンスが向上するのはなぜですか? いくつかのニューロンを削除すると、モデルのパフォーマンスが向上する場合は、そもそも層数とニューロン数が少ない単純なニューラルネットワークを使用してみませんか?最初に大きくて複雑なモデルを作成し、後でその一部を抑制するのはなぜですか? 12 machine-learning deep-learning keras regularization dropout
2 L2よりもL1正則化を使用する理由 損失関数を使用して線形回帰モデルを実行するのに、なぜL 2ではなくを使用する必要があるのかL1L1L_1L2L2L_2正則? 過剰適合を防ぐ方が良いですか?それは確定的ですか?(常にユニークなソリューションです)?(スパースモデルを生成するため)特徴選択の方が優れていますか?機能間で重みを分散しますか? 10 linear-regression regularization
3 Tensorflowでバッチ内積を行う方法は? 2つのテンソルがありa:[batch_size, dim] b:[batch_size, dim]ます。バッチ内のすべてのペアに対して内積を行い、を生成c:[batch_size, 1]しc[i,0]=a[i,:].T*b[i,:]ます。どうやって? 10 tensorflow scikit-learn svm cross-validation feature-selection bayesian machine-learning decision-trees parameter-estimation neural-network convnet neural-network regularization visualization machine-learning similarity python pandas indexing r data-cleaning machine-learning predictive-modeling data-cleaning recommender-system python sequential-pattern-mining software-recommendation r visualization gaussian distribution machine-learning data-mining bigdata apache-hadoop predictive-modeling logistic-regression sampling machine-learning regression feature-selection mongodb neural-network inception machine-learning classification dataset databases logistic-regression deep-learning backpropagation classification data-mining multilabel-classification text-mining data-cleaning unsupervised-learning anomaly-detection python r python pandas
3 ニューラルネットワークでの正則化方法の選択 ニューラルネットワークをトレーニングする場合、ネットワークを正規化するには少なくとも4つの方法があります。 L1正則化 L2正則化 脱落 バッチ正規化 加えて、もちろん、ウェイトシェアリングや接続数の削減など、厳密な意味での正則化ではないかもしれません。 しかし、どの正規化方法を使用するかをどのように選択するのでしょうか。「すべてを試し、何が機能するかを確認する」よりも、より原則的な方法はありますか? 9 neural-network regularization
2 ドロップアウトと他の正規化を検討する研究はありますか? ニューラルネットワークの正則化手法の違いを、好ましくは異なるドメイン(または少なくとも異なるデータセット)で示す論文はありますか? 私は現在、ほとんどの人がコンピュータービジョンの正則化のためにドロップアウトのみを使用しているように思われるので、私は尋ねています。正則化のさまざまな方法を使用する理由(ない)があるかどうかを確認したいと思います。 9 neural-network computer-vision convnet regularization dropout