タグ付けされた質問 「deep-learning」

主にディープニューラルネットワーク(つまり、2つ以上の非表示レイヤーを持つネットワーク)で行われる、データの階層表現を学習するために使用される技術に関する機械学習研究の新しい領域だけでなく、何らかの確率的グラフィカルモデルでも行われます。

3
ImageNetに個人クラスはありますか?人間に関連するクラスはありますか?
インターネット上の Imagenetクラスの多くのソースの1つを見ると、人間に関連する単一のクラスを見つけることができません(そして、ハーベストマンは収穫する人ではありませんが、パパロングレッグのようなものでした)クモ :-)。そんなことがあるものか?私は、少なくとも期待したpersonクラスを、そしてなど、より具体的であっても、何かman、woman、toddler、などの並べ替えの何もありません。どうして?Lii -Fei-Liと彼女のチームは、人の画像をデータベースに入れないという意識的な選択をしましたか?間違ったファイルを見ていますか?質問のために、ImageNet2014年以降のバージョンを検討できます。


3
ケラスのシーケンスDNNでアクティベーション関数としてLeakyReluを使用するにはどうすればよいですか?
ケラスのシーケンスDNNでアクティベーション関数としてLeakyReluをどのように使用しますか?次のようなものを書きたい場合: model = Sequential() model.add(Dense(90, activation='LeakyRelu')) 解決策は何ですか?LeakyReluをReluと同じように配置しますか? 2番目の質問は、LeakyReluのパラメーターを調整するための最も一般的な設定は何ですか?Reluよりパフォーマンスが大幅に向上するのはいつですか?

5
システムからGoogle Colabに画像フォルダーをアップロードする
約3000枚の画像を含むデータセットでディープラーニングモデルをトレーニングしたいと考えています。データセットは巨大なので、GPUがサポートされているため、Google colabを使用したいと思います。このフル画像フォルダをノートブックにアップロードして使用するにはどうすればよいですか?


2
ディープニューラルネットワークトレーニングの視覚化
トレーニング中に重みをプロットするために、多層ネットワーク用のヒントン図に相当するものを見つけようとしています。 訓練されたネットワークは、Deep SRNに多少似ています。つまり、複数のヒントンダイアグラムの同時プロットを視覚的に混乱させる多数のウェイトマトリックスがあります。 誰もが複数のレイヤーを持つリカレントネットワークの重み更新プロセスを視覚化する良い方法を知っていますか? このトピックに関する論文はあまり見当たりません。何かが思いつかない場合は、代わりにレイヤーごとの重みに時間関連の情報を表示することを考えていました。たとえば、各レイヤーの経時的な重みの差分(すべての単一接続の使用を省略します)。PCAは別の可能性です。ただし、視覚化はトレーニング中にオンラインで行われるため、あまり多くの計算を行わないようにします。

3
畳み込みが常に奇数をfilter_sizeとして使用する理由
CNN(ConvNet)を使用して発行された論文の90〜99%をご覧ください。それらの大半は、奇数のフィルターサイズを使用します:{ 1、3、5、7 }。 この状況はいくつかの問題を引き起こす可能性があります:これらのフィルターサイズでは、通常、畳み込み演算は2のパディング(一般的なパディング)では完全ではなく、input_fieldの一部のエッジはプロセスで失われます... 質問1:畳み込みフィルターサイズに奇数番号のみを使用する理由 質問2:畳み込み中にinput_fieldの一部を省略することは実際には問題ですか?なぜそうなのか?

1
ディープラーニングの1D畳み込み層とは
私は、2Dまたは3D実装の場合の画像処理のためのディープラーニングにおける畳み込み層の役割とメカニズムについて十分に理解しています。彼らは「単純に」画像の2Dパターンをキャッチしようとします しかし最近、自然言語処理のコンテキストで1D畳み込み層にぶつかりました。これは、私にとっては驚きの種です。画像のピクセル。1Dコンボリューションの背後にあるロジックは何ですか?

4
LSTM時系列予測の予測間隔
LSTM(または他のリカレント)ニューラルネットワークからの時系列予測の周りの予測間隔(確率分布)を計算する方法はありますか? たとえば、最後の10個の観測されたサンプル(t-9からt)に基づいて、未来(t + 1からt + 10)までの10個のサンプルを予測しているとすると、t + 1での予測はより大きくなると予想します。 t + 10での予測よりも正確です。通常、予測の周りにエラーバーを描画して、間隔を示します。ARIMAモデル(正規分布エラーを想定)を使用すると、各予測値の周囲の予測間隔(95%など)を計算できます。LSTMモデルから同じもの(または予測間隔に関連するもの)を計算できますか? 私はより多くの例以下、Keras / PythonでLSTMsで作業されていmachinelearningmastery.com私のサンプルコードは、(下記)に基づいているから、。私は問題を離散的なビンへの分類として再構成することを検討しています。それはクラスごとの信頼を生み出しますが、それは不十分な解決策のようです。 同様のトピックがいくつかありますが(以下など)、LSTM(または実際に他の)ニューラルネットワークからの予測間隔の問題に直接対処するものはないようです。 /stats/25055/how-to-calculate-the-confidence-interval-for-time-series-prediction ARIMAとLSTMを使用した時系列予測 from keras.models import Sequential from keras.layers import Dense from keras.layers import LSTM from math import sin from matplotlib import pyplot import numpy as np # Build an LSTM network and train def fit_lstm(X, …

3
現在(2016年)のディープラーニングNNは、4年前(2012年)に学習したNNとどう違うのですか?
Wikipediaおよびdeeplearning4jで、ディープラーニングNN(DLNN)は1つ以上の非表示レイヤーを持つNNであると言われています。 この種のNNは私にとって大学では標準的でしたが、DLNNは現在非常に宣伝されています。そこに行って、それで終わりです-大したことは何ですか? 積み重ねられたNNはディープラーニングと見なされているとも聞きました。ディープラーニングはどのように実際に定義されていますか? 私のNNの背景は主に大学出身であり、仕事ではありません。 産業におけるNNの応用を研究 Artifについて約5つのコースがありました。インテル。&マッハ。学ぶ。-たぶんそのうちの2つはNNにあります 画像認識に関する小規模でシンプルなプロジェクトにNNを使用-3層フィードフォワードNNを使用 それらについて(博士論文のように)実際の研究をしなかった

4
ドロップアウトによりモデルの一部のニューロンが抑制されるため、ドロップアウトレイヤーを追加するとディープ/機械学習のパフォーマンスが向上するのはなぜですか?
いくつかのニューロンを削除すると、モデルのパフォーマンスが向上する場合は、そもそも層数とニューロン数が少ない単純なニューラルネットワークを使用してみませんか?最初に大きくて複雑なモデルを作成し、後でその一部を抑制するのはなぜですか?


1
Kerasでのマルチタスク学習
Kerasで共有レイヤーを実装しようとしています。Kerasにはがあることがわかりますがkeras.layers.concatenate、その使用に関するドキュメントからはわかりません。複数の共有レイヤーを作成するために使用できますか?以下に示すように、Kerasを使用して単純な共有ニューラルネットワークを実装する最良の方法は何でしょうか? 3つのNNすべての入力、出力、共有レイヤーの形状はすべて同じであることに注意してください。3つのNNには複数の共有レイヤー(および非共有レイヤー)があります。色付きのレイヤーは各NNに固有であり、同じ形状を持っています。 基本的に、この図は、複数の共有非表示層が続く3つの同一のNNを表し、その後に複数の非共有非表示層が続きます。 Twitterの例のように複数のレイヤーを共有する方法がわかりません。共有レイヤーは1つしかありません(APIドキュメントの例)。

2
重みとバイアスの初期化を0付近で選択する必要があるのはなぜですか?
私はこれを読みました: ニューラルネットワークをトレーニングするには、各パラメーターW(l)ijWij(l)と各b(l)ibi(l)をゼロに近い小さなランダム値に初期化します(たとえば、Normal(0、ϵ2)Normal(0 、ϵ2)いくつかの小さなϵϵの分布、たとえば0.01) バックプロパゲーションアルゴリズムの 7番目の段落にあるスタンフォードの深層学習チュートリアルから 私が理解していないのは、重みまたはバイアスの初期化が約0である必要がある理由です。

1
ディープラーニングで正方形の画像を使用する理由
VGG、ResNetなどの高度なディープラーニングモデルのほとんどは、入力として正方形の画像を必要とします。通常、ピクセルサイズは224x224224x224224x224です。 入力が同じ形状でなければならない理由はありますか、または100 x 200で convnetモデルを構築できますか?100x200100x200100x200なければならない(たとえば、顔の認識を行いたい場合や、縦向きの画像がある場合)。 ピクセルサイズを大きくすると、512x512512x512512x512メリットが増えますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.