タグ付けされた質問 「deep-learning」

主にディープニューラルネットワーク(つまり、2つ以上の非表示レイヤーを持つネットワーク)で行われる、データの階層表現を学習するために使用される技術に関する機械学習研究の新しい領域だけでなく、何らかの確率的グラフィカルモデルでも行われます。

2
検証の損失と精度は一定のまま
このペーパーを一連の医療画像に実装しようとしています。ケラスでやってます。ネットワークは基本的に4つのconvおよびmax-poolレイヤーで構成され、その後に完全に接続されたレイヤーとソフト最大分類子が続きます。 私の知る限り、私はこの論文で言及されているアーキテクチャに従っています。ただし、検証の損失と正確さは、全体を通して一定のままです。精度は〜57.5%に固定されているようです。 私がどこで間違っているのかについてのどんな助けも大歓迎です。 私のコード: from keras.models import Sequential from keras.layers import Activation, Dropout, Dense, Flatten from keras.layers import Convolution2D, MaxPooling2D from keras.optimizers import SGD from keras.utils import np_utils from PIL import Image import numpy as np from sklearn.utils import shuffle from sklearn.cross_validation import train_test_split import theano import os import glob …

2
音認識のためのスペクトログラムによるディープラーニング
スペクトログラムを使用して音(たとえば、動物の音)を分類する可能性を検討していました。アイデアは、深い畳み込みニューラルネットワークを使用して、スペクトログラムのセグメントを認識し、1つ(または複数)のクラスラベルを出力することです。これは新しいアイデアではありません(たとえば、クジラの音の分類や音楽スタイルの認識を参照)。 私が直面している問題は、さまざまな長さのサウンドファイルがあり、したがってさまざまなサイズのスペクトログラムがあることです。これまでのところ、私が見たすべてのアプローチでは固定サイズのサウンドサンプルを使用していますが、サウンドファイルが10秒または2分の長さになる可能性があるため、これを行うことはできません。 たとえば、最初は鳥の音、最後はカエルの音(出力は "Bird、Frog"になります)。私の現在の解決策は、ニューラルネットワークに一時的なコンポーネントを追加することです(リカレントニューラルネットワークをさらに作成する)が、今のところそれを単純に保ちたいと思います。アイデア、リンク、チュートリアルなど...?

2
KerasのEarly Stoppingコールバックで使用されるメトリックを変更する方法はありますか?
KerasトレーニングでEarly Stoppingコールバックを使用すると、一部のメトリック(通常は検証の損失)が増加しないときに停止します。検証損失の代わりに別のメトリック(精度、再現率、fメジャーなど)を使用する方法はありますか?これまでに見たすべての例は、次の例に似ています:callbacks.EarlyStopping(monitor = 'val_loss'、patience = 5、verbose = 0、mode = 'auto')

1
LSTMセルはいくつ使用すればよいですか?
使用する必要があるLSTMセルの最小、最大、および「妥当な」量に関する経験則(または実際の規則)はありますか?具体的には、TensorFlowとプロパティのBasicLSTMCellに関連していnum_unitsます。 私が定義する分類問題があると仮定してください: t - number of time steps n - length of input vector in each time step m - length of output vector (number of classes) i - number of training examples たとえば、トレーニングの例の数は次の数よりも多い必要がありますか? 4*((n+1)*m + m*m)*c cセルの数はどこですか?これに基づいています:LSTMネットワークのパラメーターの数を計算する方法?私が理解しているように、これはパラメータの総数を与えるはずであり、トレーニング例の数よりも少なくなければなりません。
12 rnn  machine-learning  r  predictive-modeling  random-forest  python  language-model  sentiment-analysis  encoding  machine-learning  deep-learning  neural-network  dataset  caffe  classification  xgboost  multiclass-classification  unbalanced-classes  time-series  descriptive-statistics  python  r  clustering  machine-learning  python  deep-learning  tensorflow  machine-learning  python  predictive-modeling  probability  scikit-learn  svm  machine-learning  python  classification  gradient-descent  regression  research  python  neural-network  deep-learning  convnet  keras  python  tensorflow  machine-learning  deep-learning  tensorflow  python  r  bigdata  visualization  rstudio  pandas  pyspark  dataset  time-series  multilabel-classification  machine-learning  neural-network  ensemble-modeling  kaggle  machine-learning  linear-regression  cnn  convnet  machine-learning  tensorflow  association-rules  machine-learning  predictive-modeling  training  model-selection  neural-network  keras  deep-learning  deep-learning  convnet  image-classification  predictive-modeling  prediction  machine-learning  python  classification  predictive-modeling  scikit-learn  machine-learning  python  random-forest  sampling  training  recommender-system  books  python  neural-network  nlp  deep-learning  tensorflow  python  matlab  information-retrieval  search  search-engine  deep-learning  convnet  keras  machine-learning  python  cross-validation  sampling  machine-learning 

2
画像以外の非NLPタスクのディープラーニング?
これまでのところ、コンピュータビジョンや自然言語処理のディープラーニングには多くの興味深いアプリケーションがあります。 他のより伝統的な分野ではどうですか?たとえば、私は伝統的な社会人口統計学的変数に加えて、おそらく多くの研究室での測定値があり、特定の疾患を予測したいと考えています。多くの観察結果がある場合、これはディープラーニングアプリケーションになりますか?ここでネットワークをどのように構築しますか?すべてのファンシーレイヤー(畳み込みなど)は本当に必要ではないと思いますか?!深くするだけ? 私の特定のデータセットで、ランダムフォレスト、gbmなどの一般的な機械学習アルゴリズムを試しましたが、精度に関する結果はさまざまです。画像認識に関するディープラーニングの経験は限られています。

2
CNNのフィルターの重みの更新
私は現在、CNNのアーキテクチャーを理解しようとしています。畳み込み、ReLUレイヤー、プーリングレイヤー、完全接続レイヤーについて理解しています。しかし、私はまだ重みについて混乱しています。 通常のニューラルネットワークでは、各ニューロンに独自の重みがあります。完全に接続された層では、各ニューロンにも独自の重みがあります。しかし、私が知らないのは、各フィルターに独自の重みがあるかどうかです。逆伝播中に、完全に接続されたレイヤーの重みを更新する必要があるだけですか?または、すべてのフィルターに個別の重みを付けて更新する必要がありますか?

3
Python用のすぐに使える優れた言語モデルはありますか?
私はアプリケーションのプロトタイプを作成していますが、生成されたいくつかの文の複雑さを計算するための言語モデルが必要です。 すぐに使用できるPythonのトレーニング済み言語モデルはありますか?のような単純なもの model = LanguageModel('en') p1 = model.perplexity('This is a well constructed sentence') p2 = model.perplexity('Bunny lamp robert junior pancake') assert p1 < p2 一部のフレームワークを確認しましたが、必要なものが見つかりませんでした。私は次のようなものを使用できることを知っています: from nltk.model.ngram import NgramModel lm = NgramModel(3, brown.words(categories='news')) これはブラウンコーパスの優れたチューリング確率分布を使用していますが、1bワードデータセットなどの大きなデータセットで巧妙に作成されたモデルを探していました。一般的なドメイン(ニュースだけでなく)の結果を実際に信頼できるもの
11 python  nlp  language-model  r  statistics  linear-regression  machine-learning  classification  random-forest  xgboost  python  sampling  data-mining  orange  predictive-modeling  recommender-system  statistics  dimensionality-reduction  pca  machine-learning  python  deep-learning  keras  reinforcement-learning  neural-network  image-classification  r  dplyr  deep-learning  keras  tensorflow  lstm  dropout  machine-learning  sampling  categorical-data  data-imputation  machine-learning  deep-learning  machine-learning-model  dropout  deep-network  pandas  data-cleaning  data-science-model  aggregation  python  neural-network  reinforcement-learning  policy-gradients  r  dataframe  dataset  statistics  prediction  forecasting  r  k-means  python  scikit-learn  labels  python  orange  cloud-computing  machine-learning  neural-network  deep-learning  rnn  recurrent-neural-net  logistic-regression  missing-data  deep-learning  autoencoder  apache-hadoop  time-series  data  preprocessing  classification  predictive-modeling  time-series  machine-learning  python  feature-selection  autoencoder  deep-learning  keras  tensorflow  lstm  word-embeddings  predictive-modeling  prediction  machine-learning-model  machine-learning  classification  binary  theory  machine-learning  neural-network  time-series  lstm  rnn  neural-network  deep-learning  keras  tensorflow  convnet  computer-vision 

1
事前トレーニング済みのCNN分類器を使用して、別の画像データセットに適用する
どのように考え、最適化前の訓練を受けた neural network別の問題に適用することを?事前トレーニング済みのモデルにさらにレイヤーを追加して、データセットでテストしますか? たとえば、タスクがCNNを使用して壁紙グループを分類することであった場合、猫と犬の画像でトレーニングされた事前トレーニング済みネットワークを直接分類することはできませんが、どちらも画像分類子です。

2
データセットは分類可能ではないと私たちはいつ言いますか?
何も分類できないデータセットを何度も分析しました。分類子を取得できるかどうかを確認するには、通常、次の手順を使用しました。 数値に対するラベルの箱ひげ図を生成します。 次元数を2または3に減らして、クラスが分離可能かどうかを確認します。LDAも試してみました。 SVMとランダムフォレストを強制的に適合させ、機能の重要性を調べて、機能に意味があるかどうかを確認します。 クラスの不均衡が問題であるかどうかを確認するために、アンダーサンプリングやオーバーサンプリングなどのクラスと手法のバランスを変更してみてください。 私が考えることができる他の多くのアプローチがありますが、試していません。これらの機能が良くなく、予測しようとしているラベルにまったく関連していないことを時々知っています。次に、その直感を使用して演習を終了し、より優れた機能またはまったく異なるラベルが必要であると結論付けます。 私の質問は、これらの機能では分類できないとデータサイエンティストがどのように報告するかです。これを報告したり、最初に異なるアルゴリズムでデータをフィッティングしたりするための統計的方法はありますか?

3
推論にはGPUまたはCPUを使用する必要がありますか?
GPUによってトレーニングされたディープラーニングニューラルネットワークを実行しています。これを複数のホストに展開して推論します。問題は、推論にGPUとCPUのどちらを使用するかを決定するための条件は何ですか? 以下のコメントから詳細を追加します。 私はこれが初めてなので、指導に感謝します。 メモリ:GPUはK80 フレームワーク:CudaおよびcuDNN ワークロードあたりのデータサイズ:20G 消費するノードの計算:スケールオプションを検討したいが、ジョブごとに1つ コスト:理由が理にかなっている場合は、GPUオプションを購入できます 展開:クラウドではなく、ホストされた独自のベアメタルサーバーで実行します。 現在、アプリケーションが正常に実行されているという理由だけでCPUで実行しています。しかし、その理由以外に、なぜGPUを検討するのかさえわかりません。

2
拡張型畳み込みとデコンボリューションの違いは何ですか?
これら2つの畳み込み演算は、現在、深層学習で非常に一般的です。 このペーパーで拡張した畳み込み層について読みました:WAVENET:A GENERATIVE MODEL for RAW AUDIO とデコンボリューションはこの論文にあります:セマンティックセグメンテーションのための完全たたみ込みネットワーク どちらも画像をアップサンプリングするようですが、違いは何ですか?

4
word2vecを使用して目に見えない単語を識別し、それらをすでにトレーニングされたデータに関連付ける方法
私はword2vec gensimモデルに取り組んでいて、それが本当に面白いと思いました。私は、モデルでチェックしたときに未知の/目に見えない単語が、トレーニングされたモデルから同様の用語を取得できる方法を見つけることに興味があります。 これは可能ですか?これのためにword2vecを微調整できますか?または、トレーニングコーパスには、類似性を見つけたいすべての単語が必要です。

2
たたみ込みネットワークのバイアスに関する質問
CNNに必要な重みとバイアスの数を把握しようとしています。 (3、32、32)-imageがあり、(32、5、5)-filterを適用したいとします。各フィーチャマップには5x5の重みがあるので、3 x(5x5)x 32のパラメーターが必要です。次に、バイアスを追加する必要があります。(3 x(5x5)+ 1)x 32パラメータしかないので、バイアスはすべての色(RGB)で同じですか? これは正しいです?異なる重みを使用している間、各画像の深度全体にわたって同じバイアス(この場合は3)を維持しますか?何故ですか?

3
LSTM、BiLSTMとは何ですか?
私はディープラーニングに非常に慣れていないため、特にLSTMとBiLSTMとは何か、いつ使用するか(主なアプリケーション分野)を知りたいと思っています。LSTMとBILSTMがRNNよりも人気があるのはなぜですか? これらのディープラーニングアーキテクチャを教師なしの問題で使用できますか?

4
機械学習とディープラーニング
「機械学習」と「深層学習」という用語の違いに少し戸惑っています。私はそれをグーグル化し、多くの記事を読みましたが、それでも私にはあまり明確ではありません。 Tom Mitchellによる機械学習の既知の定義は次のとおりです。 コンピュータプログラムは、経験から学ぶと言われているEタスクのいくつかのクラスに関してTと性能指標のPのタスクでその性能ならば、Tは、によって測定されるように、P、経験を向上E。 犬と猫を自分の飼い猫Tとして分類する画像分類問題を取り上げた場合、この定義から、MLアルゴリズムに犬と猫の画像の束を与えると(経験E)、MLアルゴリズムは次のことを学習できます。新しい画像を犬または猫のいずれかとして区別します(パフォーマンス測定値Pが明確に定義されている場合)。 次にディープラーニングがあります。ディープラーニングは機械学習の一部であり、上記の定義が成り立つことを理解しています。タスクTでのパフォーマンスは、経験Eで向上します。今までは大丈夫。 このブログでは、機械学習とディープラーニングには違いがあると述べています。Adilによる違いは、(従来の)機械学習では機能を手作りする必要があるのに対し、ディープラーニングでは機能を学習することです。次の図は、彼の発言を明らかにしています。 (従来の)機械学習では機能を手作りする必要があるという事実に戸惑っています。トムミッチェルによる上記の定義から、これらの機能は経験EとパフォーマンスPから学習されると思います。機械学習で他に何を学ぶことができますか? ディープラーニングでは、経験から、機能を学び、パフォーマンスを改善するためにそれらが互いにどのように関連しているかを理解します。機械学習では機能を手作りする必要があると結論づけることはできますか?学習されるのは機能の組み合わせです。それとも他に何か不足していますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.