タグ付けされた質問 「neural-network」

人工ニューラルネットワーク(ANN)は、「ニューロン」(生物学的ニューロンの特性を模倣するプログラミング構造)で構成されています。ニューロン間の一連の重み付けされた接続により、ネットワーク設計者が実際のシステムのモデルを持たなくても、情報がネットワークを介して伝播し、人工知能の問題を解決できます。

2
ニューラルネットワークの画像を準備/拡張する方法は?
画像分類にニューラルネットワークを使用したいと思います。事前に訓練されたCaffeNetから始めて、アプリケーション用に訓練します。 入力画像をどのように準備すればよいですか? この場合、すべての画像は同じオブジェクトですが、バリエーションがあります(品質管理と考えてください)。それらは多少異なる縮尺/解像度/距離/照明条件にあります(多くの場合、縮尺がわかりません)。また、各画像には、ネットワークが無視する対象オブジェクトの周囲の領域(既知)があります。 (たとえば)各画像の中心を切り取ることができます。これには、関心のあるオブジェクトの一部が含まれ、無視される領域は含まれないことが保証されています。しかし、それは情報を捨ててしまうように思われ、また結果は実際には同じスケールではありません(おそらく1.5倍のバリエーション)。 データセットの増強 ランダムクロップ/ミラー/その他によってさらにトレーニングデータを作成することを聞いたことがありますが、これに標準的な方法はありますか?分類器の精度がどれだけ向上するかについての結果はありますか?

3
「翻訳と等価」と「翻訳と不変」の違いは何ですか
翻訳と同変と翻訳と不変の違いを理解するのに苦労しています。 深層学習の本。MIT Press、2016(I. Goodfellow、A。Courville、およびY. Bengio)、畳み込みネットワークで見つけることができます: [...]パラメータ共有の特定の形態は、というプロパティ持っている層を引き起こしequivariance翻訳への [...]プーリングは、入力の小さな変換に対して表現をほぼ不変にするのに役立ちます それらの間に違いはありますか、または用語は互換的に使用されていますか?


1
「Keras」の「Dense」と「TimeDistributedDense」の違い
私はまだの違いについて混乱していますDenseとTimeDistributedDenseのKeras、すでにいくつかの同様の質問が尋ねているにもかかわらず、こことここ。人々は多くのことを議論していますが、共通の結論はありません。 それでも、ここでは、@ fcholletは次のように述べています。 TimeDistributedDenseDense3Dテンソルのすべてのタイムステップに同じ(完全に接続された)操作を適用します。 それらの違いを正確に説明する必要があります。

1
マルチクラス分類に最適なKerasモデルは何ですか?
私はどこの必要性3つのイベントWINNER =(の分類1に、研究に取り組んでいますwin、draw、lose) WINNER LEAGUE HOME AWAY MATCH_HOME MATCH_DRAW MATCH_AWAY MATCH_U2_50 MATCH_O2_50 3 13 550 571 1.86 3.34 4.23 1.66 2.11 3 7 322 334 7.55 4.1 1.4 2.17 1.61 私の現在のモデルは: def build_model(input_dim, output_classes): model = Sequential() model.add(Dense(input_dim=input_dim, output_dim=12, activation=relu)) model.add(Dropout(0.5)) model.add(Dense(output_dim=output_classes, activation='softmax')) model.compile(loss='categorical_crossentropy', optimizer='adadelta') return model それがマルチクラス分類に適しているかどうかわかりません バイナリ分類の最適な設定は何ですか? 編集:#2-そのような? model.add(Dense(input_dim=input_dim, …

7
機械学習タスクのためにデータをシャッフルする必要がある理由
機械学習タスクでは、データをシャッフルして正規化するのが一般的です。正規化の目的は明確です(同じ範囲の特徴値を持つため)。しかし、多くの苦労の末、データをシャッフルするための価値ある理由は見つかりませんでした。 ここでこの記事を読んで、データをシャッフルする必要がある場合について説明しましたが、データをシャッフルする必要がある理由は明らかではありません。さらに、バッチ勾配降下が必要なAdamやSGDなどのアルゴリズムでよく見かけます(データはミニバッチに分離する必要があり、バッチサイズを指定する必要があります)。この投稿によれば、各エポックのデータをシャッフルして、バッチごとに異なるデータを持つことが重要です。したがって、おそらくデータはシャッフルされ、さらに重要なことに変更されます。 なぜこれを行うのですか?

1
xgboostがsklearn GradientBoostingClassifierよりもずっと速いのはなぜですか?
私は、100個の数値特徴を備えた50kの例で勾配ブースティングモデルをトレーニングしようとしています。XGBClassifier一方、私のマシンで43秒以内に、ハンドル500本の木、GradientBoostingClassifierハンドルのみ10樹木(!)1分2秒:(私は気にしませんでしたでは、それは時間がかかるだろうと500本の木を育てるしようとしている。私は、同じ使用していますlearning_rateし、max_depth設定を、 下記参照。 XGBoostがこれほど速くなったのはなぜですか?sklearnの人が知らない勾配ブースティングのためのいくつかの新しい実装を使用していますか?それとも、「角を切り」、より浅い木を育てるのですか? PS私はこの議論を知っています:https : //www.kaggle.com/c/higgs-boson/forums/t/10335/xgboost-post-competition-surveyが、そこに答えを得ることができませんでした... XGBClassifier(base_score=0.5, colsample_bylevel=1, colsample_bytree=1, gamma=0, learning_rate=0.05, max_delta_step=0, max_depth=10, min_child_weight=1, missing=None, n_estimators=500, nthread=-1, objective='binary:logistic', reg_alpha=0, reg_lambda=1, scale_pos_weight=1, seed=0, silent=True, subsample=1) GradientBoostingClassifier(init=None, learning_rate=0.05, loss='deviance', max_depth=10, max_features=None, max_leaf_nodes=None, min_samples_leaf=1, min_samples_split=2, min_weight_fraction_leaf=0.0, n_estimators=10, presort='auto', random_state=None, subsample=1.0, verbose=0, warm_start=False)
29 scikit-learn  xgboost  gbm  data-mining  classification  data-cleaning  machine-learning  reinforcement-learning  data-mining  bigdata  dataset  nlp  language-model  stanford-nlp  machine-learning  neural-network  deep-learning  randomized-algorithms  machine-learning  beginner  career  xgboost  loss-function  neural-network  software-recommendation  naive-bayes-classifier  classification  scikit-learn  feature-selection  r  random-forest  cross-validation  data-mining  python  scikit-learn  random-forest  churn  python  clustering  k-means  machine-learning  nlp  sentiment-analysis  machine-learning  programming  python  scikit-learn  nltk  gensim  visualization  data  csv  neural-network  deep-learning  descriptive-statistics  machine-learning  supervised-learning  text-mining  orange  data  parameter-estimation  python  pandas  scraping  r  clustering  k-means  unsupervised-learning 

4
後続の畳み込み層はどのように機能しますか?
この質問は、「畳み込み層が正確にどのように機能するか」に要約されます。 私が持っていると仮定しグレースケール画像を表示します。したがって、画像には1つのチャネルがあります。最初のレイヤーでは、k 1個のフィルターとパディングを使用して3 × 3の畳み込みを適用します。次に、5 × 5の畳み込みとk 2フィルターを備えた別の畳み込み層があります。フィーチャーマップはいくつありますか?n×mn×mn \times m3×33×33\times 3k1k1k_15×55×55 \times 5k2k2k_2 タイプ1畳み込み 最初のレイヤーが実行されます。その後、特徴マップ(各フィルターに1つ)があります。これらはそれぞれ、サイズn × mです。すべての単一のピクセルを取ることにより作成された3 ⋅ 3 = 9つのパディングされた入力画像から画素を。k1k1k_1n×mn×mn \times m3⋅3=93⋅3=93 \cdot 3 = 9 次に、2番目のレイヤーが適用されます。すべての単一フィルターは、各機能マップに個別に適用されます。これにより、k 1 個のすべての特徴マップに対して個の特徴マップが生成されます。したがって、2番目のレイヤーの後にk 1 × k 2の特徴マップがあります。新しい特徴マップの各のすべての単一のピクセルを取ることによって作成されました5 ⋅ 5 = 25前からパッド入りの特徴マップの「ピクセル」。k2k2k_2k1k1k_1k1×k2k1×k2k_1 \times k_25⋅5=255⋅5=255 \cdot 5 = 25 システムが学習する必要がありのパラメータを。k1⋅3⋅3+k2⋅5⋅5k1⋅3⋅3+k2⋅5⋅5k_1 \cdot 3 \cdot 3 + …

3
ニューラルネットワークをトレーニングするためのCPUとGPUの選択
GPUの「オーバーヘッド」についての議論を見てきました。「小さな」ネットワークの場合、GPUよりも実際にCPU(またはCPUのネットワーク)でトレーニングする方が速いかもしれません。 「小さい」とはどういう意味ですか? たとえば、100個の隠れユニットを持つ単一層MLPは「小さい」でしょうか? 「小規模」の定義は、リカレントアーキテクチャに対して変わりますか? CPUでトレーニングするかGPUでトレーニングするかを決定するときに考慮する必要がある他の基準はありますか? 編集1: 私はブログの記事を見つけました(?おそらく古いそれは2014年からです): "...ほとんどのネットワークカードはCPUに登録されているメモリでのみ機能するため、2つのノード間のGPUからGPUへの転送は次のようになります。GPU1からCPU 1、ネットワークカード1、ネットワークカード2、CPU 2からGPU 2.つまり、遅いネットワークカードを選択した場合、1台のコンピューターで高速化が行われない可能性があります。高速ネットワークカードでも、クラスターが大きい場合、GPUから比較しても高速化されませんGPUの動作が速すぎるため、ネットワークカードがCPUに対応できません。 これが、GoogleやMicrosoftのような多くの大企業がGPUクラスターではなくCPUを使用して大規模なニューラルネットワークをトレーニングしている理由です。」 そのため、この投稿によると、ある時点でCPUを使用した方が高速だった可能性があります。これはまだ事実ですか? 編集2:はい、そのブログ投稿は次の理由で非常に古くなっている可能性があります。 ノード内のGPUはPCIeバスを介して接続されているため、通信は約6GiB / sで発生する可能性があります。(例:https : //www.youtube.com/watch?v=el1iSlP1uOs、約35分)。スピーカーは、これがGPU1からCPU、GPU2に行くよりも速いことを暗示しています。ネットワークカードがボトルネックではなくなったことを意味します。

2
グラウンドトゥルースとは
Machine Learningのコンテキストでは、Ground Truthという用語が頻繁に使用されるのを見てきました。私はよく検索して、ウィキペディアで次の定義を見つけました。 機械学習では、「グラウンドトゥルース」という用語は、教師あり学習手法に対するトレーニングセットの分類の精度を指します。これは、研究仮説を証明または反証するために統計モデルで使用されます。「グラウンドトゥルースティング」という用語は、このテストの適切な客観的(証明可能な)データを収集するプロセスを指します。ゴールドスタンダードと比較してください。 ベイジアンスパムフィルタリングは、教師あり学習の一般的な例です。このシステムでは、アルゴリズムはスパムと非スパムの違いを手動で学習します。これは、アルゴリズムのトレーニングに使用されるメッセージのグラウンドトゥルースに依存します。グラウンドトゥルースの不正確さは、結果として生じるスパム/非スパム判定の不正確さと相関します。 ポイントは、私が本当にそれが意味するものを得ることができないということです。ことで、ラベルがそれぞれに使用データオブジェクトまたはターゲット関数それぞれにラベルを与え、データオブジェクト、または多分何か他のもの?

4
ニューラルネットワークは文字列データを解析しますか?
だから、私はニューラルネットワークがパターンを認識して入力を分類する方法を学び始めたばかりで、人工ニューラルネットワークが画像データを解析して画像を分類する方法を見ました(convnetjsを使ったデモ)、そしてそこのキー画像をダウンサンプリングし、各ピクセルがネットワークへの1つの入力ニューロンを刺激します。 しかし、文字列入力でこれが可能であれば、私は頭を包み込もうとしていますか?私が持っているユースケースは、ユーザーが見た映画の「推奨エンジン」です。映画には多くの文字列データ(タイトル、プロット、タグ)があり、その映画を説明するいくつかのキーワードにテキストを「ダウンサンプリング」することを想像できますが、この映画を説明する上位5語を解析しても、映画のセットを比較するために、すべての英語の単語に対して入力ニューロンが必要だと思いますか?入力ニューロンをセットで使用される単語だけに制限できますが、新しい映画を追加することで成長/学習できます(ユーザーは新しい単語で新しい映画を視聴します)。私が見たライブラリのほとんどは、システムのトレーニング後に新しいニューロンを追加することを許可していませんか? 文字列/単語/文字データをニューラルネットワークへの入力にマッピングする標準的な方法はありますか?または、ニューラルネットワークは、このような文字列データを解析するための適切なツールではありませんか(文字列データのパターンマッチングに適したツールは何ですか)。

1
複数の機能を備えたRNN
私は、機械学習アルゴリズム(基本的なランダムフォレストおよび線形回帰タイプのもの)で動作する知識を少し自習しています。私は分岐して、KerasでRNNの学習を開始することにしました。通常在庫予測を含むほとんどの例を見ると、1列が機能日付でもう1列が出力である以外に、実装されている複数の機能の基本的な例を見つけることができませんでした。私が行方不明になっている重要な基本的なものまたは何かがありますか 誰かが例を持っているなら、私はそれを大いに感謝します。 ありがとう!

7
機械学習モデルをトレーニングする無料のクラウドサービスはありますか?
大量のトレーニングデータを使用してディープモデルをトレーニングしたいのですが、デスクトップには、これらの豊富なデータを使用してこのようなディープモデルをトレーニングする能力がありません。 機械学習とディープラーニングモデルのトレーニングに使用できる無料のクラウドサービスがあるかどうかを知りたいのですが? また、クラウドサービスがあるかどうかも知りたいと思います。クラウドサービスでは、トレーニング結果を追跡でき、クラウドに接続していなくてもトレーニングは継続されます。

1
Kerasは精度をどのように計算しますか?
Kerasはクラスワイズ確率から精度をどのように計算しますか?たとえば、テストセットに2つのクラスのいずれかに属することができる100個のサンプルがあるとします。クラスごとの確率のリストもあります。Kerasは、2つのクラスのいずれかにサンプルを割り当てるためにどのしきい値を使用しますか?

5
ニューラルネットワークでニューロンと層の数を設定する方法
私はニューラルネットワークの初心者であり、2つの概念を理解するのに苦労しています。 特定のニューラルネットワークが持つ中間層の数をどのように決定しますか?1対10または何でも。 各中間層のニューロン数をどのように決定しますか?各中間層に同数のニューロンを配置することを推奨しますか、それともアプリケーションによって異なりますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.