タグ付けされた質問 「deep-learning」

複数の隠れ層を持つ人工ニューラルネットワーク(ANN)に基づく機械学習方法のサブセットを指すディープラーニングに関連する質問。したがって、形容詞deepは、ANNの層の数を指します。ディープラーニングという表現は、1986年に「制約充足問題を検索する際の学習」という論文の中でRina Dechterによって(機械学習やANNの文脈ではなく)明らかに導入されました。

8
科学者は、人工ニューラルネットワークの内部で何が起こっているかを知っていますか?
科学者や研究の専門家は、少なくとも数百万の接続が瞬時に発火する複雑な「ディープ」ニューラルネットワークの内部で何が起こっているかを台所から知っていますか?彼らはこの背後にあるプロセスを理解していますか(例えば、内部で何が起こっているのか、どのように正確に機能するのか)、それとも議論の対象ですか? たとえば、この調査では次のように述べています。 ただし、それらがなぜそれほどうまく機能するのか、またはどのように改善されるのかについての明確な理解はありません。 それで、これは科学者が実際に複雑な畳み込みネットワークモデルがどのように機能するかを知らないことを意味するのでしょうか?

3
ニューラルネットワークはさまざまな入力サイズをどのように処理できますか?
私が知る限り、ニューラルネットワークの入力層には一定数のニューロンがあります。 ニューラルネットワークがNLPのようなコンテキストで使用される場合、さまざまなサイズの文章またはテキストブロックがネットワークに供給されます。さまざまな入力サイズは、ネットワークの入力層の固定サイズとどのように調整されますか?言い換えれば、このようなネットワークは、1単語から複数ページのテキストまでの入力を処理するのに十分な柔軟性を備えているのでしょうか? 入力ニューロンの固定数の仮定が間違っていて、新しい入力ニューロンがネットワークに追加/削除されて入力サイズに一致する場合、これらをどのようにトレーニングできるのかわかりません。 NLPの例を挙げますが、多くの問題には本質的に予測不可能な入力サイズがあります。これに対処するための一般的なアプローチに興味があります。 画像の場合、固定サイズにアップ/ダウンサンプリングできることは明らかですが、テキストの場合、テキストを追加/削除すると元の入力の意味が変わるため、これは不可能なアプローチのようです。

21
デジタルコンピューターは無限を理解できますか?
人間として、私たちは無限と考えることができます。原則として、十分なリソース(時間など)がある場合、無限に多くのもの(抽象的、数字のような、または実数を含む)をカウントできます。 たとえば、少なくとも、整数を考慮することができます。主に考えて、画面に表示される多くの数字を無限に「理解」できます。今日、私たちは少なくとも人間ができる人工知能を設計しようとしています。しかし、私は無限にこだわっています。私は、無限を理解するためにモデルを(深いかどうかにかかわらず)教える方法を見つけようとします。機能的アプローチで「理解」を定義します。たとえば、コンピューターが10個の異なる数字や物を区別できる場合、それは何らかの方法でこれらの異なるものを本当に理解することを意味します。 前に述べたように、人間は原則として無限の整数を数えることができるため、無限を理解しています。この観点から、モデルを作成したい場合、モデルは実際には抽象的な意味での関数であり、このモデルは無限に多くの数を区別する必要があります。コンピューターは、このような無限関数をモデル化する能力が限られたデジタルマシンであるため、無限に多くの整数を区別するモデルを作成するにはどうすればよいですか? たとえば、カード上の数字を認識するディープラーニングビジョンモデルを使用できます。このモデルでは、各整数を区別するために、各カードに番号を割り当てる必要があります。無限の数の整数が存在するため、モデルはデジタルコンピューターで人間のように各整数に異なる数をどのように割り当てることができますか?無限のものを区別できない場合、無限をどのように理解しますか? 実数を考慮すると、問題はさらに難しくなります。 私が欠けている点は何ですか?このテーマに焦点を当てたリソースはありますか?


3
LispがAIにとってこんなに良い言語なのはなぜですか?
Lispは人工知能の研究開発に適した言語であるとコンピューター科学者やAIの分野の研究者から聞いたことがあります。ニューラルネットワークとディープラーニングの普及により、これはまだ当てはまりますか?この理由は何ですか?現在の深層学習システムは現在どの言語に組み込まれていますか?

8
CNNでは、各新しいフィルターは各入力チャンネルに対して異なる重みを持っていますか、または各フィルターの同じ重みが入力チャンネル全体で使用されていますか?
私の理解では、畳み込みニューラルネットワークの畳み込み層には、input_channels、filter_height、filter_width、number_of_filtersの4つの次元があります。さらに、各新しいフィルターは、すべてのinput_channels(または前のレイヤーの機能/アクティベーションマップ)で複雑になるだけであると理解しています。 ただし、CS231の次の図は、チャネル全体で使用されている同じフィルターではなく、単一フィルターに適用されている各フィルター(赤)を示しています。これは、各チャンネルに個別のフィルターがあることを示しているようです(この場合、入力画像の3つのカラーチャンネルであると仮定していますが、すべての入力チャンネルに同じことが当てはまります)。 これは紛らわしいです-入力チャンネルごとに異なるユニークなフィルターがありますか? ソース:http : //cs231n.github.io/convolutional-networks/ 上記の画像は、O'reillyの"Fundamentals of Deep Learning"からの抜粋と矛盾しているようです。 「...フィルタは、単一の機能マップで動作するだけではありません。特定のレイヤーで生成された機能マップのボリューム全体で動作します...その結果、機能マップはボリューム上で動作できなければなりません。エリアだけでなく」 ...また、これらの画像は以下を示しているというのが私の理解ですSAMEだけ(CS231グラフィック上記に示しているものと矛盾)すべての3つの入力チャネルを介して畳み込まれるフィルタは:

9
人工知能はハッキングに対して脆弱ですか?
論文「敵対的設定におけるディープラーニングの制限」では、ニューラルネットワークがトレーニングするデータセットを操作できる攻撃者によって、ニューラルネットワークがどのように破損する可能性があるかを探っています。著者たちは、手書き数字を読み取ることを目的としたニューラルネットワークで実験を行い、ニューラルネットワークでトレーニングされた手書き数字のサンプルを歪めることにより、その読み取り能力を弱めました。 悪意のある攻撃者がAIをハッキングしようとするのではないかと心配しています。例えば 自動運転車をだまして、一時停止標識と速度制限を誤って解釈する。 ATMのような顔認識のバイパス。 スパムフィルターのバイパス。 映画レビュー、ホテルなどのだまされやすい感情分析 異常検出エンジンのバイパス。 音声コマンドの偽造。 機械学習ベースの医療予測の誤分類。 どのような敵対効果が世界を混乱させる可能性がありますか?どうすればそれを防ぐことができますか?

4
定理を証明するために、深いネットワークを訓練できますか?
一次述語計算に多数の証明があると仮定します。また、その形式の数学の領域にも公理、帰納法、定理があると仮定します。 証明された各命題と、その特定の命題を取り巻く既存の理論の本体を、トレーニングセットの例として、また関連するラベルとしての命題の既知の良い証明と考えてください。ここで、このサンプルセットでトレーニングするために特別に設計されたディープな人工ネットワークと、そうするためにハイパーパラメーターが正しく設定されていることを考えます。 新しい命題の提示と、それを取り巻く既存の理論が入力で一次述語計算で提示することで、出力で証明を生成するような方法で、深い人工ネットワークを訓練することは可能ですか? (もちろん、そのような証明は手動でチェックする必要があります。) 結果の良い証明の割合が十分に高い場合、訓練された深層ネットワークに命題を提案する遺伝的アルゴリズムを作成し、それによって証明を作成することは可能でしょうか? それは可能ですか? この種の深いネットワーク設計を使用して、Collat​​z予想またはRiemann予想を解決したり、数学者が正当な証明に到達できるように少なくともパターンを再配置することは可能でしょうか?

3
GAN損失関数を理解する
私は、Generative Adversarial Networksの理解(Daniel Seitaによるブログ投稿)で提供されているGAN損失関数の理解に苦労しています。 標準的なクロスエントロピー損失では、シグモイド関数を介して実行された出力と、結果のバイナリ分類があります。 シータ州 バツ1バツ1x_1 H((x1、y1)、D )= − y1ログD (x1)− (1 − y1)ログ(1 − D (x1))H((バツ1、y1)、D)=−y1ログ⁡D(バツ1)−(1−y1)ログ⁡(1−D(バツ1)) H((x_1, y_1), D) = -y_1 \log D(x_1) - (1 - y_1) \log (1 - D(x_1)) これは単なる期待のログであり、理にかなっていますが、GAN損失関数で、同じ反復で真の分布からのデータと生成モデルからのデータをどのように処理できますか?

4
ディープラーニングアプローチの問題と代替策
過去50年にわたり、ニューラルネットの人気の上昇/下降/上昇は、AI研究の「バロメーター」のような役割を果たしてきました。 このサイトの質問から、人々がディープラーニング(DL)をさまざまな困難な問題に適用することに関心を持っていることは明らかです。 したがって、2つの質問があります。 プラクティショナー-DLを「箱から出して」問題に適用する際の主な障害は何ですか? 研究者-実際の問題に対処するのに役立つ可能性のあるテクニックを使用していますか(開発しましたか)?それらはDL内にありますか、それとも代替アプローチを提供しますか?


5
ニューラルネットワークを使用して次の疑似乱数を予測できますか?
乱数ジェネレーターからの出力をニューラルネットワークに供給し、ハッシュ(またはジェネレーター)関数を学習することを期待して、次に生成される疑似乱数を予測できるようにすることは可能ですか? このようなものはすでに存在していますか?これまたはこれに関連する何か(疑似乱数の予測に関連する)の​​調査が既に行われている場合、誰かが私に適切なリソースを示すことができますか? 現在、私はこのライブラリとその関連リンクを見ています。 https://github.com/Vict0rSch/deep_learning/tree/master/keras/recurrent

3
CNNで大きなサイズの画像を処理する方法は?
CNNで使用するには2400 x 2400のサイズの10Kイメージが必要であると仮定します。ここでの問題は、ダウンサンプリングの特権がない場合に、このような大きな画像サイズをどのように処理するかです。 システム要件は次のとおりです。 Ubuntu 16.04 64ビットRAM 16 GB GPU 8 GB HDD 500 GB 1)トレーニングされるこのような大きな画像を処理する技術はありますか? 2)どのバッチサイズを使用するのが合理的ですか? 3)実行する必要のある予防措置、またはハードウェアリソースの増減はありますか?


3
誰もがニューラルネットワークに答えるのではなく、質問させることを考えましたか?
ほとんどの人は、ニューラルネットワークで質問に答えようとしています。しかし、質問に答えるのではなく、ニューラルネットワークに質問をさせる方法について考えている人はいますか?たとえば、CNNがオブジェクトが属するカテゴリを決定できる場合、分類を支援するために何らかの質問をすることができますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.