タグ付けされた質問 「deep-learning」

複数の隠れ層を持つ人工ニューラルネットワーク(ANN)に基づく機械学習方法のサブセットを指すディープラーニングに関連する質問。したがって、形容詞deepは、ANNの層の数を指します。ディープラーニングという表現は、1986年に「制約充足問題を検索する際の学習」という論文の中でRina Dechterによって(機械学習やANNの文脈ではなく)明らかに導入されました。

3
ディープニューラルネットワークを使用したオブジェクトサイズの測定
長さのグラウンドトゥルースを備えた車両の大規模なデータセットがあります(10万サンプル以上)。車両の長さを測定/推定するために深いネットワークをトレーニングすることは可能ですか?ディープニューラルネットワークを使用したオブジェクトサイズの推定に関連する論文は見たことがありません。

1
結果を最適化する深層学習アルゴリズム
私はディープラーニングに非常に慣れていませんが、それを使い始めるのにちょうど良い現実の状況を見つけたと思います。問題は、結果を予測するためにそのようなアルゴリズムのみを使用したことです。私の新しいプロジェクトでは、結果を最適化するためにマシンに供給するための情報が必要です。誰かが私がどのように進むべきかを簡単に説明できますか?行き詰まっています。 ここに状況があります: 私は、全長にわたってさまざまなグレードの木材を使用できる木の板を取り出し、それをカットリストにあるブロックに切断する機械を持っています。このマシンは、与えられた板から得られる最高のスコアを常に選択します。スコアは、各ブロックの乗じた面積をそのことにより、乗数。私が構築したいアルゴリズムは、カットリストにリストされている各ブロックの乗数をそのマシンに与える必要があります。このマシンからのすべての物理的な出力は、必要になるまでロボットによって棚にストックされます。それがより高いスコアに達するのを助けるならば、切断機は厚板の部分を格下げすることを許されます。 この値は、木材をあまりダウングレードせずに、最も必要なブロックをマシンに提供するインセンティブとして機能する必要があります。 最適化の目標 必要なときに各ブロックの在庫があることを確認する 可能な限り少ない木材のダウングレード(一部の種は非常に高価です) 入力ノード このブロックが必要になるまでの時間 このブロックの木材のグレード 必要なこのブロックの量 ブロックのエリア(たぶん?) アルゴリズムに提供されるフィードバック ブロックの準備ができている前の時間(可能な限り低くする必要があります) ダウングレードされた木材の面積*スキップされたグレードの数 期待される返品データ そのブロックに他のものに比べてその優先順位を最適にする乗数 私は持っていませんが収集することができなかった情報 木材の種類ごとの各グレードの平均比率 これまでにわかったことは、フィードバックを出力ノードにするために、フィードバックを1つの値にまとめる必要があるかもしれないということです。問題は、私が判断するために、このアルゴリズムを作成する方法を理解することができないということである乗数を。ディープラーニングによってこれを解決しようとするのは間違っていますか?

1
プログラムを生成できるAI
私は開発中の人工知能エージェントであるVivを調査しています。私の理解に基づいて、このAIは新しいコードを生成し、ユーザーからのクエリに基づいてそれを実行できます。私が知りたいのは、このAIがクエリに基づいてコードを生成する方法を学ぶ方法です。このプロセスにはどのような機械学習アルゴリズムが関係していますか?私が検討したことの1つは、プログラムのデータセットを段階的に分解することです。例えば: 5項の平均を取るコード 1-5 つの用語をすべて一緒に追加2-5で除算 次に、テキストをコードに変換するアルゴリズムをトレーニングします。それは私が理解した限りです。どこから始めればいいかわからないので、何も試していません。誰かがVivを実装する方法について何かアイデアがありますか?これはVivのデモです。

1
PyTorchでAdamオプティマイザーを使用して学習率を低下させると、損失が突然跳ね上がります
オプティマイザー(を使用)と、シングルチャネルオーディオソース分離タスクでauto-encoderネットワークをトレーニングしています。学習率を1要素ずつ減衰させると、ネットワーク損失は急激に跳ね上がり、次の学習率の減衰まで減少します。Adamamsgrad=TrueMSE loss ネットワークの実装とトレーニングにPytorchを使用しています。 Following are my experimental setups: Setup-1: NO learning rate decay, and Using the same Adam optimizer for all epochs Setup-2: NO learning rate decay, and Creating a new Adam optimizer with same initial values every epoch Setup-3: 0.25 decay in learning rate every 25 epochs, and Creating …

1
AIの推進にはトポロジーの高度化が必要ですか?[閉まっている]
休業。この質問には、より焦点を当てる必要があります。現在、回答を受け付けていません。 この質問を改善してみませんか?質問を更新して、この投稿を編集するだけで1つの問題に焦点を当てます。 先月休業。 現在の機械学習の傾向は、AIの新しい分野では、MLP、CNN、RNNが人間の知性を発揮できるという意味で解釈されています。元のパーセプトロン設計から派生したこれらの直交構造は、分類、特徴の抽出、リアルタイムでの適応、画像内のオブジェクトまたは音声内の単語の認識を学習できることは事実です。 これらの人工ネットワークの組み合わせは、設計と制御パターンを模倣できます。認識や対話などのより複雑な関数の近似でさえ、チューリング完全であるため、RNNなどのステートフルネットワークでは理論的には可能であると見なされます。 この質問は、元のパーセプトロン設計の純粋に直交する拡張に基づくディープネットワークの成功によって作成された印象が創造性を制限しているかどうかに集中しています。 ほとんどのプログラミング言語で便利な配列と行列の次元を微調整すると、人工ネットワークから人工脳につながると想定するのはどのくらい現実的ですか? 専用の高度なハードウェアの100ラックが1年間稼働したとしても、コンピューターにダンスの振り付けや複雑な証明の開発を学習させるために必要なネットワークの深さは、収束しないでしょう。エラーサーフェスの局所的な最小値と勾配の飽和は、実行を困難にし、収束を非現実的にします。 直交性がMLP、CNN、およびRNN設計に見られる主な理由は、配列反復に使用されるループが、単純なテストにコンパイルされ、機械語で逆方向にジャンプするためです。そしてその事実は、FORTRANやCからJavaやPythonに至るまで、すべての高水準言語に影響します。 トリビアルループの最も自然なマシンレベルのデータ構造は配列です。入れ子ループは、多次元配列と同じ直接的なアラインメントを提供します。これらは、ベクトル、行列、立方体、超立方体、およびそれらの一般化の数学的構造、つまりテンソルにマッピングされます。 グラフベースのライブラリとオブジェクト指向データベースは何十年も存在しており、階層をトラバースするための再帰の使用は、ほとんどのソフトウェアエンジニアリングカリキュラムでカバーされていますが、2つの事実は、あまり制約のないトポロジからの一般的な傾向を妨げています。 グラフ理論(エッジで接続された頂点)は、コンピューターサイエンスのカリキュラムに一貫して含まれていません。 プログラムを作成する多くの人は、配列、順序付きリスト、セット、マップなど、お気に入りの言語に組み込まれている構造体でのみ動作しました。 脳の構造は、ベクトルや行列のようなデカルトトポロジー1に向けられていません。生物学のニューラルネットは直交していません。それらの物理的な方向も信号経路のグラフィック表現も箱型ではありません。脳の構造は、90度の角度では自然に表現されません。 実際の神経回路は、デカルト形式で直接表すことはできません。また、再帰的な階層に直接適合しません。これは、4つの特徴があるためです。 心の並列処理は反復ではなくトレンドによるものです—並列構造として表示されるもののニューロンは同一ではなく、見かけのパターンを除いて巧妙に作られています。 サイクルは構造内に表示されます—ニューロンのグループがすべて単一方向を指しているわけではありません。サイクルは、多くのネットワークを表す有向グラフに存在します。信号方向の祖先も子孫である多くの回路があります。これはアナログ回路の安定化フィードバックに似ています。 平行でない神経構造も常に直交しているわけではありません。90度の角度が形成される場合、それは偶然であり、設計ではありません。 神経構造は静的ではありません—神経可塑性は、軸索または樹状突起が90度に制限されない新しい方向に成長する可能性がある場合に観察される現象です。細胞アポトーシスはニューロンを排除するかもしれません。新しいニューロンが形成されることがあります。 脳については、ベクトル、行列、またはレジスターのキューブ、または隣接するメモリー・アドレスのような直交デジタル回路構造に自然に適合するものはほとんどありません。それらのシリコンでの表現と、それらが高水準プログラミング言語に課す機能要求は、基本的な代数や解析ジオメトリの多次元配列やループとは根本的に異なります。 脳はユニークなトポロジカルで構成されている1つの洗練された信号伝播を実現する構造。それらは、デカルト座標系またはグリッドによって制約されていません。フィードバックはネストされ、非直交です。彼らには、より高い思考とより低い思考、動機、注意のバランスを形成する化学的および電気的平衡があります。 そのトポロジー1の洗練は必要ですか、それともDNAがベクター、マトリックス、キューブ、またはハイパーキューブを構築する方法の単なる副産物ですか? 脳の研究が進むにつれて、脳の構造を直交信号経路に効率的に変形できる可能性はますます低くなっています。必要な信号構造が同種の配列である可能性は低いです。確率論的または無秩序な処理構造がAI開発に有利である可能性さえあります。 脳の位相幾何学的に1洗練された機能は、触媒や思考の人間の形の出現のためにも必要かもしれません。何百ものパーセプトロン層にわたって収束を達成しようとすると、時々それを機能させることができるだけです。デカルトから始まった概念上の制限に、私たちは何らかの形で閉じ込められていますか? 直交構造のプログラミングの利便性を単に放棄することによって、これらの制限から脱出できますか?VLSIチップの設計における新しい方向性を発見するために、何人かの研究者が取り組んでいます。コードでの精神機能の記述を容易にするために、既存の言語に新しい種類のプログラミング言語または新しい機能を開発する必要があるかもしれません。 新しい形式の数学が示されることを示唆する人もいますが、重要な理論的フレームワークは、レオンハルトオイラー(グラフ)、グスタフキルヒホフ(ネットワーク)、ベルンハルトリーマン(多様体)、アンリポアンカレ(トポロジー)、アンドレイマルコフ(行動グラフ)によってすでに作成されています)、Richard Hook Richens(計算言語学)など、数学をさらに拡張する必要がある前にAIの大幅な進歩をサポートします。 トポロジーの高度化を採用するためのAI開発の次のステップは? 脚注 [1]この質問では、トポロジーという単語のみを使用して、長年にわたる数学的定義を参照しています。この用語は、いくつかの新しい専門用語によって歪められていますが、これらの変形のどれもこの質問では意味されていません。歪みには、(a)ネットワークのトポロジのレイヤー幅の配列を呼び出すこと、および(b)正しい用語がtopoGRAPHyである場合に、表面のテクスチャーをそのtopoLOGyと呼ぶことが含まれます。このような歪みは、この質問で説明されているようなアイデアのコミュニケーションを混乱させます。これは、(a)または(b)とは無関係です。 参考文献 空洞にバインドされたニューロンのクリークは、2017年6月12日、計算神経科学における構造と機能のフロンティア間のミッシングリンクを提供します、マイケルW. al。 https://www.frontiersin.org/articles/10.3389/fncom.2017.00048/full、 https://doi.org/10.3389/fncom.2017.00048 オンライン自己構築型ニューラルファジー、推論ネットワークとその応用、Chia-Feng JuangおよびChin-Teng Lin、ファジーシステムのIEEEトランザクション、v6、n1、1998、 https://ir.nctu.edu.tw/ビットストリーム/11536/32809/1/000072774800002.pdf ゲーテッドグラフシーケンスニューラルネットワークYujia LiおよびRichard Zemel、ICLR会議論文、2016年、https: //arxiv.org/pdf/1511.05493.pdf 人のように学び、考える機械の構築、ブレンデンM.レイク、トマーD.ウルマン、ジョシュアB.テネンバウム、サミュエルJ.ガーシュマン、行動科学および脳科学、2016年、 https://arxiv.org/pdf/1604.00289.pdf 質問応答用のニューラルネットワークの作成を学ぶ、Jacob Andreas、Marcus Rohrbach、Trevor Darrell、およびDan …

6
ディープラーニングに関する基本的な理論が実際に不足していますか?
ディープラーニングの根本的で未解決の問題の1つは、「一般理論」が欠けていることであると何度か聞いたことがあります。なぜなら、実際にはディープラーニングがうまく機能する理由がわからないからです。ディープラーニングに関するWikipediaのページにも同様のコメントがあります。そのような発言は信頼でき、現場の状態を代表していますか?

2
ディープラーニングとAIに関する最新の「注目の」研究トピックは何ですか?
私はディープジェネレーティブモデルに関する修士論文を執筆しており、現在、新しいテーマを探しています。 Q:最近ディープラーニングコミュニティで多くの注目を集めている「最もホットな」研究トピックは何ですか? いくつかの明確化: 私は同様の質問を調べましたが、誰も私の質問に答えませんでした。 私は純粋な数学のバックグラウンドを持っています。1年前にディープラーニングに移行しただけで、生成モデルに関する私の研究はほとんど理論的なものでした。つまり、私の仕事のほとんどは、構造化された確率モデルとおおよその推論を中心に展開されていました。とはいえ、ディープラーニングの実際のアプリケーションについてはまだ調査していません。 質問をする前に宿題をしました。私の目標は、この問題についてai SEの意見を得て、人々が何に取り組んでいるかを確認することでした。


2
DeepMindのDQN Atariゲームは同時に学習しましたか?
DeepMindは、彼らのディープQネットワーク(DQN)が49のAtariゲームをプレイすることを学びながら、その動作を継続的に適応させることができたと述べています。 同じニューラルネットですべてのゲームを学習した後、エージェントはそれらをすべて「超人的」レベルで同時にプレイできましたか(ゲームの1つがランダムに提示された場合はいつでも)、切り替えたため、一度に1つのゲームだけが得意でした再学習が必要ですか?

2
Deep Mindの作品のどれだけが実際に再現可能ですか?
Deep Mindは過去数年間にディープラーニングに関する多くの作品を発表しており、そのほとんどはそれぞれのタスクに関する最先端の技術です。しかし、この作品のどれだけが実際にAIコミュニティによって再現されたのでしょうか。たとえば、他の研究者によると、Neural Turing Machine紙は再現が非常に難しいようです。

2
検索と学習の違いは何ですか?
私は記事に出くわした苦い真実を経て、2分の論文 YouTubeチャンネル。リッチサットンさんのコメント... 苦いレッスンから学ばなければならないことの1つは、汎用メソッドの強力な能力であり、利用可能な計算が非常に大きくなっても、増加する計算に応じてスケーリングし続けるメソッドです。このように恣意的に拡張されているように見える2つの方法は、検索と学習です。 ここでの検索と学習の違いは何ですか?私の理解は、学習は検索の一種であり、ディープラーニングのコンテキストでの損失関数を最小化するデータの表現を繰り返し検索することです。

2
通常のCNNの代わりにグラフたたみ込みニューラルネットワークを適用すると、どのようなメリットがありますか?
通常のCNNの代わりにグラフたたみ込みニューラルネットワークを適用することで、どのようなメリットがありますか?つまり、CNNで問題を解決できるとしたら、それを解決するためにグラフ畳み込みニューラルネットワークに変換する必要があるのはなぜですか。通常のCNNをグラフ畳み込みニューラルネットワークで置き換えることで論文が示す例はありますか?精度の向上、品質の向上、またはパフォーマンスの向上が達成されていますか?特に医療画像、バイオインフォマティクス、または生物医学分野における画像分類、画像認識としていくつかの例を紹介できますか?

2
深層学習アルゴリズムはアンサンブルベースのメソッドを表しますか?
簡単にディープラーニングについて(参考): ディープラーニングは、複数の線形変換と非線形変換で構成される複数の処理層を持つディープグラフを使用して、データの高レベルの抽象化をモデル化しようとする一連のアルゴリズムに基づく機械学習の分岐です。 ディープニューラルネットワーク、たたみ込みディープニューラルネットワーク、ディープビリーフネットワーク、リカレントニューラルネットワークなどのさまざまなディープラーニングアーキテクチャが、コンピュータービジョン、自動音声認識、自然言語処理、音声認識、バイオインフォマティクスなどの分野に適用され、それらが生成することが示されていますさまざまなタスクに関する最新の結果。 することができ、深いニューラルネットワークや畳み込み深いニューラルネットワークは、と見ることがアンサンブルベースの機械学習の方法?それとも別のアプローチですか?

1
5年後、maxoutネットワークは停止しましたが、なぜですか?
Maxoutネットワークは、Goodfellowらのシンプルかつ優れたアイデアでした。2013年から最大機能マップまで、凸型活性化の普遍的な近似を取得します。設計はドロップアウト(最近導入された)と組み合わせて使用​​するように調整されており、CIFAR-10やSVHNなどのベンチマークで最先端の結果が得られました。 5年後、ドロップアウトは間違いなくまだゲームに残っていますが、maxoutはどうですか?Google Scholarによると、この論文はまだ最近の論文で広く引用されていますが、実際にこの手法を使用している人はほとんどいないようです。 それで、maxoutは過去のものになりました。もしそうなら、なぜですか— 2013年に2018年ではなく、最高のパフォーマンスを達成したのはなぜですか?

2
Lispは、機械学習の特定のコンテキストで今日でも学ぶ価値がありますか?[閉まっている]
休業。この質問は意見に基づいています。現在、回答を受け付けていません。 この質問を改善してみませんか?この投稿を編集して、事実と引用で回答できるように質問を更新してください。 14日前休業。 Lispは元々、コンピュータプログラムの実用的な数学表記として作成され、Alonzo Churchのラムダ計算の表記法に影響を受けました。ウィキペディアによれば、人工知能(AI)研究ですぐに好まれたプログラミング言語になりました。 LispがAIでまだ使用されている場合、特に機械学習とディープラーニングのコンテキストでは、それを学習する価値がありますか?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.