タグ付けされた質問 「machine-learning」

データのパターンを自動的に検出し、カバーされていないパターンを使用して将来のデータを予測したり、不確実性の下で他の種類の意思決定(方法の計画など)を実行したりできる一連の方法である機械学習(ML)に関連する質問より多くのデータを収集するため)。MLは通常、教師あり、教師なし、強化学習に分けられます。深層学習は、深層人工ニューラルネットワークを使用するMLのサブフィールドです。

2
ボトルネック機能とは何ですか?
非常に少ないデータを使用した強力な画像分類モデルの構築に関するブログ投稿では、ボトルネック機能について言及されています。ボトルネック機能とは何ですか?使用するアーキテクチャによって変わりますか?それらは、完全に接続されたレイヤーの前の畳み込みレイヤーの最終出力ですか?なぜそう呼ばれるのですか?

4
チャットボットをトレーニングする最新の方法は何ですか?
テキスト入力を使用し、いくつかのカテゴリを記憶し、それに応じて質問に答えるボットをトレーニングしたいと思います。また、バージョン2.0として、ボットに音声入力にも応答できるようにしたいと考えています。同じで利用できる最新の機械学習/ AIアルゴリズムはどれですか?私にお知らせください。

3
AIはどのように言語を学習しますか?
AIが言語を教える方法が思いつかないことに気づいたとき、私はAIとその仕組みについて考えていました。子供は、言語と写真をオブジェクトに関連付けることで言語を学習する傾向があります(たとえば、人々が犬の周りで「犬」という言葉を言い、後に人々が「犬」と「車」と言って何を学ぶかを理解します」など)。ただし、テキストベースのAIでは、このメソッドを使用して学習することはできませんでした。これらのAIは、あらゆる種類の入力デバイスにアクセスできないためです。 私が思いつくことができる唯一の方法は、英語(またはそれが「話す」ことを意図されている任意の言語)ですべての単語と規則でプログラミングすることですが、これには、場合によっては何年もかかる可能性があります。 これをどのように行うことができるかについて誰かが何か考えを持っていますか?または、すでに完了している場合は、どのように実行しますか? ちなみに、この文脈では、私はAIを使用して、人間に近い知能を備えた人工知能システムを意味しており、言語に関する予備知識はありません。

3
現在のAI開発を妨げている主な問題は何ですか?
私はコンピュータエンジニアリングの経験があり、人間の思考を模倣するためのより優れたアルゴリズムの開発に取り組んでいます。(私のお気に入りの1つは、言語処理と意思決定に適用されるアナログモデリングです。)ただし、研究を重ねるほど、AIがいかに複雑であるかがわかります。 私はこの分野で多くの問題に取り組みましたが、時々私は車輪を再発明したり、すでに解決できないことが証明されている問題(すなわち、停止問題)を解決しようとしていることに気づきます。したがって、AIを促進するために、この分野での進歩を妨げている現在の障害をよりよく理解したいと思います。 たとえば、一部の機械学習アルゴリズムの時間と空間の複雑さは超多項式であるため、高速のコンピューターでもプログラムが完了するまでに時間がかかる場合があります。それでも、一部のアルゴリズムは、小さなデータセットを処理しているときにデスクトップや他のコンピューターで高速になる場合がありますが、データのサイズを大きくすると、アルゴリズムが扱いにくくなります。 現在AI開発が直面している他の問題は何ですか?

4
データの関連機能を選択するにはどうすればよいですか?
最近、特定のリソースに対する支出のコスト分析を行う問題に取り組んでいました。私は通常、分析からいくつかの手動の決定を行い、それに応じて計画します。 私は、さまざまな時間枠とタイプ(他のさまざまな詳細な用途)でのリソースの使用を定義する、Excel形式の数百の列を持つビッグデータセットを持っています。また、過去4年間のデータと、それに応じて発生した実際のリソース使用量とコストに関する情報も持っています。 NNをトレーニングして事前にコストを予測し、手動でコスト分析を行う前に計画を立てることを望んでいました。 しかし、私が直面している最大の問題は、そのような分析のための機能を特定する必要があることです。データセットから特徴を特定する方法があることを望んでいました。 PS-私はPCAと他のいくつかの機能セット削減手法について考えがあります。私が見ているのは、そもそもそれらを識別する方法です。


1
ML / RLコミュニティで最新の研究者を維持する方法は?
機械学習に取り組みたい学生として、自分の研究を開始する方法と、それをフォローして最新の状態に保つ方法を知りたいです。たとえば、RLとMABの問題に積極的に取り組みますが、これらのトピックに関する膨大な文献があります。さらに、これらのトピックは、AIやML、オペレーションリサーチ、制御工学、統計など、さまざまなコミュニティの研究者によって研究されています。また、これらのトピックについては、毎週いくつかの論文が公開されているため、追跡するのが非常に難しいと思います。 誰かがこれらのトピックの研究を開始するためのロードマップを提案し、それに従って、新しい出版された論文をどのように選択して研究すべきかを教えていただければありがたいです。最後に、RLとMABの問題の新しい傾向を知りたいと思います。

3
ディープニューラルネットワークを使用したオブジェクトサイズの測定
長さのグラウンドトゥルースを備えた車両の大規模なデータセットがあります(10万サンプル以上)。車両の長さを測定/推定するために深いネットワークをトレーニングすることは可能ですか?ディープニューラルネットワークを使用したオブジェクトサイズの推定に関連する論文は見たことがありません。

3
ニューラルネットワークを使用して行列のパターンを認識する
CADモデルの設計機能(スロット、ボス、穴、ポケット、ステップ)を識別できるニューラルネットワークを開発しようとしています。 ネットワークに使用する入力データは、axnマトリックスです(nはCADモデルの面の数です)。マトリックスの右上の三角形の「1」は、2つの面の間の凸関係を表し、左下の三角形の「1」は、凹関係を表します。両方の位置のゼロは、面が隣接していないことを意味します。以下の画像は、そのようなマトリックスの例を示しています。 ネットワークへの入力を一定のサイズにするために、最大モデルサイズを20面に設定し、それよりも小さいものにパディングを適用するとします。 5つの異なる設計機能を認識できるようにしたいので、5つの出力ニューロンを持ちます-[スロット、ポケット、穴、ボス、ステップ] これが一種の「パターン認識」問題になると言ってもいいでしょうか?たとえば、ネットワークに、モデルに存在する設計機能を説明するラベルとともにいくつかのトレーニングモデルを提供すると、ネットワークは、特定の設計機能に関連するマトリックスで表される特定の隣接パターンを認識することを学習しますか? 私は機械学習の完全な初心者であり、このアプローチが機能するかどうかを把握しようとしています。問題を理解するためにさらに情報が必要な場合は、コメントを残してください。どんな入力やヘルプもありがとうございます。

3
AIが全知に対応できるという考えの何が問題になっていますか?
人工知能の文脈では、特異性とは、再帰的な自己改善が可能な人工的な一般的な知能の出現を指し、技術的特異性が達成された直後に、その限界は不明である人工超知能(ASI)の急速な出現につながります。したがって、これらのスーパーインテリジェンスは、おそらく解決できない問題を解決することができます。 人工知能の将来の進歩で報告された世論調査によると:専門家の意見の調査(2014) 回答者の推定中央値は、高レベルのマシンインテリジェンスが2040〜2050年頃に開発されるという2分の1のチャンスでした それほど遠くないです AIが多くの問題を解決することで私たちに利益をもたらす可能性があることを考えると、AIは全知に対応できるという考えの何が問題になっていますか?

1
プログラムを生成できるAI
私は開発中の人工知能エージェントであるVivを調査しています。私の理解に基づいて、このAIは新しいコードを生成し、ユーザーからのクエリに基づいてそれを実行できます。私が知りたいのは、このAIがクエリに基づいてコードを生成する方法を学ぶ方法です。このプロセスにはどのような機械学習アルゴリズムが関係していますか?私が検討したことの1つは、プログラムのデータセットを段階的に分解することです。例えば: 5項の平均を取るコード 1-5 つの用語をすべて一緒に追加2-5で除算 次に、テキストをコードに変換するアルゴリズムをトレーニングします。それは私が理解した限りです。どこから始めればいいかわからないので、何も試していません。誰かがVivを実装する方法について何かアイデアがありますか?これはVivのデモです。

4
SVMがまだ最先端のドメインは何ですか?
ディープニューラルネットワークやその他のニューラルネットワークベースのモデルが、コンピュータービジョン、オブジェクト分類、強化学習などの現在の多くの領域を支配しているようです。 SVM(または他のモデル)がまだ最先端の結果を生み出しているドメインはありますか?

4
オートエンコーダーの目的は何ですか?
オートエンコーダーは、入力を後で再構築するために入力の圧縮表現を学習するニューラルネットワークであり、次元削減に使用できます。それらは、エンコーダーとデコーダー(別々のニューラルネットワークにすることができます)で構成されています。次元の削減は、データが疎になり、「統計的有意性」を取得することがより困難になる次元の呪いに関連する問題を処理または軽減するために役立ちます。したがって、自動エンコーダー(およびPCAのようなアルゴリズム)を使用して、次元の呪いに対処できます。 特にオートエンコーダーを使用して次元削減を気にするのはなぜですか?次元削減が目的であるのに、なぜPCAを使用できないのでしょうか。 次元削減を実行したいだけの場合、なぜ入力の潜在的な表現を解凍する必要があるのか​​、またはオートエンコーダーにデコーダー部分が必要なのはなぜですか?ユースケースは何ですか?一般に、なぜ後で解凍するために入力を圧縮する必要があるのですか?(最初に)元の入力だけを使用した方がいいのではないでしょうか。

1
アクティベーション機能を混在させるとどうなりますか?
ReLU、シグモイド、タンなど、いくつかのアクティベーション関数があります。タンタン\tanh。アクティベーション機能を混在させるとどうなりますか? 最近、Googleが(x * sigmoid)のSwishアクティベーション関数を開発したことを発見しました。アクティベーション関数を変更することにより、XOR問題などの小さなニューラルネットワーク問題の精度を向上させることができますか?

1
PyTorchでAdamオプティマイザーを使用して学習率を低下させると、損失が突然跳ね上がります
オプティマイザー(を使用)と、シングルチャネルオーディオソース分離タスクでauto-encoderネットワークをトレーニングしています。学習率を1要素ずつ減衰させると、ネットワーク損失は急激に跳ね上がり、次の学習率の減衰まで減少します。Adamamsgrad=TrueMSE loss ネットワークの実装とトレーニングにPytorchを使用しています。 Following are my experimental setups: Setup-1: NO learning rate decay, and Using the same Adam optimizer for all epochs Setup-2: NO learning rate decay, and Creating a new Adam optimizer with same initial values every epoch Setup-3: 0.25 decay in learning rate every 25 epochs, and Creating …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.