タグ付けされた質問 「image-recognition」


3
Pythonでの画像の特徴抽出
私のクラスでは、2つの分類器を使用してアプリケーションを作成し、画像内のオブジェクトがポルフィラ門(seasponge)または他のオブジェクトの例であるかどうかを判断する必要があります。 しかし、Pythonでの特徴抽出技術に関しては、完全に失われています。私のアドバイザーは、クラスでカバーされていない画像を使用するように私を説得しました。 誰もが意味のある文書や読書を検討したり、検討する方法を提案したりできますか?

5
畳み込みニューラルネットワークのオーバーフィッティング。ドロップアウトが役に立たない
私はconvnetsで少し遊んでいます。具体的には、猫または犬(それぞれ12500)としてラベル付けされた25000個の画像で構成されるkaggle cats-vs-dogsデータセットを使用しています。 テストセットで約85%の分類精度を達成できましたが、90%の精度を達成するという目標を設定しました。 私の主な問題は過剰適合です。どういうわけか、それは常に起こることになります(通常、エポック8-10の後)。私のネットワークのアーキテクチャは、VGG-16に大まかに触発されています。具体的には、画像のサイズを128 x 128 x 3128x128x3128x128x3に変更し、次に実行します。 Convolution 1 128x128x32 (kernel size is 3, strides is 1) Convolution 2 128x128x32 (kernel size is 3, strides is 1) Max pool 1 64x64x32 (kernel size is 2, strides is 2) Convolution 3 64x64x64 (kernel size is 3, strides is 1) Convolution …

3
CNNの画像のサイズ変更とパディング
画像認識のためにCNNをトレーニングしたい。トレーニング用の画像のサイズは固定されていません。たとえば、CNNの入力サイズを50x100(高さx幅)にします。いくつかの小さなサイズの画像(たとえば32x32)を入力サイズにサイズ変更すると、画像の内容が水平方向に過度に引き伸ばされますが、一部の中サイズの画像では問題ありません。 コンテンツの破壊を回避しながら画像のサイズを変更する適切な方法は何ですか? (幅と高さの比率をある程度維持してサイズを変更した後、サイズを完全にするために0で画像をパディングすることを考えています。この方法で大丈夫でしょうか?)

1
ディープラーニングで正方形の画像を使用する理由
VGG、ResNetなどの高度なディープラーニングモデルのほとんどは、入力として正方形の画像を必要とします。通常、ピクセルサイズは224x224224x224224x224です。 入力が同じ形状でなければならない理由はありますか、または100 x 200で convnetモデルを構築できますか?100x200100x200100x200なければならない(たとえば、顔の認識を行いたい場合や、縦向きの画像がある場合)。 ピクセルサイズを大きくすると、512x512512x512512x512メリットが増えますか?


5
機械学習における次元ホッピング
機械学習(畳み込みニューラルネットワークと画像認識で発生)の次元ホッピング問題とは何ですか?私はそれについてグーグルで調べましたが、私が得るすべては、物質形状変形の物理学に関する情報です。誰かが機械学習に関連する例を使ってそれを説明すれば、私にとってより役立つでしょう。誰かがこれで私を助けたり、できるリソースに私を向けることができますか?

3
数学の畳み込みとCNNの関係
畳み込みの説明を読んである程度理解しました。誰かがこの操作がたたみ込みニューラルネットのたたみ込みにどのように関連しているかを理解するのを手伝ってくれませんか?gウェイトをかけるフィルターのような機能ですか?
10 machine-learning  neural-network  deep-learning  cnn  convolution  machine-learning  ensemble-modeling  machine-learning  classification  data-mining  clustering  machine-learning  feature-selection  convnet  pandas  graphs  ipython  machine-learning  apache-spark  multiclass-classification  naive-bayes-classifier  multilabel-classification  machine-learning  data-mining  dataset  data-cleaning  data  machine-learning  data-mining  statistics  correlation  machine-learning  data-mining  dataset  data-cleaning  data  beginner  career  python  r  visualization  machine-learning  data-mining  nlp  stanford-nlp  dataset  linear-regression  time-series  correlation  anomaly-detection  ensemble-modeling  data-mining  machine-learning  python  data-mining  recommender-system  machine-learning  cross-validation  model-selection  scoring  prediction  sequential-pattern-mining  categorical-data  python  tensorflow  image-recognition  statistics  machine-learning  data-mining  predictive-modeling  data-cleaning  preprocessing  classification  deep-learning  tensorflow  machine-learning  algorithms  data  keras  categorical-data  reference-request  loss-function  classification  logistic-regression  apache-spark  prediction  naive-bayes-classifier  beginner  nlp  word2vec  vector-space-models  scikit-learn  decision-trees  data  programming 

2
ビデオファイルのシャッフルされたピクセルを再構築する方法は?
ピクセルの順序が1回シャッフルされたビデオファイルがあるとします。つまり、ランダムな順序が一度定義され、すべてのフレームに適用されています。 ピクセルの最初の順序を取得するための既知のアプローチは存在しますか? 私は、空間と時間で相関しているピクセルをより近くに配置することにより、初期トポロジを取得することについていくつかのアイデアを持っています。これは研究されているのか、効率的なアルゴリズムが公開されているのか。 また、この問題は、コンピュータビジョン技術(CNNなど)を適用できるようにするために、時間の経過とともに変化する値のセットを2Dマトリックスに投影する方法と考えることができます。

2
カラーマップから数値データを取得できますか?
私のクラスでは、カラーマップ画像を扱う必要がよくあります。私は画像を表示して、さまざまな主題について推論/観察を試みます。多くの場合、実際にいくつかの側面を定量化する必要がありますが、画像は「現状のまま」提供され、必ずしもアプリオリにその内容を知っているとは限らないため、常に非常に概算であり、どういうわけか曖昧です。 2つの画像(*)で作業しているとしましょう。コンピューターにカラースケールバーを「学習」させて、マップ内の任意のポイントをクリックしてそのポイントの高度の値を取得できるようにすることは可能ですか?画像1は離散的なカラースケールバーで、画像2は連続的なカラーマッピングです。これを行う方法のアプローチに違いがある可能性があるため、両方の例を含めました。 それで、これを行うためのソフトウェア/方法はありますか?できればオープンソース。ImageJを試してみましたが、適切な解決策を思い付くことができませんでした。 画像1: 画像2: ご覧のとおり、すべての場合でカラースケールは画像の一部です。 (*)私はこれらの画像を所有していません。私のポイントを説明するためにオンラインで見つけた例のみを所有しています。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.