分類のための畳み込みネットワーク、照明に非常に敏感


8

畳み込みネットワークをトレーニングして、機械コンポーネントの画像を良品または不良品として分類しました。テストの精度は高いものの、照明がわずかに異なる画像ではモデルのパフォーマンスが低いことに気付きました。

私が検出しようとしている機能は微妙であり、照明がモデルを誤作動させて多くの偽陰性を呼び出しているようです。すべてではありませんが、ほとんどのトレーニングデータとテストデータは、拡散照明下で撮影された画像から得られました。私がモデルを試した新しい画像は、焦点を当てたライトで撮影されました。

ヒストグラムの等化(CLAHE)が役立つことを願って、モデルに供給する前に画像の等化を行い、トレーニングとテストデータのためにこれを行いました。そのときの問題は精度が高かったことですが、モデルは画像とラベルの間に他の相関関係を学習したようです。等化後、画像のすべてが目立ち、欠陥はさらに微妙になり、人間の目でも検出するのが難しくなります。

同じコンポーネントが同じ照明で、異なる方向のライトで撮影された場合でも、モデルの予測は変化しました。だから私の質問は、データの終わりやモデルで何ができるのですか?


照明のバリエーションでより多くのデータを収集することは可能ですか?シーン内の拡散照明と直接照明の違いは、前処理でシミュレーションしたり、考慮したりすることが困難になります。
Neil Slater

@NeilSlaterはい、もっとデータを収集できます。モデルを照明の変化に対して妥当な範囲でロバストにすることに、もっと興味があります。気づいたことの1つは、同じコンポーネントが同じ照明の下で撮影されたが向きが異なる場合でも、モデルの予測が変化したことです。異なる種類の照明に対してモデルを堅牢にすることは難しいかもしれませんが、同じ照明の異なる方向に対してそれを堅牢にする手法はありますか?
dpk

多くの場合、画像から平均を引くと効果的です。また、データのバランスはどの程度ですか?トレーニングデータセット内の1%がクラス1である場合、モデルはanytjingを学び、クラス0としてすべてを分類しません
アレックス

@アレックス私は平均減算を試していません。提案をありがとう。また、私のデータセットはバランスが取れています。2つのクラスがあり、それぞれがデータの50%を占めています。
dpk 09/07/17

回答:


2

これはオーバーフィッティングと呼ばれ、モデルは特定の予測に実際には関与しない特徴に基づいてラベルを予測することを学習したため、それらが提示されない場合、正しい予測に失敗します。過剰適合(ドロップアウトなど)に対処するにはさまざまな方法がありますが、必要と思われるのはイメージの拡大です。これは、堅牢でニューラルネットワークをトレーニングするためのシンプルでありながら非常に強力な方法です。あなたの場合-たとえば、同じラベルの入力に対してランダムにピクセル値を増減することで、異なる照明条件をシミュレートします。ランダムなノイズ、ランダムな回転、フリップなどを追加することも一般的な方法です。

詳細については、この stackoverflowの回答を確認してください。

また、私は最近、あなたが役立つと思われるさまざまな拡張関数を使用したプロジェクトを公開しました。参照:https : //github.com/Naurislv/P12.1-Semantic-Segmentation/blob/master/augmentation.py

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.