タグ付けされた質問 「semantic-segmentation」

3
「セグメンテーション」や「シーンラベリング」と比較した「セマンティックセグメンテーション」とは何ですか?
セマンティックセグメンテーションは単なるPleonasmですか、それとも「セマンティックセグメンテーション」と「セグメンテーション」の間に違いがありますか?「シーンのラベル付け」または「シーンの解析」に違いはありますか? ピクセルレベルのセグメンテーションとピクセル単位のセグメンテーションの違いは何ですか? (サイド質問:この種のピクセル単位のアノテーションがある場合、オブジェクト検出を無料で取得しますか、それともまだ何かする必要がありますか?) 定義の出典を教えてください。 「セマンティックセグメンテーション」を使用するソース ジョナサンロング、エヴァンシェルハマー、トレヴァーダレル:セマンティックセグメンテーションのための完全たたみ込みネットワーク。CVPR、2015およびPAMI、2016 ホン、スンフン、ヒョンウ、ハンヒョンウ:「半教師付きセマンティックセグメンテーションのための分離されたディープニューラルネットワーク」。arXivプレプリントarXiv:1506.04924、2015。 V. Lempitsky、A。Vedaldi、およびA. Zisserman:セマンティックセグメンテーションのパイロンモデル。神経情報処理システムの進歩、2011年。 「シーンラベリング」を使用するソース Clement Farabet、Camille Couprie、Laurent Najman、Yann LeCun:シーンのラベル付けの階層的機能の学習。パターン分析および機械知能、2013年。 「ピクセルレベル」を使用するソース Pinheiro、Pedro O.、Ronan Collobert:「畳み込みネットワークによる画像レベルからピクセルレベルのラベリングへ」コンピュータビジョンとパターン認識に関するIEEE会議の議事録、2015年(http://arxiv.org/abs/1411.6228を参照) 「pixelwise」を使用するソース Li、Hongsheng、Rui Zhao、Xiaogang Wang:「ピクセルごとの分類のための畳み込みニューラルネットワークの非常に効率的な前方および後方伝播」arXivプレプリントarXiv:1412.4526、2014。 Google Ngram 「セマンティックセグメンテーション」は、「シーンのラベル付け」よりも最近使用されているようです。

2
Pytorch:unetアーキテクチャでカスタムウェイトマップを使用する正しい方法
u-netアーキテクチャには、カスタムのウェイトマップを使用して精度を高めるための有名なトリックがあります。詳細は次のとおりです。 さて、ここや他の複数の場所で質問することで、2つのアプローチについて知ることができます。 1)最初はtorch.nn.Functionalトレーニングループでメソッドを使用することです- loss = torch.nn.functional.cross_entropy(output, target, w) ここで、wは計算されたカスタムの重みです。 2)2つ目はreduction='none'、トレーニングループ外の損失関数の呼び出しで使用することです。 criterion = torch.nn.CrossEntropy(reduction='none') そして、トレーニングループでカスタムウェイトを掛けます- gt # Ground truth, format torch.long pd # Network output W # per-element weighting based on the distance map from UNet loss = criterion(pd, gt) loss = W*loss # Ensure that weights are scaled appropriately loss …
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.