セグメンテーションタスクの入力として異なる次元の画像を使用するという問題に直面しています。画像のアスペクト比は同じではないことに注意してください。
ここでも提案されているように、一般的にディープラーニングで見つけた1つの一般的なアプローチは、画像をトリミングすることです。しかし、私の場合、セグメンテーションでは出力を入力と同じ次元にする必要があるため、画像をトリミングしてその中心または類似のものを維持することはできません。
このペーパーでは、セグメンテーションタスクで、同じ画像をネットワークに複数回フィードできますが、スケールは異なり、結果を集約できることを示しています。このアプローチを正しく理解した場合、すべての入力画像のアスペクト比が同じである場合にのみ機能します。私が間違っていたら訂正してください。
別の代替案は、各画像のサイズを固定サイズに変更することです。これもこの質問への回答で提案されたと思います。ただし、画像のサイズ変更方法は指定されていません。
情報の損失を避けるために、データセットの最大の幅と高さを取り、すべての画像をその固定サイズにサイズ変更することを検討しました。ただし、画像のエッジがはっきりしない場合があるため、画像が歪んでいる場合、ネットワークに問題が発生する可能性があると思います。ネットワークに送る前に画像のサイズを変更する最良の方法は何ですか?
異なる次元の画像を使用する問題を解決するために、私が知らない他のオプションはありますか?
また、計算の複雑さだけでなく、ネットワークによってパフォーマンスが低下する可能性を考慮に入れて、これらのアプローチのどれが最善であると思いますか?
私の質問への回答に、もしあればソースへのリンクが含まれていれば幸いです。ありがとうございました。