タグ付けされた質問 「3d」

3
一連の画像から3D構造を再構築するにはどうすればよいですか?
次のようにグループ化された輪郭のセット(線分セットのセット)があります。 Si={I0,Iπ4,I2π4,…,I7π4}Si={I0,Iπ4,I2π4,…,I7π4}S_i = \{I^0, I^\frac{\pi}{4}, I^\frac{2\pi}{4}, \ldots, I^\frac{7\pi}{4} \} どこで S私SiS_iは、1つの具体的なオブジェクトの写真のシーケンスを示します。 私jIjI^jは視点を持つ画像を表します(は正面図を意味します)。 j = 0jt hjthj^{th}j = 0j=0j=0 (背面図)の例を次に示します。 私πIπI^\pi 与えられたでオブジェクトの3D構造をどのように再構築できますか?S私SiS_i 誰かが私にいくつかの論文を教えてくれたり、キーワードを教えてもらえますか?ポイントクラウドなどで動作する多くの記事があることは知っていますが、線で動作しているため、それらは機能しません。

3
高次フィルターのカスケードバイカッドセクションはどのように機能しますか?
私は8次のIIRフィルターを実装しようとしていますが、これまで読んだすべてのアプリケーションノートと教科書には、2次のセクションとして2を超える次数のフィルターを実装するのが最善であると書かれています。tf2sosMATLABで2次セクションの係数を取得するために使用しましたが、予想どおり、4 2次セクションの6x4係数が得られました。SOSとして実装する前は、8次フィルターには7つの以前のサンプル値を保存する必要がありました(および出力値も)。ここで、2次セクションとして実装するとき、フローが入力から出力までどのように機能するか、2つの前のサンプル値のみを保存する必要がありますか?または、最初のフィルターの出力はx_in2番目のフィルターのように送られますか?
20 filters  filter-design  infinite-impulse-response  biquad  audio  image-processing  distance-metrics  algorithms  interpolation  audio  hardware  performance  sampling  computer-vision  dsp-core  music  frequency-spectrum  matlab  power-spectral-density  filter-design  ica  source-separation  fourier-transform  fourier-transform  sampling  bandpass  audio  algorithms  edge-detection  filters  computer-vision  stereo-vision  filters  finite-impulse-response  infinite-impulse-response  image-processing  blur  impulse-response  state-space  linear-systems  dft  floating-point  software-implementation  oscillator  matched-filter  digital-communications  digital-communications  deconvolution  continuous-signals  discrete-signals  transfer-function  image-processing  computer-vision  3d 

3
ホモグラフィ行列からカメラポーズを計算する方法は?
キャリブレーションされたカメラを1台だけ使用するとします。このカメラから、私は画像AとB IがAとBの間のホモグラフィを知ってもらう、通過計算のOpenCVの)(findHomography。 画像Aのポーズ(回転行列Rと並進ベクトルt)がわかっているので、画像Bのポーズが必要です。取得したら、後続の画像のすべてのポーズを計算できるようになります。 Bのポーズの計算の実装を知っていますか?ウェブ上でいくつかの記事を見つけましたが、簡単に実装できるソリューションを見つけることができませんでした...


1
3x3の実対称行列の固有ベクトルの分析式?
局所的な慣性モーメントに基づいて3D画像を処理するアルゴリズムを書いています。 3 x 3の実対称行列があり、そこから固有値を見つける必要があります。私はそこに行列の対角化のためのさまざまな一般的なアルゴリズムを見つけましたが、そのような行列の3つの固有ベクトルの分析式が存在するかどうかを知ることができませんでした。 数学に詳しい人はそれを知っていますか? 編集 ここでの記録は、私自身が質問で見つけたものです。Matthias Odisioが言ったように、3x3の行列ができたらすぐに単純な分析式に取り掛かることはできません。 ただし、特殊なケースである3x3エルミート行列の専用のペーパーが見つかりました。ここでは、さまざまな数値に特化したアプローチが比較されています。 http://arxiv.org/abs/physics/0610206 これは、論文のCおよびFortranコードです。 http://www.mpi-hd.mpg.de/personalhomes/globes/3x3/index.html
11 3d  matrix 

1
CT再構成ボリュームでの解剖学的ランドマークの検出に関するアドバイス
私は、CT再構成ボリューム内のいくつかの医学的に定義された解剖学的ランドマークを自動的に検出しようとしています。医師はこれらのランドマークを使用して、いくつかの患者固有のパラメータを測定します。これらの解剖学的ランドマークは「キーポイント」の一種であるため、SIFT機能記述子を使用しようとしました。ランドマークは、SIFTで定義されている「注目点」ではない点(または小さな領域)であるため、これはあまりうまく機能しませんでした。多くのパターン/テンプレートマッチングアルゴリズムを探していましたが、回転/平行移動/スケールの問題がない場合、抽出された機能では各ランドマークが(残りのランドマークおよび残りの非ランドマークから)十分に区別されないことがわかりますランドマークパッチ)十分に機能する(少なくとも検出精度の80%)分類器をトレーニングします。 問題を十分に明確に述べていない場合はお知らせください。 アドバイスをいただければ幸いです。 ありがとう! 画像の例: 小さなxの十字と小さな四角が、検出したいランドマークの上にあります(ラベル付けされたランドマークを含むトレーニングセットがあることを忘れていました)。白い線は実行された対策を表します。これらはさまざまなケースの一部です(もちろん、3Dボリューム全体を投稿することはできません)。

3
カメラのキャリブレーション/ピンホールカメラモデルと3D位置の計算
キャリブレーションされたカメラと固有のパラメーターがあります。また、現実世界の平面上の点(世界の原点)に関連する外部パラメーターもあります。この点は、法線が[0,0,1]の実世界座標[0,0,0]の原点として設定しました。 これらの外部パラメーターから、これを使用して、ワールドプレーン3D座標でのカメラの位置と回転を計算できます:http : //en.wikipedia.org/wiki/Camera_resectioning これで、[x、y]の画像座標を抽出した2番目のポイントができました。ワールド座標系でこのポイントの3D位置を取得するにはどうすればよいですか? ここでの直感は、カメラの光学面(上記のように3Dの位置になりました)からカメラの画像面[x、y]を通過する光線を追跡する必要があると思います。上部で定義した実世界の平面を通して。 法線を知っていて、その平面上を指すように、世界座標の3Dレイを平面と交差させることができます。私が得られないのは、ピクセルを介してイメージプレーンを離れるときの3Dの位置と方向を見つける方法です。私を混乱させているのは、異なる座標系による変換です。

3
クロマサブサンプリング:データレートを適切に計算する方法
たとえばY'UV画像でクロマサブサンプリングを利用するときにデータレートを計算する方法を理解するのに苦労しています。 以下の計算例があります。 画像解像度:352*288 周波数:25 fps 以下のために(:4:4 4)以下のように計算例を行きます: (352px * 288px) * 3 color channels * 25 fps * 8 bit = 60 825 600 bit/s ここまでは順調ですね。 しかし、今来る(4:2:0): (352px*288px) * 1.5 color channels * 25 * 8 = 30 412 800 bit/s さて、この例を例(4:1:1)に変換しようとすると、1.5カラーチャネルの比率がどのように計算されるかを正しく理解しているかどうかわかりません。 計算の最初の推測は(4:2:0)の場合でした: 2/4*3=1.5 color channels 同様に(4:1:1)の場合、カラーチャネルの比率を次のように計算します。 1/4*3=0.75 color channels …

2
CTスキャンDICOM画像の肺結節を測定する方法は?
この質問では、CTスキャンの強度値に焦点を当てたいと思います。まず、下の画像を見てください。 上の画像は元の画像で、下の画像はしきい値バージョンです。任意の形状のボリュームを測定するために、理論的には、単に画像内のボクセルの数を数えることが可能です。ただし、オブジェクトの最も外側の層(結節など)の輝度は暗く、オブジェクト内のすべてのボクセルの輝度は非常に高くなっています。しきい値バージョンのボクセルを単純に数えると、肺結節の実際のボリュームよりも大きい結果ボリュームが得られる可能性が非常に高くなります。 また、DICOM画像の輝度情報を調整するために使用できるウィンドウの中心(レベル)やウィンドウの幅などの変数があることもわかります。強度が異なると、結果のボリュームが変わる可能性があります。 だからここに質問があります:私が特定の肺結節を測定する場合、可能な限り最高の精度を達成するために何をすべきですか?強度の低いボクセルはいつ無視すべきですか?それとも他の方法でこれを行う必要がありますか?

2
3D画像で重複可能な球の半径rを見つける
私の現在の問題: 半径rの球の乱数で構成される入力3Dバイナリイメージ(0と1のみを持つ3Dマトリックス)があります。 画像に球がいくつあるかはわかりません。 すべての球の半径rは同じですが、半径rはわかりません。 球は画像内のあちこちにあり、互いに重なり合うことができます。 画像の例を以下に示します。 私の要件: 半径rは何ですか? 現在、私は単に画像を平坦化してz軸を取り除き、エッジ検出を実行しています。http://rsbweb.nih.gov/ij/plugins/hough-circles.htmlを使用してハフ変換を試みています。 ただし、ハフ変換では、変数の最小半径、最大半径、および円の数を指定する必要があることがわかりました。私は以下のいくつかの試みを試しました: 正しいパラメータが与えられれば、ハフ変換は円をうまく検出できます。しかし、実際のアプリケーションでは、球の数はわかりません。また、最小半径と最大半径を推測しようとするプログラムを作成するのは現実的ではないようです。これを達成する他の方法はありますか? クロスリンク:https : //math.stackexchange.com/questions/118815/finding-radius-r-of-the-overlappable-spheres-in-3d-image

3
2Dから3Dへの変換は可能ですか?
ビデオから異なるフレームでの車の位置をキャプチャしました。 仮定車の(画像で私たちの方に来ているegleft側車)ビデオ・フレーム1の重心は、ビデオ・フレーム4でP(x1、y1)とQ(x2、y2)があります。 PおよびQポイントを3Dに表すことはできますか?正しいピクセル距離d(PQ)を計算し、最後に実際の距離を計算できるように 注:uはカメラが静止しており、地面から10 mの高さに配置されていると想定できます。u は、次の図も参照できる場合は、適切なデータを想定できます。

3
3D画像ラプラシアンの固有値と固有ベクトル
3D画像のラプラシアンの固有値と固有ベクトルを計算する必要があります。ボリュームヒートカーネルシグネチャを実装するために、3Dユニフォームグリッド(ボクセル化された画像によって生成されたユニフォーム構造)のヒートカーネルを評価しようとしています(「数値計算」セクションを参照してください)。私が取り組んでいるドメインは長方形ではないため、一部のグリッドポイントに1があり、他のポイントに0があり、バイナリ3Dシェイプを生成しています。私はこれについて2Dについて読んでいます。2Dでは、すべてのグリッドポイントのラプラシアンが計算され、結果の行列の固有値と固有ベクトルが計算されます。3Dでこれを行うにはどうすればよいですか?具体的な質問は次のとおりです。 (3x3x3)離散ラプラス演算子を適用した後に取得した3D画像から行列を取得するにはどうすればよいですか? 行列を取得する方法がない場合は、3D構造グリッドの固有値と固有ベクトルを計算する必要があります。これを行う最も簡単な方法は何ですか?これを行うためのソフトをお勧めできますか? ヒントをいただければ幸いです。 前もって感謝します。

1
Essentialマトリックスの最小化
コンピュータービジョンと3D再構成の問題は、カメラの固有パラメーターを取得することです。一般的な解決策は、チェッカーボードなど、事前に形状の測定値がわかっているオブジェクトを使用することです。この方法の問題は、焦点距離や倍率など、カメラのパラメーターを変更するたびに行う必要があることです。 A Self Technique for Self-Calibrationで説明されているカメラのセルフキャリブレーションを実装しようとしています。必須行列は、2つの特異値によって制約されます。これを使用して、手動のキャリブレーションを実行せずに(つまり、チェッカーボードを使用して)カメラの組み込み機能を回復できます。コスト関数を最小化する方法に少し混乱しています。これが私がこれまでに理解したことです: 必須行列 E=KT2FK1E=K2TFK1E=K_2^TFK_1 固有行列 K=⎡⎣⎢αバツ00sεαバツ0あなた0v01⎤⎦⎥K=[αxsu00ϵαxv0001]K=\begin{bmatrix}\alpha_x & s & u_0 \\ 0 & \epsilon\alpha_x & v_0 \\ 0 & 0 & 1\end{bmatrix} αバツαx\alpha_x焦点距離と倍率の積 ] εϵ\epsilonアスペクト比[提供されていると仮定します。カメラまたはEXIFデータから推測しますか?] あなた0v0u0v0u_0 v_0はの座標です[0、0と仮定] sss skew [仮定0] コスト関数 sはの特異値であるC(K私、i = 1 .. n )=Σ私はjん(σ1私はj- σ2私はj)/ σ1私はjC(Ki,i=1..n)=∑ijn(σ1ij−σ2ij)/σ1ijC(K_i,i=1..n)=\sum_{ij}^n(\sigma1_{ij}-\sigma2_{ij})/\sigma1_{ij}σσ\sigmaKTjF私はjKjKjTFijKjK_j^TF_{ij}K_j 質問:このコスト関数はどのように最小化されていますか?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.