タグ付けされた質問 「augmented-reality」

22
拡張現実フレームワーク[終了]
閉まっている。この質問はスタックオーバーフローのガイドラインを満たしていません。現在、回答を受け付けていません。 この質問を改善してみませんか?Stack Overflowのトピックとなるように質問を更新します。 6年前休業。 この質問を改善する Androidフォン向けの拡張現実アプリケーションの開発を計画しています。そのようなアプリケーションに使用できる拡張現実のための既存のフレームワークがあるかどうか誰かが知っていますか?

2
OpenCVによる拡張現実SDK [終了]
現在のところ、この質問はQ&A形式には適していません。私たちは回答が事実、参考文献、または専門知識によってサポートされることを期待しますが、この質問はおそらく議論、議論、投票、または拡張された議論を誘います。この質問を改善でき、再開できると思われる場合は、ヘルプセンターにアクセスしてください。 7年前休業。 OpenCVで拡張現実SDKを開発しています。トピックのチュートリアル、実行する手順、可能なアルゴリズム、リアルタイムパフォーマンスのための高速で効率的なコーディングなどを見つけるのにいくつかの問題がありました。 これまでのところ、次の情報と役立つリンクを集めました。 OpenCVのインストール 最新のリリースバージョンをダウンロードします。 ここにインストールガイドがあります(プラットフォーム:linux、mac、windows、java、android、iOS)。 オンラインドキュメント。 拡張現実 初心者向けには、ここにOpenCVのシンプルな拡張現実コードがあります。良いスタートです。 よく設計された最先端のSDKを探している人のために、OpenCV関数を考慮して、マーカー追跡に基づくすべての拡張現実に必要ないくつかの一般的な手順を見つけました。 メインプログラム:すべてのクラスの作成、初期化、ビデオからのフレームのキャプチャ。 AR_Engineクラス:拡張現実アプリケーションのパーツを制御します。2つの主要な状態があります。 検出:シーン内のマーカーを検出しようとします 追跡:検出されると、より低い計算技術を使用して、次のフレームでマーカーを追跡します。 また、すべてのフレームでカメラの位置と向きを見つけるためのアルゴリズムも必要です。これは、シーンで検出されたマーカーと、オフラインで処理したマーカーの2D画像との間のホモグラフィ変換を検出することによって実現されます。この方法の説明はこちら(18ページ)。ポーズ推定の主な手順は次のとおりです。 カメラの固有パラメータをロードします。以前はキャリブレーションによってオフラインで抽出されました。 追跡するパターン(マーカー)をロードします。これは、追跡する平面マーカーの画像です。後でシーンの特徴と比較できるように、このパターンの特徴を抽出して記述子(キーポイント)を生成する必要があります。このタスクのアルゴリズム: シフト 速い サーフ フレームを更新するたびに、検出アルゴリズムを実行してシーンから特徴を抽出し、記述子を生成します。ここでもいくつかのオプションがあります。 シフト 速い サーフ FREAK:最速であると思われる新しい方法(2012)。 ORB パターンとシーン記述子の一致を検索します。 フランマッチャー それらの一致からホモグラフィ行列を見つけます。RANSACは、マッチのセット内のインライア/アウトライアを見つける前に使用できます。 ホモグラフィからカメラポーズを抽出します。 ホモグラフィのポーズのサンプルコード。 ポーズのホモグラフィのサンプルコード。 完全な例: アルコ OpenCVサンプルの習得

2
iOSはカメラの投影を元に戻します
宇宙のQRコードに関連するデバイスの位置を推定しようとしています。私はiOS11で導入されたARKitとVisionフレームワークを使用していますが、この質問への答えはおそらくそれらに依存していません。 Visionフレームワークを使用すると、カメラフレームのQRコードの境界となる長方形を取得できます。この長方形を、QRコードを標準位置から変換するために必要なデバイスの平行移動と回転に一致させたいと思います。 たとえば、フレームを観察すると、次のようになります。 * * B C A D * * 一方、QRコードから1m離れていて、その中心にあり、QRコードの辺が10cmであると仮定すると、次のようになります。 * * A0 B0 D0 C0 * * これらの2つのフレーム間のデバイス変換はどのようになっていますか?観測されたQRコードがわずかに非平面であり、完全に1つではないものでアフィン変換を推定しようとしているため、正確な結果が得られない可能性があることを理解しています。 後者は、この問題について私が興味を持っていないARKitから推測された変換をすでに考慮してsceneView.pointOfView?.camera?.projectionTransformいるsceneView.pointOfView?.camera?.projectionTransform?.camera.projectionMatrixので、よりも役立つと思います。 どのように記入しますか func get transform( qrCodeRectangle: VNBarcodeObservation, cameraTransform: SCNMatrix4) { // qrCodeRectangle.topLeft etc is the position in [0, 1] * [0, 1] of A0 // expected real world position …
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.