Motion SimulatorプラットフォームでのOculus Rift


12

現在、既存の(物理的に)大規模なモーションシミュレータプラットフォーム用のVR環境を開発しています。ユーザーはこのモーションプラットフォームに座って加速し、傾けて、研究用カーシミュレーター環境でモーション感を誘発できます。Oculus Riftポジショナルトラッカーは、PCで行うのと同じように、ユーザーの前の移動プラットフォームに既にマウントされています。

現在使用している3DエンジンはUnity 5.3です。プラットフォームの回転角度と直線加速度はすでにUnityに入力されています。しかし、結果は私が目指したものではありません。プラットフォームを傾ける限り回転補正はうまく機能しますが、角速度がゼロになると、トラッカーはリセットされます。線形加速度補正は、常に真の静止点を中心にジッタします。

既に、ネイティブUnity VR実装とOculusプラグインを使用してみました。ただし、センサーフュージョンはこのレベルでは使用できません。Oculusフォーラムにはこの問題に関する多くのトピックがありますが、解決策は見つかりませんでした。

Oculusを移動プラットフォームで使用するために試すことができる代替手段はありますか?

私が理想的にやりたいことは、さらに処理する前に、Oculusセンサーデータから誘導された動きを差し引くことです。私はすでにLibOVRなどのパッチを適用することを検討しましたが、役に立つセンサーフュージョン関連の機能もそこに見つかりませんでした。


ユーザーは、このVRとモーションプラットフォームの組み合わせで体調を崩していませんか?
ベイランクール

5
いいえ、彼らに彼らが見ているものを正確に感じてもらいたいからです。実際、私たちは心理学の学生とすべてのステップを評価しています。シミュレーターの病気に最も影響を与える唯一の要因は、ユーザーが見るものと感じるものとの不一致です。
Kapt.Brackbier

知っておくと良いことです!プロジェクトの
成功をお祈り

1
センサーがプラットフォームの外側に静的に取り付けられている場合はどうなりますか?
スカイブレード

1
私が理解している場合、より高い周波数調整のためにヘッドセットに組み込まれた加速度計+ジャイロがあります(カメラだけに依存しません)ので、プラットフォームによって加速されると、視覚センサーと内部のもの。その場合、低レベルドライバーを書き換える以外の解決策はありません。Skybladesのアイデアは本当に好きです(オプションの場合)。複数のセンサーがオプションだと聞いています。
CiscoIPPhone

回答:


0

明確な答えを出すことはできませんが、異なるメーカー(Microsoft Mixed Reality、VIVE、および携帯電話ベースのメーカー)のヘッドセットを試して、リセットの問題が発生するかどうかを確認することをお勧めします。私の考えでは、リセットの問題はOculus固有のものであり、一般的なVRシステムの特性ではありません。

同様の成功したプロジェクトの例として、ペーパーCarVR:In-Car Virtual Reality Entertainmentを参照してください。動く車でVRを使用することについて説明します。

あなたがしたことと同様に、彼らはプラットフォーム(車)にIMUを置き、Unityでのレンダリングからそのデータを引きました。彼らはテストで成功したようで、リセットやその他の問題については言及していません。彼らの研究では、サムスンGalaxy S6 Edgeを搭載したSamsung GearVRをVRデバイスとして使用しました。

別のアプローチは、カメラに依存して方向を決定するVRシステムを使用することです。理論的には、カメラのみのシステムは、十分に強力であれば、すべての頭の動きと向きを完全に管理できます。MicrosoftのMixed Realityヘッドセットはある程度これを行います。これに関する背景については、追跡に関するこのMicrosoftページを参照してください。そうは言っても、Microsoftのシステムは、カメラトラッキングとハイブリッドアプローチ用の統合センサーを組み合わせたものだと思います。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.