|
●UC-win/Road for RoboCar®
カーロボティクスプラットフォームとバーチャルリアリティの融合
UC-win/Roadは、大規模なバーチャルリアリティ空間をわかりやすい手順と操作で短時間に作成できます。RoboCar®の連携により、VRのみにとどまらずミックスドリアリティでのシミュレータにも応用が可能です。多彩なシミュレータに活用が期待されます。
■RoboCar®とは
ドライビングシミュレーション機能が充実したバーチャルリアリティソフトUC-win/Roadとロボット技術を搭載したカーロボティクスプラットフォーム「RoboCar®」に連携させ、VR空間でのドライビングにより実車の1/10スケールモデルカーを模型道路上等で制御させるVRシミュレーションシステムです。VRで表現された仮想実空間を利用できることで精緻な空間表現、多様な交通環境・シナリオを設定、試行できます。
■UC-win/RoadとRoboCar®の連携
UC-win/Roadでは、精緻な空間表現、多様な交通環境・シナリオを設定でき、仮想空間を走行できます。一方RoboCar®では実車の10分の1のスケールモデルという特長を持ち、現実空間が走行できます。これらの特長を組み合わせることで、仮想空間では検証できない複合現実上でのシミュレーションが可能となります。 |
|
|
|
|
▲模型にて走行環境を作成し(左図)、
VR空間内でシミュレーション走行(右図) |
|
|
|
|
●Mind&VR UC-win/Road for MindWave Mobile
脳波計測装置MindWave MobileによるUC-win/Roadでのドライブシミュレーション MindWave Mobile(開発元:NeuroSky)は、脳波センサが搭載されたワイヤレスのステレオヘッドデバイス。装着することで、アルファ、ベータなど周波数の違いによって分類される脳波を計測し、独自のアルゴリズムにより集中度・リラックス度等の心理状態へと変換。
MindWave MobileプラグインによりVRデータと連携し、これらの取得データを利用した操作・シミュレーションが可能。右図の運転シミュレーションでは集中度によって速度を制御し、画面の1点を凝視する等で集中すれば速くなり、注意散漫な状態になれば遅くなります。 |
|
|
▲MindWave Mobile
(Neurosky) |
▲“脳波ビジュアライザー”
(Neurosky) |
■活用事例
脳波ドライビング 〜脳波で運転!〜 UC-win/Road MindWave Mobile プラグイン
MindWave Mobileを頭に装着し、接続している状態で運転シミュレーションを開始すると、脳波による走行が可能。
脳波で自車両のアクセルとブレーキをコントロール。
F1レース EEGテクノロジーの活用事例として、フォーミュラ・ワン(F1)レースが挙げられます。2つのMindSetユニットをリアルタイム(@60Hz)に読み込み、メディテーション係数とアテンション係数を抽出できるインターフェースを開発しました。
|
|
▲フェニックスF1サーキット |
▲ゲーム性もあり、展示システムとして好評 |
|
|
●自律飛行UAV
自動飛行モニタリングシステム
■マウスやキーボードで操作を行い、通信情報などのデータはWi-Fiを使って無線でやり取り
■内蔵コンピュータによって自動でバランスを制御。上昇、下降、前後左右への移動など高度な動きも簡単に実現
■フロントカメラや高速カメラを使って確認し、FLY-DVカメラで詳細を記録
■GPSによりAR.Droneの位置を測定
■9DOF IMU(軸慣性計測装置/Inertial Measurement Unit)により、加速度、ジャイロ、地磁気を測定し、AR.Droneの方向を確認
■赤外線の測距離センサで障害物へ衝突を回避
|
|
|
|
▲AGULカスタマイズ |
▲AGULテスト飛行の様子 |
マイクロ無人航空機スキャニングシステム(MAPs)
無人航空機(Drone)を使用し
広範囲の地理データを作成 |
|
|
|
|
|
|
|
▲自動飛行ロボットをカスタマイズ |
▲3DVRと自動飛行ロボットの連携 |
|
|
●Kinect™ドライビングシミュレータ
赤外線深度センサによるハンドレスドライビングシミュレーション
Kinect™の前でステアリングを操作するように両手を動かすことでUC-win/Roadの運転操作が行えるシステム。
Kinect™が検出したドライバーの両手の位置情報を車のステアリング、アクセル、ブレーキに変換。
赤外線深度センサによる車輌制御と運転操作イメージ
UC-win/Roadと連携により、Kinect™の前で仮想ハンドルを握って両手を動かすことでVR空間での運転操作が行えるシステム。Kinect™が検出したドライバーの両手の位置情報を車のステアリング、アクセル、ブレーキに変換する。
|
|
|
▲ステアリング操作(右折・左折) |
|
|
|
▲アクセル操作 |
|
▲ブレーキ操作 |
|
|
●UC-win/Road Air Driving の利用技術
コントロールデバイスなしで、非常に細かく精度の高いドライビング操作が可能
スケルトンの認識
赤外線深度センサで検出した距離情報から同一物体を抽出し、人間の特徴を識別します。特定のポーズをとることにより、キャリブレーションを実施し、スケルトン構造を認識します。 |
|
|
|
|
▲Kinect(TM)センサ |
▲赤外線レーザーのパターン |
ハンドルの舵角の向きと量の検出
前に突き出した右手拳と左手拳の位置関係から、右折、左折の向きと、舵角をアナログ値として検出
します。 |
検出量を緑色から赤色に変化するバーとして表示します。赤くなるほど、制御量が多いことを意味します。
アクセル、ブレーキの踏込量の検出
踏込量をつま先の位置からアナログ値として検出します。
●アクセル : 検出結果が上向きに表示。
●ブレーキ : 検出結果が下向きに表示。 |
|
|
|
|
▲直進 |
▲右折:右に切るほど、右方
に赤いバーが伸びる |
|
|
●赤外線深度センサによるマルチクラスタデジタルサイネージシステム
マルチ画面の6Kディスプレイと赤外線深度センサを利用したインタラクティブ操作(双方向的)のデジタルサイネージシステム。
ジェスチャーやモーションを使った直観的な操作が可能です。
ジェスチャーインターフェースとモーションキャプチャの機能を使い、インタラクティブに操作できます。入力には赤外線深度センサのXtion PROを使用します。直観的な操作によるインタラクティブサイネージは、従来のデジタルサイネージと比較して、より高い集客効果が見込めます。マルチクラスタシステムとUC-win/Roadのクラスタ機能を使ったリアルタイムVRシミュレーション、スパコンクラウド®を使ったCGレンダリングサービスなど、コンテンツ関連のサービスも取り扱っています。
|
|
▲6KデジタルサイネージAirDriving
(東京ゲームショウ2011) |
▲AirDrivingインターフェース |
「スパコンクラウド® CGムービーサービス」では、POV-Rayにより作成した高精細な動画ファイルを提供します。スパコンの利用により高精細な動画ファイルの提供が可能であり、また、POV-Rayを利用しているため、UC-win/Roadで出力後にスクリプトファイルをエディタ等で修正できます。 |
|
|
●UC-win/Road for ロボットアーム
バーチャル空間と実空間でロボットアームが連動して動作します。 |
|
|
●Lily Car
VRと連携したスケールカーによる自律走行システム
Lily Carは縮小モデルの自律走行車で、実車の挙動をスモールスケールでエミュレートしセルフドライビングカーのような小さな車の開発に役立てることを目的としています。
車は事前に複数のパスが定義されたテストコース上を自律的に走行。マニュアルモードと自律走行モードの切り替えは常時可能となっており、PC制御インターフェースとAureloシステムとを連携して、各車の位置と方向の情報を取得します。さらに、車へ適切なコマンドを送信し、選択したパスに従って走行させます。
Lily Carシステム構成
・1/10 RC Carのシャーシ ・モータ ・ステアリングモータ
・衝突判定のための赤外線測距センサ ・車両追跡するARマーカー
・PC遠隔操作でコミュニケーションや制御が可能なワイヤレスモジュール
・全システムの管理を行うメインコントローラ |
|
|
|