スポンサーサイト

上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。

どういう事!?ジャイロセンサーを使った「NGP」驚愕のデモ映像

まずこれをご覧下さい。見難いかもしれませんが。




後は続きをどうぞ。



お分かり頂けたでしょうか?
簡単に説明しますと、床に置かれた恐竜のイラストをNGPに搭載されているカメラで撮影。
すると後ろの画面を見て分かる通り、何故か立体的になっている!?
ジャイロを使った擬似3Dは見た事はありますがこれはなんなんだ…?
イラストは所詮2次元、ここまで立体的になんてなるんでしょうか…誰か説明して下さい(え

という訳で探しました。
西川善司の3Dゲームファンのためのグラフィックス講座【GDC特別編】 今さら聞けないNGPスペック講座

これによると、
(前略)最後のデモは拡張現実(AR:Augmented Reality)のデモで、NGPのカメラ機能とSIXAXIS機能を活用したものになる。

一般的なARではQRコード(バーコード)のような人工マーカー(タグ)で位置情報を認識させたり、シーンのジオメトリ情報を把握させたりするが、このデモでは現実世界にあるもの“そのもの”をマーカー(タグ)に利用して位置やジオメトリを把握できるようになっていた。これをソニーは「ナチュラルマーカーテクノロジー」と呼称していたが、実体としてはなんでもタグやマーカーに利用できるのではなく、あらかじめ形状情報とテクスチャをシステム側に辞書登録しておく必要がある。

デモでは、PS3ソフト「サルゲッチュ」のパッケージ上に踊るピポサルをNGP視界の映像に出現させたり、床に置いた恐竜のイラストポスターから恐竜をNGP視界の映像に出現させたりしていた。

ピポサルはとても小さいものでピポサル全体がNGPに映し出されるのだが、恐竜は人体の数倍はある巨大なものであるため、NGPを上に持ち上げてNGPを覗き込むと恐竜を下から見上げた恐竜の体の一部が映し出されることになる。そのままNGPを持って移動すれば、巨大な恐竜をその位置から見た視界がNGPに映し出される。

これは、現実世界のジオメトリに適合するように構築したバーチャル空間に巨大な恐竜を出現させ、これをNGPで的確に現実世界の情景に合成してNGPに表示することで実現している。さらに具体的に言えば、床上の恐竜のポスターを捉えてから、ユーザーがNGPをどのくらい移動したか、向きを変えたか……などをNGP内蔵のSIXAXISを活用して算出し、この情報から現実世界に対するカメラベクトルを求め、このカメラベクトルで現実世界とマッチングしているバーチャル空間上の恐竜CGをレンダリングしているのだ。


との事。
つまりは既存のAR機能の様に登録済みのマーカーから認識した情報を現実の空間にいる様に落とし込んでいる事に変わりはないのだけれど、6軸検出システム(sixaxis)や電子コンパスを使っているので恐竜の様な巨大なモノを見ようとマーカーから外れても処理出来るという事だそうです。

これはなかなかに夢が広がります。
実際手に入れた際にはいろいろ試したいですねぇ、ちゃんと対応してくれればですけど。
関連記事
スポンサーサイト
Author by 無月 / 全記事一覧 / 前の記事 / 次の記事 / ページトップ
Designed by マンゴスチンw /

コメント投稿

  • URL
  • コメント
  • パスワード
  •  管理者にだけ表示

トラックバック

http://gamesukiblog.blog40.fc2.com/tb.php/45-25a59c63
上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。