拡張現実感


 ああこれはすごい。

 


 特徴点の抽出・3次元再構成・追跡があまりにもうまく行っているので、(そしてそれはヒトにとっては意識下で行われる当然の処理なので)特徴点が画像に同期して動いていくのがごく当たり前のことのように思えてしまう。でも本当はこれをリアルタイムでやるってすごいことだよな・・・。論文(注:PDF)をチラ見すると、使っているのは Core 2 Duo 2.66GHz の Linux マシンらしい。*1


 これ Google Maps Street View と組み合わせたら、あっという間に大黒市の出来上がりではないか。(ただ Street View のデータが動画で撮られているのか静止画の組み合わせなのかにもよるのかも。上の論文では optic flow の情報を3次元再構成に使っているっぽいので、静止画だとするともう一度撮り直さないといけない? あるいはこの技術と組み合わせるか。)


 著者はオックスフォードのポスドク。ホームページはこちら(Georg Klein Home Page)(研究紹介、論文リンクなど)。


via: Nao_uの日記
via: 『攻殻機動隊』『電脳メガネ』どころではない拡張現実感技術の現在

*1:このデモで使っているのはラップトップっぽいのでもっと非力でも良いのかも?