PCでキネクトを動かしてみる

先日、キネクトを購入。
池袋のビックカメラで購入したのだが、クリスマス直前のせいだろうけど、レジまで長蛇の列。
レジにたどり着くまで20分くらいかかった気がする。

早速、キネクトをPCに接続して動かしてみる。(キネクト本来の使い方じゃないけど)

PCへの接続の手順は、こちらのHPを参考にさせて頂いた。
http://kgxpx834.blog58.fc2.com/blog-entry-22.html
すんなりとPCで使えるようになって一安心。

次は、VisualStudio2010でビルドできるようにする。
それは、こちらのHPを参考にさせて頂いた。
http://blog.goo.ne.jp/roboz80/e/f4299308eda1689ed8646238d61e3787
こちらも特に問題なくビルド出来ることを確認。

これで準備は整った。モーションキャプチャー作成の第一歩として(2歩目があるかわからないけど)
OpenNIのサンプルに含まれるNiUserTrackerのソースを修正して、頂点座標を取得きるようにしてみる。
ソースナナメ読みーの、OpenGLの関数を調べーの1時間程度修正。
デバッグのたび、椅子から離れないといけないのが結構キツイ。

単位系がよくわからないけど、なんとなくxyz座標を取得できるようになったっぽい。
細かいブレや欠損もあるけど、それは座標データの補正や補完で、なんとでもなりそうな気がする。
モーションキャプチャーとして使うとなると、顔の向いている方向と、手首、足首のヒネリの角度も取得できるといいんだけど、それは無理なのかな?
思いつくのは、キネクトの映像センサー出力をHDDに保存するように修正して、額や手にOpenCVのバーコードを貼り付けておいて、後から映像センサーの画像をOpenCVとかで方向を検知するとか。
うーん、ちょっとメンドクサそう。

また、ライフル(モデルガン)を立ち撃ちの姿勢で構えて、認識できるか調べてみたところ、かなりの割合でライフルを腕と認識しまう。
ちょっと残念。
細いパイプか何かでライフルの形状を作り、それを構えれば上手くいくかもしれない。


MikuMikuDanceでもキネクト実験
とりあえずやってみた。(MikuMikuDance Ver7.24 および、Lat式ミクVer2.3を使用)

なんというかミクさんの動きがオッサンくさいというか、ロボットだな……
まあ、私はオッサンだし、運動不足だし、しょうがないか。モーションキャプチャー専門の俳優さんいるという話も納得できる。
それはさておき、私の動きに合わせて、画面内の髪の毛が動くのに、不思議な感覚を持った。(私は長い髪の毛など無いに、あるように感じる)
あと、髪の毛の物理演算が、どの程度の回転まで追従できるものなのか調べてみようと高速回転してみたのだが、私自身の方が先にヘタって転倒し肘を打った。
いろいろ反省。