アニメーション時の装着物の座標

昨日、Twitterでアドバイスを頂き
幾つか検証してみたので報告しますねヾ(´・∀・)ノ
メモ書きに近いですが^^;

結論だけ先に書くと、ダメでしたぁ・・・orz

もともと、やりたかったことは
ダンスアニメ中に顔とか手の動きに追従するカメラワークで
動画撮影してみたかったんですね。

なので、鼻とか口あたりにプリムを装着して
その座標を元にカメラ位置とフォーカス位置を
算出すれば、顔を追尾するようなカメラ移動が
可能なんじゃないかなあと思ったんですね^^

以下、くわしくレポート^^;


実験1
まず、自分で考えた方法は以下のとおり。
  1. 口に装着したオブジェクトから0.1秒間隔で自己座標をチャットチャンネルに出力。
  2. HUDで座標を受信。カメラパラメータをセット。
このような段取りで試験スクリプトを実装。
いちおう、顔のあたりにカメラは向くんです。
歩きまわったりするとカメラも追従します。
カメラパラメーターの設定が甘いのか
カクカクしたりしますが^^;

ただ、AOの動きに追従しないんですね・・・。

あれこれと、調整してみたんですが上手くいかないので
この時点でTwitterにグチを書いてみたりwww(ノ∀`;)

実験2
いましゅうさんの案で計測するオブジェクトを近くに置き
そこから座標をとるというアイディアを頂きました^^
ありがとうございます。

本格的にコードを書く前にセンサーの予備実験をしてみたんですが
装着物まではllSensorに反応しないっぽいんですね。
ACTIVEとかSCRIPTEDとか色々とセンサーのパラメータを
いじったりUUID決め打ちとか、あれこれと調整してみましたが
残念ながら反応ナシという( ;∀;)

概ねエクスさんの予測に近い結果でしたぁ^^;
余談ですが、考察してみると
装着物がセンサーに反応しちゃうと
髪の毛やブーツやアクセなども全部反応しちゃって
仕様上あまりよろしくないのかもしれません(;-ω-)ゞ

衝突による判定については、また今度検証してみたいと思います^^


副次的な成果
ここ最近、SpaceNavigatorでジョイスティック操作する
「フライ・カム機能」もあれこれ試しています。
今回の検証でわかったことをまとめます。
  1. llGetCameraPos()関数などが、ちゃんとフライカムの座標を返す。
  2. フライカム操作中でもHUDのクリックなどは反応する。
ということは、フライカムの座標をHUDで記録して
再現することもできるので、可能性として面白うそうです。

いろいろとアドバイスを下さったいましゅうさん、エクスさん
ほんとうにありがとうございました~( *・ω・)*_ _))ペコリン

コメント