まずはせっせとパーツ作り
- snackvirtual
- 4月1日
- 読了時間: 1分
UnityにVRMモデルを設定し、アニメーションと瞬きとLipSyncができたので、次はその他のパーツについて作っていく。
呼吸:
停止しているモデルは生きている感じがしない。そのためにも呼吸が重要。
直接BONEを動かすスクリプトをPerplexity AIが提案してくれたので導入するが、なかなか動かない。それでもAIのおかげでなんとか動作。
カメラワーク:
マウスのホイールでZoom Up/Downをする。Zoom Upしたときは顔のアップで、Zoom Downしたときは全身が切れずになるべく大きく…と思うと、カメラ位置も若干動かした方がいい。それも含めて再びPerplexity AIにスクリプト作成を丸投げして完成。
キーボード入力:
モデルをクリックすると半透明な入力エリアが下部に現れ、放置しておくと消えるもの。

さて、残っているのは…
・スクリプトによる表情の制御
・スクリプトによるポーズ制御
・Gemini APIの実装
・AivisSpeech APIの実装
・Geminiと表情/ポーズ制御の連携
あたりができあがると、
自分の言葉に回答して表情やポーズを変えて口パクで話す…あたりができあがる
Comments