top of page

まずはせっせとパーツ作り

  • 執筆者の写真: snackvirtual
    snackvirtual
  • 4月1日
  • 読了時間: 1分

UnityにVRMモデルを設定し、アニメーションと瞬きとLipSyncができたので、次はその他のパーツについて作っていく。


呼吸:

停止しているモデルは生きている感じがしない。そのためにも呼吸が重要。

直接BONEを動かすスクリプトをPerplexity AIが提案してくれたので導入するが、なかなか動かない。それでもAIのおかげでなんとか動作。


カメラワーク:

マウスのホイールでZoom Up/Downをする。Zoom Upしたときは顔のアップで、Zoom Downしたときは全身が切れずになるべく大きく…と思うと、カメラ位置も若干動かした方がいい。それも含めて再びPerplexity AIにスクリプト作成を丸投げして完成。


キーボード入力:

モデルをクリックすると半透明な入力エリアが下部に現れ、放置しておくと消えるもの。


さて、残っているのは…


・スクリプトによる表情の制御

・スクリプトによるポーズ制御

・Gemini APIの実装

・AivisSpeech APIの実装

・Geminiと表情/ポーズ制御の連携


あたりができあがると、

自分の言葉に回答して表情やポーズを変えて口パクで話す…あたりができあがる




Comments


bottom of page