口形素は唇の形をキャプチャしたものです。表情を追加したいなら、さらに形状を追加できます。口による表情を追加するときには注意が必要です。例えば、口形素の形状の上に笑いの表情を追加すると、異様に見えるかもしれません。OVRLipSyncContextMorphTargetスクリプトの[Viseme To Blend Targets (口形素からブレンドターゲット)]に含まれているオプションを使って、必要であれば、リップシンクの15のアウトプットを最初の15以外のブレンドシェイプに割り当てることができます。
[Enable Viseme Test Keys (口形素テストキーを有効にする)]オプションを選択すると、デフォルトでUSレイアウトキーボードのQWERTY列を使用して各口形素を100%反映させるか、または[Viseme Test Keys (口形素テストキー)]を展開してキーを設定できます。
Oculus Native Spatializer for Unityを使用して音源を処理すると、ユーザーは自分の頭の向きと位置に基づいて、3D環境で音声を体験できます。これにより、没入型エクスペリエンスにおけるユーザーの音声体験が劇的に向上します。ただし、発話音声が空間処理されると、発話信号の整合性が影響を受けます。空間処理を行うと必然的に信号にノイズが付加されるため、口形素アウトプットの質が低下します。オーディオの空間化をリップシンクと組み合わせて使用するには、空間化ツールが信号を後処理するように構成し、生インプット信号によって口形素エンジンを同時反映させるようにします。
デフォルトでは、Oculus Native Spatializer for UnityはAudioSourceバッファを処理した後で、OnAudioFilterReadを呼び出します(この関数は、リップシンク機能が有効になっていれば、リップシンク機能を呼び出します)。この順序を変更するには、AudioSourceのspatializePostEffectsフラグをTrueに設定します。このフラグは、Unityスクリプトの関数OnAudioFilterReadで設定できるほか、[Inspector (インスペクター)]ウィンドウでも設定できます。[Spatialize (空間化)]フィールドがオンになっていれば、該当フィールドが表示されます。詳しくは、AudioSource.spatializePostEffectsをご覧ください。