開発
開発
プラットフォームを選択

Unity向けMovement SDKのフェイストラッキング

更新日時: 2025/08/28
フェイストラッキングAPIを利用すると、抽象化された顔の表情データを使ってソーシャルプレゼンスを高めることができます。例えば、フェイストラッキングは、他のユーザーとのバーチャルなやり取りをする際のキャラクターの表情をより自然に見せるのに役立ちます。フェイストラッキングを利用したキャラクターの作成は、大まかには、キャラクターの顔の表情を表すブレンドシェイプを使って表されるキャラクターを作成し、そのブレンドシェイプを含むキャラクターにスクリプトを追加して、APIを読み取り、検出された表情をキャラクターのブレンドシェイプにマッピングする、という手順で構成されます。
フェイストラッキングAPIは、フェイシャルアクションコーディングシステム(FACS)に基づく表情とOculus口形素ベースの表情をサポートします。FACSの表情は、顔のアニメーションに使用される70種類の筋肉を表現します。口形素は、音素を生成する際の(発声時の)口の形を指し、15種類のブレンドシェイプで表現されます。従来のリップシンクライブラリと、このセクションで説明するフェイストラッキングAPIは、同じ15種類のOculus口形素を使用しています。
Quest Proでは、ヘッドセットのセンサーによって検出された顔の動きが、FACSブレンドシェイプの表情のアクティブ化(あごの開閉や鼻のしわなど)に変換されます。他のQuestヘッドセットでは、音声ストリームが分析され、Audio To Expressions(音声の表情への反映)と呼ばれる機能を使用して音声サンプルでトレーニングされた機械学習モデルを活用し、FACSの表情またはOculus口形素に変換されます。
Unityのフェイストラッキングの実装において、これらの表情は、アーティストがキャラクターの顔の表情を表すために作成したFACSベースのブレンドシェイプにマッピングされます。非常にリアルな場合やサンプルにおいては、センサーによって検出される表情のそれぞれについて、対応するブレンドシェイプが1つずつあります。しかし、ヘッドセットを着用している人は、一般に、これらの複数の表情を同時に示すという点を認識することが重要です。例えば、人が笑うと、唇の端を上げることに加えて、頬や目の動作も観察されるでしょう。APIによって、表情の強さに対応する重み値が返されます(眉をわずかに上げるのか、眉を目いっぱい上げるのか、など)。次に、発せられた表情とその重み値のリストを使って、ブレンドシェイプがアクティブ化されます。これらのブレンドシェイプメッシュは表情の強さ(つまり重み)に応じて変形できるので、異なる複数のメッシュの組み合わせで望んでいる効果が生まれます。FACSベースのブレンドシェイプの数と表情の数は、必ずしも一致していなくても構いません。例えば、2つのブレンドシェイプ(ニュートラルとスマイル)を持つシンプルなアバターを作ります。次に、提供されているいくつかの表情(唇の端を上げるなど)をマッピングし、笑顔を検出してスマイルのブレンドシェイプをアクティブ化することができます。
フェイストラッキングAPIには、鼻、口、顎、眉、そして目の周辺など、顔のほとんどの部分を表すFACSベースのブレンドシェイプが用意されています。それにより、笑顔、しかめ面、驚きなどの表情を構成する顔の動きがカバーされます。これにより、開発者は、リアルなVRエクスペリエンスのための高品質な3D表現から、ファンタジーやSF環境向けの高度にスタイル処理された表現に至るまで、さまざまなキャラクターをユーザーに提供できます。
非常にリアルなキャラクターの場合は、顔面アセットを生成し、フェイストラッキングAPIが定義する70種類のFACS表情または15種類の口形素を提供するために、正確なフォトグラメトリーを使うことが特に重要です。それらを組み合わせることにより、スキンメッシュにすることができます。

ポリシーと免責事項

ユーザーが自然な表情機能をオンにしたアプリには、リアルタイムの抽象化された顔の表情データへのアクセス許可が付与されます。このデータは、開発者データ使用ポリシーの下で使用されるユーザーデータです。このデータは、開発者データ使用ポリシーで概説されている用途に限り、使用が許可されます。このデータをデータ使用の禁止行為に使うことは明示的に禁止されています。自然な表情機能では、MetaのフェイストラッキングAPIが利用されています。
フェイストラッキングAPIを使用するには、Oculus SDKライセンス契約開発者データ利用ポリシー、ならびに適用されるすべてのOculusおよびMetaのポリシー、利用規約、条件に従う必要があります。Movementの使用には、適用されるプライバシーおよびデータ保護法が適用される場合があります。
特に、フェイストラッキングAPIによるデータの収集、使用、保持、および処理について明確に説明しているプライバシーポリシーを、一般公開で容易に閲覧できる状態で掲載し、それに準拠する必要があります。プライバシーとデータ保護について適用される法律で義務付けられていることも含め、抽象化された顔の表情データを収集する前に、そのようなデータへのアクセスおよび使用に関する明確で包括的な情報をユーザーに提供し、ユーザーの同意を得ておかなければなりません。
フェイストラッキングAPIの利用がMetaのポリシーを遵守しているかどうかをモニターする権利をMetaが留保していることに注意してください。

既知の問題

既知の問題は次のとおりです。
  • フェイストラッキングAPIの表情に関する信頼性の値が設定されていません。
  • Audio to Expressions: モデルは主に音声入力に基づいてトレーニングされていることから、あくびの動作がキャラクターの口を開く動作として再現されない場合があります。
  • Audio to Expressions: アプリを初めて起動したとき、音声が完全に接続されて顔のアニメーションが動作するまでに最大10秒かかる場合があります。この問題はデバイスの再起動後に確認されています。
  • 視覚ベースのフェイストラッキングと同様、Audio to Expressionsのモデルは、ユーザーが実際に唇をどう動かすかに基づいてトレーニングされています。口形素による動きのような、より誇張した動きを希望する場合は、リターゲティング構成ファイルで乗数を増やすことができます。JSONの構成セクションを参照してください。

フェイストラッキングの統合

このセクションを完了すると、開発者は以下のことができるようになります。
  1. ボディトラッキングをサポートする新プロジェクトを設定する。
  2. フェイストラッキングAPIに直接対応するブレンドシェイプを使用して、フェイストラッキングが有効なキャラクターを設定する。
  3. ARKitブレンドシェイプを使用してキャラクターのフェイストラッキングを有効にする。
  4. 口形素を使用してキャラクターのフェイストラッキングを有効にする。
: 以下の手順を実行する前に、Movement SDKのスタートガイドに示されている前提条件を確認してください。

フェイストラッキングをサポートするプロジェクトを設定する

VR用にプロジェクトを設定したら、以下の手順を実行します。
  1. シーンにOVRCameraRig prefabがあることを確認します。このprefabはPackages/com.meta.xr.sdk.core/Prefabs/OVRCameraRig.prefabにあります。
  2. [Hierarchy (階層)]OVRCameraRigオブジェクトを選択します。次に、[Inspector (インスペクター)]OVRManagerコンポーネントを見つけます。
  3. [Quest Features (Quest機能)]アイテムを展開し、[General (一般)]をクリックします。
  4. ジェスチャーコントロールを使う場合は、[Hand Tracking Support (ジェスチャーコントロールのサポート)][Controllers and Hands (コントローラーと手)]を選択します。
  5. [Face Tracking Support (フェイストラッキングのサポート)][Supported (利用可能)]に設定されていることを確認します。
  6. プロジェクト設定ツールによって診断された問題があれば、それらを修正します。Unityのメニューで[Edit (編集)] > [Project Settings (プロジェクト設定)] > [Meta XR]に移動して、プロジェクト設定ツールにアクセスします。
  7. [Android, Meta Quest (Android、Meta Quest)]プラットフォームタブを選択します。
  8. 問題がある場合は、[Fix All (すべて修正)]をクリックします。詳しくは、プロジェクト設定ツールの使用をご覧ください。
: フェイストラッキング、アイトラッキング、またはジェスチャーコントロールに依存しているプロジェクトの場合、ヘッドセット上でこれらが有効になっていることを確認する必要があります。通常これはデバイスの設定の一部ですが、[Settings (設定)] > [Movement Tracking (動きのトラッキング)]をクリックして、この設定を確認したり変更したりすることができます。

FACSベースのフェイストラッキングを適用するキャラクターを設定する

: 以下のスクリプトの中には、Meta XRオールインワンSDKではなく、サンプル内で配布されているものがあります。それらのスクリプトにアクセスするには、OculusサンプルのGitHubリポジトリをダウンロードする必要があります。これはパッケージとして配布されているので、既存のプロジェクトに追加できます。
  • ステップ1: FACSベースのブレンドシェイプを使用したキャラクター。キャラクターに、フェイストラッキングAPIブレンドシェイプに対応するブレンドシェイプがある場合は(FACSベースのブレンドシェイプを参照)、この手順に従ってください。そうでない場合は、ステップ2に進みます。
    • ステップ1a: [Game Object (ゲームオブジェクト)] > [Movement SDK] > [Face Tracking (フェイストラッキング)] > [Add A2E Face (A2Eフェイスの追加)]に、ヘルパー関数があります。これを基本設定として使用しますが、ブレンドシェイプが予想どおりに連携することを確認するため、ターゲットキャラクターに基づいて検査し変更する必要があります。
  • ステップ2: ARKitブレンドシェイプを使用したキャラクター。ブレンドシェイプを持つキャラクターの顔のスキンメッシュを右クリックし、[Game Object (ゲームオブジェクト)] > [Movement SDK] > [Face Tracking (フェイストラッキング)] > [Add A2E ARKit Face (A2E ARKitフェイスの追加)]にあるARKitヘルパー関数を使用して、ARKitのデフォルトマッピングを確立します。
  • ステップ3: キャラクターにFaceDriverおよびFaceRetargeterComponentのコンポーネントがあり、FaceRetargeterComponentコンポーネントがOVRWeightsProviderを参照していることを確認します。FaceDriverは、フェイストラッキングに応じてアニメーション付きのメッシュを参照する必要があります。
  • ステップ4: キャラクターをテストします。この時点で、使用するキャラクターにヘッドセットを装着してテストする準備が整っているはずです。FaceRetargeterComponentの「Retargeter Config」フィールドは、キャラクターにアニメーションを付ける方法に影響を与えるために変更できるJSONを参照します。
注: まぶたの近くに異常なしわが現れるなど、キャラクターのアニメーション中にキャラクターへのライティングが適切でないことに気付いた場合は、RecalculateNormalsコンポーネントを使用してください。
RecalculateNormalsコンポーネントを構成するには、以下の手順を実行します。
  1. キャラクターのフェイススキンメッシュレンダラーを、[Skinned Mesh Renderer (スキンメッシュレンダラー)]フィールドに割り当てます。
    • 法線再計算が動作するためには、スキンメッシュレンダラーに対して、Movement/PBR (Specular)またはMovement/PBR (Metallic)に基づく互換マテリアルを使う必要があります。
  2. [Recalculate Material (マテリアルを再計算)]のインデックス配列を、法線再計算の実行に必要なマテリアルのインデックスに設定します。「Sub Mesh」配列を使用して、再計算を実行するサブメッシュのインデックスを指定します。
  3. [Duplicate Layer (重複レイヤー)]フィールドを、キャラクターの属するレイヤーに設定します。
  4. [Hidden Mesh Layer Name (非表示メッシュレイヤー名)]フィールドを、カメラによってレンダリングされないレイヤーの名前に設定します。
    • レイヤーが存在しない場合は、[Edit (編集)] > [Project Settings (プロジェクト設定)] > [Tags and Layer (タグとレイヤー)]に移動し、[Layers (レイヤー)]セクションを展開して、空のスロットに新しいレイヤーを作成します(例えば、ユーザーレイヤーフィールドの1つにHiddenMeshのような名前を入力します)。[Hidden Mesh Layer Name (非表示メッシュレイヤー名)]フィールドには、この新しいレイヤー名を使用します。RecalculateNormalsスクリプトにより、このレイヤーのレンダリングを除外するよう、シーン内の全カメラのカリングマスクが変更されます。
  5. [Recalculate Independently (独立して再計算)]フィールドを有効にします。

スクリプトとコンポーネント

このセクションでは、フェイストラッキングのためのブレンドシェイプを定義するOVR Face Expressionsコンポーネントについて簡単に説明します。

OVR Face Expressions

OVRFaceExpressionsコンポーネントは、各フレームの顔の表情のデータをクエリし更新します。OVRFaceExpressionsコンポーネントスクリプトには、顔の表情データにアクセスするためのインデクサーが定義されており、表情データが有効かどうかを示すフィールドValidExpressionsが提供されています。このコンポーネントは、ユーザーがフェイストラッキングのアクセス許可を付与したアプリでのみ動作します。

FaceRetargeterComponent

JSON構成ファイルに基づいてソーストラッキングの重みをターゲットの重みのセットにマッピングするためのリターゲティングWeightsProviderを実装します。このファイル内の各項目は、入力ドライバーのセットと、この特定の組み合わせがマッピングされる出力の重みの組み合わせを定義します。次に、FaceRetargeterComponentクラスはこれらを実装するマッピング関数を作成します。これらの重みの想定されるコンシューマーは、FaceDriverインスタンスです。

FaceDriver

命名規則に基づいてリグのコンセプトを実装し、変形を駆動します。スキンメッシュのリストから抽出されたブレンドシェイプのリストを使用して、RigLogicインスタンスを構築します。このインスタンスは、直接ドライバー信号、中間信号、および補正信号の観点から各名前を解釈し、それらのアクティベーション関数を組み立てます。関連付けられたWeightsProviderからの信号が変形を駆動します。

WeightsProvider

コンシューマーに重み値を提供する抽象クラス。例としては、FaceRetargeterComponentOVRWeightsProviderなどがあります。

JSONの設定

各キャラクターのFaceRetargeterComponentは、[Retargeter Config]フィールドを参照します。このフィールドを使用し、重みによってターゲット(ターゲットとなるFACSベースのブレンドシェイプ)を駆動するドライバー(FaceExpression)を調整することで、キャラクターのパフォーマンスを微調整できます。例えば、[Game Object (ゲームオブジェクト)]->[Movement SDK]->[Face Tracking (フェイストラッキング)]->[Add A2E ARKit Face (A2E ARKitフェイスの追加)]を使用してキャラクターを設定すると、デフォルトのarkit_retarget_a2e_v10.json設定が追加されます。この設定の各エントリーにはFaceExpression名があり、それに続いて、その表情によって動かされるARKitブレンドシェイプ名が記述されます。対応するARKitブレンドシェイプに異なる反応をさせたい場合は、その横にある重みを増やすことができます。必要に応じて、エントリーを削除および追加することで、変更されるFACSベースのブレンドシェイプを変更することもできます。このワークフローは、口形素ベースのブレンドシェイプには適用されません。

口形素ベースのフェイストラッキングを適用するキャラクターを設定する

このセクションでは、口形素対応のブレンドシェイプを持つキャラクターの設定方法について説明します。
口形素を使用するには、上記の手順に従ったうえで、以下を有効にしてください。
  1. [Hierarchy (階層)]の中の[OVRCameraRig]を選択します。[Inspector (インスペクター)][OVR Manager (Script) (OVRマネージャ(スクリプト))]アイテムを見つけます。
  2. [Quest Features (Quest機能)]を展開します。次に、[Experimental (テスト)]をクリックし、[Experimental Features Enabled (テスト機能をオン)]アイテムにチェックマークを付けます。
  3. [Tracking (トラッキング)] > [Face Tracking (フェイストラッキング)]を展開します。次に、[Visual (ビジュアル)][Audio (音声)][Enable visemes (口形素を有効にする)]の各アイテムにチェックマークを付けます。
  4. [Permission Requests On Startup (起動時のアクセス許可リクエスト)]を展開します。次に、[Record Audio for audio base Face Tracking (音声ベースのフェイストラッキング用に音声を録音)]アイテムにチェックマークを付けます。
OVRFaceExpressionsは、口形素にアクセスするための複数のプロパティと関数を提供します。コンポーネントのAreVisemesValidを使用すると、口形素の有効性を確認できます。また、GetVisemeを使用すると、指定したFaceVisemeの重みを取得できます。TryGetFaceVisemeGetVisemeと似ていますが、指定したFaceVisemeが無効な場合はfalseを返します。
口形素をすばやく統合するには、Oculus Samples GitHubパッケージVisemeDriverコンポーネントを使います。これを使用するには、以下の手順に従ってください。
  • ステップ1: 口形素対応のブレンドシェイプを持つ各スキンメッシュレンダラーにVisemeDriverをコンポーネントとして追加します。
  • ステップ2: [Auto Generate Mapping (マッピングを自動生成する)]ボタンをクリックし、スキンメッシュレンダラーのブレンドシェイプを口形素に関連付けます。
    • ステップ2a: [Clear Mapping (マッピングをクリアする)]ボタンを使用すると、これらの関連付けをクリアできます。
  • ステップ3: VisemeDriverコンポーネントで生成されたマッピングを確認し、必要に応じて修正します。
まぶた付近に不自然なしわが発生する場合は、上記で説明したRecalculateNormalsコンポーネントを使用してください。

よくある質問

  1. どのヘッドセットがフェイストラッキングをサポートしていますか?
    内向きのカメラに基づいて顔の動きを推定する自然な表情機能は、Meta Quest Proヘッドセットでのみ利用できます。ただし、Audio To Expressionsは、すべてのMeta Quest 2、Meta Quest 3、Meta Quest 3Sデバイスで同じAPIを使って利用できます。
  2. 既存のブレンドシェイプを、フェイストラッキングAPIが提供するFACSのブレンドシェイプに対応させるにはどうしたらよいですか?
    既存のブレンドシェイプが、OVRFaceで想定されているブレンドシェイプの命名規則とマッチしない場合、ブレンドシェイプを手動で割り当てる必要があります。OVRCustomFaceを継承して、独自のカスタムマッピングを作成することもできます。ブレンドシェイプのビジュアルリファレンスは、動き - フェイスブレンドシェイプのトピックにあります。
  3. 舌のブレンドシェイプはサポートされていますか?
    はい。提供されているFACSブレンドシェイプの中で、舌を突き出したものなど、合計7つの舌のブレンドシェイプがサポートされています。

FACSベースのブレンドシェイプ

ブレンドシェイプ
BROW_LOWERER_LBROW_LOWERER_Rは、眉の部分を寄せて下げ、額の中央部分を下げます。
XR_Face_Expression_2_Brow_Lowerer_L
XR_Face_Expression_2_Brow_Lowerer_R
 
CHEEK_PUFF_LCHEEK_PUFF_Rは、頬に空気を溜め、頬を丸くして外側に広げます。
XR_Face_Expression_2_Cheek_Puff_L
XR_Face_Expression_2_Cheek_Puff_R
 
CHEEK_RAISER_LCHEEK_RAISER_Rは、目の周囲を引き締め、目尻をすぼめます。
XR_Face_Expression_2_Cheek_Raiser_L
XR_Face_Expression_2_Cheek_Raiser_R
 
CHEEK_SUCK_LCHEEK_SUCK_Rは、頬を内側に吸い込み、歯に押し当てて頬にくぼみを作ります。
XR_Face_Expression_2_Cheek_Suck_L
XR_Face_Expression_2_Cheek_Suck_R
 
CHIN_RAISER_BCHIN_RAISER_Tは、顎と下唇の皮膚を押し上げます。唇が触れ合っている場合、下唇から上向きの力が加わり上唇も押し上げます。
XR_Face_Expression_2_Chin_Raiser_B
XR_Face_Expression_2_Chin_Raiser_T
 
DIMPLER_LDIMPLER_Rは、唇の端を歯に押し当て、その際に唇をやや後方に、そして多くの場合は上方向に引き上げます。
XR_Face_Expression_2_Dimpler_L
XR_Face_Expression_2_Dimpler_R
 
EYES_CLOSED_LEYES_CLOSED_Rは、上まぶたを下げて目を覆います。
XR_Face_Expression_2_Eyes_Closed_L
XR_Face_Expression_2_Eyes_Closed_R
 
EYES_LOOK_DOWN_LEYES_LOOK_DOWN_Rは、視線を下に向ける動きに合わせてまぶたを動かします。
XR_Face_Expression_2_Eyes_Look_Down_L
XR_Face_Expression_2_Eyes_Look_Down_R
 
LOOK_LEFT_LLOOK_LEFT_Rは、視線を左に向ける動きに合わせてまぶたを動かします。
XR_Face_Expression_2_Eyes_Look_Left_L
XR_Face_Expression_2_Eyes_Look_Left_R
 
LOOK_RIGHT_LLOOK_RIGHT_Rは、視線を右に向ける動きに合わせてまぶたを動かします。
XR_Face_Expression_2_Eyes_Look_Right_L
XR_Face_Expression_2_Eyes_Look_Right_R
 
LOOK_UP_LLOOK_UP_Rは、視線を上に向ける動きに合わせてまぶたを動かします。
XR_Face_Expression_2_Eyes_Look_Up_L
XR_Face_Expression_2_Eyes_Look_Up_R
 
INNER_BROW_RAISER_LINNER_BROW_RAISER_Rは、眉間と額の部分を持ち上げます。
XR_Face_Expression_2_Inner_Brow_Raiser_L
XR_Face_Expression_2_Inner_Brow_Raiser_R
 
JAW_DROPは、下顎を首に向かって下方向に動かします。
XR_Face_Expression_2_Jaw_Drop
 
JAW_SIDEWAYS_LEFTは、下顎を左方向に動かします。
XR_Face_Expression_2_Jaw_Sideways_Left
 
JAW_SIDEWAYS_RIGHTは、下顎を右方向に動かします。
XR_Face_Expression_2_Jaw_Sideways_Right
 
JAW_THRUSTは、下顎を前方に突き出します。
XR_Face_Expression_2_Jaw_Thrust
 
LID_TIGHTENER_LLID_TIGHTENER_Rは、まぶたの周囲を引き締め、下まぶたの皮膚を目頭に向かって押し上げます。
XR_Face_Expression_2_Lid_Tightener_L
XR_Face_Expression_2_Lid_Tightener_R
 
LIP_CORNER_DEPRESSOR_LLIP_CORNER_DEPRESSOR_Rは、唇の端を下方向に引きます。
XR_Face_Expression_2_Lip_Corner_Depressor_L
XR_Face_Expression_2_Lip_Corner_Depressor_R
 
LIP_CORNER_PULLER_LLIP_CORNER_PULLER_Rは、唇の端を上方向、後方、横方向に引きます。
XR_Face_Expression_2_Lip_Corner_Puller_L
XR_Face_Expression_2_Lip_Corner_Puller_R
 
LIP_FUNNELER_LBLIP_FUNNELER_LTLIP_FUNNELER_RBLIP_FUNNELER_RTは、唇を前方に突き出して外側に広げます。多くの場合、口が丸くなり、唇同士が離れます。
XR_Face_Expression_2_Lip_Funneler_LB
XR_Face_Expression_2_Lip_Funneler_LT
XR_Face_Expression_2_Lip_Funneler_RB
XR_Face_Expression_2_Lip_Funneler_RT
 
LIP_PRESSOR_LLIP_PRESSOR_Rは、上唇と下唇を互いに押し付けます。
XR_Face_Expression_2_Lip_Pressor_L
XR_Face_Expression_2_Lip_Pressor_R
 
LIP_PUCKER_LLIP_PUCKER_Rは、唇の端を内側に引き込み、その過程で唇が突き出るようにします。
XR_Face_Expression_2_Lip_Pucker_L
XR_Face_Expression_2_Lip_Pucker_R
 
LIP_STRETCHER_LLIP_STRETCHER_Rは、唇の端を横方向に引き、唇を伸ばして顎のラインを広げます。
XR_Face_Expression_2_Lip_Stretcher_L
XR_Face_Expression_2_Lip_Stretcher_R
 
LIP_SUCK_LBLIP_SUCK_LTLIP_SUCK_RBLIP_SUCK_RTは、唇を口の中に吸い込みます。
XR_Face_Expression_2_Lip_Suck_LB
XR_Face_Expression_2_Lip_Suck_LT
XR_Face_Expression_2_Lip_Suck_RB
XR_Face_Expression_2_Lip_Suck_RT
 
LIP_TIGHTENER_LLIP_TIGHTENER_Rは、それぞれの唇を水平面上で狭めて引き締めます。
XR_Face_Expression_2_Lip_Tightener_L
XR_Face_Expression_2_Lip_Tightener_R
 
LIPS_TOWARDは、顎の位置に関係なく、強制的に上唇と下唇を触れさせ口を閉じた状態に保ちます。
XR_Face_Expression_2_Lips_Toward
 
LOWER_LIP_DEPRESSOR_LLOWER_LIP_DEPRESSOR_R は、下唇を下方向に引き、さらにわずかに横方向に引きます。
XR_Face_Expression_2_Lower_Lip_Depressor_L
XR_Face_Expression_2_Lower_Lip_Depressor_R
 
MOUTH_LEFTは、唇の左端を左に引き、口の右側を唇の左端に向かって押します。
XR_Face_Expression_2_Mouth_Left
 
MOUTH_RIGHTは、唇の右端を右に引き、口の左側を唇の右端に向かって押します。
XR_Face_Expression_2_Mouth_Right
 
NOSE_WRINKLER_LNOSE_WRINKLER_Rは、鼻の側面、鼻孔、上唇の中央部分を持ち上げます。多くの場合、眉を下げる筋肉と組み合わさり、眉頭が下がります。
XR_Face_Expression_2_Nose_Wrinkler_L
XR_Face_Expression_2_Nose_Wrinkler_R
 
OUTER_BROW_RAISER_LOUTER_BROW_RAISER_Rは、眉尻と額の部分を持ち上げます。
XR_Face_Expression_2_Outer_Brow_Raiser_L
XR_Face_Expression_2_Outer_Brow_Raiser_R
 
UPPER_LID_RAISER_LUPPER_LID_RAISER_Rは、上まぶたを上方向と後方に引き上げ、目を大きく開きます。
XR_Face_Expression_2_Upper_Lid_Raiser_L
XR_Face_Expression_2_Upper_Lid_Raiser_R
 
UPPER_LIP_RAISER_LUPPER_LIP_RAISER_Rは、上唇を持ち上げます(鼻のしわを寄せるというよりも、横に広げます)。
XR_Face_Expression_2_Upper_Lip_Raiser_L
XR_Face_Expression_2_Upper_Lip_Raiser_R
 
TONGUE_TIP_INTERDENTALは、口形素「TH」の発音のように舌先を上げて上の歯に触れさせます。舌が見え、歯のラインよりわずかに突き出ています。
XR_Face_Expression_2_Tongue_Tip_Interdental
 
TONGUE_TIP_ALVEOLARは、口形素「NN」の発音のように、舌先を上げて上の歯の裏に触れさせます。
XR_Face_Expression_2_Tongue_Tip_Alveolar
 
TONGUE_FRONT_DORSAL_PALATEは、口形素「CH」の発音のように、舌の前部を口蓋に押し付けます。
XR_Face_Expression_2_Tongue_Front_Dorsal_Palate
 
TONGUE_MID_DORSAL_PALATEは、口形素「DD」の発音のように、舌の中央を口蓋に押し付けます。
XR_Face_Expression_2_Tongue_Mid_Dorsal_Palate
 
TONGUE_BACK_DORSAL_VELAR は、口形素「KK」の発音のように、舌の奥を口蓋に押し付けます。
XR_Face_Expression_2_Tongue_Back_Dorsal_Velar
 
TONGUE_OUTは、舌を突き出します。
XR_Face_Expression_2_Tongue_Out
 
TONGUE_RETREATは、舌を喉の奥に引き、口形素「AA」の発音のように、舌を下げた状態にします。
XR_Face_Expression_2_Tongue_Retreat

口形素ブレンドシェイプ

口形素音素中程度強調回転
SIL
中性
 
XR_META_Face_Tracking_Viseme_SIL
なし
XR_META_Face_Tracking_Viseme_SIL_rot
PP
p、b、m
put、bat、mat
XR_META_Face_Tracking_Viseme_PP
XR_META_Face_Tracking_Viseme_PP_emp
XR_META_Face_Tracking_Viseme_PP_rot
FF
f、v
fat、vat
XR_META_Face_Tracking_Viseme_FF
XR_META_Face_Tracking_Viseme_FF_emp
XR_META_Face_Tracking_Viseme_FF_rot
TH
th
think、that
XR_META_Face_Tracking_Viseme_TH
XR_META_Face_Tracking_Viseme_TH_emp
XR_META_Face_Tracking_Viseme_TH_rot
DD
t、d
tip、doll
XR_META_Face_Tracking_Viseme_DD
XR_META_Face_Tracking_Viseme_DD_emp
XR_META_Face_Tracking_Viseme_DD_rot
KK
k、g
call、gas
XR_META_Face_Tracking_Viseme_KK
XR_META_Face_Tracking_Viseme_KK_emp
XR_META_Face_Tracking_Viseme_KK_rot
CH
tS、dZ、S
chair、join、she
XR_META_Face_Tracking_Viseme_CH
XR_META_Face_Tracking_Viseme_CH_emp
XR_META_Face_Tracking_Viseme_CH_rot
SS
s、z
sir、zeal
XR_META_Face_Tracking_Viseme_SS
XR_META_Face_Tracking_Viseme_SS_emp
XR_META_Face_Tracking_Viseme_SS_rot
NN
n、l
lot、not
XR_META_Face_Tracking_Viseme_NN
XR_META_Face_Tracking_Viseme_NN_emp
XR_META_Face_Tracking_Viseme_NN_rot
RR
r
red
XR_META_Face_Tracking_Viseme_RR
XR_META_Face_Tracking_Viseme_RR_emp
XR_META_Face_Tracking_Viseme_RR_rot
AA
A:
car
XR_META_Face_Tracking_Viseme_AA
XR_META_Face_Tracking_Viseme_AA_emp
XR_META_Face_Tracking_Viseme_AA_rot
E
e
bed
XR_META_Face_Tracking_Viseme_E
XR_META_Face_Tracking_Viseme_E_emp
XR_META_Face_Tracking_Viseme_E_rot
IH
ih
tip
XR_META_Face_Tracking_Viseme_IH
XR_META_Face_Tracking_Viseme_IH_emp
XR_META_Face_Tracking_Viseme_IH_rot
OH
oh
toe
XR_META_Face_Tracking_Viseme_OH
XR_META_Face_Tracking_Viseme_OH_emp
XR_META_Face_Tracking_Viseme_OH_rot
OU
ou
book
XR_META_Face_Tracking_Viseme_OU
XR_META_Face_Tracking_Viseme_OU_emp
XR_META_Face_Tracking_Viseme_OU_rot
ナビゲーションロゴ
日本語
© 2026 Meta