Nothing Special   »   [go: up one dir, main page]

JP5178607B2 - プログラム、情報記憶媒体、口形状制御方法及び口形状制御装置 - Google Patents

プログラム、情報記憶媒体、口形状制御方法及び口形状制御装置 Download PDF

Info

Publication number
JP5178607B2
JP5178607B2 JP2009087789A JP2009087789A JP5178607B2 JP 5178607 B2 JP5178607 B2 JP 5178607B2 JP 2009087789 A JP2009087789 A JP 2009087789A JP 2009087789 A JP2009087789 A JP 2009087789A JP 5178607 B2 JP5178607 B2 JP 5178607B2
Authority
JP
Japan
Prior art keywords
mouth
sound
mouth shape
vocal tract
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009087789A
Other languages
English (en)
Other versions
JP2010238133A (ja
Inventor
博之 平石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP2009087789A priority Critical patent/JP5178607B2/ja
Priority to US12/732,783 priority patent/US8612228B2/en
Publication of JP2010238133A publication Critical patent/JP2010238133A/ja
Application granted granted Critical
Publication of JP5178607B2 publication Critical patent/JP5178607B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/2053D [Three Dimensional] animation driven by audio data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/10Transforming into visible information
    • G10L2021/105Synthesis of the lips movements from speech, e.g. for talking heads

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、コンピュータに、キャラクタの口形状を変形制御させるためのプログラム等に関する。
従来、ゲームをはじめとするコンピュータグラフィックス(CG)アニメーションや、アバターを利用したチャット、玩具において、人が話した音声をスピーカから再生するのに合わせてキャラクタの口形状を変化させることで、あたかも映像内のキャラクタや玩具のキャラクタが話しているかのように見せることが行われている。
典型的な手法は、対象とする音声をアニメータが聴いて経験則的に口形状を決定し、音声再生と同期可能な口形状の設定データを予め用意する方法である。この手法は、口形状と音声との対応に正確さが欠けるが、比較的簡単に音声再生と同期させてキャラクタの口の形状をそれっぽく変化させることができるので、既存の音声を再生するタイプのゲーム製作や、多くのTVアニメーション製作現場で採用されている。
しかし、映画などに代表されるリアル指向の3DCGや、美術館等における案内装置で表示されるガイドキャラクタ制御では、それっぽく見えるだけの口形状制御では映像品質としては十分とは言えないため、音と口形状とが正しく対応づけられた口形状制御が常に望まれている。
そうした要望に応える技術の一つとしては、例えば、再生する音声から母音を特徴づけるフォルマント情報を抽出して母音を識別変化し、識別した母音に同期する所定のアニメーション画像を選択出力することで、音と口形状とが正しく対応づけられたアニメーション画像を自動生成するものが知られている(例えば、特許文献1を参照)。
また、アバターを利用したチャットシステムにおいて、サーバーが送信側端末より受信した音声を音声認識によって分析して音素に対応するアバターの口形状を決定し、決定した口形状を含む情報を受信端末に送信することで、受信端末で表示制御されるアバターの口唇形状を音声に正しく対応づける技術も知られるところである(例えば、特許文献2を参照)。
特開2003−233389号公報 特開2006−65684号公報
しかしながら、フォルマント情報の抽出や音声認識を利用する方法では、比較的演算処理負荷が高く、また参照する辞書データも大きくなることから、利用可能なシステム構成が限られる問題があった。例えば、前述のチャットシステムに関する従来技術では、高処理能力を有するサーバーで口形状の決定をする構成が例示されているが、サーバー装置ほどの処理能力を要求できないゲーム装置や玩具等へ適用するには演算処理負荷が大きすぎる。
本発明は、こうした事情を鑑みてなされたものであり、その目的とするところは、比較的低演算負荷でありながらも、キャラクタの口形状と音との高い適合率を確保した口形状制御を実現する新しい技術を提供することである。
上記の課題を解決する第1の発明は、コンピュータを、話者が発声した際の声道形状を、当該発声時の音声データを分析して所定の声道モデルの形状を算出することで推定する声道モデル算出手段(例えば、図2の制御ユニット1310、図10の処理部200、声道断面積関数算出部216、図16のステップS50)、
前記声道モデル算出手段により算出された声道モデルの形状に基づいて所定のキャラクタの口を変形させる口形状制御手段(例えば、図2の制御ユニット1310、図10の処理部200、口形状判定部218、パラメータ値補正部220、口形状制御部222、口形状パラメータ値設定データ524、図15のステップS32、ステップS100)
として機能させるためのプログラムである。
また、別形態として、話者が発声した際の声道形状を、当該発声時の音声データを分析して所定の声道モデルの形状を算出することで推定する声道モデル算出ステップと、前記算出された声道モデルの形状に基づいて所定のキャラクタの口を変形させる口形状制御ステップと、を含む口形状制御方法として実現してもよい。
また、更に別形態として、話者が発声した際の声道形状を、当該発声時の音声データを分析して所定の声道モデルの形状を算出することで推定する声道モデル算出手段と、前記声道モデル算出手段により算出された声道モデルの形状に基づいて所定のキャラクタの口を変形させる口形状制御手段と、を備えた口形状音制御装置を実現することとしてもよい。
ここで言う「声道モデル」とは、声帯の振動から放音に至るまでの、発声に関与する人体器官を一つのモデルに単純化したものである。
よって、第1の発明及びその別形態の発明によれば、話者が発声した音声データから声道モデルを求める比較的軽い処理負荷で、音声データの再生と同期するとともに音と口形状とが適合したキャラクタの口形状制御を実現できる。
第2の発明は、前記音声データに基づく音声を出力する音声出力手段(例えば、図2の制御ユニット1310、ヘッドセット1370、図10の処理部200、音生成部250、音出力部350、図15のステップS30)として前記コンピュータを更に機能させ、
前記口形状制御手段が、前記音声出力手段により出力される音声に合わせるように、前記キャラクタの口を変形させるように前記コンピュータを機能させるための第1の発明のプログラムである。
第2の発明によれば、第1の発明と同様の効果を奏するとともに、音声データに基づく音声を出力することができる。しかもこの時、音声出力手段により出力される音声に合わせるように、キャラクタの口を変形させるように制御できる。
また、第3の発明として、第1又は第2の発明のプログラムであって、前記声道モデル算出手段が、前記声道モデルを声道の各部位の断面積で表したモデル(例えば、図6の声道断面積関数54)として算出し、前記口形状制御手段が、前記声道モデル算出手段により算出された声道の各部位(例えば、図6の第1判定ブロック群、第2判定ブロック群、開口断面積)の断面積に基づいて、前記キャラクタの口を変形させるように前記コンピュータを機能させるためのプログラムを構成することもできる。
第3の発明によれば、第1又は第2の発明と同様の効果を奏するとともに、公知の声道断面積関数の算出技術を利用できるので発明の実施がより容易となる。また、声道断面積関数でモデル化された声道モデルでは、基準の音がある特定の音となって放音されると解釈されるので言語種類への依存性が小さい。そのため、音声認識技術を利用する場合のように膨大な辞書データを言語種類別に容易する必要が無く、例えば外国語の音声への対応が容易になる。
そして、口形状の制御については、第4の発明のように、第3の発明のプログラムであって、前記口形状制御手段が、声道の開口部分の面積(例えば、図8、図9の開口面積d3)と、開口部側所定範囲の断面積(例えば、図7の第2判定ブロック群の平均断面積d2)と、喉側所定範囲の断面積(例えば、図7の第1判定ブロック群の平均断面積d1)とを少なくとも用いて前記キャラクタの口を変形させるように前記コンピュータを機能させるためのプログラムを構成してもよい。
第4の発明によれば、第3の発明と同様の効果を奏するとともに、所定箇所や所定範囲の断面積を利用するだけでキャラクタの口形状を制御できるので、演算負荷を低減する効果が期待できる。
より具体的には、第5の発明のように、第4の発明のプログラムであって、前記口形状制御手段が、前記喉側所定範囲の断面積に基づいて、前記キャラクタの口の縦方向の長さを変化させるように前記コンピュータを機能させる構成とすることができる。
更には、第6の発明のように、第5の発明のプログラムであって、前記口形状制御手段が、前記喉側所定範囲の断面積が大きいほど、前記キャラクタの口の縦方向の長さを短くさせるように前記コンピュータを機能させる構成とすることができる。
これらは、喉側所定範囲の断面積が口の縦方向の長さに高い相関性を有し、同断面積が大きいほど口の縦方向の長さが短くなることに気づいた新しい発見に基づくものであり、第5及び第6の発明によれば、演算処理負荷を軽減することができる。
また、第7の発明のように、第4〜第6の何れかの発明のプログラムであって、前記口形状制御手段が、前記開口部側所定範囲の断面積に基づいて、前記キャラクタの口の開口面積を変化させるように前記コンピュータを機能させる構成とすることができる。
これは、開口部側(つまり口側)から所定範囲の断面積と口の開口面積とが高い相関性を有していることに気づいた新しい発見に基づくものであり、第7の発明によれば、演算処理負荷を軽減することができる。
また、擦過音については、第8の発明のように、第1〜第7の何れかの発明のプログラムであって、前記音声データが擦過音相当の音を示していることを検出する擦過音検出手段(例えば、図2の制御ユニット1310、図10の処理部200、口形状判定部218、図18のステップS60)として前記コンピュータを機能させ、
前記口形状制御手段が、前記擦過音検出手段による検出に応じて、前記キャラクタの口の開口面積を非検出時に比べて小さくさせるように前記コンピュータを機能させるためのプログラムを構成することができる。
更には、第9の発明のように、第8の発明のプログラムであって、前記擦過音検出手段が、擦過音の種類を判定する擦過音種類判定手段(例えば、図2の制御ユニット1310、図10の処理部200、口形状判定部218、図18のステップS62)を有し、前記口形状制御手段が前記擦過音種類判定手段により判定された種類に応じて前記キャラクタの口を変形させるように前記コンピュータを機能させるためのプログラムを構成することもできる。
声道断面積関数は、一本の管の喉側から声帯を振動させた基準音を発声させると、口側から有る特定の音となって放音されることを前提とするモデルである。一方、擦過音は舌を口蓋に近づけて声道の途中に極端に狭い部分を形成し、そこに比較的速い空気を通して生成される雑音が元になっている。そのため、声道断面積関数の所定箇所や所定範囲の断面積から関数を利用して擦過音を発する口形状を求めることは非常に難しい。しかしながら、擦過音の声道断面積関数の形状に着目すれば、擦過音を他の音と区別することができる。
よって、擦過音の検出時には開口面積を非検出時より小さくすることで、声道断面積関数を利用する形態をそのままに、自然な擦過音発声時の口形状を実現できる。
同様に、鼻音については、第10の発明のように、第1〜第9の何れかの発明のプログラムであって、前記音声データが鼻音相当の音を示していることを検出する鼻音検出手段(例えば、図2の制御ユニット1310、図10の処理部200、口形状判定部218、図18のステップS66)として前記コンピュータを機能させ、
前記口形状制御手段が、前記鼻音検出手段による検出に応じて、前記キャラクタの口の開口面積を非検出時に比べて小さくさせるように前記コンピュータを機能させるためのプログラムを構成することができる。
更には、第11の発明のように、第10の発明のプログラムであって、前記鼻音検出手段が、鼻音の種類を判定する鼻音種類判定手段(例えば、図2の制御ユニット1310、図10の処理部200、口形状判定部218、図18のステップS68)を有し、
前記口形状制御手段が、前記鼻音種類判定手段により判定された種類に応じて前記キャラクタの口を変形させる、ように前記コンピュータを機能させるためのプログラムを構成してもよい。
声道断面積関数は、一本の管の喉側から声帯を振動させた基準音を発声させると、口側から有る特定の音となって放音されることを前提とするモデルである。一方、鼻音は鼻腔へ空気を抜くことで生成される音であり、実質的に管が2本なければならず、声道断面積関数の前提と異なる。そのため、声道断面積関数の所定箇所や所定範囲の断面積から鼻音を発する口形状を求めることはできない。しかしながら、鼻音発声時の声道断面積関数の形状に着目すれば、鼻音を他の音と区別することができる。
よって、鼻音の検出時には開口面積を非検出時より小さくすることで、声道断面積関数を利用する形態をそのままに、自然な鼻音発声時の口形状を実現できる。
また、第12の発明のように、第1〜第11の何れかの発明のプログラムであって、前記音声データが無音状態を示していることを検出する無音状態検出手段(例えば、図2の制御ユニット1310、図10の処理部200、パラメータ値補正部220、音量履歴データ536、図19のステップS86)として前記コンピュータを機能させ、
前記口形状制御手段が、前記無音状態検出手段による検出が続くにつれて前記キャラクタの口の開口面積を徐々に小さくさせるように前記コンピュータを機能させるためのプログラムを構成してもよい。
第12の発明によれば、第1〜第11の何れかの発明と同様の効果を奏するとともに、無音状態を検知して、無音が続いた後に次第に口が閉じるといった人の自然な口の変化を口形状制御で実現することができる。
また、第13の発明のように、第1〜第12の何れかの発明のプログラムであって、前記口形状制御手段が、前記キャラクタの口形状の急激な変形を抑制する時間遅れ制御処理を実行する遅れ制御処理手段(例えば、図2の制御ユニット1310、図10の処理部200、パラメータ値補正部220、図19のステップS84、S90)を有するように前記コンピュータを機能させるためのプログラムを構成してもよい。
第13の発明によれば、第1〜第12の発明の何れかと同様の効果を奏するとともに、キャラクタの口形状の急激な変形を抑制し、自然な変化を表現できる。
第14の発明は、第1〜第13の何れか一つのプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体である。ここで言う「情報記憶媒体」とは、例えば磁気ディスクや光学ディスク、ICメモリなどを含む。本発明によれば、第1〜第13の何れか一つの発明のプログラムをコンピュータに読み取らせて実行させることによって、コンピュータに第1〜第13の何れか一つの発明と同様の効果を発揮させることができる。
システム構成例を示す図。 業務用ゲーム装置の構成例を示す斜視外観図。 オンラインマルチプレイゲームの概要を説明するための図。 オンラインマルチプレイゲームにおけるゲーム画面例を示す図。 アバターの口形状制御の原理の概要を説明するための概念図。 口形状パラメータ値の算出原理について説明するための図。 声道断面積関数から母音・有声子音に対応する口形状パラメータ値を算出する原理を説明するための図。 声道断面積関数から鼻音に対応する口形状パラメータ値を算出する原理を説明するための図。 声道断面積関数から擦過音に対応する口形状パラメータ値を算出する原理を説明するための図。 第1実施形態の機能構成例を示す機能ブロック図。 プレーヤ情報のデータ構成例を示す図。 アバター設定データのデータ構成例を示す図。 口形状パラメータ値設定データのデータ構成の例を示す図。 マッチングデータのデータ構成の例を示す図。 業務用ゲーム装置で実行される処理の流れを説明するためのフローチャート。 口形状パラメータ値算出処理の流れを説明するためのフローチャート。 音信号前処理の流れを説明するためのフローチャート。 口形状決定処理の流れを説明するためのフローチャート。 口形状補正処理の流れを説明するためのフローチャート。 第2実施形態である玩具の構成例を示す図。 第2実施形態における機能構成例を示す機能ブロック図。 第2実施形態における処理の流れを説明するためのフローチャート。 第2実施形態における口形状決定処理Bの流れを説明するためのフローチャート。 口形状パラメータ値に基づいて制御される変形部位の変形例を示す図。
〔第1実施形態〕
次に、本発明を適用した第1実施形態として、複数のプレーヤが2チームに分かれて対戦するオンラインマルチプレイゲームで使用されるチャットを例に挙げて説明する。
[システムの構成]
図1は、本実施形態におけるシステム構成例を示す図である。同図に示すように、複数の業務用ゲーム装置1300(1300a〜1300h)が、インターネットやローカルネットワーク、専用回線網、その他の回線網、及び通信を仲介する中継装置等で成る通信回線1を介して互いにデータ送受信可能に接続されており、一台の業務用ゲーム装置1300を一人のプレーヤが使用する。本実施形態では4人1チーム合計8人がプレイするために8台の業務用ゲーム装置1300が図示されているが、1チーム当たりの業務用ゲーム装置1300の台数は適宜設定することができる。
データ通信の形式についても適宜設定できる。例えば、ゲームスタート時にマッチングサーバ1400にアクセスして互いのIPアドレス等の情報を取得した後、ピアツーピア形式で実現するとしても良いし、マッチングサーバ1400を使用したクライアント/サーバー型で実現しても良く、公知のオンラインマルチプレイ対応のシステム構成を適宜適用できる。
[業務用ゲーム装置の構成]
図2は、業務用ゲーム装置1300の構成例を示す斜視外観図である。業務用ゲーム装置1300は、ゲーム装置本体1301の前方に突設された操作台1304に、プレーヤが各種操作入力をするためのジョイスティック1306や複数のプッシュスイッチ1308といった入力デバイスを備える。
また、ゲーム装置本体1301の上部には、ゲーム画像を表示させるための液晶パネルディスプレイやCRTといったビデオモニタ1322と、ゲーム音や効果音を放音するスピーカ1324と、携行型の情報記憶媒体であるゲームカード1332からのデータ読み出しや書き込みをするゲームカードリーダライター1330とを備える。
そして、ゲーム装置本体1301の下部及び内部には、コインカウンタ1340と、制御ユニット1310と、図示されない電源装置とを備える。更に、マイク1372とヘッドホン1374を一体に備えたチャット用のヘッドセット1370を備える。
制御ユニット1310は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)及びDSP(Digital Signal Processor)などの各種マイクロプロセッサ、ASIC(Application Specific Integrated Circuit)、ICメモリなどの電気電子機器を備えたいわゆるコンピュータ基板を構成する。また、制御ユニット1310は通信装置1312を備え、インターネットやLAN(Local Area Network)、WAN(Wide Area Network)と言った通信回線1と有線又は無線接続し、外部装置(特に同型の他の業務用ゲーム装置1300やマッチングサーバ1400)との間でデータ通信を実現する。そして、制御ユニット1310は、搭載されているICメモリやハードディスクなどの情報記憶媒体からシステムプログラムやゲームプログラムを読み出して演算処理し、業務用ゲーム装置1300の各部を制御する。
業務用ゲーム装置1300でオンラインマルチプレイゲームをプレイするためには、プレーヤは公知のオンラインマルチプレイゲームと同様に、事前にプレーヤ登録してプレーヤ情報(例えば、ハンドルネーム、使用するキャラクタの種類など)を記憶したゲームカード1332を入手する必要が有る。
ゲームプレイに際しては、業務用ゲーム装置1300のゲームカードリーダライター1330にこれを差し込み、記憶されているプレーヤ情報を読み取らせる必要がある。プレーヤ登録及びゲームカード1332の発行は、公知のように別途専用の登録装置を設けて行うとしても良いし、業務用ゲーム装置1300が行うとしても良い。尚、プレーヤ登録情報はゲームカード1332の他にマッチングサーバ1400においても記憶・管理される。
さて、コインカウンタ1340で所定額のコインの投入を検出したならば、制御ユニット1310がゲームプログラムを読み出して実行し、業務用ゲーム装置1300は本発明を実現するゲーム装置及び本発明が適用された口形状音声同期制御装置として機能する。
業務用ゲーム装置1300は、ゲーム開始に際して先ずゲームカードリーダライター1330でプレーヤのゲームカード1332からプレーヤ情報を読み出す。そして、公知のオンラインマルチプレイゲームと同様にマッチングサーバ1400にアクセスしてマッチング処理を行い、参加する他の業務用ゲーム装置1300(以下、単に「他ゲーム装置」とも言う。)のデータ送信先を特定するための情報(例えばIPアドレス)やプレーヤ情報を取得する。そして、ゲームプレイ中は、ジョイスティック1306やプッシュスイッチ1308に為された操作入力に基づく操作入力コードや、ヘッドセット1370のマイク1372で集音したプレーヤ(話者)の声の音データを他ゲーム装置に所定サイクルで送信する一方、他ゲーム装置から送出された操作入力コードや声データを受信する。
業務用ゲーム装置1300は、他ゲーム装置から受信した操作入力コードと自ゲーム装置への操作入力に基づく操作入力コードとに基づいて、仮想3次元空間内に形成されたゲーム空間に配置されたプレーヤキャラクタの動作等を制御する。そして、その様子を仮想カメラで撮影した画像をゲーム画面として生成し、適当なタイミングでBGMや効果音などのゲーム音を生成する。
生成されたゲーム画面はビデオモニタ1322で表示され、生成されたゲーム音はスピーカ1324で放音される。プレーヤはビデオモニタ1322に映し出されるゲーム画面を見つつ、スピーカ1324から放音されるゲーム音を聞きつつゲームをプレイする。
また、業務用ゲーム装置1300は、音データを受信したならば、ゲーム画面に当該音データの話者であるプレーヤが選択したアバターの顔を映す画像を表示させつつ、音データの再生を行いヘッドホン1374から放音させる。
[ゲーム概要の説明]
図3は、本実施形態におけるオンラインマルチプレイゲームの概要を説明するための図である。本実施形態では、4人1チームを編成し、2チームが一つのゲーム空間10で銃器等の武器を使って交戦する対戦ゲームを実行する。
例えば同図に示すように、仮想方位南北に長い直方体領域をゲーム空間10とし、各所に障害物12を配置するとともに南端及び北端それぞれに各チームの拠点14a、14bを配置する。一方のチームは戦車を含む合計4体のプレーヤキャラクタ20a、20b、20c、20dで編成され、他方のチームも戦車を含む合計4体のプレーヤキャラクタ22a、22b、22c、22dで編成されている。各プレーヤキャラクタは、各業務用ゲーム装置1300でプレイするプレーヤと一対一で対応し、各プレーヤの操作入力に従って行動制御される。
図4は、本実施形態におけるオンラインマルチプレイゲームにおけるゲーム画面例を示す図である。各業務用ゲーム装置1300にて表示されるゲーム画面W2は、各ゲーム装置が対応づけられたプレーヤキャラクタの一人称視点で描かれる。
ゲーム画面内には、方位表示31や、マップ表示部32、照準マーク33、選択武器表示部34、ヒットポイントゲージ36、戦況指数表示部38、チャット画面40が表示される。
ヒットポイントゲージ36は、自プレーヤキャラクタの現在のヒットポイント値を示すゲージである。ヒットポイントが「0」になると戦闘不能になる。
戦況指数表示部38は、味方チームと敵チームとの戦況の優劣具合をバーの長さで示す。バーが中央より右側に伸びていれば味方が優勢、中央より左側なら劣勢に相当する。戦況指数そのものは、チーム対戦形式の公知ゲームの技術を適宜応用できる。例えば各チーム毎の全プレーヤキャラクタのヒットポイント総合計が多い程高く、行動不能なプレーヤキャラクタが多いほど低くなるといった具合に所定のルールで算定され、算定された各チーム毎の指数の比で算出される。
プレーヤは、味方チームの他のプレーヤとチャットしてコミュニケーションをとりながら自プレーヤキャラクタを移動させ、画面内に表示される照準マーク33を視界内の敵チームのプレーヤキャラクタや拠点に合わせ射撃してこれを破壊する。チームを構成するプレーヤキャラクタ全てが戦闘不能になった場合、又は拠点が破壊された場合に、当該チームの負けとなる。
チャット画面40は、チャットが行われるとゲーム画面内に表示されるサブ画面である。チャット画面40には、他ゲーム装置から受信した音データの話者であるプレーヤの代理をするアバター42の正面画像及びアバター呼称44とが表示される。アバター42は、チャットの音データの再生に同期して当該音データを発言しているように口元を含む表情がアニメーションされる。
[アバターの口形状制御の原理の説明]
図5は、本実施形態におけるアバター42の口形状制御の原理の概要を説明するための図である。プレーヤが所定のチャット発言開始操作を入力し、ヘッドセット1370のマイク1372に向けて発言すると、その音声は音データ50として他ゲーム装置へ送信され、受信先で同様の音データとして記憶される。これが、アバター42の口形状を制御するための元になるデータである。
他ゲーム装置から受信した音データ50は、所定時間幅(例えば、1/60秒)で次々に切り出され、切り出された部分52それぞれついて、アバター42の口形状を制御するのに供される口形状パラメータ値が算出される。
本実施形態における口形状パラメータ値の算出に関する設定は、母音・有声子音系の設定と、鼻音系の設定と、擦過音系の設定との3パターンある。その何れかが選択され、選択された設定に従って具体的な口形状パラメータ値が算出される。
アバター42のモデルのうち少なくとも口元部分42m(アバターが発声放音するのに伴って変形する部位)は、算出された口形状パラメータ値に基づいて制御される。そして、その様子を仮想カメラで正面から撮影した画像がレンダリングされ、正面画像としてチャット画面40内に表示される。つまり、プレーヤの肉声の音データ50から、アバター42の口形状を判定し制御するので、単なるそれらしい口パクではなく、まさしくアバター42がしゃべっているかのようにみえるチャット画面40を実現することができる。
図6〜図9は、具体的な口形状パラメータ値の算出原理について説明するための図である。口形状パラメータ値の算出に際しては、先ず図6に示すように、音データ50を走査し、走査された音データ50の部分52ごとに、プレーヤの発声時の声道形状を推定しモデル化した声道断面積関数54を算出する。声道断面積関数54の算出方法は、公知技術を適宜利用することができる。
そして、算出した声道断面積関数54を、口側から喉側へ向けて複数のブロック(例えば、12〜25ブロック程度。同図の例は15ブロック。)に分け、喉側から5〜7ブロック程度を第1判定ブロック群として、当該ブロック群における断面特性に基づいて口形状パラメータ値の一つである「口の縦長さ」を算出する。また、口側から2〜4ブロック程度を第2判定ブロック群として、当該ブロック群における断面特性から口の面積を算出し、この口の面積と先に算出した口の縦長さとから「口の横長さ」を算出する。また更に、声道断面積関数54の口側端の開口断面積に基づいて鼻音の判定をする。
尚、声道断面積関数54を分割するブロックの総数、第1判定ブロック群とするブロック数、第2判定ブロック群とするブロック数の設定は、プレーヤの人種、性別、年齢などの組み合わせに応じて適宜事前にチューニングされる。
図7は、声道断面積関数から母音・有声子音の口形状パラメータ値を算出する原理を説明するための図である。ここでは、母音・有声子音における代表例を挙げている。尚、声道断面積関数54(54a,54b,54c)については実際に人が発する声の特徴が分かりやすいように外形を単純化して示している。
人間の声道周りの構造上、口を縦に大きく開けると喉の面積が小さくなる特徴がある。同図に示すように、実際に人が発する音の代表例「a」「i」「u」と、その時の口の形状56(56a,56b,56c)及び声道断面積関数54(54a,54b,54c)に着目すると、第1判定ブロック群の平均断面積d1が大きい程、口の縦長さが小さくなることが分かる。また、第2判定ブロック群の平均断面積d2が大きい程、口の面積(口の広さ)dmが大きくなることが分かる。
この特徴を利用して、喉の部分の断面積に相当する平均断面積d1から口の縦長さlyを推定する関数を設定できる。本実施形態では、平均断面積d1が大きくなる程、縦長さlyが小さくなるような所定の関数で口の縦長さlyを算出する。同図の例では、平均断面積d1をX軸、口の縦長さlyをY軸とする直交座標系において右下がりの線形関数としているが、グラフが右下がりの関係を実現するならば関数は線形関数に限らない。
そして、口の中の断面積に相当する平均断面積d2と、口の縦長さlyとから口の横長さlxを推定することができる。本実施形態では、平均断面積d2が大きくなる程大きくなるように所定の関数で開口面積dmを求め、開口面積dmと口の縦長さlyから口の横長さlx(=dm/ly)を導く。尚、同図の例では、平均断面積d2をX軸、口の面積dmをY軸とする直交座標系において右上がりの線形関数としているが、グラフが右上がりの関係を実現するならば関数は線形関数以外を適用することができる。また、同図のように平均断面積d2と口の面積dmが線形関係にある場合、lx=k・d2/ly(kは係数)として求める構成としても良い。
図8は、声道断面積関数から鼻音の口形状パラメータ値を算出する原理を説明するための図である。ここでは、鼻音における代表例「m」「n」を挙げている。尚、声道断面積関数54(54d,54e)については実際に人が発する声の特徴が分かりやすいように外形を単純化して示している。
鼻音は、鼻に空気が抜ける音であり、口に空気が抜ける音と同列に声道断面積関数を扱うことはできない。しかし、実際に鼻音から求めた声道断面積関数においては、開口面積d3(d3m、d3n)が、母音・有声子音におけるそれよりも小さくなる特徴がある。本実施形態は、この特徴の有無によって音データ50より切り出された部分52の音が鼻音であるか否かの判定をする。
更に、「m」音は「n」音の時よりも開口面積d3が小さくなる傾向があることに着目して、本実施形態では、所定の基準よりも小さければ「m」の鼻音と判定し、基準よりも大きければ「n」の鼻音と判定する。
また、「m」の鼻音は「n」の鼻音に比べて、声道断面積関数に設定した各ブロックの断面積の変化に着目すると、口側から喉側に向けて緩やかに減少する特徴が有ることを判定条件として利用することもできる。また更には、「n」の鼻音では、口側から5ブロック程度に注目した場合、口側から第1又は第2のブロックまでが、それ以降のブロックに比べて断面積が小さくなる(声道断面積関数54eにおける破線丸印箇所)特徴があるので、これを判定条件として利用することもできる。
そして、「m」の鼻音の場合には、口を閉じた状態となるように口形状パラメータ値を決定し、「n」の鼻音の場合には、僅かに口を開けた状態となるように口形状パラメータ値を決定する。例えば口形状パラメータ値を0(全閉)〜1.0(最大)で表現すると、口の縦長さlyを0.2程度、口の横長さlxを0.4程度とする。
図9は、声道断面積関数54から擦過音(摩擦音とも言う)の口形状パラメータ値を算出する原理を説明するための図である。ここでは、擦過音における代表例として「s」「h」「k」の音を挙げている。尚、声道断面積関数54(54f,54g,54h)については実際に人が発する声の特徴が分かりやすいように外形を単純化して示している。
擦過音は、舌を口蓋に近づけることで声道の途中に非常に狭い部分を作り、そこに呼気を素早く通すことで発生される一種の雑音である。本実施形態では、擦過音の声道断面積関数の形状が、開口面積d3が母音・有声子音におけるそれよりも極端に大きくなるとともに、喉部分の平均断面積係数d1が母音・有声子音におけるそれよりも極端に小さくなる特徴に着目して擦過音であるか否かの判定をする。
更に、平均断面積係数d1が所定の基準値よりも小さい場合を「s」の擦過音と判定する。また、平均断面積係数d1が基準値よりも大きい場合には、口側から数ブロックにかけての声道断面積の減少度合い(図9の破線矢印)を声道断面積減少率とし、これが所定の基準値よりも大きい(減少が急激である)場合を「h」の擦過音と判定し、それ以外を「k」の擦過音と判定する。
そして、それぞれの擦過音には予め所定の口形状パラメータ値が用意されており、これを使用する。具体的には、本実施形態では、0(全閉)〜1.0(最大)として、口の横長さlxを0.1程度、口の縦長さlyを「s」の擦過音で0.5程度、「h」の擦過音で0.7程度、「k」の擦過音で0.8程度とする。
[機能ブロックの説明]
次に、機能構成について説明する。
図10は、本実施形態における機能構成の一例を示す機能ブロック図である。本実施形態では、操作入力部100と、情報記憶媒体リーダライター部130と、処理部200と、音出力部350と、画像表示部360と、通信部370と、記憶部500とを備える。
操作入力部100は、プレーヤによって為された各種の操作入力に応じて操作入力信号を処理部200に出力する。本実施形態では音声入力部110を含む。図2では、ジョイスティック1306、プッシュスイッチ1308、ヘッドセット1370のマイク1372(音声入力部110相当)が操作入力部100に該当する。
情報記憶媒体リーダライター部130は、プレーヤ情報142等を記憶した外部記憶媒体である携行型情報記憶媒体140からデータを読み出したりデータを書き込むことのできる装置である。図2では、ゲームカードリーダライター1330がこれに該当し、例えば、携行型情報記憶媒体140であるゲームカード1332が磁気カードであれば磁気カードリーダーライター装置、ICカードであればICカードリーダーライター装置で実現される。
プレーヤ情報142には、例えば図11に示すように、プレーヤID142aと、プレーヤキャラクタの種類を示す使用キャラクタ種類142bと、チャット画面40(図4参照)においてプレーヤの代理として表示されるアバター42の種類を示すアバターID142cと、プレーヤが事前に決めたアバター呼称142dが格納される。
更に、プレーヤ自身に関する情報として、プレーヤ性別142eと、プレーヤ年齢142f、といった情報が格納されている。その他、プレーヤ自身に関する情報としては人種、方言種類などを設定することもできる。また、公知のオンラインマルチプレイゲームと同様に適宜プレイ履歴に関する情報等を記憶することもできる。
尚、これらの情報管理は、公知のオンラインマルチプレイゲームにおけるプレーヤ情報142の管理と同様に実現される。
処理部200は、例えばマイクロプロセッサやASIC(特定用途向け集積回路)、ICメモリなどの電子部品によって実現され、操作入力部100や記憶部500を含む各機能部との間でデータの入出力を行うとともに、所定のプログラムやデータ、操作入力部100からの操作入力信号に基づいて各種の演算処理を実行して、業務用ゲーム装置1300の動作を制御する。図2では、ゲーム装置本体1301に内蔵された制御ユニット1310が処理部200に該当する。
そして本実施形態における処理部200は、ゲーム演算部210と、音生成部250と、画像生成部260と、通信制御部270とを備える。
ゲーム演算部210は、ゲームの進行に係る処理を実行する。例えば、ゲーム開始前のマッチング処理、操作入力部100からの操作入力に基づく操作入力コードを他ゲーム装置へ送信する処理、ゲーム空間を仮想3次元空間中に形成する処理、仮想3次元空間中に配置された自プレーヤの使用キャラクタや他プレーヤの使用キャラクタの動作制御処理、チャット音声の音データを他ゲーム装置へ逐次送信する処理、チャット画面40の表示制御、それに関するアバターのモデル制御処理が実行対象に含まれる。更に、ヒット判定処理、物理演算処理、参加チームの戦況を示す戦況指数の算出処理、レーダ画面等のゲーム画面を構成する各要素(例えば、図4の方位表示31や、マップ表示部32、ヒットポイントゲージ36、戦況指数表示部38など)の生成に係る処理、などが実行対象に含まれる。
そして、本実施形態のゲーム演算部210は、マッチング処理部212と、音データ処理部214と、声道断面積関数算出部216と、口形状判定部218と、パラメータ値補正部220と、口形状制御部222とを含んでいる。音データ処理部214、声道断面積関数算出部216、口形状判定部218及びパラメータ値補正部220は、口形状パラメータ値算出に関する主要機能部である。
マッチング処理部212は、ゲーム開始に際してマッチングサーバ1400にアクセスしてゲームに参加する互いのIPアドレス等の情報を交換・取得する所謂「マッチング処理」を実行する。本実施形態では1チーム4プレーヤキャラクタで構成され、一方のチームが1号機〜4号機で編成され、他方のチームが5号機〜8号機で編成されるので、自ゲーム装置を含む合計8台分の業務用ゲーム装置のIPアドレス及び各プレーヤのプレーヤ情報などを取得することができる。そして、マッチング処理で得られた情報を、記憶部500にマッチングデータ530として記憶する。
音データ処理部214は、ゲーム装置に送信するために音声入力部110から入力された音声から音データを生成する。また、通信部370を介して他ゲーム装置から受信した音データ534も記憶部500に一時記憶する。そして、音データ534への各種フィルタ処理や音声加工処理、音データ534から口形状パラメータ値算出のための切り出し処理、などを行う。
声道断面積関数算出部216は、音データ処理部214によって音データ534から切り出された部分52(図6参照)について声道断面積関数を算出する。
口形状判定部218は、算出された声道断面積関数から口の形状を判定し、判定した形状を実現するための口形状パラメータ値を暫定的に決定する。
パラメータ値補正部220は、口形状判定部218で暫定的に決定された口形状パラメータ値を補正処理して最終的な口形状パラメータ値とする。具体的には、例えばパラメータ値を所定範囲内にクリッピングして適正化したり、フィルタ処理してパラメータ値の不自然な変動を抑止する。また、音データ534における無声状態を検出し、無声状態への突入タイミング直後に当る口形状パラメータ値を補正・適正化する。
口形状制御部222は、決定された口形状パラメータ値に基づいて、アバター42の口元の形状制御を実行する。本実施形態では、アバター42は3DCGによって描かれるので、口元のポリゴン頂点や口周り等を表す内部骨格モデルを制御する。尚、制御対象は、口元に限らず、発声に伴って変形する部位であれば、頬、鼻周辺などその他の部分を適宜含めることができる。また、口元などの部分を局所的に制御する技術は、3DCGモデルに関する公知技術を適宜利用することで実現できる。
音生成部250は、例えばデジタルシグナルプロセッサ(DSP)などのプロセッサやその制御プログラムによって実現され、ゲーム演算部210による処理結果に基づいてゲームに係る効果音やBGM、各種操作音、チャット音声の音データ534に基づいて音信号を生成し、音出力部350に再生出力する。
音出力部350は、音生成部250から出力された音信号に基づいて効果音やBGM等を音出力する装置によって実現される。図2ではスピーカ1324及びヘッドセット1370のヘッドホン1374がこれに該当する。
画像生成部260は、例えば、GPUやデジタルシグナルプロセッサ(DSP)などのプロセッサ、その制御プログラム、フレームバッファ等の描画フレーム用ICメモリ等によって実現される。画像生成部260は、ゲーム演算部210による処理結果に基づいて1フレーム時間(例えば1/60秒)で1枚のゲーム画像を生成し、生成したゲーム画像の画像信号を画像表示部360に出力する。
画像表示部360は、画像生成部260から出力される画像信号に基づいて各種ゲーム画像を表示する。例えば、フラットパネルディスプレイ、ブラウン管(CRT)、プロジェクター、ヘッドマウントディスプレイといった画像表示デバイスによって実現できる。図2ではビデオモニタ1322が該当する。
通信制御部270は、データ通信に係るデータ処理を実行し、通信部370を介して外部装置(本実施形態では他ゲーム装置)とのデータのやりとりを実現する。
通信部370は、通信回線1と接続して通信を実現する。例えば、無線通信機、モデム、TA(ターミナルアダプタ)、有線用の通信ケーブルのジャックや制御回路等によって実現され、図2では通信装置1312がこれに該当する。
記憶部500は、処理部200に業務用ゲーム装置1300を統合的に制御させるための諸機能を実現するためのシステムプログラムや、ゲームを実行させるために必要なゲームプログラム、各種データ等を記憶する。また、処理部200の作業領域として用いられ、処理部200が各種プログラムに従って実行した演算結果や操作部100から入力される入力データ等を一時的に記憶する。この機能は、例えばRAMやROMなどのICメモリ、ハードディスク等の磁気ディスク、CD−ROMやDVDなどの光学ディスク、磁気カード、ICカードなどによって実現される。
本実施形態では、記憶部500はシステムプログラム501と、ゲームプログラム502とを記憶している。処理部200はゲームプログラム502を読み出して実行することによってゲーム演算部210としての機能を実現する。
本実施形態では更に、ゲームプログラム502がミドルウェアとして口形状パラメータ値算出プログラム504を含んでいる。口形状パラメータ値算出プログラム504は、処理部200に音データ処理部214の機能を実現させるための音データ処理プログラム506と、声道断面積関数算出部216の機能を実現させるための声道断面積関数算出プログラム508と、パラメータ値補正部220の機能を実現させるためのパラメータ値補正プログラム510とを含んでいる。
また、記憶部500には、予め用意されるデータとして、ゲーム空間設定データ518と、キャラクタ設定データ520と、アバター設定データ522と、口形状パラメータ値設定データ524とが記憶されている。更にゲームの進行に伴って生成されたり随時書き換えられるデータとして、マッチングデータ530と、ゲーム進行状況データ532と、音データ534と、音量履歴データ536とを記憶する。また、ゲームの進行に係る処理を実行するにあたり適宜必要となるタイマ値や各種パラメータ値なども記憶される。
ゲーム空間設定データ518には、仮想3次元空間にゲーム空間10(図3参照)を形成するための各種データが格納されている。例えば、ゲーム空間10の境界、障害物12、拠点14a,14bなどのモデルデータやテクスチャデータが含まれる。可動する障害物を設ける場合にはそれらのモーションデータも含まれる。
キャラクタ設定データ520には、ゲーム空間10内に配置されるプレーヤキャラクタ20a〜20d,22a〜22dの種類それぞれについて用意される。キャラクタ設定データ520は、それぞれのキャラクタのモデルデータやテクスチャデータ、モーションデータ、ヒットポイントなどの各種パラメータの初期設定データを格納している。
アバター設定データ522は、アバター42の定義データを格納しており、プレーヤが選択可能な種類の数だけ用意される。
例えば、図12に示すように、一つのアバター設定データ522は、アバターID522aと対応づけて、アバターの3DCGを形成するためのモデルデータ522b、テクスチャデータ522d、モーションデータ522eといったデータを格納する。モデルデータ522bには、発声にともなって変形する部位に関する形状情報として、口元モデルデータ522cが含まれている。尚、アバター42を2D画像として表示する場合には、口元モデルデータ522cに代えて、口元のみの画像を形状別に複数用意して、顔の口部分に張り替えできるようにすると良い。
口形状パラメータ設定値データ524は、想定されるプレーヤ(話者)の性別・年齢から判断される大人か子供の区別などの組み合わせの数だけ用意され、声道断面積関数から口形状パラメータ値を決定するための判定条件や、関数、予め用意されたパラメ−タ値のセットなどを格納する。
また、本実施形態では、口形状パラメータ設定値データ524を予め複数用意する構成としているが、口形状パラメータ設定値データ524はプレーヤの特性や、アバター(キャラクタ)の属性などに応じて、適宜変更可能に構成しても良い。
例えば、図13に示すように、口形状パラメータ値設定データ524は、適用条件を示す情報としての適用性別524aと、年齢524bを含む。その他、年齢層や人種などのデータを含む構成としても良い。更に、母音・有声子音について口形状パラメータ値を決定するための母音有声子音口面積算出関数524c及び母音有声子音口縦長さ算出関数524dを含む。
また、擦過音に関しては、擦過音を判別するための条件及び擦過音の種類を判定するための条件を格納した擦過音判定条件524eと、擦過音の種類毎の口形状パラメータ値を格納する擦過音パラメータ値設定524fとを含む。
また、鼻音に関しては、鼻音を判別するための条件及び鼻音の種類を判定するための条件を格納した鼻音判定条件524gと、鼻音の種類毎の口形状パラメータ値を格納する鼻音パラメータ値設定524hとを含む。
マッチングデータ530は、マッチング処理によって生成されるデータであって、ゲームに参加する全プレーヤに関する情報を格納している。
例えば、図14に示すように、業務用ゲーム装置1300のIPアドレス530aと対応づけて、当該装置を使用するプレーヤの使用する使用キャラクタID530b、アバターID530c、アバター呼称530d、プレーヤ性別530e、プレーヤ年齢530fを格納する。これらの情報は、マッチングされた業務用ゲーム装置1300それぞれを使用するプレーヤのゲームカード1332に記憶されているプレーヤ情報142から読み出され、マッチング処理にともなって配信された情報である。
音量履歴データ536は、音データ534から切り出された音の部分52(図6参照)の音量値の変化を時系列に記憶したデータである。
[動作の説明]
次に、本実施形態における業務用ゲーム装置1300の動作について説明する。
図15は、オンラインマルチプレイゲームを実行するにあたり各業務用ゲーム装置1300で実行される処理の流れを説明するためのフローチャートである。ここで説明される処理は、処理部200がシステムプログラム501、ゲームプログラム502を読み出して実行することによって実現される。
尚、ゲーム空間10を自プレーヤキャラクタの一人称仮想カメラで撮影した画像や、ゲーム画面内に表示されるマップ表示部32等の各種情報表示の生成、合成、画像表示部360への表示出力に係る処理は、公知のビデオゲームと同様に所定サイクルで自動的に行われることとし、ここでの説明は省略する。また、BGMや環境音などのゲーム音の生成と音出力部350での出力制御についても同様である。
処理部200は、先ず情報記憶媒体リーダライター部130で携帯型情報記憶媒体140に記憶されているプレーヤ情報142を読み出し、公知のオンラインマルチプレイゲームと同様に、自プレーヤキャラクタの使用キャラクタ種類の設定処理を行う(ステップS2)。ここでは先に読み出したプレーヤ情報142は、マッチングデータ530の自装置に該当する情報として記憶される。
そして、処理部200はマッチング処理を実行する(ステップS4)。マッチング処理は、公知のオンラインマルチプレイゲームと同様に実現できる。本実施形態では、各プレーヤの使用キャラクタ種類、アバターID、アバター呼称、プレーヤ性別、プレーヤ年齢の情報が、ゲームに参加する業務用ゲーム装置1300間で交換され、記憶部500にマッチングデータ530として格納される。
次に、処理部200は仮想3次元空間にゲーム空間10を形成するとともにプレーヤキャラクタ20a〜20d,22a〜22dを配置し、ゲーム進行状況データ532を初期状態に設定してゲームを開始する(ステップS6)。
ゲームが開始されたならば、以降、処理部200は、ステップS8〜S108の処理を所定の制御サイクル(例えば1/60秒)で繰り返し実行する。
具体的には、処理部200はマッチングした他ゲーム装置へ操作入力部100から入力された操作入力信号に基づく操作入力コードを送信し(ステップS8)、他ゲーム装置から同様にして送出された操作入力コードを受信する(ステップS10)。そして、処理部200は、操作入力部100から入力された操作入力信号に基づく操作入力コードと、他ゲーム装置から受信した操作入力コードとに基づいてゲーム空間10内の各プレーヤキャラクタ20a〜20d,22a〜22dの移動や攻撃など様々な動作を制御する(ステップS12)。
次に、処理部200は操作入力部100からチャットの発言操作(例えば、所定のプッシュスイッチ1308を押下するなど)が為されたことを検知して(ステップS14のYES)、音声入力部110から入力されたプレーヤのチャット音声の音データを生成し(ステップS16)、他ゲーム装置へ生成した音データを送信する(ステップS18)。
また、他ゲーム装置から音データを受信した場合(ステップS20のYES)、処理部200は記憶部500にこの受信した音データ534を一時保存する(ステップS22)。
そして、記憶部500に未再生の音データ534が有れば(ステップS24のYES)、処理部200はチャット画面40(図4参照)が表示されていなければ(ステップS26のYES)、これを表示制御する(ステップS28)。具体的には、マッチングデータ530から未再生の音データ534の送信元に対応づけられたアバターID530cを参照し、該当するアバター設定データ522に基づいて、ゲーム空間10とは別の仮想3次元空間にアバター42のモデルを配置し、ゲーム空間10を撮影するのとは別のサブ仮想カメラで撮影した正面画像をレンダリングして、ゲーム画面の所定位置に表示させる。また、マッチングデータ530から再生中の音データ534の送信元に対応づけられたアバター呼称530dを参照して、正面画像の下方にアバターの識別情報44としてテキスト表示する。
チャット画面を表示したら、処理部200は未再生の音データ534を今回の制御サイクル分だけ再生し(ステップS30)、口形状パラメータ値算出処理を実行する(ステップS32)。
図16は、本実施形態における口形状パラメータ値算出処理の流れを説明するためのフローチャートである。同処理では、処理部200は音信号前処理(ステップS40)、声道断面積関数算出処理(ステップS50)、口形状決定処理(ステップS52)、口形状補正処理(ステップS80)、を順に実行する。
図17は、本実施形態における音信号前処理の流れを説明するためのフローチャートである。同処理では、先ず処理部200は音データ534を読み出してそのサンプリング周波数を声道断面積関数の算出に十分な程度に低減し、以降の演算負荷を軽減する(ステップS42)。例えば、音データ534がCD並のサンプリング周波数であれば、概ね半分まで低減しても良い。
次いで、求められた声道断面積関数に傾斜補正フィルタ処理を実行して、声帯の周波数特性と口からの放射特性を除去する(ステップS44)。傾斜補正フィルタ処理は、公知の処理であるため詳細な説明は省略するが、本実施形態では、例えば6dB/oct程度の補正フィルタを掛ける。
次いで、処理部200は今回の制御サイクルで再生される音データ534の未処理部分の先頭から所定時間幅で部分52(図6参照)を切り出して(ステップS46)、今回切り出された部分の音量を算出し、音量履歴データ536に時系列に格納し(ステップS48)、音信号前処理を終了する。
図18は、本実施形態における口形状決定処理の流れを説明するためのフローチャートである。同処理において、処理部200は先ず、今回の制御サイクルで再生される音データ534の送信元に対応するプレーヤ情報として、マッチングデータ530からプレーヤ性別530eと、プレーヤ年齢530fを参照して、それらの設定に合致する口形状パラメータ値設定データ524を読み出す(ステップS56;図13参照)。
次いで、処理部200は、読み出した口形状パラメータ値設定データ524に従って、先に算出した声道断面積関数における第1判定ブロック群の平均断面積d1と、第2判定ブロック群の平均断面積d2と、開口面積d3とを算出する(ステップS58)。
そして、算出した平均断面積d1、平均断面積d2及び開口面積d3が擦過音の判定条件524eを満たすならば(ステップS60のYES)、処理部200は更に擦過音の種類を判定し(ステップS62)、擦過音パラメータ値設定524fを参照して判定した擦過音の種類に対応する口形状パラメータ値を暫定値として(ステップS64)、口形状決定処理を終了する。
一方、鼻音判定条件524gを満たす場合には(ステップS66のYES)、処理部200は更に鼻音の種類を判定し(ステップS68)、鼻音パラメータ値設定524hを参照して判定した鼻音の種類に対応する口形状パラメータ値を暫定値として(ステップS70)、口形状決定処理を終了する。
また、擦過音の判定条件も鼻音の判定条件も満たさない場合には(ステップS66のNO)、処理部200は母音・有声子音に該当すると判断して、母音有声子音口縦長さ算出関数524dに基づいて平均断面積d1から口の縦長さlyを算出し(ステップS72)、母音有声子音口面積算出関数524cに基づいて平均断面積d2から口の面積dmを算出する(ステップS74)。
そして、口の面積dmと口の縦長さlyとから所定の関数で口の横長さlxを算出する(ステップS76)。そして、それらを暫定値として(ステップS78)、口形状決定処理を終了する。
図19は、本実施形態における口形状補正処理の流れを説明するためのフローチャートである。同処理では、処理部200は先ず、口形状決定処理で暫定値とされた口縦長さly及び口横長さlxをそれぞれの上限値でクリッピングする(ステップS82)。これによって、口を開けたときの大きさを有限とする。
次に、処理部200は、クリッピング補正された口縦長さly及び口横長さlxが、それぞれ直前の制御サイクルで求められた値に対して突発的に大きく変化する要素を除去する(ステップS84)。具体的には、公知のメジアンフィルタ処理を施す。これによって、音データ534からの部分52の切り出しのタイミングによって、偶発的に直前と大きく値の異なるパラメータ値が生じた場合でも、これを補正し、アバター42の口形状が瞬発的に大きくなったり小さくなるといった不具合を防止することができる。
次いで、処理部200は音量履歴データ536を参照して、今回の制御サイクルから過去所定時間内の音量が基準値に達せず、無音状態が継続していると判断できるか否かを判定する(ステップS86)。そして、肯定の場合(ステップS86のYES)、口形状決定処理で決定された口形状パラメータ値を、無音状態の継続時間に応じた所定割合で減少させる(ステップS88)。例えば、1秒当たり70%減で減少させ、口の縦長さlyの最小値を「0」、口の横長さlxの最少値を「0.4」とする。
次いで、処理部200は口形状パラメータ値にローパスフィルタ処理を行って、口元の形状が微細に開閉するといったパラメータ値の不自然な変動を抑止して、最終的な口形状パラメータ値を決定し(ステップS90)、口形状補正処理を終了する。
口形状補正処理が終了したら、本実施形態における口形状パラメータ値算出処理は終了し、図15のフローチャートに戻り、処理部200は決定された口形状パラメータ値に基づいてアバター42の口部分の形状を制御して、再生される音データにアバター42の口元の動きを同期させる(ステップS100)。
次いで、処理部200はゲーム結果の算出処理を実行する(ステップS102)。ゲーム結果の算出処理としては、プレイ時間の算出、プレーヤキャラクタ間の攻撃のヒット判定、被弾に伴うヒットポイントの減算、残弾数の変更、戦況指数の算出などの処理を行い、ゲーム進行状況データ532を更新する。
そして、算出されたゲームの結果が所定のゲーム終了条件を満たしていなければ(ステップS104のNO)、処理部200は自プレーヤキャラクタが戦闘継続可能であるか判定する(ステップS106)。
自プレーヤキャラクタのヒットポイントが「0」になっていなければ戦闘継続可能と判定して(ステップS106のYES)、ステップS8の処理に移行する。戦闘継続不可能であれば(ステップS106のNO)、公知のオンラインマルチプレイゲームと同様にしてゲーム画面表示用の仮想カメラを所定の観戦モードで制御し(ステップS108)、ステップS10に移行する。
一方、ゲーム終了条件を満たしていれば(ステップS104のYES)、処理部200はゲームカード1332に記憶されているプレーヤ情報142を更新して(ステップS110)、所定のゲーム終了処理を実行して(ステップS112)、オンラインマルチプレイゲームに係る一連の処理を終了する。
以上、本実施形態によれば、人の発した音声に合わせた自然な口元の形状制御を実現することができる。
しかも、口形状の制御に用いる口形状パラメータ値を声道断面積関数を元に求める構成とすることで、従来の音声認識を用いて音の種類を判別して口形状を制御する手法に比べて演算負荷を低減することができる。よって、高い処理能力が期待できないゲーム装置においても、リアルタイムでの口形状制御を実現できる。また、音声認識用の膨大な辞書データを保持する必要がないので、巨大な記憶領域を確保する必要が無い。
また、声道断面積関数の特性上、口から発せられる音は言語種類に依存せず声道断面積関数に依存する。従って、従来の音声認識を用いて音の種類を判別して口形状を制御する手法に比べて容易に外国語対応が可能になる。
〔第2実施形態〕
次に、本発明を適用した第2実施形態として、オペレータがヘッドセットに向けて発音した音声を元におしゃべりする玩具を例に挙げて説明する。尚、第1実施形態と同様の構成要素については同じ符合を付与して説明は省略するものとする。
図20は、本実施形態における口形状音声同期制御装置に相当する玩具1000の構成例を示す図である。玩具1000は、台座1001と、その上部立設された立体モデルであるキャラクタ1002と、近距離無線通信機能を有したヘッドセット1370とを有する。尚、ヘッドセット1370については、玩具1000の付属物ではなく、別途用意した汎用のヘッドセットを用いる構成とすることもできる。
キャラクタ1002は、例えばプラスチック製の骨格上に布などの皮膜をかけて作られたヌイグルミ様の外観を有する。口元内部には、口を縦方向に開閉動する電子制御式の縦方向アクチュエータ1004と、口を横方向に開閉動する電子制御式の横方向アクチュエータ1006と、スピーカ1008とを備える。
台座1001は、その内部に、縦方向アクチュエータ1004や横方向アクチュエータ1006を含む玩具1000の各部を電子制御するための制御ユニット1050と、図示されない電源ユニットと、オペレータ2の性別や年齢(大人/子供)などのオペレータ情報(第1実施形態のプレーヤ情報における同様のパラメータに相当)を設定するオペレータ設定ダイヤル1054とを備える。
制御ユニット1050は、第1実施形態の制御ユニット1310に相当する。制御ユニット1050は、近距離無線機能を内蔵したヘッドセット1370と無線通信する近距離無線通信チップ1052を搭載しており、ヘッドセット1370のマイク1372で集音した音声の音声信号を受信することができる。
制御ユニット1050は、ヘッドセット1370から受信したオペレータ2の音声信号をスピーカ1008からキャラクタ1002のおしゃべり声として再生させるとともに、当該音声の音データ534に基づいて口形状パラメータ値を算出する。そして、算出した口形状パラメータ値を元に縦方向アクチュエータ1004及び横方向アクチュエータ1006を制御して、あたかも再生される音声をキャラクタ1002自身が話しているかのようにキャラクタ1002の口元を自然な口形状となるように制御する。
図21は、本実施形態における機能構成例を示す機能ブロック図である。
第1実施形態と比較すると、本実施形態では操作入力部100にオペレータ情報入力部132を備える。図20のオペレータ設定ダイヤル1054が、これに該当する。尚、オペレータ情報入力部132は、第1実施形態と同様に携帯型情報記憶媒体140と情報記憶媒体リーダライター部130とで実現し、携帯型情報記憶媒体140に記憶されているオペレータ情報を読み出す構成とすることもできる。
また、オペレータ2の音声を入力するための音声入力部110は、通信部370と同様の通信部170を備え、集音した音データを通信部370へ送信する。図20では、近距離無線対応のヘッドセット1370が音声入力部110に該当する。
また、本実施形態における処理部200Bは、第1実施形態の処理部200に相当し、記憶部500に記憶されている玩具制御プログラム503を読み込み、それに従って演算処理することによって玩具1000全体を電子制御する。
そして、処理部200Bは、音データ処理部214、声道断面積関数算出部216、口形状判定部218、パラメータ値補正部220、音生成部250、及び通信制御部270を第1実施形態と同様に備えるが、画像生成部260が省略され、第1実施形態の口形状制御部222に代わる機能部として口形状駆動制御部224を含む。
口形状駆動制御部224は、キャラクタ1002の口形状の駆動制御に係る演算処理や駆動制御信号の生成処理を実行し、生成した駆動制御信号を変形部位駆動部380に出力する。
変形部位駆動部380は、各種アクチュエータによって実現され、キャラクタ1002が有する音声の放音に伴って変形する部位を物理的に変形させる。
実施形態における変形部位駆動部380は、第1実施形態と同様に縦横の二つの寸法で開度が決まる口である。よって、口の縦方向への任意の開度を実現する縦方向駆動部382と、口の横方向への任意の開度を実現する横方向駆動部384とを含む。図20の縦方向アクチュエータ1004と横方向アクチュエータ1006とがそれぞれ該当する。
次に、本実施形態における動作を説明する。図22は、本実施形態における処理の流れを説明するためのフローチャートである。個々で説明する一連の処理は、処理部200Bが玩具制御プログラム503を記憶部500より読み出して演算処理することによって実現される。
処理部200Bは、先ずヘッドセット1370からオペレータ2の音声信号を受信した場合(ステップS100のYES)、受信した音声信号から音データ534を生成して記憶部500に一時保存する(ステップS102)。そして、未再生の音データ534がある場合には(ステップS104のYES)、処理部200Bは当該未再生の音データ534を再生するとともに(ステップS106)、口形状パラメータ値算出処理Bを実行する(ステップS108)。
口形状パラメータ値算出処理Bは、第1実施形態における口形状パラメータ値算出処理と基本的には同じであるが、口形状決定処理が僅かに異なる。図23は、本実施形態における口形状決定処理Bの流れを説明するためのフローチャートである。口形状決定処理Bは第1実施形態における口形状決定処理と基本的には同じであるが、第1実施形態のステップS56に代わってステップS57を実行する。
具体的には、処理部200Bは、オペレータ設定ダイヤル1054で設定されているオペレータの性別と年齢に、適用性別524aと年齢524bの設定が合致する口形状パラメータ値設定データ524を記憶部500より読み出し(ステップS57;図13参照)、読み出した同設定データの各種設定に従って、口形状パラメータ値を暫定する(ステップS58〜S78)。
口形状決定処理Bで暫定された口形状パラメータ値は、第1実施形態と同様にして口形状補正処理(ステップS80;図16参照)で補正されて口形状パラメータ値として最終的に決定され、口形状パラメータ値算出処理Bを終了する。
図22のフローチャートに戻って、処理部200Bは次に算出された口形状パラメータ値に基づいて変形部位駆動部380の駆動制御信号を生成し(ステップS110)、生成した信号を出力する(ステップS112)。
よって、本実施形態によればオペレータ2の音声をあたかも自身の口から発しているかのように見せるおしゃべり玩具を実現することができる。その口元の形状は人のそれを正確に再現しており、単にそれらしく見える口の開閉、所謂口パクだけよりもより本物らしく見せることができる。
〔変形例〕
以上、本発明を適用した第1〜第2実施形態について説明したが、本発明の実施形態はこれらに限定されるものではなく、適宜構成要素の変更・追加・省略を行うことができる。
例えば、上記実施形態では業務用ゲーム装置1300の使用を前提としているが、ネットワーク通信機能、特にオンラインマルチプレイゲーム対応の家庭用ゲーム装置や携帯型ゲーム装置、パソコン、携帯電話機などを用いる構成としても良い。
また、上記実施形態では、発声にともなって変形する部位を口として説明しているが、プレーヤやオペレータに代わって発声するキャラクタの設定によってはその他の部位を制御する構成とすることができる。
例えば、図24に示すように、アバター46(46a,46b,46c)がジェルのように不定形で弾性変形する体を有し、その大きさや形状を音に合わせて変化させて会話する設定であれば、口の縦長さly及び口の横長さlxに基づいて縦横の比率や正面投影面積を変化させる構成としても良い。
また、上記実施形態ではプレーヤやオペレータの声は、会話の声を前提として説明しているが、「きゃー!」や「わー!」のような叫び声も対象とすることができる。
また、口形状パラメータ値算出プログラム504(図10参照)及び口形状パラメータ値設定データ524を抜き出して、例えば、CG映像製作における口形状制御のためのミドルウェアとして利用することもできる。
40 チャット画面
42 アバター
50 音データ
52 切り出された部分
54 声道断面積関数
100 操作入力部
110 音声入力部
140 携帯型情報記憶媒体
142 プレーヤ情報
200 処理部
210 ゲーム演算部
212 マッチング処理部
214 音データ処理部
216 声道断面積関数算出部
218 口形状決定部
220 パラメータ値補正部
222 口形状制御部
500 記憶部
502 ゲームプログラム
504 口形状パラメータ値算出プログラム
522 アバター設定データ
524 口形状パラメータ値設定データ
1300 業務用ゲーム装置
1310 制御ユニット
1370 ヘッドセット
1372 マイク
1374 ヘッドホン
ly 口の縦長さ
lx 口の横長さ

Claims (16)

  1. コンピュータを、
    話者が発声した際の声道形状を、当該発声時の音声データを分析して所定の声道モデルの形状を算出することで推定する声道モデル算出手段、
    前記声道モデル算出手段により算出された声道モデルの形状に基づいて所定のキャラクタの口を変形させる口形状制御手段、
    として機能させるためのプログラム。
  2. 前記音声データに基づく音声を出力する音声出力手段として前記コンピュータを更に機能させ、
    前記口形状制御手段が、前記音声出力手段により出力される音声に合わせるように、前記キャラクタの口を変形させるように前記コンピュータを機能させる、
    ための請求項1に記載のプログラム。
  3. 前記声道モデル算出手段が、前記声道モデルを声道の各部位の断面積で表したモデルとして算出し、
    前記口形状制御手段が、前記声道モデル算出手段により算出された声道の各部位の断面積に基づいて、前記キャラクタの口を変形させる、
    ように前記コンピュータを機能させるための請求項1又は2に記載のプログラム。
  4. 前記口形状制御手段が、声道の開口部分の面積と、開口部側所定範囲の断面積と、喉側所定範囲の断面積とを少なくとも用いて前記キャラクタの口を変形させるように前記コンピュータを機能させるための請求項3に記載のプログラム。
  5. 前記口形状制御手段が、前記喉側所定範囲の断面積に基づいて、前記キャラクタの口の縦方向の長さを変化させるように前記コンピュータを機能させるための請求項4に記載のプログラム。
  6. 前記口形状制御手段が、前記喉側所定範囲の断面積が大きいほど、前記キャラクタの口の縦方向の長さを短くさせるように前記コンピュータを機能させるための請求項5に記載のプログラム。
  7. 前記口形状制御手段が、前記開口部側所定範囲の断面積に基づいて、前記キャラクタの口の開口面積を変化させるように前記コンピュータを機能させるための請求項4〜6の何れか一項に記載のプログラム。
  8. 前記音声データが擦過音相当の音を示していることを検出する擦過音検出手段として前記コンピュータを機能させ、
    前記口形状制御手段が、前記擦過音検出手段による検出に応じて、前記キャラクタの口の開口面積を非検出時に比べて小さくさせるように前記コンピュータを機能させる、
    ための請求項1〜7の何れか一項に記載のプログラム。
  9. 前記擦過音検出手段が、擦過音の種類を判定する擦過音種類判定手段を有し、
    前記口形状制御手段が、前記擦過音種類判定手段により判定された種類に応じて前記キャラクタの口を変形させる、
    ように前記コンピュータを機能させるための請求項8に記載のプログラム。
  10. 前記音声データが鼻音相当の音を示していることを検出する鼻音検出手段として前記コンピュータを機能させ、
    前記口形状制御手段が、前記鼻音検出手段による検出に応じて、前記キャラクタの口の開口面積を非検出時に比べて小さくさせるように前記コンピュータを機能させる、
    ための請求項1〜9の何れか一項に記載のプログラム。
  11. 前記鼻音検出手段が、鼻音の種類を判定する鼻音種類判定手段を有し、
    前記口形状制御手段が、前記鼻音種類判定手段により判定された種類に応じて前記キャラクタの口を変形させる、
    ように前記コンピュータを機能させるための請求項10に記載のプログラム。
  12. 前記音声データが無音状態を示していることを検出する無音状態検出手段として前記コンピュータを機能させ、
    前記口形状制御手段が、前記無音状態検出手段による検出が続くにつれて前記キャラクタの口の開口面積を徐々に小さくさせるように前記コンピュータを機能させる、
    ための請求項1〜11の何れか一項に記載のプログラム。
  13. 前記口形状制御手段が、前記キャラクタの口形状の急激な変形を抑制する時間遅れ制御処理を実行する遅れ制御処理手段を有するように前記コンピュータを機能させるための請求項1〜12の何れか一項に記載のプログラム。
  14. 請求項1〜13の何れか一項に記載のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。
  15. 話者が発声した際の声道形状を、当該発声時の音声データを分析して所定の声道モデルの形状を算出することで推定する声道モデル算出ステップと、
    前記算出された声道モデルの形状に基づいて所定のキャラクタの口を変形させる口形状制御ステップと、
    を含む口形状制御方法。
  16. 話者が発声した際の声道形状を、当該発声時の音声データを分析して所定の声道モデルの形状を算出することで推定する声道モデル算出手段と、
    前記声道モデル算出手段により算出された声道モデルの形状に基づいて所定のキャラクタの口を変形させる口形状制御手段と、
    を備えた口形状制御装置。
JP2009087789A 2009-03-31 2009-03-31 プログラム、情報記憶媒体、口形状制御方法及び口形状制御装置 Expired - Fee Related JP5178607B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009087789A JP5178607B2 (ja) 2009-03-31 2009-03-31 プログラム、情報記憶媒体、口形状制御方法及び口形状制御装置
US12/732,783 US8612228B2 (en) 2009-03-31 2010-03-26 Character mouth shape control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009087789A JP5178607B2 (ja) 2009-03-31 2009-03-31 プログラム、情報記憶媒体、口形状制御方法及び口形状制御装置

Publications (2)

Publication Number Publication Date
JP2010238133A JP2010238133A (ja) 2010-10-21
JP5178607B2 true JP5178607B2 (ja) 2013-04-10

Family

ID=42785348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009087789A Expired - Fee Related JP5178607B2 (ja) 2009-03-31 2009-03-31 プログラム、情報記憶媒体、口形状制御方法及び口形状制御装置

Country Status (2)

Country Link
US (1) US8612228B2 (ja)
JP (1) JP5178607B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103250148A (zh) * 2010-11-04 2013-08-14 莱根达姆普罗维塔有限责任公司 用于转录或者转译成音形拼字法的方法和系统
RU2623129C2 (ru) * 2011-10-20 2017-06-22 Конинклейке Филипс Н.В. Система и способ получения характеристик верхних дыхательных путей с использованием характеристик речи
MX353423B (es) 2011-10-20 2018-01-10 Albert Vangura Una herramienta de mano para cortar vidrio laminado.
KR101944846B1 (ko) 2011-10-28 2019-02-01 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
JP2014035541A (ja) * 2012-08-10 2014-02-24 Casio Comput Co Ltd コンテンツ再生制御装置、コンテンツ再生制御方法及びプログラム
JP6180802B2 (ja) 2013-06-07 2017-08-16 任天堂株式会社 情報処理システム、情報処理装置、情報処理プログラム及び情報表示方法
JP2014236874A (ja) 2013-06-07 2014-12-18 任天堂株式会社 情報処理システム、サーバ装置、情報処理装置、サーバプログラム、情報処理プログラム及び情報処理方法
US9776085B2 (en) * 2013-06-07 2017-10-03 Nintendo Co., Ltd. Information processing system, information processing device, server machine, recording medium and information processing method
JP6522092B1 (ja) * 2017-12-06 2019-05-29 株式会社スクウェア・エニックス 表示システム及び表示方法
CN110189554A (zh) * 2018-09-18 2019-08-30 张滕滕 一种语言学习系统的生成方法
US11361760B2 (en) * 2018-12-13 2022-06-14 Learning Squared, Inc. Variable-speed phonetic pronunciation machine
KR102116315B1 (ko) * 2018-12-17 2020-05-28 주식회사 인공지능연구원 캐릭터의 음성과 모션 동기화 시스템
WO2021141964A1 (en) * 2020-01-06 2021-07-15 iiRcade, Inc. Data processing systems and methods for facilitating playing arcade games
CN111603776B (zh) * 2020-05-21 2023-09-05 上海艾为电子技术股份有限公司 音频数据中枪声的识别方法、马达的驱动方法及相关装置
JP7053753B1 (ja) * 2020-10-02 2022-04-12 株式会社スクウェア・エニックス ビデオゲーム処理プログラム、及びビデオゲーム処理システム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4913539A (en) * 1988-04-04 1990-04-03 New York Institute Of Technology Apparatus and method for lip-synching animation
FR2632725B1 (fr) * 1988-06-14 1990-09-28 Centre Nat Rech Scient Procede et dispositif d'analyse, synthese, codage de la parole
US6332123B1 (en) * 1989-03-08 2001-12-18 Kokusai Denshin Denwa Kabushiki Kaisha Mouth shape synthesizing
US5111409A (en) * 1989-07-21 1992-05-05 Elon Gasper Authoring and use systems for sound synchronized animation
US5278943A (en) * 1990-03-23 1994-01-11 Bright Star Technology, Inc. Speech animation and inflection system
US5313522A (en) * 1991-08-23 1994-05-17 Slager Robert P Apparatus for generating from an audio signal a moving visual lip image from which a speech content of the signal can be comprehended by a lipreader
US5943648A (en) * 1996-04-25 1999-08-24 Lernout & Hauspie Speech Products N.V. Speech signal distribution system providing supplemental parameter associated data
US6208356B1 (en) * 1997-03-24 2001-03-27 British Telecommunications Public Limited Company Image synthesis
IT1314671B1 (it) * 1998-10-07 2002-12-31 Cselt Centro Studi Lab Telecom Procedimento e apparecchiatura per l'animazione di un modellosintetizzato di volto umano pilotata da un segnale audio.
US7554542B1 (en) * 1999-11-16 2009-06-30 Possible Worlds, Inc. Image manipulation method and system
JP4032273B2 (ja) * 1999-12-28 2008-01-16 ソニー株式会社 同期制御装置および方法、並びに記録媒体
IT1320002B1 (it) * 2000-03-31 2003-11-12 Cselt Centro Studi Lab Telecom Procedimento per l'animazione di un modello sintetizzato di voltoumano pilotata da un segnale audio.
JP2003233389A (ja) * 2002-02-12 2003-08-22 Yamaha Corp アニメーション画像生成装置、及び同装置を内蔵した携帯電話、並びにアニメーション画像生成方法
US20040030555A1 (en) * 2002-08-12 2004-02-12 Oregon Health & Science University System and method for concatenating acoustic contours for speech synthesis
JP2006065684A (ja) * 2004-08-27 2006-03-09 Kyocera Communication Systems Co Ltd アバタ通信システム
US7536304B2 (en) * 2005-05-27 2009-05-19 Porticus, Inc. Method and system for bio-metric voice print authentication
US8730231B2 (en) * 2007-11-20 2014-05-20 Image Metrics, Inc. Systems and methods for creating personalized media content having multiple content layers

Also Published As

Publication number Publication date
US8612228B2 (en) 2013-12-17
US20100250256A1 (en) 2010-09-30
JP2010238133A (ja) 2010-10-21

Similar Documents

Publication Publication Date Title
JP5178607B2 (ja) プログラム、情報記憶媒体、口形状制御方法及び口形状制御装置
US8830244B2 (en) Information processing device capable of displaying a character representing a user, and information processing method thereof
US10478724B2 (en) Game device, processing method, and information storage medium
JP6727807B2 (ja) ゲーム装置及びプログラム
JP6306442B2 (ja) プログラム及びゲームシステム
CN101410158B (zh) 游戏装置、游戏处理方法
US20100035686A1 (en) Method of controlling computer device, storage medium, and computer device
JP6428066B2 (ja) 採点装置及び採点方法
JP2002351489A (ja) ゲーム情報、情報記憶媒体、及びゲーム装置
CN111953910B (zh) 基于人工智能的视频处理方法、装置及电子设备
JP5441087B2 (ja) プログラム及び画像表示制御装置
JP2017119032A (ja) ゲーム装置及びプログラム
JP6839730B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP2012050791A (ja) キャラクター表示装置、キャラクター表示方法、ならびに、プログラム
EP3964271A1 (en) User input method and apparatus
JP6622832B2 (ja) プログラム及びゲームシステム
JP2012178060A (ja) プログラム、情報記憶媒体及び立体視画像生成装置
CN115083371A (zh) 驱动虚拟数字形象唱歌的方法及其装置
JP3814661B2 (ja) ゲームプログラム及びゲーム装置
JP7118189B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP5120164B2 (ja) 音声制御方法
JP7098098B2 (ja) カラオケシステム、vrコンテンツ用装置及びvrコンテンツ用プログラム
JP5529485B2 (ja) ゲームプログラムおよびゲームシステム
JP7045022B2 (ja) カラオケシステム、vrコンテンツ用装置及びvrコンテンツ用プログラム
JP6813324B2 (ja) 画面制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130108

R150 Certificate of patent or registration of utility model

Ref document number: 5178607

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees