Nothing Special   »   [go: up one dir, main page]

JP7299587B2 - 情報処理装置、発話認識システム及び発話認識プログラム - Google Patents

情報処理装置、発話認識システム及び発話認識プログラム Download PDF

Info

Publication number
JP7299587B2
JP7299587B2 JP2019019139A JP2019019139A JP7299587B2 JP 7299587 B2 JP7299587 B2 JP 7299587B2 JP 2019019139 A JP2019019139 A JP 2019019139A JP 2019019139 A JP2019019139 A JP 2019019139A JP 7299587 B2 JP7299587 B2 JP 7299587B2
Authority
JP
Japan
Prior art keywords
recognition
lip
recognition model
image data
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019019139A
Other languages
English (en)
Other versions
JP2020126492A (ja
Inventor
悠斗 後藤
将樹 能勢
悟 速水
哲嗣 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Tokai National Higher Education and Research System NUC
Original Assignee
Ricoh Co Ltd
Tokai National Higher Education and Research System NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd, Tokai National Higher Education and Research System NUC filed Critical Ricoh Co Ltd
Priority to JP2019019139A priority Critical patent/JP7299587B2/ja
Publication of JP2020126492A publication Critical patent/JP2020126492A/ja
Application granted granted Critical
Publication of JP7299587B2 publication Critical patent/JP7299587B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置、発話認識システム及び音声認識プログラムに関する。
近年の音声認識システムでは、音声情報を補完するために、画像情報を使って発話者の口唇の動きから発話内容を認識する機械読唇技術(リップリーディング)が既に知られている。
また、音声認識に画像情報を用いる技術の1つとして、広角撮影装置で撮像された顔画像を平面正則画像に変換し、参加者と広角撮影装置との距離に応じて、口唇領域を抽出する際の倍率を設定する技術が知られている。
会議等では、話者が着席する位置や姿勢、話者の動き等によって、撮像装置と話者との距離が変化する。そのため、音声情報の補間として入力される画像情報では、話者の口唇領域の大きさが常に一定である保証はなく、認識器へ入力される画像情報の解像度にばらつきが生じ、発話内容の認識の精度を向上させることが困難であった。
開示の技術は、発話内容の認識精度を向上させることを目的とする。
開示の技術は、撮像装置によって撮像された動画データが入力される入力部と、前記動画データに含まれるフレーム毎の画像から、人物の口唇を示す領域を認識し、前記人物の連続した口唇画像を示す口唇領域画像データを抽出する口唇領域抽出部と、前記口唇領域画像データに付与された属性情報に基づき、複数の認識モデルの中から、前記人物の発話内容の認識に用いる認識モデルを選択する認識モデル選択部と、選択された認識モデルを用いて前記人物の発話内容を認識する発話認識部と、前記発話内容の認識結果を出力する出力部と、前記撮像装置と前記人物との距離を異ならせて前記人物を撮像した動画データから抽出された口唇領域画像データを用いて学習させた複数の認識モデルが格納された記憶部と、前記撮像装置と前記人物との距離に応じて、前記複数の認識モデルの中から、発話内容の認識に使用する認識モデルを選択する認識モデル選択部と、を有し、前記認識モデル選択部は、前記連続した口唇画像の横幅の画素数の平均値が所定値未満である場合、発話内容の認識不可とし、前記連続した口唇画像の横幅の画素数の平均値が前記所定値以上であり、且つ、前記所定値より大きい値である第一の値未満である場合に、前記複数の認識モデルの中から、遠距離用の認識モデルを選択し、前記連続した口唇画像の横幅の画素数の平均値が前記第一の値以上であり、且つ、前記第一の値よりも大きい値である第二の値未満である場合に、前記複数の認識モデルの中から、中距離用の認識モデルを選択し、前記連続した口唇画像の横幅の画素数の平均値が前記第二の値以上である場合に、前記複数の認識モデルの中から、近距離用の認識モデルを選択する情報処理装置である。


発話内容の認識精度を向上させることができる。
第一の実施形態の発話認識システムについて説明する図である。 第一の実施形態の情報処理装置のハードウェア構成の一例を示す図である。 第一の実施形態の情報処理装置の機能を説明する図である。 第一の実施形態の情報処理装置の処理を説明する第一のフローチャートである。 第一の実施形態の情報処理装置の処理を説明する第二のフローチャートである。 第一の実施形態の口唇画像を説明する図である。 第一の実施形態の認識モデルの選択について説明する図である。 第一の実施形態の認識モデルについて説明する第一の図である。 第一の実施形態の認識モデルについて説明する第二の図である。 第二の実施形態の情報処理装置の機能を説明する図である。 第二の実施形態の情報処理装置の処理を説明する第一のフローチャートである。 第二の実施形態の認識モデルについて説明する第一の図である。 第二の実施形態の認識モデルについて説明する第二の図である。 第三の実施形態の認識モデルの選択について説明する図である。
(第一の実施形態)
以下に図面を参照して、第一の実施形態について説明する。図1は、第一の実施形態の発話認識システムについて説明する図である。
本実施形態の発話認識システム100は、情報処理装置200と、撮像装置300とを有する。発話認識システム100において、情報処理装置200と撮像装置300とは、有線又は無線にて接続されている。
図1では、3名の参加者A、B、Cによる会議が開催されており、参加者A、B、Cのそれぞれの発話内容を発話認識システム100によって認識する例を示している。
情報処理装置200は、発話内容の認識を始めとする、システムの基本制御を行う。尚、情報処理装置200は、例えば、ネットワークやインターネットに接続されており、ネットワーク上のサーバや、インターネット上のクラウドサーバへ、撮像装置300が撮像したが画像データを送信しても良い。この場合、情報処理装置200は、サーバやクラウドサーバにおいて行われた発話内容の認識結果を受信しても良い。
本実施形態の情報処理装置200は、参加者の発話内容の認識結果を、表示装置400に表示させることで、発話内容を可視化する。また、本実施形態の情報処理装置200は、発話内容の認識結果をテキストデータとして保持し、任意のタイミングで、テキストデータを議事録として出力しても良い。任意のタイミングとは、例えば、会議が終了したとき等である。
表示装置400は、例えば、電子黒板であっても良いし、ディスプレイであっても良い。また、図1の例では、表示装置400は発話認識システム100に含まれるものとしたが、これに限定されず、表示装置400は、発話認識システム100に含まれていなくても良い。
本実施形態の発話認識システム100では、参加者の音声認識に、撮像装置300と参加者との距離に応じた認識モデル(認識器)を用いる。
この認識モデルは、予め様々な距離で撮像された、解像度の異なる話者の口唇領域の画像データを用いて、距離毎に学習したものであり情報処理装置200が有していてもよい。
本実施形態の情報処理装置200は、参加者と撮像装置300との距離に応じた認識モデルを用いることで、その距離における発話内容の認識精度を向上させることができる。
図2は、第一の実施形態の情報処理装置のハードウェア構成の一例を示す図である。本実施形態の情報処理装置200は、それぞれバスBで相互に接続されている入力装置21、出力装置22、ドライブ装置23、補助記憶装置24、メモリ装置25、演算処理装置26及びインターフェース装置27を含む。
入力装置21は、各種の情報の入力を行うための装置であり、例えば、キーボードやポインティングデバイス等により実現される。また、入力装置21は、撮像装置300が撮像した画像データを入力させるインターフェース等であっても良い。
出力装置22は、各種の情報の出力を行うためものであり、例えばディスプレイ等であっても良いし、表示装置400に情報を出力するためのインターフェースであっても良い。インターフェース装置27は、LANカード等を含み、ネットワークに接続する為に用いられる。
本実施形態の発話認識プログラムは、情報処理装置200を制御する各種プログラムの少なくとも一部である。発話認識プログラムは、例えば、記憶媒体28の配布やネットワークからのダウンロード等によって提供される。発話認識プログラムを記録した記憶媒体28は、CD-ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的或いは磁気的に記録する記憶媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記憶媒体を用いることができる。
また、発話認識プログラムは、発話認識プログラムを記録した記憶媒体28がドライブ装置23にセットされると、記憶媒体28からドライブ装置23を介して補助記憶装置24にインストールされる。ネットワークからダウンロードされた発話認識プログラムは、インターフェース装置27を介して補助記憶装置24にインストールされる。
補助記憶装置24は、インストールされた発話認識プログラムを格納すると共に、必要なファイル、データ等を格納する。メモリ装置25は、情報処理装置200の起動時に補助記憶装置24から発話認識プログラムを読み出して格納する。そして、演算処理装置26はメモリ装置25に格納された発話認識プログラムに従って、後述するような各種処理を実現している。
次に、図3を参照して、本実施形態の情報処理装置200の機能について説明する。図3は、第一の実施形態の情報処理装置の機能を説明する図である。
本実施形態の情報処理装置200は、映像入力部210、人物領域認識部211、画像補正部212、顔領域認識部213、口唇領域抽出部214、口唇画素数算出部215、認識モデル選択部216、口唇画素数変換部217、口唇特徴量算出部218、発話内容認識部219、テキスト出力部220を有する。
これらの各部は、情報処理装置200の演算処理装置26が、メモリ装置25に格納された発話認識プログラムを読み出して実行することで実現される。
また、情報処理装置200は、記憶部230を有する。記憶部230は、例えば、情報処理装置200のメモリ装置25や補助記憶装置24等によって実現される。
記憶部230には、認識モデル231、232、233が格納されている。認識モデル231は、撮像装置300と話者との距離が近距離とされる場合に用いられる。認識モデル232は、撮像装置300と話者との距離が中距離とされる場合に用いられる。認識モデル233は、撮像装置300と話者との距離が遠距離とされる場合に用いられる。
本実施形態の映像入力部210は、撮像装置300によって撮像された映像データ(動画データ)を取得する。人物領域認識部211は、取得した映像データにおける連続したフレーム画像において、人物がいる領域を認識し、その領域を画像データとして抽出する。以下の説明では、人物領域認識部211によって抽出された画像データを人物領域画像データと呼び、人物領域画像データが示す画像を人物画像と呼ぶ。
画像補正部212は、人物領域画像データが明るすぎたり、暗すぎたりした場合に、明度補正を行う。明度補正方法については既存の一般技術を用いればよい。
また、撮像装置300が全天球カメラである場合、2つのレンズによって取得した2枚の超広角画像を結合し、1枚の画像として扱うことが一般的である。その画像がEquirectangular形式であることも一般的であり、その場合、指定された補正位置を中心に遠近補正すれば、歪みのない画像として処理することができる。
本実施形態の画像補正部212は、人物領域認識部211によって認識された座標を中心に遠近補正をすることで、人物領域画像データが示す画像を、人物の領域を歪みのない画像として取得する。
顔領域認識部213は画像補正部212によって歪みが補正された人物領域画像データから、人物の顔を認識し、顔領域の画像データを抽出する。以下の説明では、顔領域認識部213によって抽出された画像データを顔画像データと呼び、顔画像データが示す画像を顔画像と呼ぶ。
顔領域認識部213による顔認識のアルゴリズムとしては、Haar-Like特徴量分類器や、HOG特徴量を用いた識別器等、既存の様々な手法があるのでそれらを使用すればよい。
口唇領域抽出部214は、顔画像データから、口唇領域の画像データを抽出する。以下の説明では、口唇領域抽出部214によって抽出された画像データを、口唇領域画像データと呼び、口唇領域画像データが示す画像を口唇画像と呼ぶ。尚、口唇領域画像データには、複数の口唇画像を示すデータであって良い。
口唇領域抽出部214は、例えば、顔領域認識部213による顔認識に、口唇領域のランドマーク数箇所がわかるような識別器を用いることで、その認識結果から口唇領域画像データを抽出することができる。
本実施形態では、上述した処理をフレーム毎に連続的に実行することで、映像入力部210に入力された映像データから、口唇画像を連続した画像として取得することができる。
口唇画素数算出部215は、連続した口唇画像のそれぞれの横幅の画素数の平均値を算出し、この平均値を、口唇領域画像データの属性情報として、口唇領域画像データに付与する。つまり、口唇画素数算出部215は、口唇領域画像データに属性情報を付与する属性付与部として機能する。
連続した口唇画像とは、映像データ(動画データ)のフレーム毎の画像から抽出された複数の口唇画像群である。
認識モデル選択部216は、口唇画素数算出部215によって算出された平均値に応じて、記憶部230に格納された認識モデル231、232、233の中から、発話内容の認識に使用する認識モデルを選択する。言い換えれば、認識モデル選択部216は、口唇領域画像データに付与された属性情報に基づき、認識モデルを選択する。
連続した口唇画像の横幅の画素数の平均値は、撮像装置300と話者(参加者)との間の距離に相当する。したがって、認識モデル選択部216は、撮像装置300と話者(参加者)との間の距離に応じて、認識モデルを選択している。
口唇画素数変換部217は、認識モデル選択部216によって選択された認識モデルに合わせるように、連続した口唇画像の画素数を変換する。
口唇特徴量算出部218は、連続する口唇画像から、空間的な情報、及び時間的な情報を特徴量として取得する。具体的には、本実施形態の特徴量は、一定期間の連続した口唇画像の横幅の画素数と縦幅の画像数とが示す画像の8ビットのRGB値とした。
発話内容認識部219は、口唇特徴量算出部218が取得した特徴量と、認識モデル選択部216によって選択された認識モデルとに基づき、話者の発話内容を認識する。
テキスト出力部220は、発話内容認識部219による認識結果をテキストデータとして、表示装置400等に出力する。
尚、図3の例では、認識モデル231、232、233は、情報処理装置200の有する記憶部230に格納されるものとしたが、これに限定されない。認識モデル231、232、233は、情報処理装置200以外の装置に格納されていても良い。
次に、図4を参照して、第一の実施形態の情報処理装置200の処理について説明する。図4は、第一の実施形態の情報処理装置の処理を説明する第一のフローチャートである。
本実施形態の情報処理装置200は、映像入力部210により、撮像装置300が撮像した映像データを取得する(ステップS401)。
続いて、情報処理装置200は、ステップS403以降の処理をN回繰り返すループを開始する(ステップS402)。
情報処理装置200は、人物領域認識部211により、映像入力部210が取得した映像データから、1フレームの画像データを取得する(ステップS403)。続いて、人物領域認識部211は、1フレームの画像データから、人物がいる領域を認識し、人物領域画像データを抽出する(ステップS404)。
尚、本実施形態の人物領域認識部211は、人物領域画像データの矩形領域の画像データとして抽出する。また、ここでは説明の簡略化のために1人分の認識処理のみについて説明するが、複数の人物が認識される場合も想定される。その場合、この一連の認識処理、及び抽出処理は人数分逐次的、もしくは並列に処理する。
続いて、情報処理装置200は、画像補正部212により、人物領域画像データの歪み等を補正する(ステップS405)。続いて、情報処理装置200は、顔領域認識部213により、補正された人物領域画像データから、顔領域を認識し、顔領域画像データを抽出する(ステップS406)。
続いて、情報処理装置200は、口唇領域抽出部214により、顔領域画像データから、口唇領域を認識し、口唇領域画像データを抽出する(ステップS407)。続いて、口唇領域抽出部214は、口唇画像データをバッファに追加する(ステップS408)。
情報処理装置200は、ステップS403からステップS409の処理をN回繰り返す(ステップS409)。
具体的には、例えば、情報処理装置200は、ステップS403からステップS409の処理を150回程度繰り返す。この場合、例えば、フレームレートが30fpsの場合、4秒分の連続した口唇領域画像データがバッファに格納されることになる。ステップS403からステップS409の処理の詳細は後述する。尚、本実施形態の口唇領域画像データは、複数の連続した口唇画像を示す複数の画像データを含む。
続いて、情報処理装置200は、口唇画素数算出部215により、バッファに格納された連続した口唇画像の横幅の画素数の平均値wを算出し、取得する(ステップS410)。
続いて、情報処理装置200は、認識モデル選択部216により、平均値wに応じた認識モデルを選択する処理を行う。
つまり、本実施形態では、連続した口唇画像の横幅の画素数の平均値wは、認識モデル選択部216が認識モデルを選択する際に参照される属性情報である。この平均値wは、連続する口唇画像を示す口唇領域画像データに付与されて保持されても良い。
具体的には、情報処理装置200は、認識モデル選択部216により、平均値wが10ピクセル未満であるか否かを判定する(ステップS411)。
ステップS411において、平均値wが10ピクセル未満である場合、認識モデル選択部216は、口唇画像が小さすぎるために、認識不可とし、連続した口唇画像を格納したバッファをリセット(ステップS412)して、ステップS402へ戻る。口唇画像が小さすぎる場合とは、話者が撮像装置300から遠すぎる場合である。
ステップS411において、平均値wが10ピクセル未満である場合、認識モデル選択部216は、平均値wが10ピクセル以上25ピクセル未満であるか否かを判定する(ステップS413)。
ステップS413において、平均値wが10ピクセル以上25ピクセル未満である場合、認識モデル選択部216は、記憶部230に格納された認識モデルのうち、認識モデル231を設定し(ステップS414)、後述するステップS418へ進む。言い換えれば、認識モデル選択部216は、バッファに格納された連続する口唇画像を示す口唇領域画像データに付与された属性情報である平均値wに応じて、認識モデル231を選択する。
認識モデル231は、口唇領域の大きさが小さく、話者から撮像装置300までの距離が遠いものの、認識可能である場合に選択される、遠距離用の認識モデルである。
ステップS413において、平均値wが10ピクセル以上25ピクセル未満でない場合、つまり、平均値wが25ピクセル以上である場合、認識モデル選択部216は、平均値wが25ピクセル以上40ピクセル未満であるか否かを判定する(ステップS415)。
ステップS415において、平均値wが25ピクセル以上40ピクセル未満である場合、認識モデル選択部216は、記憶部230に格納された認識モデルのうち、認識モデル232を設定し(ステップS416)、後述するステップS418へ進む。
認識モデル232は、口唇領域の大きさが中程度であり、話者から撮像装置300までの距離が中程度である場合に選択される、中距離用の認識モデルである。
ステップS415において、平均値wが10ピクセル以上25ピクセル未満でない場合、つまり、平均値wが40ピクセル以上である場合、認識モデル選択部216は、認識モデル233を設定し(ステップS417)、後述するステップS418へ進む。
認識モデル233は、口唇領域が大きく、話者から撮像装置300までの距離が近い場合に選択される、近距離用の認識モデルである。
続いて、情報処理装置200は、口唇画素数変換部217により、選択された認識モデルに応じて、バッファに格納された連続する口唇画像をリサイズする(ステップS418)。
本実施形態の認識モデル231、232、233は、それぞれが、遠距離画像、中距離画像、近距離画像を使って深層学習によって調整されたネットワークのパラメータである。
遠距離用の認識モデル231へ入力される画像データが示す画像の横幅は10ピクセルである必要がある。同様に、中距離用の認識モデル232へ入力される画像データが示す画像の横幅は30ピクセル、認識モデル233へ入力される画像データが示す画像の横幅は50ピクセルである必要がある。
本実施形態の口唇画素数変換部217は、口唇画像を示す画像データを、選択された認識モデルに入力できるように、口唇画像のリサイズを行う。具体的には、口唇画素数変換部217は、口唇画像の解像度を変換すれば良い。
続いて、情報処理装置200は、口唇特徴量算出部218により、口唇画像の特徴量を取得する(ステップS419)。
続いて、情報処理装置200は、発話内容認識部219により、選択された認識モデルに、リサイズされた口唇画像データと、特徴量とを入力して発話内容の認識を行う(ステップS420)。
続いて、情報処理装置200は、テキスト出力部220により、認識結果をテキストデータとして、表示装置400等に出力し(ステップS421)、バッファをリセットする(ステップS422)。
続いて、情報処理装置200は、処理の終了指示を受け付けたか否かを判定する(ステップS423)。ステップS423において、処理の終了指示を受け付けた場合、情報処理装置200は、処理を終了する。ステップS423において、終了指示を受け付けない場合、情報処理装置200は、ステップS402へ戻る。
次に、図5を参照して、図4で示したループ処理について、さらに説明する。図5は、第一の実施形態の情報処理装置の処理を説明する第二のフローチャートである。
本実施形態の情報処理装置200は、認識モデルに入力するために必要な口唇画像の枚数をカウントするためのカウンタの値を初期化する(ステップS501)。
続いて、情報処理装置200は、映像入力部210により、撮像装置300によって撮像された映像データを取得する(ステップS502)。
続いて、情報処理装置200は、人物領域認識部211により、1フレーム分の画像を取得し、画像内の人物を認識する(ステップS503)。
続いて、情報処理装置200は、ステップS503において、人物が認識されたか否かを判定する(ステップS504)。ステップS504において、人物が認識されない場合、人物領域認識部211は、話者最終位置情報の参照可能か否かを判定する(ステップS505)。話者最終位置情報とは、映像データに含まれる何れかの画像において、話者が最後に認識された位置を示す情報である。
ステップS505において、話者最終位置情報が参照できない場合、つまり、話者最終位置情報が初期値であった場合、情報処理装置200は、話者がその周辺にいないものとして、ステップS501へ戻る。
ステップS505において、話者最終位置情報が参照できる場合、情報処理装置200は、後述するステップS507へ進む。
ステップS504において、人物が認識された場合、人物領域認識部211は、この人物と対応する話者最終位置情報を更新する(ステップS506)。
続いて、人物領域認識部211は、画像データから、話者最終位置情報に基づき、人物領域を特定し、人物画像を示す人物領域画像データを抽出する(ステップS507)。尚、情報処理装置200は、人物領域画像データを抽出した後に、画像補正部212により補正を行う。
続いて、情報処理装置200は、顔領域認識部213により、人物領域画像データに対して顔認識を行い(ステップS508)、顔が認識されたか否かを判定する(ステップS509)。
ステップS509において、顔が認識されない場合、顔最終位置情報の参照が可能か否かを判定する(ステップS510)。顔最終位置情報とは、人物画像において、話者の顔が映っている最終位置を示す情報である。ステップS510において、顔最終位置情報が参照できない場合、情報処理装置200は、ステップS501へ戻る。
ステップS510において、顔最終位置情報の参照が可能な場合、情報処理装置200は、後述するステップS512へ進む。
ステップS509において、顔を認識した場合、顔領域認識部213は、顔最終位置情報に基づき、人物領域画像データから、顔画像を示す顔領域画像データを抽出する(ステップS512)。
続いて、情報処理装置200は、口唇領域抽出部214により、顔領域画像データから、口唇画像を示す口唇領域画像データを抽出する(ステップS513)。続いて、情報処理装置200は、取得済みの現在のフレーム数を数えるために、カウンタの値に1を追加し(ステップS514)、口唇領域画像データをバッファに追加する(ステップS515)。
続いて、情報処理装置200は、取得済みのフレーム数が、認識モデルに入力するために必要なフレーム数に達したか否かを判定する(ステップS516)。言い換えれば、情報処理装置200は、カウンタの値が、認識モデルに入力するために必要なフレーム数に達したか否かを判定する。尚、図5の例では、認識モデルに入力するために必要なフレーム数を150としが、これに限定されない。
ステップS516において、必要なフレーム数に達していない場合、情報処理装置200は、ステップS502へ戻る。
ステップS516において、必要なフレーム数に達していた場合、情報処理装置200は、次の話者のデータ揃えるために、話者最終位置情報を初期化する(ステップS517)。続いて、情報処理装置200は、顔最終位置情報を初期化して(ステップS518)、一回の発話認識に対する処理を終了する。
このように、本実施形態では、発話毎に、話者と撮像装置300との距離を示す口唇画像の横幅に応じて、発話認識に用いる認識モデルを選択して発話認識を行うため、読唇による発話認識の精度を向上させることができる。また、本実施形態を、音声情報を用いた発話認識と組み合わせることで、発話認識の精度を向上させることができる。
次に、図6を参照して、本実施形態の口唇画像について、さらに説明する。図6は、第一の実施形態の口唇画像を説明する図である。
図6に示す画像61は、全天球カメラである撮像装置300によって撮像された画像の一例を示している。この画像61は、Equirectangular形式の歪んだ画像である。
画像61では、会議の参加者(話者)A、B、Cの3人がテーブルを囲んでおり、撮像装置300から近い位置に参加者A、中程度の位置に参加者B、遠い位置に参加者Cが着席している。
本実施形態では、画像61に対して、人物領域認識部211による人物領域認識処理を行うことで、矩形の人物画像611、612、613を示す人物領域画像データが抽出される。
ここで、人物画像611、612、613は歪んだ画像であるため、画像補正部212は、人物画像の中心座標を元に遠近補正を行う。この補正によって、歪みのある人物画像611、612、613は、歪のない補正済み人物画像611A、612A、613Aとなる。
本実施形態では、この補正済み人物画像611A、612A、613Aに対して、顔領域認識部213による顔領域認識処理を行って、顔画像を示す顔領域画像データを抽出し、さらに顔領域画像データに対して、口唇領域抽出部214による口唇領域認識処理を行う。
その結果、口唇領域抽出部214は、口唇画像621、622、623を示す口唇領域画像データが抽出される。
次に、図7を参照して、認識モデル選択部216による認識モデルの選択について説明する。図7は、第一の実施形態の認識モデルの選択について説明する図である。
本実施形態では、連続する口唇画像の横幅の画素数の平均値が10ピクセル未満の場合、認識不可として認識モデルの適用範囲外となる。
また、本実施形態では、連続する口唇画像の横幅の画素数の平均値が10ピクセル以上25ピクセル未満である場合には、認識モデル選択部216は、遠距離用の認識モデル231を選択する。そして、本実施形態では、口唇画素数変換部217により、認識モデル231に入力される口唇領域画像データが示す口唇画像の横幅の画素数の平均値が10ピクセルとなるように縮小する。
尚、人の口唇は横長なので、縦方向の画素数は5ピクセルとしても良い。縦方向の画素数が5ピクセルである場合には、認識モデル231は、10×5ピクセルの画像データを用いて学習されたものである。
また、本実施形態では、認識モデル選択部216は、連続した口唇画像の横幅の画素数の平均値が、25ピクセル以上50ピクセル未満である場合には、中距離用の認識モデル232を選択する。そして、口唇画素数変換部217は、認識モデル232が選択されると、口唇画像を、30×15ピクセルとなるように、拡大、又は、縮小するリサイズを行う。
また、本実施形態では、認識モデル選択部216は、連続した口唇画像の横幅の画素数の平均値が、50ピクセル以上である場合には、近距離用の認識モデル233を選択する。そして、口唇画素数変換部217は、認識モデル233が選択されると、口唇画像を、50×25ピクセルとなるように、拡大、又は、縮小するリサイズを行う。
尚、口唇画素数変換部217によるリサイズの方法は、最近傍法、バイリニア補間法、バイキュービック補間法等、既存の手法であって良い。
次に、図8を参照して、本実施形態の認識モデルについて説明する。図8は、第一の実施形態の認識モデルについて説明する第一の図である。
図8において、縦軸は認識の精度を示し、横軸は入力された連続する口唇画像の横幅の画素数の平均値を示す。
図8では、横幅の画素数の平均値を150ピクセルとした連続した口唇画像を用いて学習した認識モデルに対し、横幅の画素数の平均値が150ピクセル以下の連続した口唇画像を示す口唇領域画像データを入力した場合の認識精度を示している。
この結果からわかるように、入力される口唇領域画像データが示す口唇画像の横幅の画素数の平均値が50ピクセル以上の場合は、口唇画像の横幅の画素数の平均値を50ピクセルとして認識した場合と、認識の精度に差がない。
しかし、口唇画像の横幅の画素数の平均値が50ピクセル未満の口唇画像を示す口唇領域画像データを、この認識モデルに入力した場合には、画像データの特徴量が失われ、モデルとのギャップが生じ、認識の精度が下がっていることがわかる。
そこで、口唇画像の横幅の画素数の平均値が50ピクセル未満である口唇領域画像データが入力された場合について注目する。
図9は、第一の実施形態の認識モデルについて説明する第二の図である。図9では、横幅の画素数の平均値が50ピクセル未満の口唇画像を用いて学習した認識モデルに対して、横幅の画素数の平均値が異なる口唇画像を示す口唇領域画像データを入力した場合を示している。
図9では、例えば、横幅の画素数の平均値が25ピクセルの口唇画像を示す口唇領域画像データを入力とする場合には、横幅の画素数の平均値が25ピクセルの口唇画像を用いて学習した認識モデルを使うと、最も認識の精度が高くなる。
また、横幅の画素数の平均値が50ピクセル以上の口唇画像を示す口唇領域画像データを入力とする場合には、横幅の画素数の平均値が50ピクセルの口唇画像を用いて学習した認識モデルを使うと、最も認識の精度が高くなる。
このように、本実施形態では、発話毎に、撮像装置300と話者との距離に相当する口唇画像の横幅の画素数の平均値に応じて、発話内容の認識に用いる認識モデルを選択することで、例えば、会議の場等のように、話者とカメラとの距離が変化するような状況でも、リアルタイムで行われる発話内容の認識の精度を向上させることができる。
(第二の実施形態)
以下に図面を参照して、第二の実施形態について説明する。第二の実施形態では、口唇領域画像データを取得する際のフレームレートに応じて認識モデルを選択する点が第一の実施形態と相違する。よって、以下の第二の実施形態の説明では、第一の実施形態との相違点について説明し、第一の実施形態と同様の機能構成を有するものには、第一の実施形態の説明で用いた符号と同様の符号を付与し、その説明を省略する。
図10は、第二の実施形態の情報処理装置の機能を説明する図である。
本実施形態の情報処理装置200Aは、映像入力部210、人物領域認識部211、画像補正部212、顔領域認識部213、口唇領域抽出部214、口唇画素数算出部215、認識モデル選択部216A、口唇画素数変換部217、口唇特徴量算出部218、発話内容認識部219、テキスト出力部220に加え、フレームレート算出部221、フレーム補完部222を有する。
また、本実施形態の情報処理装置200Aは、記憶部230Aを有する。記憶部230Aには、認識モデル241、242、243が格納されている。
本実施形態のフレームレート算出部221は、時々刻々と変化するフレームレートの値を算出し、フレームレートを口唇領域画像データの属性情報として、付与する。つまり、フレームレート算出部221は、口唇領域画像データに属性情報を付与する属性付与部として機能する。
フレームレートは、撮像装置300が取得する動画において、単位時間あたりに処理させるフレーム数を示し、発話認識システム100の全体の処理負荷や、情報処理装置200Aの仕様等に応じて変化している。
認識モデル選択部216Aは、フレームレート算出部221によって算出されたフレームレートに応じた認識モデルを選択する。言い換えれば、認識モデル選択部216Aは、連続する口唇画像を示す口唇領域画像データに付与された属性情報に基づき、認識モデルを選択する。
本実施形態のフレーム補完部222は、認識モデル選択部216によって選択された認識モデルに応じてフレームを補完する。フレーム補完部222が行う間引き方法、補完方法は、前のフレームを単純にコピーする、不要な分は除外する等の単純な方法が考えられる。また、フレーム補完部222は、前後フレーム画像のピクセル値の差分から中間値を求め、新たに尤もらしい中間フレームを生成する既存の手法等を用いても良い。
本実施形態の記憶部230Aに格納された認識モデル241、242、243は、異なるフレームレートで取得された、連続する口唇画像を示す口唇領域画像データを入力として学習された認識モデルである。
具体的には、認識モデル241は、高いとされるフレームレートで取得された連続する口唇画像を示す口唇領域画像データを入力として学習された認識モデルである。また、認識モデル242は、中程度とされるフレームレートで取得された連続する口唇画像を示す口唇領域画像データを入力として学習された認識モデルである。また、認識モデル243は、低いとされるフレームレートで取得された連続する口唇画像を示す口唇領域画像データを入力として学習された認識モデルである。
次に、図11を参照して、本実施形態の情報処理装置200Aの処理について説明する。図11は、第二の実施形態の情報処理装置の処理を説明する第一のフローチャートである。
本実施形態の情報処理装置200Aは、映像入力部210により、撮像装置300が撮像した映像データを取得する(ステップS1101)。
続いて、情報処理装置200Aは、タイマをスタートさせる(ステップS1102)。本実施形態では、例えば、タイマで4秒間計測するその間に、後述するステップS1103からステップS1110までのループが繰り返された回数によって、フレームレートが算出される。例えば、ループが150回繰り返された場合には、フレームレートは30fpsとなり、ループが50回繰り返された場合には、フレームレートは10fpsとなる。このフレームレートの計算は、後述するステップS1112で行われる。
図11のステップS1103からステップS1110までの処理は、図4のステップS402からステップS409までの処理と同様であるから、説明を省略する。
ステップS1110に続いて、情報処理装置200Aは、タイマに設定された時間が経過すると、タイマを停止させる(ステップS1111)。
続いて、情報処理装置200Aは、フレームレート算出部221により、上述したように、タイマが計測した時間内にループが繰り返された回数に基づいてフレームレートを算出し、取得する(ステップS1112)。
フレームレート算出部221によって算出されたフレームレートは、認識モデル選択部216Aが認識モデルを選択する際に参照される属性情報であり、口唇領域画像データに付与されて保持される。
続いて、情報処理装置200Aは、認識モデル選択部216Aにより、フレームレートが3fps未満であるか否かを判定する(ステップS1113)。
ステップS1113において、フレームレートが3fps未満である場合、認識モデル選択部216Aは、このフレームレートでの認識が不可であるものとし、タイマとバッファをリセットし(ステップS1114)、ステップS1101へ戻る。
ステップS1113において、フレームレートが3fps未満でない場合、つまり、フレームレートが3fps以上である場合、認識モデル選択部216Aは、フレームレートが3fps以上5fps未満であるか否かを判定する(ステップS1115)。
ステップS1115において、フレームレートが3fps以上5fps未満である場合、認識モデル選択部216Aは、フレームレートは低いとされるものとして認識モデル243を設定し(ステップS1116)、後述するステップS1120へ進む。
ステップS1115において、フレームレートが3fps以上5fps未満でない場合、つまり、フレームレートが5fps以上である場合、認識モデル選択部216Aは、フレームレートが5fps以上10fps未満であるか否かを判定する(ステップS1117)。
ステップS1117において、フレームレートが5fps以上10fps未満である場合、認識モデル選択部216Aは、フレームレートを中程度として認識モデル242を設定し(ステップS1118)、後述するステップS1120へ進む。
ステップS1117において、フレームレートが5fps以上10fps未満でない場合、つまり、フレームレートが10fps以上である場合、認識モデル選択部216Aは、フレームレートが高いものとして認識モデル241を設定し(ステップS1119)、後述するステップS1120へ進む。
続いて、情報処理装置200Aは、口唇画素数変換部217により、選択された認識モデルに応じて、バッファに格納された連続する口唇画像をリサイズする(ステップS1120)。
尚、本実施形態では、口唇画像をリサイズする際の解像度は、選択された認識モデルに関わらず一定であっても良いし、第一の実施形態の処理と組み合わせても良い。
続いて、情報処理装置200Aは、フレーム補完部222により、バッファ内の連続した口唇画像を示す口唇領域画像データを、選択された認識モデル及び取得されたフレームレートに応じて補完し(ステップS1121)、ステップS1122へ進む。尚、本実施形態の補完には、画像データを間引く処理も含まれる。
図11のステップS1122からステップS1124の処理は、図4のステップS419からイベント421までの処理と同様であるから、説明を省略する。
情報処理装置200Aは、ステップS1124に続いて、タイマとバッファをリセットし(ステップS1125)、処理の終了指示を受け付けたか否かを判定する(ステップS1126)。
ステップS1126において、処理の終了指示を受け付けた場合、情報処理装置200Aは、処理を終了する。ステップS1126において、終了指示を受け付けない場合、情報処理装置200Aは、ステップS1101へ戻る。
本実施形態の情報処理装置200Aは、図11の処理を連続的に繰り返すことで、口唇画像を用いて連続的に発話内容を認識する。
次に、図12を参照して、本実施形態の認識モデルについて説明する。図12は、第二の実施形態の認識モデルについて説明する第一の図である。
図12において、縦軸は認識の精度を示し、横軸は入力された連続する口唇画像を取得したときのフレームレートを示す。
図12では、フレームレートを30fpsとして取得した、連続した口唇画像を用いて学習した認識モデルに対し、フレームレートが10fps以下である場合の、連続した口唇画像を示す口唇領域画像データを入力した場合の認識精度を示している。
図12に示す認識モデルでは、入力される口唇領域画像データのフレームレートが10fps以上である場合は、認識の精度に差がない。
しかし、入力される口唇領域画像データのフレームレートを10fps未満とした場合には、口唇領域画像データの特徴量や時間的情報が失われ、モデルとのギャップが生じ、認識の精度が下がる。
そこで、入力される口唇領域画像データのフレームレートを10fps未満とした場合について注目する。
図13は、第二の実施形態の認識モデルについて説明する第二の図である。図13では、入力される口唇領域画像データのフレームレートを10fps未満として学習した認識モデルに対して、フレームレートが異なる口唇領域画像データを入力した場合を示している。
図13では、例えば、フレームレートが5fpsである口唇領域画像データを入力とする場合には、フレームレートが5fpsである口唇領域画像データを用いて学習した認識モデルを使うと、最も認識の精度が高くなる。
また、フレームレートが10fps以上の口唇領域画像データを入力とする場合には、フレームレートが10fpsであっても、30fpsであっても、認識の精度に差はない。また、フレームレートが10fpsである口唇領域画像データを用いて学習した認識モデルを使うと、最も認識の精度が高くなることがわかる。したがって、フレームレートが10fps以上の口唇領域画像データを入力とする場合には、フレームレートが10fpsである口唇領域画像データを用いて学習した認識モデルを使えば良い。
また、フレームレートが1fps未満の口唇領域画像データを入力とする場合には、極めて認識精度が低いため、本実施形態では、認識不可としている。この場合には、音声情報で発話内容を認識すること等が考えられる。
このように、本実施形態では、口唇画像を取得する際のフレームレートに応じて、発話内容の認識に用いる認識モデルを選択するため、発話認識システム100の通信の状況に応じて、発話内容の認識の精度を向上させることができる。
(第三の実施形態)
以下に図面を参照して、第三の実施形態について説明する。第三の実施形態では、話者の顔の向きに応じて認識モデルを選択する点が第一の実施形態と相違する。以下に図14を参照して、第三の実施形態について説明する。
図14は、第三の実施形態の認識モデルの選択について説明する図である。
話者は、必ずしも撮像装置300の方向を向いて発話するわけではなく、表示装置400や他の話者の方向を見て発話することが多々ある。
その場合、口唇画像は、図14に示す画像141や画像142のように、話者が撮像装置300を向いている場合の画像143と比較して、横幅が狭くなる。この場合には、撮像装置300と話者との距離が離れたことによって、横幅が狭くなるわけではない。
したがって、本実施形態では、例えば、予め、右向き、左向きでの連続した口唇画像を用いて学習した認識モデルを用意し、顔領域認識部213による顔認識の際に、顔の向きを推定し、それぞれの向きに適した認識モデルを選択する。
本実施形態では、このように、顔の向きに応じて認識モデルを選択することで、認識の精度の低下を抑制することができる。
以上、各実施形態に基づき本発明の説明を行ってきたが、上記実施形態に示した要件に本発明が限定されるものではない。これらの点に関しては、本発明の主旨をそこなわない範囲で変更することができ、その応用形態に応じて適切に定めることができる。
100 発話認識システム
200、200A 情報処理装置
210 映像入力部
211 人物領域認識部
212 画像補正部
213 顔領域認識部
214 口唇領域抽出部
215 口唇画素数算出部
216、216A 認識モデル選択部
217 口唇画素数変換部
218 口唇特徴量算出部
219 発話内容認識部
220 テキスト出力部
221 フレームレート算出部
222 フレーム補完部
230、230A 記憶部
231、232、233、241、242、243 認識モデル
300 撮像装置
400 表示装置
特開2015-019162号公報

Claims (8)

  1. 撮像装置によって撮像された動画データが入力される入力部と、
    前記動画データに含まれるフレーム毎の画像から、人物の口唇を示す領域を認識し、前記人物の連続した口唇画像を示す口唇領域画像データを抽出する口唇領域抽出部と、
    前記口唇領域画像データに付与された属性情報に基づき、複数の認識モデルの中から、前記人物の発話内容の認識に用いる認識モデルを選択する認識モデル選択部と、
    選択された認識モデルを用いて前記人物の発話内容を認識する発話認識部と、
    前記発話内容の認識結果を出力する出力部と、
    前記撮像装置と前記人物との距離を異ならせて前記人物を撮像した動画データから抽出された口唇領域画像データを用いて学習させた複数の認識モデルが格納された記憶部と、
    前記撮像装置と前記人物との距離に応じて、前記複数の認識モデルの中から、発話内容の認識に使用する認識モデルを選択する認識モデル選択部と、を有し、
    前記認識モデル選択部は、
    前記連続した口唇画像の横幅の画素数の平均値が所定値未満である場合、発話内容の認識不可とし、
    前記連続した口唇画像の横幅の画素数の平均値が前記所定値以上であり、且つ、前記所定値より大きい値である第一の値未満である場合に、前記複数の認識モデルの中から、遠距離用の認識モデルを選択し、
    前記連続した口唇画像の横幅の画素数の平均値が前記第一の値以上であり、且つ、前記第一の値よりも大きい値である第二の値未満である場合に、前記複数の認識モデルの中から、中距離用の認識モデルを選択し、
    前記連続した口唇画像の横幅の画素数の平均値が前記第二の値以上である場合に、前記複数の認識モデルの中から、近距離用の認識モデルを選択する情報処理装置。
  2. 前記連続した口唇画像の横幅の画素数の平均値を算出する口唇画素数算出部を有し、
    前記平均値を前記口唇領域画像データに付与された属性情報とする、請求項1記載の情報処理装置。
  3. 前記動画データが示す動画におけるフレームレートを算出するフレームレート算出部を有し、
    前記フレームレートを前記属性情報とする、請求項1記載の情報処理装置。
  4. 前記複数の認識モデルは、
    それぞれについて、異なるフレームレートで取得された、連続する口唇画像を示す口唇領域画像データを入力として学習させたモデルである、請求項3記載の情報処理装置。
  5. 前記口唇領域画像データが、選択された認識モデルの入力データとなるように、前記連続した口唇画像の解像度を異なる解像度に変換する口唇画素数変換部を有する、請求項1乃至4の何れか一項に記載の情報処理装置。
  6. 一定期間の前記連続した口唇画像の横幅の画素数と縦幅の画素数とが示す画像の8ビットのRGB値を特徴量として算出する特徴量算出部を有し、
    前記発話認識部は、
    選択された認識モデルと、前記特徴量とを用いて前記発話内容を認識する、請求項1乃至5の何れか一項に記載の情報処理装置。
  7. 撮像装置と、情報処理装置とを有する発話認識システムであって、
    前記情報処理装置は、
    前記撮像装置によって撮像された動画データが入力される入力部と、
    前記動画データに含まれるフレーム毎の画像から、人物の口唇を示す領域を認識し、前記人物の連続した口唇画像を示す口唇領域画像データを抽出する口唇領域抽出部と、
    前記口唇領域画像データに付与された属性情報に基づき、複数の認識モデルの中から、前記人物の発話内容の認識に用いる認識モデルを選択する認識モデル選択部と、
    選択された認識モデルを用いて前記人物の発話内容を認識する発話認識部と、
    前記発話内容の認識結果を出力する出力部と、
    前記撮像装置と前記人物との距離を異ならせて前記人物を撮像した動画データから抽出された口唇領域画像データを用いて学習させた複数の認識モデルが格納された記憶部と、
    前記撮像装置と前記人物との距離に応じて、前記複数の認識モデルの中から、発話内容の認識に使用する認識モデルを選択する認識モデル選択部と、を有し、
    前記認識モデル選択部は、
    前記連続した口唇画像の横幅の画素数の平均値が所定値未満である場合、発話内容の認識不可とし、
    前記連続した口唇画像の横幅の画素数の平均値が前記所定値以上であり、且つ、前記所定値より大きい値である第一の値未満である場合に、前記複数の認識モデルの中から、遠距離用の認識モデルを選択し、
    前記連続した口唇画像の横幅の画素数の平均値が前記第一の値以上であり、且つ、前記第一の値よりも大きい値である第二の値未満である場合に、前記複数の認識モデルの中から、中距離用の認識モデルを選択し、
    前記連続した口唇画像の横幅の画素数の平均値が前記第二の値以上である場合に、前記複数の認識モデルの中から、近距離用の認識モデルを選択する発話認識システム。
  8. 情報処理装置に、
    撮像装置によって撮像された動画データを入力する処理と、
    前記動画データに含まれるフレーム毎の画像から、人物の口唇を示す領域を認識し、前記人物の連続した口唇画像を示す口唇領域画像データを抽出する処理と、
    前記口唇領域画像データに付与された属性情報に基づき、複数の認識モデルの中から、前記人物の発話内容の認識に用いる認識モデルを選択する処理と、
    選択された認識モデルを用いて前記人物の発話内容を認識する処理と、
    前記発話内容の認識結果を出力する処理と、
    記憶部に格納された、前記撮像装置と前記人物との距離を異ならせて前記人物を撮像した動画データから抽出された口唇領域画像データを用いて学習させた複数の認識モデルから、前記撮像装置と前記人物との距離に応じて、発話内容の認識に使用する認識モデルを選択する処理と、を実行させ、
    前記認識モデルを選択する処理は、
    前記連続した口唇画像の横幅の画素数の平均値が所定値未満である場合、発話内容の認識不可とし、
    前記連続した口唇画像の横幅の画素数の平均値が前記所定値以上であり、且つ、前記所定値より大きい値である第一の値未満である場合に、前記複数の認識モデルの中から、遠距離用の認識モデルを選択し、
    前記連続した口唇画像の横幅の画素数の平均値が前記第一の値以上であり、且つ、前記第一の値よりも大きい値である第二の値未満である場合に、前記複数の認識モデルの中から、中距離用の認識モデルを選択し、
    前記連続した口唇画像の横幅の画素数の平均値が前記第二の値以上である場合に、前記複数の認識モデルの中から、近距離用の認識モデルを選択する、発話認識プログラム。
JP2019019139A 2019-02-05 2019-02-05 情報処理装置、発話認識システム及び発話認識プログラム Active JP7299587B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019019139A JP7299587B2 (ja) 2019-02-05 2019-02-05 情報処理装置、発話認識システム及び発話認識プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019019139A JP7299587B2 (ja) 2019-02-05 2019-02-05 情報処理装置、発話認識システム及び発話認識プログラム

Publications (2)

Publication Number Publication Date
JP2020126492A JP2020126492A (ja) 2020-08-20
JP7299587B2 true JP7299587B2 (ja) 2023-06-28

Family

ID=72084059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019019139A Active JP7299587B2 (ja) 2019-02-05 2019-02-05 情報処理装置、発話認識システム及び発話認識プログラム

Country Status (1)

Country Link
JP (1) JP7299587B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013191061A1 (ja) 2012-06-20 2013-12-27 コニカミノルタ株式会社 画像処理装置
JP2015045919A (ja) 2013-08-27 2015-03-12 トヨタ自動車株式会社 画像認識方法及びロボット

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3702978B2 (ja) * 1996-12-26 2005-10-05 ソニー株式会社 認識装置および認識方法、並びに学習装置および学習方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013191061A1 (ja) 2012-06-20 2013-12-27 コニカミノルタ株式会社 画像処理装置
JP2015045919A (ja) 2013-08-27 2015-03-12 トヨタ自動車株式会社 画像認識方法及びロボット

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Jon Barker,外1名,Energetic and Informational Masking Effects in an Audiovisual Speech Recognition System,IEEE Transactions on Audio, Speech, and Language Processing,Volume 17,Issue 3,2009年03月,pp. 446-458
高橋 昌平,外1名,複数画像特徴量を用いた読唇システム オプティカルフロー特徴・形状特徴・離散コサイン変換特徴の統合の検討,情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM)[online] ,情報処理学会,2014年02月24日,Vol. 2014-CVIM-191,No. 7

Also Published As

Publication number Publication date
JP2020126492A (ja) 2020-08-20

Similar Documents

Publication Publication Date Title
JP6499583B2 (ja) 画像処理装置及び画像表示装置
CN106462937B (zh) 图像处理装置以及图像显示装置
JP5450739B2 (ja) 画像処理装置及び画像表示装置
WO2014064870A1 (ja) 画像処理装置および画像処理方法
JP5929221B2 (ja) 関心領域の動的検知に基づいたシーン状態切換システム及び方法
KR20170047167A (ko) 전자 장치가 동영상의 얼굴의 인상을 변형하는 방법 및 그 전자 장치
US20190058847A1 (en) Scaling image of speaker?s face based on distance of face and size of display
JP2013122695A (ja) 情報提示装置、情報提示方法、情報提示プログラム、及び情報伝達システム
JP2014106732A (ja) 情報処理装置および情報処理方法
JP2012216006A (ja) 情報処理システム、情報処理装置、撮像装置、および情報処理方法
US8675128B2 (en) Image processing method and system with repetitive pattern detection
KR101366776B1 (ko) 영상 객체 검출 장치 및 그 방법
CN112069863B (zh) 一种面部特征的有效性判定方法及电子设备
JP5068732B2 (ja) 3次元形状生成装置
WO2018180578A1 (ja) 画像処理装置、撮像装置、画像処理方法、およびプログラム
JP2011228846A (ja) 画像処理装置および方法
JP7388188B2 (ja) 発話者認識システム、発話者認識方法、及び発話者認識プログラム
JP2016157166A (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
JP7299587B2 (ja) 情報処理装置、発話認識システム及び発話認識プログラム
US9159118B2 (en) Image processing apparatus, image processing system, and non-transitory computer-readable medium
US20230306698A1 (en) System and method to enhance distant people representation
JP7243821B2 (ja) 学習装置、制御方法及びプログラム
JP2018174461A (ja) 画像処理装置、画像処理方法、及びプログラム
WO2021245930A1 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP6274778B2 (ja) 画像処理方法、画像処理装置、及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211006

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20211006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20211109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230608

R150 Certificate of patent or registration of utility model

Ref document number: 7299587

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150