Nothing Special   »   [go: up one dir, main page]

JP2008262272A - 肌色モデル生成装置及びプログラム - Google Patents

肌色モデル生成装置及びプログラム Download PDF

Info

Publication number
JP2008262272A
JP2008262272A JP2007102743A JP2007102743A JP2008262272A JP 2008262272 A JP2008262272 A JP 2008262272A JP 2007102743 A JP2007102743 A JP 2007102743A JP 2007102743 A JP2007102743 A JP 2007102743A JP 2008262272 A JP2008262272 A JP 2008262272A
Authority
JP
Japan
Prior art keywords
hand
skin color
color model
image
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007102743A
Other languages
English (en)
Inventor
Takashi Naito
貴志 内藤
Yusuke Nakano
雄介 中野
Murahito Hattori
祐人 服部
Makoto Kawarada
誠 河原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Toyota Motor Corp
Priority to JP2007102743A priority Critical patent/JP2008262272A/ja
Publication of JP2008262272A publication Critical patent/JP2008262272A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】被観察者に負担を強いることなく、簡易な画像処理によって、安定して被観察者の肌色モデルを生成することができるようにする。
【解決手段】被観察者と握手をするために所定領域内にロボットアームハンドの手先を移動させ(102)、カメラの視野内に所定領域が入るように、カメラの位置姿勢を制御し(104)、ロボットアームハンドが被観察者と握手していない状態において撮像された画像を取り込む(106)。手先接触センサのセンサ情報に基づいて、被観察者がロボットアームハンドと握手した判定されると(108、110)、ロボットアームハンドが被観察者と握手している状態において撮像された画像を取り込み(112)、ロボット手先画像I1とロボット手先画像I2とを比較して、手先領域を検出し(114)、手先のRGB色情報を検出し(116)、検出された手先のRGB色情報から肌色モデルを生成する(120)。
【選択図】図2

Description

本発明は、肌色モデル生成装置及びプログラムに係り、特に、撮像された画像から、被観察者の肌色モデルを生成する肌色モデル生成装置及びプログラムに関する。
従来より、顔の検出や、あるいはコミュニケーションのために対象者の手などを画像から検出する場合、人の肌色情報を用いて、顔や手などの部位を特定し、それらを追跡することが一般的に行われている。しかしながら、肌色情報は対象者毎に差異があり、さらには同じ対象者でも環境の明るさの影響により変動する。このため対象者の肌色モデルを構築するためにさまざまな方法が考案されている。
例えば、ユーザに手を振らせた状態での画像を連続的に撮像し、その画像間での動き情報から手先部位を特定することで肌色情報を取得する色モデル構築装置が知られている(特許文献1)。
また、ユーザの顔を何らかの方法で検出し、その顔領域での色情報から肌色モデルを構築する動作識別装置が知られている(特許文献2)。この動作識別装置では、顔検出によって正しく顔が検出できていることが前提となっている。
特開2004−280148 特開2005−78257
しかしながら、上記特許文献1に記載の技術では、肌色情報を得るためにユーザに手を振らせるなどの負担をかけてしまう、という問題がある。
また、上記特許文献2に記載の技術では、必ずしも安定に顔が検出できるとは限らず、顔が検出できない場合には、肌色モデルの構築は困難であり、また、顔を誤検出してしまった場合には、誤った肌色を基準として肌色モデルを構築してしまい、その後の画像処理の信頼性に大きな影響を及ぼしてしまう、という問題がある。
本発明は、上記の問題点を解決するためになされたもので、被観察者に負担を強いることなく、簡易な画像処理によって、安定して被観察者の肌色モデルを生成することができる肌色モデル生成装置及びプログラムを提供することを目的とする。
上記の目的を達成するために本発明に係る肌色モデル生成装置は、所定領域を撮像するための撮像部と、前記所定領域内に移動可能な可動部と、前記所定領域内に前記可動部を移動させる動作制御手段と、前記可動部の移動に応じて、被観察者が前記所定領域内に肌が露出している部位を移動させたか否かを判定する判定手段と、前記判定手段によって、前記被観察者が前記所定領域内に前記部位を移動させたと判定されたときに前記撮像部で撮像された画像に基づいて、前記被観察者の前記部位の色を検出し、前記検出された色に基づいて、前記被観察者の肌色について規定した肌色モデルを生成する肌色モデル生成手段とを含んで構成されている。
また、本発明に係るプログラムは、コンピュータを、移動可能な可動部を所定領域内に移動させる動作制御手段、前記可動部の移動に応じて、被観察者が前記所定領域内に肌が露出している部位を移動させたか否かを判定する判定手段、及び前記判定手段によって、前記被観察者が前記所定領域内に前記部位を移動させたと判定されたときに前記所定領域を撮像する撮像部で撮像された画像に基づいて、前記被観察者の前記部位の色を検出し、前記検出された色に基づいて、前記被観察者の肌色について規定した肌色モデルを生成する肌色モデル生成手段として機能させることを特徴としている。
本発明によれば、撮像部によって、所定領域を撮像し、動作制御手段によって、所定領域内に可動部を移動させる。そして、判定手段によって、可動部の移動に応じて、被観察者が所定領域内に肌が露出している部位を移動させたか否かを判定する。
そして、肌色モデル生成手段によって、判定手段によって、被観察者が所定領域内に部位を移動させたと判定されたときに撮像部で撮像された画像に基づいて、被観察者の部位の色を検出し、検出された色に基づいて、被観察者の肌色について規定した肌色モデルを生成する。
このように、所定領域内に可動部を移動させて、可動部の移動に応じて、被観察者に肌が露出している部位を所定領域内に移動させ、被観察者が部位を所定領域内に移動させたときに撮像された画像に基づいて、部位の色を検出し、肌色モデルを生成するため、被観察者に負担を強いることなく、簡易な画像処理によって、安定して被観察者の肌色モデルを生成することができる。
上記の部位は手であって、肌色モデル生成手段は、手の肌色モデルを生成することができる。これによって、手の肌色モデルを生成するため、被観察者の手の追跡を容易に行うことができるようになる。
また、上記の可動部は、ロボットアームであって、動作制御手段は、被観察者と握手するように、ロボットアームを所定領域内に移動させることができる。これにより、被観察者に違和感を与えることなく、所定領域内に被観察者の部位を移動させるため、被観察者に負担を強いることなく、被観察者の肌色モデルを生成することができる。
上記の肌色モデル生成装置は、可動部に設けられ、かつ、被観察者の部位を検知する検知手段を更に含み、判定手段は、検知手段による検知結果に基づいて、被観察者が所定領域内に部位を移動させたか否かを判定することができる。
また、上記の判定手段は、撮像部によって撮像された画像に基づいて、被観察者が所定領域内に部位を移動させたか否かを判定することができる。
また、上記の肌色モデル生成装置は、肌色モデル生成手段によって生成された肌色モデルに基づいて、撮像部によって撮像された画像から、被観察者の部位を検出する検出手段を更に含むことができる。これにより、生成された肌色モデルに基づいて、被観察者の部位を容易に追跡することができる。
以上説明したように、本発明の肌色モデル生成装置及びプログラムによれば、所定領域内に可動部を移動させて、可動部の移動に応じて、被観察者に肌が露出している部位を所定領域内に移動させ、被観察者が部位を所定領域内に移動させたときに撮像された画像に基づいて、部位の色を検出し、肌色モデルを生成するため、被観察者に負担を強いることなく、簡易な画像処理によって、安定して被観察者の肌色モデルを生成することができる、という効果が得られる。
以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本実施の形態では、ロボット装置に本発明を適用した場合を例に説明する。
図1に示すように、本実施の形態に係るロボット装置10は、観察対象者を撮像するためのカメラ12と、カメラ12によって撮像された画像に対して、所定の画像処理を行う画像処理部14と、移動可能であって、移動することにより位置及び姿勢を変えることができるロボットアームハンド16と、ロボットアームハンド16の手先に取り付けられ、かつ、例えば、感圧フィルムから構成された手先接触センサ18と、カメラ12、画像処理部14、ロボットアームハンド16、及び手先接触センサ18を含むロボット装置10の各部の動作を制御するロボット制御部20と、例えば、ハードディスクから構成され、ロボットアームハンドの位置や、画像処理部14による画像処理結果やロボット制御パラメータなどを記憶しておく情報記憶部22とを備えている。
カメラ12は、画像信号を生成するCCDイメージセンサと、CCDイメージセンサで生成された画像信号をA/D変換するA/D変換部とを備えており、また、ロボット制御部20によって撮像方向が制御可能となっている。
また、画像処理部14は、カメラ12によって撮像された画像を取り込む画像入力部24と、画像入力部24に取り込まれた画像中での観察対象者の肌が露出している部位としての手先を表す領域である手先領域を検出する手先領域検出部26と、手先領域から手先の色情報を検出する手先色検出部28と、手先色検出部28によって検出された手先の色情報から観察対象者の肌色について規定した肌色モデルを生成する肌色モデル生成部30とを備えている。
画像処理部14及びロボット制御部20は、所定の処理を行うCPUと、ワークエリアであるRAMと、CPUの制御プログラムが記憶されているROMとを備え、また、情報記憶部22には、更に後述する肌色モデル生成処理ルーチンや手先領域検出処理ルーチンを実行するためのプログラムが記憶されている。
次に、ロボット装置10において実行される肌色モデル生成処理ルーチンについて図2を用いて説明する。まず、ステップ100において、ロボット装置10の前方に被観察者が存在するか否かを判定する。例えば、超音波センサ(図示省略)を用いて、ロボット装置10の前方に被観察者と期待される存在が検知されると、ステップ100からステップ102へ進む。なお、撮像方向が前方に向けられたカメラ12によって撮像された画像中に顔が存在するか否かを判定し、顔が存在すると判定された場合に、前方に被観察者が存在すると判断してもよい。
そして、ステップ102において、被観察者と握手をするために適切な所定領域内にロボットアームハンド16の手先が移動し、かつ、所定姿勢になるように、ロボットアームハンド16をロボット制御部20によって制御する。例えば、カメラ12によって撮像された画像中での顔位置を認識して、被観察者の身長を推測し、推測された身長の被観察者が握手をするのに適切な高さにロボットアームハンド16を移動させ、握手ができるようにロボットアームハンド16の手のひらを広げて待機させる。
次のステップ104では、ロボット座標系におけるロボットアームハンド16の手先位置に基づいて、カメラ12の視野内に、上記の握手のための所定領域が入るように、カメラ12の位置姿勢を制御する。なお、ロボットアームハンド16の手先位置は、ロボット装置10の体格および各関節角度情報から容易に算出できるため、図示していないカメラ雲台などをロボット制御部20により制御することで、ロボットアームハンド16の手先が位置する握手のための所定領域をカメラ12によって的確に撮像できるようになる。
そして、ステップ106では、図3(A)に示すように、ロボットアームハンド16が被観察者と握手していない状態においてカメラ12によって撮像された画像を、画像入力部24によって取り込み、情報記憶部22にロボット手先画像I1として記録しておく。
次のステップ108では、ロボットアームハンド16の手先に取り付けた手先接触センサ18のセンサ情報を読み取り、ステップ110において、読み取ったセンサ情報に基づいて、被観察者がロボットアームハンド16の手先を握ったか否かを判定する。例えば、感圧フィルムで構成される手先接触センサ18からのセンサ情報において、所定の閾値以上の信号強度が得られた場合は、被観察者がロボットアームハンド16に対して握手をして接触したと判断し、ステップ112へ移行する。一方、閾値以下の場合は、握手などの接触が無いと判断して、再度ステップ108へ戻って、所定の周期(たとえば1秒に10回)でセンサ情報を読み取り、上記と同様に握手をしたか否かを判定する。
ステップ112では、図3(B)に示すように、ロボットアームハンド16が被観察者と握手している状態においてカメラ12で撮像された画像を、画像入力部24によって取り込み、情報記憶部22に、ロボットアームハンド16が被観察者と握手した状態のロボット手先画像I2として記憶しておく。
そして、ステップ114において、情報記憶部22に記憶されたロボット手先画像I1とロボット手先画像I2とを比較することで、画像中での被観察者の手先領域を検出する。手先領域の検出方法としては、上記ステップ106とステップ112との間で、環境の照明条件などが大きく変化していない場合には、画像I1と画像I2との差分画像から、容易に被観察者の手先領域を検出することができる。また、仮に照明条件が大きく変化したために、差分画像だけからでは被観察者の手先領域を検出できない場合でも、画像I2でのロボットアームハンド16が画像中に占める領域は容易に特定できるため、その周辺の領域を、被観察者の手先領域として検出すればよい。
そしてステップ116では、ロボット手先画像I2における、上記ステップ114で検出された被観察者の手先領域から、被観察者の手先のRGB色情報を検出する。例えば、カメラ12がベイヤフィルタを用いて色情報を保存する場合には、各画素の輝度情報からRGB情報への変換を行うことで、各画素のRGB色情報を得ることができる。あるいは、3板式CCDカメラの場合は、各CCDからの輝度情報がRGBの色情報に対応しているため、特別な変換を行うことなく手先領域のRGB色情報を検出できる。
次のステップ118において、上記ステップ116で検出された手先のRGB色情報から肌色モデルを生成して、肌色モデル生成処理ルーチンを終了する。ここで、肌色モデルの生成方法について説明する。手先領域をΩと表し、Ωに含まれる画像の(R、G、B)色データを、次の(1)式を用いて(H、S、V)色データヘ変換する.
Figure 2008262272
ここでR、G、Bは0〜1.0の範囲の値を持つ正規化したRGB値であり、R、G、Bの最大値をMAX、最小値をMINとしている。なお上記(1)式はRGBからHSVへの公知の変換式である。
そして上記(1)式で求められたH、Sから次の(2)式により肌色モデルを求める。ここで、Nは手先領域Ωに含まれる画素の個数であり、Savg、Havgは手先領域での色相と彩度との各々の平均値を表している。これにより、被観察者の肌色モデル(Savg、Havg)を生成する。
Figure 2008262272
そして、上記のように肌色モデル生成処理ルーチンを実行することにより、肌色モデルが生成されると、次に、被観察者の手先領域を検出して追跡するための図4に示す手先領域検出処理ルーチンが実行される。
まず、ステップ150において、カメラ12の視野内に、被観察者が入るように、カメラ12の位置姿勢を制御し、ステップ152において、図5(A)に示すような被観察者を表すカラー画像を撮像して、カラー画像を取り込む。そして、ステップ154で、手先領域が設定されているか否かを判定し、まだ設定されていない場合には、ステップ156へ移行し、撮像されたカラー画像全体のRGB色情報を、肌色モデルのHSV表色系に変換する。すなわち、上記(1)式により、RGBからHSVへの変換をカラー画像の全画素について行う。
そして、ステップ158において、上記(2)式により既に求められた肌色モデル(Savg、Havg)を用いて、各画素について肌色モデルと類似しているかどうかを判定し、判定結果として2値画像を生成する。例えば、S(i、j)、H(i、j)を画素(i,j)の彩度、色相とすると、次の(3)式をともに満たす画素(i、j)には0を代入し、満たさない画素(i、j)には1を代入して、図5(B)に示すような2値画像を生成する。
Figure 2008262272
ここで、Sth,Hthは被観察者の手先領域候補決定のための予め定めておく閾値である。
次のステップ160では、図5(B)に示すような2値画像について、領域分割を行い、ステップ162において、領域分割された手先候補領域の位置、大きさ、及び形状から図5(C)に示すように、手先領域を検出する。なお、領域分割の方法と、領域の位置、大きさ、及び形状からの手先領域の検出方法とは、従来既知の手法を用いればよいため、説明を省略する。
そして、ステップ164において、上記ステップ152で撮像された現在の画像において手先領域を設定し、ステップ166で、処理の継続が指示されているか否かを判定し、処理の継続が指示されていない場合は、手先領域検出処理ルーチンを終了するが、処理の継続が指示されている場合には、ステップ152へ戻って、再びカラー画像を撮像する。
また、上記ステップ154において、上記ステップ164により手先領域が設定されていると判定された場合には、ステップ168へ移行し、前フレーム画像に対して設定された手先領域周辺の所定領域を探索領域(図5(C)の破線矩形領域参照)として設定し、ステップ170において、設定された探索領域の画像のRGB色情報を、肌色モデルのHSV表色系に変換する。
そして、ステップ172において、上記(2)式により既に求められた肌色モデル(Savg、Havg)を用いて、探索領域内の各画素について肌色モデルと類似しているかどうかを判定し、2値画像を生成する。
次のステップ174では、2値画像について、領域分割を行い、ステップ176において、領域分割された手先候補領域の位置、大きさ、及び形状から手先領域を検出して、ステップ164へ移行して、現在フレームの画像に対して手先領域を設定する。
上記のように手先領域検出処理ルーチンでは、図5(C)の破線矩形領域で示したように探索領域を特定し、その領域内でのみ手先領域を検出するための処理を行えばよいため、少ない計算量で高速に、かつ信頼性よく手先領域を検出して、追跡することができる。
なお、上記では、肌色モデルを用いて、手先領域の検出処理を行う場合を例に説明したが、これに限定されるものではなく、肌色モデルに類似する画素が多く含まれている画像領域に対して、たとえば顔検出処理などの目的に応じた画像処理を行ってもよい。
以上説明したように、第1の実施の形態に係るロボット装置によれば、握手のための所定領域内にロボットアームハンドの手先を移動させて、ロボットアームハンドの移動に応じて、被観察者に手を所定領域内に差し出すように促し、被観察者が手を所定領域内に差し出したときに撮像された画像に基づいて、手先の色を検出し、肌色モデルを生成するため、被観察者に煩雑な作業などの負担を強いることなく、簡易な画像処理によって、安定して被観察者の肌色モデルを生成することができる。
また、生成された肌色モデルを用いることで、その後の被観察者の手先の追跡や、顔の発見、追従などを、色情報を基にした単純な画像処理により信頼性よく安定に行うことができる。
また、ロボット装置が手を差し伸べて握手を促す動作をした場合、被観察者の自然な反応として同じように手を差し伸べて握手が行われることが容易に期待できるため、被観察者に違和感を与えることなく、所定領域内に被観察者の手を移動させることができる。
また、この時、ロボットアームハンドの手先にセンサを設置しておくことで、握手が行われたかどうかは簡便に検出可能であり、簡便確実な方法で被観察者の手を確実に撮像することができる。また、握手が行われたときの画像を解析することで、被観察者の手先の色情報を簡便かつ安定に検出することができ、また、被観察者の肌色モデルの構築が容易に可能である。
なお、上記の実施の形態では、肌色モデルにおいて、HSV表色モデルを用いた場合を例に説明したが、これに限定されるものではなく、例えば、rgb色モデルやL色モデルなど、他の公知の表色モデルを用いてもよい。また、肌色モデルとして(2)式(3)式を用いて判定を行ったが、これに限定されるものではなく、他の判定方法を用いても同様の効果が得られる。
また、手先接触センサを、感圧フィルムを用いて構成した場合を例に説明したが、これに限定されるものではなく、ひずみゲージを用いたもの、あるいは光学式のものなど、ロボットハンドの大きさやセンサ信号、配線方法などに応じて市販のセンサなどを選択して、用いればよい。
また、被観察者の肌が露出している部位として手を所定領域に移動させて、手の色を検出する場合を例に説明したが、手以外の他の部位を所定領域に移動させて、その部位の色を検出して、肌色モデルを生成してもよい。
次に、第2の実施の形態について説明する。なお、第1の実施の形態と同様の構成となっている部分については、同一符号を付して説明を省略する。
第2の実施の形態では、ロボットアームハンドの手先の手先接触センサのセンサ情報を用いずに、被観察者がロボットアームハンドと握手したか否かを判定している点が第1の実施の形態と異なっている。
第2の実施の形態では、カメラ12によって撮像された画像を用いて、上記図3(A)のロボットアームハンド16の親指、人差し指部分に観測領域を設定し、連続した各フレームの画像を比較して、図3(A)と図3(B)のように、その観測領域の色情報がある一定時間変化したと判定できた場合に、握手していると判断する。
次に、第2の実施の形態に係る肌色モデル生成処理ルーチンについて図6を用いて説明する。なお、第1の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。
まず、ステップ100において、ロボット装置10の前方に被観察者が存在するか否かを判定し、前方に被観察者が存在すると判定されると、ステップ102において、被観察者と握手をするために適切な所定領域にロボットアームハンド16の手先が移動し、かつ、所定姿勢になるように、ロボットアームハンド16を制御する。次のステップ104では、カメラ12の視野内に、握手のための所定領域が入るように、カメラ12の位置姿勢を制御し、ステップ106では、ロボットアームハンド16が被観察者と握手していない状態において撮像された画像を、画像入力部24を用いて入力し、情報記憶部22にロボット手先画像I1として記録しておく。
そして、ステップ200において、上記ステップ106の後にカメラ12で撮像された画像を、画像入力部24を用いて入力し、情報記憶部22にロボット手先画像I2として記録しておく。次のステップ202では、手先領域検出部26において、ロボット手先画像I1とロボット手先画像I2との変化量Dを算出して、変化量Dがしきい値以上であるか否かを判定する。変化量Dの算出方法としては、各画素の差の絶対値和などの従来既知の手法を用いればよい。そして、算出された変化量Dが予め定められたしきい値以上であるか否かを判定し、算出された変化量Dがしきい値以上であるの場合には、被観察者が握手のための所定領域内に手を差し出して、ロボットアームハンド16と握手したと判断し、ステップ114へ移行するが、一方、算出された変化量Dがしきい値未満である場合には、被観察者が握手のための所定領域内に手を差し出していないと判断し、ステップ200へ戻り、繰り返しカメラ12で画像を撮像する。
そして、ステップ114において、情報記憶部22に記憶されたロボット手先画像I1とロボット手先画像I2とを比較することで、画像中での被観察者の手先領域を検出し、ステップ116で、ロボット手先画像I2における被観察者の手先領域から、被観察者の手先のRGB色情報を検出する。
そして、次のステップ118において、上記ステップ116で検出された手先のRGB色情報から肌色モデルを生成して、肌色モデル生成処理ルーチンを終了する。
なお、手先領域検出処理ルーチンの内容については、第1の実施の形態と同様であるため、説明を省略する。
このように、画像の差分処理を行うことで、ロボットの手先と対象者の手先が重なりあったかどうかを容易に検出でき、ロボットアームハンドの手先にセンサを取り付ける必要がないため、簡易な装置構成で、かつ、被観察者に煩雑な作業などの負担を強いることなく、簡易な画像処理によって、安定して被観察者の肌色モデルを生成することができる。
本発明の第1の実施の形態に係るロボット装置の構成を示すブロック図である。 本発明の第1の実施の形態に係るロボット装置における肌色モデル生成処理ルーチンの内容を示すフローチャートである。 ロボット手先画像のイメージ図である。 本発明の第1の実施の形態に係るロボット装置における手先領域検出処理ルーチンの内容を示すフローチャートである。 (A)被観察者を撮像した画像のイメージ図、(B)2値画像のイメージ図、及び(C)検出される手先領域と画像に設定される探索領域とを説明するためのイメージ図である。 本発明の第2の実施の形態に係るロボット装置における肌色モデル生成処理ルーチンの内容を示すフローチャートである。
符号の説明
10 ロボット装置
12 カメラ
14 画像処理部
16 ロボットアームハンド
18 手先接触センサ
20 ロボット制御部
22 情報記憶部
24 画像入力部
26 手先領域検出部
28 手先色検出部
30 肌色モデル生成部

Claims (7)

  1. 所定領域を撮像するための撮像部と、
    前記所定領域内に移動可能な可動部と、
    前記所定領域内に前記可動部を移動させる動作制御手段と、
    前記可動部の移動に応じて、被観察者が前記所定領域内に肌が露出している部位を移動させたか否かを判定する判定手段と、
    前記判定手段によって、前記被観察者が前記所定領域内に前記部位を移動させたと判定されたときに前記撮像部で撮像された画像に基づいて、前記被観察者の前記部位の色を検出し、前記検出された色に基づいて、前記被観察者の肌色について規定した肌色モデルを生成する肌色モデル生成手段と、
    を含む肌色モデル生成装置。
  2. 前記部位は手であって、
    前記肌色モデル生成手段は、手の肌色モデルを生成する請求項1記載の肌色モデル生成装置。
  3. 前記可動部は、ロボットアームであって、
    前記動作制御手段は、前記被観察者と握手するように、前記ロボットアームを前記所定領域内に移動させる請求項1又は2記載の肌色モデル生成装置。
  4. 前記可動部に設けられ、かつ、前記被観察者の前記部位を検知する検知手段を更に含み、
    前記判定手段は、前記検知手段による検知結果に基づいて、前記被観察者が前記所定領域内に前記部位を移動させたか否かを判定する請求項1〜請求項3の何れか1項記載の肌色モデル生成装置。
  5. 前記判定手段は、前記撮像部によって撮像された画像に基づいて、前記被観察者が前記所定領域内に前記部位を移動させたか否かを判定する請求項1〜請求項3の何れか1項記載の肌色モデル生成装置。
  6. 前記肌色モデル生成手段によって生成された肌色モデルに基づいて、前記撮像部によって撮像された画像から、前記被観察者の前記部位を検出する検出手段を更に含む請求項1〜請求項5の何れか1項記載の肌色モデル生成装置。
  7. コンピュータを、
    移動可能な可動部を所定領域内に移動させる動作制御手段、
    前記可動部の移動に応じて、被観察者が前記所定領域内に肌が露出している部位を移動させたか否かを判定する判定手段、及び
    前記判定手段によって、前記被観察者が前記所定領域内に前記部位を移動させたと判定されたときに前記所定領域を撮像する撮像部で撮像された画像に基づいて、前記被観察者の前記部位の色を検出し、前記検出された色に基づいて、前記被観察者の肌色について規定した肌色モデルを生成する肌色モデル生成手段
    として機能させるためのプログラム。
JP2007102743A 2007-04-10 2007-04-10 肌色モデル生成装置及びプログラム Pending JP2008262272A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007102743A JP2008262272A (ja) 2007-04-10 2007-04-10 肌色モデル生成装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007102743A JP2008262272A (ja) 2007-04-10 2007-04-10 肌色モデル生成装置及びプログラム

Publications (1)

Publication Number Publication Date
JP2008262272A true JP2008262272A (ja) 2008-10-30

Family

ID=39984723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007102743A Pending JP2008262272A (ja) 2007-04-10 2007-04-10 肌色モデル生成装置及びプログラム

Country Status (1)

Country Link
JP (1) JP2008262272A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016035759A1 (ja) * 2014-09-03 2017-07-13 インターマン株式会社 人型ロボット

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016035759A1 (ja) * 2014-09-03 2017-07-13 インターマン株式会社 人型ロボット
US10195748B2 (en) 2014-09-03 2019-02-05 Interman Corporation Humanoid robot

Similar Documents

Publication Publication Date Title
KR100507780B1 (ko) 고속 마커프리 모션 캡쳐 장치 및 방법
KR101603017B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP5740822B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR101118654B1 (ko) 모션캡쳐 기반의 자세분석을 통한 재활 장치 및 이에 따른 재활 방법
JP4479194B2 (ja) 動作識別装置、及び対象物の姿勢識別装置
US20130249786A1 (en) Gesture-based control system
KR101631011B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP4733600B2 (ja) 操作検出装置とそのプログラム
JP4153818B2 (ja) ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム
JP2015176253A (ja) ジェスチャ認識装置およびジェスチャ認識装置の制御方法
US10013632B2 (en) Object tracking apparatus, control method therefor and storage medium
WO2019142329A1 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
JP2006155563A (ja) 動作分析装置
JP2006350577A (ja) 動作分析装置
JP2019048026A (ja) 生体情報解析装置及び手肌解析方法
JP2006185109A (ja) 画像計測装置及び画像計測方法
KR20150106824A (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
CN110991292A (zh) 动作识别比对方法、系统、计算机存储介质和电子装置
JP2015011404A (ja) 動作認識処理装置
JP2011188023A (ja) 情報処理装置、情報処理方法およびプログラム
JP2000268161A (ja) 実時間表情検出装置
JP6632298B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR101447958B1 (ko) 신체 부분 검출 방법 및 장치
JP6465197B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2008262272A (ja) 肌色モデル生成装置及びプログラム