Nothing Special   »   [go: up one dir, main page]

JP6723061B2 - Information processing apparatus, information processing apparatus control method, and program - Google Patents

Information processing apparatus, information processing apparatus control method, and program Download PDF

Info

Publication number
JP6723061B2
JP6723061B2 JP2016082352A JP2016082352A JP6723061B2 JP 6723061 B2 JP6723061 B2 JP 6723061B2 JP 2016082352 A JP2016082352 A JP 2016082352A JP 2016082352 A JP2016082352 A JP 2016082352A JP 6723061 B2 JP6723061 B2 JP 6723061B2
Authority
JP
Japan
Prior art keywords
reliability
joint
information processing
estimation
dimensional shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016082352A
Other languages
Japanese (ja)
Other versions
JP2017191576A (en
Inventor
澤田 圭一
圭一 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016082352A priority Critical patent/JP6723061B2/en
Publication of JP2017191576A publication Critical patent/JP2017191576A/en
Application granted granted Critical
Publication of JP6723061B2 publication Critical patent/JP6723061B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置、情報処理装置の制御方法およびプログラムに関する。 The present invention relates to an information processing device, a method of controlling the information processing device, and a program.

実写風景を背景として、その上にコンピュータグラフィックス(以下、「CG」と記述)を重畳して提示し、体験者に対して、あたかもその場に仮想の物体が存在するかのような体験を行わせる複合現実感(Mixed Reality:MR)の技術がある。このMR技術を用いて臨場感豊かな体験を実現するには、背景となる実写風景の上にただ単純にCGを重畳して表示するだけでは不十分であり、体験者とCGとのインタラクションが重要となる。具体的には、体験者がCGで描画される仮想物体に触ったり、仮想物体を操作すしたりする(しているように体感させる)インタラクションが重要となる。そして、このようなインタラクションを実現するためには、仮想物体を操作する体験者の手指の三次元形状の情報が必要となる。 Computer graphics (hereinafter referred to as "CG") are superimposed and presented on the background of a live-action scenery to give the experience to the experience person as if a virtual object exists on the spot. There is a Mixed Reality (MR) technology that allows you to do this. In order to realize a highly realistic experience using this MR technology, it is not enough to simply superimpose and display the CG on the live-action scenery that is the background, and the interaction between the experience person and the CG is not sufficient. It becomes important. Specifically, it is important for the user to interact with the virtual object drawn by CG or operate the virtual object (to experience it as if it were doing). Then, in order to realize such an interaction, information on the three-dimensional shape of the finger of the experiencer who operates the virtual object is required.

特許文献1では、ステレオ画像から抽出した手指の輪郭線のマッチング処理によって、手指の三次元形状を推定することが開示されている。また、特許文献2では、事前に学習処理が行われたニューラルネットワークに手指関節の生体信号から抽出した特徴量を入力することで手指の三次元形状(関節間の角度)を推定することが開示されている。 Patent Document 1 discloses that a three-dimensional shape of a finger is estimated by a matching process of contour lines of the finger extracted from a stereo image. Further, Patent Document 2 discloses that a three-dimensional shape (angle between joints) of a finger is estimated by inputting a feature amount extracted from a biosignal of a finger joint to a neural network that has undergone learning processing in advance. Has been done.

特許第5574852号公報Japanese Patent No. 5574852 特許第5252432号公報Japanese Patent No. 5252432

しかしながら、特許文献1に記載の技術では、手指の輪郭の三次元位置以外の部分の詳細な形状を推定することはできない。また、特許文献2に記載の技術では、輪郭以外の部分の詳細な三次元形状も推定することができるが、手指関節の生体信号に誤差が含まれるなど学習パターンと大きく異なる特徴量が入力されると、実際とは大きく異なる三次元形状が推定されてしまう場合がある。 However, the technique described in Patent Document 1 cannot estimate the detailed shape of the portion other than the three-dimensional position of the contour of the finger. Further, with the technique described in Patent Document 2, it is possible to estimate a detailed three-dimensional shape of a portion other than the contour, but a feature amount that is significantly different from the learning pattern such as an error is included in the biomedical signal of the finger joint is input. Then, a three-dimensional shape that is very different from the actual one may be estimated.

本発明は、上記の課題に鑑みてなされたものであり、手指の三次元形状の推定精度を向上させるための技術を提供することを目的とする。 The present invention has been made in view of the above problems, and an object thereof is to provide a technique for improving the estimation accuracy of the three-dimensional shape of a finger.

上記の目的を達成する本発明に係る情報処理装置は、
多関節物体の三次元形状を推定する情報処理装置であって、
前記多関節物体の画像データを取得する画像取得手段と、
前記画像データに対して前段処理を行う前段処理手段と、
前記前段処理の結果に対して信頼度を算出する信頼度算出手段と、
前記信頼度に基づいて前記三次元形状の推定条件を決定する推定条件決定手段と、
前記推定条件に基づいて前記三次元形状を推定する形状推定手段と、
を備え
前記推定条件決定手段は、前記形状推定手段が詳細な三次元形状の推定処理又は概略的な三次元形状の推定処理の何れを行うかを前記推定条件として決定することを特徴とする。
An information processing apparatus according to the present invention which achieves the above object,
An information processing apparatus for estimating a three-dimensional shape of an articulated object,
Image acquisition means for acquiring image data of the articulated object;
Pre-stage processing means for performing pre-stage processing on the image data,
Reliability calculation means for calculating a reliability for the result of the preceding stage processing,
Estimation condition determining means for determining the estimation condition of the three-dimensional shape based on the reliability,
Shape estimating means for estimating the three-dimensional shape based on the estimation condition,
Equipped with
The estimated condition determining means, characterized that you determine the shape estimation means performs any estimation process estimation processing or schematic three-dimensional shape of the detailed three-dimensional shape as the estimated condition.

本発明によれば、手指の三次元形状の推定精度を向上させることが可能となる。 According to the present invention, it is possible to improve the estimation accuracy of the three-dimensional shape of a finger.

本発明の一実施形態に係る情報処理システムの構成例を示す図である。It is a figure showing an example of composition of an information processing system concerning one embodiment of the present invention. 本発明の一実施形態に係る情報処理装置のハードウェア構成例を示す図である。It is a figure showing an example of hardware constitutions of an information processor concerning one embodiment of the present invention. 本発明の一実施形態に係る情報処理装置の機能構成例を示す図である。It is a figure showing an example of functional composition of an information processor concerning one embodiment of the present invention. 第1の実施形態に係る情報処理装置が実施する処理の手順を示すフローチャートである。6 is a flowchart illustrating a procedure of processing performed by the information processing apparatus according to the first embodiment. 第1の実施形態に係る手指の周辺領域の抽出処理を模式的に示す図である。It is a figure which shows typically the extraction processing of the peripheral region of a finger|toe which concerns on 1st Embodiment. 第1の実施形態に係る関節の三次元位置の算出処理の例を模式的に示す図である。It is a figure which shows typically the example of a calculation process of the three-dimensional position of the joint which concerns on 1st Embodiment. 第1の実施形態に係る情報処理装置が実施する信頼度算出処理の例を示すフローチャートである。6 is a flowchart showing an example of reliability calculation processing executed by the information processing apparatus according to the first embodiment. 第1の実施形態に係る情報処理装置が実施する詳細な三次元形状の推定処理を示すフローチャートである。6 is a flowchart showing a detailed three-dimensional shape estimation process performed by the information processing apparatus according to the first embodiment. 第1の実施形態に係る情報処理装置が実施する概略的な三次元形状の推定方法を模式的に示す図である。It is a figure which shows typically the rough estimation method of a three-dimensional shape which the information processing apparatus which concerns on 1st Embodiment implements. 第1の実施形態に係る情報処理装置が実施する概略的な三次元形状の推定処理を示すフローチャートである。3 is a flowchart showing a schematic three-dimensional shape estimation process executed by the information processing apparatus according to the first embodiment. 第2の実施形態に係る情報処理装置が実施する処理の手順を示すフローチャートである。It is a flow chart which shows a procedure of processing which an information processor concerning a 2nd embodiment performs. 第2の実施形態に係る情報処理装置が実施する信頼度算出処理の例を示すフローチャートである。9 is a flowchart showing an example of reliability calculation processing executed by the information processing apparatus according to the second embodiment. 第3の実施形態に係る情報処理装置が実施する関節の三次元位置の算出処理の例を模式的に示す図である。It is a figure which shows typically the example of the calculation process of the three-dimensional position of the joint which the information processing apparatus which concerns on 3rd Embodiment implements. 第4の実施形態に係る情報処理装置が実施する処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process which the information processing apparatus which concerns on 4th Embodiment implements. 第5の実施形態に係る手指の部位を模式的に示す図である。It is a figure which shows the site|part of the finger which concerns on 5th Embodiment typically.

以下、図面を参照しながら実施形態を説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。 Hereinafter, embodiments will be described with reference to the drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.

(第1の実施形態)
<情報処理システムの構成>
図1は、本実施形態に係る情報処理システムの構成例を示す図である。情報処理システムは、情報処理装置100、ヘッドマウントディスプレイ101(以下、「HMD」と記述)、距離センサ102を含んで構成される。HMD101は、撮影部103、104と、表示部105、106とを備えており、撮影部103、104の撮影画像を表示部105、106に表示する。距離センサ102は、被写体までの距離を画素値として持つ距離画像を生成する。情報処理装置100は、撮影部103、104による撮影画像と、距離センサ102による距離画像とを取得し、被写体に含まれる手指(多関節物体)の三次元形状を推定する。なお、本発明は、上記のシステム構成に限定されない。例えば、HMD101は必須ではなく、撮影部103、104が手指を撮影するような構成であってもよい。
(First embodiment)
<Structure of information processing system>
FIG. 1 is a diagram showing a configuration example of an information processing system according to the present embodiment. The information processing system includes an information processing device 100, a head mounted display 101 (hereinafter, described as “HMD”), and a distance sensor 102. The HMD 101 includes image capturing units 103 and 104 and display units 105 and 106, and displays captured images of the image capturing units 103 and 104 on the display units 105 and 106. The distance sensor 102 generates a distance image having the distance to the subject as a pixel value. The information processing apparatus 100 acquires the images captured by the imaging units 103 and 104 and the distance image captured by the distance sensor 102, and estimates the three-dimensional shape of a finger (articulated object) included in the subject. The present invention is not limited to the above system configuration. For example, the HMD 101 is not essential, and the image capturing units 103 and 104 may be configured to capture images of fingers.

<情報処理装置のハードウェア構成>
図2は、本実施形態に係る情報処理装置100のハードウェア構成の一例を示す図である。情報処理装置100は、CPU201、RAM202、ROM203、HDD204、インタフェース205、システムバス206を含んで構成され、HMD101及び距離センサ102と接続されている。
<Hardware configuration of information processing device>
FIG. 2 is a diagram showing an example of the hardware configuration of the information processing apparatus 100 according to the present embodiment. The information processing device 100 is configured to include a CPU 201, a RAM 202, a ROM 203, a HDD 204, an interface 205, and a system bus 206, and is connected to the HMD 101 and the distance sensor 102.

CPU201は、RAM202をワークメモリとして、ROM203に格納されたプログラムを読み出して実行し、システムバス206を介して後述する各構成要素を統括的に制御する。これにより、後述する様々な処理が実行される。 The CPU 201 uses the RAM 202 as a work memory to read and execute a program stored in the ROM 203, and centrally controls each component described below via the system bus 206. As a result, various processes described below are executed.

HDD204は、二次記憶装置としての役割を持つ。CPU201は、HDD204からのデータ読み出し、およびHDD204へのデータ書き込みが可能である。なお、二次記憶装置は、HDDの他、光ディスクドライブ等の記憶デバイスでもよい。インタフェース205は、HMD101や距離センサ102などの外部装置とのデータのやり取りを行う。なお、情報処理装置100の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。 The HDD 204 has a role as a secondary storage device. The CPU 201 can read data from the HDD 204 and write data to the HDD 204. Note that the secondary storage device may be a storage device such as an optical disk drive other than the HDD. The interface 205 exchanges data with external devices such as the HMD 101 and the distance sensor 102. It should be noted that although the constituent elements of the information processing apparatus 100 exist in addition to the above, they are not the main subject of the present invention, and thus the description thereof is omitted.

<情報処理装置の機能構成>
図3は、本実施形態に係る情報処理装置100の機能構成の一例を示す図である。情報処理装置100は、画像取得部301、前段処理部302、信頼度算出部、推定条件決定部304、形状推定部305を備えている。
<Functional configuration of information processing device>
FIG. 3 is a diagram showing an example of the functional configuration of the information processing apparatus 100 according to the present embodiment. The information processing device 100 includes an image acquisition unit 301, a pre-stage processing unit 302, a reliability calculation unit, an estimation condition determination unit 304, and a shape estimation unit 305.

画像取得部301は、距離センサ102から距離画像データを取得し、また、撮影部103、104からそれぞれ撮影画像データを取得する。前段処理部302は、距離画像中の手指領域を検出し、手指の周辺領域を抽出し、手指を構成する関節の三次元位置を算出する。信頼度算出部303は、距離画像を用いて、手指を構成する関節の三次元位置の信頼度を算出する。推定条件決定部304は、信頼度算出部303により算出された信頼度に基づいて、形状推定部305による推定条件を決定する。形状推定部305は、推定条件決定部304により決定された推定条件に基づいて、手指の三次元形状を推定する。 The image acquisition unit 301 acquires distance image data from the distance sensor 102, and also acquires captured image data from the imaging units 103 and 104, respectively. The pre-processing unit 302 detects a finger area in the distance image, extracts a peripheral area of the finger, and calculates a three-dimensional position of a joint that constitutes the finger. The reliability calculation unit 303 uses the distance image to calculate the reliability of the three-dimensional position of the joint that constitutes the finger. The estimation condition determining unit 304 determines the estimation condition by the shape estimating unit 305 based on the reliability calculated by the reliability calculating unit 303. The shape estimation unit 305 estimates the three-dimensional shape of the finger based on the estimation condition determined by the estimation condition determination unit 304.

<情報処理装置の処理>
図4は、本実施形態に係る情報処理装置100が実施する処理の手順を示すフローチャートである。ステップS401において、画像取得部301が、撮影部103、104からそれぞれ撮影画像を取得する。以下、撮影部103、104から取得した撮影画像をまとめて、「ステレオ画像」と記述することがある。ステップS402において、画像取得部301が、距離センサ102から距離画像を取得する。
<Processing of information processing device>
FIG. 4 is a flowchart showing a procedure of processing executed by the information processing apparatus 100 according to this embodiment. In step S401, the image acquisition unit 301 acquires captured images from the imaging units 103 and 104, respectively. Hereinafter, the captured images acquired from the capturing units 103 and 104 may be collectively referred to as “stereo image”. In step S402, the image acquisition unit 301 acquires a distance image from the distance sensor 102.

ステップS403において、前段処理部302が、ステップS402において取得した距離画像中の手指領域を検出する。手指領域の検出には任意の方法を用いることできる。例えば、距離センサ102の前に手指をかざして利用することを想定し、距離画像の示す距離値が小さい領域を手指領域として検出することができる。また、ステップS401において取得したステレオ画像から、後述する概略的な三次元形状推定方法を用いて手指ポリゴンを推定し、その手指ポリゴンを距離画像に投影することで、距離画像中における手指領域を算出することもできる。ポリゴンの投影処理については、本発明の主眼ではないため、説明を省略する。 In step S403, the upstream processing unit 302 detects the finger region in the distance image acquired in step S402. Any method can be used to detect the finger region. For example, assuming that the user holds his/her finger in front of the distance sensor 102 and uses it, an area having a small distance value indicated by the distance image can be detected as a finger area. In addition, a finger polygon is estimated from the stereo image acquired in step S401 using a schematic three-dimensional shape estimation method described later, and the finger polygon is projected on a distance image to calculate a finger area in the distance image. You can also do it. Since the polygon projection process is not the main object of the present invention, its explanation is omitted.

ステップS404において、前段処理部302が、ステップS403において検出した手指領域の情報を用いて、手指の周辺領域を抽出する。詳細は後述する。ステップS405において、前段処理部302が、ステップS402において取得した距離画像とステップS404において抽出した手指の周辺領域の情報とを用いて、手指を構成する関節の三次元位置を算出する。詳細は後述する。 In step S404, the pre-processing unit 302 extracts the peripheral area of the finger using the information of the finger area detected in step S403. Details will be described later. In step S405, the pre-processing unit 302 calculates the three-dimensional position of the joint forming the finger using the distance image acquired in step S402 and the information on the peripheral area of the finger extracted in step S404. Details will be described later.

ステップS406において、信頼度算出部303が、ステップS402において取得した距離画像を用いて、ステップS405において算出した関節の三次元位置の信頼度を算出する。詳細は後述する。 In step S406, the reliability calculation unit 303 uses the distance image acquired in step S402 to calculate the reliability of the three-dimensional position of the joint calculated in step S405. Details will be described later.

ステップS407において、推定条件決定部304が、ステップS406において算出した信頼度があらかじめ設定されたしきい値以上か否かを判定する。この判定の結果、信頼度がしきい値以上である場合は、ステップS408へ進む。一方、信頼度がしきい値より小さいと判定された場合、ステップS409へ進む。 In step S407, the estimation condition determining unit 304 determines whether the reliability calculated in step S406 is equal to or higher than a preset threshold value. If the result of this determination is that the reliability is greater than or equal to the threshold value, the flow proceeds to step S408. On the other hand, if it is determined that the reliability is lower than the threshold value, the process proceeds to step S409.

ステップS408において、形状推定部305が、ステップS402において取得した距離画像を用いて、ステップS406において算出した関節の三次元位置から詳細な手指の三次元形状を推定する。詳細は後述する。ステップS409において、形状推定部305が、ステップS401において取得したステレオ画像から概略的な三次元形状を推定する。詳細は後述する。以上で図4の一連の処理が終了する。 In step S408, the shape estimation unit 305 estimates the detailed three-dimensional shape of the finger from the three-dimensional position of the joint calculated in step S406 using the distance image acquired in step S402. Details will be described later. In step S409, the shape estimation unit 305 estimates a schematic three-dimensional shape from the stereo image acquired in step S401. Details will be described later. With this, the series of processing in FIG. 4 is completed.

<手指の周辺領域の抽出処理>
ここで、図5は、手指の周辺領域の抽出処理の一例を模式的に示す図である。手指の周辺領域の抽出処理では、図4のステップS403において検出した手指領域501の周辺領域502を抽出する。周辺領域502として例えば、手指領域501に外接する四角形領域を抽出することができる。なお、本発明における手指の周辺領域502の抽出処理はこれに限定されず、任意の抽出処理を行うことができる。例えば、手指領域501の重心を中心とする四角形領域を周辺領域502として抽出してもよい。また、手指の周辺領域は四角形である必要はなく、任意の形状でかまわない。
<Extraction processing of peripheral area of fingers>
Here, FIG. 5 is a diagram schematically showing an example of the extraction process of the peripheral region of the finger. In the extraction process of the peripheral region of the finger, the peripheral region 502 of the finger region 501 detected in step S403 of FIG. 4 is extracted. As the peripheral area 502, for example, a rectangular area circumscribing the finger area 501 can be extracted. The extraction processing of the peripheral area 502 of the finger in the present invention is not limited to this, and any extraction processing can be performed. For example, a quadrangular area centered on the center of gravity of the finger area 501 may be extracted as the peripheral area 502. Further, the peripheral area of the fingers does not have to be a quadrangle, and may have any shape.

<手指関節の三次元位置の算出方法>
また、図6は、本実施形態に係る手指関節の三次元位置の算出方法を模式的に示す図である。本実施形態に係る前段処理部302は、公知のニューラルネットワーク技術を用いて手指関節601の三次元位置を算出する。
<Calculation method of three-dimensional position of finger joint>
Further, FIG. 6 is a diagram schematically showing a method of calculating the three-dimensional position of the finger joint according to the present embodiment. The pre-processing unit 302 according to the present embodiment calculates the three-dimensional position of the finger joint 601 using a known neural network technique.

ニューラルネットワークの入力層の各ノードには、周辺領域502の各画素における距離画像が示す距離値を入力する。この際、入力層のノード数に合わせて、周辺領域502はリサイズする。出力層には、手指関節601の三次元位置が出力される。具体的には、各関節のx座標、y座標、z座標を並べた一次元ベクトルの各要素が、出力層の各ノードに出力される。ここで、関節数をnとすると、出力層のノード数はn×3となる。 The distance value indicated by the distance image in each pixel of the peripheral region 502 is input to each node of the input layer of the neural network. At this time, the peripheral area 502 is resized according to the number of nodes in the input layer. The three-dimensional position of the finger joint 601 is output to the output layer. Specifically, each element of the one-dimensional vector in which the x-coordinate, y-coordinate, and z-coordinate of each joint are arranged is output to each node in the output layer. Here, when the number of joints is n, the number of nodes in the output layer is n×3.

なお、本実施形態におけるニューラルネットワークは上記のものに限定されない。例えば、ニューラルネットワークが関節間の角度を出力し、その角度から改めて、手指関節601の三次元位置を算出するようにしてもよい。また、図6に示すニューラルネットワークは中間層が1層となっているが、多層構造のニューラルネットワークを用いてもよい。 The neural network according to this embodiment is not limited to the above. For example, the neural network may output the angle between the joints and calculate the three-dimensional position of the finger joint 601 again from the angle. Further, the neural network shown in FIG. 6 has one intermediate layer, but a multilayered neural network may be used.

また、本実施形態におけるニューラルネットワークは、上記の入出力関係になるよう事前に学習処理が行われているものとする。ニューラルネットワークの学習方法は本発明の主眼ではないため、説明を省略する。 In addition, the neural network in the present embodiment is assumed to be subjected to learning processing in advance so as to have the above-mentioned input/output relationship. Since the learning method of the neural network is not the main purpose of the present invention, its explanation is omitted.

また、ニューラルネットワークの入出力データは、絶対座標値(現実空間のある点を原点とした時の座標値)でも、相対座標値(データ中のある要素を原点とした時の座標値)でも、どちらでもかまわない。ただし、入出力データが絶対的な値か相対的な値かは、事前の学習処理とステップS405における手指を構成する関節の三次元位置の算出処理とで統一する必要がある。 In addition, the input/output data of the neural network may be either absolute coordinate values (coordinate values when a certain point in the real space is the origin) or relative coordinate values (coordinate values when a certain element in the data is the origin). It doesn't matter which one. However, it is necessary to unify whether the input/output data is an absolute value or a relative value by the learning process in advance and the three-dimensional position calculation process of the joints forming the fingers in step S405.

<信頼度の算出処理>
図7は、本実施形態に係る情報処理装置100が実施する信頼度の算出処理の手順を示すフローチャートである。以下では、図7を参照して、本実施形態における信頼度の算出処理の手順を説明する。図7の処理はS406の処理の詳細である。
<Calculation process of reliability>
FIG. 7 is a flowchart showing a procedure of reliability calculation processing executed by the information processing apparatus 100 according to the present embodiment. Hereinafter, the procedure of the reliability calculation processing according to the present embodiment will be described with reference to FIG. 7. The process of FIG. 7 is the detail of the process of S406.

ステップS701において、信頼度算出部303が、ステップS405において三次元位置を算出した手指関節601から、厚みを持った手指の三次元形状を表す手指ポリゴンを生成する。手指ポリゴンの生成方法は任意であるが、例えば、各関節に対してあらかじめ決められた三次元図形(指であれば円柱、手の平であれば楕円柱など)を当てはめることで、手指ポリゴンを生成することができる。 In step S701, the reliability calculation unit 303 generates a finger polygon representing the three-dimensional shape of a thick finger from the finger joint 601 whose three-dimensional position is calculated in step S405. A method for generating a finger polygon is arbitrary, but for example, a finger polygon is generated by applying a predetermined three-dimensional figure (a cylinder for a finger, an elliptic cylinder for a palm, etc.) to each joint. be able to.

ここで、各関節に対して当てはめる三次元図形の大きさは、実際の手指の長さや太さに基づいて決めることが望ましい。そのために、手指の長さや太さを外部から入力できるようにしてもよいし、画像取得部301が取得するステレオ画像や距離画像を用いてキャリブレーションするようにしてもよい。 Here, it is desirable to determine the size of the three-dimensional figure fitted to each joint based on the actual length and thickness of the finger. Therefore, the length and the thickness of the finger may be input from the outside, or the stereo image or the distance image acquired by the image acquisition unit 301 may be used for calibration.

ステップS702において、信頼度算出部303が、ステップS701において生成した手指ポリゴンを、距離画像に投影する。ステップS703において、信頼度算出部303が、ステップS402において取得した距離画像とステップS702において投影した手指ポリゴンの距離との差分を算出する。具体的には、距離画像の各画素について、その画素に投影される手指ポリゴンの距離と距離画像が持つ距離を表す画素値との差分を算出する。ここで、差分として任意の尺度を利用することができ、例えば、距離の二乗誤差平均を差分として算出することができる。 In step S702, the reliability calculation unit 303 projects the finger polygon generated in step S701 on the distance image. In step S703, the reliability calculation unit 303 calculates the difference between the distance image acquired in step S402 and the distance of the finger polygon projected in step S702. Specifically, for each pixel of the distance image, the difference between the distance of the finger polygon projected on the pixel and the pixel value representing the distance of the distance image is calculated. Here, an arbitrary scale can be used as the difference, and for example, the mean square error of the distance can be calculated as the difference.

ステップS704において、信頼度算出部303が、ステップS703において算出した差分を信頼度に変換する。信頼度として、差分と負の相関を持つ任意の尺度を利用することができ、例えば、差分の逆数を信頼度として算出することができる。以上で図7の一連の処理が終了する。 In step S704, the reliability calculation unit 303 converts the difference calculated in step S703 into reliability. As the reliability, an arbitrary measure having a negative correlation with the difference can be used, and for example, the reciprocal of the difference can be calculated as the reliability. With that, the series of processing in FIG. 7 is completed.

<詳細な三次元形状の推定処理>
図8は、本実施形態に係る情報処理装置100が実施する詳細な三次元形状の推定処理の手順を示すフローチャートである。図8の処理はS408の処理の詳細である。詳細な三次元形状の推定処理では、公知のモデルフィッティング処理によって手指ポリゴンを高精度化する。モデルフィッティング処理では、まず、信頼度算出部303の処理と同様に、手指ポリゴンを生成し、距離画像と手指ポリゴンの距離との差分を算出する。
<Detailed three-dimensional shape estimation processing>
FIG. 8 is a flowchart showing the procedure of a detailed three-dimensional shape estimation process executed by the information processing apparatus 100 according to this embodiment. The process of FIG. 8 is a detail of the process of S408. In the detailed three-dimensional shape estimation processing, the precision of the finger polygon is improved by the known model fitting processing. In the model fitting process, first, similarly to the process of the reliability calculation unit 303, a finger polygon is generated and the difference between the distance image and the distance between the finger polygon is calculated.

そして、その差分が小さくなるように、後述するポリゴンパラメータを変更する。これらの処理を繰り返し行うことで、三次元形状を高精度化する。以下では、図8を参照して、詳細な三次元形状の推定処理の手順を説明する。なお、ステップS701〜S703の各処理は、図7を参照して説明したステップS701〜S703の各処理と同様であるため、説明を省略する。 Then, the polygon parameters described later are changed so that the difference becomes smaller. By repeating these processes, the three-dimensional shape is made highly accurate. Hereinafter, the procedure of a detailed three-dimensional shape estimation process will be described with reference to FIG. Since each processing of steps S701 to S703 is the same as each processing of steps S701 to S703 described with reference to FIG. 7, description thereof will be omitted.

ステップS801において、形状推定部305が、ステップS703において算出した差分があらかじめ設定されたしきい値以下か否かを判定する。ここで、しきい値として任意の値を用いることができるが、後述する概略的な三次元形状の推定処理では手指の厚み程度の誤差が発生することを考慮し、しきい値を手指の厚み程度(例えば、1cm)にすることが望ましい。このようなしきい値を設定することで、ステップS408で算出される手指の詳細な三次元形状が、ステップS409で算出される手指の概略的な三次元形状よりも高精度になるように調整できる。この判定の結果、差分がしきい値以下である場合は、詳細な三次元形状の推定処理を終了する。一方、差分がしきい値以下でない場合は、ステップS802へ進み、差分がしきい値以下になるまでステップS701〜S802の処理を繰り返す。 In step S801, the shape estimation unit 305 determines whether the difference calculated in step S703 is less than or equal to a preset threshold value. Here, any value can be used as the threshold value, but in consideration of the fact that an error of about the thickness of the finger occurs in the rough estimation process of the three-dimensional shape described later, the threshold value is set to It is desirable to set the degree (for example, 1 cm). By setting such a threshold value, the detailed three-dimensional shape of the finger calculated in step S408 can be adjusted to be more accurate than the rough three-dimensional shape of the finger calculated in step S409. .. If the result of this determination is that the difference is less than or equal to the threshold value, the detailed three-dimensional shape estimation process ends. On the other hand, if the difference is not less than or equal to the threshold value, the process proceeds to step S802, and the processes of steps S701 to S802 are repeated until the difference becomes less than or equal to the threshold value.

ステップS802において、形状推定部305が、ステップS703において算出した差分が小さくなるようにポリゴンパラメータを変更する。ここで、ポリゴンパラメータとは、関節の三次元位置、指の長さ、指の太さ、手のひらの大きさなどを指す。ポリゴンパラメータを変更する方法として公知の最適化手法を用いることができる。なお、本実施形態は詳細な三次元形状の推定にモデルフィッティング処理を用いる方法に限定されない。後述の概略的な三次元形状の推定処理と比べて、より厚みに関する精度(詳細度)の高い任意の方法を用いて、詳細な三次元形状を推定することができる。 In step S802, the shape estimation unit 305 changes the polygon parameter so that the difference calculated in step S703 becomes smaller. Here, the polygon parameter refers to the three-dimensional position of the joint, the length of the finger, the thickness of the finger, the size of the palm, and the like. A known optimization method can be used as a method for changing the polygon parameters. The present embodiment is not limited to the method of using the model fitting process for the detailed estimation of the three-dimensional shape. It is possible to estimate a detailed three-dimensional shape by using an arbitrary method having a higher accuracy (detailedness) regarding thickness, as compared with a schematic three-dimensional shape estimation process described later.

以上で図8の一連の処理が終了する。 Thus, the series of processing shown in FIG. 8 is completed.

<概略的な三次元形状の推定処理>
図9は、本実施形態に係る情報処理装置100が実施する概略的な三次元形状の推定方法を模式的に示す図である。また、図10は、本実施形態に係る情報処理装置100が実施する概略的な三次元形状の推定処理の手順を示すフローチャートである。図10の処理はS409の処理の詳細である。以下では、図9と図10を参照して、本実施形態における概略的な三次元形状の推定処理について説明する。
<Schematic three-dimensional shape estimation process>
FIG. 9 is a diagram schematically showing a schematic three-dimensional shape estimation method implemented by the information processing apparatus 100 according to the present embodiment. Further, FIG. 10 is a flowchart showing a procedure of a schematic three-dimensional shape estimation process executed by the information processing apparatus 100 according to the present embodiment. The process of FIG. 10 is the detail of the process of S409. Hereinafter, a schematic three-dimensional shape estimation process according to the present embodiment will be described with reference to FIGS. 9 and 10.

ステップS1001において、形状推定部305が、ステップS401において取得した撮影画像901、902中の手指領域903、904を検出する。抽出処理には任意の方法を用いることができるが、例えば、手指の色をあらかじめ登録しておき、その色の画素を手指領域として検出することができる。 In step S1001, the shape estimation unit 305 detects the finger regions 903 and 904 in the captured images 901 and 902 acquired in step S401. Although any method can be used for the extraction processing, for example, the color of the finger can be registered in advance and the pixel of that color can be detected as the finger area.

ステップS1002において、形状推定部305が、ステップS1001において検出した手指領域903、904の輪郭を構成する点(以下、「輪郭点」と呼ぶ)を抽出する。輪郭点の抽出方法として任意の方法を用いることができるが、例えば、手指領域903、904と、一定間隔で引かれた水平線(もしくは、エピポーラ線)との交点を、輪郭点として抽出することができる。 In step S1002, the shape estimation unit 305 extracts points (hereinafter, referred to as “contour points”) that form the contours of the finger regions 903 and 904 detected in step S1001. Although any method can be used as a method for extracting contour points, for example, intersection points between the finger regions 903 and 904 and horizontal lines (or epipolar lines) drawn at regular intervals can be extracted as contour points. it can.

ステップS1003において、形状推定部305が、ステップS1002において抽出した輪郭点のマッチング処理によってステレオ画像の対応点を算出する。マッチング処理として任意の方法を用いることができるが、例えば、特許文献1に記載されているように、輪郭点の特徴に基づいたマッチング処理を利用することができる。 In step S1003, the shape estimation unit 305 calculates the corresponding points of the stereo image by the matching process of the contour points extracted in step S1002. Although any method can be used as the matching process, for example, as described in Patent Document 1, a matching process based on the features of the contour points can be used.

ステップS1004において、形状推定部305が、ステップS1003において算出した対応点に対して、公知の三角測量技術を適用することで、輪郭点の距離を算出する。三角測量技術については本発明の主眼ではないため、説明を省略する。 In step S1004, the shape estimation unit 305 calculates the distance between the contour points by applying a known triangulation technique to the corresponding points calculated in step S1003. Since the triangulation technique is not the main object of the present invention, the description is omitted.

ステップS1005において、形状推定部305が、ステップS1002において検出した輪郭点を繋ぎ合わせることでポリゴン化する。ポリゴン化では、ステップS1004において算出した輪郭点の距離を用い、(二次元ではなく)三次元ポリゴンを生成する。この三次元ポリゴンは、輪郭点を繋いだ厚みを持たないポリゴンである。そのため、実際の手指の詳細な形状は反映されない。しかし、輪郭付近の距離については高精度であり、かつ、輪郭以外の領域についても近似的な距離を持つことになる。また、前述の詳細な三次元形状の算出処理に比べてロバスト性が高い。以上で図10の一連の処理が終了する。 In step S1005, the shape estimation unit 305 connects the contour points detected in step S1002 to form a polygon. In polygonization, the distance between the contour points calculated in step S1004 is used to generate a three-dimensional polygon (not two-dimensional). This three-dimensional polygon is a polygon that connects contour points and has no thickness. Therefore, the detailed shape of the actual finger is not reflected. However, the distance near the contour is highly accurate, and the area other than the contour also has an approximate distance. In addition, it is more robust than the detailed three-dimensional shape calculation process described above. Thus, the series of processing in FIG. 10 is completed.

なお、本発明において概略的な三次元形状を算出する方法は、上記の方法に限定されず、任意の方法で概略的な三次元形状を算出することができる。例えば、距離画像の表す距離値をポリゴン化することで概略的な三次元形状として利用してもよい。また、上記では、概略的な三次元形状として、厚みを持たないポリゴンを生成したが、本発明はこれに限定されない。前述のフィッティング処理よりも厚みに関して精度(詳細度)が低い任意の方法で、概略的な三次元形状を生成することができる。 The method for calculating a schematic three-dimensional shape in the present invention is not limited to the above method, and a schematic three-dimensional shape can be calculated by any method. For example, the distance value represented by the distance image may be polygonized to be used as a rough three-dimensional shape. Further, in the above, a polygon having no thickness is generated as a schematic three-dimensional shape, but the present invention is not limited to this. It is possible to generate a schematic three-dimensional shape by an arbitrary method that is lower in accuracy (detailedness) with respect to the thickness than the fitting processing described above.

以上述べたように、本実施形態では、まず、ニューラルネットワークを用いて手指関節601の三次元位置を算出し、その後、得られた三次元位置の信頼度を算出する。そして、信頼度に応じて厚み(詳細度)に関する推定条件を切り替える。具体的には、信頼度が高い場合は、モデルフィッティング処理により詳細な(厚みを考慮した)三次元形状を推定し、信頼度が低い場合は、輪郭線のマッチング処理により概略的な(厚みを考慮しない)三次元形状を推定する。 As described above, in the present embodiment, first, the neural network is used to calculate the three-dimensional position of the finger joint 601 and then the reliability of the obtained three-dimensional position is calculated. Then, the estimation condition regarding the thickness (detail) is switched according to the reliability. Specifically, when the reliability is high, a detailed (thickness is considered) three-dimensional shape is estimated by the model fitting process, and when the reliability is low, a rough (thickness is determined by the contour matching process). Estimate the three-dimensional shape.

ここで、ニューラルネットワークとモデルフィッティング処理の組み合わせでは、手指の厚みを考慮した三次元形状を算出可能である。しかし、距離画像に誤差が含まれる場合などに、実際と大きく異なる三次元形状が算出されてしまう可能性がある(ロバスト性が低い)。一方、輪郭点のポリゴン化処理は、手指の厚みを考慮できないが、実際と大きく異なる三次元形状が算出される可能性は低い(ロバスト性が高い)。本実施形態では、上記2つの三次元形状推定方法を信頼度に応じて使い分けることで、実際とは大きく異なる三次元形状が推定されてしまうことを抑制しつつ、できるだけ詳細な手指の三次元形状を推定できる。 Here, with the combination of the neural network and the model fitting process, it is possible to calculate the three-dimensional shape in consideration of the thickness of the finger. However, when the range image includes an error, a three-dimensional shape that is significantly different from the actual one may be calculated (low robustness). On the other hand, in the polygon processing of the contour points, the thickness of the fingers cannot be taken into consideration, but it is unlikely that a three-dimensional shape that is significantly different from the actual one will be calculated (high robustness). In the present embodiment, by properly using the two three-dimensional shape estimation methods described above according to the reliability, it is possible to prevent the estimation of a three-dimensional shape that is significantly different from the actual one, and to make the three-dimensional shape of the finger as detailed as possible. Can be estimated.

なお、上記では、信頼度に応じて、2つの推定条件を切り替える例について説明したが、本発明はそれに限定されない。信頼度に応じて、2つ以上の任意の数の推定条件を切り替えることができる。また、上記では、先に信頼度を算出してから、推定条件を切り替える例について説明したが、本発明はそれに限定されない。先に両方の推定条件で推定を行ってから、信頼度に応じてどちらの推定結果を採用するかを決めてもかまわない。また、上記では、関節の三次元位置から信頼度を算出し、その信頼度に応じて推定条件を決定する例について説明したが、本発明はこれに限定されない。関節の三次元位置から直接、推定条件を決定してもかまわない。 In addition, although the example which switches two estimation conditions according to reliability is demonstrated above, this invention is not limited to it. An arbitrary number of estimation conditions of two or more can be switched according to the reliability. Further, in the above, an example in which the reliability is calculated first and then the estimation condition is switched has been described, but the present invention is not limited thereto. It is also possible to first perform the estimation under both estimation conditions and then decide which estimation result to use depending on the reliability. Moreover, although the example in which the reliability is calculated from the three-dimensional position of the joint and the estimation condition is determined according to the reliability has been described above, the present invention is not limited to this. The estimation condition may be determined directly from the three-dimensional position of the joint.

本実施形態によれば、実際とは大きく異なる三次元形状が推定されてしまうことを抑制しつつ、できるだけ詳細な手指の三次元形状を推定できるため、手指の三次元形状の推定精度を向上させることが可能となる。 According to the present embodiment, the estimation accuracy of the three-dimensional shape of the finger is improved because the three-dimensional shape of the finger can be estimated as detailed as possible while suppressing the estimation of the three-dimensional shape that is significantly different from the actual one. It becomes possible.

(第2の実施形態)
次に、第2の実施形態を説明する。第1の実施形態では、ニューラルネットワークに距離情報を入力することで手指関節の三次元位置を算出する場合を例に挙げて説明した。これに対し、本実施形態では、ニューラルネットワークに手指領域を表すシルエット画像を入力することで手指関節の三次元位置を算出する場合を例に挙げて説明する。このように本実施形態と第1の実施形態は、ニューラルネットワークにシルエット画像を入力する点が主として異なる。したがって、本実施形態の説明において、第1の実施形態と同一の部分については、図1〜図10に付した符号と同一の符号を付す等して詳細な説明を省略する。
(Second embodiment)
Next, a second embodiment will be described. In the first embodiment, the case where the three-dimensional position of the finger joint is calculated by inputting the distance information into the neural network has been described as an example. On the other hand, in the present embodiment, a case will be described as an example in which a three-dimensional position of a finger joint is calculated by inputting a silhouette image representing a finger region to the neural network. As described above, the present embodiment and the first embodiment are mainly different in that a silhouette image is input to the neural network. Therefore, in the description of the present embodiment, the same parts as those in the first embodiment will be denoted by the same reference numerals as those in FIGS. 1 to 10, and detailed description thereof will be omitted.

<情報処理装置の処理>
図11は、本実施形態に係る情報処理装置100が実施する処理の手順を示すフローチャートである。以下では、図11を参照して、本実施形態の処理の手順を説明する。なお、ステップS401、S404、S409の各処理は、第1の実施形態で図4を参照して説明した処理と同様であるため、説明を省略する。
<Processing of information processing device>
FIG. 11 is a flowchart showing a procedure of processing executed by the information processing apparatus 100 according to this embodiment. Below, the procedure of the process of the present embodiment will be described with reference to FIG. 11. Note that the processes of steps S401, S404, and S409 are the same as the processes described with reference to FIG. 4 in the first embodiment, so description thereof will be omitted.

ステップS1101において、前段処理部302が、ステップS401において取得した撮影画像901、902中の手指領域903、904(多関節領域)を検出する。検出方法は、前述の、形状推定部305による検出方法と同様であるため、説明を省略する。 In step S1101, the pre-processing unit 302 detects the finger regions 903 and 904 (multi-joint regions) in the captured images 901 and 902 acquired in step S401. The detection method is the same as the above-described detection method by the shape estimation unit 305, and thus description thereof will be omitted.

ステップS1102において、前段処理部302が、ステップS1101において検出した手指領域903、904からそれぞれ検出シルエット画像を生成する。検出シルエット画像とは、手指領域として検出された画素の画素値が1、検出されなかった画素の画素値が0となる画像である。 In step S1102, the pre-stage processing unit 302 generates detected silhouette images from the finger regions 903 and 904 detected in step S1101. The detected silhouette image is an image in which the pixel value of the pixel detected as the finger region is 1 and the pixel value of the pixel not detected is 0.

ステップS1103において、前段処理部302が、ステップS1102において生成した検出シルエット画像と、ステップS404において抽出した手指の周辺領域502の情報とを用いて、手指関節601の概略的な三次元位置(相対座標値)を算出する。詳細は後述する。 In step S1103, the pre-processing unit 302 uses the detected silhouette image generated in step S1102 and the information of the peripheral region 502 of the finger extracted in step S404 to calculate the approximate three-dimensional position (relative coordinates) of the finger joint 601. Value) is calculated. Details will be described later.

ステップS1104において、前段処理部302が、ステップS1103において生成した手指関節601の概略的な三次元位置を絶対座標値に変換する。変換方法は任意であるが、例えば、距離センサ102から手指領域903、904の重心における距離を取得し、その距離をオフセットとして加算することで絶対座標値に変換することができる。また、前述の概略的な三次元形状の推定方法によって厚みを持たない手指ポリゴンを生成し、手指領域903、904の重心における手指ポリゴンの距離をオフセットとして加算してもよい。 In step S1104, the pre-stage processing unit 302 converts the schematic three-dimensional position of the finger joint 601 generated in step S1103 into absolute coordinate values. Although the conversion method is arbitrary, for example, the distance at the center of gravity of the finger regions 903 and 904 can be acquired from the distance sensor 102, and the distance can be added as an offset to be converted into an absolute coordinate value. Alternatively, a finger polygon having no thickness may be generated by the above-described schematic three-dimensional shape estimation method, and the distance between the finger polygons at the centers of gravity of the finger regions 903 and 904 may be added as an offset.

ステップS1105において、信頼度算出部303が、ステップS1102において生成した検出シルエット画像を用いて、ステップS1104において算出した関節の三次元位置の信頼度を算出する。詳細は後述する。 In step S1105, the reliability calculation unit 303 calculates the reliability of the three-dimensional position of the joint calculated in step S1104, using the detected silhouette image generated in step S1102. Details will be described later.

ステップS1106において、推定条件決定部304が、ステップS1105において算出した信頼度があらかじめ設定されたしきい値以上か否かを判定する。この判定の結果、信頼度がしきい値以上である場合は、ステップS1107へ進む。一方、信頼度がしきい値より小さいと判定された場合、ステップS409へ進む。 In step S1106, the estimation condition determining unit 304 determines whether the reliability calculated in step S1105 is equal to or higher than a preset threshold value. If the result of this determination is that the reliability is greater than or equal to the threshold value, the flow proceeds to step S1107. On the other hand, if it is determined that the reliability is lower than the threshold value, the process proceeds to step S409.

ステップS1107において、形状推定部305が、ステップS1102において生成した検出シルエット画像を用いて、ステップS1104において算出した関節の三次元位置から詳細な手指の三次元形状を推定する。詳細は後述する。 In step S1107, the shape estimation unit 305 estimates the detailed three-dimensional shape of the finger from the three-dimensional position of the joint calculated in step S1104, using the detected silhouette image generated in step S1102. Details will be described later.

なお、本実施形態における手指関節601の三次元位置の算出処理では、ニューラルネットワークに検出シルエット画像を入力する。具体的には、入力層の各ノードに、検出シルエット画像の各画素の画素値を入力する。出力層については、第1の実施形態と同様であるため、説明を省略する。なお、本実施形態におけるニューラルネットワークは、検出シルエット画像を入力すると、手指関節の三次元位置を出力するように、事前に学習処理が行われているものとする。また、本実施形態におけるニューラルネットワークには、必ずしも手指領域903と904の両方を入力する必要はなく、片方だけを入力するようにしてもかまわない。 In the calculation processing of the three-dimensional position of the finger joint 601 in the present embodiment, the detected silhouette image is input to the neural network. Specifically, the pixel value of each pixel of the detected silhouette image is input to each node of the input layer. The output layer is the same as that in the first embodiment, and thus the description is omitted. It is assumed that the neural network according to the present embodiment performs learning processing in advance so that when the detected silhouette image is input, the three-dimensional position of the finger joint is output. Further, it is not always necessary to input both the finger areas 903 and 904 to the neural network in the present embodiment, and only one of them may be input.

<信頼度の算出処理>
図12は、本実施形態に係る情報処理装置100が実施する信頼度の算出処理の手順を示すフローチャートである。以下では、図12を参照して、本実施形態における信頼度の算出処理の手順を説明する。図12の処理はS1105の処理の詳細である。なお、ステップS701の処理は、第1の実施形態と同様であるため、説明を省略する。
<Calculation process of reliability>
FIG. 12 is a flowchart showing a procedure of reliability calculation processing executed by the information processing apparatus 100 according to the present embodiment. Hereinafter, the procedure of the reliability calculation processing according to the present embodiment will be described with reference to FIG. The process of FIG. 12 is the detail of the process of S1105. Note that the processing of step S701 is the same as that of the first embodiment, so description thereof will be omitted.

ステップS1201において、信頼度算出部303が、ステップS701において生成した手指ポリゴンを、撮影画像901、902に投影する。ステップS1202において、信頼度算出部303が、ステップS1201の投影結果からポリゴンシルエット画像を生成する。ポリゴンシルエット画像とは、手指ポリゴンが投影された画素の画素値が1、投影されなかった画素の画素値が0となる画像である。 In step S1201, the reliability calculation unit 303 projects the finger polygons generated in step S701 on the captured images 901 and 902. In step S1202, the reliability calculation unit 303 generates a polygon silhouette image from the projection result of step S1201. The polygon silhouette image is an image in which the pixel value of the pixel on which the finger polygon is projected is 1 and the pixel value of the pixel which is not projected is 0.

ステップS1203において、信頼度算出部303が、ステップS1202で生成したポリゴンシルエット画像と、ステップS1102で生成した検出シルエット画像との差分を算出する。差分の算出方法は第1の実施形態と同様であるため、説明を省略する。 In step S1203, the reliability calculation unit 303 calculates the difference between the polygon silhouette image generated in step S1202 and the detected silhouette image generated in step S1102. The method of calculating the difference is the same as that in the first embodiment, and thus the description is omitted.

ステップS1204において、信頼度算出部303が、ステップS1203において算出した差分を信頼度に変換する。信頼度への変換方法は第1の実施形態と同様であるため、説明を省略する。 In step S1204, the reliability calculation unit 303 converts the difference calculated in step S1203 into reliability. Since the method of converting to reliability is the same as that of the first embodiment, the description is omitted.

以上述べたように、本実施形態では、ニューラルネットワークに検出シルエット画像を入力することで手指関節601の三次元位置を算出し、その三次元位置の信頼度に応じて処理を切り替える。したがって、距離センサを使わずに、実際とは大きく異なる三次元形状が推定されてしまうことを抑制しつつ、できるだけ詳細な手指の三次元形状を推定できる。よって、手指の三次元形状の推定精度を向上させることが可能となる。 As described above, in the present embodiment, the three-dimensional position of the finger joint 601 is calculated by inputting the detected silhouette image to the neural network, and the processing is switched according to the reliability of the three-dimensional position. Therefore, it is possible to estimate the detailed three-dimensional shape of the finger as much as possible while suppressing the estimation of a three-dimensional shape that is significantly different from the actual one without using the distance sensor. Therefore, it is possible to improve the estimation accuracy of the three-dimensional shape of the finger.

(第3の実施形態)
第1、第2の実施形態では、ニューラルネットワークの出力層の各ノードが手指関節の座標値を出力する場合を例に挙げて説明した。第3の実施形態では、ニューラルネットワークの出力層の各ノードが、あらかじめ設定された手指パターンの尤もらしさを出力する場合を例に挙げて説明する。このように本実施形態と第1、第2の実施形態とは、ニューラルネットワークの各ノードが、あらかじめ設定された手指パターンの尤もらしさを出力する点が主として異なる。したがって、本実施形態の説明において、第1、第2の実施形態と同一の部分については、図1〜図12に付した符号と同一の符号を付す等して詳細な説明を省略する。
(Third Embodiment)
In the first and second embodiments, the case where each node in the output layer of the neural network outputs the coordinate value of the finger joint has been described as an example. In the third embodiment, an example will be described in which each node in the output layer of the neural network outputs the likelihood of a preset finger pattern. As described above, the present embodiment is different from the first and second embodiments mainly in that each node of the neural network outputs the likelihood of a preset finger pattern. Therefore, in the description of the present embodiment, the same parts as those in the first and second embodiments will be denoted by the same reference numerals as those in FIGS. 1 to 12, and the detailed description thereof will be omitted.

<手指関節の三次元位置の算出方法>
図13は、本実施形態に係る手指関節601の三次元位置の算出方法を模式的に示す図である。本実施形態における前段処理部302は、ニューラルネットワーク技術を用いて、あらかじめ設定された手指パターン群1301から最も尤もらしい手指パターンを算出する。具体的には、出力層の各ノードが各手指パターンに対応しており、各手指パターンの尤もらしさを出力する。
<Calculation method of three-dimensional position of finger joint>
FIG. 13 is a diagram schematically showing a method for calculating the three-dimensional position of the finger joint 601 according to this embodiment. The pre-processing unit 302 in the present embodiment calculates the most likely finger pattern from the preset finger pattern group 1301 by using the neural network technology. Specifically, each node in the output layer corresponds to each finger pattern, and the likelihood of each finger pattern is output.

そして、最も尤もらしさの大きいノードに対応する手指パターンを選択することで、手指関節601の三次元位置を算出する。なお、本実施形態におけるニューラルネットワークは、距離画像や検出シルエット画像を入力すると、手指の実際の形状に最も近い手指パターンに対応するノードの出力値が最も大きくなるように、あらかじめ学習処理が行われているものとする。 Then, the three-dimensional position of the finger joint 601 is calculated by selecting the finger pattern corresponding to the node having the highest likelihood. It should be noted that the neural network in the present embodiment performs learning processing in advance so that when a distance image or a detected silhouette image is input, the output value of the node corresponding to the finger pattern closest to the actual shape of the finger becomes the largest. It is assumed that

本実施形態における信頼度算出部303は、前段処理部302が出力した各手指パターンの尤もらしさから、手指関節601の三次元位置の信頼度を算出する。ここで、ニューラルネットワークが選択した手指パターンの尤もらしさと、他の手指パターンの尤もらしさとの差が大きいほど、ニューラルネットワークが選択した手指パターンは信頼できる。 The reliability calculation unit 303 in this embodiment calculates the reliability of the three-dimensional position of the finger joint 601 from the likelihood of each finger pattern output by the pre-processing unit 302. Here, the larger the difference between the likelihood of the finger pattern selected by the neural network and the likelihood of another finger pattern, the more reliable the finger pattern selected by the neural network.

そこで、手指パターン群1301の尤もらしさの平均値とニューラルネットワークが選択した手指パターンの尤もらしさとの差を、信頼度として算出する。なお、本実施形態における信頼度はこれに限定されない。例えば、ニューラルネットワークが選択した手指パターンの(つまり、最も値の大きい)尤もらしさと、二番目に値の大きい尤もらしさとの差を信頼度として算出してもよい。 Therefore, the difference between the average likelihood of the finger pattern group 1301 and the likelihood of the finger pattern selected by the neural network is calculated as the reliability. The reliability in this embodiment is not limited to this. For example, the difference between the likelihood of the finger pattern selected by the neural network (that is, the likelihood of the largest value) and the likelihood of the second largest value may be calculated as the reliability.

以上述べたように、本実施形態では、ニューラルネットワークによって、あらかじめ設定された手指パターン群から最も尤もらしい手指パターンを算出し、その信頼度に応じて処理を切り替える。したがって、ジェスチャ認識などのように推定対象の手指パターンが限定されているケースにおいて、実際とは大きく異なる三次元形状が推定されてしまうことを抑制しつつ、できるだけ詳細な手指の三次元形状を推定できる。よって、手指の三次元形状の推定精度を向上させることが可能となる。 As described above, in the present embodiment, the most probable finger pattern is calculated from the preset finger pattern group by the neural network, and the process is switched according to the reliability thereof. Therefore, in cases such as gesture recognition where the finger pattern to be estimated is limited, it is possible to estimate the most detailed three-dimensional shape of the finger while suppressing the estimation of a three-dimensional shape that is significantly different from the actual one. it can. Therefore, it is possible to improve the estimation accuracy of the three-dimensional shape of the finger.

(第4の実施形態)
第1〜第3の実施形態では、前段処理として手指関節の三次元位置を算出し、その三次元位置の信頼度に応じて処理を切り替える場合を例に挙げて説明した。第4の実施形態では、前段処理として撮影画像や距離画像から手指関節を検出し、その手指関節の検出結果の信頼度に応じて処理を切り替える場合を例に挙げて説明する。
(Fourth Embodiment)
In the first to third embodiments, the case where the three-dimensional position of the finger joint is calculated as the pre-stage process and the process is switched according to the reliability of the three-dimensional position has been described as an example. In the fourth embodiment, a case will be described as an example in which a finger joint is detected from a captured image or a distance image as preprocessing and the processing is switched according to the reliability of the detection result of the finger joint.

このように本実施形態と第1〜第3の実施形態は、撮影画像や距離画像から手指関節を検出する点と、その手指関節の検出結果の信頼度に応じて処理を切り替える点が主として異なる。したがって、本実施形態の説明において、第1〜第3の実施形態と同一の部分については、図1〜図13に付した符号と同一の符号を付す等して詳細な説明を省略する。 As described above, the present embodiment and the first to third embodiments are mainly different in that a finger joint is detected from a captured image or a distance image and that processing is switched depending on the reliability of the detection result of the finger joint. .. Therefore, in the description of the present embodiment, the same parts as those in the first to third embodiments will be denoted by the same reference numerals as those in FIGS. 1 to 13, and the detailed description thereof will be omitted.

<情報処理装置の処理>
図14は、本実施形態に係る情報処理装置100が実施する処理の手順を示すフローチャートである。以下では、図14を参照して、本実施形態の処理の手順を説明する。なお、ステップS408、S409の処理は、第1〜第3の実施形態と同様であるため、説明を省略する。
<Processing of information processing device>
FIG. 14 is a flowchart showing a procedure of processing executed by the information processing apparatus 100 according to this embodiment. Below, the procedure of the process of this embodiment will be described with reference to FIG. Note that the processes of steps S408 and S409 are the same as those in the first to third embodiments, and thus the description thereof will be omitted.

ステップS1401において、画像取得部301が、画像を取得する。本実施形態では、撮影画像と距離画像の少なくともどちらか一方を取得し、その後の処理に利用する。以下では、撮影画像を取得して利用する例について説明するが、本発明はこれに限定されない。 In step S1401, the image acquisition unit 301 acquires an image. In the present embodiment, at least one of the captured image and the distance image is acquired and used for subsequent processing. Hereinafter, an example of acquiring and using a captured image will be described, but the present invention is not limited to this.

ステップS1402において、前段処理部302が、ステップS1401において取得した画像から、手指関節601を検出する。手指関節の検出には任意の方法を用いることができるが、例えば、学習型の識別器を用いて手指の関節を検出することができる。 In step S1402, the upstream processing unit 302 detects the finger joint 601 from the image acquired in step S1401. Although any method can be used to detect the finger joint, for example, the finger joint can be detected using a learning type discriminator.

ステップS1403において、信頼度算出部303が、ステップS1402において検出した手指関節601の信頼度を算出する。例えば、あらかじめ設定された手指パターンの関節数の平均値と検出された関節数との差を、信頼度として算出することができる。なお、本発明はこれに限定されず、検出された関節数と相関のある任意の値を信頼度として利用してもよい。また、関節の位置関係の尤もらしさを信頼度として算出してもよい。以下では、検出された関節の数を信頼度として用いる例について説明するが、本発明はこれに限定されない。 In step S1403, the reliability calculation unit 303 calculates the reliability of the finger joint 601 detected in step S1402. For example, a difference between the average value of the number of joints of a finger pattern set in advance and the number of detected joints can be calculated as the reliability. Note that the present invention is not limited to this, and any value having a correlation with the number of detected joints may be used as the reliability. Further, the likelihood of the positional relationship of joints may be calculated as the reliability. Hereinafter, an example in which the number of detected joints is used as the reliability will be described, but the present invention is not limited to this.

ステップS1404において、推定条件決定部304が、ステップS1403において算出した信頼度があらかじめ設定されたしきい値以上か否かを判定する。この判定の結果、信頼度がしきい値以上である場合は、ステップS1405へ進む。一方、信頼度がしきい値より小さいと判定された場合、ステップS409へ進む。 In step S1404, the estimation condition determining unit 304 determines whether the reliability calculated in step S1403 is equal to or higher than a preset threshold value. If the result of this determination is that the reliability is greater than or equal to the threshold value, the flow proceeds to step S1405. On the other hand, if it is determined that the reliability is lower than the threshold value, the process proceeds to step S409.

ステップS1405において、形状推定部305が、ステップS1402において検出した手指関節601から、関節の三次元位置を算出する。本実施形態では、ニューラルネットワークの入力層に検出した手指関節601の二次元座標を入力する。ニューラルネットワークのその他の処理については第1〜第3の実施形態と同様であるため、説明を省略する。 In step S1405, the shape estimation unit 305 calculates the three-dimensional position of the joint from the finger joint 601 detected in step S1402. In this embodiment, the detected two-dimensional coordinates of the finger joint 601 are input to the input layer of the neural network. The other processes of the neural network are the same as those of the first to third embodiments, and thus the description thereof will be omitted.

以上述べたように、本実施形態では、前段処理として撮影画像や距離画像から手指関節601を検出し、その手指関節601の検出結果の信頼度に応じて、ニューラルネットワークによる関節の三次元位置の算出を行うか否かを切り替える。つまり、手指関節601の検出結果の信頼度が低い場合は、関節の三次元位置の算出を行うことなく、概略的な三次元形状の推定に切り替えることができる。 As described above, in the present embodiment, the finger joint 601 is detected from the captured image or the distance image as the pre-stage processing, and the three-dimensional position of the joint is detected by the neural network according to the reliability of the detection result of the finger joint 601. Switches whether to perform calculation. That is, when the reliability of the detection result of the finger joint 601 is low, it is possible to switch to the estimation of the approximate three-dimensional shape without calculating the three-dimensional position of the joint.

したがって、実際とは大きく異なる三次元形状が推定されてしまうことを抑制しつつ、できるだけ詳細な手指の三次元形状を推定でき、かつ、処理を軽くすることもできる。よって、手指の三次元形状の推定精度を向上させることが可能となる。 Therefore, it is possible to estimate the detailed three-dimensional shape of the finger as much as possible while suppressing the estimation of a three-dimensional shape that is significantly different from the actual one, and it is also possible to reduce the processing. Therefore, it is possible to improve the estimation accuracy of the three-dimensional shape of the finger.

(第5の実施形態)
次に、第5の実施形態を説明する。第1〜第4の実施形態では、前段処理の信頼度に応じて、手指全体の厚みに関する推定条件を切り替える場合を例に説明した。第5の実施形態では、手指の部位ごとに信頼度を算出し、その信頼度に応じて、手指の部位ごとに厚み(詳細度)に関する推定条件を切り替える場合を例に説明する。
(Fifth Embodiment)
Next, a fifth embodiment will be described. In the first to fourth embodiments, the case has been described as an example in which the estimation condition regarding the thickness of the entire finger is switched according to the reliability of the former process. In the fifth embodiment, an example will be described in which the reliability is calculated for each part of the finger and the estimation condition regarding the thickness (detail) is switched for each part of the finger according to the reliability.

このように本実施形態と第1〜第4の実施形態は、手指の部位ごとに信頼度を算出する点と、手指の部位ごとに厚み(詳細度)に関する推定条件を切り替える点が主として異なる。したがって、本実施形態の説明において、第1〜第4の実施形態と同一の部分については、図1〜図14に付した符号と同一の符号を付す等して詳細な説明を省略する。 As described above, the present embodiment is different from the first to fourth embodiments mainly in that the reliability is calculated for each finger part and that the estimation condition regarding the thickness (detail) is switched for each finger part. Therefore, in the description of the present embodiment, the same parts as those in the first to fourth embodiments will be denoted by the same reference numerals as those in FIGS. 1 to 14, and the detailed description thereof will be omitted.

<手指の部位>
図15は、手指の部位を模式的に示す図である。本実施形態では、図15に示すように、手指を部位1501〜1515に分割する。そして、部位ごとに信頼度を算出する。信頼度の算出方法は第1〜第4の実施形態と同様であるため、説明を省略する。その後、信頼度があらかじめ設定されたしきい値以上の部位については詳細な三次元形状を推定し、そうでない部位については概略的な三次元形状を推定する。
<Finger part>
FIG. 15: is a figure which shows the site|part of a finger typically. In the present embodiment, as shown in FIG. 15, the finger is divided into parts 1501 to 1515. Then, the reliability is calculated for each part. The method of calculating the reliability is the same as in the first to fourth embodiments, and therefore the description thereof will be omitted. After that, a detailed three-dimensional shape is estimated for a portion whose reliability is equal to or higher than a preset threshold value, and a rough three-dimensional shape is estimated for a portion that is not so.

または、あらかじめ詳細な三次元形状と概略的な三次元形状の両方を推定しておき、信頼度がしきい値以上の部位については詳細な三次元形状を当てはめ、そうでない部位については概略的な三次元形状を当てはめるようにしてもよい。なお、部位の分割の方法は任意であり、図15のような分割に限定されない。 Alternatively, both the detailed three-dimensional shape and the rough three-dimensional shape are estimated in advance, and the detailed three-dimensional shape is applied to the portion whose reliability is equal to or higher than the threshold, and the rough three-dimensional shape is applied to the other portions. You may make it fit a three-dimensional shape. The method of dividing the parts is arbitrary and is not limited to the division as shown in FIG.

以上述べたように、本実施形態では、手指の部位ごとに信頼度を算出し、その信頼度に応じて、手指の部位ごとに厚み(詳細度)に関する推定条件を切り替える。したがって、部位によって信頼度が異なる場合においても、実際とは大きく異なる三次元形状が推定されてしまうことを抑制しつつ、できるだけ詳細な手指の三次元形状を推定できる。よって、手指の三次元形状の推定精度を向上させることが可能となる。 As described above, in the present embodiment, the reliability is calculated for each part of the finger, and the estimation condition regarding the thickness (detail) is switched for each part of the finger according to the reliability. Therefore, even when the reliability differs depending on the part, it is possible to estimate the three-dimensional shape of the finger as detailed as possible while suppressing the estimation of the three-dimensional shape that is significantly different from the actual one. Therefore, it is possible to improve the estimation accuracy of the three-dimensional shape of the finger.

[変形例]
以上の各実施形態では、ニューラルネットワークを用いて関節の三次元位置を算出する場合を例に挙げて説明した。しかしながら、算出方法はニューラルネットワークに限らず、本発明は任意の方法で関節の三次元位置を算出できる。例えば、距離画像を主成分分析することで、あらかじめ設定された手指パターン群から最も尤もらしい手指パターンを算出してもよい。その場合、画像取得部301が取得した距離画像を主成分分析した座標と、各手指パターンを投影してできる距離画像を主成分分析した座標との距離を尤もらしさと定義し、信頼度を算出する。
[Modification]
In the above embodiments, the case where the three-dimensional position of the joint is calculated using the neural network has been described as an example. However, the calculation method is not limited to the neural network, and the present invention can calculate the three-dimensional position of the joint by any method. For example, the most likely finger pattern may be calculated from a preset finger pattern group by performing a principal component analysis on the distance image. In that case, the distance between the coordinate obtained by the principal component analysis of the distance image acquired by the image obtaining unit 301 and the coordinate obtained by the principal component analysis of the distance image formed by projecting each finger pattern is defined as the likelihood, and the reliability is calculated. To do.

また、以上の各実施形態では、推定対象が手指である場合を例に挙げて説明した。しかしながら、推定対象は手指に限らず、本発明は任意の多関節物体について三次元形状を推定できる。例えば、推定対象が多関節生物の全身であってもかまわない。また、以上の各実施形態では、撮影画像が可視画像であるとして説明したが、本発明はこれに限定されない。例えば、撮影画像が赤外画像でもかまわない。 Moreover, in each of the above-described embodiments, the case where the estimation target is a finger has been described as an example. However, the estimation target is not limited to the fingers, and the present invention can estimate the three-dimensional shape of any articulated object. For example, the estimation target may be the whole body of an articulated organism. Further, in each of the above embodiments, the captured image is described as a visible image, but the present invention is not limited to this. For example, the captured image may be an infrared image.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100:情報処理装置、301:画像取得部、302:前段処理部、303:信頼度算出部、304:推定条件決定部、305:形状推定部 100: information processing device, 301: image acquisition unit, 302: pre-stage processing unit, 303: reliability calculation unit, 304: estimation condition determination unit, 305: shape estimation unit

Claims (16)

多関節物体の三次元形状を推定する情報処理装置であって、
前記多関節物体の画像データを取得する画像取得手段と、
前記画像データに対して前段処理を行う前段処理手段と、
前記前段処理の結果に対して信頼度を算出する信頼度算出手段と、
前記信頼度に基づいて前記三次元形状の推定条件を決定する推定条件決定手段と、
前記推定条件に基づいて前記三次元形状を推定する形状推定手段と、
を備え
前記推定条件決定手段は、前記形状推定手段が詳細な三次元形状の推定処理又は概略的な三次元形状の推定処理の何れを行うかを前記推定条件として決定することを特徴とする情報処理装置。
An information processing apparatus for estimating a three-dimensional shape of an articulated object,
Image acquisition means for acquiring image data of the articulated object;
Pre-stage processing means for performing pre-stage processing on the image data,
Reliability calculation means for calculating a reliability for the result of the preceding stage processing,
Estimation condition determining means for determining the estimation condition of the three-dimensional shape based on the reliability,
Shape estimating means for estimating the three-dimensional shape based on the estimation condition,
Equipped with
The estimated condition determining means, information processing, characterized that you determine the shape estimation means performs any estimation process estimation processing or schematic three-dimensional shape of the detailed three-dimensional shape as the estimated condition apparatus.
前記前段処理は、前記画像データを用いて前記多関節物体の関節の三次元位置を算出する処理であり、
前記信頼度算出手段は、前記関節の三次元位置の信頼度を算出することを特徴とする請求項1に記載の情報処理装置。
The pre-stage process is a process of calculating a three-dimensional position of a joint of the multi-joint object using the image data,
The information processing apparatus according to claim 1, wherein the reliability calculation means calculates reliability of a three-dimensional position of the joint.
前記前段処理は、前記画像データとニューラルネットワーク技術とを用いて前記多関節物体の関節の三次元位置を算出する処理であることを特徴とする請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the pre-stage process is a process of calculating a three-dimensional position of a joint of the multi-joint object using the image data and a neural network technique. 前記画像データは距離画像のデータであり、
前記前段処理は、前記距離画像のデータの距離情報をニューラルネットワークに入力することにより前記多関節物体の関節の三次元位置を算出する処理であることを特徴とする請求項3に記載の情報処理装置。
The image data is range image data,
4. The information processing according to claim 3, wherein the pre-stage process is a process of calculating a three-dimensional position of a joint of the multi-joint object by inputting distance information of the data of the distance image into a neural network. apparatus.
前記前段処理は、前記画像データから多関節領域を検出して当該多関節領域のシルエット画像を生成し、当該シルエット画像の画素値をニューラルネットワークに入力することにより前記多関節物体の関節の三次元位置を算出する処理であることを特徴とする請求項3に記載の情報処理装置。 The pre-stage processing detects a multi-joint area from the image data, generates a silhouette image of the multi-joint area, and inputs pixel values of the silhouette image to a neural network to thereby generate a three-dimensional joint of the multi-joint object. The information processing apparatus according to claim 3, which is a process of calculating a position. 前記前段処理は、前記ニューラルネットワークの出力層の各ノードに対応する多関節物体のパターンの尤もらしさに基づいて、前記多関節物体の関節の三次元位置を算出する処理であることを特徴とする請求項3に記載の情報処理装置。 The pre-stage process is a process of calculating a three-dimensional position of a joint of the articulated object based on the likelihood of the pattern of the articulated object corresponding to each node of the output layer of the neural network. The information processing device according to claim 3. 前記前段処理は、前記画像データから前記多関節物体の関節を検出する処理であり、
前記信頼度算出手段は、前記検出された結果の信頼度を算出することを特徴とする請求項1に記載の情報処理装置。
The pre-stage process is a process of detecting a joint of the multi-joint object from the image data,
The information processing apparatus according to claim 1, wherein the reliability calculation means calculates reliability of the detected result.
前記信頼度算出手段は、前記検出された関節の数に基づいて前記信頼度を算出することを特徴とする請求項7に記載の情報処理装置。 The information processing apparatus according to claim 7, wherein the reliability calculation means calculates the reliability based on the detected number of joints. 前記信頼度算出手段は、前記検出された関節の位置関係の尤もらしさを前記信頼度として算出することを特徴とする請求項7に記載の情報処理装置。 The information processing apparatus according to claim 7, wherein the reliability calculation means calculates the likelihood of the detected positional relationship of the joint as the reliability. 前記信頼度算出手段は、前記多関節物体の部位ごとに信頼度を算出し、
前記推定条件決定手段は、前記部位ごとに推定条件を決定することを特徴とする請求項1乃至9の何れか1項に記載の情報処理装置。
The reliability calculation means calculates reliability for each part of the multi-joint object,
The information processing apparatus according to claim 1, wherein the estimation condition determining unit determines an estimation condition for each of the parts.
前記画像データは、距離画像、可視画像、赤外画像のデータのうちの少なくともいずれか1つを含むことを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 10 , wherein the image data includes at least one of data of a distance image, a visible image, and an infrared image. 前記多関節物体は手指であることを特徴とする請求項1乃至11の何れか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 11 , wherein the multi-joint object is a finger. 多関節物体の三次元形状を推定する情報処理装置であって、An information processing apparatus for estimating a three-dimensional shape of an articulated object,
前記多関節物体の画像データを取得する画像取得手段と、Image acquisition means for acquiring image data of the articulated object;
前記画像データに対して、前記画像データから前記多関節物体の関節を検出する処理である前段処理を行う前段処理手段と、Pre-processing means for performing pre-processing on the image data, which is processing for detecting a joint of the multi-joint object from the image data;
前記前段処理により検出された関節の数に基づいて、前記前段処理の結果の信頼度を算出する信頼度算出手段と、Reliability calculation means for calculating the reliability of the result of the pre-processing based on the number of joints detected by the pre-processing,
前記信頼度に基づいて前記三次元形状の推定条件を決定する推定条件決定手段と、Estimation condition determining means for determining the estimation condition of the three-dimensional shape based on the reliability,
前記推定条件に基づいて前記三次元形状を推定する形状推定手段と、Shape estimating means for estimating the three-dimensional shape based on the estimation condition,
を備えることを特徴とする情報処理装置。An information processing apparatus comprising:
多関節物体の三次元形状を推定する情報処理装置の制御方法であって、
画像取得手段が、前記多関節物体の画像データを取得する画像取得工程と、
前段処理手段が、前記画像データに対して前段処理を行う前段処理工程と、
信頼度算出手段が、前記前段処理の結果に対して信頼度を算出する信頼度算出工程と、
推定条件決定手段が、前記信頼度に基づいて前記三次元形状の推定条件を決定する推定条件決定工程と、
形状推定手段が、前記推定条件に基づいて前記三次元形状を推定する形状推定工程と、
を有し、
前記推定条件決定工程では、前記形状推定工程で詳細な三次元形状の推定処理又は概略的な三次元形状の推定処理の何れを行うかを前記推定条件として決定することを特徴とする情報処理装置の制御方法。
A control method of an information processing device for estimating a three-dimensional shape of an articulated object, comprising:
An image acquisition means, an image acquisition step of acquiring image data of the articulated object;
A pre-stage processing means for performing pre-stage processing on the image data,
A reliability calculation step in which the reliability calculation means calculates a reliability with respect to the result of the pre-processing,
Estimating condition determining means, an estimating condition determining step of determining an estimating condition of the three-dimensional shape based on the reliability,
A shape estimating step, in which the shape estimating means estimates the three-dimensional shape based on the estimation condition,
Have a,
In the estimation condition determining step, which of the detailed three-dimensional shape estimation processing and the rough three-dimensional shape estimation processing is to be performed in the shape estimation step is determined as the estimation condition. Control method.
多関節物体の三次元形状を推定する情報処理装置の制御方法であって、A control method of an information processing device for estimating a three-dimensional shape of an articulated object, comprising:
画像取得手段が、前記多関節物体の画像データを取得する画像取得工程と、An image acquisition means, an image acquisition step of acquiring image data of the articulated object;
前段処理手段が、前記画像データに対して、前記画像データから前記多関節物体の関節を検出する処理である前段処理を行う前段処理工程と、A pre-stage processing step in which the pre-stage processing means performs a pre-stage process for the image data, which is a process of detecting a joint of the multi-joint object from the image data;
信頼度算出手段が、前記前段処理により検出された関節の数に基づいて、前記前段処理の結果の信頼度を算出する信頼度算出工程と、A reliability calculation step in which the reliability calculation means calculates the reliability of the result of the pre-processing based on the number of joints detected by the pre-processing;
推定条件決定手段が、前記信頼度に基づいて前記三次元形状の推定条件を決定する推定条件決定工程と、Estimating condition determining means, an estimating condition determining step of determining an estimating condition of the three-dimensional shape based on the reliability,
形状推定手段が、前記推定条件に基づいて前記三次元形状を推定する形状推定工程と、A shape estimating step, in which the shape estimating means estimates the three-dimensional shape based on the estimation condition,
を有することを特徴とする情報処理装置の制御方法。A method for controlling an information processing device, comprising:
コンピュータを、請求項1乃至13の何れか1項に記載の情報処理装置として機能させるためのプログラム。 A program for causing a computer to function as the information processing device according to any one of claims 1 to 13.
JP2016082352A 2016-04-15 2016-04-15 Information processing apparatus, information processing apparatus control method, and program Active JP6723061B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016082352A JP6723061B2 (en) 2016-04-15 2016-04-15 Information processing apparatus, information processing apparatus control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016082352A JP6723061B2 (en) 2016-04-15 2016-04-15 Information processing apparatus, information processing apparatus control method, and program

Publications (2)

Publication Number Publication Date
JP2017191576A JP2017191576A (en) 2017-10-19
JP6723061B2 true JP6723061B2 (en) 2020-07-15

Family

ID=60086328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016082352A Active JP6723061B2 (en) 2016-04-15 2016-04-15 Information processing apparatus, information processing apparatus control method, and program

Country Status (1)

Country Link
JP (1) JP6723061B2 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019086365A (en) * 2017-11-06 2019-06-06 株式会社日立製作所 Position estimation system
CN110163048B (en) * 2018-07-10 2023-06-02 腾讯科技(深圳)有限公司 Hand key point recognition model training method, hand key point recognition method and hand key point recognition equipment
JP7324271B2 (en) * 2018-08-16 2023-08-09 タイ ユニオン グループ パブリック カンパニー リミテッド Multi-view imaging system and method for non-invasive inspection in food processing
CN111460871B (en) 2019-01-18 2023-12-22 北京市商汤科技开发有限公司 Image processing method and device and storage medium
JP6840365B2 (en) * 2019-02-05 2021-03-10 ソフトバンク株式会社 Systems, server devices and programs
CN110032957B (en) * 2019-03-27 2023-10-17 长春理工大学 Gesture spatial domain matching method based on skeleton node information
JP7201946B2 (en) * 2019-05-16 2023-01-11 日本電信電話株式会社 Skeleton information determination device, skeleton information determination method, and computer program
JP7378232B2 (en) * 2019-06-24 2023-11-13 キヤノン株式会社 Image processing device and its control method
JP2021064320A (en) * 2019-10-17 2021-04-22 ソニー株式会社 Information processing device, information processing method, and program
US11209263B2 (en) * 2019-12-12 2021-12-28 Tencent America LLC 3D hand pose estimation based on depth-image guided adversarial network 1
JP7504614B2 (en) * 2020-02-17 2024-06-24 キヤノン株式会社 Image processing device, image processing method, and program
WO2021229751A1 (en) 2020-05-14 2021-11-18 日本電気株式会社 Image selecting device, image selecting method and program
JP7465469B2 (en) * 2020-05-15 2024-04-11 兵庫県公立大学法人 Learning device, estimation device, learning program, and estimation program
JP7434207B2 (en) 2021-04-13 2024-02-20 株式会社ソニー・インタラクティブエンタテインメント System, information processing method, and information processing program
JP2023139534A (en) 2022-03-22 2023-10-04 キヤノン株式会社 Gesture recognition apparatus, head-mounted display apparatus, gesture recognition method, program, and storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101591779B1 (en) * 2009-03-17 2016-02-05 삼성전자주식회사 Apparatus and method for generating skeleton model using motion data and image data
JP6433149B2 (en) * 2013-07-30 2018-12-05 キヤノン株式会社 Posture estimation apparatus, posture estimation method and program

Also Published As

Publication number Publication date
JP2017191576A (en) 2017-10-19

Similar Documents

Publication Publication Date Title
JP6723061B2 (en) Information processing apparatus, information processing apparatus control method, and program
US10762386B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
JP5167248B2 (en) Modeling of humanoid shape by depth map
JP5931215B2 (en) Method and apparatus for estimating posture
CN104380338B (en) Information processor and information processing method
JP6632208B2 (en) Information processing apparatus, information processing method, and program
JP2009536731A5 (en)
KR101082829B1 (en) The user interface apparatus and method for 3D space-touch using multiple imaging sensors
JP2011258204A5 (en)
JP2018119833A (en) Information processing device, system, estimation method, computer program, and storage medium
JP6054831B2 (en) Image processing apparatus, image processing method, and image processing program
JP7406875B2 (en) Information processing equipment and programs
US11727637B2 (en) Method for generating 3D skeleton using joint-based calibration acquired from multi-view camera
CN110926330A (en) Image processing apparatus, image processing method, and program
CN102713975B (en) Image clearing system, image method for sorting and computer program
JP6817742B2 (en) Information processing device and its control method
CN115862124B (en) Line-of-sight estimation method and device, readable storage medium and electronic equipment
CN107949851A (en) The quick and robust control policy of the endpoint of object in scene
JP6347610B2 (en) Image processing apparatus and three-dimensional spatial information acquisition method
JP5518677B2 (en) Virtual information giving apparatus and virtual information giving program
WO2021098666A1 (en) Hand gesture detection method and device, and computer storage medium
JP5416489B2 (en) 3D fingertip position detection method, 3D fingertip position detection device, and program
CN113228117B (en) Authoring apparatus, authoring method, and recording medium having an authoring program recorded thereon
JP7029253B2 (en) Information processing equipment and its method
JP6198104B2 (en) 3D object recognition apparatus and 3D object recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200313

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200623

R151 Written notification of patent or utility model registration

Ref document number: 6723061

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151