JP6170696B2 - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP6170696B2 JP6170696B2 JP2013054900A JP2013054900A JP6170696B2 JP 6170696 B2 JP6170696 B2 JP 6170696B2 JP 2013054900 A JP2013054900 A JP 2013054900A JP 2013054900 A JP2013054900 A JP 2013054900A JP 6170696 B2 JP6170696 B2 JP 6170696B2
- Authority
- JP
- Japan
- Prior art keywords
- region
- coordinate
- hand
- human body
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、機器や表示装置の画面等を操作するために人体の動きを認識する画像処理装置及び画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method for recognizing movement of a human body in order to operate a screen of a device or a display device.
従来、人間の行う動作(ジェスチャ)を認識し、その認識結果に基づいてロボット等の機器を操作するために用いられる画像処理技術が知られている。 2. Description of the Related Art Conventionally, there is known an image processing technique used for recognizing a human action (gesture) and operating a device such as a robot based on the recognition result.
下記の非特許文献1に記載されている画像処理装置は、固定カメラで撮影された画像から手領域の重心と指先位置の情報を得て、手形状認識を行う。さらに、左手の形状と右手の指の間隔により、2つの車輪によって移動するロボットの行動及びその車輪の回転速度を調整し、ロボットの遠隔操縦を可能にしている。 An image processing apparatus described in Non-Patent Document 1 below performs hand shape recognition by obtaining information on the center of gravity and fingertip position of a hand region from an image captured by a fixed camera. Furthermore, the robot moves remotely by adjusting the behavior of the robot moving by two wheels and the rotation speed of the wheels according to the shape of the left hand and the distance between the fingers of the right hand.
しかしながら、上記の装置では、カメラの撮像領域に対して手を斜め方向から入れた場合には、手の形状が正確に認識されない可能性があり、その場合には、ロボットが人の意図しない方向に移動してしまう。 However, in the above apparatus, when the hand is put in the imaging region of the camera from an oblique direction, there is a possibility that the shape of the hand may not be accurately recognized. Will move to.
本発明は、このような事情に鑑みてなされたものであり、カメラの撮像領域に対して人の手或いは人体の他の部位がどの方向から移動してきても、人体の部位の形状を正確に認識し、人が意図する動作の方向とコンピュータが認識する方向を一致させることが可能な画像処理装置及び画像処理方法を提供することを目的とする。 The present invention has been made in view of such circumstances, and the shape of the human body part can be accurately determined no matter which direction the human hand or other part of the human body moves relative to the imaging region of the camera. An object of the present invention is to provide an image processing apparatus and an image processing method capable of recognizing and matching the direction of movement intended by a person and the direction recognized by a computer.
本発明の画像処理装置は、撮像領域にある人体部位を撮像して画像情報として取得する撮像手段を用いて、該撮像手段が取得した画像情報に基づき該人体部位の動作を認識する画像処理装置であって、前記画像情報から人体部位の領域を抽出する人体部位領域抽出手段と、前記人体部位領域抽出手段が抽出した人体部位のうち、前記画像情報の周囲の画素を検出して、手首の中央部の座標である第1部位座標と、掌又は手の甲の重心の座標である第2部位座標とを算出する部位座標算出手段と、前記部位座標算出手段が算出した第1部位座標と第2部位座標とを結ぶ直線の傾きから、人体部位の撮像領域への差込角度を算出する差込角度算出手段と、前記差込角度算出手段が算出した差込角度に基づいて、前記画像情報を回転補正する画像回転補正手段とを備えることを特徴する。 An image processing apparatus according to the present invention uses an imaging unit that images a human body part in an imaging region and acquires it as image information, and recognizes the operation of the human body part based on the image information acquired by the imaging unit. A human body region extracting unit for extracting a region of a human body region from the image information, and detecting a pixel around the image information from the human body region extracted by the human body region extracting unit , Part coordinate calculation means for calculating a first part coordinate that is a coordinate of the central part and a second part coordinate that is a coordinate of the center of gravity of the palm or the back of the hand; a first part coordinate calculated by the part coordinate calculation part; Based on the inclination of the straight line connecting the part coordinates, the insertion angle calculation means for calculating the insertion angle to the imaging region of the human body part, and the image information based on the insertion angle calculated by the insertion angle calculation means. Image times for rotation correction To; and a correction means.
本発明の画像処理装置によれば、手や足等の人体部位が撮像領域に差込まれたとき、撮像手段がこれを画像情報として取得する。人体部位領域抽出手段が、該画像情報から人体部位の領域を抽出し、部位座標算出手段が、該抽出された人体部位のうち第1部位の座標と第2部位の座標とを算出するので、画像情報中の人体部位の形状や位置が認識される。 According to the image processing apparatus of the present invention, when a human body part such as a hand or a foot is inserted into the imaging region, the imaging unit acquires this as image information. Since the human body part region extracting unit extracts the region of the human body part from the image information, and the part coordinate calculating unit calculates the coordinates of the first part and the coordinates of the second part among the extracted human body parts. The shape and position of the human body part in the image information is recognized.
また、差込角度算出手段が、該第1部位座標と該第2部位座標とを結ぶ直線の座標軸に対する傾きから、撮像領域に差込まれた人体部位の角度(差込角度)を算出する。そして、画像回転補正手段が該画像情報を差込角度に基づいて回転補正する。これにより、人体部位が、撮像領域に対して斜め方向から差込まれた場合でも、一定方向に補正することができる。従って、手や足等の人体部位が動作した場合、上記の一連の処理によって画像情報が一定方向に補正されるので、人が意図する動作の方向とコンピュータが認識する方向を一致させることができる。 Further, the insertion angle calculation means calculates the angle (insertion angle) of the human body part inserted into the imaging region from the inclination with respect to the coordinate axis of the straight line connecting the first part coordinate and the second part coordinate. Then, the image rotation correction means corrects the rotation of the image information based on the insertion angle. Thereby, even when a human body part is inserted from an oblique direction with respect to the imaging region, it can be corrected in a certain direction. Therefore, when a human body part such as a hand or a foot moves, the image information is corrected in a certain direction by the above-described series of processing, so that the direction of movement intended by the person can be matched with the direction recognized by the computer. .
本発明では、部位座標算出手段は、画像情報の周囲(例えば、4辺)の画素を検出し、例えば、画素に人体部位が記録されているか否かを調べて、該人体部位の位置を判定する。これにより、人体部位が撮像領域のどの方向から差込まれたかが正確に認識される。 In the present invention, the part coordinate calculation means detects pixels around the image information (for example, four sides), and determines, for example, whether or not a human body part is recorded in the pixel to determine the position of the human body part. To do. Thereby, it is recognized correctly from which direction of the imaging region the human body part was inserted.
本発明によれば、第1部位を手首、第2部位を掌又は手の甲とすることで、人の手の形状が認識される。このとき、部位座標算出手段は、手首の中央部が第1部位座標、掌又は手の甲の重心が第2部位座標となるように座標を算出するので、撮像領域に差込まれた手の角度が正確に認識される。 According to the present invention, the shape of a human hand is recognized by using the first part as the wrist and the second part as the palm or the back of the hand. At this time, the part coordinate calculating means calculates the coordinates so that the center part of the wrist is the first part coordinate and the center of gravity of the palm or the back of the hand is the second part coordinate. Therefore, the angle of the hand inserted into the imaging region is It is recognized correctly.
本発明の画像処理方法は、撮像領域にある人体部位を撮像して画像情報として取得し、該画像情報に基づいて該人体部位の動作を認識する画像処理方法であって、前記画像情報から人体部位の領域を抽出する人体部位領域抽出工程と、前記人体部位領域抽出工程で抽出された人体部位のうち、前記画像情報の周囲の画素を検出して、手首の中央部の座標である第1部位座標と、掌又は手の甲の重心の座標である第2部位座標とを算出する部位座標算出工程と、前記部位座標算出工程で算出された第1部位座標と第2部位座標とを結ぶ直線の傾きから、人体部位の撮像領域への差込角度を算出する差込角度算出工程と、前記差込角度算出工程で算出された差込角度に基づいて、前記画像情報を回転補正する画像回転補正工程とを備えることを特徴とする。 The image processing method of the present invention is an image processing method for capturing an image of a human body part in an imaging region and acquiring it as image information, and recognizing the action of the human body part based on the image information. A human body part region extracting step for extracting a region of the part, and a pixel surrounding the image information is detected from the human body parts extracted in the human body part region extracting step, and the first coordinates which are coordinates of the center part of the wrist A part coordinate calculating step of calculating a part coordinate and a second part coordinate which is a coordinate of the center of gravity of the palm or the back of the hand; and a straight line connecting the first part coordinate and the second part coordinate calculated in the part coordinate calculating step An insertion angle calculation step of calculating an insertion angle of the human body part into the imaging region from the inclination, and an image rotation correction for correcting the rotation of the image information based on the insertion angle calculated in the insertion angle calculation step Specially equipped with a process To.
本発明の画像処理方法によれば、手や足等の人体部位が撮像領域に差込まれたとき、まず、画像情報として取得される。人体部位領域抽出工程では、該画像情報から人体部位の領域が抽出され、部位座標算出工程では、該抽出された人体部位のうち、第1部位の座標と第2部位の座標とが算出されるので、画像情報中の人体部位の形状や位置が認識される。 According to the image processing method of the present invention, when a human body part such as a hand or a foot is inserted into the imaging region, it is first acquired as image information. In the human body part region extracting step, the human body part region is extracted from the image information, and in the part coordinate calculating step, the coordinates of the first part and the second part of the extracted human body parts are calculated. Therefore, the shape and position of the human body part in the image information are recognized.
また、差込角度算出工程では、該第1部位座標と該第2部位座標とを結ぶ直線の座標軸に対する傾きから、撮像領域に差込まれた人体部位の角度(差込角度)が算出される。そして、画像回転補正工程では、該画像情報が差込角度に基づいて回転補正される。これにより、人体部位が、撮像領域に対して斜め方向から差込まれた場合でも、一定方向に補正することができる。従って、手や足等の人体部位が動作した場合、上記一連の処理工程によって画像情報が一定方向に補正されるので、人が意図する動作の方向とコンピュータが認識する方向を一致させることができる。 In the insertion angle calculation step, the angle (insertion angle) of the human body part inserted into the imaging region is calculated from the inclination with respect to the coordinate axis of the straight line connecting the first part coordinate and the second part coordinate. . In the image rotation correction step, the image information is rotationally corrected based on the insertion angle. Thereby, even when a human body part is inserted from an oblique direction with respect to the imaging region, it can be corrected in a certain direction. Therefore, when a human body part such as a hand or a foot moves, the image information is corrected in a certain direction by the above-described series of processing steps, so that the direction of movement intended by the person can be matched with the direction recognized by the computer. .
以上のように、人体の部位の形状を正確に認識し、人が意図する動作の方向とコンピュータが認識する方向を一致させることができる。 As described above, the shape of the part of the human body can be accurately recognized, and the direction of the motion intended by the person can be matched with the direction recognized by the computer.
初めに図1を参照して、人とカメラの位置関係について説明する。 First, the positional relationship between a person and a camera will be described with reference to FIG.
図1(a)に示すように、人1の前方下、又は前方上に、本発明の「撮像手段」に相当するカメラ2が配置されている。カメラ2がどちらの位置にあっても、カメラ2からの距離に比例して撮像可能な範囲が拡大し、その範囲内の物体を撮像することができる。 As shown in FIG. 1 (a), a camera 2 corresponding to the “imaging means” of the present invention is disposed in front of or below the person 1. Regardless of the position of the camera 2, the imageable range is expanded in proportion to the distance from the camera 2, and an object within the range can be imaged.
また、カメラ2は、ケーブルによりコンピュータ3に接続されている。カメラ2で撮像された画像情報は、コンピュータ3に送信されるので、例えば、コンピュータ3のモニター(図示省略)上で画像情報を確認することができる。また、コンピュータ3は、画像情報を解析することで、例えば、人1の手の動きにより、モニター中のポインタ(カーソル)を動かすことができる。コンピュータ3は、内部に画像処理部(本発明の「画像処理装置」)を有する。 The camera 2 is connected to the computer 3 by a cable. Since the image information captured by the camera 2 is transmitted to the computer 3, the image information can be confirmed on a monitor (not shown) of the computer 3, for example. Further, the computer 3 can move the pointer (cursor) in the monitor by analyzing the image information, for example, by the movement of the hand of the person 1. The computer 3 includes an image processing unit (an “image processing apparatus” of the present invention) inside.
次に、図1(b)は、図1(a)の状態を上方から見たときの図である。領域Sは、カメラ2が人1の手等を撮像可能な領域(以下、撮像領域又は単に領域という)であり、領域S内で、例えば、人1が手を右方向(x軸正方向)に動かすと、コンピュータ3が画像を解析して、手が右方向に動いたと認識する。これにより、上記の例では、モニター上でポインタが右方向に動く。 Next, FIG.1 (b) is a figure when the state of Fig.1 (a) is seen from upper direction. The area S is an area in which the camera 2 can image the hand of the person 1 (hereinafter referred to as an imaging area or simply an area). In the area S, for example, the person 1 moves the hand to the right (in the positive x-axis direction). The computer 3 analyzes the image and recognizes that the hand has moved to the right. Thereby, in the above example, the pointer moves rightward on the monitor.
同様に、人1が手を手前方向(y軸正方向)に動かすと、コンピュータ3は、手がその方向に動いたと認識し、モニター上でポインタが下方向に動く。この技術により、機器のスイッチを操作したり、ロボットをコントロールすることが可能になる。 Similarly, when the person 1 moves his hand in the forward direction (y-axis positive direction), the computer 3 recognizes that the hand has moved in that direction, and the pointer moves downward on the monitor. This technology makes it possible to operate equipment switches and control robots.
また、人1は、カメラ2に対して常に同じ方向にいるわけではなく、時々動いて立ち位置を変える。従って、人1の手は、領域Sの横方向や斜め方向から差込まれることがある。 In addition, the person 1 is not always in the same direction with respect to the camera 2, but sometimes moves to change the standing position. Therefore, the hand of the person 1 may be inserted from the lateral direction or the oblique direction of the region S.
例えば、人1が手を撮像領域Sの左横方向から差込み、ポインタを右方向に動かそうとして、手を右方向に動かすことがある。この方向は、y軸正方向であるので、ポインタは下方向に動くと考えられるが、本発明では、手の差込まれた方向を検出して画像情報を補正し、上記の場合でもポインタが人1の意図する右方向に動くように変換する。以下では、これを実現するためにコンピュータ3で行われる画像処理について説明する。 For example, the person 1 may insert his hand from the left lateral direction of the imaging region S, move the pointer to the right, and move the hand to the right. Since this direction is the positive y-axis direction, the pointer is considered to move downward, but in the present invention, the direction in which the hand is inserted is detected to correct the image information. It transforms so that it moves in the right direction that person 1 intends. Hereinafter, image processing performed by the computer 3 to realize this will be described.
図2は、実施形態の画像処理(全体)のフローチャートである。以下では、撮像領域Sに人の手が差込まれたときを例に、各処理の詳細を説明する。この画像処理は、コンピュータ3のCPU等で構成される画像処理部で実行される。画像処理部は、本発明の「人体部位領域抽出手段」、「部位座標算出手段」、「差込角度算出手段」、「画像回転補正手段」に相当する。 FIG. 2 is a flowchart of image processing (overall) according to the embodiment. Hereinafter, the details of each process will be described by taking as an example a case where a human hand is inserted into the imaging region S. This image processing is executed by an image processing unit constituted by a CPU or the like of the computer 3. The image processing unit corresponds to “human body region extraction unit”, “part coordinate calculation unit”, “insertion angle calculation unit”, and “image rotation correction unit” of the present invention.
まず、手領域抽出処理が行われる(ステップS10)。これは、カメラ2で撮像された画像から手の領域を抽出する処理である。本実施形態では、距離画像カメラを使用して手を撮像する。距離画像カメラを使用する場合、予め撮像領域Sに差込まれる手と距離画像カメラとの距離を所定範囲に設定しておくことで、手領域を容易に抽出することができる。以下、図3を参照して、手領域の抽出について説明する。 First, hand region extraction processing is performed (step S10). This is processing for extracting a hand region from an image captured by the camera 2. In this embodiment, a hand is imaged using a range image camera. When the distance image camera is used, the hand region can be easily extracted by setting the distance between the hand inserted into the imaging region S and the distance image camera in a predetermined range. Hereinafter, extraction of a hand region will be described with reference to FIG.
図3は、手領域抽出処理により手領域4が抽出されたときの画像である。図示のように、画像領域Rの左下部分に手首があり、中央部分に掌がある。なお、画像領域Rの画像は、本発明の「画像情報」に相当する。 FIG. 3 is an image when the hand region 4 is extracted by the hand region extraction process. As shown in the drawing, the wrist is in the lower left part of the image region R, and the palm is in the center part. The image in the image region R corresponds to “image information” of the present invention.
手領域を抽出方法は、上記の方法以外にも幾つか存在する。例えば、普通のカメラを使用する場合、RGB情報のうち肌色に該当する情報を抽出することで、手領域を抽出することができる。また、カメラに手以外の物体が写り込む可能性がない場合には、背景差分法により、手領域を容易に抽出することができる。また、2つのレンズを視差が生じるように配置することで、物体までの距離を算出可能なステレオカメラを使用してもよい。 There are several methods for extracting a hand region other than the above method. For example, when an ordinary camera is used, a hand region can be extracted by extracting information corresponding to skin color from RGB information. In addition, when there is no possibility that an object other than the hand appears in the camera, the hand region can be easily extracted by the background subtraction method. In addition, a stereo camera that can calculate the distance to the object by arranging the two lenses so as to generate parallax may be used.
図2に戻り、手領域抽出処理の終了後には、手首座標算出処理に進む(ステップS20)。手首座標の算出には、距離画像カメラによる画像(画像領域R)の外周ピクセル値の情報を使用する。 Returning to FIG. 2, after the hand region extraction process is completed, the process proceeds to the wrist coordinate calculation process (step S20). For calculating the wrist coordinates, information on the outer peripheral pixel value of the image (image region R) obtained by the distance image camera is used.
図4は、手首座標の算出に必要な領域を説明する図である。まず、手領域抽出処理(ステップS10)で抽出された手領域4を含む画像領域Rの周囲に、ピクセル値を取得するためのピクセル値取得領域P(図中の斜線部分。以下、領域Pという)をとる。 FIG. 4 is a diagram illustrating an area necessary for calculating wrist coordinates. First, a pixel value acquisition region P for acquiring pixel values around the image region R including the hand region 4 extracted by the hand region extraction process (step S10) (hatched portion in the figure, hereinafter referred to as region P). ).
次に、領域Pの左辺部分を左領域(A)、右辺部分を右領域(B)、上辺部分を上領域(C)、下辺部分を下領域(D)として、領域Pを4分割する。そして、この4つの領域(A)〜(D)について、画素の値であるピクセル値を検出する。 Next, the region P is divided into four, with the left side portion of the region P as the left region (A), the right side portion as the right region (B), the upper side portion as the upper region (C), and the lower side portion as the lower region (D). And the pixel value which is the value of a pixel is detected about these four area | regions (A)-(D).
ここでは、各領域に手等の物体が存在している場合には、所定のピクセル値(輝度値)が検出されるが、存在しない場合には、ピクセル値「0」が検出されることを利用する。また、ある程度の大きさのある物体の場合には、輝度値のある画素が連続して存在するので、これも考慮して、各領域を調べていく。 Here, when an object such as a hand is present in each region, a predetermined pixel value (luminance value) is detected, but when there is no object, a pixel value “0” is detected. Use. Further, in the case of an object having a certain size, pixels having luminance values are continuously present, and each region is examined in consideration of this.
次に、図5を参照して、手首座標算出処理について説明する。実施形態の画像処理部は、以下の順番で上記の領域(A)〜(D)のピクセル値を調べ、手首座標を算出する。 Next, wrist coordinate calculation processing will be described with reference to FIG. The image processing unit of the embodiment examines the pixel values in the above-described regions (A) to (D) in the following order, and calculates wrist coordinates.
まず、左領域(A)にピクセル値≠0の画素が任意の数、連続しているか否かを判定する(ステップS201)。ピクセル値≠0(輝度値あり)の部分が任意の数、連続して存在している場合には、左領域(A)に手があることを意味する。このとき、ステップS202に進む。一方、ピクセル値≠0の部分が任意の数、連続して存在していない場合には、この領域には手がないことを意味する。このとき、ステップS203に進む。 First, it is determined whether or not an arbitrary number of pixels having a pixel value ≠ 0 are continuous in the left region (A) (step S201). If an arbitrary number of portions where pixel value ≠ 0 (with luminance value) exist continuously, it means that there is a hand in the left area (A). At this time, the process proceeds to step S202. On the other hand, if an arbitrary number of pixel value ≠ 0 portions do not exist continuously, this means that there is no hand in this area. At this time, the process proceeds to step S203.
ステップS201で「YES」と判定された場合、フラグF_leftに「1」をセットする(ステップS202)。一方、ステップS201で「NO」と判定された場合、フラグF_leftに「0」をセットする(ステップS203)。詳細は後述するが、フラグF_leftは、手首座標のうちy座標を算出するのに用いられる。 If “YES” is determined in the step S201, “1” is set to the flag F_left (step S202). On the other hand, if “NO” is determined in the step S201, the flag F_left is set to “0” (step S203). Although details will be described later, the flag F_left is used to calculate the y coordinate of the wrist coordinates.
次に、右領域(B)にピクセル値≠0の画素が任意の数、連続しているか否かを判定する(ステップS204)。これは、右領域(B)に手があるか否かの判定となる。ピクセル値≠0の部分が任意の数、連続して存在している場合には、ステップS205に進む。一方、ピクセル値≠0の部分が任意の数、連続して存在していない場合には、ステップS206に進む。 Next, it is determined whether or not an arbitrary number of pixels having a pixel value ≠ 0 are continuous in the right region (B) (step S204). This is a determination as to whether or not there is a hand in the right region (B). If there is an arbitrary number of portions where the pixel value is not equal to 0, the process proceeds to step S205. On the other hand, if an arbitrary number of portions where the pixel value ≠ 0 does not exist continuously, the process proceeds to step S206.
ステップS204で「YES」と判定された場合、フラグF_rightに「1」をセットする(ステップS205)。一方、ステップS204で「NO」と判定された場合、フラグF_rightに「0」をセットする(ステップS206)。フラグF_rightも、手首座標のうちy座標を算出するのに用いられる。 If “YES” is determined in the step S204, the flag F_right is set to “1” (step S205). On the other hand, if “NO” is determined in the step S204, the flag F_right is set to “0” (step S206). The flag F_right is also used to calculate the y coordinate of the wrist coordinates.
次に、上領域(C)にピクセル値≠0の画素が任意の数、連続しているか否かを判定する(ステップS207)。これは、上領域(C)に手があるか否かの判定となる。ピクセル値≠0の部分が任意の数、連続して存在している場合には、ステップS208に進む。一方、ピクセル値≠0の部分が任意の数、連続して存在していない場合には、ステップS209に進む。 Next, it is determined whether or not an arbitrary number of pixels having a pixel value ≠ 0 are continuous in the upper region (C) (step S207). This is a determination as to whether or not there is a hand in the upper region (C). If there is an arbitrary number of consecutive pixel values ≠ 0, the process proceeds to step S208. On the other hand, if an arbitrary number of portions where the pixel value ≠ 0 does not exist continuously, the process proceeds to step S209.
ステップS207で「YES」と判定された場合、フラグF_topに「1」をセットする(ステップS208)。一方、ステップS207で「NO」と判定された場合、フラグF_topに「0」をセットする(ステップS209)。詳細は後述するが、フラグF_topは、手首座標のうちx座標を算出するのに用いられる。 If “YES” is determined in the step S207, “1” is set to the flag F_top (step S208). On the other hand, if “NO” is determined in the step S207, the flag F_top is set to “0” (step S209). Although details will be described later, the flag F_top is used to calculate the x coordinate of the wrist coordinates.
次に、下領域(D)にピクセル値≠0の画素が任意の数、連続しているか否かを判定する(ステップS210)。これは、下領域(D)に手があるか否かの判定となる。ピクセル値≠0の部分が任意の数、連続して存在している場合には、ステップS211に進む。一方、ピクセル値≠0の部分が任意の数、連続して存在していない場合には、ステップS212に進む。 Next, it is determined whether or not an arbitrary number of pixels having a pixel value ≠ 0 are continuous in the lower region (D) (step S210). This is a determination as to whether or not there is a hand in the lower region (D). If an arbitrary number of portions where the pixel value ≠ 0 exists continuously, the process proceeds to step S211. On the other hand, if an arbitrary number of portions where the pixel value ≠ 0 does not exist continuously, the process proceeds to step S212.
ステップS210で「YES」と判定された場合、フラグF_bottomに「1」をセットする(ステップS211)。一方、ステップS210で「NO」と判定された場合、フラグF_bottomに「0」をセットする(ステップS212)。フラグF_bottomも、手首座標のうちx座標を算出するのに用いられる。 If “YES” is determined in the step S210, “1” is set to the flag F_bottom (step S211). On the other hand, if “NO” is determined in the step S210, “0” is set to the flag F_bottom (step S212). The flag F_bottom is also used to calculate the x coordinate of the wrist coordinates.
最後に、各フラグの設定から手首座標を算出する(ステップS213)。手首座標の算出には、上記で設定した各フラグの成立を確認する必要がある。以下、図6を参照して、手首座標の算出方法について説明する。なお、画像領域Rについても、撮像領域Sと同じ方向にx軸、y軸をとり、原点は、画像領域Rの左上である。 Finally, wrist coordinates are calculated from the setting of each flag (step S213). In calculating the wrist coordinates, it is necessary to confirm the establishment of each flag set above. Hereinafter, a method for calculating wrist coordinates will be described with reference to FIG. For the image region R, the x axis and the y axis are taken in the same direction as the imaging region S, and the origin is at the upper left of the image region R.
まず、画像上下のフラグ(F_top,F_bottom)を用いて、手首座標のx座標を決定する(図6(a)参照)。 First, the x coordinate of the wrist coordinates is determined using the upper and lower flags (F_top, F_bottom) of the image (see FIG. 6A).
(i)F_top=1、F_bottom=1の場合、手が画像領域Rの上辺及び下辺に跨った状態で存在しているので、手領域を抽出できる状態ではないと判断する。この場合、x座標の算出を行わない。 (I) When F_top = 1 and F_bottom = 1, it is determined that the hand region is not in a state where the hand region can be extracted because the hand exists in a state of straddling the upper side and the lower side of the image region R. In this case, the x coordinate is not calculated.
(ii)F_top=1、F_bottom=0の場合、手が画像領域Rの上辺にある状態である。従って、上領域(C)の画素(ピクセル値≠0)の平均x座標を「手首のx座標」とする。また、x座標最終判断フラグX_Flagを「0」にセットする。x座標最終判断フラグによる最終判断の詳細は後述する。 (Ii) When F_top = 1 and F_bottom = 0, the hand is in the upper side of the image region R. Therefore, the average x coordinate of the pixels in the upper region (C) (pixel value ≠ 0) is defined as “wrist x coordinate”. Further, the x coordinate final determination flag X_Flag is set to “0”. Details of the final determination by the x-coordinate final determination flag will be described later.
(iii)F_top=0、F_bottom=1の場合、手が画像領域Rの下辺にある状態である。従って、下領域(D)の画素(ピクセル値≠0)の平均x座標を「手首のx座標」とする。ここでも、x座標最終判断フラグX_Flagを「0」にセットする。 (Iii) When F_top = 0 and F_bottom = 1, the hand is in the lower side of the image region R. Therefore, the average x coordinate of the pixels (pixel value ≠ 0) in the lower region (D) is defined as “wrist x coordinate”. Again, the x-coordinate final determination flag X_Flag is set to “0”.
(iv)F_top=0、F_bottom=0の場合、手が画像領域Rの上辺及び下辺にはないが、画像領域Rの左辺又は右辺に存在する可能性がある。ここでは、「手首のx座標」が決定しないが、x座標最終判断フラグX_Flagを「1」にセットし、後述する最終判断にて「手首のx座標」を決定する。 (Iv) When F_top = 0 and F_bottom = 0, the hand is not on the upper side or the lower side of the image region R, but may be present on the left or right side of the image region R. Here, the “x coordinate of the wrist” is not determined, but the x coordinate final determination flag X_Flag is set to “1”, and the “x coordinate of the wrist” is determined by the final determination described later.
次に、画像左右のフラグ(F_left,F_right)により手首座標のy座標を決定する(図6(b)参照)。 Next, the y coordinate of the wrist coordinate is determined by the left and right flags (F_left, F_right) of the image (see FIG. 6B).
(i)F_left=1、F_right=1の場合、手が画像領域Rの左辺及び右辺に跨った状態で存在しているので、手領域を抽出できる状態ではないと判断する。この場合、y座標の算出を行わない。 (I) When F_left = 1 and F_right = 1, it is determined that the hand region is not in a state where the hand region can be extracted because the hand exists in a state of straddling the left and right sides of the image region R. In this case, the y coordinate is not calculated.
(ii)F_left=1、F_right=0の場合、手が画像領域Rの左辺にある状態である。従って、左領域(A)の画素(ピクセル値≠0)の平均y座標を「手首のy座標」とする。また、y座標最終判断フラグY_Flagを「0」にセットする。y座標最終判断フラグによる最終判断の詳細は後述する。 (Ii) When F_left = 1 and F_right = 0, the hand is on the left side of the image region R. Accordingly, the average y coordinate of the pixels in the left area (A) (pixel value ≠ 0) is defined as “wrist y coordinate”. Further, the y coordinate final determination flag Y_Flag is set to “0”. Details of the final determination by the y-coordinate final determination flag will be described later.
(iii)F_left=0、F_right=1の場合、手が画像領域Rの右辺にある状態である。従って、右領域(B)の画素(ピクセル値≠0)の平均y座標を「手首のy座標」とする。ここでも、y座標最終判断フラグY_Flagを「0」にセットする。 (Iii) When F_left = 0 and F_right = 1, the hand is on the right side of the image region R. Accordingly, the average y coordinate of the pixels in the right region (B) (pixel value ≠ 0) is defined as the “y coordinate of the wrist”. Again, the y-coordinate final determination flag Y_Flag is set to “0”.
(iv)F_left=0、F_right=0の場合、手が画像領域Rの左辺及び右辺にはないが、画像領域Rの上辺又は下辺に存在する可能性がある。ここでは、「手首のy座標」が決定しないが、y座標最終判断フラグY_Flagを「1」にセットし、後述する最終判断にて「手首のy座標」を決定する。 (Iv) When F_left = 0 and F_right = 0, the hand is not on the left side or the right side of the image region R, but may be present on the upper side or the lower side of the image region R. Here, the “y coordinate of the wrist” is not determined, but the y coordinate final determination flag Y_Flag is set to “1”, and the “y coordinate of the wrist” is determined by the final determination described later.
最後に、上記の結果と最終判断フラグ(X_Flag,Y_Flag)により最終的な「手首のx座標」、「手首のy座標」を決定する(図6(c)参照)。なお、以下でも「画素」とは、ピクセル値≠0の画素を意味する。 Finally, final “wrist x-coordinate” and “wrist y-coordinate” are determined based on the above result and final determination flags (X_Flag, Y_Flag) (see FIG. 6C). In the following, “pixel” means a pixel having a pixel value ≠ 0.
(i)X_Flag=1、Y_Flag=1の場合、画像領域Rの周囲のどの辺にも手がないことを意味する。この場合、手領域を抽出できる状態ではないので、x座標及びy座標の算出を行わない。 (I) When X_Flag = 1 and Y_Flag = 1, it means that there is no hand on any side around the image region R. In this case, since the hand region cannot be extracted, the x coordinate and the y coordinate are not calculated.
(ii)X_Flag=1、Y_Flag=0の場合、手が画像領域Rの左辺又は右辺に存在し、上辺及び下辺を跨いでいないことを意味する。ここでは、以下の算出方法αに従って、手首座標を算出する。 (Ii) When X_Flag = 1 and Y_Flag = 0, it means that the hand exists on the left side or the right side of the image region R and does not straddle the upper side and the lower side. Here, wrist coordinates are calculated according to the following calculation method α.
(α−1)F_left=1のとき、
手首座標(x,y)=(0,左領域(A)の画素の平均y座標)
(α−2)F_right=1のとき、
手首座標(x,y)=(画像領域Rの右端,右領域(B)の画素の平均y座標)
これにより、この場合の手首座標が決定する。
(Α-1) When F_left = 1,
Wrist coordinates (x, y) = (0, average y coordinate of pixels in left area (A))
(Α-2) When F_right = 1,
Wrist coordinates (x, y) = (average y coordinate of pixels in the right end of the image area R, right area (B))
Thereby, wrist coordinates in this case are determined.
(iii)X_Flag=0、Y_Flag=1の場合、手は、画像領域Rの上辺又は下辺に存在し、左辺及び右辺を跨いでいないことを意味する。ここでは、以下の算出方法βに従って、手首座標を算出する。 (Iii) When X_Flag = 0 and Y_Flag = 1, it means that the hand exists on the upper side or the lower side of the image region R and does not straddle the left side and the right side. Here, wrist coordinates are calculated according to the following calculation method β.
(β−1)F_top=1のとき、
手首座標(x,y)=(上領域(C)の画素の平均x座標,0)
(β−2)F_bottom=1のとき、
手首座標(x,y)=(下領域(D)の画素の平均x座標,画像領域Rの下端)
これにより、この場合の手首座標が決定する。
(Β-1) When F_top = 1
Wrist coordinates (x, y) = (average x coordinate of pixels in upper region (C), 0)
(Β-2) When F_bottom = 1
Wrist coordinates (x, y) = (average x coordinate of lower region (D) pixels, lower end of image region R)
Thereby, wrist coordinates in this case are determined.
(iv)X_Flag=0、Y_Flag=0の場合、手は、画像領域Rの上辺又は下辺と、左辺又は右辺(何れかの組合せ)を跨ぐ状態で存在していることを意味する。ここでは、以下の算出方法γに従って、手首座標を算出する。 (Iv) When X_Flag = 0 and Y_Flag = 0, it means that the hand exists over the upper side or the lower side of the image region R and the left side or the right side (any combination). Here, wrist coordinates are calculated according to the following calculation method γ.
(γ−1)F_left=1、F_top=1のとき(画像領域Rの左上隅)、
手首座標(x,y)=(上領域(C)の画素の平均x座標,左領域(A)の画素の平均y座標)
(γ−2)F_left=1、F_bottom=1のとき(画像領域Rの左下隅)、
手首座標(x,y)=(下領域(D)の画素の平均x座標,左領域(A)の画素の平均y座標)
(γ−3)F_right=1、F_top=1のとき(画像領域Rの右上隅)、
手首座標(x,y)=(上領域(C)の画素の平均x座標,右領域(B)の画素の平均y座標)
(γ−4)F_right=1、F_bottom=1のとき(画像領域Rの右下隅)、
手首座標(x,y)=(下領域(D)の画素の平均x座標,右領域(B)の画素の平均y座標)
これにより、手が撮像領域Sに対して、角(四隅の何れか)から斜めに差込まれた場合の手首座標が決定する。以上により、手がどの方向から撮像領域Sに差込まれても、手首座標を算出することができる。
(Γ−1) When F_left = 1 and F_top = 1 (upper left corner of the image region R),
Wrist coordinates (x, y) = (average x coordinate of pixels in upper area (C), average y coordinate of pixels in left area (A))
(Γ-2) When F_left = 1 and F_bottom = 1 (lower left corner of the image area R),
Wrist coordinates (x, y) = (average x coordinate of pixels in lower region (D), average y coordinate of pixels in left region (A))
(Γ-3) When F_right = 1 and F_top = 1 (upper right corner of the image region R),
Wrist coordinates (x, y) = (average x coordinate of pixels in upper area (C), average y coordinate of pixels in right area (B))
(Γ-4) When F_right = 1 and F_bottom = 1 (lower right corner of the image region R),
Wrist coordinates (x, y) = (average x coordinate of pixels in lower region (D), average y coordinate of pixels in right region (B))
Thereby, the wrist coordinates when the hand is obliquely inserted from the corner (any one of the four corners) with respect to the imaging region S are determined. As described above, the wrist coordinates can be calculated regardless of the direction in which the hand is inserted into the imaging region S.
再び図2に戻り、手首座標算出処理の終了後には、掌座標算出処理に進む(ステップS30)。これは、上述の手領域抽出処理(ステップS10)で抽出された手領域の画像から掌座標を算出する処理である。以下、図7を参照して、掌座標の算出方法について説明する。 Returning to FIG. 2 again, after the wrist coordinate calculation process is completed, the process proceeds to the palm coordinate calculation process (step S30). This is a process of calculating palm coordinates from the image of the hand area extracted in the above-described hand area extraction process (step S10). Hereinafter, a palm coordinate calculation method will be described with reference to FIG.
図7(a)は、手領域抽出処理で抽出された手領域4の画像である。この画像から掌領域を切り出す方法は幾つか考えられるが、実施形態では、Opening処理による方法を用いる。 FIG. 7A is an image of the hand region 4 extracted by the hand region extraction process. There are several methods for extracting a palm region from this image. In the embodiment, a method based on Opening processing is used.
Opening処理とは、画像に対して同じ数だけ、Erosion処理(収縮処理)とDilation処理(膨張処理)を繰り返し行うことにより、細かいパターン及び小さいパターンを除去する処理である。図7(a)の画像領域Rに対してOpening処理を行うと、手領域4のうち、指や手首のパターンが除去されて、掌領域5だけが残る(図7(b)参照)。 The opening process is a process for removing fine patterns and small patterns by repeatedly performing the erosion process (shrinkage process) and the dilation process (expansion process) for the same number of images. When the opening process is performed on the image region R in FIG. 7A, the finger and wrist patterns are removed from the hand region 4, and only the palm region 5 remains (see FIG. 7B).
さらに、掌領域5の重心を算出して、これを掌座標とする。抽出された手領域4が手の甲の側である場合には、掌座標の代わりに手の甲座標を算出する。 Further, the center of gravity of the palm region 5 is calculated and used as palm coordinates. If the extracted hand region 4 is on the back side of the hand, the back hand coordinates are calculated instead of the palm coordinates.
手領域4の画像から掌領域を切り出す他の方法としては、掌の形状マスクを手領域の画像にマッチングさせ、適合率の高い領域を掌と認定する方法がある。この方法は、該形状マスクを、距離に応じて変化する手領域の面積に対応させる、或いは手の差込角度にあわせて回転させる必要があるが、Opening処理の代わりに用いることもできる。 As another method of cutting out the palm region from the image of the hand region 4, there is a method of matching a palm shape mask with the image of the hand region and identifying a region having a high matching rate as a palm. In this method, the shape mask needs to correspond to the area of the hand region that changes according to the distance, or to rotate according to the insertion angle of the hand, but can be used instead of the opening process.
再び、図2に戻り、掌座標算出処理の終了後には、手差込角度算出処理に進む(ステップS40)。これは、手首座標算出処理(ステップS20)で算出した手首座標(座標Aとする)と、掌座標算出処理(ステップS30)で算出した掌座標(座標Bとする)により、撮像領域Sに対する手の差込角度(角度φとする)を算出する処理である。以下、図8を参照して、手差込角度の算出方法について説明する。 Returning to FIG. 2 again, after the palm coordinate calculation process is completed, the process proceeds to the manual insertion angle calculation process (step S40). This is based on the wrist coordinates (referred to as coordinate A) calculated in the wrist coordinate calculation processing (step S20) and the palm coordinates (referred to as coordinate B) calculated in the palm coordinate calculation processing (step S30). This is a process for calculating the insertion angle (denoted as angle φ). Hereinafter, a method for calculating the manual insertion angle will be described with reference to FIG.
図8では、図示する通りx軸、y軸をとり、手領域4内の手首座標A(x1,y1)、掌座標B(x2,y2)が示され、この2点が直線で結ばれている。このとき、この直線とx軸のなす角が差込角度φとなる。なお、角度φは以下の式(1)で与えられる。 In FIG. 8, the x-axis and y-axis are taken as shown, and wrist coordinates A (x1, y1) and palm coordinates B (x2, y2) in the hand region 4 are shown, and these two points are connected by a straight line. Yes. At this time, the angle formed by this straight line and the x axis is the insertion angle φ. The angle φ is given by the following formula (1).
後述する画像回転補正処理では、本処理で算出した差込角度φにより、画像を回転変換し、新たな画像を得る。 In an image rotation correction process to be described later, the image is rotationally converted by the insertion angle φ calculated in this process to obtain a new image.
再び、図2に戻り、手差込角度算出処理の終了後には、画像回転補正処理に進む(ステップS50)。これは、手差込角度算出処理(ステップS40)で算出した差込角度φを用いて、中心座標(座標Cとする)を軸に、角度φだけ画像領域Rを回転させ(反時計回り)、新たな画像を作成する処理である。以下、図9を参照して、画像回転補正について説明する。 Returning to FIG. 2 again, after the manual insertion angle calculation process is completed, the process proceeds to the image rotation correction process (step S50). This is because the image region R is rotated by the angle φ around the center coordinate (coordinate C) using the insertion angle φ calculated in the manual insertion angle calculation process (step S40) (counterclockwise). This is a process for creating a new image. Hereinafter, the image rotation correction will be described with reference to FIG.
まず、図9(a)は、補正前の画像(画像領域R)を示している。掌座標を点B(x,y)、中心座標を点C(cx,cy)としたとき、点Cから点Bへ進むベクトルvは、ベクトルv=(x-cx,y-cy)となる。 First, FIG. 9A shows an image (image region R) before correction. When the palm coordinate is point B (x, y) and the center coordinate is point C (cx, cy), the vector v going from point C to point B is vector v = (x-cx, y-cy). .
また、手首座標を点Aとしたとき、手の差込角度はφであるので、ベクトルvを、座標Cを軸として角度φだけ回転変換することで、手の撮像領域Sへの差込みは常に一定方向に補正される。このとき、ベクトルvの角度φの回転変換には、以下の式(2)で表される行列Tを用いる。 Since the hand insertion angle is φ when the wrist coordinates are point A, the rotation of the vector v by the angle φ around the coordinate C is always converted into the imaging region S of the hand. It is corrected in a certain direction. At this time, a matrix T represented by the following equation (2) is used for rotational conversion of the angle φ of the vector v.
図9(b)は、上記の回転変換を行った補正後の画像(画像領域R’)を示している。上記回転変換により、座標Bは座標B’(x’,y’)に移動する。もちろん、座標Cを除く全ての画素が同様に移動するので、手領域4は手領域4’となる。 FIG. 9B shows a corrected image (image region R ′) that has been subjected to the rotation conversion described above. By the rotation conversion, the coordinate B moves to the coordinate B ′ (x ′, y ′). Of course, since all the pixels except the coordinate C move in the same manner, the hand region 4 becomes the hand region 4 '.
このとき、座標Cから座標B’へ進むベクトルv’は、ベクトルv’=(x’-cx,y’-cy)となるので、回転変換後の座標B’(x’,y’)は、以下の式(3)で与えられる。 At this time, the vector v ′ traveling from the coordinate C to the coordinate B ′ becomes the vector v ′ = (x′−cx, y′−cy), and thus the coordinate B ′ (x ′, y ′) after the rotation conversion is Is given by the following equation (3).
この回転変換は、カメラ2で撮像された各画像(毎フレーム)に対して行われる。 This rotation conversion is performed on each image (every frame) captured by the camera 2.
このように、手が撮像領域Sのどの方向から差込まれても、上記回転変換を逐次行う。従って、手領域4が常に一定方向を向くことになり、人が手を動かして、例えば、モニター上のポインタを動かそうとするとき、人が意図する動作の方向とポインタの移動方向は常に一致する。 As described above, the rotation conversion is sequentially performed regardless of the direction of the imaging region S from which the hand is inserted. Therefore, the hand area 4 always faces a certain direction, and when the person moves his / her hand, for example, when trying to move the pointer on the monitor, the direction of movement intended by the person and the moving direction of the pointer are always the same. To do.
最後に、図10を参照して、人が実際に撮像領域S内で手を動かしたときの各種処理について説明する。以下は、撮像領域Sに左手が差込まれ、人がポインタを右方向に動かす動作をした場合の例である。 Finally, with reference to FIG. 10, various processes when a person actually moves his / her hand within the imaging region S will be described. The following is an example when the left hand is inserted into the imaging area S and a person moves the pointer in the right direction.
まず、撮像領域Sの左側から右斜め上向きに左手が差込まれると、画像領域R内で手領域6が抽出され、手首座標A(x1,y1)及び手の甲座標B(x2,y2)が算出される(図10(a)参照)。また、画像領域Rの水平方向をx軸として、差込角度φ1も算出される。 First, when the left hand is inserted obliquely upward from the left side of the imaging region S, the hand region 6 is extracted in the image region R, and wrist coordinates A (x1, y1) and back of the hand coordinates B (x2, y2) are calculated. (See FIG. 10A). The insertion angle φ1 is also calculated with the horizontal direction of the image region R as the x axis.
手領域6は、差込角度φ1に基づいて回転補正されるので、座標A(x1,y1)、座標B(x2,y2)が、それぞれ座標A’(x1’,y2’)、座標B’(x2’,y2’)に移動し、手領域6は手領域6’となる(図10(b)参照)。 Since the hand region 6 is rotationally corrected based on the insertion angle φ1, the coordinates A (x1, y1) and the coordinates B (x2, y2) are converted into coordinates A ′ (x1 ′, y2 ′) and coordinates B ′, respectively. Moving to (x2 ′, y2 ′), the hand region 6 becomes the hand region 6 ′ (see FIG. 10B).
次に、撮像領域S内で人が左手を動かしたとき、画像領域Rで手領域7が抽出される(図10(a)参照)。実際には、手領域6、7は異なるフレームにあるが、説明のため1つの画像領域R内に示している。 Next, when a person moves the left hand within the imaging region S, the hand region 7 is extracted from the image region R (see FIG. 10A). Actually, the hand regions 6 and 7 are in different frames, but are shown in one image region R for explanation.
手領域7の手首座標A(x3,y3)及び手の甲座標B(x4,y4)が算出されると、座標A(x1,y1)から座標A(x3,y3)に向かうベクトルm及び座標B(x2,y2)から座標B(x4,y4)に向かうベクトルnが決定するので、画像処理部により左手が動いたことが認識される。 When the wrist coordinate A (x3, y3) and the back coordinate B (x4, y4) of the hand region 7 are calculated, the vector m and the coordinate B (from the coordinate A (x1, y1) to the coordinate A (x3, y3) Since the vector n from x2, y2) to the coordinate B (x4, y4) is determined, the image processing unit recognizes that the left hand has moved.
また、座標A(x3,y3)及び座標B(x4,y4)から差込角度φ2が算出されるので、差込角度φ2に基づいて回転補正され、座標A(x3,y3)、座標B(x4,y4)が、それぞれ座標A’(x3’,y3’)、座標B’(x4’,y4’)に移動する。その結果、手領域7は手領域7’となる(図10(b)参照)。 Further, since the insertion angle φ2 is calculated from the coordinates A (x3, y3) and the coordinates B (x4, y4), the rotation is corrected based on the insertion angle φ2, and the coordinates A (x3, y3), coordinates B ( x4, y4) move to coordinates A ′ (x3 ′, y3 ′) and coordinates B ′ (x4 ′, y4 ′), respectively. As a result, the hand region 7 becomes the hand region 7 '(see FIG. 10B).
これにより、補正後の画像(画像領域R’)では、座標A’(x1’,y2’)から座標A’(x3’,y3’)に向かうベクトルm’及び座標B’(x2’,y2’)から座標B’(x4’,y4’)に向かうベクトルn’が決定する。 Accordingly, in the corrected image (image region R ′), the vector m ′ and the coordinate B ′ (x2 ′, y2) from the coordinate A ′ (x1 ′, y2 ′) to the coordinate A ′ (x3 ′, y3 ′) are displayed. A vector n ′ from “) to the coordinate B ′ (x4 ′, y4 ′) is determined.
画像処理部は、ベクトルm’及びベクトルn’によって、人が意図する動作の方向を認識する。ここでは、ベクトルm’、n’の大きさ及び方向が殆ど同じであるので、ベクトルm’、n’に従いx軸正方向が認識方向とされ、ポインタが右方向に移動する。 The image processing unit recognizes the direction of the motion intended by the person based on the vector m ′ and the vector n ′. Here, since the magnitudes and directions of the vectors m ′ and n ′ are almost the same, the positive direction of the x axis is set as the recognition direction according to the vectors m ′ and n ′, and the pointer moves to the right.
実際には、手を数センチ動かす間に3枚以上の画像が作成されるので、画像処理部が画像の数のベクトルを繋げていくことで軌跡が得られ、手で曲線を描いたような場合にも、正確に方向が認識される。 Actually, three or more images are created while moving the hand by several centimeters, so the image processing unit can connect the vector of the number of images to obtain a trajectory and draw a curve by hand. In some cases, the direction can be accurately recognized.
画像処理部は、手の形状が変化した場合にも、複数の画像からその形状の変化を認識することができる。従って、本発明は、ジェスチャによって機器を操作する場合にも利用することができ、その場合にも上記一連の処理により、手が撮像領域Sのどの方向から差込まれても正確に手の形状を認識することができる。 Even when the shape of the hand changes, the image processing unit can recognize the change in the shape from a plurality of images. Therefore, the present invention can also be used when a device is operated by a gesture, and even in this case, the shape of the hand can be accurately determined from any direction of the imaging region S by the above-described series of processing. Can be recognized.
1 人
2 カメラ(撮像手段)
3 コンピュータ(画像処理装置)
4,4’,6,6’,7,7’ 手領域
5 掌領域
P ピクセル値取得領域
R 画像領域
S 撮像領域
1 person 2 camera (imaging means)
3 Computer (image processing device)
4, 4 ', 6, 6', 7, 7 'Hand area 5 Palm area P Pixel value acquisition area R Image area S Imaging area
Claims (2)
前記画像情報から人体部位の領域を抽出する人体部位領域抽出手段と、
前記人体部位領域抽出手段が抽出した人体部位のうち、前記画像情報の周囲の画素を検出して、手首の中央部の座標である第1部位座標と、掌又は手の甲の重心の座標である第2部位座標とを算出する部位座標算出手段と、
前記部位座標算出手段が算出した第1部位座標と第2部位座標とを結ぶ直線の傾きから、人体部位の撮像領域への差込角度を算出する差込角度算出手段と、
前記差込角度算出手段が算出した差込角度に基づいて、前記画像情報を回転補正する画像回転補正手段とを備えることを特徴する画像処理装置。 An image processing apparatus for recognizing an action of a human body part based on image information acquired by the imaging unit using an imaging unit that images a human body part in an imaging region and acquires the image information.
A human body part region extracting means for extracting a human body part region from the image information;
Among the human body parts extracted by the human body part region extracting means , pixels around the image information are detected, and the first part coordinates which are the coordinates of the center part of the wrist and the coordinates of the center of gravity of the palm or the back of the hand . A part coordinate calculating means for calculating two part coordinates;
An insertion angle calculation means for calculating an insertion angle to the imaging region of the human body part from an inclination of a straight line connecting the first part coordinate and the second part coordinate calculated by the part coordinate calculation unit;
An image processing apparatus comprising: an image rotation correction unit that rotationally corrects the image information based on the insertion angle calculated by the insertion angle calculation unit.
前記画像情報から人体部位の領域を抽出する人体部位領域抽出工程と、A human body part region extracting step of extracting a region of a human body part from the image information;
前記人体部位領域抽出工程で抽出された人体部位のうち、前記画像情報の周囲の画素を検出して、手首の中央部の座標である第1部位座標と、掌又は手の甲の重心の座標である第2部位座標とを算出する部位座標算出工程と、Among the human body parts extracted in the human body part region extraction step, pixels around the image information are detected, and the first part coordinates that are the coordinates of the center part of the wrist and the coordinates of the center of gravity of the palm or the back of the hand A part coordinate calculation step of calculating a second part coordinate;
前記部位座標算出工程で算出された第1部位座標と第2部位座標とを結ぶ直線の傾きから、人体部位の撮像領域への差込角度を算出する差込角度算出工程と、An insertion angle calculation step of calculating an insertion angle to the imaging region of the human body part from the inclination of the straight line connecting the first part coordinate and the second part coordinate calculated in the part coordinate calculation step;
前記差込角度算出工程で算出された差込角度に基づいて、前記画像情報を回転補正する画像回転補正工程とを備えることを特徴とする画像処理方法。An image rotation correction step of rotating and correcting the image information based on the insertion angle calculated in the insertion angle calculation step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013054900A JP6170696B2 (en) | 2013-03-18 | 2013-03-18 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013054900A JP6170696B2 (en) | 2013-03-18 | 2013-03-18 | Image processing apparatus and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014182442A JP2014182442A (en) | 2014-09-29 |
JP6170696B2 true JP6170696B2 (en) | 2017-07-26 |
Family
ID=51701133
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013054900A Active JP6170696B2 (en) | 2013-03-18 | 2013-03-18 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6170696B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6651814B2 (en) | 2015-11-30 | 2020-02-19 | 富士通株式会社 | Region extraction device, region extraction program, and region extraction method |
JP7292344B2 (en) * | 2021-10-08 | 2023-06-16 | 日鉄エンジニアリング株式会社 | Welding system, welding method and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2934190B2 (en) * | 1996-08-22 | 1999-08-16 | 株式会社エイ・ティ・アール知能映像通信研究所 | Hand gesture recognition device |
JP5393072B2 (en) * | 2008-07-16 | 2014-01-22 | Kddi株式会社 | Palm position detection device, palm print authentication device, mobile phone terminal, program, and palm position detection method |
EP2703950A4 (en) * | 2011-04-28 | 2015-01-14 | Nec Solution Innovators Ltd | Information processing device, information processing method, and recording medium |
-
2013
- 2013-03-18 JP JP2013054900A patent/JP6170696B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014182442A (en) | 2014-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11308347B2 (en) | Method of determining a similarity transformation between first and second coordinates of 3D features | |
KR101606628B1 (en) | Pointing-direction detecting device and its method, program and computer readable-medium | |
JP6723061B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
US9367732B2 (en) | Information processing device, information processing method, and recording medium | |
TWI499966B (en) | Interactive operation method of electronic apparatus | |
JP6723814B2 (en) | Information processing apparatus, control method thereof, program, and storage medium | |
JP2015153046A (en) | Image processor, image processing method and program | |
JP6344530B2 (en) | Input device, input method, and program | |
US9613404B2 (en) | Image processing method, image processing apparatus and electronic device | |
JP2015176253A (en) | Gesture recognition device and control method thereof | |
JP6007523B2 (en) | Generating device, generating program, and generating method | |
KR101631015B1 (en) | Gesture recognition apparatus and control method of gesture recognition apparatus | |
JP2012208705A (en) | Image operation apparatus, image operation method and program | |
US20160110840A1 (en) | Image processing method, image processing device, and robot system | |
JP2014029656A (en) | Image processor and image processing method | |
JP6170696B2 (en) | Image processing apparatus and image processing method | |
US10088910B2 (en) | Information processing apparatus and information processing method | |
JP6858159B2 (en) | A telepresence framework that uses a head-mounted device to label areas of interest | |
US20190138106A1 (en) | Screen display control method and screen display control system | |
KR101447958B1 (en) | Method and apparatus for recognizing body point | |
JP2012003724A (en) | Three-dimensional fingertip position detection method, three-dimensional fingertip position detector and program | |
JP2011175347A (en) | Information processing apparatus and method | |
JP5951966B2 (en) | Image processing apparatus, image processing system, image processing method, and program | |
US20200167005A1 (en) | Recognition device and recognition method | |
JP2017162251A (en) | Three-dimensional noncontact input device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170303 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170613 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170703 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6170696 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |