JP2017162251A - Three-dimensional noncontact input device - Google Patents
Three-dimensional noncontact input device Download PDFInfo
- Publication number
- JP2017162251A JP2017162251A JP2016046858A JP2016046858A JP2017162251A JP 2017162251 A JP2017162251 A JP 2017162251A JP 2016046858 A JP2016046858 A JP 2016046858A JP 2016046858 A JP2016046858 A JP 2016046858A JP 2017162251 A JP2017162251 A JP 2017162251A
- Authority
- JP
- Japan
- Prior art keywords
- image
- object recognition
- input device
- contact input
- cameras
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
- Image Input (AREA)
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、3次元非接触入力装置に関し、特に、複数のカメラを有する3次元非接触入力装置に関する。 The present invention relates to a three-dimensional non-contact input device, and more particularly to a three-dimensional non-contact input device having a plurality of cameras.
従来、操作者の動きをカメラやセンサで捉えて、その情報を基に表示装置やマウスやキーボードに触れずに所定の入力を行う非接触入力システムが提案されている(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, a non-contact input system has been proposed in which an operator's movement is captured by a camera or sensor, and predetermined input is performed without touching a display device, a mouse, or a keyboard based on the information (see, for example, Patent Document 1). ).
しかしながら、前記した特許文献1のような従来のものは、カメラ等で撮影された画像がコンピュータに送られ、当該コンピュータで画像処理されて入力情報が計算されて位置等が特定されるようになっていた。そのため、他の処理も行っているコンピュータに対する負荷が大き過ぎるという問題が生じていた。 However, in the conventional apparatus such as the above-described Patent Document 1, an image captured by a camera or the like is sent to a computer, and the computer processes the image to calculate input information to specify a position or the like. It was. Therefore, there has been a problem that the load on the computer that is also performing other processing is too large.
本発明は上記の問題に鑑みてなされたものであり、コンピュータに極力負荷を掛けないで非接触入力を行うことができる3次元非接触入力装置を提供することを課題としている。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a three-dimensional non-contact input device that can perform non-contact input without imposing a load on the computer as much as possible.
かかる課題を解決するために、請求項1に記載の発明は、コンピュータに操作者の動作を送信する3次元非接触入力装置であって、異なる位置から前記操作者側に向けられた複数のカメラと、前記複数のカメラから得られた取得画像に基づいて前記操作者の特定部位の情報を送信する処理部とを有しており、前記処理部は、前記複数のカメラから得られた前記取得画像から深度画像を形成する深度画像形成部と、当該深度画像に基づいて、前記複数のカメラに対して所定距離にある前記特定部位の座標認識及び形状認識を有する物体認識処理を行う物体認識部と、を有しており、該物体認識部で得られた前記特定部位の座標及び形状の情報を前記コンピュータに送信可能となっている3次元非接触入力装置としたことを特徴とする。 In order to solve this problem, the invention described in claim 1 is a three-dimensional non-contact input device that transmits an operation of an operator to a computer, and is a plurality of cameras directed to the operator from different positions. And a processing unit that transmits information on the specific part of the operator based on acquired images obtained from the plurality of cameras, and the processing unit obtains the acquisition obtained from the plurality of cameras. A depth image forming unit that forms a depth image from an image, and an object recognition unit that performs object recognition processing including coordinate recognition and shape recognition of the specific part at a predetermined distance with respect to the plurality of cameras based on the depth image And a three-dimensional non-contact input device capable of transmitting information on the coordinates and shape of the specific part obtained by the object recognition unit to the computer.
また、請求項2に記載の発明は、請求項1に記載の構成に加え、前記処理部には、前記深度画像生成部で得られた前記深度画像における所定距離から外れる深度の画像を消去するフィルタ処理を行う画像前処理部を有する3次元非接触入力装置としたことを特徴とする。 Moreover, in addition to the structure of Claim 1, the invention of Claim 2 deletes the image of the depth which remove | deviates from the predetermined distance in the said depth image obtained by the said depth image generation part in the said process part. The present invention is characterized in that a three-dimensional non-contact input device having an image preprocessing unit that performs filter processing is provided.
また、請求項3に記載の発明は、請求項1又は2に記載の構成に加え、前記物体認識部は、初回は前記画像全体を対象に前記物体認識処理を行い、2回目からは前記物体認識部における前回の前記物体認識処理で得られた前記特定部位の周辺の所定範囲のみを対象に前記物体認識処理を行う3次元非接触入力装置としたことを特徴とする。 According to a third aspect of the present invention, in addition to the configuration of the first or second aspect, the object recognition unit performs the object recognition process on the entire image for the first time, and the object from the second time. A three-dimensional non-contact input device that performs the object recognition process only on a predetermined range around the specific part obtained by the previous object recognition process in the recognition unit is provided.
また、請求項4に記載の発明は、請求項1乃至3の何れか1項に記載の構成に加え、前記物体認識部は、前記画像と予め蓄積されたテンプレート画像とを比較して前記物体認識処理を行うようになっている3次元非接触入力装置としたことを特徴とする。 According to a fourth aspect of the present invention, in addition to the configuration according to any one of the first to third aspects, the object recognition unit compares the image with a pre-stored template image to compare the object. A three-dimensional non-contact input device adapted to perform recognition processing is characterized.
また、請求項5に記載の発明は、請求項1乃至4の何れか1項に記載の構成に加え、前記処理部には、前記物体認識部で得られた前記特定部位について、座標平均化及び移動カーブ調整を行う画像後処理部を有することを特徴とする。 According to a fifth aspect of the present invention, in addition to the configuration according to any one of the first to fourth aspects, the processing unit includes coordinate averaging for the specific part obtained by the object recognition unit. And an image post-processing unit for adjusting a moving curve.
また、請求項6に記載の発明は、請求項1乃至5の何れか1項に記載の構成に加え、前記コンピュータに対して、USB規格のHIDクラスとして認識、動作させるようになっている3次元非接触入力装置としたことを特徴とする。 According to a sixth aspect of the present invention, in addition to the configuration according to any one of the first to fifth aspects, the computer is recognized and operated as a USB standard HID class. It is characterized by being a dimension non-contact input device.
また、請求項7に記載の発明は、請求項1乃至6の何れか1項に記載の構成に加え、前記複数のカメラと前記処理部とが一体物で構成されている3次元非接触入力装置としたことを特徴とする。 According to a seventh aspect of the present invention, in addition to the configuration according to any one of the first to sixth aspects, the plurality of cameras and the processing unit are configured as a one-piece structure. It is a device.
請求項1に記載の発明によれば、複数のカメラからの取得画像から深度画像を形成し、当該深度画像に基づいて特定部位の座標認識と形状認識を行った上で、得られた情報をコンピュータに送信するようになっているため、コンピュータ側の負荷を極力軽減させることができ、スムーズな非接触入力を行うことができる。 According to the first aspect of the present invention, a depth image is formed from acquired images from a plurality of cameras, and after performing coordinate recognition and shape recognition of a specific part based on the depth image, information obtained is obtained. Since the transmission is made to the computer, the load on the computer side can be reduced as much as possible, and smooth non-contact input can be performed.
請求項2に記載の発明によれば、深度画像から非接触入力に不必要と考えられる部分を消去することができるため、確実かつ早く特定部位の認識を行うことができる。 According to the second aspect of the present invention, since it is possible to erase a portion that is considered unnecessary for non-contact input from the depth image, it is possible to recognize the specific part reliably and quickly.
請求項3に記載の発明によれば、2回目の物体認識処理からは1回目の物体認識処理で得られた特定部位の周辺のみを対象に処理を行うようになっているため、確実かつより早い処理を行うことができる。 According to the invention described in claim 3, since the process is performed only on the periphery of the specific part obtained by the first object recognition process from the second object recognition process, Fast processing can be performed.
請求項4に記載の発明によれば、特定部位の座標認識と形状認識を予め蓄積されたテンプレート画像との比較で行うようになっているため、より確実な認識力を発揮することができる。 According to the fourth aspect of the present invention, since the coordinate recognition and shape recognition of the specific part are performed by comparison with the template image stored in advance, more reliable recognition power can be exhibited.
請求項5に記載の発明によれば、認識された特定部位について座標平均化及び移動カーブ調整を行うため、特定部位の動きをスムーズなものに導くことができる。 According to the invention described in claim 5, since the coordinate averaging and the movement curve adjustment are performed for the recognized specific part, the movement of the specific part can be led to a smooth one.
請求項6に記載の発明によれば、特別なドライバ等が不要な汎用性のある規格でコンピュータに接続して使用することができる。 According to the invention described in claim 6, it can be used by connecting to a computer with a versatile standard that does not require a special driver or the like.
請求項7に記載の発明によれば、複数のカメラと処理部とが一体物で構成されているため、コンパクトな構成の装置で非接触入力を行うことができる。 According to the seventh aspect of the present invention, since the plurality of cameras and the processing unit are configured as a single unit, non-contact input can be performed with an apparatus having a compact configuration.
以下、この発明の実施の形態について、図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1〜図3には、この発明の実施の形態を示す。 1 to 3 show an embodiment of the present invention.
この実施の形態の3次元非接触入力装置10は、図1に示すように、コンピュータ1に繋がれており、3次元非接触入力装置10の前で所定の動作を行うことで、当該コンピュータ1に非接触で入力を行うものとなっている。 As shown in FIG. 1, the three-dimensional non-contact input device 10 of this embodiment is connected to a computer 1, and by performing a predetermined operation in front of the three-dimensional non-contact input device 10, the computer 1 The input is performed without contact.
まず、コンピュータ1について説明する。この実施の形態では、コンピュータ1は表示装置2と繋がれており、コンピュータ1からの出力信号により表示装置2に表示がなされるようになっている。また、このコンピュータ1には、外部端子としてUSB規格の端子4が配設されている。 First, the computer 1 will be described. In this embodiment, the computer 1 is connected to the display device 2, and a display is made on the display device 2 by an output signal from the computer 1. Further, the computer 1 is provided with a USB standard terminal 4 as an external terminal.
次に、この実施の形態の3次元非接触入力装置10について説明する。この3次元非接触入力装置10は、左右2つのカメラ11,12と処理部13が内蔵された本体部16とで構成されている。また、本体部16からコード14が出ており、その先端にUSBの端子15が設けられている。そして、この端子15がコンピュータ1の端子4に差し込まれるようになっている。 Next, the three-dimensional non-contact input device 10 of this embodiment will be described. The three-dimensional non-contact input device 10 includes left and right cameras 11 and 12 and a main body 16 in which a processing unit 13 is built. A cord 14 protrudes from the main body 16 and a USB terminal 15 is provided at the tip thereof. The terminal 15 is inserted into the terminal 4 of the computer 1.
また、この実施の形態のカメラ11,12は、所定の画素数を有するものが、左右に所定距離離間させた状態で取り付けられている。ここでは、2つのカメラ11,12がそれぞれ正面を向いた状態で固定されている。ここで、2つのカメラ11,12で撮影された取得画像100(図3(a)参照)は信号となって、本体部16の中の処理部13に送信される。 In addition, the cameras 11 and 12 of this embodiment, which have a predetermined number of pixels, are attached in a state where they are separated from each other by a predetermined distance. Here, the two cameras 11 and 12 are fixed in a state where they face each other. Here, the acquired images 100 (see FIG. 3A) captured by the two cameras 11 and 12 are transmitted as signals to the processing unit 13 in the main body unit 16.
この実施の形態の処理部13は、複数のカメラ11,12から送られてきた取得画像100(図3(a)参照)を処理してコンピュータ1に座標認識データと形状認識データにして送り出すものである。この処理部13は、図2に示すように、深度画像生成部21、画像前処理部22、物体認識部23、画像後処理部24、デバイス適合部25を有する構成となっている。以下、詳述する。 The processing unit 13 of this embodiment processes the acquired image 100 (see FIG. 3A) sent from the plurality of cameras 11 and 12 and sends it to the computer 1 as coordinate recognition data and shape recognition data. It is. As shown in FIG. 2, the processing unit 13 includes a depth image generation unit 21, an image preprocessing unit 22, an object recognition unit 23, an image postprocessing unit 24, and a device adaptation unit 25. Details will be described below.
深度画像生成部21は、図3(a)に示すような左右2つのカメラ11,12の取得画像100からステレオマッチング法により図3(b)に示すような深度画像101を形成するものである。ここでは、三角測量の原理を使って、左右2枚の画像間に生じる視差を求めて、それを距離に変換するようになっている。その結果、図3(b)に示すような、画像の手前ほど白く、画像の奥側になるほど黒くなる深度画像101が形成される。 The depth image generator 21 forms a depth image 101 as shown in FIG. 3B from the acquired images 100 of the left and right cameras 11 and 12 as shown in FIG. 3A by the stereo matching method. . Here, using the principle of triangulation, the parallax generated between the two left and right images is obtained and converted into a distance. As a result, as shown in FIG. 3B, a depth image 101 that is whiter toward the front of the image and blacker toward the back of the image is formed.
また、画像前処理部22は、前記した深度画像101を使ってフィルタ処理を行うものである。ここでは、図3(b)に示すような深度画像101のうち、カメラ11,12に対して所定距離より距離の長い部分(ここでは特定部位102以外の部分)を真っ黒に塗りつぶして、図3(c)に示すように、注目すべき特定部位102以外を消した特定画像103を形成するようになっている。 The image pre-processing unit 22 performs filter processing using the depth image 101 described above. Here, in the depth image 101 as shown in FIG. 3B, a portion longer than the predetermined distance from the cameras 11 and 12 (here, a portion other than the specific portion 102) is painted black, and FIG. As shown in (c), a specific image 103 in which the part other than the specific part 102 to be noticed is erased is formed.
また、物体認識部23は、物体認識処理を行うものである。具体的には、まず、画像前処理部22でフィルタ処理された特定画像103を、Haar−Like特徴アルゴリズムにより物体の形状認識を行う。形状認識が成功した場合は、当該物体の座標と大きさ(x,y,z,h)を結果として出力するようになっている。ここでは、複数(例えば、数百種類)のテンプレートデータ(テンプレート画像)を予め蓄積しておき、このテンプレートデータの全てと当該特定画像103とを比較することで、種々の形状を確実に認識可能となっている。ここでは、特定部位102として手の画像を認識するようになっており、手の形状がどのようになっているか(例えば、グー、チョキ、パーの形状をしているか等)をテンプレートデータと比較して認識し、当該認識した特定部位102の代表位置(例えば、テンプレートデータにおける重心位置や中央位置等)の座標及び大きさを測定するようになっている。 The object recognition unit 23 performs an object recognition process. Specifically, the shape of the object is first recognized by the Haar-Like feature algorithm for the specific image 103 that has been filtered by the image preprocessing unit 22. When the shape recognition is successful, the coordinates and size (x, y, z, h) of the object are output as a result. Here, a plurality of (for example, several hundred types) template data (template images) are stored in advance, and various shapes can be reliably recognized by comparing all of the template data with the specific image 103. It has become. Here, the hand image is recognized as the specific part 102, and the shape of the hand (for example, the shape of goo, choki, par, etc.) is compared with the template data. The coordinates and the size of the representative position (for example, the center of gravity position or the center position in the template data) of the recognized specific part 102 are measured.
また、ここでは、一連の取得画像100を初めて撮影したときの物体認識処理では、送信された特定画像103の全てを見て、特定部位102の形状認識及び座標認識を行うようになっている。また、一連の取得画像100を撮影して処理する2回目以降については、前回の物体認識処理で形状認識及び座標認識された特定部位102の周辺の所定範囲以外は見ないようにして、時間短縮を図るようになっている。 Here, in the object recognition processing when the series of acquired images 100 are captured for the first time, the shape recognition and coordinate recognition of the specific part 102 are performed by looking at all the transmitted specific images 103. In addition, for the second and subsequent times when a series of acquired images 100 are captured and processed, the time is shortened by not looking outside the predetermined range around the specific part 102 that has been recognized and coordinate-recognized in the previous object recognition process. It comes to plan.
また、画像後処理部24は、座標認識及び形状認識された特定部位102の動きがスムーズになるように調整するために、座標平均化と移動カーブ調整を行うものである。 Further, the image post-processing unit 24 performs coordinate averaging and movement curve adjustment in order to make adjustment so that the movement of the specific part 102 whose coordinates are recognized and whose shape is recognized is smooth.
また、デバイス適合部25は、前記した深度画像形成部21〜画像後処理部24で得られた特定部位102の座標認識及び形状認識の情報をUSB規格のHIDクラスのデータにして出力するものである。 The device adaptation unit 25 outputs the information on the coordinate recognition and shape recognition of the specific part 102 obtained by the depth image forming unit 21 to the image post-processing unit 24 as HID class data of the USB standard. is there.
そして、2つのカメラ11,12から処理部13に送られた取得画像100を、深度画像生成部21,画像前処理部22,物体認識部23,画像後処理部24,デバイス適合部25の順に処理を行って得られた特定部位102の座標認識及び形状認識のUSB規格のHIDクラスの情報を、コンピュータ1に送信するようになっている。 The acquired images 100 sent from the two cameras 11 and 12 to the processing unit 13 are processed in the order of the depth image generation unit 21, the image preprocessing unit 22, the object recognition unit 23, the image postprocessing unit 24, and the device adaptation unit 25. The information of the USB standard HID class of the coordinate recognition and shape recognition of the specific part 102 obtained by performing the processing is transmitted to the computer 1.
そして、この情報を受け取ったコンピュータ1は、通常のマウスやキーボードからの情報と同様の処理のみを行って、表示装置2に表示指示を出すものである(例えば、カーソル3を移動させ、クリック状態とする等)。 The computer 1 that has received this information performs only the same processing as information from a normal mouse or keyboard, and issues a display instruction to the display device 2 (for example, the cursor 3 is moved and the click state is displayed). And so on).
なお、この2つのカメラ11,12での撮影処理からデバイス適合部25でのUSB規格のHIDクラスのデータにする処理までは、所謂パイプライン処理化しており、画像取得からUSB出力までをオートマチックで次々と行うようになっている。これにより、処理時間の短縮を図るようになっている。 It should be noted that from the photographing process by the two cameras 11 and 12 to the process of converting the USB standard HID class data in the device adapting unit 25 into a so-called pipeline process, the process from image acquisition to USB output is automatic. One after another. This shortens the processing time.
以上のように、前記した実施の形態の3次元非接触入力装置10によれば、複数のカメラ11,12からの取得画像100から深度画像101を形成し、当該深度画像101に基づいて特定部位102の座標認識と形状認識を行った上で、得られた情報をコンピュータ1に送信するようになっているため、コンピュータ1側の負荷を極力軽減させることができ、スムーズな非接触入力を行うことができる。 As described above, according to the three-dimensional non-contact input device 10 of the above-described embodiment, the depth image 101 is formed from the acquired images 100 from the plurality of cameras 11 and 12, and the specific part is based on the depth image 101. Since the obtained information is transmitted to the computer 1 after performing the coordinate recognition and shape recognition of 102, the load on the computer 1 side can be reduced as much as possible, and smooth non-contact input is performed. be able to.
また、前記した実施の形態の3次元非接触入力装置10によれば、画像前処理部22のフィルタ処理によって、深度画像101から非接触入力に不必要と考えられる部分を消去することができるため、確実かつ早く特定部位102の認識を行うことができる。 Further, according to the three-dimensional non-contact input device 10 of the above-described embodiment, the filtering processing of the image pre-processing unit 22 can erase a portion considered unnecessary for non-contact input from the depth image 101. The specific part 102 can be recognized reliably and quickly.
また、前記した実施の形態の3次元非接触入力装置10によれば、2回目の物体認識部23の物体認識処理からは1回目の物体認識部23の物体認識処理における座標認識及び形状認識で得られた特定部位102の周辺のみを対象に処理を行うようになっているため、確実かつより早い処理を行うことができる。 Further, according to the three-dimensional non-contact input device 10 of the above-described embodiment, the coordinate recognition and shape recognition in the object recognition process of the first object recognition unit 23 are changed from the object recognition process of the second object recognition unit 23. Since processing is performed only on the periphery of the obtained specific part 102, reliable and faster processing can be performed.
また、前記した実施の形態の3次元非接触入力装置10によれば、特定部位102の座標認識と形状認識を予め蓄積されたテンプレートデータ(テンプレート画像)との比較で行うようになっているため、より確実な認識力を発揮することができる。 Further, according to the three-dimensional non-contact input device 10 of the above-described embodiment, the coordinate recognition and shape recognition of the specific part 102 are performed by comparison with template data (template image) accumulated in advance. , More reliable recognition can be demonstrated.
また、前記した実施の形態の3次元非接触入力装置10によれば、認識された特定部位102について座標平均化及び移動カーブ調整を行うため、特定部位102の動きをスムーズなものに導くことができる。 In addition, according to the three-dimensional non-contact input device 10 of the above-described embodiment, since the coordinate averaging and the movement curve adjustment are performed on the recognized specific part 102, the movement of the specific part 102 can be guided smoothly. it can.
また、前記した実施の形態の3次元非接触入力装置10によれば、特別なドライバ等が不要な汎用性のあるUSB規格のHIDクラスでコンピュータ1に接続して使用することができる。 In addition, according to the three-dimensional non-contact input device 10 of the above-described embodiment, it can be used by connecting to the computer 1 with a versatile USB standard HID class that does not require a special driver or the like.
また、前記した実施の形態の3次元非接触入力装置10によれば、複数のカメラ11,12と処理部13とが一体物で構成されているため、コンパクトな構成の装置で非接触入力を行うことができる。 In addition, according to the three-dimensional non-contact input device 10 of the above-described embodiment, since the plurality of cameras 11 and 12 and the processing unit 13 are configured as a single body, non-contact input can be performed with a compact configuration device. It can be carried out.
また、前記した実施の形態の3次元非接触入力装置10によれば、操作者の手の形やその動き、片手か両手かなど、多種多様な動作に応じてそれぞれ異なる操作を設定できるため、マウス等よりも多種多様な操作信号を設定することができる。 In addition, according to the three-dimensional non-contact input device 10 of the above-described embodiment, different operations can be set according to various operations such as the shape and movement of the operator's hand, one hand or both hands, Various operation signals can be set rather than a mouse or the like.
なお、以上説明した実施の形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。 The embodiment described above is described in order to facilitate understanding of the present invention, and is not described in order to limit the present invention.
例えば、前記した実施の形態では、複数のカメラ11,12と処理部13が一体物となっていたが、これに限るものではなく、カメラ11,12同士や処理部13がそれぞれ独立して離れた位置に配置されていても良い。但し、一体物の方が持ち運びや取り付けの手間は楽になるものである。 For example, in the above-described embodiment, the plurality of cameras 11 and 12 and the processing unit 13 are integrated. However, the present invention is not limited to this, and the cameras 11 and 12 and the processing unit 13 are independently separated from each other. It may be arranged at a different position. However, it is easier to carry and install one-piece.
また、前記した実施の形態では、2つのカメラ11,12が正面を向いた状態で取り付けられていたが、これに限るものではなく、一方又は双方が角度を付けて設置されていても良い。また、カメラの数も2つに限るものではなく、3つ以上設置されていても良い。また、カメラの性能や大きさ等も必要に応じて適宜設定されていれば良い。カメラの画素数、解像度が高い状態であればそれだけ小さな細かいものを特定部位として認識できるようになり、カメラの画素数、解像度が低い状態であればそれだけ動作を速くさせることができるものである。 In the above-described embodiment, the two cameras 11 and 12 are attached with facing the front. However, the present invention is not limited to this, and one or both of them may be installed at an angle. Further, the number of cameras is not limited to two, and three or more cameras may be installed. In addition, the performance and size of the camera may be set as necessary. If the number of pixels of the camera and the resolution are high, a smaller part can be recognized as a specific part. If the number of pixels of the camera and the resolution is low, the operation can be made faster.
また、前記した実施の形態では、2つのカメラ11,12が左右に離間した形で配置されていたが、これに限るものではなく、深度画像が形成できる状態であれば、上下や斜め等、適宜の方向で離間していても良い。ただし、ほとんど離間していない状態であると深度画像が作成し難いので適さない。 Further, in the above-described embodiment, the two cameras 11 and 12 are arranged so as to be separated from each other in the left and right directions. However, the present invention is not limited to this. They may be separated in an appropriate direction. However, it is not suitable that the depth image is difficult to be created if it is almost not separated.
また、前記した実施の形態では、2つのカメラ11,12から処理部13に送られた取得画像100に対して、深度画像生成部21,画像前処理部22,物体認識部23,画像後処理部24,デバイス適合部25の順に処理を行ったが、これに限るものではなく、画像や処理の仕方、最終的に得るデータ形式等によっては、画像前処理部や画像後処理部、デバイス適合部等の処理はなくても良い場合もある。ただし、深度画像形成部と物体認識部の処理は省略できないものである。 In the above-described embodiment, the depth image generation unit 21, the image preprocessing unit 22, the object recognition unit 23, and the image post processing are performed on the acquired image 100 sent from the two cameras 11 and 12 to the processing unit 13. The processing is performed in the order of the unit 24 and the device adaptation unit 25. However, the present invention is not limited to this, and depending on the image, processing method, finally obtained data format, the image pre-processing unit, the image post-processing unit, and the device adaptation In some cases, there is no need for the processing of the parts. However, the processing of the depth image forming unit and the object recognition unit cannot be omitted.
また、前記した実施の形態では、物体認識処理において、Haar−Like特徴アルゴリズムにより物体の形状認識を行うものを例に説明したが、これに限るものではなく、他のアルゴリズムによる物体認識処理を行うようになっていても良い。また、予め蓄積された複数のテンプレートデータと画像とを比較する形状認識の仕方以外の方法で形状認識を行うようになっていても良い。 In the above-described embodiment, the object recognition process has been described by taking the object shape recognition by the Haar-Like feature algorithm as an example. However, the present invention is not limited to this, and the object recognition process by another algorithm is performed. It may be like this. In addition, shape recognition may be performed by a method other than the shape recognition method of comparing a plurality of template data stored in advance with an image.
1 コンピュータ
2 表示装置
3 カーソル
4 端子
10 3次元非接触入力装置
11 左カメラ
12 右カメラ
13 処理部
14 ケーブル
15 端子
16 本体部
21 深度画像生成部
22 画像前処理部
23 物体認識部
24 画像後処理部
25 デバイス適合部
100 取得画像
101 深度画像
102 特定部位
103 特定画像
DESCRIPTION OF SYMBOLS 1 Computer 2 Display apparatus 3 Cursor 4 Terminal 10 3D non-contact input device 11 Left camera 12 Right camera 13 Processing part 14 Cable 15 Terminal 16 Body part 21 Depth image generation part 22 Image pre-processing part 23 Object recognition part 24 Image post-processing Unit 25 device matching unit 100 acquired image 101 depth image 102 specific part 103 specific image
Claims (7)
異なる位置から前記操作者側に向けられた複数のカメラと、
前記複数のカメラから得られた取得画像に基づいて前記操作者の特定部位の情報を送信する処理部とを有しており、
前記処理部は、
前記複数のカメラから得られた前記取得画像から深度画像を形成する深度画像形成部と、
当該深度画像に基づいて、前記複数のカメラに対して所定距離にある前記特定部位の座標認識及び形状認識を有する物体認識処理を行う物体認識部と、
を有しており、
該物体認識部で得られた前記特定部位の座標及び形状の情報を前記コンピュータに送信可能となっていることを特徴とする3次元非接触入力装置。 A three-dimensional non-contact input device that transmits an operator's action to a computer,
A plurality of cameras directed toward the operator from different positions;
A processing unit that transmits information on the specific part of the operator based on acquired images obtained from the plurality of cameras,
The processor is
A depth image forming unit that forms a depth image from the acquired images obtained from the plurality of cameras;
An object recognition unit that performs object recognition processing including coordinate recognition and shape recognition of the specific part at a predetermined distance with respect to the plurality of cameras based on the depth images;
Have
A three-dimensional non-contact input device characterized in that information on the coordinates and shape of the specific part obtained by the object recognition unit can be transmitted to the computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016046858A JP2017162251A (en) | 2016-03-10 | 2016-03-10 | Three-dimensional noncontact input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016046858A JP2017162251A (en) | 2016-03-10 | 2016-03-10 | Three-dimensional noncontact input device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017162251A true JP2017162251A (en) | 2017-09-14 |
Family
ID=59857772
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016046858A Pending JP2017162251A (en) | 2016-03-10 | 2016-03-10 | Three-dimensional noncontact input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017162251A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020111269A1 (en) * | 2018-11-30 | 2020-06-04 | Arithmer株式会社 | Dimensional data calculation device, product manufacturing device, information processing device, silhouette image generating device, and terminal device |
US11922649B2 (en) | 2018-11-30 | 2024-03-05 | Arithmer Inc. | Measurement data calculation apparatus, product manufacturing apparatus, information processing apparatus, silhouette image generating apparatus, and terminal apparatus |
-
2016
- 2016-03-10 JP JP2016046858A patent/JP2017162251A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020111269A1 (en) * | 2018-11-30 | 2020-06-04 | Arithmer株式会社 | Dimensional data calculation device, product manufacturing device, information processing device, silhouette image generating device, and terminal device |
US11922649B2 (en) | 2018-11-30 | 2024-03-05 | Arithmer Inc. | Measurement data calculation apparatus, product manufacturing apparatus, information processing apparatus, silhouette image generating apparatus, and terminal apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6417702B2 (en) | Image processing apparatus, image processing method, and image processing program | |
EP3113114B1 (en) | Image processing method and device | |
CN108381549B (en) | Binocular vision guide robot rapid grabbing method and device and storage medium | |
US9633450B2 (en) | Image measurement device, and recording medium | |
CN111178317A (en) | Detection positioning method, system, device, electronic equipment and storage medium | |
US9880634B2 (en) | Gesture input apparatus, gesture input method, and program for wearable terminal | |
JP7064257B2 (en) | Image depth determination method and creature recognition method, circuit, device, storage medium | |
JP6054831B2 (en) | Image processing apparatus, image processing method, and image processing program | |
WO2015051827A1 (en) | Method of determining a similarity transformation between first and second coordinates of 3d features | |
WO2015108736A1 (en) | Stereo image processing using contours | |
EP3185106A1 (en) | Operating apparatus, control method therefor, program, and storage medium storing program | |
US10623629B2 (en) | Imaging apparatus and imaging condition setting method and program | |
JP2014170368A (en) | Image processing device, method and program and movable body | |
CN112109069A (en) | Robot teaching device and robot system | |
JP2013242625A (en) | Image processing device and image processing method | |
TWI510082B (en) | Image capturing method for image rcognition and system thereof | |
JP2017162251A (en) | Three-dimensional noncontact input device | |
JP2016099643A (en) | Image processing device, image processing method, and image processing program | |
JP2017033556A (en) | Image processing method and electronic apparatus | |
JP2015132544A (en) | Image processing apparatus and three-dimensional space information acquisition method | |
US12094227B2 (en) | Object recognition device and object recognition method | |
JP2021021577A (en) | Image processing device and image processing method | |
JP5051671B2 (en) | Information processing apparatus, information processing method, and program | |
KR101860138B1 (en) | Apparatus for sharing data and providing reward in accordance with shared data | |
JP2015197297A (en) | shape recognition device |