JP6740614B2 - Object detection device and image display device including the object detection device - Google Patents
Object detection device and image display device including the object detection device Download PDFInfo
- Publication number
- JP6740614B2 JP6740614B2 JP2016005035A JP2016005035A JP6740614B2 JP 6740614 B2 JP6740614 B2 JP 6740614B2 JP 2016005035 A JP2016005035 A JP 2016005035A JP 2016005035 A JP2016005035 A JP 2016005035A JP 6740614 B2 JP6740614 B2 JP 6740614B2
- Authority
- JP
- Japan
- Prior art keywords
- distance
- unit
- measuring unit
- distance measuring
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
- Measurement Of Optical Distance (AREA)
- Projection Apparatus (AREA)
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
Description
本発明は、物体検出装置、及び物体検出装置を備えた画像表示装置に関する。 The present invention relates to an object detection device and an image display device including the object detection device.
近年、画像情報に基づいて対象物体の検出等を行う物体検出装置を搭載し、スクリーンに投影した投影画像に文字や図などを書き込む機能や、投影画像の拡大、縮小、ページ送りなどの操作を実行する機能等を備えた、いわゆるインタラクティブなプロジェクタ装置が開発されている。これらの機能は、スクリーンをタッチする操作者の指や、操作者が保持するペン及び指し棒などを入力操作部とし、その入力操作部の位置及び動き等の情報を検出して、その検出結果をコンピュータなどへ送ることで実現されている。 In recent years, equipped with an object detection device that detects the target object based on image information, functions such as writing characters and figures in the projected image projected on the screen, and operations such as enlargement, reduction, and page turning of the projected image. A so-called interactive projector device having a function of executing has been developed. These functions use the operator's finger touching the screen, the pen and pointing stick held by the operator as the input operation unit, and detect information such as the position and movement of the input operation unit, and the detection result. Is realized by sending to a computer or the like.
このようなプロジェクタ装置として、背景物体となるスクリーンの距離情報及び入力操作部の距離情報をそれぞれ距離画像センサにより取得し、それらの情報からスクリーンに対する入力操作部の位置及び動きを3次元的に求める技術が提案されている(例えば、特許文献1参照)。また距離画像センサとして、ステレオカメラを用いた距離画像センサ、TOF(Time-of-Flight)センサ、パターン投影法に基づくセンサ等が知られている。 As such a projector device, distance information of a screen serving as a background object and distance information of an input operation unit are respectively acquired by a distance image sensor, and the position and movement of the input operation unit with respect to the screen are three-dimensionally obtained from the information. A technique has been proposed (see, for example, Patent Document 1). Known range image sensors include a range image sensor using a stereo camera, a TOF (Time-of-Flight) sensor, and a sensor based on a pattern projection method.
一方、距離情報を用いて監視空間への侵入物体を検知する侵入検知装置も開示されている(例えば、特許文献2参照)。特許文献2では、測距不能な画素に起因する誤動作を低減させ、侵入者の侵入検知精度を向上させる目的で、背景物体及び侵入物体それぞれの距離情報を計測し、それらの情報の一方に測距精度が低下した画素がある場合、当該画素も距離変化画素として抽出し、侵入物体の有無を判定する技術が開示されている。 On the other hand, there is also disclosed an intrusion detection device that detects an intruding object into the surveillance space by using distance information (for example, see Patent Document 2). In Patent Document 2, distance information of each of a background object and an intruding object is measured for the purpose of reducing malfunctions due to pixels incapable of ranging and improving intrusion detection accuracy of an intruder, and one of those information is measured. A technique is disclosed in which, when there is a pixel with a reduced distance accuracy, the pixel is also extracted as a distance-changed pixel to determine the presence or absence of an intruding object.
ところで、スクリーンや建造物等の背景物体と、操作者の指や侵入物体等の対象物体は、距離画像センサで用いる測定光に対する反射率が異なるため、距離情報に基づいて対象物体の位置や動き等の情報を高精度に取得するためには、反射率の違いを考慮する必要がある。 By the way, a background object such as a screen or a building and a target object such as an operator's finger or an intruding object have different reflectances with respect to the measurement light used by the distance image sensor, and therefore, the position or movement of the target object based on the distance information. In order to obtain such information with high accuracy, it is necessary to consider the difference in reflectance.
本発明は、上記の事情に鑑みて為されたもので、距離情報に基づいて対象物体に関する情報を高精度に検出することを目的とする。 The present invention has been made in view of the above circumstances, and an object thereof is to detect information regarding a target object with high accuracy based on distance information.
上記の目的を達成するため、本発明に係る物体検出装置は、測距部を有し、該測距部から所定の視野内について距離情報を取得する物体検出装置であって、測距部が視野内についての距離情報を取得する際の条件を制御する制御部を備え、制御部は、視野内に存在する基準物体に適した第一の条件で視野内について第一の距離情報を取得し、視野内に存在する対象物体に適した第二の条件で視野内について第二の距離情報を取得するよう測距部を制御し、第二の距離情報における基準物体に関する値の信頼性を判断し、信頼性が高いと判断した場合は、測距部における基準位置から基準物体までの基準距離及び測距部における基準位置から対象物体までの対象距離を第二の距離情報から求め、信頼性が低いと判断した場合は、測距部における基準位置から基準物体までの基準距離を第一の距離情報に基づいて求め、測距部における基準位置から対象物体までの対象距離を第二の距離情報から求め、基準距離と対象距離とに基づき、基準物体に対する対象物体の状態を検出することを特徴とする。 In order to achieve the above object, an object detection device according to the present invention is an object detection device that has a distance measuring unit and acquires distance information within a predetermined visual field from the distance measuring unit. The control unit controls a condition when acquiring the distance information about the field of view, and the control unit acquires the first distance information about the field of view under the first condition suitable for the reference object existing in the field of view. , The distance measuring unit is controlled to acquire the second distance information in the visual field under the second condition suitable for the target object existing in the visual field, and the reliability of the value regarding the reference object in the second distance information is determined. If it is determined that the reliability is high, the reference distance from the reference position in the distance measuring unit to the reference object and the target distance from the reference position in the distance measuring unit to the target object are obtained from the second distance information, and the reliability is calculated. If it is determined that is low, the reference distance from the reference position in the distance measuring unit to the reference object is obtained based on the first distance information, and the target distance from the reference position in the distance measuring unit to the target object is the second distance. It is characterized in that the state of the target object with respect to the reference object is detected based on the reference distance and the target distance obtained from the information.
本発明によれば、距離情報に基づいて対象物に関する情報を高精度に検出することが可能となる。 According to the present invention, it is possible to detect information about an object with high accuracy based on distance information.
(第1実施形態)
以下に、本願の第1実施形態に係る画像投影システム(インタラクティブ投影システム)の一実施形態を、図面を参照しながら説明する。図1、図2に示すように、本実施形態の画像投影システム100は、状態判定装置(物体検出装置の一例)30を有する画像投影装置(画像表示装置の一例)1と、画像管理装置2とを備えて構成される。本実施形態の画像投影システム100では、画像管理装置2から入力される画像信号に基づいて、画像投影装置1が所定の投影面3に対して画像投影を行う。
(First embodiment)
An embodiment of an image projection system (interactive projection system) according to the first embodiment of the present application will be described below with reference to the drawings. As shown in FIGS. 1 and 2, an image projection system 100 according to this embodiment includes an image projection device (an example of an image display device) 1 having a state determination device (an example of an object detection device) 30, and an image management device 2. And is configured. In the image projection system 100 of the present embodiment, the image projection device 1 projects an image on a predetermined projection plane 3 based on an image signal input from the image management device 2.
画像投影装置1は、その正面(前面)が投影面3に対向するように配置される。本実施形態では専用スクリーンの一面を投影面3としているが、ホワイトボードのボード面、壁面等を投影面3として利用することもできる。本実施形態では、投影面3の横方向(水平方向)をX方向、投影面3の縦方向(鉛直方向)をY方向、X方向及びY方向と直交する方向であって投影面3と画像投影装置1が対向する方向をZ方向とする。 The image projection device 1 is arranged so that its front surface (front surface) faces the projection surface 3. In this embodiment, one surface of the dedicated screen is used as the projection surface 3, but the board surface, wall surface, etc. of the whiteboard may be used as the projection surface 3. In the present embodiment, the horizontal direction (horizontal direction) of the projection surface 3 is the X direction, the vertical direction (vertical direction) of the projection surface 3 is the Y direction, and the X direction and the direction orthogonal to the Y direction are the projection surface 3 and the image. The direction in which the projection device 1 faces is the Z direction.
画像投影装置1の操作者(ユーザ)は、入力操作部4として指を用いて、投影面3の近傍において指す動作を行う、ないしは投影面3にタッチ(接触)する動作を行うことで、投影面3に投射された投影画像に対して入力操作を行う。なお、入力操作部4が操作者の指に限定されることはなく、ペン、指し棒等を入力操作部4とすることもできる。画像投影装置1では、入力操作部4を状態検出の対象物体として、その位置、形状、動き等の状態検出(情報検出)を行い、状態検出結果に対応した画像操作処理を行うことで、インタラクティブな操作機能を実現する。 The operator (user) of the image projection apparatus 1 uses the finger as the input operation unit 4 to perform a pointing operation in the vicinity of the projection surface 3 or an operation of touching (contacting) the projection surface 3 to perform projection. An input operation is performed on the projection image projected on the surface 3. The input operation unit 4 is not limited to the operator's finger, and a pen, a pointing stick, or the like may be used as the input operation unit 4. In the image projection apparatus 1, the input operation unit 4 is used as a target object of state detection, state detection (information detection) of its position, shape, movement, and the like is performed, and image operation processing corresponding to the state detection result is performed to perform interactive operation. To realize various operation functions.
画像管理装置2は、複数の画像情報を保持しており、操作者の指示に基づいて投影対象画像の画像情報等を画像投影装置1に送信する。画像管理装置2としては、所定のプログラムがインストールされているパーソナルコンピュータ(PC)、タブレット端末等を用いることができる。 The image management device 2 holds a plurality of image information, and transmits the image information of the projection target image and the like to the image projection device 1 based on the instruction of the operator. As the image management device 2, a personal computer (PC), a tablet terminal or the like in which a predetermined program is installed can be used.
画像投影装置1と画像管理装置2とは、専用ケーブル、USB(Universal Serial Bus)ケーブルなどの汎用ケーブル5を介して、双方向に通信可能に接続されている。なお、画像管理装置2と画像投影装置1とは、既知の無線通信プロトコルに従った無線通信により、双方向に通信可能に接続することもできる。また、画像管理装置2がUSBメモリやSDカードなどの着脱可能な記録媒体のインタフェースを有している場合は、該記録媒体に格納されている画像を投影対象画像とすることができる。 The image projection device 1 and the image management device 2 are bidirectionally connected via a general-purpose cable 5 such as a dedicated cable or a USB (Universal Serial Bus) cable. The image management device 2 and the image projection device 1 can be bidirectionally connected by wireless communication according to a known wireless communication protocol. If the image management device 2 has a removable recording medium interface such as a USB memory or an SD card, the image stored in the recording medium can be the projection target image.
本実施形態の画像投影装置1は、いわゆるインタラクティブなプロジェクタ装置であり、図2に示されるように、測距部10及び制御部20を有する状態判定装置30と、投射部40とを備えて構成される。これらは、筐体1a(図1参照)内に、一体に収納されているが、別体に構成することもできる。 The image projection apparatus 1 according to the present embodiment is a so-called interactive projector apparatus, and includes a state determination device 30 having a distance measuring unit 10 and a control unit 20 and a projection unit 40, as shown in FIG. To be done. These are integrally housed in the housing 1a (see FIG. 1), but can be configured separately.
投射部40は、画像の光学像を投影面3の所定の投影領域3aに投影表示する機能を有している。画像管理装置2から画像投影装置1に画像情報を入力することで、投射部40によって様々な画像を投影することができる。 The projection unit 40 has a function of projecting and displaying an optical image of an image on a predetermined projection area 3 a of the projection surface 3. By inputting image information from the image management device 2 to the image projection device 1, the projection unit 40 can project various images.
投射部40は、図3に示すように、光源41、波長フィルター42、フライアイレンズ43、ダイクロイックミラー44R,44G,44B、全反射ミラー45、コリメータレンズ46R,46G,46B、空間光変調素子47R,47G,47B、ダイクロイックプリズム48、投射レンズ49を備えて構成される。投射部40は、投射制御部50に接続され、投射制御部50によって動作が制御される。投射制御部50は、画像投影装置1に設けられたCPU、RAM、ROM等を備えた情報処理装置で構成することができる。 As shown in FIG. 3, the projection unit 40 includes a light source 41, a wavelength filter 42, a fly-eye lens 43, dichroic mirrors 44R, 44G and 44B, a total reflection mirror 45, collimator lenses 46R, 46G and 46B, and a spatial light modulator 47R. , 47G, 47B, a dichroic prism 48, and a projection lens 49. The projection unit 40 is connected to the projection control unit 50, and its operation is controlled by the projection control unit 50. The projection control unit 50 can be configured by an information processing device including a CPU, a RAM, a ROM and the like provided in the image projection device 1.
ランプ光源等の光源41からの光は、波長フィルター42で赤外光(IR)や紫外光(UV)等の不要な光成分が除去された後、フライアイレンズ43に入射する。フライアイレンズ43を通過した光は、ダイクロイックミラー44R,44G,44Bに入射し、それぞれ、赤(R光)、緑(G光)、青(B光)の各色成分に分離される。各色成分に分離された光(R光、G光、B光)はコリメータレンズ46R,46G,46Bでそれぞれ平行光に変換された後、空間光変調素子47R,47G,47Bに入射する。 Light from a light source 41 such as a lamp light source is incident on a fly-eye lens 43 after unnecessary light components such as infrared light (IR) and ultraviolet light (UV) are removed by a wavelength filter 42. The light that has passed through the fly-eye lens 43 enters the dichroic mirrors 44R, 44G, and 44B, and is separated into red (R light), green (G light), and blue (B light) color components, respectively. The light (R light, G light, B light) separated into each color component is converted into parallel light by the collimator lenses 46R, 46G, 46B, and then enters the spatial light modulation elements 47R, 47G, 47B.
空間光変調素子47R,47G,47Bは、例えば、画像信号に応じて変調する透過型の液晶表示装置であり、透過した光が空間的に変調される。空間的に変調された各色成分の光(R光、G光、B光)は、ダイクロイックプリズム48で合成され、投射レンズ49により投射される。投射部40は、このような構成を有することで、画像の光学像を投影面3に投影表示する。 The spatial light modulators 47R, 47G, and 47B are, for example, transmissive liquid crystal display devices that modulate according to image signals, and the transmitted light is spatially modulated. The spatially modulated light of each color component (R light, G light, B light) is combined by the dichroic prism 48 and projected by the projection lens 49. By having such a configuration, the projection unit 40 projects and displays the optical image of the image on the projection surface 3.
なお、投射部40の構成は上述の構成に限定されることはなく、空間変調素子としてDMD(Digital Micromirror Device)や反射型の液晶表示素子を用いることもできる。また、光源41も、ランプ光源に限定されることはなく、LED光源やLD源を用いることもできる。 The configuration of the projection unit 40 is not limited to the above-described configuration, and a DMD (Digital Micromirror Device) or a reflective liquid crystal display element can be used as the spatial modulation element. Further, the light source 41 is not limited to the lamp light source, and an LED light source or an LD light source can be used.
状態判定装置30では、測距部10から所定の視野内について、測距部10が取得した距離情報(デプスマップ)に基づいて、制御部20により対象物体の基準物体に対する状態を検出する。本実施形態では、対象物体である入力操作部4を入力状態検出対象物として、基準物体である投影面3に対する位置、形状、動き等に基づいて、入力操作の状態検出を行う。そのため、本実施形態の状態判定装置30は、入力操作検出装置でもある。 In the state determination device 30, the control unit 20 detects the state of the target object with respect to the reference object within the predetermined visual field from the distance measuring unit 10 based on the distance information (depth map) acquired by the distance measuring unit 10. In the present embodiment, the input operation state is detected based on the position, the shape, the movement, and the like with respect to the projection surface 3 that is the reference object, with the input operation unit 4 that is the target object as the input state detection target. Therefore, the state determination device 30 of this embodiment is also an input operation detection device.
測距部10は、測定対象物体に向けた視野を有し、視野内の各部の3次元座標を測定する機能を有している。測定した3次元座標に基づいて、視野内のデプスマップを取得する。本実施形態では投影面3及び入力操作部4が、測距部10の測定対象物体となる。 The distance measuring unit 10 has a field of view toward the object to be measured, and has a function of measuring the three-dimensional coordinates of each unit in the field of view. A depth map in the visual field is acquired based on the measured three-dimensional coordinates. In the present embodiment, the projection surface 3 and the input operation unit 4 are the measurement target objects of the distance measuring unit 10.
測距方式としては、例えば、測定対象物体に基準パターンを投影し、撮影画像におけるパターン形状から三次元座標を得るパターン投影法に基づく方式、視点の異なる2枚以上の撮影画像の視差から測定対象物体の三次元座標を得るステレオ法に基づく方式、光の飛行時間から測定対象物体までの距離を測定するTime-of-Flight(TOF)法に基づく方式などを用いることができる。以下、図4A〜図4Cを用いて、各方式を用いた測距部10(測距部10A,10B,10C)の例を説明する。このような測距部10A,10B,10Cを用いることで、部品点数が少なく、低コストで三次元形状測定を行うことができる。 As the distance measuring method, for example, a method based on a pattern projection method in which a reference pattern is projected on an object to be measured and three-dimensional coordinates are obtained from the pattern shape in the photographed image, or a parallax between two or more photographed images with different viewpoints is used to measure the object. A method based on a stereo method for obtaining three-dimensional coordinates of an object, a method based on a Time-of-Flight (TOF) method for measuring a distance from a flight time of light to an object to be measured, and the like can be used. Hereinafter, an example of the distance measuring unit 10 (the distance measuring units 10A, 10B, and 10C) using each method will be described with reference to FIGS. 4A to 4C. By using such distance measuring units 10A, 10B, and 10C, it is possible to perform three-dimensional shape measurement at a low cost with a small number of parts.
図4Aは、パターン投影法に基づく方式を用いた測距部10A(10)の一構成例を示した概略図である。図4Aに示す測距部10Aは、測定対象物体に基準となる所定のパターンを投影する投影部11と、パターンが投影された測定対象物体を撮像する撮像部12と、撮像された測定対象物体の撮影画像から三次元座標を計算する三次元座標計算部13とを備え、さらに、投影部11及び撮像部12に対して露光条件を設定する露光条件制御部14と、露光条件が記憶された露光条件記憶部15とを備えている。投影部11は、所定の視野範囲にパターンを投影し、投影部11と撮像部12は、所定の距離だけ離間している。なお、露光条件とは、撮像部12により撮像された撮影画像の輝度値が適切な値となるように設定する条件(パラメータ)のことである。具体的には、撮像部12が撮像動作を行う際のフレームレート、露光時間、露光する回数、撮像部12の感度、投影部11が投影するパターンの輝度等である。 FIG. 4A is a schematic diagram showing a configuration example of the distance measuring unit 10A (10) using a method based on the pattern projection method. A distance measuring unit 10A shown in FIG. 4A includes a projection unit 11 that projects a predetermined pattern serving as a reference on a measurement target object, an image capturing unit 12 that captures the measurement target object on which the pattern is projected, and the captured measurement target object. And a three-dimensional coordinate calculation unit 13 that calculates three-dimensional coordinates from the captured image, and an exposure condition control unit 14 that sets exposure conditions for the projection unit 11 and the imaging unit 12, and the exposure conditions are stored. An exposure condition storage unit 15 is provided. The projection unit 11 projects the pattern in a predetermined visual field range, and the projection unit 11 and the imaging unit 12 are separated by a predetermined distance. The exposure condition is a condition (parameter) for setting the brightness value of the captured image captured by the image capturing unit 12 to an appropriate value. Specifically, the frame rate, the exposure time, the number of exposures, the sensitivity of the image capturing unit 12, the brightness of the pattern projected by the projecting unit 11, and the like when the image capturing unit 12 performs the image capturing operation.
露光条件記憶部15には、デプスマップ取得の過程で得られる輝度画像において、背景物体(基準物体の一例)の輝度がこの背景物体の測距に適した輝度値となるための第一の露光条件と、注目物体(対象物体の一例)の輝度がこの注目物体の測距に適した輝度値となるための第二の露光条件と、が予め記憶されている。露光条件制御部14は、露光条件記憶部15から第一の露光条件と、第二の露光条件と、を取得する。 In the exposure condition storage unit 15, in the brightness image obtained in the process of acquiring the depth map, the first exposure for making the brightness of the background object (an example of the reference object) a brightness value suitable for distance measurement of this background object. The conditions and the second exposure condition for the brightness of the target object (an example of the target object) to have a brightness value suitable for distance measurement of the target object are stored in advance. The exposure condition control unit 14 acquires the first exposure condition and the second exposure condition from the exposure condition storage unit 15.
また、背景物体や注目物体といった測定対象物体に適した第一、第二の露光条件の設定値が設定された設定値テーブルを露光条件記憶部15に記憶しておき、使用条件や使用目的に対応して適宜の設定値を使用する構成とすることもできる。なお、各露光条件が露光条件記憶部15からの取得に限定されることはなく、画像管理装置2や他のPC等を介してその都度、露光条件を設定するように構成することもできる。 In addition, a setting value table in which the setting values of the first and second exposure conditions suitable for the measurement target object such as the background object and the target object are set is stored in the exposure condition storage unit 15, Correspondingly, an appropriate setting value may be used. It should be noted that each exposure condition is not limited to being acquired from the exposure condition storage unit 15, and the exposure condition may be set each time via the image management device 2 or another PC.
投影部11は、例えば、光源と、パターンを形成するマスクが設けられた投影光学系等で構成することができる。光源として、近赤外光を発する光源を用いることが望ましいが、これに限定されることはない。撮像部12は、例えば、撮像光学系、CCDイメージセンサ、CMOS等の撮像素子で構成することができる。三次元座標計算部13、露光条件制御部14は、画像投影装置1に設けられたCPU、RAM、ROM、フラッシュメモリ等のメモリ、その他を備えた情報処理装置で構成することができる。露光条件記憶部15は、情報処理装置のメモリ内に設けることができる。 The projection unit 11 can be configured by, for example, a light source and a projection optical system provided with a mask that forms a pattern. It is desirable to use a light source that emits near infrared light as the light source, but the light source is not limited to this. The imaging unit 12 can be configured by an imaging optical system, a CCD image sensor, an imaging device such as a CMOS, for example. The three-dimensional coordinate calculation unit 13 and the exposure condition control unit 14 can be configured by an information processing device including a CPU, a RAM, a ROM, a memory such as a flash memory provided in the image projection apparatus 1, and the like. The exposure condition storage unit 15 can be provided in the memory of the information processing device.
上述のような構成の測距部10Aでは、露光条件制御部14により各露光条件の設定値が与えられ、各設定値に基づき投影部11が測定対象物体にパターンを投影し、撮像部12が撮影画像を撮像する。撮像画像に基づいて、三次元座標計算部13が三次元座標を計算し、測定対象物体の測距を行う。 In the distance measuring unit 10A having the above-described configuration, the exposure condition control unit 14 gives set values for each exposure condition, the projection unit 11 projects a pattern on the measurement target object based on each set value, and the imaging unit 12 Take a captured image. Based on the captured image, the three-dimensional coordinate calculation unit 13 calculates three-dimensional coordinates and measures the distance of the measurement target object.
図4Bは、ステレオ法に基づく方式を用いた測距部10B(10)の一構成例を示した概略図である。図4Bに示す測距部10Bは、測定対象物体を撮像する2台以上の撮像部12と、撮像された測定対象物体の2枚以上の撮影画像から三次元座標を計算する三次元座標計算部13とを備え、さらに、撮像部12に対して露光条件を設定する露光条件制御部14と、露光条件が記憶された露光条件記憶部15とを備えている。ここでは、複数の撮像部12はそれぞれ異なる視野を有しており、撮像される撮影画像はそれぞれ視点が異なる(視差を有する)ものとなっている。 FIG. 4B is a schematic diagram showing a configuration example of the distance measuring unit 10B (10) using a method based on the stereo method. The distance measuring unit 10B illustrated in FIG. 4B includes two or more image capturing units 12 that capture an image of a measurement target object, and a three-dimensional coordinate calculation unit that calculates three-dimensional coordinates from two or more captured images of the captured measurement target object. 13, and an exposure condition control unit 14 that sets exposure conditions for the imaging unit 12, and an exposure condition storage unit 15 that stores the exposure conditions. Here, the plurality of imaging units 12 have different fields of view, and the captured images that are captured have different viewpoints (have parallax).
図4Bにおける撮像部12、露光条件制御部14、露光条件記憶部15は、図4Aの測距部10Aにおける対応する構成と同様の構成とすることができる。 The image capturing unit 12, the exposure condition control unit 14, and the exposure condition storage unit 15 in FIG. 4B can have the same configuration as the corresponding configuration in the distance measuring unit 10A in FIG. 4A.
上述のような構成の測距部10Bでは、露光条件制御部14により各露光条件の設定値が与えられ、各設定値に基づき複数の撮像部12が測定対象物体の撮影画像を撮像する。複数の撮像画像の視差に基づいて、三次元座標計算部13が三次元座標を計算し、測定対象物体の測距を行う。 In the distance measuring unit 10B having the above-described configuration, the exposure condition control unit 14 gives the set value of each exposure condition, and the plurality of image capturing units 12 capture the captured image of the measurement target object based on each set value. The three-dimensional coordinate calculation unit 13 calculates three-dimensional coordinates based on the parallax of the plurality of captured images, and measures the distance of the measurement target object.
図4Cは、TOF法に基づく方式を用いた測距部10C(10)の一構成例を示した概略図である。図4Cに示す測距部10Cは、測定対象物体に照明光を照射する照明部16と、照明光が照射された測定対象物体からの反射光を受光する受光部17と、照明光と反射光の時間差から光の飛行時間を求め、測定対象物体までの距離を計算する三次元座標計算部13とを備え、さらに、照明部16及び受光部17に対して露光条件を設定する露光条件制御部14と、露光条件が記憶された露光条件記憶部15とを備えている。 FIG. 4C is a schematic diagram showing a configuration example of the distance measuring unit 10C (10) using a method based on the TOF method. The distance measuring unit 10C illustrated in FIG. 4C includes an illuminating unit 16 that illuminates the measurement target object with illumination light, a light receiving unit 17 that receives reflected light from the measurement target object irradiated with the illumination light, and illumination light and reflected light. And a three-dimensional coordinate calculation unit 13 for calculating the distance to the object to be measured, and an exposure condition control unit for setting exposure conditions for the illumination unit 16 and the light receiving unit 17. 14 and an exposure condition storage unit 15 in which the exposure conditions are stored.
照明部16は、例えば、光源、照射光学系等で構成することができる。光源は、近赤外光を発する光源が望ましいが、これに限定されることはない。受光部17は、例えば、撮像光学系、CCDイメージセンサ、CMOS等の撮像素子で構成することができる。図4Cの測距部10において、露光条件とは、受光部17より出力される出力信号における輝度値が適切な値となるように設定する条件(パラメータ)のことである。具体的には、受光部17が受光動作を行う際のフレームレート、受光時間、受光する回数、受光部17の感度、照明部16により照射される照明光の輝度等である。また、第一、第二の露光条件を画像管理装置2からその都度設定することもできる。 The illumination unit 16 can be configured by, for example, a light source, an irradiation optical system, or the like. The light source is preferably a light source that emits near infrared light, but is not limited to this. The light receiving unit 17 can be configured by, for example, an image pickup optical system, a CCD image sensor, an image pickup device such as a CMOS. In the distance measuring unit 10 in FIG. 4C, the exposure condition is a condition (parameter) for setting the brightness value in the output signal output from the light receiving unit 17 to be an appropriate value. Specifically, the frame rate, the light receiving time, the number of times the light is received, the sensitivity of the light receiving unit 17, the brightness of the illumination light emitted by the illumination unit 16, and the like when the light receiving unit 17 performs the light receiving operation. Further, the first and second exposure conditions can be set from the image management device 2 each time.
上述のような構成の測距部10Cでは、露光条件制御部14により各露光条件の設定値が与えられ、各設定値に基づき照明部16が測定対象物体に照明光を照射し、測定対象物体からの反射光を受光部17が受光する。照明光と反射光との位相差に基づいて、三次元座標計算部13が三次元座標を計算し、測定対象物体の測距を行う。 In the distance measuring unit 10C having the above-described configuration, the exposure condition control unit 14 gives a set value for each exposure condition, and the illumination unit 16 irradiates the measurement target object with illumination light based on each set value to measure the measurement target object. The light receiving unit 17 receives the reflected light from. The three-dimensional coordinate calculation unit 13 calculates three-dimensional coordinates based on the phase difference between the illumination light and the reflected light, and measures the distance of the measurement target object.
制御部20は、測距部10で取得した距離情報(デプスマップ)に基づいて、対象物体としての注目物体の状態を検出する。制御部20は、画像投影装置1に設けられたCPU、RAM、ROM、フラッシュメモリ等のメモリ、その他を備えた情報処理装置で構成することができる。 The control unit 20 detects the state of the target object as the target object based on the distance information (depth map) acquired by the distance measuring unit 10. The control unit 20 can be configured by an information processing device including a CPU provided in the image projection device 1, a memory such as a RAM, a ROM, and a flash memory, and the like.
次に、図2を用いて、制御部20の機能を説明する。図2に示すように、制御部20は、デプスマップ記憶部21、信頼性判定部22、デプスマップ生成部23、状態判定部24を備えて構成される。 Next, the function of the control unit 20 will be described with reference to FIG. As shown in FIG. 2, the control unit 20 includes a depth map storage unit 21, a reliability determination unit 22, a depth map generation unit 23, and a state determination unit 24.
デプスマップ記憶部21は、測距部10により取得したデプスマップを記憶する機能を有する。第1実施形態では、背景物体に適した第一の露光条件で測距部10が取得したデプスマップが第一のデプスマップ(第一の距離情報)としてデプスマップ記憶部21に記憶されている。また、注目物体に適した第二の露光条件で測距部10が取得した第二のデプスマップ(第二の距離情報)や閾値等の各種パラメータ等も記憶する。本実施形態では背景物体とは、図1に示したように画像投影が行われる投影面3であり、専用スクリーンが利用されている。また、注目物体とは、投影画像に対して入力操作を行う操作者の指からなる入力操作部4である。 The depth map storage unit 21 has a function of storing the depth map acquired by the distance measuring unit 10. In the first embodiment, the depth map acquired by the distance measuring unit 10 under the first exposure condition suitable for the background object is stored in the depth map storage unit 21 as the first depth map (first distance information). .. In addition, the second depth map (second distance information) acquired by the distance measuring unit 10 under the second exposure condition suitable for the target object, various parameters such as a threshold value, and the like are also stored. In the present embodiment, the background object is the projection surface 3 on which an image is projected as shown in FIG. 1, and a dedicated screen is used. The target object is the input operation unit 4 including the finger of the operator who performs an input operation on the projection image.
信頼性判定部22は、測距部10で取得した第二のデプスマップにおける背景物体に関する値の信頼性を判定する機能を有する。例えば、測距部10による第二のデプスマップ取得の過程で得られる輝度画像の輝度値に基づき、背景物体に関する各画素の測距値データのデータ信頼度を判定する方法などが挙げられる。 The reliability determination unit 22 has a function of determining the reliability of the value regarding the background object in the second depth map acquired by the distance measuring unit 10. For example, there is a method of determining the data reliability of the distance measurement value data of each pixel regarding the background object based on the luminance value of the luminance image obtained in the process of the second depth map acquisition by the distance measurement unit 10.
デプスマップ生成部23は、注目物体に適した第二の露光条件で測距部10が取得した第二のデプスマップを、信頼性判定部22の判定結果に基づき補完する機能を有する。これは、状態判定部24において、信頼性が高いと判定された部位は、第二のデプスマップの値で状態判定を行い、信頼性が低いと判定された部位は、第一のデプスマップの値で状態判定を行わせるためである。すなわち、デプスマップ生成部23は、信頼性判定部22での判定結果においてデータ信頼度が低いと判定された部位を、デプスマップ記憶部21に格納された第一のデプスマップの測距値データで補完する。これにより、測距値データの信頼性が高い新たな状態判定用デプスマップが生成される。 The depth map generation unit 23 has a function of complementing the second depth map acquired by the distance measurement unit 10 under the second exposure condition suitable for the target object based on the determination result of the reliability determination unit 22. This is because the state determination unit 24 performs the state determination with the value of the second depth map for the region determined to have high reliability, and the region determined to have the low reliability corresponds to the region of the first depth map. This is because the value is used to determine the state. That is, the depth map generation unit 23 determines the distance measurement value data of the first depth map stored in the depth map storage unit 21 for the portion determined to have low data reliability in the determination result of the reliability determination unit 22. Complement with. As a result, a new state determination depth map with high reliability of the distance measurement value data is generated.
状態判定部24は、デプスマップ生成部23で生成された第二のデプスマップや状態判定用デプスマップに基づき、背景物体に対する注目物体の状態判定を行う。具体的には、状態判定部24は、投影面3に対する入力操作部4の位置情報、形状情報、動き等について判定を行う。 The state determination unit 24 determines the state of the target object with respect to the background object based on the second depth map generated by the depth map generation unit 23 and the depth map for state determination. Specifically, the state determination unit 24 determines the position information, shape information, movement, etc. of the input operation unit 4 with respect to the projection plane 3.
例えば、入力操作部4と背景物体である投影面3の距離が、所定の閾値を下回った場合を入力操作部4が投影面3と接触状態であると定義する。この定義を基準として、投影領域3aへの操作の入力情報を検出する。更にこの入力情報を、画像情報を管理する画像管理装置2を通じて投射部40に反映させることで、入力情報を投影画像にインタラクティブに反映するインタラクティブ画像投射システムを実現することができる。 For example, when the distance between the input operation unit 4 and the projection surface 3 which is the background object is less than a predetermined threshold value, the input operation unit 4 is defined as being in contact with the projection surface 3. Based on this definition, the input information of the operation on the projection area 3a is detected. Furthermore, by reflecting this input information on the projection unit 40 through the image management device 2 that manages the image information, an interactive image projection system that interactively reflects the input information on the projected image can be realized.
図5A、図5Bに、状態判定部24での入力操作部4の状態判定の一例を具体的に示す。状態判定装置30では、測距部10での測距結果に基づいて、背景物体である投影面3の検出面Nを基準として、所定距離離れた位置に状態検出境界Mを設定している。また、入力操作部4である指の背面(手前側の面)を、測距部10による入力操作部4の検出面Lとしている。 5A and 5B specifically show an example of the state determination of the input operation unit 4 by the state determination unit 24. In the state determination device 30, the state detection boundary M is set at a position separated by a predetermined distance with reference to the detection surface N of the projection surface 3 which is the background object, based on the distance measurement result of the distance measurement unit 10. The back surface (front surface) of the finger, which is the input operation unit 4, is used as the detection surface L of the input operation unit 4 by the distance measuring unit 10.
図5Bに示すように、入力操作部4の検出面Lが、状態検出境界Mと投影面3の検出面Nの間の領域αに存在する場合、入力操作部4が投影面3近傍に存在すると判定することができる。一方、図5Aに示すように、入力操作部4の検出面Lが状態判定装置30から見て、状態検出境界Mより手前側(状態検出境界Mと状態判定装置30の間の領域β)に存在する場合、入力操作部4が投影面3近傍に存在しないと判定することができる。 As shown in FIG. 5B, when the detection surface L of the input operation unit 4 exists in the area α between the state detection boundary M and the detection surface N of the projection surface 3, the input operation unit 4 exists near the projection surface 3. Then, it can be determined. On the other hand, as shown in FIG. 5A, the detection surface L of the input operation unit 4 is on the front side of the state detection boundary M (the region β between the state detection boundary M and the state determination device 30) when viewed from the state determination device 30. When it exists, it can be determined that the input operation unit 4 does not exist near the projection surface 3.
このような状態判定の違いを入力操作の違いとして考える。例えば、図5Bのような状態を操作者が投影面3にタッチし、投影画像の操作を行おうとしていると判定し、投射部40での画像投影に反映させる。これにより、入力操作部4による入力操作情報を投影画像に反映することができる。 Consider such a difference in state determination as a difference in input operation. For example, it is determined that the operator touches the projection surface 3 in a state as shown in FIG. 5B and intends to operate the projection image, and the result is reflected in the image projection by the projection unit 40. Thereby, the input operation information by the input operation unit 4 can be reflected in the projection image.
ここで、前述のように投影面3と入力操作部4のいずれかにおいて、反射率の違い等による測距の誤差が大きい条件でのデプスマップ取得を行うと、状態判定装置30での状態判定の判定ミスが生じ易い。しかしながら、本願に係る第1実施形態の状態判定装置30では、背景物体である投影面3に好適な第一の露光条件を用いて第一のデプスマップを取得し、注目物体である入力操作部4に好適な第二の露光条件を用いて第二のデプスマップを取得している。そして、第一のデプスマップで第二のデプスマップを補間した上で、入力操作部4の状態判定を行っている。したがって、状態判定を高精度に行うことができる。 Here, as described above, when the depth map is acquired under the condition that the distance measurement error due to the difference in reflectance or the like is large in either the projection plane 3 or the input operation unit 4, the state determination device 30 determines the state. It is easy to make a mistake. However, in the state determination device 30 of the first embodiment according to the present application, the first depth map is acquired using the first exposure condition suitable for the projection surface 3 that is the background object, and the input operation unit that is the object of interest is acquired. The second depth map is acquired using the second exposure condition suitable for No. 4. Then, after the second depth map is interpolated by the first depth map, the state of the input operation unit 4 is determined. Therefore, the state determination can be performed with high accuracy.
以下、状態判定装置30で行われる状態判定処理(状態判定方法)の一例を、図6A、図6Bのフローチャートを参照しながら説明する。なお、状態判定処理は、デプスマップに基づいて、操作者の指等の入力操作部4を検出して、投影面3に対する位置、形状、動き等からその状態、すなわち入力操作部4からの入力操作情報を検出するものであるため、状態判定処理は、入力操作検出処理でもある。 Hereinafter, an example of the state determination process (state determination method) performed by the state determination device 30 will be described with reference to the flowcharts of FIGS. 6A and 6B. In the state determination process, the input operation unit 4 such as the operator's finger is detected based on the depth map, and the state, that is, the input from the input operation unit 4 is detected from the position, shape, movement, and the like with respect to the projection plane 3. Since the operation information is detected, the state determination process is also an input operation detection process.
状態判定処理は、画像投影システム100において、画像管理装置2から入力される画像信号に基づいて、画像投影装置1が所定の投影面3に対して画像投影を行っているときに、随時行われる。 In the image projection system 100, the state determination process is performed at any time while the image projection device 1 is projecting an image onto a predetermined projection plane 3 based on an image signal input from the image management device 2. ..
画像投影装置1の電源オンや操作メニューの選択等によって状態判定処理の開始が指示されると、まず、制御部20において、背景物体である投影面3に対する第一のデプスマップが取得済みか否かを判定する(ステップS100)。デプスマップ記憶部21に第一のデプスマップが既に記憶されており、取得済み(Yes)である場合は、ステップS120に進み、取得済みでない(No)場合は、ステップS110に進む。 When the start of the state determination process is instructed by turning on the power of the image projection apparatus 1, selecting an operation menu, or the like, first, the control unit 20 first determines whether the first depth map for the projection surface 3 that is the background object has been acquired. It is determined (step S100). If the first depth map has already been stored in the depth map storage unit 21 and has been acquired (Yes), the process proceeds to step S120, and if not acquired (No), the process proceeds to step S110.
ステップS110〜S112は、入力操作部4が存在しない状態でのデプスマップ、すなわち背景物体である投影面3に対する第一のデプスマップを予め取得し記憶するステップである。いわゆる初期化処理であり、以降のリアルタイムでの注目物体(入力操作部4)の状態検出を行うための事前処理である。そのため、状態判定処理の開始が指示された直後に行われることが好ましく、測距部10の視野内に背景物体以外の物体が存在しない時間タイミングで処理されることが望ましい。なお、三次元情報を利用するため、背景物体の形状は、平面形状に限定されず、段差のある物体や湾曲した物体であっても適用可能である。 Steps S110 to S112 are steps for previously acquiring and storing the depth map in the state where the input operation unit 4 does not exist, that is, the first depth map for the projection surface 3 which is the background object. This is a so-called initialization process, which is a pre-process for detecting the state of the target object (input operation unit 4) in real time thereafter. Therefore, the state determination process is preferably performed immediately after the start is instructed, and is preferably performed at a time timing when no object other than the background object exists in the visual field of the distance measuring unit 10. In addition, since the three-dimensional information is used, the shape of the background object is not limited to the planar shape, and can be applied to a stepped object or a curved object.
まず、ステップS110では、測距部10の露光条件制御部14が露光条件記憶部15等から背景物体に適した第一の露光条件を読み出し、測距部10の各部に設定する。背景物体として利用される物体は一般的に専用スクリーンやホワイトボードなどであり、本実施形態でも専用スクリーンの投影面3を背景物体としている。そのため、好適な露光条件を比較的予測し易い。そのため、本ステップで、露光条件記憶部15に予め記憶した(又はその都度設定した)好適な第一の露光条件を読み出して設定をすることで、背景物体に対して適した測距を実現することができる。 First, in step S110, the exposure condition control unit 14 of the distance measuring unit 10 reads the first exposure condition suitable for the background object from the exposure condition storage unit 15 and the like, and sets it in each unit of the distance measuring unit 10. An object used as a background object is generally a dedicated screen, a whiteboard, or the like, and the projection surface 3 of the dedicated screen is also used as a background object in this embodiment. Therefore, it is relatively easy to predict suitable exposure conditions. Therefore, in this step, the suitable first exposure condition stored in advance in the exposure condition storage unit 15 (or set each time) is read out and set, thereby realizing the distance measurement suitable for the background object. be able to.
次に、ステップS111では、測距部10が、視野内に背景物体のみが存在する状態で、ステップS110で設定した第一の露光条件を用いてデプスマップを取得する。取得されたデプスマップは、第一のデプスマップとして、デプスマップ記憶部21に記憶する(ステップS112)。その後、ステップS120に進む。 Next, in step S111, the distance measuring unit 10 acquires the depth map using the first exposure condition set in step S110 in the state where only the background object exists in the visual field. The acquired depth map is stored in the depth map storage unit 21 as the first depth map (step S112). Then, it progresses to step S120.
以上のステップS110〜S112の処理は、状態判定装置30と投影面3の相対位置条件が変わらない場合は繰り返す必要がない。そのため、一回目の状態判定処理が終了した後に、再度状態判定処理が開始された場合は、ステップS110〜S112の処理をスキップして、ステップS120から処理を行えばよい。 The above steps S110 to S112 do not need to be repeated if the relative position condition between the state determination device 30 and the projection surface 3 does not change. Therefore, when the state determination process is started again after the first state determination process is completed, the processes of steps S110 to S112 may be skipped and the process may be performed from step S120.
ステップS120〜S121は、測距部10によって注目物体である入力操作部4に適した第二の露光条件でデプスマップを取得するステップである。ところで、背景物体となる投影面3と注目物体となる入力操作部4は、測定光に対する反射率が異なることが一般的である。本実施形態のように、投影面3として専用スクリーンやホワイトボードを用いた場合、入力操作部4である操作者の指と比較して、専用スクリーンやホワイトボードは反射率が高い材料で構成されることが多い。 Steps S120 to S121 are steps by which the distance measuring unit 10 acquires the depth map under the second exposure condition suitable for the input operation unit 4 which is the target object. By the way, it is general that the projection surface 3 serving as a background object and the input operation unit 4 serving as a target object have different reflectances with respect to the measurement light. When a dedicated screen or whiteboard is used as the projection surface 3 as in this embodiment, the dedicated screen or whiteboard is made of a material having a higher reflectance than the operator's finger which is the input operation unit 4. Often.
このように測定対象象物体において、測定光に対する反射率が異なる場合、測距部10が同じ露光条件をもってデプスマップ取得を行うとすると、それぞれの測定対象物体に対して好適な露光条件とならない。すなわち、反射率が高い物体に適した露光条件で反射率が低い物体を撮像すると、デプスマップ取得の過程で得られる輝度画像において、反射率が低い物体の輝度値は小さくなる。その結果、距離測定の誤差(測距誤差)が大きくなる。これにより、入力操作部4の状態検出の精度が低下する。 In this way, if the measurement target objects have different reflectances with respect to the measurement light, and the distance measuring unit 10 performs the depth map acquisition under the same exposure conditions, the exposure conditions are not suitable for the respective measurement target objects. That is, when an object with low reflectance is imaged under an exposure condition suitable for an object with high reflectance, the luminance value of the object with low reflectance becomes small in the luminance image obtained in the process of acquiring the depth map. As a result, the distance measurement error (distance measurement error) becomes large. As a result, the accuracy of detecting the state of the input operation unit 4 decreases.
図7に、輝度値と測距誤差の関係をグラフで示した。この図7に示すように、輝度値が小さくなるほど、測距部10による測距誤差は大きくなる傾向を持つのが一般的である。このような特性も持つ測距部10において、測定光に対する反射率が異なる複数の測定対象物体に対して、同じ露光条件でデプスマップ取得を行うと、相対的に反射率の高い物体に対しては、輝度値が大きくなるため誤差の小さい高精度な測距を行える。しかし、反射率の低い物体に対しては誤差の大きい測距を行うことになる。すなわち、背景物体と注目物体の両者において両立して高精度な測距を行うことができない。 FIG. 7 is a graph showing the relationship between the brightness value and the distance measurement error. As shown in FIG. 7, generally, the smaller the brightness value, the larger the distance measurement error by the distance measuring unit 10. In the distance measuring unit 10 that also has such characteristics, when depth maps are acquired under the same exposure conditions for a plurality of measurement target objects having different reflectances with respect to measurement light, an object with a relatively high reflectance is obtained. Since the luminance value becomes large, it is possible to perform highly accurate distance measurement with a small error. However, distance measurement with a large error is performed for an object having a low reflectance. That is, it is not possible to perform high-precision distance measurement compatible with both the background object and the target object.
そこで、本願に係る第1実施形態では、反射率の違いを考慮して、測距部10において、背景物体に好適な第一の露光条件と、注目物体に好適な第二の露光条件とを使い分けることで、高精度な測距を可能としている。したがって、ステップS120では、露光条件制御部14は、第一の露光条件と異なる第二の露光条件を露光条件記憶部15等から読み出し、測距部10の各部に設定する。これにより注目物体に適した露光条件でデプスマップ取得を行うことができる。 Therefore, in the first embodiment according to the present application, in consideration of the difference in reflectance, the distance measuring unit 10 sets the first exposure condition suitable for the background object and the second exposure condition suitable for the target object. Highly accurate distance measurement is possible by using them properly. Therefore, in step S120, the exposure condition control unit 14 reads the second exposure condition different from the first exposure condition from the exposure condition storage unit 15 and the like, and sets it in each unit of the distance measuring unit 10. Thereby, the depth map can be acquired under the exposure condition suitable for the object of interest.
本実施形態において注目物体として利用される入力操作部4は、例えば操作者の指や手である。人体を測距部10による測定対象物体とする場合は、好適な露光条件を比較的予測し易い。そのため、本ステップで、露光条件記憶部15に予め記憶した(又はその都度設定した)好適な第二の露光条件を読み出して設定をすることで、注目物体に対して適した測距を実現することができる。本実施形態では、背景物体となる専用スクリーンの投影面3が、入力操作部4となる操作者の指と比較して、反射率が高いとしている。それぞれに対して好適な露光条件とするために、入力操作部4の測距時の第二の露光条件は、投影面3の測距時の第一の露光条件に対して、投影部11が投影するパターンの輝度や照明部16により照射される照明光の輝度を高くする、撮像部12の感度や受光部17の感度を高くする等の設定を行っている。 The input operation unit 4 used as the target object in the present embodiment is, for example, the operator's finger or hand. When the human body is the object to be measured by the distance measuring unit 10, it is relatively easy to predict suitable exposure conditions. Therefore, in this step, the suitable second exposure condition stored in advance in the exposure condition storage unit 15 (or set each time) is read and set, thereby realizing the distance measurement suitable for the object of interest. be able to. In the present embodiment, the projection surface 3 of the dedicated screen serving as the background object has higher reflectance than the operator's finger serving as the input operation unit 4. In order to make the exposure conditions suitable for each, the second exposure condition at the time of distance measurement of the input operation unit 4 is The brightness of the pattern to be projected, the brightness of the illumination light emitted by the illumination unit 16, the sensitivity of the imaging unit 12, the sensitivity of the light receiving unit 17, and the like are set.
次に、ステップS121では、測距部10によりステップS120で設定した第二の露光条件を用いて、視野内に注目物体が存在する状態のデプスマップを取得する。以降リアルタイムでの処理が求められるため、例えば30fps以上の所定のフレームレートでのデプスマップ取得が随時行われる。 Next, in step S121, the distance measuring unit 10 acquires the depth map in which the object of interest exists in the visual field using the second exposure condition set in step S120. Since real-time processing is required thereafter, the depth map is acquired at any time, for example, at a predetermined frame rate of 30 fps or higher.
ここで、インタラクティブな画像投影装置1の動作速度(検出速度)を考えた場合、背景物体のみが存在するときに視野内の距離情報を取得する初期化時には、比較的低いフレームレートでの動作が許容される。これに対して、注目物体の状態検出時、すなわち注目物体が存在する状態で視野内の距離情報を取得するときには、比較的高いフレームレートでの動作が求められる。このようなシステム動作速度の制約を考慮して、背景物体に適した第一の露光条件で視野内の距離情報を取得する際のフレームレートよりも、注目物体に適した第二の露光条件で視野内の距離情報を取得する際のフレームレートを高くすることが好ましい。ただし、フレームレートを高くすると、設定可能な露光時間が短くなるため、デプスマップ取得の過程で得られる輝度画像の輝度値を適切な値とし、高い測距精度を得るためには、投影部11が投影するパターンの輝度や照明部16により照射される照明光の輝度を高くする、撮像部12の感度や受光部17の感度を高くする等の設定を行う必要がある。そこで、状態検出時の第二の露光条件では、フレームレートを比較的高くし、これに対応して、投影部11が投影するパターンの輝度や照明部16により照射される照明光の輝度を高くする、撮像部12の感度や受光部17の感度を高くする等の設定を行うことで、注目物体に適した露光条件を保ちつつ、状態検出速度を向上させる。また、初期化時の第一の露光条件では、フレームレートを比較的低くし、これに対応して投影部11が投影するパターンの輝度や照明部16により照射される照明光の輝度を低くする、撮像部12の感度や受光部17の感度を低くする等の設定を行うことで、背景物体に適した露光条件を保ちつつ、ノイズを低減することができる。また、システム動作速度に余裕があるので、複数回の測距信号を平均化することで、高精度な測距値データを取得することができる。 Here, considering the operation speed (detection speed) of the interactive image projection device 1, when the initialization is performed to acquire the distance information within the visual field when only the background object exists, the operation at a relatively low frame rate is performed. Permissible. On the other hand, when the state of the target object is detected, that is, when the distance information in the visual field is acquired in the state where the target object exists, the operation at a relatively high frame rate is required. In consideration of such a constraint on the system operation speed, the second exposure condition suitable for the object of interest is better than the frame rate for acquiring the distance information within the field of view under the first exposure condition suitable for the background object. It is preferable to increase the frame rate when acquiring the distance information within the visual field. However, if the frame rate is increased, the exposure time that can be set is shortened. Therefore, in order to obtain an appropriate value for the brightness value of the brightness image obtained in the process of acquiring the depth map and to obtain high distance measurement accuracy, the projection unit 11 It is necessary to make settings such as increasing the brightness of the pattern projected by, the brightness of the illumination light emitted by the illuminating unit 16, increasing the sensitivity of the imaging unit 12 and the sensitivity of the light receiving unit 17, and the like. Therefore, under the second exposure condition at the time of state detection, the frame rate is set relatively high, and correspondingly, the brightness of the pattern projected by the projection unit 11 and the brightness of the illumination light emitted by the illumination unit 16 are increased. By setting the sensitivity of the imaging unit 12 and the sensitivity of the light receiving unit 17 to be high, the state detection speed is improved while maintaining the exposure condition suitable for the object of interest. Further, under the first exposure condition at the time of initialization, the frame rate is relatively low, and the brightness of the pattern projected by the projection unit 11 and the brightness of the illumination light emitted by the illumination unit 16 are correspondingly low. By setting the sensitivity of the imaging unit 12 and the sensitivity of the light receiving unit 17 to be low, noise can be reduced while maintaining the exposure condition suitable for the background object. Further, since the system operation speed has a margin, it is possible to obtain highly accurate distance measurement value data by averaging a plurality of distance measurement signals.
次に、ステップS122〜S123は、第二のデプスマップの信頼性を判定し、判定結果に応じて補完するステップである。ステップS122では、信頼性判定部22が、注目物体に適した第二の露光条件で取得した第二のデプスマップにおいて、信頼性の低い測距値データが存在するかの判定を、測距値データの各画素の輝度値に基づいて行う。 Next, steps S122 to S123 are steps of determining the reliability of the second depth map and complementing the reliability according to the determination result. In step S122, the reliability determination unit 22 determines whether or not there is distance measurement value data with low reliability in the second depth map acquired under the second exposure condition suitable for the object of interest. It is performed based on the brightness value of each pixel of the data.
先に図7を用いて説明したように、輝度値が小さい領域では、いわゆるS/N比が低下する領域であり、測距誤差が大きくなる。一方、輝度値が必要以上に大きい領域は輝度の飽和が生じ易く、仮に輝度飽和が生じた場合、精度の低い測距値データを出力する可能性がある。これらの現象が生じる領域は測距値データの信頼性が低く、高精度な測距を実現する上では避けることが望ましい。 As described above with reference to FIG. 7, the so-called S/N ratio decreases in the region where the luminance value is small, and the distance measurement error increases. On the other hand, in a region where the brightness value is larger than necessary, the brightness is likely to be saturated, and if the brightness is saturated, there is a possibility that the distance measurement value data with low accuracy may be output. Areas in which these phenomena occur have low reliability of distance measurement value data, and it is desirable to avoid them in order to realize highly accurate distance measurement.
図8は、このような測距時の輝度値と測定値データのデータ信頼度の関係を示したグラフである。測距時の輝度値は、測距値データのデータ信頼度が所定値以上となるある所定範囲内に収まっていることが望ましい。図8の例では、輝度値がIa〜Ibの範囲にあるときに測距可能であると定義している。輝度値がIa〜Ib以外の範囲にあるときは、データ信頼度が低いと判定する。 FIG. 8 is a graph showing the relationship between the brightness value and the data reliability of the measured value data during distance measurement. It is desirable that the luminance value at the time of distance measurement be within a certain predetermined range in which the data reliability of the distance measurement value data is a predetermined value or more. In the example of FIG. 8, it is defined that distance measurement is possible when the luminance value is in the range of Ia to Ib. When the brightness value is in a range other than Ia to Ib, it is determined that the data reliability is low.
このように、CCDイメージセンサ等の撮像素子の出力信号における輝度値に基づいて、信頼性判定部22がデータ信頼度を判定することで、追加の構成部品を必要とすることなく、簡易にデータ信頼度の判定を行うことができる。なお、測距値データのデータ信頼度の判定は、ここで示した手法に限定されることはない。例えば、出力された測距値データを用いて、周辺画素の測距値データとの一致度から判定することもできるし、測距範囲及び測定対象物体に応じて、予め定めた測距値範囲に含まれているか否かにより判定することもできる。 In this way, the reliability determination unit 22 determines the data reliability based on the brightness value in the output signal of the image sensor such as the CCD image sensor, so that the data can be easily obtained without the need for additional components. The reliability can be determined. The determination of the data reliability of the distance measurement value data is not limited to the method shown here. For example, the output distance measurement data can be used to determine the degree of coincidence with the distance measurement value data of the surrounding pixels, or the distance measurement value range determined in advance according to the distance measurement range and the object to be measured. Can also be determined by whether or not it is included in.
このステップS122で、第二のデプスマップに信頼性の低い測距値データが存在しない(No)と判定された場合、ステップS130の処理に進む。一方、信頼性の低い測距値データが存在する(Yes)と判定された場合、ステップS123の処理に進む。 When it is determined in step S122 that the distance measurement value data with low reliability does not exist in the second depth map (No), the process proceeds to step S130. On the other hand, when it is determined that the distance measurement value data with low reliability exists (Yes), the process proceeds to step S123.
ステップS123では、デプスマップ生成部23が、第二のデプスマップの信頼性の低い測距値データを第一のデプスマップの測距値データで補完し、新たに状態判定用デプスマップを生成する。図9を用いて、具体的な処理について説明する。ここでは、前述したように、投影面3の反射率が入力操作部4の反射率よりも高いため、入力操作部4の測距時の第二の露光条件は、投影面3の測距時の第一の露光条件に対して、投影部11が投影するパターンの輝度や照明部16により照射される照明光の輝度を高くする、撮像部12の感度や受光部17の感度を高くする等の設定を行っている。 In step S123, the depth map generation unit 23 complements the low-reliability distance measurement value data of the second depth map with the distance measurement value data of the first depth map to newly generate a state determination depth map. .. Specific processing will be described with reference to FIG. Here, as described above, since the reflectance of the projection surface 3 is higher than the reflectance of the input operation unit 4, the second exposure condition when measuring the distance of the input operation unit 4 is that when the distance of the projection surface 3 is measured. For the first exposure condition, the brightness of the pattern projected by the projection unit 11 and the brightness of the illumination light irradiated by the illumination unit 16 are increased, the sensitivity of the imaging unit 12 and the sensitivity of the light receiving unit 17 are increased, and the like. Is set.
図9に示す(1−1)は、第一の露光条件でデプスマップを取得する様子を示し、(1−2)は、そのときの測距部10の視野内の一部の輝度画像60aを示し、(1−3)は、第一のデプスマップ70aを示している。視野内には背景物体である投影面3のみが存在し、投影面3に好適な第一の露光条件で測距を行っている。そのため、輝度画像60a中の各画素の輝度値は一様に測距可能範囲Ia〜Ibの輝度値(測定可能領域61a)となっている。また、第一のデプスマップ70a中の各画素(領域71a)の測距値は、一様な測距値データが得られていることを示している。 (1-1) shown in FIG. 9 shows how the depth map is acquired under the first exposure condition, and (1-2) shows a part of the luminance image 60a in the visual field of the distance measuring unit 10 at that time. And (1-3) shows the first depth map 70a. Only the projection surface 3 that is a background object exists in the field of view, and distance measurement is performed under the first exposure condition suitable for the projection surface 3. Therefore, the luminance value of each pixel in the luminance image 60a is uniformly the luminance value of the measurable range Ia to Ib (measurable area 61a). Further, the distance measurement value of each pixel (region 71a) in the first depth map 70a indicates that uniform distance measurement value data is obtained.
図9に示す(2−1)は、第二の露光条件でデプスマップを取得する様子を示し、(2−2)は、そのときの視野内の一部の輝度画像60bを示し、(2−3)は、取得された第二のデプスマップ70bを示している。視野内には背景物体である投影面3と入力操作部4ある操作者の指が存在している。この場合、入力操作部4に好適な第二の露光条件で測距を行っているため、輝度画像60b中の入力操作部4に対応する部分の輝度値は測距可能範囲の輝度値(Ia〜Ib)となる(測定可能領域61b)。これに対して、投影面3に対応する部分の輝度値は飽和領域の輝度値(>Ib)となることがある(飽和領域61b’)。このような第二のデプスマップ70bでは、入力操作部4に対応する部分(領域71b;格子状の網掛け部分)は適切に測距ができているのに対し、投影面3に対応する部分(領域71b’;黒塗り部分)はデータ信頼度が低い測距値データとなる。 (2-1) shown in FIG. 9 shows a state in which the depth map is acquired under the second exposure condition, (2-2) shows a part of the luminance image 60b in the visual field at that time, and (2) -3) shows the acquired second depth map 70b. In the field of view, the projection surface 3 as a background object and the operator's finger as the input operation unit 4 are present. In this case, since the distance measurement is performed under the second exposure condition suitable for the input operation unit 4, the brightness value of the portion corresponding to the input operation unit 4 in the brightness image 60b is the brightness value (Ia ~ Ib) (measurable region 61b). On the other hand, the brightness value of the portion corresponding to the projection plane 3 may be the brightness value (>Ib) of the saturated region (saturated region 61b'). In the second depth map 70b as described above, the portion corresponding to the input operation unit 4 (area 71b; a meshed portion in a grid pattern) is appropriately distance-measured, while the portion corresponding to the projection surface 3 is formed. (Area 71b'; black-painted portion) is distance measurement value data with low data reliability.
この第二のデプスマップ70bを用いて、状態判定を行うと、飽和領域71b’部分で状態判定の誤認識が生じ易い。例えば、投影面3が正しい測距値データとして出力されず、状態検出境界Mより手前の測距値データが出力された場合、その部分がタッチ部と判定される。そのため、操作者の意図しないタイミングやタッチ位置でのタッチ動作が認識されてしまう。 When the state determination is performed using the second depth map 70b, the state determination is likely to be erroneously recognized in the saturated region 71b'. For example, when the projection plane 3 is not output as correct distance measurement data and the distance measurement data before the state detection boundary M is output, that portion is determined to be the touch portion. Therefore, a touch operation at a timing or a touch position not intended by the operator is recognized.
これに対し、本願に係る第1実施形態では、第二のデプスマップ70bのデータ信頼度が低い領域71b’の測定値データを、第一の露光条件で取得した第一のデプスマップ70aの測定値データで補完して補完領域71cとし、図9の(3)に示すような状態判定用デプスマップ70b’を生成する。このような処理を行うことで、背景物体と注目物体の両者のデプスマップを好適な露光条件で測定された値で生成することができ、認識精度の高い状態検出を実現することができる。 On the other hand, in the first embodiment according to the present application, the measurement value data of the region 71b′ of the second depth map 70b having the low data reliability is measured under the first exposure condition to measure the first depth map 70a. By complementing with the value data to form the complementing area 71c, the state determining depth map 70b' as shown in (3) of FIG. 9 is generated. By performing such processing, the depth maps of both the background object and the target object can be generated with the values measured under suitable exposure conditions, and the state detection with high recognition accuracy can be realized.
なお、本実施形態では背景物体となる投影面3が、入力操作部4となる操作者の指と比較して、反射率が高い場合を説明した。しかしながら、本願がこれに限定されることはなく、投影面3の反射率が入力操作部4の反射率が低い場合でも、同様な考えの下にデプスマップ生成を行うことで、反射率が高い場合と同様の作用効果を得ることができる。状態判定用デプスマップ生成が終了したら、ステップS130に進む。 In the present embodiment, the case where the projection surface 3 serving as the background object has a higher reflectance than the operator's finger serving as the input operating unit 4 has been described. However, the present application is not limited to this, and even when the reflectance of the projection surface 3 is low in the input operation unit 4, the reflectance is high by generating the depth map based on the same idea. It is possible to obtain the same effect as that of the case. When the state determination depth map generation is completed, the process proceeds to step S130.
ステップS130では、補完された状態判定用デプスマップを利用して、図5A、図5Bを用いて説明したような手順で注目物体の背景物体に対する状態検出を行う。より具体的には、投影画像に対して入力操作を行う指の位置や動きを取得し、その入力操作に関する情報を状態判定部24で解析する。 In step S130, the state detection of the target object with respect to the background object is performed using the complemented state determination depth map in the procedure described with reference to FIGS. 5A and 5B. More specifically, the position and movement of the finger that performs an input operation on the projected image is acquired, and the state determination unit 24 analyzes information regarding the input operation.
以下、状態判定部24による注目物体の状態検出動作の一具体例を、図6Bのフローチャートを参照しながら説明する。まず、状態判定部24は、デプスマップ記憶部21から、背景物体に関する第一のデプスマップを取得する(ステップS131)。次に、状態判定部24は、入力操作部4(操作者の指)が視野内に存在している状態でリアルタイムに随時取得され、補完がされた状態検出用デプスマップと、第一のデプスマップとの差分を取る(ステップS132)。すなわち、測距部10の視野内に指がある場合とない場合のデプスマップの差分であるので、背景物体となる投影面3の距離情報(基準距離)は相殺され、背景物体を基準とした指部分の距離情報(対象距離)のみが算出される。これを差分デプスマップと呼ぶ。 Hereinafter, a specific example of the operation of detecting the state of the target object by the state determination unit 24 will be described with reference to the flowchart of FIG. 6B. First, the state determination unit 24 acquires the first depth map regarding the background object from the depth map storage unit 21 (step S131). Next, the state determination unit 24 acquires the state detection depth map, which is acquired at any time in real time in a state where the input operation unit 4 (operator's finger) is present in the visual field, and is complemented, and the first depth. The difference from the map is calculated (step S132). That is, since it is the difference between the depth maps when there is a finger in the field of view of the distance measuring unit 10 and when there is no finger, the distance information (reference distance) of the projection surface 3 serving as the background object is canceled out, and the background object is used as the reference. Only the distance information (target distance) of the finger portion is calculated. This is called a differential depth map.
状態判定部24は、差分デプスマップから指形状を、適宜の画像処理によって抽出し、入力操作を行う指先位置を推定する(ステップS133)。推定した指先位置の差分距離情報(投影面3を基準としたときの距離情報)を、差分デプスマップから求めることにより、指先位置が投影面3に接触しているか否かを判定する(ステップS134)。ここで差分した距離情報がゼロであれば指先位置は投影面3に接触していることになる。なお、測距部10の測距誤差や指の厚み等も考慮して、例えば差分距離情報が20mm以下であれば、接触しているとするなどの条件判定することが望ましい。また、これにより、投影面3に接触していなくとも、投影面3に近接していれば接触しているとみなすこともでき、実用的である。 The state determination unit 24 extracts the finger shape from the difference depth map by appropriate image processing and estimates the fingertip position at which the input operation is performed (step S133). It is determined whether or not the fingertip position is in contact with the projection surface 3 by obtaining the estimated distance information of the fingertip position (distance information when the projection surface 3 is the reference) from the difference depth map (step S134). ). If the distance information obtained here is zero, it means that the fingertip position is in contact with the projection surface 3. Note that it is desirable to consider the distance measurement error of the distance measurement unit 10, the thickness of the finger, and the like, for example, if the difference distance information is 20 mm or less, the condition determination such as contact is made. Further, as a result, even if the projection surface 3 is not in contact with the projection surface 3, it can be considered that the projection surface 3 is in contact with the projection surface 3, which is practical.
指先が接触している(Yes)と判定されれば、所望の入力操作に関する情報を検出する(ステップS135)。入力操作としては、例えば、その指先位置に投影されている投影画像の指示に従い、アイコンをクリックする入力動作であったり、指先が接触しつつ移動している間は投影画像上に文字を書く入力動作であったりする。指先が接触していない(No)と判定されれば、ステップS135の処理をスキップする。以上により、注目物体の状態検出処理が終了し、図6Aのフローチャートの状態判定処理に戻り、ステップS140に進む。 If it is determined that the fingertip is in contact (Yes), information regarding the desired input operation is detected (step S135). The input operation is, for example, an input operation of clicking an icon according to the instruction of the projected image projected on the fingertip position, or an input operation of writing a character on the projected image while the fingertip is moving while touching. It is a movement. If it is determined that the fingertip is not in contact (No), the process of step S135 is skipped. With the above, the state detection process of the object of interest is completed, the process returns to the state determination process of the flowchart of FIG. 6A, and proceeds to step S140.
ステップS140では、注目物体の状態検出で検出した入力操作情報を実行すべく、画像情報を管理する画像管理装置2に入力操作情報を伝達(指示)する。画像管理装置2が、この入力操作情報を投射部40に伝達することで、投影画像に入力操作情報が反映される。これにより、インタラクティブな操作機能を実現することができる。その後、ステップS150に進む。なお、ステップS130の注目物体の状態検出において、入力操作情報が検出されなかった場合は、ステップS140の処理は行われず、ステップS150に進む。 In step S140, the input operation information is transmitted (instructed) to the image management device 2 that manages the image information in order to execute the input operation information detected by detecting the state of the target object. The image management device 2 transmits the input operation information to the projection unit 40, so that the input operation information is reflected in the projected image. Thereby, an interactive operation function can be realized. Then, it progresses to step S150. When the input operation information is not detected in the detection of the state of the target object in step S130, the process of step S140 is not performed and the process proceeds to step S150.
ステップS150で、インタラクティブ画像投影処理が終了か否かを判定し、終了の場合は(Yes)、状態判定処理を終了し、引き続きインタラクティブ処理が実行されている場合は(No)、ステップS121に戻り、入力操作部4の状態判定を続行する。 In step S150, it is determined whether or not the interactive image projection process is finished. If it is finished (Yes), the state determination process is finished, and if the interactive process is still being performed (No), the process returns to step S121. , The state determination of the input operation unit 4 is continued.
以上、第1実施形態では、状態判定装置30により、投影面3に適した第一の露光条件で測距部10が取得した第一のデプスマップと、入力操作部4に適した第二の露光条件で測距部10が取得した第二のデプスマップと、に基づいて、入力操作部4の投影面3に対する状態判定を高精度に行うことができる。よって、このような状態判定装置30を有する画像投影装置1を備えた画像投影システム100では、投影面3に投影された投影画像上での入力操作部4による入力操作の状態検出を高精度に行うことができ、投影画像への入力操作情報の反映を適切に行うことができる。これにより、優れたインタラクティブ操作機能を実現することができる。 As described above, in the first embodiment, by the state determination device 30, the first depth map acquired by the distance measuring unit 10 under the first exposure condition suitable for the projection plane 3 and the second depth map suitable for the input operation unit 4 are used. The state of the input operation unit 4 with respect to the projection surface 3 can be determined with high accuracy based on the second depth map acquired by the distance measuring unit 10 under the exposure condition. Therefore, in the image projection system 100 including the image projection device 1 having such a state determination device 30, the state of the input operation by the input operation unit 4 on the projection image projected on the projection surface 3 can be detected with high accuracy. It is possible to properly reflect the input operation information on the projection image. Thereby, an excellent interactive operation function can be realized.
(第2実施形態)
次に、本願の第2実施形態に係る状態判定装置を備えた電子黒板装置について、図10を参照しながら説明する。図10に示すように、第2実施形態に係る電子黒板装置200は、各種メニューやコマンド実行結果が表示される映写パネル201及び座標入力ユニットを収納したパネル部202と、コントローラ及びプロジェクタユニットを収納した収納部と、パネル部202及び収納部を所定の高さで支持するスタンドと、コンピュータ、スキャナ、プリンタ、ビデオプレイヤ等を収納した機器収納部203とからなる基本構成を備えている(特開2002−278700号公報参照)。このような基本構成に加えて、本願の第2実施形態に係る電子黒板装置200は、映写パネル201に表示される画像に対する操作者(ユーザ)の入力操作を検出するための状態判定装置30Aを備えている。この状態判定装置30Aは、機器収納部203等に格納されており、映写パネル201の画面(以下、「電子黒板画面」という)が投影面3となっている。この投影面3の下方より、入力操作部4としての操作者の指やペンを検出する。状態判定装置30Aとしては、例えば、前述の第1実施形態の状態判定装置30と同様の構成のものを用いることができる。
(Second embodiment)
Next, an electronic blackboard device including the state determination device according to the second embodiment of the present application will be described with reference to FIG. As shown in FIG. 10, an electronic blackboard device 200 according to the second embodiment stores a projection panel 201 on which various menus and command execution results are displayed, a panel unit 202 that houses a coordinate input unit, a controller and a projector unit. And a panel unit 202 and a stand that supports the storage unit at a predetermined height, and a device storage unit 203 that stores a computer, a scanner, a printer, a video player, and the like. 2002-278700 gazette). In addition to such a basic configuration, the electronic blackboard device 200 according to the second embodiment of the present application includes a state determination device 30A for detecting an input operation of an operator (user) on an image displayed on the projection panel 201. I have it. The state determination device 30A is stored in the device storage unit 203 or the like, and the screen of the projection panel 201 (hereinafter referred to as “electronic blackboard screen”) is the projection surface 3. From below the projection plane 3, the operator's finger or pen as the input operation unit 4 is detected. As the state determination device 30A, for example, a device having the same configuration as the state determination device 30 of the above-described first embodiment can be used.
電子黒板装置200が、ジェスチャ認識に対応している場合、状態判定装置30Aによって入力操作部4の位置及び動きを認識することで、諸画像の拡大、縮小、ページ送りなどの動作を検出し、電子黒板画面への入力操作とする。また、電子黒板装置200が、電子黒板画面へのタッチ機能を搭載している場合、入力操作部4の挙動を状態判定装置30Aにて追跡し、入力操作部4が電子黒板画面と接触状態か非接触状態かを検出することで電子黒板画面への入力を検出する。更に上記入力情報を、画像を管理するコンピュータに出力することで、入力操作情報を電子黒板画面への出力画像に反映する。 When the electronic whiteboard device 200 is compatible with gesture recognition, the state determination device 30A recognizes the position and movement of the input operation unit 4 to detect operations such as enlargement, reduction, and page feed of various images. Input operation on the electronic blackboard screen. Further, when the electronic blackboard device 200 has a function of touching the electronic blackboard screen, the behavior of the input operation unit 4 is tracked by the state determination device 30A and whether the input operation unit 4 is in contact with the electronic blackboard screen or not. Input to the electronic blackboard screen is detected by detecting whether it is a non-contact state. Further, by outputting the input information to a computer that manages an image, the input operation information is reflected in the output image on the electronic blackboard screen.
第2実施例の電子黒板装置200でも、状態判定装置30が、背景物体である電子黒板画面に好適な第一の露光条件で取得した第一のデプスマップで、注目物体である入力操作部4に好適な第2の露光条件を用いて取得した第二のデプスマップを補完する。これにより、入力操作部4の入力操作を高精度に検出して、電子黒板装置200の優れたインタラクティブ操作機能を実現することができる。 Also in the electronic blackboard device 200 of the second embodiment, the state determination device 30 is the first depth map acquired under the first exposure condition suitable for the electronic blackboard screen that is the background object, and the input operation unit 4 that is the target object. The second depth map acquired using the second exposure condition suitable for is complemented. Accordingly, the input operation of the input operation unit 4 can be detected with high accuracy, and the excellent interactive operation function of the electronic blackboard device 200 can be realized.
(第3実施形態)
次に、本願の第3実施形態に係る状態判定装置を備えたデジタルサイネージ装置について、図11を参照しながら説明する。図11に示すように、本願の第3実施形態に係るデジタルサイネージ装置300は、広告画像等が表示されるディスプレイ301と、プロジェクタ本体302と、状態判定装置30Bとを備えて構成される。
(Third Embodiment)
Next, a digital signage device including the state determination device according to the third embodiment of the present application will be described with reference to FIG. As shown in FIG. 11, the digital signage device 300 according to the third embodiment of the present application is configured to include a display 301 on which advertisement images and the like are displayed, a projector body 302, and a state determination device 30B.
本実施形態では、ディスプレイ301のガラス面が投影面3となる。画像は、投影面3の後方からプロジェクタ本体302によりリアプロジェクションされている。状態判定装置30Bは投影面3の前方であって下方に設置されており、ディスプレイ301の画面の下方より入力操作部4としての操作者の指等を検出する。状態判定装置30Bとしては、例えば、前述の第1実施形態の状態判定装置30と同様の構成のものを用いることができる。 In this embodiment, the glass surface of the display 301 is the projection surface 3. The image is rear-projected by the projector body 302 from the rear of the projection surface 3. The state determination device 30B is installed in front of and below the projection surface 3, and detects the operator's finger or the like as the input operation unit 4 from below the screen of the display 301. As the state determination device 30B, for example, a device having the same configuration as the state determination device 30 of the above-described first embodiment can be used.
デジタルサイネージ装置300が、ジェスチャ認識に対応している場合、状態判定装置30Bによって入力操作部4の位置及び動きを認識することで、諸画像の拡大、縮小、ページ送りなどの動作を検出し、画面への入力操作とする。また、デジタルサイネージ装置300が、画面へのタッチ機能を搭載している場合、入力操作部4の挙動を状態判定装置30Bにて追跡し、入力操作部4がガラス面と接触状態か非接触状態かを検出することで、デジタルサイネージ装置300への入力を検出する。更に上記入力情報を、画像を管理するコンピュータに出力することで、入力操作情報を画面への出力画像に反映する。 When the digital signage device 300 is compatible with gesture recognition, by recognizing the position and movement of the input operation unit 4 by the state determination device 30B, operations such as enlargement, reduction, and page feed of various images are detected, Input operation on the screen. Further, when the digital signage device 300 has a screen touch function, the behavior of the input operation unit 4 is tracked by the state determination device 30B, and the input operation unit 4 is in a contact state or a non-contact state with the glass surface. By detecting that, the input to the digital signage device 300 is detected. Further, the input operation information is output to the computer that manages the image, so that the input operation information is reflected in the output image on the screen.
第3実施例のデジタルサイネージ装置300でも、状態判定装置30Bが、背景物体である投影面3に好適な第一の露光条件で取得した第一のデプスマップで、注目物体である入力操作部4に好適な第2の露光条件を用いて取得した第二のデプスマップを補完する。これにより、入力操作部4の入力操作を高精度に検出して、デジタルサイネージ装置300の優れたインタラクティブ操作機能を実現することができる。 Also in the digital signage device 300 of the third embodiment, the state determination device 30B is the first depth map acquired under the first exposure condition suitable for the projection surface 3 that is the background object, and the input operation unit 4 that is the object of interest. The second depth map acquired using the second exposure condition suitable for is complemented. Accordingly, the input operation of the input operation unit 4 can be detected with high accuracy, and the excellent interactive operation function of the digital signage device 300 can be realized.
なお、各実施形態では、物体検出装置として、注目物体の状態を判定する状態判定装置或いは、入力操作部による入力操作を検出する入力操作検出装置に適用した例を説明したが、物体検出装置がこれらに限定されることない。例えば、所定の撮像領域内の物体や、所定の監視領域内への侵入物体等を抽出する物体抽出装置にも適用することができる。また、状態判定装置や入力操作検出装置が上記各実施形態に限定されることもない。また、このような物体検出装置を備えた画像表示装置として、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置に適用した例を説明したが、画像表示装置もこれらに限定されることはない。インタラクティブ機能を有する適宜の装置に適用することができる。 In each embodiment, as the object detection device, the state determination device that determines the state of the target object, or the example applied to the input operation detection device that detects the input operation by the input operation unit has been described. It is not limited to these. For example, the present invention can be applied to an object extracting device that extracts an object in a predetermined imaging area, an intruding object into a predetermined monitoring area, or the like. Moreover, the state determination device and the input operation detection device are not limited to the above-described embodiments. Further, as an image display device including such an object detection device, an example in which the image display device is applied to a projector device, an electronic blackboard device, and a digital signage device has been described, but the image display device is not limited to these. It can be applied to an appropriate device having an interactive function.
以上、本発明の物体検出装置及び物体検出装置を備えた画像表示装置を各実施形態に基づき説明してきたが、具体的な構成については各実施形態に限られるものではなく、本発明の要旨を逸脱しない限り、設計の変更や追加等は許容される。また、前記構成部材の数、位置、形状等は各実施形態に限定されることはなく、本発明を実施する上で好適な数、位置、形状等にすることができる。 Although the object detection device of the present invention and the image display device including the object detection device have been described based on the respective embodiments, the specific configuration is not limited to the respective embodiments, and the gist of the present invention is not limited. As long as it does not deviate, design changes and additions are allowed. Further, the number, position, shape, etc. of the constituent members are not limited to each embodiment, and the number, position, shape, etc. suitable for carrying out the present invention can be adopted.
1 画像投影装置(画像表示装置) 3 投影面(基準物体)
4 入力操作部(対象物体) 10,10A,10B,10C 測距部
30,30A,30B 状態判定装置(物体検出装置)
200 電子黒板装置(画像表示装置)
300 デジタルサイネージ装置(画像表示装置)
1 image projection device (image display device) 3 projection surface (reference object)
4 Input operation unit (target object) 10, 10A, 10B, 10C Distance measuring unit 30, 30A, 30B State determination device (object detection device)
200 Electronic blackboard device (image display device)
300 Digital signage device (image display device)
Claims (10)
前記測距部が前記視野内についての距離情報を取得する際の条件を制御する制御部を備え、
前記制御部は、前記視野内に存在する基準物体に適した第一の条件で前記視野内について第一の距離情報を取得し、前記視野内に存在する対象物体に適した第二の条件で前記視野内について第二の距離情報を取得するよう前記測距部を制御し、
前記第二の距離情報における前記基準物体に関する値の信頼性を判断し、
信頼性が高いと判断した場合は、前記測距部における基準位置から前記基準物体までの基準距離及び前記測距部における基準位置から前記対象物体までの対象距離を前記第二の距離情報から求め、
信頼性が低いと判断した場合は、前記測距部における基準位置から前記基準物体までの基準距離を前記第一の距離情報に基づいて求め、前記測距部における基準位置から前記対象物体までの対象距離を前記第二の距離情報から求め、
前記基準距離と前記対象距離とに基づき、前記基準物体に対する前記対象物体の状態を検出すること
を特徴とする物体検出装置。 An object detection device having a distance measuring unit and acquiring distance information from the distance measuring unit within a predetermined visual field,
The distance measuring unit includes a control unit that controls a condition when acquiring distance information about the field of view,
The control unit obtains first distance information about the visual field under the first condition suitable for the reference object existing in the visual field, and under the second condition suitable for the target object existing in the visual field. Controlling the distance measuring unit to obtain second distance information about the field of view,
Determining the reliability of the value for the reference object in the second distance information,
When it is determined that the reliability is high, a reference distance from the reference position in the distance measuring unit to the reference object and a target distance from the reference position in the distance measuring unit to the target object are obtained from the second distance information. ,
When it is determined that the reliability is low, a reference distance from the reference position in the distance measuring unit to the reference object is obtained based on the first distance information, and the reference distance from the reference position in the distance measuring unit to the target object is calculated. Obtain the target distance from the second distance information,
An object detection apparatus, which detects a state of the target object with respect to the reference object based on the reference distance and the target distance.
を特徴とする請求項1に記載の物体検出装置。 The object detection apparatus according to claim 1 , wherein the reliability is determined based on a light receiving amount when the distance measuring unit acquires the second distance information.
前記制御部は、前記第一の条件を前記基準物体の反射率に基づいて設定し、前記第二の条件を前記対象物体の反射率に基づいて設定すること
を特徴とする請求項1又は2に記載の物体検出装置。 The first condition and the second condition are exposure amounts in the distance measuring unit,
Wherein the control unit according to claim 1 or 2, characterized in that said first condition is set based on the reflectance of the reference object is set based on the second condition to the reflectivity of the target object The object detection device according to.
を特徴とする請求項1〜3のいずれか一項に記載の物体検出装置。 The control unit may set the frame rate of the distance measuring unit when acquiring the second distance information to be higher than the frame rate of the distance measuring unit when acquiring the first distance information. object detection apparatus according to any one of claims 1 to 3, characterized.
を特徴とする請求項1〜4のいずれか一項に記載の物体検出装置。 The distance measuring unit projects the predetermined reference pattern onto an object to be measured, and acquires the distance information using a method based on a pattern projection method that obtains three-dimensional coordinates based on a captured image. The object detection device according to any one of claims 1 to 4 .
を特徴とする請求項1〜4のいずれか一項に記載の物体検出装置。 The distance measuring unit acquires the distance information by using a method based on a time-of-flight method for measuring a distance from a flight time of light emitted from a light source to an object to be measured. 4. The object detection device according to claim 4.
を特徴とする請求項1〜4のいずれか一項に記載の物体検出装置。 The distance measuring unit, according to claim 1-4, characterized by obtaining the distance information by using a method based on the stereo method to obtain a three-dimensional coordinates based on the parallax of two or more captured images with different viewpoints The object detection device according to any one of claims.
を特徴とする請求項1〜7のいずれか一項に記載の物体検出装置。 The object detection device is a state determination device that determines a state of the target object with respect to the reference object, an input operation detection device that detects a state of the target object as an input operation unit that performs an input operation with respect to the reference object, and the object detection apparatus according to any one of claims 1 to 7, characterized in that the reference object is either the object extracting apparatus for extracting the target object existing in a predetermined range.
を特徴とする画像表示装置。 The image display apparatus comprising the object detection apparatus according to any one of claims 1-8.
を特徴とする請求項9に記載の画像表示装置。 The image display device according to claim 9 , wherein the image display device is any one of an image projection device, an electronic blackboard device, and a digital signage device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016005035A JP6740614B2 (en) | 2016-01-14 | 2016-01-14 | Object detection device and image display device including the object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016005035A JP6740614B2 (en) | 2016-01-14 | 2016-01-14 | Object detection device and image display device including the object detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017125764A JP2017125764A (en) | 2017-07-20 |
JP6740614B2 true JP6740614B2 (en) | 2020-08-19 |
Family
ID=59364866
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016005035A Active JP6740614B2 (en) | 2016-01-14 | 2016-01-14 | Object detection device and image display device including the object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6740614B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021118279A1 (en) | 2019-12-11 | 2021-06-17 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for controlling thereof |
WO2021117595A1 (en) * | 2019-12-13 | 2021-06-17 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110150271A1 (en) * | 2009-12-18 | 2011-06-23 | Microsoft Corporation | Motion detection using depth images |
JP6148053B2 (en) * | 2013-03-29 | 2017-06-14 | 日本信号株式会社 | Object detection system |
JP6346427B2 (en) * | 2013-10-30 | 2018-06-20 | キヤノン株式会社 | Image processing apparatus and image processing method |
JP6267486B2 (en) * | 2013-10-30 | 2018-01-24 | キヤノン株式会社 | Image processing apparatus and image processing method |
-
2016
- 2016-01-14 JP JP2016005035A patent/JP6740614B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017125764A (en) | 2017-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI547828B (en) | Calibration of sensors and projector | |
RU2455676C2 (en) | Method of controlling device using gestures and 3d sensor for realising said method | |
JP6186599B1 (en) | Projection device | |
US8711225B2 (en) | Image-capturing device and projection automatic calibration method of projection device | |
US8730164B2 (en) | Gesture recognition apparatus and method of gesture recognition | |
US10091489B2 (en) | Image capturing device, image processing method, and recording medium | |
CN104981757B (en) | Flexible room controller | |
JP6075122B2 (en) | System, image projection apparatus, information processing apparatus, information processing method, and program | |
US20170059305A1 (en) | Active illumination for enhanced depth map generation | |
US20140037135A1 (en) | Context-driven adjustment of camera parameters | |
US10663593B2 (en) | Projector apparatus with distance image acquisition device and projection method | |
JP2013033206A (en) | Projection display device, information processing device, projection display system, and program | |
US20130257813A1 (en) | Projection system and automatic calibration method thereof | |
JP2023552974A (en) | Depth measurement via display | |
CN107113417B (en) | Projecting an image onto an object | |
JP6740614B2 (en) | Object detection device and image display device including the object detection device | |
JP2015045751A (en) | Projection device | |
US20150185321A1 (en) | Image Display Device | |
US20190302598A1 (en) | Projection device, projection method, and projection control program | |
TWI569173B (en) | Presentation of a digital image of an object | |
EP3462735A1 (en) | Light field based projector calibration method and system | |
JP2020160808A (en) | Position detection method, position detection device, and interactive projector | |
KR101002071B1 (en) | Apparatus for touching a projection of 3d images on an infrared screen using multi-infrared camera | |
JP2018098598A (en) | Input/output device, information sharing method and information sharing program | |
JP7266151B2 (en) | Pointed Position Detecting Device, Pointed Position Detecting Method, Pointed Position Detecting Program, and Projection System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191017 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191203 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200203 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200623 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200706 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6740614 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |