JP2015126281A - Projector, information processing method, and program - Google Patents
Projector, information processing method, and program Download PDFInfo
- Publication number
- JP2015126281A JP2015126281A JP2013267772A JP2013267772A JP2015126281A JP 2015126281 A JP2015126281 A JP 2015126281A JP 2013267772 A JP2013267772 A JP 2013267772A JP 2013267772 A JP2013267772 A JP 2013267772A JP 2015126281 A JP2015126281 A JP 2015126281A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- imaging target
- projection
- unit
- projector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、プロジェクタ、情報処理方法及びプログラムに関する。 The present invention relates to a projector, an information processing method, and a program.
従来、カメラを内蔵したプロジェクタが提案されている。
特許文献1に記載のプロジェクタは、プロジェクタ本体の周囲の所定方向にかざされたカードのパターンを撮像する撮像装置を備えている。そして、このプロジェクタは、前記撮像装置によって検出された映像を解析した解析結果に基づいて、プロジェクタ本体の電源のオン・オフの切り替え、音量の増減、入力信号の切り替え等の動作状態を制御する。
Conventionally, a projector with a built-in camera has been proposed.
The projector described in Patent Document 1 includes an imaging device that captures an image of a card pattern held in a predetermined direction around the projector body. The projector controls operation states such as power on / off switching, volume increase / decrease, and input signal switching of the projector body based on the analysis result obtained by analyzing the video detected by the imaging device.
しかしながら、特許文献1に記載のプロジェクタでは、ユーザがプロジェクタの投射画面を暗い部屋で見ている場合、照度不足のため撮像対象を適切に撮像することができず、撮像対象の解読が困難となる問題がある。また、照度を改善させるためにフラッシュが焚かれると、部屋が暗いためユーザにとって非常に眩しく、ユーザは目がくらんでしまい、しばらくプレゼンテーション(以下、プレゼンという)を見ることができない状態になってしまうという問題もある。
本発明は、撮像部を有するプロジェクタが撮像対象を適切に撮像するための技術を提供することを目的とする。
However, in the projector described in Patent Document 1, when the user views the projection screen of the projector in a dark room, the imaging target cannot be appropriately captured due to insufficient illuminance, and it is difficult to decipher the imaging target. There's a problem. In addition, when a flash is used to improve the illuminance, the room is dark and it is very dazzling for the user, the user is blinded, and the presentation (hereinafter referred to as a presentation) cannot be seen for a while. There is also a problem.
An object of the present invention is to provide a technique for a projector having an imaging unit to appropriately capture an imaging target.
そこで、本発明は、撮像部を有するプロジェクタであって、前記プロジェクタの投射範囲に撮像対象が存在するか否かを判定する判定手段と、前記判定手段で前記投射範囲に前記撮像対象が存在すると判定された場合、前記プロジェクタから投射される投射表示のうち前記撮像対象に投射される投射表示を変更する変更手段と、前記変更手段で変更された投射表示が前記撮像対象に投射されている状態で、前記撮像部を介して前記撮像対象を撮像する撮像手段と、を有する。 Therefore, the present invention is a projector having an imaging unit, wherein a determination unit that determines whether or not an imaging target exists in the projection range of the projector, and the imaging unit exists in the projection range by the determination unit When judged, the changing means for changing the projection display projected on the imaging target among the projection displays projected from the projector, and the projection display changed by the changing means being projected on the imaging target And imaging means for imaging the imaging object via the imaging unit.
本発明によれば、撮像部を有するプロジェクタが撮像対象を適切に撮像するための技術を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the technique for the projector which has an imaging part to image an imaging target appropriately can be provided.
以下、本発明を実施するための最良の形態について図面を用いて説明する。
<実施形態1>
図1は、本実施形態におけるプロジェクタ10のハードウェア構成の一例を示す図である。
画像撮像部11は、プロジェクタ10に内蔵されたイメージセンサー等を有するカメラである。画像撮像部11は、静止画だけでなく、動画(映像)を撮影する事ができる機能を有していてもよい。なお、画像撮像部11で取得される静止画のデータや動画のデータは撮像データの一例である。
記憶部12は、撮像画像を記憶したり、プロジェクタ10の処理に要する予め定められたデータ等を含む各種のデータを記憶したりする記憶領域である。
映像解析部13は、画像撮像部11で撮像された複数の連続する画像で構成される映像を解析して対象物(撮像対象)の動きを検出する。即ち、映像解析部13は、画像撮像部11で撮像された撮像画像に基づいて動体を検出する。本実施形態における映像解析部13は、背景差分方式により動体を検出する。なお、映像解析部13は、画像撮像部11で撮影された動画を解析して前記対象物の動きを検出するようにしてもよい。以降の処理においても同様とする。
The best mode for carrying out the present invention will be described below with reference to the drawings.
<Embodiment 1>
FIG. 1 is a diagram illustrating an example of a hardware configuration of the projector 10 according to the present embodiment.
The image capturing unit 11 is a camera having an image sensor or the like built in the projector 10. The image capturing unit 11 may have a function capable of capturing not only a still image but also a moving image (video). Note that still image data and moving image data acquired by the image capturing unit 11 are examples of captured image data.
The storage unit 12 is a storage area for storing captured images and various data including predetermined data required for the processing of the projector 10.
The video analysis unit 13 analyzes a video composed of a plurality of continuous images picked up by the image pickup unit 11 and detects a motion of an object (image pickup target). That is, the video analysis unit 13 detects a moving object based on the captured image captured by the image capturing unit 11. The video analysis unit 13 in the present embodiment detects a moving object using a background difference method. Note that the video analysis unit 13 may detect a motion of the object by analyzing a moving image captured by the image capturing unit 11. The same applies to the subsequent processing.
材質推定部15は、画像撮像部11で撮像された撮像画像で構成される映像を解析して対象物の材質等の特性を推定(特定)する。
物体検出部16は、画像撮像部11から受け付けた映像を解析して対象物の形状等を検出すると共に、プロジェクタ10における各種の制御を行う。なお、以降の処理では、対象物の形状が矩形形状であるものとして説明するが、他の形状であってもよい。
モーション検知部17は、物体検出部16で検出された矩形形状の対象物(以下、矩形物体という)の動きを、映像解析部13で検出された動きを追尾することにより捉える。
映像出力部18は、記憶部12に記憶されている投射データが示す投射内容(投射表示)でスクリーン(投射画面)等に投射する。また、映像出力部18は、プロジェクタ10の投射範囲のうち、物体検出部16で検出された矩形物体の位置(投射位置)の投射表示を白色の表示(以下、部分白色表示という)に変更することができる。また、映像出力部18は、矩形物体の投射位置における投射表示を部分白色表示に変更した映像を出力する際、矩形物体の周辺部に予め定められた広さの余白を足して部分白色表示で出力する。なお、ここでいう投射範囲とは、プロジェクタ10が投射内容を投射可能な空間のことをいう。
部分露出調整部20は、物体検出部16で検出された対象物である矩形物体の露出を算出して、投射する前記部分白色表示の明るさ(照度)をフィードバック補正する。
The material estimator 15 estimates (specifies) characteristics such as the material of the target object by analyzing a video formed by the captured image captured by the image capturing unit 11.
The object detection unit 16 analyzes the video received from the image capturing unit 11 to detect the shape of the object and performs various controls in the projector 10. In the following processing, the object is described as having a rectangular shape, but other shapes may be used.
The motion detection unit 17 captures the movement of the rectangular object detected by the object detection unit 16 (hereinafter referred to as a rectangular object) by tracking the movement detected by the video analysis unit 13.
The video output unit 18 projects the projection content (projection display) indicated by the projection data stored in the storage unit 12 onto a screen (projection screen) or the like. Also, the video output unit 18 changes the projection display of the position (projection position) of the rectangular object detected by the object detection unit 16 in the projection range of the projector 10 to white display (hereinafter referred to as partial white display). be able to. In addition, when outputting a video in which the projection display at the projection position of the rectangular object is changed to the partial white display, the video output unit 18 adds a predetermined margin to the peripheral part of the rectangular object to display the partial white. Output. In addition, the projection range here means the space where the projector 10 can project the projection content.
The partial exposure adjustment unit 20 calculates the exposure of the rectangular object that is the target detected by the object detection unit 16, and feedback corrects the brightness (illuminance) of the partial white display to be projected.
なお、上述した映像解析部13、材質推定部15、物体検出部16、モーション検知部17、映像出力部18及び部分露出調整部20は、ソフトウェアで構成されていてもよい。即ち、プロジェクタ10のCPUが記憶領域に記憶されているプログラムを実行することにより、映像解析部13、材質推定部15、物体検出部16、モーション検知部17、映像出力部18及び部分露出調整部20の機能が実現されるようにしてもよい。 Note that the video analysis unit 13, the material estimation unit 15, the object detection unit 16, the motion detection unit 17, the video output unit 18, and the partial exposure adjustment unit 20 described above may be configured by software. That is, when the CPU of the projector 10 executes the program stored in the storage area, the video analysis unit 13, the material estimation unit 15, the object detection unit 16, the motion detection unit 17, the video output unit 18, and the partial exposure adjustment unit. Twenty functions may be realized.
本実施形態では、ユーザが図2のように紙媒体の絵21を手22に持ってプロジェクタ10の投射範囲内にスクリーンと並行(投影光と垂直)に挿入した場合について説明する。
図2は、実施形態1において想定される場面の一例を示す図である。
スクリーン23には、投射範囲に挿入された絵21と、手22の指とが影となって表示されている。
本実施形態では、ユーザがプロジェクタ10を用いてプレゼンを行う際に、暗くされた部屋で視聴者がスクリーンを見ている場合を想定している。部屋では、スクリーンに投射されている投影光以外の光量は撮像対象を視認可能に撮像することができないほど少なく、更に、他の光源はない場合が多い。そのため、ユーザがプロジェクタ10の前、即ち、投射範囲内に紙媒体を差し出さないと、プロジェクタ10は、絵21の内容を内蔵カメラである画像撮像部11で撮像して認識することができない。しかし、プロジェクタ10が投射表示の全体を白色の表示として紙媒体の絵21を照らした場合、スクリーンを見ていた視聴者は、プレゼン資料が写されていたスクリーンが急に明るくなるため、目がくらんだり、眩しく感じてしまったりすることになる。
そこで、プロジェクタ10は、紙媒体の絵21がスクリーンと並行の投射範囲内に挿入された場合に、後述する図3の処理を実行する。
In the present embodiment, a case will be described in which the user holds the picture 21 of the paper medium in his hand 22 and inserts it in the projection range of the projector 10 in parallel with the screen (perpendicular to the projection light) as shown in FIG.
FIG. 2 is a diagram illustrating an example of a scene assumed in the first embodiment.
On the screen 23, the picture 21 inserted in the projection range and the finger of the hand 22 are displayed as shadows.
In the present embodiment, it is assumed that the viewer is watching the screen in a darkened room when the user makes a presentation using the projector 10. In a room, the amount of light other than the projection light projected on the screen is so small that the imaging target cannot be imaged in a visible manner, and there are often no other light sources. Therefore, unless the user presents a paper medium in front of the projector 10, that is, within the projection range, the projector 10 cannot capture and recognize the contents of the picture 21 with the image capturing unit 11 that is a built-in camera. However, when the projector 10 illuminates the picture 21 of the paper medium with the entire projection display as a white display, the viewer watching the screen suddenly becomes brighter because the screen on which the presentation material was copied becomes brighter. You will feel dazzled or dazzled.
Therefore, the projector 10 executes the processing of FIG. 3 described later when the paper medium picture 21 is inserted into the projection range parallel to the screen.
図3は、実施形態1における処理(情報処理)の一例を示すフローチャートである。
S100で、物体検出部16は、画像撮像部11を介して投射範囲を予め定められた間隔で(以下、定期的にという)撮像し、粗い画像データ(以下、単に画像という)を取得する。そして、物体検出部16は、画像撮像部11を介して取得した画像を記憶部12に記録する。また、ここでいう粗い画像とは、予め定められた解像度よりも低い解像度の画像のことをいう。
なお、物体検出部16は、イメージセンサー自体で間引いたイメージを取得するようにしてもよい。また、物体検出部16は、イメージセンサーで全画素を読み出し、その後、縮小処理、輝度成分のみ取り出す処理又はDCT変換する処理等の画像を粗くする処理を施して生成された粗い画像を取得するようにしてもよい。DCTは、Discrete Cosine Transformの略称である。その他、物体検出部16が画像撮像部11を介して全画素イメージを撮像し、その後、映像解析部13が前記撮像された全画素イメージに対して上述した画像を粗くする処理を行うようにしてもよい。
FIG. 3 is a flowchart illustrating an example of processing (information processing) in the first embodiment.
In S100, the object detection unit 16 captures a projection range at a predetermined interval (hereinafter referred to as “periodically”) via the image capturing unit 11, and acquires coarse image data (hereinafter simply referred to as an image). Then, the object detection unit 16 records the image acquired via the image capturing unit 11 in the storage unit 12. In addition, the rough image here means an image having a resolution lower than a predetermined resolution.
Note that the object detection unit 16 may acquire an image thinned out by the image sensor itself. Further, the object detection unit 16 reads out all the pixels with an image sensor, and then obtains a rough image generated by performing a process of roughening the image such as a reduction process, a process of extracting only the luminance component, or a process of DCT conversion. It may be. DCT is an abbreviation for Discrete Course Transform. In addition, the object detection unit 16 captures all the pixel images via the image capturing unit 11, and then the video analysis unit 13 performs the above-described processing for roughening the image on the captured all pixel images. Also good.
S101で、映像解析部13は、記憶部12に定期的に記録された画像で構成される映像から画像内に写る物体の動き(変化)を背景差分方式で解析して監視する。
S102で、映像解析部13は、S101における解析結果から、投射範囲に動体が存在するか否かを判定し、存在すると判定した場合、処理をS103に進め、存在しないと判定した場合、処理をS101に戻す。また、映像解析部13は、投射範囲に動体が存在すると判定した場合、前記解析結果から前記対象物の動きと、大きさとを検出し、検出結果を物体検出部16に通知する。このように、映像解析部13は、投射範囲に動体が存在するか否かに基づいて、投射範囲に撮像対象物が存在するか否かを判定することができる。
S103で、物体検出部16は、前記映像から前記対象物の形状を解析し、前記対象物が矩形形状であるか否かを判定し、矩形形状であると判定した場合、処理をS104に進め、矩形形状でないと判定した場合、処理をS101に戻す。なお、S103で物体検出部16は、前記対象物の形状が矩形形状であるか否かに基づいて判定するようにしたが、予め定められた別の形状に基づいて判定するようにしてもよい。
In step S <b> 101, the video analysis unit 13 analyzes and monitors the movement (change) of an object that appears in an image from a video composed of images that are periodically recorded in the storage unit 12 using a background difference method.
In S102, the video analysis unit 13 determines whether there is a moving object in the projection range from the analysis result in S101. If it is determined that the moving object exists, the process proceeds to S103. If it is determined that there is no moving object, the process is performed. Return to S101. If the video analysis unit 13 determines that a moving object is present in the projection range, the video analysis unit 13 detects the movement and size of the target object from the analysis result, and notifies the object detection unit 16 of the detection result. As described above, the video analysis unit 13 can determine whether or not an imaging target exists in the projection range based on whether or not a moving object exists in the projection range.
In S103, the object detection unit 16 analyzes the shape of the object from the video, determines whether or not the object is a rectangular shape, and proceeds to S104 if it is determined that the object is a rectangular shape. If it is determined that the shape is not rectangular, the process returns to S101. In S103, the object detection unit 16 determines based on whether or not the shape of the object is a rectangular shape. However, the object detection unit 16 may determine based on another predetermined shape. .
S104で、モーション検知部17は、映像解析部13による解析結果から、前記対象物である矩形物体の動きを追尾し、前記矩形物体が静止しているか否かを判定し、静止していると判定した場合、処理をS105に進める。一方、モーション検知部17は、前記矩形物体が静止していないと判定した場合、S104の処理を繰り返す。これにより、プロジェクタ10は、矩形物体が静止した状態で撮像することができるようになるため、フォーカスを合せて撮像することができる。
S105で、材質推定部15は、前記矩形物体の材質を推定する。ここで、材質推定部15は、公知の秘術である反射モデルを用いた連続画像による物体表面材質推定等の推定方法を用いて前記矩形物体の材質を推定する。より具体的にいうと、材質推定部15は、記憶部12に記憶されている前記矩形物体の複数枚の連続した撮像画像から取得される輝度情報と、予め記憶されている反射モデル情報とを利用して解析し、材質を推定する。
S106で、物体検出部16は、S105における推定結果から、前記矩形物体が自発発光する自発光物体であるか否かを判定し、自発光物体でないと判定した場合、処理をS107に進める。S106で、物体検出部16が前記矩形物体は自発光物体であると判定した場合の処理の詳細については、実施形態3で説明する。ここでいう自発光物体の一例としては、液晶タブレット等があげられる。また、自発光しない非自発光物体の一例としては、上述した紙媒体の絵21等があげられる。
In S104, the motion detection unit 17 tracks the movement of the rectangular object that is the target from the analysis result by the video analysis unit 13, determines whether or not the rectangular object is stationary, and is stationary. If so, the process proceeds to S105. On the other hand, when the motion detection unit 17 determines that the rectangular object is not stationary, the process of S104 is repeated. As a result, the projector 10 can capture an image of the rectangular object in a stationary state, so that the image can be captured in focus.
In S105, the material estimation unit 15 estimates the material of the rectangular object. Here, the material estimation unit 15 estimates the material of the rectangular object using an estimation method such as object surface material estimation based on continuous images using a reflection model that is a known technique. More specifically, the material estimation unit 15 includes luminance information acquired from a plurality of consecutive captured images of the rectangular object stored in the storage unit 12 and reflection model information stored in advance. Analyze it and estimate the material.
In S106, the object detection unit 16 determines whether or not the rectangular object is a self-luminous object that emits light spontaneously from the estimation result in S105. If it is determined that the rectangular object is not a self-luminous object, the process proceeds to S107. The details of the processing when the object detection unit 16 determines in S106 that the rectangular object is a self-luminous object will be described in Embodiment 3. An example of the self-luminous object here is a liquid crystal tablet or the like. An example of a non-self-luminous object that does not emit light is the paper medium picture 21 described above.
S107で、映像出力部18は、上述した背景差分方式により解析した前記矩形物体の形状と、大きさとに基づいて、矩形物体の周辺部に予め定められた広さの余白を足して矩形の部分白表示(以下、矩形白表示という)を投射する投射データを作成する。より具体的にいうと、映像出力部18は、図4に示されるような矩形白表示31を投射する投射データを作成する。図4は、投射表示の一例を示す図である。
S108で、映像出力部18は、S107で新たに作成した投射データが示す矩形白表示を、元々のプレゼン内容を示す投射表示に合成する。即ち、映像出力部18は、S107で作成した投射データに基づいて、元々の投射表示を変更して出力する。これにより、映像出力部18は、投射範囲のうち撮像対象の投射位置における投射表示を前記撮像対象に応じて変更することができる。また、映像出力部18が投射範囲の全面を白色に表示変更する場合と比べて、眩しさでユーザの目がくらむことがなくなる。
In S107, the video output unit 18 adds a margin of a predetermined width to the periphery of the rectangular object based on the shape and size of the rectangular object analyzed by the background difference method described above. Projection data for projecting a white display (hereinafter referred to as a rectangular white display) is created. More specifically, the video output unit 18 creates projection data for projecting a rectangular white display 31 as shown in FIG. FIG. 4 is a diagram illustrating an example of the projection display.
In S108, the video output unit 18 synthesizes the rectangular white display indicated by the projection data newly created in S107 into a projection display indicating the original presentation content. That is, the video output unit 18 changes and outputs the original projection display based on the projection data created in S107. Thereby, the video output unit 18 can change the projection display at the projection position of the imaging target in the projection range according to the imaging target. Moreover, the user's eyes are not dazzled by glare as compared with the case where the video output unit 18 changes the display of the entire projection range to white.
S109で、部分露出調整部20は、前記矩形白表示の明るさを調整する。
部分露出調整部20は、画像撮像部11で撮像された画像から、図4における矩形白表示31の部分を切り出して、部分ヒストグラムを計算する。部分露出調整部20は、前記部分ヒストグラムのヒストグラム特徴を抽出した抽出情報と、予め記憶部12に保存されている測定学習されたヒストグラム特徴の記憶情報とを比較し、露出オーバー寄りか、露出アンダー寄りかに関する露出判定をする。そして、部分露出調整部20は、前記露出判定の判定結果を基に、図4の矩形白表示31の部分の白色の明るさが露出アンダーや露出オーバーとならないように、映像出力部18が投射する投射表示の白色の明るさにフィードバックをかけて自動調整する。これにより、部分露出調整部20は、画像撮像部11で前記矩形物体がズームされて撮像される際の撮像画像の露出に対する白色の投射表示による明るさを、適正に調整することができる。即ち、プロジェクタ10は、画像撮像部11を介して、ユーザがより視認しやすい撮像画像を取得することができる。
なお、部分露出調整部20は、映像出力部18が出力する投射表示の白色の明るさの自同調性を、推定した紙媒体の反射率テーブルから取得した反射輝度値に基づいて調整するようにしてもよい。
In S109, the partial exposure adjustment unit 20 adjusts the brightness of the rectangular white display.
The partial exposure adjustment unit 20 cuts out the portion of the rectangular white display 31 in FIG. 4 from the image captured by the image capturing unit 11 and calculates a partial histogram. The partial exposure adjustment unit 20 compares the extracted information obtained by extracting the histogram features of the partial histogram with the stored storage information of the histogram features learned and stored in the storage unit 12 in advance, and the partial exposure adjustment unit 20 is close to overexposed or underexposed. Judgment is made on the exposure. Then, based on the result of the exposure determination, the partial exposure adjustment unit 20 projects the video output unit 18 so that the white brightness of the portion of the rectangular white display 31 in FIG. Automatically adjusts the whiteness of the projected display by applying feedback. Thereby, the partial exposure adjustment part 20 can adjust appropriately the brightness by the white projection display with respect to exposure of the captured image when the said rectangular object is zoomed and imaged by the image imaging part 11. FIG. That is, the projector 10 can acquire a captured image that is easier for the user to visually recognize via the image capturing unit 11.
The partial exposure adjustment unit 20 adjusts the self-tuning of the white brightness of the projection display output from the video output unit 18 based on the reflected luminance value acquired from the estimated reflectance table of the paper medium. May be.
S110で、物体検出部16は、画像撮像部11を前記矩形物体に合わせてズームすると共に、前記矩形物体に対してフォーカスを合せる。
S111で、物体検出部16は、画像撮像部11で前記対象物である前記矩形物体の静止画を撮像する。
S112で、映像出力部18は、S108で合成して変更した後の合成投射表示の出力を停止する。
S113で、映像出力部18は、S111で撮像された静止画の撮像画像を、プロジェクタ10の投射画面全面に投射する。これにより、映像出力部18は、適切に撮像された撮像対象を投射表示することができる。
In S110, the object detection unit 16 zooms the image capturing unit 11 according to the rectangular object, and focuses the rectangular object.
In S <b> 111, the object detection unit 16 captures a still image of the rectangular object that is the target by the image capturing unit 11.
In S112, the video output unit 18 stops the output of the combined projection display after being changed in S108.
In S113, the video output unit 18 projects the captured image of the still image captured in S111 on the entire projection screen of the projector 10. Thereby, the video output unit 18 can project and display an imaging target imaged appropriately.
以上、本実施形態によれば、プロジェクタ10は、投射範囲に撮像対象が存在するか否かを判定することができると共に、撮像対象の材質(特性)に応じて部分的に投射表示を変更することができる。これにより、プロジェクタ10は、眩しさによりユーザの目をくらませることなく、適切に撮像対象を撮像し視認性のよい撮像画像を投射することができる。 As described above, according to the present embodiment, the projector 10 can determine whether or not an imaging target exists in the projection range, and partially changes the projection display according to the material (characteristic) of the imaging target. be able to. Thereby, the projector 10 can appropriately capture an imaging target and project a captured image with good visibility without dizzying the user's eyes.
<実施形態2>
図5は、本実施形態におけるプロジェクタ10のハードウェア構成の一例を示す図である。
以下、図1で説明したプロジェクタ10のハードウェア構成と異なる点についてのみ説明する。
距離センサー部14は、プロジェクタ10から対象物までの距離を測り、深度情報を作成する。ここで、深度情報とは、プロジェクタ10が画像撮像部11を介して許容されるフォーカス(焦点)で撮像画像を撮像することができる範囲を示す情報のことをいう。
本実施形態では、映像解析部13による動体検出の検出方法として、深度情報分析方式による検出方法を用いる。また、距離センサー部14として様々な測距方式を用いたセンサーを用いることができる。
<Embodiment 2>
FIG. 5 is a diagram illustrating an example of a hardware configuration of the projector 10 according to the present embodiment.
Only the differences from the hardware configuration of the projector 10 described in FIG. 1 will be described below.
The distance sensor unit 14 measures the distance from the projector 10 to the object and creates depth information. Here, the depth information refers to information indicating a range in which the projector 10 can capture a captured image with a focus that is allowed via the image capturing unit 11.
In the present embodiment, a detection method based on a depth information analysis method is used as a detection method for moving object detection by the video analysis unit 13. In addition, a sensor using various distance measuring methods can be used as the distance sensor unit 14.
本実施形態のプロジェクタ10は、可視光以外の例えば赤外光のドットパターンが照射されたその状況を、画像撮像部11である赤外線カメラで捉えて画像分析する。
以下、距離センサー部14が深度情報を抽出する深度情報分析方式の一例について説明する。
本実施形態のプロジェクタ10と、画像撮像部11に接続された可視光で撮像する画像撮像装置とは、ほぼ一体となる位置にあることを想定している。そのため、画像撮像装置と、撮像対象との距離は、前記距離センサー部14で測距することができる距離と同じとみなすことができる。
ここで、実施形態1で説明した図2と同様に、ユーザが紙媒体の絵21を手22に持ってプロジェクタ10の投射面に並行に挿入した場合におけるプロジェクタ10の処理について、図6を用いて説明する。
The projector 10 according to the present embodiment captures the situation where an infrared dot pattern other than visible light, for example, is irradiated with an infrared camera as the image capturing unit 11 and analyzes the image.
Hereinafter, an example of a depth information analysis method in which the distance sensor unit 14 extracts depth information will be described.
It is assumed that the projector 10 according to the present embodiment and the image pickup apparatus that picks up images with visible light connected to the image pickup unit 11 are in a substantially integrated position. Therefore, the distance between the image capturing apparatus and the imaging target can be regarded as the same distance that can be measured by the distance sensor unit 14.
Here, similarly to FIG. 2 described in the first embodiment, the processing of the projector 10 in the case where the user holds the picture 21 of the paper medium in the hand 22 and inserts it in parallel on the projection surface of the projector 10 will be described with reference to FIG. I will explain.
図6は、実施形態2における処理の一例を示すフローチャートである。
S200で、距離センサー部14は、図7のような深度情報のマップ(以下、深度マップという)を定期的に作成し、記憶部12に記録する。図7は、深度マップの一例を示す図である。より具体的にいうと、距離センサー部14は、プロジェクタスクリーン211、挿入された矩形物体212及び矩形物体212を支えているユーザの指213の各々のプロジェクタ10からの距離の違いを色の濃さで表現した深度マップ210を作成する。そして、距離センサー部14は、作成した深度マップを順次記憶部12に記録する。
S201で、映像解析部13は、記憶部12に定期的に記録された前記深度マップ内の動きを監視する。より具体的にいうと、映像解析部13は、記憶部12に定期的に記録された複数の深度マップから、深度マップ内の動き(変化)を監視する。
S202で、映像解析部13は、S201の監視結果から、投射範囲に動体が存在するか否かを判定し、存在すると判定した場合、処理をS203に進め、存在しないと判定した場合、処理をS201に戻す。また、映像解析部13は、投射範囲に動体が存在すると判定した場合、動体が存在する旨を物体検出部16に通知する。これにより、映像解析部13は、投射範囲に動体が存在するか否かに基づいて、投射範囲に撮像対象物が存在するか否かを判定することができる。
FIG. 6 is a flowchart illustrating an example of processing in the second embodiment.
In S <b> 200, the distance sensor unit 14 periodically creates a depth information map (hereinafter referred to as a depth map) as shown in FIG. 7 and records it in the storage unit 12. FIG. 7 is a diagram illustrating an example of a depth map. More specifically, the distance sensor unit 14 represents the difference in distance from the projector 10 to each of the projector screen 211, the inserted rectangular object 212, and the user's finger 213 supporting the rectangular object 212. The depth map 210 expressed by the above is created. Then, the distance sensor unit 14 sequentially records the created depth map in the storage unit 12.
In step S <b> 201, the video analysis unit 13 monitors the movement in the depth map periodically recorded in the storage unit 12. More specifically, the video analysis unit 13 monitors the movement (change) in the depth map from a plurality of depth maps periodically recorded in the storage unit 12.
In S202, the video analysis unit 13 determines whether there is a moving object in the projection range from the monitoring result in S201. If it is determined that the moving object exists, the process proceeds to S203. If it is determined that there is no moving object, the process is performed. Return to S201. When the video analysis unit 13 determines that a moving object exists in the projection range, the video analysis unit 13 notifies the object detection unit 16 that a moving object exists. Thereby, the video analysis unit 13 can determine whether or not an imaging target exists in the projection range based on whether or not a moving object exists in the projection range.
S203で、物体検出部16は、記憶部12に記録されている深度マップから前記動体の形状を解析し、前記動体が矩形形状であるか否かを判定し、矩形形状であると判定した場合、処理をS204に進める。一方、物体検出部16は、前記動体が矩形形状でないと判定した場合、処理をS201に戻す。なお、S203で物体検出部16は、前記動体が矩形形状であるか否かに基づいて判定するようにしたが、予め定められた別の形状に基づいて判定するようにしてもよい。
S204で、モーション検知部17は、例えばユーザが前記動体を縦に振った後に静止させた等の予め定められた動作(ジェスチャ)を検知した場合、処理をS205に進め、検知しなかった場合、処理を終了する。
S205からS213までの処理は、実施形態1で説明した図3のS105からS113までの処理と同様であるため説明を省略する。但し、映像出力部18は、部分白表示を投射する際に、実施形態1で説明した背景差分方式ではなく上述した深度情報分析方式で解析された前記矩形物体の大きさと、形状との情報を用いる。
In S203, the object detection unit 16 analyzes the shape of the moving object from the depth map recorded in the storage unit 12, determines whether the moving object has a rectangular shape, and determines that the moving object has a rectangular shape The process proceeds to S204. On the other hand, if the object detection unit 16 determines that the moving object is not rectangular, the process returns to S201. In S203, the object detection unit 16 makes the determination based on whether or not the moving object has a rectangular shape. However, the object detection unit 16 may make the determination based on another predetermined shape.
In S204, when the motion detection unit 17 detects a predetermined operation (gesture) such as a case where the user makes the moving object stand still after shaking vertically, the process proceeds to S205, and when the detection is not detected, The process ends.
The processing from S205 to S213 is the same as the processing from S105 to S113 in FIG. However, when projecting a partial white display, the video output unit 18 uses information on the size and shape of the rectangular object analyzed by the above-described depth information analysis method instead of the background difference method described in the first embodiment. Use.
以上、本実施形態によれば、プロジェクタ10は、投射範囲に撮像対象が存在するか否かを深度マップに基づいて判定することができると共に、撮像対象の材質(特性)に応じて部分的に投射表示を変更することができる。これにより、プロジェクタ10は、眩しさによりユーザの目をくらませることなく、適切に撮像対象を撮像して視認性のよい撮像画像を投射することができる。 As described above, according to the present embodiment, the projector 10 can determine whether or not an imaging target exists in the projection range based on the depth map, and partially according to the material (characteristic) of the imaging target. The projection display can be changed. Thereby, the projector 10 can appropriately capture an image of the imaging target and project a captured image with good visibility without dizzying the user's eyes.
<実施形態3>
図8は、本実施形態におけるプロジェクタ10のハードウェア構成の一例を示す図である。
以下、図1、図2で説明したプロジェクタ10のハードウェア構成と異なる点についてのみ説明する。
映像出力部18は、物体検出部16で検出された対象物である矩形物体の位置(投射位置)に、対象物の大きさと、材質とに応じた適切な投射表示を投射する。本実施形態における映像出力部18は、前記矩形物体が液晶タブレットのような自発光する自発光物体である場合、前記矩形物体の投射位置に黒色の投射表示(以下、部分黒色表示という)を投射する。その際、映像出力部18は、矩形物体の周辺部に予め定められた広さの余白を足して部分黒色表示で出力する。
手検出部19は、実施形態2で説明した深度マップから人間の手の部分と、前記手の部分の動作とを検出する。なお、手検出部19は、ソフトウェアで構成されていてもよい。即ち、プロジェクタ10のCPUが記憶領域に記憶されているプログラムを実行することにより、手検出部19の機能が実現されるようにしてもよい。
<Embodiment 3>
FIG. 8 is a diagram illustrating an example of a hardware configuration of the projector 10 according to the present embodiment.
Only the differences from the hardware configuration of the projector 10 described in FIGS. 1 and 2 will be described below.
The video output unit 18 projects an appropriate projection display according to the size and material of the object on the position (projection position) of the rectangular object that is the object detected by the object detection unit 16. When the rectangular object is a self-luminous object that emits light such as a liquid crystal tablet, the video output unit 18 in the present embodiment projects a black projection display (hereinafter referred to as partial black display) at the projection position of the rectangular object. To do. At that time, the video output unit 18 adds a margin of a predetermined width to the peripheral part of the rectangular object and outputs it in a partial black display.
The hand detection unit 19 detects the human hand part and the movement of the hand part from the depth map described in the second embodiment. The hand detection unit 19 may be configured by software. That is, the function of the hand detection unit 19 may be realized by the CPU of the projector 10 executing the program stored in the storage area.
本実施形態では、映像解析部13による動体検出の検出方法として実施形態2と同様の深度情報分析方式による検出方法を用いる。
また、本実施形態における撮像対象は、実施形態1、2で説明したような紙媒体ではなく、液晶タブレットのような自発光物体を想定している。
図9は、実施形態3において想定される場面の一例を示す図である。
図9では、ユーザが液晶タブレット91を手92に持ってプロジェクタ10の投射範囲内にスクリーンと並行に挿入した場合の例が示されている。自発光物体は、液晶タブレット91に限る必要はなく、有機ELやLEDのバックライトやフロントライト付き表示媒体等であってもよい。
In the present embodiment, a detection method based on a depth information analysis method similar to that of the second embodiment is used as a moving object detection detection method by the video analysis unit 13.
In addition, the imaging target in the present embodiment is assumed to be a self-luminous object such as a liquid crystal tablet instead of the paper medium described in the first and second embodiments.
FIG. 9 is a diagram illustrating an example of a scene assumed in the third embodiment.
FIG. 9 shows an example in which the user holds the liquid crystal tablet 91 in the hand 92 and inserts it in the projection range of the projector 10 in parallel with the screen. The self-luminous object need not be limited to the liquid crystal tablet 91, and may be an organic EL or LED backlight, a display medium with a front light, or the like.
以下、本実施形態におけるプロジェクタ10の処理について、図10を用いて説明する。
図10は、実施形態3における処理の一例を示すフローチャートである。
S300からS306までの処理は、実施形態2で説明した図6のS200からS206までの処理と同様であるため説明を省略する。但し、対象物は、紙媒体の絵21ではなく液晶タブレット91を想定している。また、S304でモーション検知部17が検出する予め定められたジェスチャを、ユーザが液晶タブレットをつまむ動作等としてもよい。また、上述したように本実施形態では撮像対象として液晶タブレット91を想定しているため、S306で物体検出部16は、撮像対象を自発光物体と判定し、処理をS307に進める。なお、撮像対象が液晶タブレット91のような自発光物体でない場合、物体検出部16は、実施形態1で説明した図3のS107以降の処理を実行する。
S307で、映像出力部18は、深度情報分析方式で解析された前記矩形物体の大きさと、形状とに基づいて、矩形物体の周辺部に予め定められた広さの余白を足して矩形の部分黒表示を投射する投射データを作成する。これにより、映像出力部18は、液晶タブレット91のように自発光する撮像対象に対しては、黒色の投射表示を投射することで撮像環境を改善させることができる。
S308で、映像出力部18は、S307で作成した投射データが示す矩形黒表示を、元々のプレゼン内容を示す投射表示に合成する。
S309からS312までの処理は、実施形態2で説明した図6のS210からS213までの処理と同様であるため説明を省略する。
Hereinafter, the processing of the projector 10 in the present embodiment will be described with reference to FIG.
FIG. 10 is a flowchart illustrating an example of processing in the third embodiment.
The processing from S300 to S306 is the same as the processing from S200 to S206 of FIG. However, the object is assumed to be a liquid crystal tablet 91 rather than a paper medium picture 21. Further, the predetermined gesture detected by the motion detection unit 17 in S304 may be an operation of the user pinching the liquid crystal tablet or the like. Further, as described above, since the liquid crystal tablet 91 is assumed as the imaging target in the present embodiment, the object detection unit 16 determines that the imaging target is a self-luminous object in S306, and advances the processing to S307. When the imaging target is not a self-luminous object such as the liquid crystal tablet 91, the object detection unit 16 executes the processing after S107 in FIG. 3 described in the first embodiment.
In S307, the video output unit 18 adds a margin of a predetermined width to the periphery of the rectangular object based on the size and shape of the rectangular object analyzed by the depth information analysis method. Projection data for projecting a black display is created. Thereby, the video output unit 18 can improve the imaging environment by projecting a black projection display to an imaging target that emits light like the liquid crystal tablet 91.
In S308, the video output unit 18 synthesizes the rectangular black display indicated by the projection data created in S307 into a projection display indicating the original presentation content.
The processing from S309 to S312 is the same as the processing from S210 to S213 in FIG.
以上、本実施形態によれば、プロジェクタ10は、投射範囲に撮像対象が存在する場合、前記撮像対象が自発光するか否か、即ち、撮像対象の特性に応じて適切に部分的に投射表示(色)を変更することができる。これにより、プロジェクタ10は、眩しさによりユーザの目をくらませることなく、適切に撮像対象を撮像して視認性のよい撮像画像を投射することができる。 As described above, according to the present embodiment, when there is an imaging target in the projection range, the projector 10 appropriately displays a partial projection according to whether or not the imaging target self-lights, that is, the characteristics of the imaging target. (Color) can be changed. Thereby, the projector 10 can appropriately capture an image of the imaging target and project a captured image with good visibility without dizzying the user's eyes.
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
また、上述した各実施形態における動体検知の手法としては、背景差分方式や深度情報分析方式による手法を用いるものとしたが、動きベクトル解析方式等、動体を検出することができる手法であれば他の手法であってもよい。
<Other embodiments>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.
In addition, as a moving object detection method in each of the above-described embodiments, a method based on a background difference method or a depth information analysis method is used, but any method that can detect a moving object such as a motion vector analysis method may be used. It may be the method.
以上、上述した各実施形態によれば、撮像部を有するプロジェクタが撮像対象を適切に撮像するための技術を提供することができる。 As mentioned above, according to each embodiment mentioned above, the technique for the projector which has an imaging part to image an imaging target appropriately can be provided.
以上、本発明の好ましい形態について詳述したが、本実施形態は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 The preferred embodiment of the present invention has been described in detail above, but the present embodiment is not limited to the specific embodiment, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.
Claims (11)
前記プロジェクタの投射範囲に撮像対象が存在するか否かを判定する判定手段と、
前記判定手段で前記投射範囲に前記撮像対象が存在すると判定された場合、前記プロジェクタから投射される投射表示のうち前記撮像対象に投射される投射表示を変更する変更手段と、
前記変更手段で変更された投射表示が前記撮像対象に投射されている状態で、前記撮像部を介して前記撮像対象を撮像する撮像手段と、
を有するプロジェクタ。 A projector having an imaging unit,
Determination means for determining whether or not an imaging target exists in the projection range of the projector;
Changing means for changing the projection display projected to the imaging target among the projection displays projected from the projector when the determination means determines that the imaging target is present in the projection range;
An imaging unit that images the imaging target via the imaging unit in a state where the projection display changed by the changing unit is projected on the imaging target;
Projector.
前記判定手段は、前記取得手段で取得された前記撮像データの変化から前記動体の存在を検出した場合、前記動体を前記撮像対象と認識し、前記投射範囲に前記撮像対象が存在すると判定する請求項2記載のプロジェクタ。 It further has an acquisition means for acquiring the imaging data of the projection range at a predetermined interval via the imaging unit,
The said determination means recognizes the said moving body as the said imaging target, and determines with the said imaging target existing in the said projection range, when the presence of the said moving body is detected from the change of the said imaging data acquired by the said acquisition means. Item 3. The projector according to Item 2.
前記判定手段は、前記作成手段で作成された前記深度情報の変化から前記動体の存在を検出した場合、前記動体を前記撮像対象と認識し、前記投射範囲に前記撮像対象が存在すると判定する請求項2記載のプロジェクタ。 Further comprising creation means for creating depth information about the focus of the imaging unit in the projection range at predetermined intervals;
When the determination unit detects the presence of the moving object from the change in the depth information generated by the generation unit, the determination unit recognizes the moving object as the imaging target, and determines that the imaging target exists in the projection range. Item 3. The projector according to Item 2.
前記変更手段は、前記特定手段で特定された前記撮像対象の特性に応じて、前記プロジェクタから投射される投射表示のうち前記撮像対象に投射される投射表示を変更する請求項1乃至4何れか1項記載のプロジェクタ。 Based on the imaging data of the imaging target acquired through the imaging unit, further includes a specifying unit that specifies the characteristics of the imaging target,
The said change means changes the projection display projected on the said imaging target among the projection displays projected from the said projector according to the characteristic of the said imaging target specified by the said specification means. Item 1. The projector according to item 1.
前記変更手段は、前記特定手段で前記撮像対象が自発光しない特性であると特定された場合、前記プロジェクタから投射される投射表示のうち前記撮像対象に投射される投射表示を白色に変更する請求項5記載のプロジェクタ。 The specifying unit specifies the characteristics of the imaging target based on luminance information of the imaging target acquired from the imaging data and reflection model information stored in advance,
The said change means changes the projection display projected on the said imaging target in white among the projection displays projected from the said projector, when the said imaging means specifies that the said imaging target is a characteristic which does not self-light-emit. Item 6. The projector according to Item 5.
前記変更手段は、前記特定手段で前記撮像対象が自発光する特性であると特定された場合、前記プロジェクタから投射される投射表示のうち前記撮像対象に投射される投射表示を黒色に変更する請求項5記載のプロジェクタ。 The specifying unit specifies the characteristics of the imaging target based on luminance information of the imaging target acquired from the imaging data and reflection model information stored in advance,
The said changing means changes the projection display projected on the said imaging target to black among the projection displays projected from the said projector, when the said imaging | photography target is specified as the characteristic which self-light-emitting by the said specific means. Item 6. The projector according to Item 5.
前記プロジェクタの投射範囲に撮像対象が存在するか否かを判定する判定ステップと、
前記判定ステップで前記投射範囲に前記撮像対象が存在すると判定された場合、前記プロジェクタから投射される投射表示のうち前記撮像対象に投射される投射表示を変更する変更ステップと、
前記変更ステップで変更された投射表示が前記撮像対象に投射されている状態で、前記撮像部を介して前記撮像対象を撮像する撮像ステップと、
を含む情報処理方法。 An information processing method executed by a projector having an imaging unit,
A determination step of determining whether or not an imaging target exists in the projection range of the projector;
When it is determined in the determination step that the imaging target is present in the projection range, a change step of changing the projection display projected on the imaging target among the projection displays projected from the projector;
An imaging step of imaging the imaging target via the imaging unit in a state where the projection display changed in the changing step is projected on the imaging target;
An information processing method including:
前記コンピュータの投射範囲に撮像対象が存在するか否かを判定する判定ステップと、
前記判定ステップで前記投射範囲に前記撮像対象が存在すると判定された場合、前記コンピュータから投射される投射表示のうち前記撮像対象に投射される投射表示を変更する変更ステップと、
前記変更ステップで変更された投射表示が前記撮像対象に投射されている状態で、前記撮像部を介して前記撮像対象を撮像する撮像ステップと、
を実行させるためのプログラム。 To a computer having an imaging unit,
A determination step of determining whether or not an imaging target exists in the projection range of the computer;
When it is determined in the determination step that the imaging target is present in the projection range, a change step of changing the projection display projected on the imaging target among the projection displays projected from the computer;
An imaging step of imaging the imaging target via the imaging unit in a state where the projection display changed in the changing step is projected on the imaging target;
A program for running
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013267772A JP2015126281A (en) | 2013-12-25 | 2013-12-25 | Projector, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013267772A JP2015126281A (en) | 2013-12-25 | 2013-12-25 | Projector, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015126281A true JP2015126281A (en) | 2015-07-06 |
Family
ID=53536738
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013267772A Pending JP2015126281A (en) | 2013-12-25 | 2013-12-25 | Projector, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015126281A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016006484A (en) * | 2014-05-29 | 2016-01-14 | パナソニックIpマネジメント株式会社 | Projector system |
WO2019167527A1 (en) * | 2018-02-28 | 2019-09-06 | 富士フイルム株式会社 | Projection control device, projection device, projection control method, and projection control program |
-
2013
- 2013-12-25 JP JP2013267772A patent/JP2015126281A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016006484A (en) * | 2014-05-29 | 2016-01-14 | パナソニックIpマネジメント株式会社 | Projector system |
WO2019167527A1 (en) * | 2018-02-28 | 2019-09-06 | 富士フイルム株式会社 | Projection control device, projection device, projection control method, and projection control program |
JPWO2019167527A1 (en) * | 2018-02-28 | 2020-12-10 | 富士フイルム株式会社 | Projection control device, projection device, projection control method, and projection control program |
JP7062751B2 (en) | 2018-02-28 | 2022-05-06 | 富士フイルム株式会社 | Projection control device, projection device, projection control method, and projection control program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9609206B2 (en) | Image processing apparatus, method for controlling image processing apparatus and storage medium | |
JP6240609B2 (en) | Vision-based interactive projection system | |
CN105744175B (en) | A kind of screen light compensation method, device and mobile terminal | |
JP6406606B2 (en) | Gloss determination apparatus and gloss determination method | |
KR20170106325A (en) | Method and apparatus for multiple technology depth map acquisition and fusion | |
CN106604005B (en) | A kind of projection TV Atomatic focusing method and system | |
WO2019047985A1 (en) | Image processing method and device, electronic device, and computer-readable storage medium | |
US9380206B2 (en) | Image processing apparatus that combines images | |
US10354413B2 (en) | Detection system and picture filtering method thereof | |
US9298246B2 (en) | Information processing device, system, and information processing method | |
JP2011244046A (en) | Imaging apparatus, image processing method, and program storage medium | |
WO2011158463A1 (en) | External light glare assessment device, line of sight detection device and external light glare assessment method | |
JP5725194B2 (en) | Night scene image blur detection system | |
CN110572636B (en) | Camera contamination detection method and device, storage medium and electronic equipment | |
JP5994301B2 (en) | Image processing apparatus, information processing apparatus, method, program, and recording medium | |
JP2014186505A (en) | Visual line detection device and imaging device | |
CN105744173B (en) | A kind of method, device and mobile terminal of differentiation image front and back scene area | |
US10803625B2 (en) | Detection system and picturing filtering method thereof | |
US10733706B2 (en) | Mobile device, and image processing method for mobile device | |
JP2015126281A (en) | Projector, information processing method, and program | |
JP2017009909A (en) | Projection type video display system, projection type video display device, and projection correction method | |
JP2011043545A (en) | Image display device | |
WO2023001373A1 (en) | Device and method for processing image data | |
KR101444207B1 (en) | Uneven pattern image acquisition apparatus and method | |
JP5924577B2 (en) | Position detection device |