JP5258399B2 - Image projection apparatus and control method thereof - Google Patents
Image projection apparatus and control method thereof Download PDFInfo
- Publication number
- JP5258399B2 JP5258399B2 JP2008149759A JP2008149759A JP5258399B2 JP 5258399 B2 JP5258399 B2 JP 5258399B2 JP 2008149759 A JP2008149759 A JP 2008149759A JP 2008149759 A JP2008149759 A JP 2008149759A JP 5258399 B2 JP5258399 B2 JP 5258399B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- projection
- size
- projected
- display position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、画像とともにユーザインタフェース画像を投影面に投影する画像投影技術に関する。 The present invention relates to an image projection technique for projecting a user interface image together with an image onto a projection plane.
従来、プロジェクタなどの画像投影装置とカメラなどの撮像装置とを利用してコンピュータの操作を行うシステムが提案されている(例えば、特許文献1参照)。このシステムでは、ユーザの机上での動作をカメラで撮影し、撮影した画像を画像処理することによってユーザの手・指先の位置を検出する。ここで検出したユーザの手・指先の位置を利用して、ユーザによる机上に置かれたバーコード指示などを認識し、そのバーコードに関連した画像などを机上に投影する。 Conventionally, a system for operating a computer using an image projection apparatus such as a projector and an imaging apparatus such as a camera has been proposed (see, for example, Patent Document 1). In this system, an operation on a user's desk is photographed by a camera, and the position of the user's hand / fingertip is detected by performing image processing on the photographed image. The user's hand / fingertip position detected here is used to recognize a barcode instruction or the like placed on the desk by the user, and an image related to the barcode is projected on the desk.
また、画像投影装置の設定メニューの操作を、投影された画像上で行うことができる装置が提案されている(例えば、特許文献2参照)。
しかしながら、上記特許文献2に記載の技術では投影画像(投影画面)のサイズに関係なく、メニューや操作アイコンなどの表示位置や方向は固定されている。このため、投影画像のサイズによってはユーザによる操作が困難になる場合があるという問題があった。例えば、投影画像のサイズが20インチの場合と同じ位置、サイズで100インチの投影画面にメニューを表示すると、ユーザより高い位置にメニューが表示されてしまう。このため、ユーザが手でメニューを選択するためには手を上方に無理に伸ばす必要が生じたり、メニューの近くまで大きく移動する必要がある。 However, in the technique described in Patent Document 2, the display position and direction of menus and operation icons are fixed regardless of the size of the projection image (projection screen). For this reason, there has been a problem that operation by the user may be difficult depending on the size of the projected image. For example, when a menu is displayed on a projection screen having the same position and size as that of a projected image of 20 inches, the menu is displayed at a position higher than the user. For this reason, in order for the user to select a menu with his / her hand, it is necessary to forcibly extend his / her hand upward, or it is necessary to move to the vicinity of the menu.
本発明は、上記課題に鑑みてなされ、投影画像のサイズやユーザの手の大きさに応じて操作メニューの表示位置やサイズを決定することで、操作メニューの視認性や操作性を向上できる画像投影技術を実現する。 The present invention has been made in view of the above problems, and can determine the visibility and operability of the operation menu by determining the display position and size of the operation menu according to the size of the projection image and the size of the user's hand. Realize projection technology.
上述の課題を解決するために、本発明の画像投影装置は、操作用の画像を投影面に投影する投影手段と、前記投影手段により前記投影面に投影される画像の領域に存在する所定の操作物体に関する情報を検出する物体検出手段と、前記物体検出手段により検出された前記操作物体に関する情報に基づいて操作を検出する操作検出手段と、前記投影手段により投影される画像の前記投影面での画面サイズに応じて、前記投影面に投影する前記操作用の画像の表示位置及びサイズの少なくとも一方を決定し、前記決定した前記表示位置及びサイズの少なくとも一方に基づいて前記投影手段により投影される前記操作用の画像の表示位置及びサイズの少なくとも一方を制御する制御手段と、を有する。 In order to solve the above-described problem, an image projection apparatus according to the present invention includes a projection unit that projects an operation image on a projection plane, and a predetermined area existing in an area of the image projected on the projection plane by the projection unit . and object detecting means for detecting information on the operation object, an operation detection unit for detecting an operation based on information about the detected the operation object has been by the object detecting means, in the projection plane of the image projected by the projection means In accordance with the screen size, at least one of the display position and size of the operation image to be projected on the projection plane is determined, and is projected by the projection unit based on the determined at least one of the display position and size. Control means for controlling at least one of a display position and a size of the operation image.
また、本発明の画像投影装置は、操作用の画像を投影面に投影する投影手段と、前記投影面上に存在する所定の操作物体に関する情報を検出する物体検出手段と、前記物体検出手段により検出された前記操作物体に関する情報に基づいて操作を検出する操作検出手段と、前記物体検出手段により検出された前記操作物体のサイズに応じて、前記投影面に投影する前記操作用の画像の表示位置及びサイズの少なくとも一方を決定し、前記決定した前記表示位置及びサイズの少なくとも一方に基づいて前記投影手段により投影される前記操作用の画像の表示位置及びサイズの少なくとも一方を制御する制御手段と、を有する。 The image projection apparatus according to the present invention includes a projection unit that projects an operation image on a projection plane, an object detection unit that detects information about a predetermined operation object existing on the projection plane, and the object detection unit. Operation detection means for detecting an operation based on the detected information on the operation object, and display of the operation image to be projected on the projection plane according to the size of the operation object detected by the object detection means Control means for determining at least one of position and size and controlling at least one of the display position and size of the operation image projected by the projection means based on the determined at least one of the display position and size ; Have.
また、本発明の画像投影装置の制御方法は、操作用の画像を投影面に投影する投影手段を有する画像投影装置の制御方法であって、前記投影面に投影される画像の領域に存在する所定の操作物体に関する情報を検出する物体検出工程と、前記物体検出工程により検出された前記操作物体に関する情報に基づいて操作を検出する操作検出工程と、前記投影手段により投影される画像の前記投影面での画面サイズに応じて、前記投影面に投影する前記操作用の画像の表示位置及びサイズの少なくとも一方を決定し、前記決定した前記表示位置及びサイズの少なくとも一方に基づいて前記投影手段により投影される前記操作用の画像の表示位置及びサイズの少なくとも一方を制御する制御工程と、を有する。 According to another aspect of the present invention, there is provided a control method for an image projection apparatus having projection means for projecting an operation image onto a projection plane, wherein the image projection apparatus is present in a region of an image projected on the projection plane. an object detection step of detecting information on a predetermined operation object, an operation detection step of detecting an operation based on information about the detected the operation object has been by the object detection step, the projection of the image projected by the projection means In accordance with the screen size on the screen , at least one of the display position and the size of the operation image to be projected onto the projection surface is determined, and based on the determined at least one of the display position and the size, the projection unit A control step of controlling at least one of a display position and a size of the operation image to be projected.
また、本発明の画像投影装置の制御方法は、操作用の画像を投影面に投影する投影手段を有する画像投影装置の制御方法であって、前記投影面上に存在する所定の操作物体に関する情報を検出する物体検出工程と、前記物体検出工程により検出された前記操作物体に関する情報に基づいて操作を検出する操作検出工程と、前記物体検出工程により検出された前記操作物体のサイズに応じて、前記投影面に投影する前記操作用の画像の表示位置及びサイズの少なくとも一方を決定し、前記決定した前記表示位置及びサイズの少なくとも一方に基づいて前記投影手段により投影される前記操作用の画像の表示位置及びサイズの少なくとも一方を制御する制御工程と、を有する。 According to another aspect of the present invention, there is provided a control method for an image projection apparatus including a projection unit that projects an operation image onto a projection plane, and information relating to a predetermined manipulation object existing on the projection plane. In accordance with the object detection step for detecting the operation, the operation detection step for detecting an operation based on the information on the operation object detected by the object detection step , and the size of the operation object detected by the object detection step, At least one of a display position and a size of the operation image to be projected on the projection plane is determined, and the operation image projected by the projection unit based on at least one of the determined display position and size is determined. And a control step for controlling at least one of the display position and the size .
本発明によれば、投影画像のサイズやユーザの手の大きさに応じて、操作メニューの表示位置やサイズを決定することで、操作メニューの視認性や操作性が向上する。 According to the present invention, the visibility and operability of the operation menu are improved by determining the display position and size of the operation menu according to the size of the projection image and the size of the user's hand.
以下に、添付図面を参照して本発明を実施するための最良の形態について詳細に説明する。 The best mode for carrying out the present invention will be described below in detail with reference to the accompanying drawings.
尚、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。 The embodiment described below is an example as means for realizing the present invention, and should be appropriately modified or changed according to the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.
[第1の実施形態]
先ず、第1の実施形態として、投影画像のサイズに応じて操作メニューの表示位置及びサイズの少なくともいずれかを決定する装置について説明する。
[First Embodiment]
First, as a first embodiment, an apparatus that determines at least one of the display position and size of an operation menu according to the size of a projection image will be described.
図1は、本発明に係る第1の実施形態の画像投影装置の概略構成を示すブロック図である。 FIG. 1 is a block diagram showing a schematic configuration of an image projection apparatus according to a first embodiment of the present invention.
図1に示す画像投影装置10において、投影部100は、光源、レンズ、表示デバイス等を含み、投影画像生成部101から供給される画像を投影する。投影画像生成部101は、メモリカード等の記憶媒体102に記憶された画像データから、投影画像を生成し、投影部100に供給する。システム制御部103は例えばCPU、ROM及びRAMを含むマイクロプロセッサであり、CPUがROMに記憶されたプログラムをRAMに読出して実行することにより、画像投影装置10の動作を制御する。
In the
撮像部104は例えば動画像を撮影可能なカメラであり、CCDイメージセンサやCMOSイメージセンサのような撮像素子と、撮像素子に光学被写体像を結像するためのレンズを含む。なお、本実施形態において、撮像部104は赤外光領域のみを撮影可能な赤外線カメラであるものとする。また、本実施形態において撮像部104の撮像範囲は投影部100の投影範囲を包含する範囲であるものとする。撮像部104は、撮像画像を手領域検出部105へ供給する。
The
手領域検出部105は、撮像部104から供給される撮像画像から、予め定められた特定の被写体の一例として、人間の手、具体的には人間の手と判別される画像領域(手領域)を検出する。手領域検出部105により検出された手領域に関する情報(手の大きさなど)は、ユーザ操作検出部106及びメニュー表示制御部107へ与えられる。
The hand
ユーザ操作検出部106は、手領域に関する情報に基づいて、ユーザの操作を検出する。投影画像サイズ判定部110は、投影部100により投影される画像サイズを判定し、判定結果をメニュー表示制御部107へ出力する。メニュー表示制御部107は、投影画像のサイズと手領域に関する情報に基づいてユーザインタフェース画像としてのメニュー表示を制御する。
The user
図2は、図1に示した画像投影装置による画像の投影と撮像の様子を模式的に示す図である。 FIG. 2 is a diagram schematically showing how an image is projected and captured by the image projection apparatus shown in FIG.
図2に示す例では、投影面210は机又はテーブルで形成される水平面であり、投影面210上に投影画像211が投影された状態を示している。なお、投影面210はユーザの使用環境に応じて壁などでもよい。
In the example shown in FIG. 2, the
撮像部104は投影された投影画像211を含む領域を撮像するものとする。投影画像のサイズは投影面210との距離や投影部100のズーム状態によって変化する。そのため、撮像部104は撮像画像中における投影画像211の領域の割合が常に同じになるように画角を変更する。具体的には、投影画像のサイズが小さい場合は望遠側で撮影し、投影画像のサイズが大きい場合は広角側で撮像することで撮像画像と投影画像との関係を一定に保持する。さらに、図示していないが、ユーザは投影画像211の領域に手を挿入することで装置10の操作が可能である。
The
(画像投影動作)
再度図1を参照して、本実施形態の画像投影装置の画像投影動作について説明する。
(Image projection operation)
With reference to FIG. 1 again, the image projecting operation of the image projecting device of the present embodiment will be described.
記憶媒体102には複数の画像データが記録されている。システム制御部103は記憶媒体102に記録された複数の画像データのいずれかを指定し、投影画像生成部101へ読み出し要求を出す。投影画像生成部101は指定された画像データを記憶媒体102から読み出し、例えば画像データが符号化されていれば復号化処理を行うなど、投影部100に表示するための画像データ(表示用画像データ)を生成する処理を行う。表示用画像データは投影部100に供給され、投影部100は表示用画像データに基づく画像を投影する。
A plurality of image data is recorded in the
なお、投影する画像は、例えば記憶媒体102に記憶されている複数の画像データの中からユーザが指定しても良い。この指定は基本ソフトが提供するファイルブラウザを用いるなど、周知の任意の方法を用いて行いうる。
Note that the image to be projected may be designated by the user from among a plurality of image data stored in the
(ユーザ操作検出動作)
次に、本実施形態の画像投影装置におけるユーザ操作の検出動作について説明する。
(User operation detection operation)
Next, a detection operation of a user operation in the image projection apparatus of this embodiment will be described.
上述のように、撮像部104は赤外光領域のみを撮影可能な赤外線カメラであり、投影範囲、すなわち投影画像を含む投影面上の領域を撮像する。撮像部104は、1秒当たりnフレームの画像を撮影し、撮像により得られた画像データを、例えばフレーム単位で手領域検出部105に出力する。ここで、nは1以上の整数であればよいが、10〜30程度が望ましい。
As described above, the
手領域検出部105では、撮像部104から供給される画像データから、予め定められた被写体に対応する領域、ここでは一例としてユーザの手に対応する領域(手領域)を検出する。図3(a)は投影面300上の投影画像301にユーザが手302をかざした(挿入した)状態の例を示す。
The hand
手領域検出部105は例えば特許文献1と同様の方法により、赤外線画像からユーザの手領域を抽出することができる。具体的には、撮像部104は赤外線カメラであるため、ユーザの手領域からの放射光を測定し、温度が所定の範囲(人間の体温の近傍である30℃〜34℃程度)にある被写体だけを抽出する。そのため、撮像画像にはユーザの手領域のみが写る。手領域検出部105は、撮像部104から供給される撮影画像データに対して、ノイズ除去処理などを行った後、手領域および手の指先位置をパターンマッチングにより検出する。図3(b)は図3(a)の状態で撮像部104が撮像した画像310から検出された手領域311と指先位置320〜324を示している。
The hand
手領域検出部105は、検出した手領域に関する情報として、例えば手領域の範囲を示す情報と指先位置を示す情報とを、ユーザ操作検出部106及びメニュー表示制御部107に出力する。
The hand
(投影画像サイズ判定動作)
再度図1を参照して、本実施形態の画像投影装置における投影画像サイズの判定動作について説明する。
(Projected image size judgment operation)
With reference to FIG. 1 again, the projection image size determination operation in the image projection apparatus of this embodiment will be described.
投影画像サイズ判定部110は、投影部100から光学系のズームおよびフォーカス情報を取得する。そして、ズームおよびフォーカス状態に対応した投影画像サイズを算出する。ズームおよびフォーカス状態と投影サイズの関係は予めテーブル情報として保持しているものとする。ここでは、投影画像サイズとしては大、中、小の3種類を判定するものとする。
The projection image
投影画像サイズ判定部110により判定された投影画像サイズ情報は、メニュー表示制御部107へ出力される。また、手領域検出部105による手領域の検出結果もメニュー表示制御部107へ出力される。
The projection image size information determined by the projection image
(メニュー表示制御)
次に、図4のフローを参照して、本実施形態のメニューの表示制御動作について説明する。
(Menu display control)
Next, the menu display control operation of the present embodiment will be described with reference to the flow of FIG.
図4は、本実施形態のメニュー表示制御部107による動作を示すフローチャートである。なお、メニュー表示制御部107において制御されるメニューとは、ユーザによる操作を受け付ける操作メニューを示している。
FIG. 4 is a flowchart showing the operation of the menu
図4において、S401では、手領域検出部105による手領域の検出結果に基づいて、手が投影画像中に一定時間以上挿入されているか判定する。ここで、手が一定時間以上挿入されている場合は、メニューを表示するためS402へ進み、手が挿入されていない又は手が挿入されてから一定時間経過していない場合は、メニューを表示しないので、本処理を終了する。
In FIG. 4, in S401, based on the detection result of the hand region by the hand
S402では、投影画像のサイズに応じてメニューの表示位置およびサイズを決定する。図5は投影画像サイズとメニューの表示位置およびサイズとの関係を例示している。図5において、(a)は投影画像サイズが小(20インチ以下)のとき、(b)は投影画像サイズが中(20〜80インチ)のとき、(c)は投影画像サイズが大(100インチ)のときの各操作メニュー501〜503を例示している。
In S402, the display position and size of the menu are determined according to the size of the projection image. FIG. 5 illustrates the relationship between the projected image size and the menu display position and size. 5A, when the projection image size is small (20 inches or less), FIG. 5B is when the projection image size is medium (20 to 80 inches), and FIG. 5C is the projection image size is large (100). The
ここで、投影画像サイズに応じてメニューの表示位置やサイズを決定する理由について説明する。先ず、メニューのサイズに関しては、投影画像サイズが小さくなる程、相対的にユーザの手のサイズは大きくなる。そのため、投影画像サイズが小さくなる程、メニューの表示サイズを大きくしてユーザが手で選択しやすくなるように制御する。 Here, the reason for determining the display position and size of the menu according to the projection image size will be described. First, regarding the menu size, the smaller the projected image size, the larger the user's hand size. Therefore, the smaller the projected image size is, the larger the menu display size is controlled so that the user can easily select it by hand.
また、メニューの表示位置に関しては、投影画像サイズが小さいときには、投影面として机や壁が考えられる。また、投影画像サイズが小さいため、ユーザは投影画像中のどこにでも手を伸ばしてメニューを操作することが可能である。そのため、図5(a)に示すように投影画像の中心部を含む画面全体を使ってメニューを表示する。 As for the display position of the menu, a desk or a wall can be considered as the projection plane when the projection image size is small. Further, since the projected image size is small, the user can operate the menu by extending his hand anywhere in the projected image. Therefore, as shown in FIG. 5A, the menu is displayed using the entire screen including the center of the projected image.
一方、投影画像サイズが100インチなど大きくなった場合には壁への投影が主となると考えられる。壁に投影した際にメニューを図5(a)のように投影画像の上方に表示してしまうとユーザの手が届きにくいなど操作し難い状況が生じてしまう。そこで、投影画像サイズが大きい場合には、図5(c)のように、ユーザの位置に近いと考えられる投影画像の側方(右端)かつ下方にメニューを表示する(図5(c)では右下部に表示)。図5(b)は図5(a)と(c)の中間状態であり、投影画面の中央部にはメニューを表示せずに画面の側方(右端)に表示している。 On the other hand, when the projection image size becomes large, such as 100 inches, it is considered that the projection onto the wall is mainly performed. If the menu is displayed above the projected image as shown in FIG. 5A when projected onto the wall, a situation in which it is difficult for the user to reach, such as being difficult for the user to reach, occurs. Therefore, when the projection image size is large, as shown in FIG. 5C, a menu is displayed on the side (right end) and below the projection image considered to be close to the position of the user (in FIG. 5C). (Displayed in the lower right). FIG. 5B is an intermediate state between FIGS. 5A and 5C, and the menu is not displayed at the center of the projection screen but is displayed on the side (right end) of the screen.
図4に戻り、S403では、メニュー画像を投影画像に重畳して表示するための要求をシステム制御部103へ送出する。また、S402で決定されたメニューの表示位置およびサイズに関する情報もシステム制御部103へ送出する。
Returning to FIG. 4, in step S <b> 403, a request for displaying the menu image superimposed on the projection image is sent to the
システム制御部103は、メニュー表示制御部107からのメニュー表示要求を受けると、メニューの表示位置およびサイズに関する情報を投影画像生成部101に送出する。投影画像生成部101は、メニュー表示位置およびサイズに関する情報に基づいて、記憶媒体102からの画像上の、メニュー表示位置に対応する位置にメニュー画像を重畳合成して表示用画像データを生成し、投影部100へ出力する。これにより、投影部100からは、メニューが重畳された画像が投影される。
Upon receiving a menu display request from the menu
メニュー表示結果の例を図6に示す。図6(a)はユーザの手が投影画像601上に挿入されておらず、投影画像が記憶媒体102から読み出された画像だけで構成されている状態を示す。図6(b)はユーザの手が投影画像601上に一定時間挿入され、投影画像601には、投影画像のサイズに応じた表示位置にメニュー602が重畳されている状態を示す。
An example of the menu display result is shown in FIG. FIG. 6A shows a state in which the user's hand is not inserted on the projected
ユーザ操作検出部106は、手領域検出部105からの手領域に関する情報に基づいてユーザの指示動作を検出し、検出した指示動作の情報をシステム制御部103へ出力する。ユーザの指示動作とは例えば図6(c)に示すようなユーザの手による指差し動作である。指差し動作は、例えば指先位置情報の数が1つであることや、手領域の形状の特徴などに基づいて検出することができる。ユーザ操作検出部106はユーザの指差し動作を検出すると、指先位置情報をシステム制御部103へ出力する。
The user
システム制御部103は、表示したメニューの項目に対し、ユーザの指示動作が所定時間以上続いているかを判定する。即ち、図6(c)に示すように、メニュー602に含まれるボタンの領域内に指先位置が所定時間以上存在し続けているか判定する。所定時間以上にわたって指先位置がメニュー項目の領域内に存在し続けていると判定される場合、システム制御部103は、そのメニュー項目をユーザが操作していると判定し、メニュー項目に応じた動作を行う。
The
図6(c)の例は、メニュー602に含まれるボタン603の領域に、指先位置604が所定時間以上存在している状態を示している。この場合、システム制御部103は、ボタン603が操作されたものと判定し、ボタン603に応じた動作を行う。
The example of FIG. 6C shows a state where the
例えば、ボタン603が投影画像を記憶媒体102に記憶された次の画像に切り替えるボタンであるとすると、システム制御部103は、投影画像生成部101を制御して、次の画像を読み出させ、メニュー602を重畳させた表示用画像データを生成させる。この結果、投影画像が例えば図6(d)に示すように切り替わる。
For example, if the
なお、メニュー項目が操作されたものと判定されたことを、音声等によりユーザに知らせてもよい。それにより、ユーザは、いつまでもメニュー項目を指し続ける必要がなく、使い勝手がよい。 The user may be notified by voice or the like that it is determined that the menu item has been operated. Thereby, the user does not have to keep pointing to the menu item indefinitely, which is easy to use.
また、メニューを表示した後、撮影した画像中に手の画像を一定時間継続して検出しなかった場合、メニューの表示を停止する。 In addition, after the menu is displayed, if the hand image is not continuously detected in the photographed image for a certain period of time, the menu display is stopped.
以上説明したように、本実施形態によれば、投影画像のサイズに応じて操作メニューの表示位置及びサイズの少なくともいずれかを決定することで、投影画像に重畳されたメニューの視認性や操作性を向上することができる。 As described above, according to the present embodiment, the visibility and operability of the menu superimposed on the projected image are determined by determining at least one of the display position and size of the operation menu according to the size of the projected image. Can be improved.
本例では投影画像のサイズは投影部100のズームおよびフォーカス情報から判定したが、本発明はこれに限定するものではない。例えば、投影面との距離が測定可能な測距センサなどの距離検出手段を設け、投影面との距離とズーム情報から投影画像サイズを判定する構成としてもよい。
In this example, the size of the projection image is determined from the zoom and focus information of the
また、上記例では投影画像サイズとして大、中、小の3段階に分けた例について説明したが、これに限定するものではなく、2段階や、4段階以上を判定するように構成してもよい。 In the above example, the example in which the projection image size is divided into three stages of large, medium, and small has been described. However, the present invention is not limited to this, and it may be configured to determine two stages or four or more stages. Good.
[第2の実施形態]
次に、第2の実施形態として、ユーザの手領域のサイズに応じて操作メニューの表示位置及びサイズの少なくともいずれかを決定する装置について説明する。
[Second Embodiment]
Next, as a second embodiment, an apparatus for determining at least one of the display position and size of the operation menu according to the size of the user's hand area will be described.
図7は、第2の実施形態の画像投影装置の概略構成を示すブロック図であり、図1と同じ構成には同一の符号を付して示している。 FIG. 7 is a block diagram illustrating a schematic configuration of the image projection apparatus according to the second embodiment. The same components as those in FIG. 1 are denoted by the same reference numerals.
図7では、図1の構成から投影画像サイズ判定部110が削除され、手のサイズ判定部710が追加されている。また、後述するようにメニュー表示制御部107は、手のサイズ判定部710による判定結果に基づいてメニューの表示位置やサイズを決定する。なお、図7の100〜106の動作については第1の実施形態と同様であるため、ここでの説明は省略する。
In FIG. 7, the projection image
さて、図7において、手のサイズ判定部710は、手領域検出部105により検出された手領域に関する情報を取得し、手領域のサイズを判定する。具体的には、手の重心位置を算出し手の中心位置と指先位置との距離を算出する。図8は手のサイズ判定部における処理を示している。
In FIG. 7, the hand
図8において、800は手領域、801は手の重心位置、802は手の重心位置801から最も遠い距離にある指先位置である。手のサイズ判定部710は手の重心位置801と指先位置802との距離を算出する。そして、算出した距離と予め決められた閾値とを比較して手領域のサイズを大、中、小のいずれかと判定する。具体的には、算出した距離が長いほど手領域のサイズが大きいと判定し、距離が短いほど手領域のサイズが小さいと判定する。
In FIG. 8,
手のサイズ判定部710は、手領域のサイズ情報をメニュー表示制御部107に出力する。
The hand
(メニュー表示制御)
次に、図9のフローを参照して、本実施形態のメニューの表示制御動作について説明する。
(Menu display control)
Next, the menu display control operation of this embodiment will be described with reference to the flow of FIG.
図9は、本実施形態のメニュー表示制御部による動作を示すフローチャートである。 FIG. 9 is a flowchart showing the operation of the menu display control unit of the present embodiment.
図9において、S901では、手領域検出部105による手領域の検出結果に基づいて、手が投影画像中に一定時間以上挿入されているか判定する。ここでの処理は図4のS401と同様である。ここで、手が一定時間以上挿入されている場合は、メニューを表示するためS902へ進み、手が挿入されていない又は手が挿入されてから一定時間経過していない場合は、メニューを表示しないので、本処理を終了する。
In FIG. 9, in S901, based on the detection result of the hand region by the hand
S902では、手のサイズ判定部710により判定された手領域のサイズに応じてメニューの表示位置およびサイズを決定する。図10は手領域のサイズとメニューの表示位置およびサイズとの関係を例示している。図10において、(a)は手領域1011のサイズが大のとき、(b)は手領域1012のサイズが中のとき、(c)は手領域のサイズ1013が小のときの各操作メニュー1001〜1003を例示している。
In step S902, the display position and size of the menu are determined according to the size of the hand area determined by the hand
先に述べたように撮像部104は投影画像のサイズが変化した場合に、投影画像を全て含む領域を撮影するために画角を変更する。そのため、投影画像のサイズが大きくなる程、撮影される手領域のサイズは相対的に小さくなり、投影画像のサイズが小さくなる程、撮影される手領域のサイズは相対的に大きくなる。
As described above, when the size of the projection image changes, the
ここで、手領域のサイズに応じて操作メニューの表示位置やサイズを決定する理由について説明する。先ず、手領域のサイズに関しては、手領域のサイズが大きい場合、メニューを小さく表示すると手での選択操作が難くなる。そこで、手領域のサイズが大きくなる程、メニューの表示サイズを大きくしてユーザが手で選択しやすくなるように制御する。 Here, the reason for determining the display position and size of the operation menu according to the size of the hand area will be described. First, regarding the size of the hand area, if the size of the hand area is large, the selection operation by hand becomes difficult if the menu is displayed small. Therefore, as the size of the hand area increases, the display size of the menu is increased so that the user can easily select by hand.
また、メニューの表示位置に関しては、手領域のサイズが大きいときには、投影画像が小さい場合であって投影面として机や壁が考えられる。また、投影画像サイズが小さいため、ユーザは投影画像中のどこにでも手を伸ばしてメニューを操作することが可能である。そのため、図10(a)に示すように投影画像の中心部を含む全体を使ってメニューを表示する。 Regarding the display position of the menu, when the size of the hand area is large, the projection image is small, and a desk or a wall can be considered as the projection plane. Further, since the projected image size is small, the user can operate the menu by extending his hand anywhere in the projected image. Therefore, as shown in FIG. 10A, the menu is displayed using the whole including the central portion of the projection image.
一方、手領域のサイズが小さくなった場合は、第1の実施形態における投影画像サイズが大きくなったときに相当すると考えられる。そこで、第1の実施形態の投影画像サイズが大きいときと同様に、図10(c)のように、ユーザの位置に近いと考えられる投影画像の左右の下方にメニューを表示する。図10(b)は図10(a)と(c)の中間状態である。 On the other hand, the case where the size of the hand region is reduced is considered to correspond to the case where the projection image size in the first embodiment is increased. Therefore, as in the case where the projection image size of the first embodiment is large, a menu is displayed below the left and right sides of the projection image considered to be close to the user's position as shown in FIG. FIG.10 (b) is an intermediate state of Fig.10 (a) and (c).
図9に戻り、S903では、メニュー画像を投影画像に重畳して表示するための要求をシステム制御部103へ送出する。また、S902で決定されたメニューの表示位置およびサイズに関する情報もシステム制御部103へ送出する。
Returning to FIG. 9, in S <b> 903, a request for displaying the menu image superimposed on the projection image is sent to the
システム制御部103は、メニュー表示制御部107からのメニュー表示要求を受けると、メニューの表示位置およびサイズに関する情報を投影画像生成部101に送出する。投影画像生成部101は、メニュー表示位置およびサイズに関する情報に基づいて、記憶媒体102からの画像上の、メニュー表示位置に対応する位置にメニュー画像を重畳合成して表示用画像データを生成し、投影部100へ出力する。これにより、投影部100からは、メニューが重畳された画像が投影される。
Upon receiving a menu display request from the menu
また、ユーザ操作を監視してメニューの選択操作などを受け付ける。これらの処理は第1の実施形態と同様である。 In addition, it monitors user operations and accepts menu selection operations and the like. These processes are the same as those in the first embodiment.
以上説明したように、本実施形態によれば、ユーザの手領域のサイズに応じて表示位置及びサイズの少なくともいずれかを決定することで、投影画像に重畳されたメニューの視認性や操作性を向上することができる。 As described above, according to the present embodiment, the visibility and operability of the menu superimposed on the projection image are determined by determining at least one of the display position and the size according to the size of the user's hand region. Can be improved.
本例では手領域のサイズは手の重心位置と指先位置との距離から判定したが、本発明はこれに限定するものではない。例えば、手領域の面積から手領域のサイズを判定する構成としてもよい。 In this example, the size of the hand region is determined from the distance between the center of gravity position of the hand and the fingertip position, but the present invention is not limited to this. For example, the size of the hand region may be determined from the area of the hand region.
また、上記例では手領域のサイズとして大、中、小の3段階に分けた例について説明したが、これに限定するものではなく、2段階や、4段階以上を判定するように構成してもよい。 Further, in the above example, the example in which the size of the hand region is divided into three stages of large, medium, and small has been described, but the present invention is not limited to this, and it is configured to determine two stages or four or more stages. Also good.
[他の実施形態]
上述の実施形態ではいずれも、メニューの操作に用いられる操作物体として、手を予め定められた被写体に設定し、撮像画像中で物体検出手段としての手領域検出部105で検出された手領域に関する情報に基づきメニュー表示を行う例に説明した。しかし、例えばユーザが直接手でメニューを操作しない場合であっても、本発明を適用可能である。例えば、ペンや指示棒などを用いてユーザがメニューの操作を行う場合には、手の代わりにペンや指示棒を特定の被写体として検出するように構成すればよい。このように、本発明は本質的に、メニューを操作するために用いられる操作物体とその位置を検出できれば、操作物体の形状や位置の検出方法はどのようなものであっても良い。
[Other Embodiments]
In any of the above-described embodiments, the hand is set as a predetermined subject as an operation object used for the menu operation, and the hand region detected by the hand
従って、メニューを操作するために用いられる操作物体の検出に、投影画像を含む範囲を撮像した撮像画像を用いることも必須ではなく、他の任意の方法で検出することができる。例えば、ユーザの手に位置センサを取り付け、位置センサが検出する位置及びその変化に基づいて判定しても良い。この場合、撮像部104の代わりに位置センサを用い、手領域検出部105の代わりに位置センサの出力から位置を検出する位置検出部を設ける。
Therefore, it is not essential to use a captured image obtained by capturing a range including a projected image for detection of an operation object used for operating a menu, and it can be detected by any other method. For example, a position sensor may be attached to the user's hand, and determination may be made based on the position detected by the position sensor and its change. In this case, a position sensor is used instead of the
さらに、上記各実施形態では、撮像部104は赤外線カメラとしたが、可視光領域を撮像するカメラを用いることも可能である。この場合、手領域の検出は撮像画像中の肌色領域などを抜き出すことで可能である。
Furthermore, in each of the embodiments described above, the
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを格納した記憶媒体(又は記録媒体)をカメラに供給ことによっても達成されることは言うまでもない。この場合、カメラのコンピュータ(又はCPUやMPU)が記憶媒体からプログラムコードを読み出して実行することによって達成される。 It goes without saying that the object of the present invention can also be achieved by supplying a camera with a storage medium (or recording medium) storing software program codes for realizing the functions of the above-described embodiments. In this case, this is achieved by the camera computer (or CPU or MPU) reading the program code from the storage medium and executing it.
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したメニューの表示制御プログラムや各種テーブルが格納されることになる。これらのプログラムコードは、例えば、アップデート可能なファームウェアとしても提供可能である。 When the present invention is applied to the above storage medium, the storage medium stores the menu display control program and various tables described above. These program codes can be provided as firmware that can be updated, for example.
10 画像投影装置
100 投影部
101 投影画像生成部
102 記憶媒体
103 システム制御部
104 撮像部
105 手領域検出部
106 ユーザ操作検出部
107 メニュー表示制御部
110 投影画像サイズ判定部
710 手のサイズ判定部
DESCRIPTION OF
Claims (12)
前記投影手段により前記投影面に投影される画像の領域に存在する所定の操作物体に関する情報を検出する物体検出手段と、
前記物体検出手段により検出された前記操作物体に関する情報に基づいて操作を検出する操作検出手段と、
前記投影手段により投影される画像の前記投影面での画面サイズに応じて、前記投影面に投影する前記操作用の画像の表示位置及びサイズの少なくとも一方を決定し、前記決定した前記表示位置及びサイズの少なくとも一方に基づいて前記投影手段により投影される前記操作用の画像の表示位置及びサイズの少なくとも一方を制御する制御手段と、を有することを特徴とする画像投影装置。 Projection means for projecting an image for operation onto a projection plane;
And object detecting means for detecting information relating to a predetermined operation object existing in a region of an image projected on the projection surface by the projection means,
Operation detecting means for detecting an operation based on information on the operating object detected by the object detecting means;
According to the screen size in the projection plane of the image projected by the projection means, wherein determining at least one of the display position and the size of the image for the operation to be projected onto the projection plane, the display position and the determined An image projection apparatus comprising: control means for controlling at least one of a display position and a size of the operation image projected by the projection means based on at least one of the sizes.
前記投影手段により前記投影面に投影される画像の領域に存在する所定の操作物体に関する情報を検出する物体検出手段と、
前記物体検出手段により検出された前記操作物体に関する情報に基づいて操作を検出する操作検出手段と、
前記物体検出手段により検出された前記操作物体のサイズに応じて、前記投影面に投影する前記操作用の画像の表示位置及びサイズの少なくとも一方を決定し、前記決定した前記表示位置及びサイズの少なくとも一方に基づいて前記投影手段により投影される前記操作用の画像の表示位置及びサイズの少なくとも一方を制御する制御手段と、を有することを特徴とする画像投影装置。 Projection means for projecting an image for operation onto a projection plane;
And object detecting means for detecting information relating to a predetermined operation object existing in a region of an image projected on the projection surface by the projection means,
Operation detecting means for detecting an operation based on information on the operating object detected by the object detecting means;
According to the size of the operation object detected by the object detection means, at least one of the display position and size of the operation image projected on the projection plane is determined, and at least the determined display position and size An image projection apparatus comprising: a control unit configured to control at least one of a display position and a size of the operation image projected by the projection unit based on the one side.
前記投影手段は、前記記憶媒体から読み出された画像と前記操作用の画像とを重畳して投影し、前記記憶媒体から読み出された画像に重畳される前記操作用の画像の表示位置及びサイズの少なくとも一方を制御することを特徴とする請求項1から8のいずれか1項に記載の画像投影装置。 The projecting unit superimposes and projects the image read from the storage medium and the operation image, and displays a display position of the operation image superimposed on the image read from the storage medium; The image projection apparatus according to claim 1, wherein at least one of the sizes is controlled.
前記投影面に投影される画像の領域に存在する所定の操作物体に関する情報を検出する物体検出工程と、
前記物体検出工程により検出された前記操作物体に関する情報に基づいて操作を検出する操作検出工程と、
前記投影手段により投影される画像の前記投影面での画面サイズに応じて、前記投影面に投影する前記操作用の画像の表示位置及びサイズの少なくとも一方を決定し、前記決定した前記表示位置及びサイズの少なくとも一方に基づいて前記投影手段により投影される前記操作用の画像の表示位置及びサイズの少なくとも一方を制御する制御工程と、を有することを特徴とする画像投影装置の制御方法。 A control method for an image projection apparatus having a projection means for projecting an operation image onto a projection plane,
An object detection step of detecting information related to a predetermined operation object existing in a region of an image projected on the projection plane;
An operation detection step of detecting an operation based on information on the operation object detected by the object detection step;
According to the screen size in the projection plane of the image projected by the projection means, wherein determining at least one of the display position and the size of the image for the operation to be projected onto the projection plane, the display position and the determined And a control step of controlling at least one of a display position and a size of the operation image projected by the projection means based on at least one of the sizes.
前記投影面に投影される画像の領域に存在する所定の操作物体に関する情報を検出する物体検出工程と、
前記物体検出工程により検出された前記操作物体に関する情報に基づいて操作を検出する操作検出工程と、
前記物体検出工程により検出された前記操作物体のサイズに応じて、前記投影面に投影する前記操作用の画像の表示位置及びサイズの少なくとも一方を決定し、前記決定した前記表示位置及びサイズの少なくとも一方に基づいて前記投影手段により投影される前記操作用の画像の表示位置及びサイズの少なくとも一方を制御する制御工程と、を有することを特徴とする画像投影装置の制御方法。 A control method for an image projection apparatus having a projection means for projecting an operation image onto a projection plane,
An object detection step of detecting information related to a predetermined operation object existing in a region of an image projected on the projection plane;
An operation detection step of detecting an operation based on information on the operation object detected by the object detection step;
According to the size of the operation object detected by the object detection step, at least one of a display position and a size of the operation image projected on the projection plane is determined, and at least the determined display position and size are determined. And a control step of controlling at least one of a display position and a size of the operation image projected by the projection unit based on the one.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008149759A JP5258399B2 (en) | 2008-06-06 | 2008-06-06 | Image projection apparatus and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008149759A JP5258399B2 (en) | 2008-06-06 | 2008-06-06 | Image projection apparatus and control method thereof |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2009295031A JP2009295031A (en) | 2009-12-17 |
JP2009295031A5 JP2009295031A5 (en) | 2011-07-21 |
JP5258399B2 true JP5258399B2 (en) | 2013-08-07 |
Family
ID=41543139
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008149759A Active JP5258399B2 (en) | 2008-06-06 | 2008-06-06 | Image projection apparatus and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5258399B2 (en) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5656002B2 (en) * | 2010-05-12 | 2015-01-21 | セイコーエプソン株式会社 | Projector and control method |
JP5304848B2 (en) * | 2010-10-14 | 2013-10-02 | 株式会社ニコン | projector |
US20130044912A1 (en) * | 2011-08-19 | 2013-02-21 | Qualcomm Incorporated | Use of association of an object detected in an image to obtain information to display to a user |
JP6136090B2 (en) * | 2012-03-13 | 2017-05-31 | 株式会社ニコン | Electronic device and display device |
JP6135239B2 (en) | 2012-05-18 | 2017-05-31 | 株式会社リコー | Image processing apparatus, image processing program, and image processing method |
JP2014178791A (en) * | 2013-03-14 | 2014-09-25 | Ricoh Co Ltd | Projector, projection system, image generation program, and image generation method |
JP2014178790A (en) * | 2013-03-14 | 2014-09-25 | Ricoh Co Ltd | Projection system, projection device, projection program, and projection method |
KR101571096B1 (en) * | 2013-11-11 | 2015-11-23 | 주식회사 시공미디어 | User Adaptive Interface Providing System and Method |
JP6753049B2 (en) * | 2015-10-09 | 2020-09-09 | セイコーエプソン株式会社 | Projector and projector control method. |
CN109496331B (en) * | 2016-05-20 | 2022-06-21 | 奇跃公司 | Context awareness for user interface menus |
JP7195816B2 (en) * | 2018-08-30 | 2022-12-26 | キヤノン株式会社 | PROJECTION DEVICE, PROJECTION DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM |
CN111093066A (en) * | 2019-12-03 | 2020-05-01 | 耀灵人工智能(浙江)有限公司 | Dynamic plane projection method and system |
JP2022029506A (en) * | 2020-08-05 | 2022-02-18 | 株式会社ギヤマン | Human body part detection device and three-dimensional input device |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5528263A (en) * | 1994-06-15 | 1996-06-18 | Daniel M. Platzker | Interactive projected video image display system |
JP3727547B2 (en) * | 1996-02-08 | 2005-12-14 | 松下電器産業株式会社 | Data processing apparatus and data processing method for facilitating data selection and / or processing for data |
JP3813831B2 (en) * | 1996-02-08 | 2006-08-23 | 松下電器産業株式会社 | Data processing apparatus and data processing method for facilitating data selection and / or processing for data |
JP4296606B2 (en) * | 1997-07-23 | 2009-07-15 | ソニー株式会社 | Electronic device and display method |
JPH1142366A (en) * | 1997-07-25 | 1999-02-16 | Sony Corp | Game machine |
JP2005128279A (en) * | 2003-10-24 | 2005-05-19 | Matsushita Electric Ind Co Ltd | Remote operation system |
JP3847753B2 (en) * | 2004-01-30 | 2006-11-22 | 株式会社ソニー・コンピュータエンタテインメント | Image processing apparatus, image processing method, recording medium, computer program, semiconductor device |
-
2008
- 2008-06-06 JP JP2008149759A patent/JP5258399B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2009295031A (en) | 2009-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5258399B2 (en) | Image projection apparatus and control method thereof | |
JP4991458B2 (en) | Image display apparatus and control method thereof | |
US8350896B2 (en) | Terminal apparatus, display control method, and display control program | |
JP5413250B2 (en) | Image processing apparatus, image processing method, and program | |
JP2021073579A (en) | Electronic apparatus, method, and program | |
CN103608761B (en) | Input equipment, input method and recording medium | |
JP6079695B2 (en) | Image display photographing system, photographing device, display device, image display and photographing method, and computer program | |
JP2011186892A (en) | Image processor, image processing method, and program | |
JP2011043876A (en) | Image display device | |
JP5817149B2 (en) | Projection device | |
WO2018168823A1 (en) | Image processing device and electronic equipment | |
JP5693022B2 (en) | Display control device, display control system, and control method, program, and storage medium thereof | |
JP5888986B2 (en) | Image processing apparatus and control method thereof | |
JP5229928B1 (en) | Gaze position specifying device and gaze position specifying program | |
JP2011095984A (en) | Image display apparatus | |
JP2007086995A (en) | Pointing device | |
JP5222646B2 (en) | Terminal device, display control method, and display control program | |
JP6120541B2 (en) | Display control apparatus and control method thereof | |
JP2011100396A (en) | Video display device | |
JP2007310789A (en) | Interface device | |
JP6679430B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM | |
JP6932907B2 (en) | Information processing equipment, information processing system, information processing method and program | |
WO2009157314A1 (en) | Imaging device | |
JP2016224888A (en) | Information processing apparatus, coordinate estimation program, and coordinate estimation method | |
KR20150005368A (en) | Camera module and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110606 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110606 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120604 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120730 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130325 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130423 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160502 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5258399 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |