JP2017003820A - Image display controller, image display system, and program - Google Patents
Image display controller, image display system, and program Download PDFInfo
- Publication number
- JP2017003820A JP2017003820A JP2015118630A JP2015118630A JP2017003820A JP 2017003820 A JP2017003820 A JP 2017003820A JP 2015118630 A JP2015118630 A JP 2015118630A JP 2015118630 A JP2015118630 A JP 2015118630A JP 2017003820 A JP2017003820 A JP 2017003820A
- Authority
- JP
- Japan
- Prior art keywords
- display
- image
- image display
- determined
- display position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Controls And Circuits For Display Device (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
Description
本発明は、画像表示制御装置等に関する。 The present invention relates to an image display control device and the like.
人を誘導するための手段として「看板」「警告ランプ」「マーク」等が存在する。最近では、この看板等において、大型液晶ディスプレイ等の画像表示装置を利用する事により様々な情報を表示する画像表示システムが知られている。 As means for guiding a person, there are “signboard”, “warning lamp”, “mark”, and the like. Recently, an image display system for displaying various information by using an image display device such as a large liquid crystal display is known for this signboard.
このような画像表示システムを利用することにより、対象者(施設の利用者等)を誘導する仕組みが開示されている(例えば、特許文献1参照)。 A mechanism for guiding a target person (facility user or the like) by using such an image display system is disclosed (for example, see Patent Document 1).
また、このような画像表示システムは、情報を必要としている対象者との関係で様々な発明が開示されている。例えば、対象者が存在するときだけ画像を表示させる発明や(例えば、特許文献2参照)、対象者が目視しているときだけ表示させる発明(例えば、特許文献3参照)等が知られている。 Moreover, various inventions are disclosed for such an image display system in relation to a subject who needs information. For example, an invention that displays an image only when the subject is present (see, for example, Patent Document 2), an invention that displays only when the subject is viewing (see, for example, Patent Document 3), and the like are known. .
また、水平方向に情報表示画面があり、その画面を2つの領域に予め分割しておき、センサにより表示装置の近傍にいる人の位置を判定し、当該近傍に複数の人がいる場合には、人数の多い方向から見て適切な向きになるように、映像情報を回転させて水平方向の情報表示画面上に表示する発明が開示されている(例えば、特許文献4参照)。 In addition, when there is an information display screen in the horizontal direction, the screen is divided into two areas in advance, the position of the person in the vicinity of the display device is determined by the sensor, and there are a plurality of persons in the vicinity An invention is disclosed in which video information is rotated and displayed on an information display screen in a horizontal direction so as to be in an appropriate direction when viewed from a direction with a large number of people (see, for example, Patent Document 4).
施設等において、対象者を誘導するためには様々な情報が表示される。例えば、対象者を誘導したり、案内したり、警告したりといった様々な情報が表示される。しかし、対象者として、施設等の利用者には様々な人がいる。例えば、大人と子供では視線の高さが違うため、大人には容易に認識できる情報が、子供だと見落としてしまうという問題点があった。 In a facility or the like, various information is displayed to guide the target person. For example, various information such as guidance, guidance, and warning is displayed. However, there are various types of users as facilities. For example, since the line of sight is different between adults and children, there is a problem that information that can be easily recognized by adults is overlooked by children.
また、上述した従来技術では、情報が表示される表示位置は予め決まっている。すなわち、画像表示装置を所定の位置に配置し、利用者はその画像表示装置に表示されている情報を見る必要がある。したがって、対象者が見ていた方向に表示されるものがなく、その表示に気がつかなかった場合は、適切に情報を提供できているとは言えなかった。 In the above-described prior art, the display position where information is displayed is determined in advance. That is, the image display device is placed at a predetermined position, and the user needs to see information displayed on the image display device. Therefore, if there is nothing displayed in the direction that the subject was looking at and the user did not notice the display, it could not be said that information could be provided appropriately.
また、表示される画像(メッセージ)は一律に表示されるため、例えば子供がみたときにメッセージを読むことが出来ないといった問題点を生じることがあった。 Further, since the displayed image (message) is displayed uniformly, there is a problem that the message cannot be read when the child sees it.
上述した課題に鑑み、本発明が目的とするところは、対象者の特性に応じた位置に、特性に応じた内容の画像を表示することで、適切に情報を提示することができる画像表示制御装置等を提供することである。 In view of the above-described problems, an object of the present invention is to provide an image display control capable of appropriately presenting information by displaying an image having contents corresponding to characteristics at a position corresponding to characteristics of the target person. It is to provide a device or the like.
上述した課題を解決するために、本発明の画像表示制御装置は、
複数の表示位置に画像を表示可能な画像表示装置と、
対象者の特性を判定する特性判定手段と、
前記特性判定手段により判定された対象者の特性に対応する表示位置を判定する表示位置判定手段と、
前記表示位置判定手段により判定された表示位置に、画像を表示する/表示しないの制御を行う画像表示制御手段と、
を備えることを特徴とする。
In order to solve the above-described problem, an image display control device according to the present invention includes:
An image display device capable of displaying images at a plurality of display positions;
Characteristic determination means for determining the characteristics of the target person;
Display position determining means for determining a display position corresponding to the characteristics of the subject determined by the characteristic determining means;
Image display control means for controlling whether or not to display an image at the display position determined by the display position determination means;
It is characterized by providing.
本発明の画像表示システムは、
複数の画像表示装置と、認識装置と、前記画像表示装置に画像を表示制御する制御装置とを含む画像表示システムにおいて、
前記制御装置は、
対象者の特性を判定し、
前記判定された対象者の特性から、画像を表示する画像表示装置を判定し、
前記判定された画像表示装置に、画像を表示する/表示しないの制御を行うことを特徴とする。
The image display system of the present invention includes:
In an image display system including a plurality of image display devices, a recognition device, and a control device that controls display of images on the image display device,
The controller is
Determine the characteristics of the subject,
An image display device that displays an image is determined from the determined characteristics of the target person,
Control is performed to display / not display an image on the determined image display device.
本発明のプログラムは、
複数の表示位置に画像を表示可能な画像表示装置に接続されたコンピュータに、
対象者の特性を判定する特性判定機能と、
前記特性判定機能により判定された人の特性に対応する表示位置を判定する表示位置判定機能と、
前記表示位置判定機能により判定された表示位置に、画像を表示する/表示しないの制御を行う画像表示制御機能と、
を実現させることを特徴とする。
The program of the present invention
To a computer connected to an image display device capable of displaying images at a plurality of display positions,
A characteristic determination function for determining the characteristics of the target person;
A display position determination function for determining a display position corresponding to the characteristics of the person determined by the characteristic determination function;
An image display control function for controlling whether or not to display an image at the display position determined by the display position determination function;
It is characterized by realizing.
本発明の画像表示制御装置は、複数の表示位置に画像を表示可能な画像表示装置に表示される画像の表示制御を行う装置であって、判定された人の特性に対応する表示位置に、画像を表示したり、表示しなかったりすることができる。したがって、対象者の大きさや、年齢、また対象者の動作といった特性に応じて、表示装置が選択されて画像を表示させることが可能となる。 The image display control device of the present invention is a device that performs display control of an image displayed on an image display device capable of displaying an image at a plurality of display positions, and at a display position corresponding to the determined human characteristic, An image can be displayed or not displayed. Therefore, the display device can be selected and an image can be displayed according to characteristics such as the size, age, and behavior of the subject.
以下、図面を参照して本発明を実施するための最良の形態について説明する。以下の実施形態は、本発明の画像表示システムを適用した一例であり、発明の内容が、本実施形態に限定されるものではないのは勿論である。 The best mode for carrying out the present invention will be described below with reference to the drawings. The following embodiment is an example to which the image display system of the present invention is applied, and it goes without saying that the content of the invention is not limited to this embodiment.
[1.第1実施形態]
[1.1 システム外観]
第1実施形態における画像表示システム1の全体について、図1を用いて説明する。図1に示すように、画像表示システム1は、利用者Pを認識する認識装置20と、画像を表示する画像表示装置30とを有しており、これらが制御装置10(画像表示制御装置)に接続されている。
[1. First Embodiment]
[1.1 System appearance]
The entire image display system 1 in the first embodiment will be described with reference to FIG. As shown in FIG. 1, the image display system 1 includes a recognition device 20 that recognizes a user P and an image display device 30 that displays an image, and these are a control device 10 (image display control device). It is connected to the.
本実施形態では、画像表示装置30の一例として、画像表示装置32と、画像表示装置34とを有して構成されている。画像表示装置としては、例えば液晶等を利用したディスプレイであっても良いし、プロジェクタ等により画像を投影しても良い。 In the present embodiment, as an example of the image display device 30, an image display device 32 and an image display device 34 are provided. As the image display device, for example, a display using liquid crystal or the like may be used, or an image may be projected by a projector or the like.
ここで、本明細書において、画像を表示するとは、ディスプレイ等の画像表示装置に画像を表示することは勿論のこと、プロジェクタのような投影装置により画像を投影する動作も含むものとする。すなわち、プロジェクタが画像を投影することにより、画像を表示する画像表示装置として説明している。 Here, in this specification, displaying an image includes not only displaying an image on an image display device such as a display but also an operation of projecting an image by a projection device such as a projector. That is, it is described as an image display device that displays an image by projecting an image by a projector.
例えば、図1の画像表示装置32は、ディスプレイであり、画像表示装置34はプロジェクタである。画像表示装置34は、表示位置として領域R30(R34)に画像を投影する。ここで、画像表示装置30は、1つであっても良いし、複数であっても良い。すなわち、複数の表示位置に表示可能な構成となっていれば良い。各装置の詳細については次の機能構成で説明する。 For example, the image display device 32 in FIG. 1 is a display, and the image display device 34 is a projector. The image display device 34 projects an image on the region R30 (R34) as a display position. Here, the image display device 30 may be one or plural. That is, it is only necessary to have a configuration capable of displaying at a plurality of display positions. Details of each device will be described in the following functional configuration.
更に、画像表示装置30は、可動可能に構成されていてもよい。例えば、プロジェクタの場合は、プロジェクタ取付部が可動するように構成されており、プロジェクタが投影する方向にレンズ方向を自在に稼動させることが可能となるように構成されても良い。また、ディスプレイの場合は、取付部が移動可能になっており、表示したい箇所に移動する構成としても良い。 Furthermore, the image display device 30 may be configured to be movable. For example, in the case of a projector, the projector mounting portion may be configured to move, and the lens direction may be freely operated in the direction in which the projector projects. Moreover, in the case of a display, the attachment part can be moved, and it is good also as a structure which moves to the location to display.
なお、本実施形態では、認識装置20と、画像表示装置30と、制御装置10とが同一の構内で接続されている(例えば、同一のネットワークに接続されていたり、USB接続といったローカル接続されていたりする)こととして説明するが、外部ネットワークを介して接続されていても良い。 In the present embodiment, the recognition device 20, the image display device 30, and the control device 10 are connected on the same premises (for example, connected to the same network or connected locally such as USB connection). However, it may be connected via an external network.
すなわち、制御装置10が、インターネットに接続されているサーバであり、サーバ上で処理を実行する。そして、インターネットを介して、認識装置20及び画像表示装置30が接続されることとしても良い。この場合、サーバ側の管理者は、離れた場所であっても複数の制御を行うことが可能となる。 That is, the control device 10 is a server connected to the Internet, and executes processing on the server. The recognition device 20 and the image display device 30 may be connected via the Internet. In this case, the server-side administrator can perform a plurality of controls even at remote locations.
[1.2 機能構成]
続いて、本実施形態における画像表示システム1を構成する各装置の機能構成について図2を用いて説明する。
[1.2 Functional configuration]
Next, the functional configuration of each device constituting the image display system 1 in the present embodiment will be described with reference to FIG.
図2に示すように、制御装置10に、認識装置20と、一又は複数の画像表示装置30とが接続されている。 As shown in FIG. 2, a recognition device 20 and one or a plurality of image display devices 30 are connected to the control device 10.
また、制御装置10は、制御部110と、認識部120と、画像表示制御部130と、記憶部140とを備えて構成されている。 The control device 10 includes a control unit 110, a recognition unit 120, an image display control unit 130, and a storage unit 140.
制御部110は、制御装置10の全体を制御するための機能部である。制御部110は、記憶部140に記憶されている各種プログラムを読み出して実行することにより各種機能を実現しており、例えばCPU(Central Process Unit)等により構成されている。 The control unit 110 is a functional unit for controlling the entire control device 10. The control unit 110 implements various functions by reading and executing various programs stored in the storage unit 140, and includes, for example, a CPU (Central Process Unit).
認識部120は、認識装置20により認識された利用者の人体に基づく情報を入力・処理するための機能部である。すなわち、認識装置20における空間内における人の動きをセンシングする技術(画像処理・サーモ・位置センサ・圧センサ)を利用し、対象者の特性を認識する機能部である。 The recognition unit 120 is a functional unit for inputting and processing information based on the human body recognized by the recognition device 20. In other words, the recognition unit 20 is a functional unit that recognizes the characteristics of the target person using technology (image processing, thermo, position sensor, pressure sensor) for sensing human movement in the space.
ここで、対象者(人)の特性とは、当該対象者の属性、動作を含む概念である。対象者の属性とは、当該対象者を認識装置20により判定可能なものであり、例えば身長、体格といったものである。さらに、人の大きさ、表情等を認識することにより、男女であったり、大人、子供であったり、白杖を持っているか、車いすを利用しているか、健常者であるか等を認識することができる。 Here, the characteristic of the subject (person) is a concept including the attributes and actions of the subject. The attributes of the target person are those that can be determined by the recognition device 20 such as height and physique. Furthermore, by recognizing people's size, facial expression, etc., it recognizes whether they are men and women, adults, children, have white canes, use wheelchairs, or are healthy people. be able to.
また、対象者の動作とは、対象者の動きを判定するものであり、対象者が動いている方向、速度であったり、対象者が起立しているか等の姿勢であったり、対象者の動きといったものを認識することができる。 In addition, the movement of the target person is to determine the movement of the target person, such as the direction and speed in which the target person is moving, the posture such as whether the target person is standing up, You can recognize things like movement.
ここで、認識装置20及び認識部120が、空間内において人(人体)を認識する仕組みについて、図3を用いて説明する。ここで、認識装置20としては種々の装置が考えられるが、一例としてマイクロソフト株式会社製のKinect(キネクト)(登録商標)を利用した方法について説明する。 Here, a mechanism in which the recognition device 20 and the recognition unit 120 recognize a person (human body) in the space will be described with reference to FIG. Here, although various apparatuses can be considered as the recognition apparatus 20, a method using Kinect (registered trademark) manufactured by Microsoft Corporation will be described as an example.
Kinectを利用する事により、人間の骨格をスティックピクチャとして捉えることができるようになる(図3(a))。すなわち、人体の各関節の特徴点と、当該特徴点を結んだ線とがそれぞれ検出される。 By using Kinect, a human skeleton can be understood as a stick picture (FIG. 3A). That is, the feature points of each joint of the human body and the line connecting the feature points are detected.
この特徴点に基づいて、人の顔の向きや、体の向きを認識することが可能となる。例えば、顔の向きや体の向きを求めるには、図3(b)に示すように、各関節の特徴点をもちいて認識する。図3(b)では、特徴点P01と、特徴点P02の(x、y、z)座標をそれぞれ検出する。そして、2つの座標を結ぶ直線と、基準面との角度を算出することにより、顔の向きを認識する。 Based on this feature point, it becomes possible to recognize the direction of the human face and the direction of the body. For example, in order to obtain the orientation of the face and the orientation of the body, the feature points of each joint are recognized as shown in FIG. In FIG. 3B, the feature point P01 and the (x, y, z) coordinates of the feature point P02 are detected. Then, the orientation of the face is recognized by calculating the angle between the straight line connecting the two coordinates and the reference plane.
また、特徴点P03と、特徴点P04の(x、y、z)座標をそれぞれ検出し、特徴点P03と特徴点P04とを直線で結ぶ仮想線L01の位置から、体の方向(向きと傾き)を認識する。 Further, (x, y, z) coordinates of the feature point P03 and the feature point P04 are detected, respectively, and the body direction (direction and inclination) is determined from the position of the virtual line L01 connecting the feature point P03 and the feature point P04 with a straight line. )
これにより、例えば、利用者の向いている方向から、画像を表示する領域を特定することができる。例えば、図3(c)に示すように、特徴点P01と、特徴点P02から、中心軸に対しての角度が算出され、これにより顔の角度(利用者が向いている角度)θ1が算出される。 Thereby, the area | region which displays an image can be pinpointed from the direction which the user is facing, for example. For example, as shown in FIG. 3C, the angle with respect to the central axis is calculated from the feature point P01 and the feature point P02, and thereby the face angle (angle the user faces) θ1 is calculated. Is done.
また、人体の視点の高さL02(例えば、近似的に特徴点P02の高さ)と、顔の角度の法線方向L03とから、視線が地上線L04に到達する位置を求めることが可能となる(例えば、高さL02×arctanθ1)。そして、この位置を表示領域R01として、画像を表示することができる。 Further, it is possible to determine the position at which the line of sight reaches the ground line L04 from the height L02 of the viewpoint of the human body (for example, the height of the feature point P02 approximately) and the normal direction L03 of the face angle. (For example, height L02 × arctan θ1). An image can be displayed using this position as the display region R01.
なお、人体を認識する方法としては、他の方法であっても良い。例えば、カメラを用いた画像処理技術、サーモグラフィや赤外線を用いた認識技術であっても良いし、圧力センサを床に置き、足の方向と荷重方向で人を認識しても良い。また、視線検出技術を利用して、視線を検出しても良い。 Note that other methods may be used as a method of recognizing a human body. For example, an image processing technique using a camera, a recognition technique using thermography or infrared rays, or a pressure sensor may be placed on the floor and a person may be recognized by the direction of the foot and the direction of load. Further, the line of sight may be detected by using a line of sight detection technique.
ここで、利用者P(人体)の向きの認識としては、視線の方向、顔の向き、体の向きの順に優先度が高くなっている。すなわち、視線の方向が認識できるのであれば視線の方向を、顔の向きを検出できるのであれば顔の方向を、そうで無ければ体の向きを認識する。これらを複数認識することとしても良いし、単独で方向を認識しても良い。 Here, the recognition of the orientation of the user P (human body) has a higher priority in the order of the line of sight, the face, and the body. That is, the direction of the line of sight is recognized if the direction of the line of sight can be recognized, the direction of the face if the direction of the face can be detected, and the direction of the body if not. A plurality of these may be recognized, or the direction may be recognized alone.
続いて、画像表示制御部130は、接続されている一又は複数の画像表示装置30に対して、画像の表示を制御するための機能部である。ここで、表示される画像は、複数の表示位置に表示可能である。表示位置は、一の画像表示装置30が切り替え可能な表示領域により決定されるか、表示する画像表示装置を切り替えて決定することとなる。すなわち、表示領域と、画像表示装置とを組み合わせて、複数の表示位置が構成されればよい。 Subsequently, the image display control unit 130 is a functional unit for controlling display of an image with respect to one or a plurality of connected image display devices 30. Here, the displayed image can be displayed at a plurality of display positions. The display position is determined by a display area where one image display device 30 can be switched, or is determined by switching the image display device to be displayed. That is, a plurality of display positions may be configured by combining the display area and the image display device.
ここで、画像表示装置30は、液晶ディスプレイや有機ELディスプレイといった表示装置や、プロジェクタといった投影装置といった画像を表示可能な装置である。なお、本実施形態における画像とは、文字や図形、写真といった静止画像は勿論のこと、動画像も含む概念である。図2では、画像表示装置32と、画像表示装置34とが接続されている。 Here, the image display device 30 is a device capable of displaying an image such as a display device such as a liquid crystal display or an organic EL display, or a projection device such as a projector. The image in the present embodiment is a concept including a moving image as well as a still image such as a character, a figure, and a photograph. In FIG. 2, an image display device 32 and an image display device 34 are connected.
ここで、画像表示装置30を利用した制御装置10の画像表示制御方法について、図4及び図5を用いて説明する。図4は、画像表示装置30が、プロジェクタのように広い表示可能領域を有する場合の図である。 Here, an image display control method of the control device 10 using the image display device 30 will be described with reference to FIGS. 4 and 5. FIG. 4 is a diagram when the image display device 30 has a wide displayable area like a projector.
すなわち、プロジェクタが表示可能領域として、領域R30が確保されている。この領域R30は、壁面や床面といったところに設定可能であり、表示可能領域であれば任意の表示領域を表示位置としてさせることが可能となる。例えば、表示領域R30a、表示領域R30b、表示領域R30cといった3つの領域を設定している場合、利用者Pが向いた方向である表示領域R30aに画像を表示することとなる。 That is, a region R30 is secured as a region where the projector can display. This region R30 can be set on a wall surface or floor surface, and any display region can be used as a display position as long as it is a displayable region. For example, when three areas such as the display area R30a, the display area R30b, and the display area R30c are set, an image is displayed in the display area R30a that is the direction in which the user P is facing.
なお、表示可能領域については、例えば大型の液晶ディスプレイであれば、表示画面を複数の領域に分割することにより、同じように実現することが可能である。 The displayable area can be realized in the same way by dividing the display screen into a plurality of areas, for example, in the case of a large liquid crystal display.
また、本実施形態では、図4に示すように予め表示位置に対応する表示領域を設定してあるが、任意の座標としても良い。すなわち、表示領域の頂点座標、大きさ等を指定することにより、表示可能領域内の任意の位置を表示位置として設定してもよい。 In this embodiment, the display area corresponding to the display position is set in advance as shown in FIG. 4, but any coordinates may be used. That is, an arbitrary position in the displayable area may be set as the display position by designating the vertex coordinates, size, and the like of the display area.
図5は、表示位置として、複数の画像表示装置や、表示領域を組み合わせて設定した場合の一例である。例えば、画像表示装置30として、プロジェクタである画像表示装置32、34が接続されており、更に液晶ディスプレイである画像表示装置36が接続されている。 FIG. 5 shows an example in which a plurality of image display devices and display areas are set in combination as the display position. For example, as the image display device 30, image display devices 32 and 34 that are projectors are connected, and an image display device 36 that is a liquid crystal display is further connected.
また、画像表示装置32は、表示領域R32a、表示領域R32bと複数の表示領域に表示可能であり、表示位置として、画像表示装置34は表示領域R34に画像を表示可能である。更に、画像表示装置36にも画像を表示可能となっている。すなわち、表示領域R32a、R32b、R34、画像表示装置36の4つの表示位置に画像が表示可能である。これにより、利用者Pが向いた方向にある表示位置に、適切に画像を表することが可能となる。 Further, the image display device 32 can display in the display region R32a and the display region R32b and a plurality of display regions, and the image display device 34 can display an image in the display region R34 as a display position. Further, an image can be displayed on the image display device 36. That is, an image can be displayed at four display positions of the display areas R32a, R32b, R34, and the image display device 36. This makes it possible to appropriately display an image at a display position in the direction in which the user P is facing.
記憶部140は、制御装置10の動作に必要な各種プログラムや、各種データが記憶されている機能部である。記憶部140は、例えば、半導体メモリや、HDD(Hard Disk Drive)等により構成されている。 The storage unit 140 is a functional unit that stores various programs and various data necessary for the operation of the control device 10. The storage unit 140 includes, for example, a semiconductor memory, an HDD (Hard Disk Drive), or the like.
また、記憶部140には、表示位置テーブル142が記憶されている。ここで、表示位置テーブル142の一例を、図6に示す。 The storage unit 140 stores a display position table 142. An example of the display position table 142 is shown in FIG.
表示位置テーブル142は、対象者の特性(例えば、本実施形態では人体の属性)と、表示位置とを対応づけて記憶したテーブルである。例えば、人体属性が「160cm以上」の場合、表示位置がR32aとなっている。ここで、人体属性とは、認識された人体に関する情報である。例えば、本実施形態で示すように身長であったり、体格(例えば、「細身」等)であったりしてもよい。また、「男性」「女性」や、「子供」「大人」といった情報や、「帽子を被っている」といった情報で有っても良い。すなわち、制御装置10が、認識部120(認識装置20)を介して認識可能な情報であれば良い。 The display position table 142 is a table that stores the characteristics of the subject (for example, human body attributes in the present embodiment) and the display positions in association with each other. For example, when the human body attribute is “160 cm or more”, the display position is R32a. Here, the human body attribute is information about the recognized human body. For example, as shown in the present embodiment, it may be a height or a physique (for example, “slim”). Further, information such as “male”, “female”, “children”, and “adults”, and information such as “wearing a hat” may be used. That is, any information that can be recognized by the control device 10 via the recognition unit 120 (the recognition device 20) may be used.
また、表示位置テーブル142は、併せて表示位置を記憶しておいても良い。例えば、空間内の座標を設定し、当該空間内における表示位置がどこに設けられているかを座標で記憶する。これにより、例えば利用者Pが向いている方向に対応する表示位置を決定することが可能となり、当該表示位置に対応する画像表示装置30を特定することが可能となる。 Further, the display position table 142 may store the display position together. For example, coordinates in the space are set, and where the display position in the space is provided is stored as coordinates. Thereby, for example, it is possible to determine the display position corresponding to the direction in which the user P is facing, and it is possible to specify the image display device 30 corresponding to the display position.
[1.3 処理の流れ]
続いて、本実施形態における処理の流れについて説明する。まず、人体が検知されると(ステップS102;Yes)、人体認識処理が実行される(ステップS104)。本実施形態では、人体認識処理により、関節等に対応する特徴点がそれぞれ検出され、人体の向き等が認識される。
[1.3 Process flow]
Next, the flow of processing in this embodiment will be described. First, when a human body is detected (step S102; Yes), a human body recognition process is executed (step S104). In the present embodiment, feature points corresponding to joints and the like are detected by the human body recognition process, and the orientation of the human body is recognized.
続いて、各特徴点が認識された後は、特性判定処理を実行する(ステップS106)。本実施形態においては、特性の一つとして人体の属性を判定し、主に身長を判定している。なお、最終的には身長が判定できれば良いため、例えば赤外線センサ等によって身長だけを認識可能な装置を利用しても良い。 Subsequently, after each feature point is recognized, a characteristic determination process is executed (step S106). In this embodiment, the attribute of the human body is determined as one of the characteristics, and the height is mainly determined. Since it is only necessary to finally be able to determine the height, for example, an apparatus capable of recognizing only the height by an infrared sensor or the like may be used.
続いて、特性判定処理により判定された身長から、表示位置決定処理が実行される(ステップS108)。表示位置決定処理により、画像が表示される領域が決定される。そして、決定された表示領域に画像を表示する(ステップS110)。 Subsequently, display position determination processing is executed from the height determined by the characteristic determination processing (step S108). By the display position determination process, an area in which an image is displayed is determined. Then, an image is displayed in the determined display area (step S110).
ここで、表示位置決定処理は、判定された利用者(人体)の身長に基づいて、表示位置を決定することができる。 Here, the display position determination process can determine the display position based on the determined height of the user (human body).
なお、人体認識処理(ステップS104)や、特性判定処理(ステップS106)を始めとする処理は、利用者を検知したタイミングで1回実行される場合もあれば、所定のタイマにて割込処理(例えば、3秒毎、5秒毎)によって随時実行されても良い。 Note that the process including the human body recognition process (step S104) and the characteristic determination process (step S106) may be executed once at the timing when the user is detected, or may be interrupted by a predetermined timer. (For example, every 3 seconds, every 5 seconds).
[1.4 適用例・効果]
例えば、図8を例にして説明する。画像表示装置32は、表示領域R32a、表示領域R32bに対して画像を表示可能である。ここで、領域の切替えは、画像表示装置32が表示する領域を変化させても良いし、画像表示装置32が物理的に可動して表示領域を切り替えても良い。
[1.4 Application examples and effects]
For example, FIG. 8 will be described as an example. The image display device 32 can display an image on the display region R32a and the display region R32b. Here, the area may be switched by changing the area displayed by the image display device 32, or the image display device 32 may be physically moved to switch the display area.
ここで、図8(a)に示すように、利用者P1が検知エリアに入ると、身長がL1と判定される。例えば、L1が170cmの場合、表示領域R32aに画像を表示する。これにより、利用者P1の視線の位置に対応する表示領域R32aに画像が表示され、利用者は容易に視認することが可能となる。 Here, as shown in FIG. 8A, when the user P1 enters the detection area, the height is determined to be L1. For example, when L1 is 170 cm, an image is displayed in the display region R32a. As a result, an image is displayed in the display area R32a corresponding to the position of the line of sight of the user P1, and the user can easily view it.
また、図8(b)に示すように、利用者P2が検知エリアに入ると身長がL2と認識される。例えば、L2が150cmの場合、表示領域R32bに画像を表示する。これにより、利用者P2の視線の位置に対応する表示領域R32bに画像が表示され、利用者P2は容易に視認することが可能となる。 Further, as shown in FIG. 8B, when the user P2 enters the detection area, the height is recognized as L2. For example, when L2 is 150 cm, an image is displayed in the display region R32b. As a result, an image is displayed in the display region R32b corresponding to the position of the line of sight of the user P2, and the user P2 can easily view it.
このように、本実施形態によれば、判定された対象者の特性として、人体属性に応じて、画像の表示位置を変更することが可能となる。これは、例えば、身長が小さい利用者は子供であることが多く、そうすると大人が認識出来る位置に画像を表示しても視認しにくいといった課題を解決することができる。 Thus, according to the present embodiment, the display position of the image can be changed according to the human body attribute as the determined characteristic of the subject. This can solve the problem that, for example, a user whose height is small is often a child, so that even if an image is displayed at a position that can be recognized by an adult, it is difficult to visually recognize the image.
また、本実施形態では、人体属性(身長)の認識を説明の都合上2段階として説明したが、更に複数段階に設定しても良い。また、表示領域が可変(例えば座標により設定)される場合には、身長に基づいて座標を算出することにより、より適切な位置に画像を表示させることが可能となる。 In the present embodiment, the recognition of the human body attribute (height) has been described as two stages for convenience of explanation, but it may be further set in a plurality of stages. In addition, when the display area is variable (for example, set by coordinates), it is possible to display an image at a more appropriate position by calculating the coordinates based on the height.
[2.第2実施形態]
続いて、第2実施形態について説明する。第2実施形態は、対象者の特性として判定された人体属性に基づいて、表示メッセージを変化させる場合の実施形態である。
[2. Second Embodiment]
Next, the second embodiment will be described. The second embodiment is an embodiment in the case where the display message is changed based on the human body attribute determined as the characteristics of the target person.
[2.1 機能構成]
まず、本実施形態における機能構成について説明する。本実施形態におけるシステム構成、機能構成は、第1実施形態と同様であるため、詳細な説明は省略する。第1実施形態と異なるのは、表示位置テーブル142に記憶されているデータ内容が図9に示すように異なっている。
[2.1 Functional configuration]
First, the functional configuration in the present embodiment will be described. Since the system configuration and functional configuration in this embodiment are the same as those in the first embodiment, detailed description thereof is omitted. The difference from the first embodiment is that the data contents stored in the display position table 142 are different as shown in FIG.
図9は、本実施形態における表示位置テーブル142に記憶されているデータの一例である。図9に示すように、人体属性に対応づけて(例えば、「大人」)、表示位置(例えば、「R32a」)と、表示メッセージ(例えば、「入場券をご用意下さい。」)とを対応づけて記憶している。 FIG. 9 is an example of data stored in the display position table 142 in the present embodiment. As shown in FIG. 9, the display position (for example, “R32a”) and the display message (for example, “Please prepare admission ticket”) are associated with the human body attribute (for example, “adult”). I remember it.
なお、ここで表示メッセージとしては、文章や単語といった文言を表示させても良いし、記号や矢印のようなサインも含まれるものとする。また、アニメーション表示や、動画表示といった利用者に対して報知するものは含まれるものとする。 Here, the display message may display a sentence such as a sentence or a word, and may include a sign such as a symbol or an arrow. Moreover, what is notified to the user, such as animation display or video display, is included.
ここで、「大人」「子供」の属性は、例えば身長により判定されてもよい。例えば、身長「160cm以上」を「大人」、身長「160cm未満」を「子供」と判定する。更に、顔認識処理の処理を実行することにより、より正確に「大人」「子供」と判定することとしても良い。また、第1実施形態と同様に、単純に身長等の人体属性に表示位置と、表示メッセージとを対応づけて記憶することとして良い。 Here, the attributes of “adult” and “child” may be determined by, for example, height. For example, the height “160 cm or more” is determined as “adult”, and the height “less than 160 cm” is determined as “child”. Furthermore, it is possible to more accurately determine “adult” and “child” by executing face recognition processing. Similarly to the first embodiment, the display position and the display message may be simply stored in association with the human body attribute such as height.
[2.2 処理の流れ]
続いて、本実施形態における処理の流れについて、図10を説明する。図10の処理は、第1実施形態における図7を本実施形態に合わせた処理である。共通の処理には、共通の符号を付し、その説明を省略する。
[2.2 Process flow]
Next, FIG. 10 will be described regarding the flow of processing in the present embodiment. The process of FIG. 10 is a process in which FIG. 7 in the first embodiment is adapted to this embodiment. Common processes are denoted by common reference numerals and description thereof is omitted.
すなわち、ステップS108迄の処理を実行することで、人体認識処理により認識された利用者の人体属性に基づいて表示位置が決定されている。ここで、表示メッセージが決定される表示メッセージ決定処理が実行される(ステップS202)。そして、ステップS108において決定された表示位置、ステップS202において決定された表示メッセージに基づいて、ステップS110において表示される処理が実行される。 That is, by executing the processing up to step S108, the display position is determined based on the human body attribute of the user recognized by the human body recognition processing. Here, a display message determination process for determining a display message is executed (step S202). Then, based on the display position determined in step S108 and the display message determined in step S202, the process displayed in step S110 is executed.
[2.3 適用例・効果]
本実施形態の適用例について、図8を用いて説明する。図8(a)は、利用者P1が大人と判定された場合である。この場合、本実施形態における図9の表示位置テーブル142を参照し、R32aの表示位置に、「入場券をご用意ください。」が表示メッセージとして表示される。
[2.3 Application examples and effects]
An application example of this embodiment will be described with reference to FIG. FIG. 8A shows a case where the user P1 is determined to be an adult. In this case, referring to the display position table 142 of FIG. 9 in the present embodiment, “Please prepare an admission ticket” is displayed as a display message at the display position of R32a.
また、図8(b)は、利用者P2が子供と判定された場合である。この場合、本実施形態における図9の表示位置テーブル142を参照し、R32bの表示位置に、「ほごしゃのかたといっしょにはいってね。」が表示メッセージとして表示される。 FIG. 8B shows a case where the user P2 is determined to be a child. In this case, with reference to the display position table 142 of FIG. 9 in the present embodiment, “Please enter with the cheering person” is displayed as a display message at the display position of R32b.
このように、本実施形態によれば、対象者に応じて適切な位置に表示メッセージを含む画像が表示されるだけでなく、表示される画像の内容(表示メッセージの内容)を変えることも可能となる。 As described above, according to the present embodiment, not only the image including the display message is displayed at an appropriate position according to the target person, but also the content of the displayed image (the content of the display message) can be changed. It becomes.
これにより、人体属性に応じたメッセージを表示させることが可能となる。例えば、子供の場合であれば、メッセージ内容を子供にあった表記(例えば平仮名表記)を行うことで、より適切にメッセージを伝えることが可能となる。 This makes it possible to display a message corresponding to the human body attribute. For example, in the case of a child, it is possible to convey the message more appropriately by writing the message content to the child (for example, hiragana notation).
[3.第3実施形態]
続いて、第3実施形態について説明する。第3実施形態は、第2実施形態において、必要に応じて表示メッセージを表示させる実施形態について説明する。
[3. Third Embodiment]
Subsequently, the third embodiment will be described. The third embodiment describes an embodiment in which a display message is displayed as necessary in the second embodiment.
すなわち、図10の動作フローにおいて、ステップS106において判定された特性(人体属性)に対応する表示メッセージが、表示位置テーブル142に記憶されている場合、すなわち条件に合致した場合のみ画像(表示メッセージ)を出力する。 That is, in the operation flow of FIG. 10, only when the display message corresponding to the characteristic (human body attribute) determined in step S106 is stored in the display position table 142, that is, when the condition is met, the image (display message). Is output.
図11に本実施形態における表示位置テーブル142を示す。例えば、人体属性として「着帽」の場合、表示位置(例えば、「R32」)と、表示メッセージ(例えば、「帽子を取ってください。」)とが記憶されている。 FIG. 11 shows a display position table 142 in the present embodiment. For example, in the case of “cap” as the human body attribute, a display position (for example, “R32”) and a display message (for example, “take off the hat”) are stored.
この場合、人体属性として帽子を被っている人(着帽)が認識された場合のみ、当該メッセージを表示する。なお、複数の人体属性が記憶されている場合は、該当したメッセージを結合して画像として出力しても良いし、優先度の高いメッセージのみを出力しても良い。 In this case, the message is displayed only when a person wearing a hat (cap) is recognized as a human body attribute. When a plurality of human body attributes are stored, the corresponding messages may be combined and output as an image, or only high priority messages may be output.
また、表示位置は複数指定しても良い。例えば、図11に示すように140cm未満の人と判定された場合に、「この乗り物には乗れません!」と警告を表示する。このとき、例えば表示位置をR32a、R32bと指定することにより、複数の表示位置に表示メッセージ(画像)を表示することが可能となる。 A plurality of display positions may be designated. For example, as shown in FIG. 11, when it is determined that the person is less than 140 cm, a warning “You cannot ride this vehicle!” Is displayed. At this time, for example, display messages (images) can be displayed at a plurality of display positions by designating the display positions as R32a and R32b.
また、画面に効果を付したり(例えば、画面が点滅する、文字が大きく表示される)、音を出力したりするといった、表示効果を併せて記憶しても良い。 In addition, display effects such as adding effects to the screen (for example, blinking the screen, displaying large characters), and outputting sound may be stored together.
[4.第4実施形態]
続いて、第4実施形態について説明する。第4実施形態は、第2実施形態において、特性として更に人の動きである動作を認識し、動作に合わせて表示メッセージや表示位置を変更するといった実施形態である。
[4. Fourth Embodiment]
Subsequently, a fourth embodiment will be described. The fourth embodiment is an embodiment in which, in the second embodiment, a motion that is a human movement is further recognized as a characteristic, and a display message and a display position are changed according to the motion.
本実施形態の動作フローを図12に示す。図12の動作フローは、図10に示した第2実施形態の動作フローに、ステップS302を加えたものである。なお、共通の処理には同一の符号を付しており、その説明を省略する。 The operation flow of this embodiment is shown in FIG. The operation flow of FIG. 12 is obtained by adding step S302 to the operation flow of the second embodiment shown in FIG. In addition, the same code | symbol is attached | subjected to the common process and the description is abbreviate | omitted.
ここで、動作認識処理(ステップS302)は、対象者の動作を動作情報として認識する処理である。例えば、本実施形態においては、対象者の移動速度、移動方向を動作情報として認識している。これは人体認識処理(ステップS104)において認識されている情報に基づいて算出されるものである。なお、人体認識処理(ステップS104)や、動作認識処理(ステップS302)は、所定のタイマにより、繰り返し実行される処理である。例えば、0.5秒毎、1秒毎に実行されたり、動作検知されたタイミングにて割込処理が実行されることにより実行されたりする処理である。 Here, the motion recognition processing (step S302) is processing for recognizing the motion of the subject as motion information. For example, in the present embodiment, the moving speed and moving direction of the target person are recognized as the operation information. This is calculated based on the information recognized in the human body recognition process (step S104). The human body recognition process (step S104) and the action recognition process (step S302) are processes that are repeatedly executed by a predetermined timer. For example, it is a process that is executed every 0.5 seconds, every second, or executed by executing an interrupt process at a timing when an operation is detected.
そして、認識された人体属性や、動作情報が、対象者の特性として判定される(ステップS106)。 Then, the recognized human body attributes and motion information are determined as the characteristics of the target person (step S106).
図13に本実施形態における表示位置テーブル142を示す。例えば、特性の一例として動作情報である移動速度(例えば、「0km/h〜5km/h」)と、表示位置(例えば「R32a」)と、表示メッセージ(例えば、「いらっしゃいませ!」)とが対応づけて記憶されている。 FIG. 13 shows a display position table 142 in the present embodiment. For example, as an example of characteristics, a movement speed (for example, “0 km / h to 5 km / h”), a display position (for example, “R32a”), and a display message (for example, “Welcome!”), Which are operation information. It is stored in association.
これにより、例えば表示領域R32aに近づいてきているときにメッセージを表示するが、速度に応じたメッセージ(例えば、速過ぎるために「慌てずご入場ください。」と表示し、注意喚起を行うメッセージ)を表示させたり、逆方向に動作している(移動速度がマイナスであるため、移動方向が逆であると認識する)ために退場のメッセージ(例えば、「ありがとうございました。」)を異なる表示位置(R34)に表示させたりするといったことも可能となる。 As a result, for example, a message is displayed when approaching the display area R32a, but a message corresponding to the speed (for example, a message that displays “Please do not rush to enter because it is too fast, and alert you)” Is displayed in a different display position (for example, “Thank you.”) Because it is moving in the reverse direction (because the movement speed is negative and the movement direction is recognized as reverse) (R34) can also be displayed.
また、併せて図14に示すように、特性として、人体属性を組み合わせて記憶させることにより、例えば当該メッセージを更に人体属性に基づいて異なるメッセージを表示させても良い。 In addition, as shown in FIG. 14, by storing the human body attributes in combination as characteristics, for example, a different message may be displayed based on the human body attributes.
具体的には、対象者の特性として「大人」「移動速度が5km/h以上」と判定された場合には「慌てずご入場ください。」と表示される。また、対象者の特性として「子供」「移動速度が5km/h以上」と判定された場合には「はしったら あぶないよ!」と表示される。 Specifically, when it is determined that “adult” “moving speed is 5 km / h or more” as the characteristics of the target person, “please enter without rushing” is displayed. Further, when it is determined that “children” and “moving speed is 5 km / h or more” as the characteristics of the target person, “Don't hit!
このように、対象者が子供の場合、例えば「慌てずご入場ください。」と表示してしまうと、対象者である子供は読めない(または瞬時に判断出来ない)場合がある。しかし、判定された対象者の特性に応じて「はしったら あぶないよ!」とメッセージを表示することにより、対象者に対して適切なメッセージを表示することが可能となる。 As described above, when the target person is a child, for example, if the message “Please enter without hurrying” is displayed, the target child may not be able to read (or cannot be determined instantaneously). However, it is possible to display an appropriate message for the target person by displaying the message “Don't worry if you do it!” According to the determined characteristics of the target person.
[5.第5実施形態]
続いて、第5実施形態について説明する。第5実施形態は、第1実施形態、第4実施形態において、更に対象者の特性として視線の方向を認識した場合についての実施形態について説明する。
[5. Fifth Embodiment]
Subsequently, a fifth embodiment will be described. In the fifth embodiment, an embodiment in which the direction of the line of sight is further recognized as the characteristics of the subject in the first embodiment and the fourth embodiment will be described.
すなわち、図12の動作認識処理(ステップS302)において、利用者の向いている方向を認識する。そして、利用者の向いている方向の表示領域にメッセージ(画像)を表示する。 That is, in the action recognition process (step S302) in FIG. 12, the direction in which the user is facing is recognized. Then, a message (image) is displayed in the display area in the direction facing the user.
図15に、本実施形態における表示位置テーブル142を示す。例えば、特性として、対象者の人体属性と、当該対象者の視線の方向とに対応づけて画像表示装置と、表示領域とを対応して記憶している。なお、図15には示していないが表示メッセージをそれぞれ記憶しても良い。 FIG. 15 shows a display position table 142 in the present embodiment. For example, as the characteristics, the image display device and the display area are stored in association with the human body attribute of the subject and the direction of the line of sight of the subject. Although not shown in FIG. 15, display messages may be stored.
例えば、図16に示すように、利用者P1の人体属性が160cm未満であり、向いている方向がX1方向であれば、画像表示装置32の表示領域R32bにメッセージ(画像)が表示される。また、利用者P2の人体属性が160cm以上であり、向いている方向がX3方向であれば、画像表示装置34(表示領域R34)にメッセージ(画像)が表示される。 For example, as shown in FIG. 16, if the human body attribute of the user P1 is less than 160 cm and the direction in which the user P1 is facing is the X1 direction, a message (image) is displayed in the display area R32b of the image display device 32. In addition, if the human body attribute of the user P2 is 160 cm or more and the facing direction is the X3 direction, a message (image) is displayed on the image display device 34 (display region R34).
このように、本実施形態によれば、適切な位置にメッセージが表示されることとなる。また、更にメッセージ内容を記憶することにより、利用者に適切なメッセージを適切な位置に表示させることが可能となる。 Thus, according to the present embodiment, a message is displayed at an appropriate position. Further, by storing the message contents, it is possible to display an appropriate message at an appropriate position for the user.
[6.第6実施形態]
続いて、第6実施形態について説明する。第6実施形態は、複数の利用者を検出した場合の実施形態である。例えば、図16は、利用者P1、P2を用いて説明したが、これが同じエリアにいた場合の実施形態である。ここで、認識装置20、認識部120は、複数の利用者(人間)を検出することが出来る。
[6. Sixth Embodiment]
Subsequently, a sixth embodiment will be described. The sixth embodiment is an embodiment when a plurality of users are detected. For example, although FIG. 16 demonstrated using user P1, P2, this is embodiment when this exists in the same area. Here, the recognition device 20 and the recognition unit 120 can detect a plurality of users (humans).
本実施形態においては、利用者P1、P2のそれぞれの特性(例えば、人体属性、動作情報)を検出する。これにより、利用者P1が見るメッセージ(画像)をR32aに、利用者P2が見るメッセージ(画像)をR34にそれぞれ表示する。なお、上述したKinectを用いた場合には、同時に6人まで検知することが出来る。 In the present embodiment, the characteristics (for example, human body attributes and motion information) of the users P1 and P2 are detected. As a result, the message (image) viewed by the user P1 is displayed on R32a, and the message (image) viewed by the user P2 is displayed on R34. In addition, when Kinect mentioned above is used, it can detect to six people simultaneously.
図17の動作フローにおいて、まず、人体が検知されると(ステップS102;Yes)、人体認識処理が実行される(ステップS104)。ここで、他に検知される人体があれば、全ての人体認識処理を行う(ステップS402;Yes→ステップS104)。 In the operation flow of FIG. 17, when a human body is first detected (step S102; Yes), a human body recognition process is executed (step S104). Here, if there is another human body to be detected, all human body recognition processing is performed (step S402; Yes → step S104).
検知された全ての人体が認識されると(ステップS402;No)、検知された全ての人体の動作認識処理が実行される(ステップS404)。そして、認識された人体と、動作情報とに基づいて、全ての対象者の特性判定処理が実行される(ステップS406)。ここで、全ての対象者について、特性(人体属性、動作情報)が求められる。 When all detected human bodies are recognized (step S402; No), motion recognition processing for all detected human bodies is executed (step S404). Then, based on the recognized human body and the motion information, the characteristic determination process for all the target persons is executed (step S406). Here, characteristics (human body attributes, motion information) are obtained for all target persons.
次に、判定された特性(人体属性、動作情報)に基づいて、表示位置が決定される(ステップS108)。決定された表示位置に基づいて、画像(メッセージ)を表示する(ステップS110)。この画像を表示する処理は、検知された人体分行われる(ステップS408;Yes)。そして、全ての処理が終了したら、本処理を終了する(ステップS408;No)。 Next, the display position is determined based on the determined characteristics (human body attributes, motion information) (step S108). An image (message) is displayed based on the determined display position (step S110). The process of displaying this image is performed for the detected human body (step S408; Yes). Then, when all the processes are finished, this process is finished (step S408; No).
なお、この処理は一回実行されても良いし、複数回実行されても良い。すなわち、ループ処理として繰り返し実行されても良いし、タイマを用いて定期的に実行されても良い。また、ステップS110で表示する画面は利用者に応じた画面を表示することとしても良い。 This process may be executed once or a plurality of times. That is, it may be repeatedly executed as a loop process, or may be periodically executed using a timer. The screen displayed in step S110 may be a screen corresponding to the user.
また、対象者の特性としては、一つ(例えば、人体属性のみ)だけの処理であっても良い。 In addition, as the characteristics of the target person, only one process (for example, only human body attributes) may be processed.
[7.第7実施形態]
続いて第7実施形態について説明する。上述した実施形態は表示位置を変更する実施形態を説明したが、第7実施形態は、メッセージを出力する手段を変更する実施形態について説明する。
[7. Seventh Embodiment]
Next, a seventh embodiment will be described. Although the above-described embodiment has described the embodiment for changing the display position, the seventh embodiment describes the embodiment for changing the means for outputting a message.
具体的には、特性判定処理において特別な特性(特別属性)を認識した場合には、表示位置を決定せず、例えばスピーカ等の表示手段以外の報知手段を選択する。そして、例えば、図7のステップS110の表示の代わりに、報知手段によりメッセージ内容を報知する。 Specifically, when a special characteristic (special attribute) is recognized in the characteristic determination process, the display position is not determined and a notification means other than the display means such as a speaker is selected. Then, for example, instead of the display in step S110 in FIG.
例えば、白杖を特別属性として判定すると、利用者が視覚障害者であると判定する。この場合は、表示するのに変えて(又は同時に)スピーカによりメッセージを音声出力する。 For example, if the white cane is determined as a special attribute, it is determined that the user is a visually impaired person. In this case, instead of displaying the message (or simultaneously), a message is output by voice through a speaker.
[8.変形例]
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も特許請求の範囲に含まれる。
[8. Modified example]
The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and the design and the like within the scope of the present invention are also within the scope of the claims. include.
なお、上述した各実施形態は、説明の都合上処理を分けて説明しているが、可能な範囲で組み合わせて動作させても良い事は勿論である。 In the above-described embodiments, the processes are described separately for the convenience of explanation, but it is needless to say that they may be combined and operated within a possible range.
また、実施形態において各装置で動作するプログラムは、上述した実施形態の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的に一時記憶装置(例えば、RAM)に蓄積され、その後、各種ROMやHDDの記憶装置に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行われる。 In addition, the program that operates in each device in the embodiment is a program (a program that causes a computer to function) that controls the CPU and the like so as to realize the functions of the above-described embodiments. Information handled by these devices is temporarily stored in a temporary storage device (for example, RAM) at the time of processing, then stored in various ROM or HDD storage devices, and read and corrected by the CPU as necessary. -Writing is performed.
ここで、プログラムを格納する記録媒体としては、半導体媒体(例えば、ROMや、不揮発性のメモリカード等)、光記録媒体・光磁気記録媒体(例えば、DVD(Digital Versatile Disc)、MO(Magneto Optical Disc)、CD(Compact Disc)、BD等)、磁気記録媒体(例えば、磁気テープ、フレキシブルディスク等)等の何れであってもよい。また、ロードしたプログラムを実行することにより、上述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、オペレーティングシステムあるいは他のアプリケーションプログラム等と共同して処理することにより、本発明の機能が実現される場合もある。 Here, as a recording medium for storing the program, a semiconductor medium (for example, ROM, a non-volatile memory card, etc.), an optical recording medium / a magneto-optical recording medium (for example, a DVD (Digital Versatile Disc), MO (Magneto Optical), etc. Disc), CD (Compact Disc), BD, etc.), magnetic recording medium (for example, magnetic tape, flexible disk, etc.), etc. In addition, by executing the loaded program, not only the functions of the above-described embodiment are realized, but also based on the instructions of the program, the processing is performed in cooperation with the operating system or other application programs. The functions of the invention may be realized.
また、市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータに転送したりすることができる。この場合、サーバの記憶装置も本発明に含まれるのは勿論である。 In addition, when distributing to the market, the program can be stored and distributed in a portable recording medium, or transferred to a server computer connected via a network such as the Internet. In this case, of course, the storage device of the server is also included in the present invention.
また、上述した実施形態における各装置の一部又は全部を典型的には集積回路であるLSI(Large Scale Integration)として実現してもよい。各装置の各機能ブロックは個別にチップ化してもよいし、一部又は全部を集積してチップ化してもよい。また、集積回路化の手法はLSIに限らず専用回路又は汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いることも可能であることは勿論である。 In addition, a part or all of each device in the above-described embodiments may be realized as an LSI (Large Scale Integration) that is typically an integrated circuit. Each functional block of each device may be individually chipped, or a part or all of them may be integrated into a chip. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. In addition, when integrated circuit technology that replaces LSI appears due to progress in semiconductor technology, it is of course possible to use an integrated circuit based on this technology.
1 :画像表示システム
10 :制御装置
110 :制御部
120 :認識部
130 :画像表示制御部
140 :記憶部
142 :表示位置テーブル
20 :認識装置
30〜36 :画像表示装置
1: Image display system 10: Control device 110: Control unit 120: Recognition unit 130: Image display control unit 140: Storage unit 142: Display position table 20: Recognition devices 30 to 36: Image display device
Claims (7)
対象者の特性を判定する特性判定手段と、
前記特性判定手段により判定された対象者の特性に対応する表示位置を判定する表示位置判定手段と、
前記表示位置判定手段により判定された表示位置に、画像を表示する/表示しないの制御を行う画像表示制御手段と、
を備えることを特徴とする画像表示制御装置。 An image display device capable of displaying images at a plurality of display positions;
Characteristic determination means for determining the characteristics of the target person;
Display position determining means for determining a display position corresponding to the characteristics of the subject determined by the characteristic determining means;
Image display control means for controlling whether or not to display an image at the display position determined by the display position determination means;
An image display control device comprising:
前記画像表示制御手段は、前記特性判定手段により判定された対象者の特性に応じて、表示メッセージを選択して表示することを特徴とする請求項1から3の何れか一項に記載の画像表示制御装置。 The image includes a display message;
The image according to any one of claims 1 to 3, wherein the image display control unit selects and displays a display message according to the characteristics of the subject determined by the characteristic determination unit. Display control device.
前記対象者の特性には、動作情報が含まれていることを特徴とする請求項1から4の何れか一項に記載の画像表示制御装置。 It further has a motion recognition means for recognizing the motion of the subject as motion information,
The image display control apparatus according to any one of claims 1 to 4, wherein the characteristic of the subject includes operation information.
前記制御装置は、
対象者の特性を判定し、
前記判定された対象者の特性から、画像を表示する画像表示装置を判定し、
前記判定された画像表示装置に、画像を表示する/表示しないの制御を行うことを特徴とする画像表示システム。 In an image display system including a plurality of image display devices, a recognition device, and a control device that controls display of images on the image display device,
The controller is
Determine the characteristics of the subject,
An image display device that displays an image is determined from the determined characteristics of the target person,
An image display system that controls whether or not to display an image on the determined image display device.
対象者の特性を判定する特性判定機能と、
前記特性判定機能により判定された人の特性に対応する表示位置を判定する表示位置判定機能と、
前記表示位置判定機能により判定された表示位置に、画像を表示する/表示しないの制御を行う画像表示制御機能と、
を実現させるためのプログラム。 To a computer connected to an image display device capable of displaying images at a plurality of display positions,
A characteristic determination function for determining the characteristics of the target person;
A display position determination function for determining a display position corresponding to the characteristics of the person determined by the characteristic determination function;
An image display control function for controlling whether or not to display an image at the display position determined by the display position determination function;
A program to realize
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015118630A JP2017003820A (en) | 2015-06-11 | 2015-06-11 | Image display controller, image display system, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015118630A JP2017003820A (en) | 2015-06-11 | 2015-06-11 | Image display controller, image display system, and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020131639A Division JP7041211B2 (en) | 2020-08-03 | 2020-08-03 | Image display control device, image display system and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017003820A true JP2017003820A (en) | 2017-01-05 |
JP2017003820A5 JP2017003820A5 (en) | 2018-07-19 |
Family
ID=57751992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015118630A Pending JP2017003820A (en) | 2015-06-11 | 2015-06-11 | Image display controller, image display system, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017003820A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018159740A (en) * | 2017-03-22 | 2018-10-11 | 日本電気株式会社 | Display control device, display control method, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010061063A (en) * | 2008-09-08 | 2010-03-18 | Nec Computertechno Ltd | Display control device, automatic teller machine, display control method, and program |
US20110231795A1 (en) * | 2009-06-05 | 2011-09-22 | Cheon Ka-Won | Method for providing user interface for each user and device applying the same |
JP2014123277A (en) * | 2012-12-21 | 2014-07-03 | Sony Corp | Display control system and recording medium |
-
2015
- 2015-06-11 JP JP2015118630A patent/JP2017003820A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010061063A (en) * | 2008-09-08 | 2010-03-18 | Nec Computertechno Ltd | Display control device, automatic teller machine, display control method, and program |
US20110231795A1 (en) * | 2009-06-05 | 2011-09-22 | Cheon Ka-Won | Method for providing user interface for each user and device applying the same |
JP2014123277A (en) * | 2012-12-21 | 2014-07-03 | Sony Corp | Display control system and recording medium |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018159740A (en) * | 2017-03-22 | 2018-10-11 | 日本電気株式会社 | Display control device, display control method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11601580B2 (en) | Keyboard cover with integrated camera | |
CN112219205B (en) | Matching of content to a spatial 3D environment | |
CN111133365B (en) | Matching content to spatial 3D environment | |
CN110168618B (en) | Augmented reality control system and method | |
KR101842075B1 (en) | Trimming content for projection onto a target | |
WO2019141100A1 (en) | Method and apparatus for displaying additional object, computer device, and storage medium | |
US20180046363A1 (en) | Digital Content View Control | |
KR20150116871A (en) | Human-body-gesture-based region and volume selection for hmd | |
KR20230029885A (en) | Augmented reality eyewear with speech bubbles and translation | |
JP2018508851A (en) | monitoring | |
WO2022170221A1 (en) | Extended reality for productivity | |
JP2014095853A (en) | Image processor, projector, image processing method, and program | |
US20230073750A1 (en) | Augmented reality (ar) imprinting methods and systems | |
US11640700B2 (en) | Methods and systems for rendering virtual objects in user-defined spatial boundary in extended reality environment | |
EP3172721A1 (en) | Method and system for augmenting television watching experience | |
TW202013151A (en) | Method and apparatus for interaction with virtual and real images | |
JP7041211B2 (en) | Image display control device, image display system and program | |
CN109791432A (en) | The state for postponing the information for influencing graphic user interface changes until not during absorbed situation | |
JP6632824B2 (en) | Target person guidance system | |
JP2017003820A (en) | Image display controller, image display system, and program | |
JP6661282B2 (en) | Control device, image display system and program | |
JP7113045B2 (en) | display controller | |
JP6716207B2 (en) | Display control device, display control method, program and display system | |
CN112639889A (en) | Content event mapping | |
KR102473669B1 (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180608 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180608 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190319 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190510 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191029 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191204 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200602 |