Nothing Special   »   [go: up one dir, main page]

JP2017044822A - Display controller, display device, control method for display controller and control program - Google Patents

Display controller, display device, control method for display controller and control program Download PDF

Info

Publication number
JP2017044822A
JP2017044822A JP2015166188A JP2015166188A JP2017044822A JP 2017044822 A JP2017044822 A JP 2017044822A JP 2015166188 A JP2015166188 A JP 2015166188A JP 2015166188 A JP2015166188 A JP 2015166188A JP 2017044822 A JP2017044822 A JP 2017044822A
Authority
JP
Japan
Prior art keywords
display
relative position
unit
user
calculation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015166188A
Other languages
Japanese (ja)
Inventor
成文 後田
Narifumi Nochida
成文 後田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2015166188A priority Critical patent/JP2017044822A/en
Publication of JP2017044822A publication Critical patent/JP2017044822A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display device capable of improving the visibility of a user irrespective of shake.SOLUTION: The display device comprises: a reference point determination section (31) and an adjustment amount determination section (32) that calculate a relative position of a user with respect to a display surface; and a display position adjustment section (33) that adjusts the display position of an object to be displayed on the display surface on the basis of a positional difference between a present relative position when the calculation is made and a relative position at a point prior to the present time.SELECTED DRAWING: Figure 1

Description

本発明は、表示対象物を表示する表示装置、該表示装置を制御する表示制御装置、表示制御装置の制御方法、および制御プログラムに関する。   The present invention relates to a display device that displays a display object, a display control device that controls the display device, a control method for the display control device, and a control program.

電車等に乗車中に携帯電話等の携帯機器の画面を視認する場合、電車の揺れによって、画面を確認しにくい場合がある。このような揺れに対する対策として、特許文献1には、画面の振れを調整して表示する画像表示装置が開示されている。より詳細には、画像表示装置が上下左右方向に振れた場合は、表示位置を調整して表示し、前後(遠近)方向に振れた場合は、表示倍率を変更することにより調整する画像表示装置が開示されている。   When viewing the screen of a mobile device such as a mobile phone while riding on a train or the like, it may be difficult to check the screen due to the shaking of the train. As a countermeasure against such shaking, Patent Document 1 discloses an image display device that adjusts and displays screen shake. More specifically, when the image display device swings in the up / down / left / right directions, the display position is adjusted and displayed, and when the image display device swings in the front / rear (far / near) direction, the image display device is adjusted by changing the display magnification. Is disclosed.

特開2004−128712号公報(2004年4月22日公開)JP 2004-128712 A (published April 22, 2004)

しかしながら、上述した従来技術に開示された調整は、画像表示装置そのものの移動量のみを検出して調整量を算出しているため、必ずしもユーザが視認し易い表示とはならないという問題がある。例えば、ユーザが画像表示装置と同じ様に揺れた場合、画像表示装置そのものは移動しているが、ユーザに対する画像表示装置の相対位置は変化しない。また、ユーザが画像表示装置と逆方向に移動した場合、ユーザに対する画像表示装置の相対位置の変化量は、画像表示装置そのもの移動量と異なる。このように、ユーザに対する画像表示装置の相対位置の変化量は、画像表示装置そのものの移動量とは必ずしも一致しない場合がある。   However, the adjustment disclosed in the above-described conventional technique has a problem that the display is not always easy for the user to view because the adjustment amount is calculated by detecting only the movement amount of the image display apparatus itself. For example, when the user shakes in the same manner as the image display device, the image display device itself moves, but the relative position of the image display device with respect to the user does not change. When the user moves in the opposite direction to the image display device, the amount of change in the relative position of the image display device with respect to the user is different from the amount of movement of the image display device itself. As described above, the amount of change in the relative position of the image display device with respect to the user may not necessarily match the amount of movement of the image display device itself.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、揺れに対するユーザの視認性を高めた表示制御装置等を実現することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to realize a display control device and the like that improve the visibility of the user against shaking.

上記の課題を解決するために、本発明の一態様に係る表示制御装置は、表示面を含む表示装置の制御する表示制御装置であって、ユーザの上記表示面に対する相対位置を算出する相対位置算出部と、上記相対位置算出部が算出した現時点の上記相対位置と、現時点より前の時点で上記相対位置算出部が算出した上記相対位置との差分である位置差分から、上記表示面に表示する対象物の表示位置を調整する調整部と、を備えている。   In order to solve the above problems, a display control device according to an aspect of the present invention is a display control device that is controlled by a display device including a display surface, and calculates a relative position of a user relative to the display surface. From the position difference, which is the difference between the relative position calculated by the calculation unit and the current relative position calculated by the relative position calculation unit, and the relative position calculated by the relative position calculation unit before the current time, displayed on the display surface And an adjustment unit that adjusts the display position of the target object.

本発明の一態様によれば、ユーザが視認する表示対象物の位置を、ユーザから見て変えないようにすることができるので、揺れがあっても、ユーザの視認性が低下することを防止することができるという効果を奏する。すなわち、揺れに対する視認性を高めた表示装置を実現することができるという効果を奏する。   According to one embodiment of the present invention, since the position of a display object visually recognized by a user can be prevented from being changed by the user, it is possible to prevent the visibility of the user from being lowered even if there is a shake. There is an effect that can be done. That is, there is an effect that it is possible to realize a display device with improved visibility against shaking.

本発明の実施形態1に係る携帯電話の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the mobile telephone which concerns on Embodiment 1 of this invention. 上記携帯電話における処理の概要を示す図であり、(a)は初期状態を示す図であり、(b)は初期状態からユーザと携帯電話との位置の変化に伴い、表示位置を調整した状態を示す図である。It is a figure which shows the outline | summary of the process in the said mobile telephone, (a) is a figure which shows an initial state, (b) is the state which adjusted the display position with the change of the position of a user and a mobile telephone from an initial state. FIG. 上記携帯電話における処理の内容を説明するための図であり、(a)はユーザと携帯電話との相対距離の算出方法を説明する図であり、(b)はユーザと携帯電話との相対角度の算出方法を説明する図であり、(c)は表示対象物の表示値の調整量の算出方法を説明する図である。It is a figure for demonstrating the content of the process in the said mobile telephone, (a) is a figure explaining the calculation method of the relative distance of a user and a mobile telephone, (b) is a relative angle of a user and a mobile telephone. (C) is a figure explaining the calculation method of the adjustment amount of the display value of a display target object. 上記携帯電話における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process in the said mobile telephone. 本発明の実施形態2および実施形態3に係る携帯電話の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the mobile telephone which concerns on Embodiment 2 and Embodiment 3 of this invention. 上記実施形態2に係る携帯電話の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the mobile telephone which concerns on the said Embodiment 2. FIG. 上記実施形態3に係る携帯電話の処理の流れを示すフローチャートである。10 is a flowchart showing a flow of processing of the mobile phone according to the third embodiment.

〔実施形態1〕
以下、本発明の実施形態について、図1〜図4を用いて詳細に説明する。本実施形態に係る携帯電話(表示装置)1は、ディスプレイ部(表示面)21に対するユーザの相対位置を算出し、相対位置の変化に応じて、表示対象物の表示位置を調整するものである。
Embodiment 1
Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS. The mobile phone (display device) 1 according to the present embodiment calculates the relative position of the user with respect to the display unit (display surface) 21 and adjusts the display position of the display object according to the change in the relative position. .

図2を参照して説明する。図2(a)はユーザの目の位置が携帯電話1の画面中央にある状態(初期状態)を示す。図2(b)は、初期状態から携帯電話1が、ユーザから見て右下へ動いた場合を示す。図2(b)に示すように、ユーザから見て携帯電話1が動いた場合、当該動きに合わせて、表示対象物の表示位置が調整される。図2(b)に示す例では、ディスプレイ部21における表示対象物の表示位置が左上方向に移動して表示されている。なお、図2において、D(a)は、ユーザと携帯電話1との距離を示し、αは、携帯電話1の垂直面に対する角度を示す。   This will be described with reference to FIG. FIG. 2A shows a state (initial state) where the user's eyes are in the center of the screen of the mobile phone 1. FIG. 2B shows a case where the mobile phone 1 moves from the initial state to the lower right as viewed from the user. As shown in FIG. 2B, when the mobile phone 1 moves as viewed from the user, the display position of the display object is adjusted in accordance with the movement. In the example shown in FIG. 2B, the display position of the display object on the display unit 21 is moved and displayed in the upper left direction. In FIG. 2, D (a) indicates the distance between the user and the mobile phone 1, and α indicates the angle with respect to the vertical plane of the mobile phone 1.

これにより、携帯電話1の動きのみでなく、ユーザの動きも考慮して表示対象物の表示位置を調整することができるので、従来技術のような携帯電話1の動きのみを用いて表示対象物の表示位置を調整する場合と比較して、よりユーザの視認性を高めることができる。   As a result, the display position of the display object can be adjusted in consideration of not only the movement of the mobile phone 1 but also the movement of the user, so that the display object is only used using the movement of the mobile phone 1 as in the prior art. Compared with the case where the display position is adjusted, the visibility of the user can be further improved.

なお、以下では、携帯電話1のユーザに対する相対位置を「携帯電話1とユーザとの相対位置」とも呼び、携帯電話1から見たユーザの相対角度(携帯電話1のカメラ部11から見た、カメラ部11の撮影方向とユーザの目の位置とがなす相対角度)を「携帯電話1とユーザとの相対角度」とも呼ぶ。   Hereinafter, the relative position of the mobile phone 1 with respect to the user is also referred to as “relative position between the mobile phone 1 and the user”, and the relative angle of the user viewed from the mobile phone 1 (viewed from the camera unit 11 of the mobile phone 1. The relative angle between the shooting direction of the camera unit 11 and the position of the eyes of the user is also referred to as “relative angle between the mobile phone 1 and the user”.

〔携帯電話1の構成〕
次に、図1を参照して、携帯電話1の要部構成について説明する。図1は、携帯電話1の要部構成を示すブロック図である。図1に示すように、携帯電話1は、入力部10、出力部20、制御部(表示制御装置)30、および記憶部40を備えている。入力部10は、カメラ部11、タッチパネル部13、ボタン部14を備えており、出力部20は、ディスプレイ部21、およびスピーカー部22を備えている。制御部30は、基準点決定部(相対位置算出部)31、調整量決定部(相対位置算出部)32、および表示位置調整部(調整部)33を備え、調整量決定部32は、相対距離算出部34、および相対角度算出部35を備える。そして、記憶部40は、表示メモリ41を備えている。
[Configuration of mobile phone 1]
Next, with reference to FIG. 1, the structure of the main part of the mobile phone 1 will be described. FIG. 1 is a block diagram showing a main configuration of the mobile phone 1. As shown in FIG. 1, the mobile phone 1 includes an input unit 10, an output unit 20, a control unit (display control device) 30, and a storage unit 40. The input unit 10 includes a camera unit 11, a touch panel unit 13, and a button unit 14, and the output unit 20 includes a display unit 21 and a speaker unit 22. The control unit 30 includes a reference point determination unit (relative position calculation unit) 31, an adjustment amount determination unit (relative position calculation unit) 32, and a display position adjustment unit (adjustment unit) 33. A distance calculation unit 34 and a relative angle calculation unit 35 are provided. The storage unit 40 includes a display memory 41.

入力部10は、携帯電話1に入力される様々な情報を受け付け、制御部30へ送信する。図1ではカメラ部11、タッチパネル部13、およびボタン部14を備えている。   The input unit 10 receives various information input to the mobile phone 1 and transmits it to the control unit 30. In FIG. 1, a camera unit 11, a touch panel unit 13, and a button unit 14 are provided.

カメラ部11は、ユーザを撮像することによってカメラ取得画像51を取得し、AF情報52とともに、基準点決定部31および調整量決定部32へ送信する。カメラ取得画像51には、ユーザの目が含まれており、基準点決定部31および調整量決定部32は、カメラ取得画像51、およびAF情報52を用いることにより、携帯電話1のディスプレイ部21に対するユーザの目の位置、および目の大きさの認識することができる。なお、AF情報52は、カメラ部11の焦点距離の情報を含むオートフォーカス情報である。   The camera unit 11 acquires a camera acquired image 51 by capturing an image of the user, and transmits the acquired camera image 51 to the reference point determination unit 31 and the adjustment amount determination unit 32 together with the AF information 52. The camera acquisition image 51 includes the eyes of the user, and the reference point determination unit 31 and the adjustment amount determination unit 32 use the camera acquisition image 51 and the AF information 52 to display the display unit 21 of the mobile phone 1. The user's eye position and eye size can be recognized. The AF information 52 is autofocus information including information on the focal length of the camera unit 11.

タッチパネル部13およびボタン部14は、携帯電話1に対するユーザの入力を受け付けるものである。   The touch panel unit 13 and the button unit 14 receive user input to the mobile phone 1.

出力部20は、ディスプレイ部21、およびスピーカー部22を備えている。ディスプレイ部21は、画像等の表示を行うものであり、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、プラズマディスプレイ等によって実現される。ディスプレイ部21は、表示位置調整部33から送信された調整後画像データ56に基づく表示を行う。   The output unit 20 includes a display unit 21 and a speaker unit 22. The display unit 21 displays an image or the like, and is realized by a liquid crystal display, an organic EL (Electro Luminescence) display, a plasma display, or the like. The display unit 21 performs display based on the adjusted image data 56 transmitted from the display position adjustment unit 33.

スピーカー部22は、携帯電話1の音声を出力するものである。   The speaker unit 22 outputs the sound of the mobile phone 1.

制御部30は、表示対象物の表示位置の調整を含む、携帯電話1における各種処理を実行するものであり、基準点決定部31、調整量決定部32、および表示位置調整部33を含む。   The control unit 30 executes various processes in the mobile phone 1 including adjustment of the display position of the display object, and includes a reference point determination unit 31, an adjustment amount determination unit 32, and a display position adjustment unit 33.

基準点決定部31は、カメラ部11より受信したカメラ取得画像51、およびAF情報52を用いて、ユーザの目とカメラ部11との相対位置(相対距離および相対角度)を算出し、基準点情報53として調整量決定部32へ送信する。相対位置の算出方法の詳細については後述する。   The reference point determination unit 31 calculates the relative position (relative distance and relative angle) between the user's eyes and the camera unit 11 using the camera acquired image 51 and the AF information 52 received from the camera unit 11, and the reference point Information 53 is transmitted to the adjustment amount determination unit 32. Details of the relative position calculation method will be described later.

調整量決定部32は、現時点での表示位置の調整量を決定し、決定した調整量を調整量情報54として表示位置調整部33へ送信するものであり、相対距離算出部34、相対角度算出部35、および調整量算出部38を含む。   The adjustment amount determination unit 32 determines the adjustment amount of the current display position, and transmits the determined adjustment amount to the display position adjustment unit 33 as adjustment amount information 54. The relative distance calculation unit 34, the relative angle calculation, and the like. Part 35 and adjustment amount calculation part 38.

相対距離算出部34は、カメラ部11より受信したカメラ取得画像51およびAF情報52より、ユーザの目とカメラ部11との相対距離を算出する。具体的な算出方法については後述する。   The relative distance calculation unit 34 calculates the relative distance between the user's eyes and the camera unit 11 from the camera acquired image 51 and the AF information 52 received from the camera unit 11. A specific calculation method will be described later.

相対角度算出部35は、カメラ部11より受信したカメラ取得画像51およびAF情報52より、ユーザの目とカメラ部11との相対角度を算出する。具体的な算出方法については後述する。   The relative angle calculation unit 35 calculates the relative angle between the user's eyes and the camera unit 11 from the camera acquired image 51 and the AF information 52 received from the camera unit 11. A specific calculation method will be described later.

調整量算出部38は、相対距離算出部34および相対角度算出部35にて算出した、ユーザの目とカメラ部11との相対距離および相対角度(2つを含めて相対位置と呼ぶ)と、基準点決定部31より受信した基準点情報53とを比較する。そして、基準点情報53との差分(位置差分)を算出し、算出した差分に基づいて表示位置の調整分を算出し調整量情報54として表示位置調整部33へ送信する。   The adjustment amount calculation unit 38 is calculated by the relative distance calculation unit 34 and the relative angle calculation unit 35, and the relative distance and relative angle (including the two) of the user's eyes and the camera unit 11, The reference point information 53 received from the reference point determination unit 31 is compared. Then, a difference (position difference) from the reference point information 53 is calculated, and an adjustment amount of the display position is calculated based on the calculated difference and transmitted to the display position adjustment unit 33 as adjustment amount information 54.

表示位置調整部33は、表示メモリ42より読み出した調整前画像データ55と、調整量算出部38より受信した調整量情報54から、調整前画像データ55における表示位置を調整量情報54に基づいて調整した調整後画像データ56を生成し、ディスプレイ部21へ送信する。   The display position adjustment unit 33 determines the display position in the pre-adjustment image data 55 based on the adjustment amount information 54 from the pre-adjustment image data 55 read from the display memory 42 and the adjustment amount information 54 received from the adjustment amount calculation unit 38. The adjusted post-adjustment image data 56 is generated and transmitted to the display unit 21.

記憶部40は、携帯電話1の画面に表示するための画像データを格納しているものであり、表示メモリ41を含む。記憶部40は、フラッシュメモリ、ROM(Read Only Memory)などの不揮発性のデバイスと、RAM(Random Access Memory)などの揮発性のデバイスとによって構成される。   The storage unit 40 stores image data to be displayed on the screen of the mobile phone 1 and includes a display memory 41. The storage unit 40 includes a nonvolatile device such as a flash memory and a ROM (Read Only Memory), and a volatile device such as a RAM (Random Access Memory).

表示メモリ41には、調整前の画像データを調整前画像データ55として格納されている。   The display memory 41 stores pre-adjustment image data as pre-adjustment image data 55.

〔携帯電話1からみたユーザの相対位置の算出方法〕
次に、図3を参照して、携帯電話1から見たユーザの相対位置の算出方法について説明する。
[Calculating method of relative position of user viewed from mobile phone 1]
Next, a method for calculating the relative position of the user viewed from the mobile phone 1 will be described with reference to FIG.

図3は、携帯電話1から見たユーザの相対位置を算出する方法を説明するための図であり、図3(a)は、携帯電話1とユーザとの相対距離を算出する方法を説明するための図であり、図3(b)は、携帯電話1とユーザとの相対角度を算出する方法を説明するための図であり、図3(c)は、携帯電話1における表示対象物の表示位置の調整量を算出する方法を説明するための図である。なお、図3では、カメラ部11のレンズ中央を基準位置としている。   FIG. 3 is a diagram for explaining a method for calculating the relative position of the user as viewed from the mobile phone 1, and FIG. 3A shows a method for calculating the relative distance between the mobile phone 1 and the user. FIG. 3B is a diagram for explaining a method of calculating a relative angle between the mobile phone 1 and the user, and FIG. 3C is a diagram of a display object in the mobile phone 1. It is a figure for demonstrating the method of calculating the adjustment amount of a display position. In FIG. 3, the center of the lens of the camera unit 11 is the reference position.

〔相対距離の算出方法〕
まず、図3(a)を参照して、携帯電話1とユーザとの相対距離を算出する方法を説明する。ここでは、時刻tにおける、携帯電話1からユーザまで距離をD(t)とし、ユーザの目の横方向の長さをMrとし、カメラ部11のイメージセンサに映しだされた時刻tの時点でのユーザの目の横方向の長さをMi(t)とし、カメラ部11の焦点距離をfとする。なお、ユーザの目の横方向の長さMrは、キャリブレーションにより算出してもよいし、年齢や性別、身長情報などをユーザに入力させ、統計情報から参照するようにしてもよい。また、Mi(t)はカメラ取得画像51から算出し、fはAF情報52より取得する。なお、本実施形態では、携帯電話1からユーザの目までの距離を、携帯電話1からユーザまでの距離と呼ぶ。
[Calculation method of relative distance]
First, a method for calculating the relative distance between the mobile phone 1 and the user will be described with reference to FIG. Here, at time t, the distance from the mobile phone 1 to the user is D (t), the length of the user's eyes in the horizontal direction is Mr, and at the time t displayed on the image sensor of the camera unit 11. The horizontal length of the user's eyes is Mi (t), and the focal length of the camera unit 11 is f. The lateral length Mr of the user's eyes may be calculated by calibration, or the user may input age, gender, height information, and the like, and refer to the statistical information. Mi (t) is calculated from the camera acquired image 51, and f is acquired from the AF information 52. In the present embodiment, the distance from the mobile phone 1 to the user's eyes is referred to as the distance from the mobile phone 1 to the user.

このとき、携帯電話1からユーザまでの相対距離D(t)は、以下の式で求めることができる。   At this time, the relative distance D (t) from the mobile phone 1 to the user can be obtained by the following equation.

Figure 2017044822
Figure 2017044822

Figure 2017044822
Figure 2017044822

なお、調整処理の開始時点(t=0)であるD(0)は、基準点情報53における携帯電話1とユーザとの相対距離を表す。   Note that D (0), which is the start time (t = 0) of the adjustment process, represents the relative distance between the mobile phone 1 and the user in the reference point information 53.

〔相対角度の算出方法〕
次に、図3(b)を参照して、携帯電話1とユーザとの相対角度を算出する方法を説明する。基準位置を通り、カメラ部11の撮影方向と平行な直線と、ユーザの目とカメラ部11とを結んだ直線がなす角度をAr(d,t)とし、イメージセンサにおける基準位置からユーザの目までの距離をSi(d,t)としたとき、携帯電話1とユーザとの相対角度(携帯電話1のカメラ部11とユーザの目との相対角度)Ar(d,t)は、以下の式で求めることができる。
[Calculation method of relative angle]
Next, a method for calculating the relative angle between the mobile phone 1 and the user will be described with reference to FIG. An angle formed by a straight line passing through the reference position and parallel to the shooting direction of the camera unit 11 and a straight line connecting the user's eyes and the camera unit 11 is Ar (d, t), and the user's eyes from the reference position in the image sensor. The relative angle between the mobile phone 1 and the user (relative angle between the camera unit 11 of the mobile phone 1 and the user's eyes) Ar (d, t) is given by It can be obtained by an expression.

Figure 2017044822
Figure 2017044822

ここで、dは携帯電話1のディスプレイ部21と平行な平面上における方向を示す。なお、ディスプレイ部21の表示方向とカメラ部11の撮影方向とは同じものとする。例えば、ディスプレイ部21の短手方向をx、長手方向をyとすれば、基準位置からの距離を、x方向とy方向とで個別に算出することができる。 Here, d indicates a direction on a plane parallel to the display unit 21 of the mobile phone 1. Note that the display direction of the display unit 21 and the shooting direction of the camera unit 11 are the same. For example, if the short direction of the display unit 21 is x and the long direction is y, the distance from the reference position can be calculated separately for the x direction and the y direction.

これにより、x方向の相対角度とy方向の相対角度とを算出することができる。   Thereby, the relative angle in the x direction and the relative angle in the y direction can be calculated.

なお、〔数3〕において、調整処理の開始時点(t=0)であるAr(d,0)は基準点情報53における、ユーザとカメラ部11との相対角度を表す。   In [Equation 3], Ar (d, 0), which is the start time (t = 0) of the adjustment process, represents the relative angle between the user and the camera unit 11 in the reference point information 53.

以上のように、携帯電話1とユーザとの相対距離、および携帯電話1から見たユーザの相対角度を算出することにより、携帯電話1から見たユーザの相対位置を算出することができる。   As described above, by calculating the relative distance between the mobile phone 1 and the user and the relative angle of the user viewed from the mobile phone 1, the relative position of the user viewed from the mobile phone 1 can be calculated.

〔調整量の算出方法〕
次に、図3(c)を参照して、表示対象物の表示位置を調整するための調整量情報54を求める方法を説明する。まず、ユーザを通るディスプレイ部21と平行な平面(ユーザ面)における基準位置と対抗する位置とユーザの目との距離をSr(d,t)とすると、Sr(d,t)は、以下の式で求めることができる。
[Calculation method of adjustment amount]
Next, a method for obtaining the adjustment amount information 54 for adjusting the display position of the display object will be described with reference to FIG. First, when the distance between the position facing the reference position on the plane (user surface) parallel to the display unit 21 passing through the user and the user's eyes is Sr (d, t), Sr (d, t) is It can be obtained by an expression.

Figure 2017044822
Figure 2017044822

調整量情報54は、基準点情報53(t=0)に対する、ある時刻tにおけるユーザの目とカメラ部11の相対位置の変化から算出することができる。携帯電話1から見たユーザの相対位置が変化した場合の、携帯電話1に平行な平面上におけるユーザの目の位置の変位量は、(Sr(d,t)−Sr(d,0))として表すことができる。したがって、ディスプレイ部21を構成するピクセル数を考慮し、例えば、単位長さあたりのピクセル数がPdispである場合、表示対象物の表示位置の調整量Sdisp(d,t)は、 The adjustment amount information 54 can be calculated from a change in the relative position of the user's eyes and the camera unit 11 at a certain time t with respect to the reference point information 53 (t = 0). When the relative position of the user viewed from the mobile phone 1 changes, the displacement of the user's eye position on a plane parallel to the mobile phone 1 is (Sr (d, t) −Sr (d, 0)) Can be expressed as Therefore, in consideration of the number of pixels constituting the display unit 21, for example, when the number of pixels per unit length is P disp , the adjustment amount S disp (d, t) of the display position of the display object is

Figure 2017044822
Figure 2017044822

として算出することができる。 Can be calculated as

なお、前後(遠近)方向の変位については、D(t)/D(0)より、拡大・縮小の倍率を算出し、算出した倍率で表示対象物の表示を行ってもよい。
〔携帯電話1が実行する処理〕
次に、図4を参照して、携帯電話1が実行する処理の流れを説明する。図4は、携帯電話1が実行する処理の流れを示すフローチャートである。
As for the displacement in the front-rear (far-near) direction, the magnification of enlargement / reduction may be calculated from D (t) / D (0), and the display object may be displayed at the calculated magnification.
[Processes performed by the mobile phone 1]
Next, the flow of processing executed by the mobile phone 1 will be described with reference to FIG. FIG. 4 is a flowchart showing a flow of processing executed by the mobile phone 1.

まず、基準点が設定される(S2)。基準点設定では、カメラ部11がユーザを撮像し、生成されたカメラ取得画像51およびAF情報52を、基準点決定部31へ送信する(S3)。基準点決定部31は取得したカメラ取得画像51およびAF情報52を用いて、ユーザの目とカメラ部11の相対距離を算出し(S4)、さらに、ユーザの目とカメラ部11との相対角度を算出する(S5)。そして、基準点決定部31は、算出した相対距離および相対位置から基準点情報53を決定(設定)する(S6)。   First, a reference point is set (S2). In the reference point setting, the camera unit 11 images the user and transmits the generated camera acquisition image 51 and the AF information 52 to the reference point determination unit 31 (S3). The reference point determination unit 31 calculates the relative distance between the user's eyes and the camera unit 11 using the acquired camera acquisition image 51 and the AF information 52 (S4), and further, the relative angle between the user's eyes and the camera unit 11 Is calculated (S5). Then, the reference point determination unit 31 determines (sets) the reference point information 53 from the calculated relative distance and relative position (S6).

その後、ユーザの目とカメラ部11の相対位置の変化に従い、表示対象物の表示位置の調整処理が行われる(S7)。   Thereafter, in accordance with the change in the relative position between the user's eyes and the camera unit 11, the display position of the display object is adjusted (S7).

まず調整量決定部32が調整量を算出する(S8、相対位置算出ステップ)。調整量の算出では、カメラ部11がユーザを撮像し、生成されたカメラ取得画像51およびAF情報52を、調整量決定部32へ送信する(S9)。次に、相対距離算出部34は、カメラ取得画像51およびAF情報52から相対距離を算出する(S10)。また、相対角度算出部35は、カメラ取得画像51およびAF情報52から相対角度を算出する(S11)。そして、調整量算出部38は、基準点決定部31から読み出した基準点情報53と相対位置とを比較し、位置振れ量を算出し(S12)、算出した位置振れ量から調整量情報54を算出する(S13)。   First, the adjustment amount determination unit 32 calculates the adjustment amount (S8, relative position calculation step). In the calculation of the adjustment amount, the camera unit 11 images the user, and transmits the generated camera acquisition image 51 and AF information 52 to the adjustment amount determination unit 32 (S9). Next, the relative distance calculation unit 34 calculates a relative distance from the camera acquired image 51 and the AF information 52 (S10). Further, the relative angle calculation unit 35 calculates the relative angle from the camera acquired image 51 and the AF information 52 (S11). Then, the adjustment amount calculation unit 38 compares the reference point information 53 read from the reference point determination unit 31 with the relative position, calculates a position shake amount (S12), and calculates the adjustment amount information 54 from the calculated position shake amount. Calculate (S13).

表示位置調整部33は、調整前画像データ55、および調整量情報54から、表示対象物の表示位置を調整した調整後画像データ56を生成する(S14、調整ステップ)。そして、調整後画像データ56をディスプレイ部21より出力する(S15)。   The display position adjustment unit 33 generates adjusted image data 56 in which the display position of the display object is adjusted from the pre-adjustment image data 55 and the adjustment amount information 54 (S14, adjustment step). Then, the adjusted image data 56 is output from the display unit 21 (S15).

ステップS8〜S15の一連の調整処理は、ユーザの目とカメラ部11の相対位置が変化する度に実施され、ユーザからの終了指示などの契機によって、調整処理を終了する(S16)。
〔実施形態1の変形例〕
上述した実施形態1の携帯電話1において、調整処理を行うことが適当であるタイミング以外は、調整処理を行わない構成とするものであってもよい。例えば、タッチパネル部13が入力を受け付けている間、ディスプレイ部21にはタッチパネル部13からの入力に必要な画像データが出力されていると考えられる。このとき、画像データの調整を行うと、タッチパネルで入力しようと試みた入力枠の位置が調整によってずれてしまうため、入力が困難になってしまう。そこで、タッチパネル部13が入力を受け付けている間、調整処理が実行されないような構成であってもよい。
A series of adjustment processes in steps S8 to S15 are performed each time the relative position of the user's eyes and the camera unit 11 changes, and the adjustment process is terminated in response to an end instruction from the user (S16).
[Modification of Embodiment 1]
The mobile phone 1 of the first embodiment described above may be configured such that the adjustment process is not performed except for the timing when it is appropriate to perform the adjustment process. For example, it is considered that image data necessary for input from the touch panel unit 13 is being output to the display unit 21 while the touch panel unit 13 receives input. At this time, if the image data is adjusted, the position of the input frame attempted to be input on the touch panel is shifted due to the adjustment, which makes input difficult. Therefore, the configuration may be such that the adjustment process is not executed while the touch panel unit 13 receives an input.

また、調整の対象とする画面データは、携帯電話1の画面に出力される内容の一部のみとする構成であってもよい。これによれば、タッチパネルの入力枠といった、調整が不要と判断された内容の表示位置を固定しつつ、それ以外の内容を調整することが可能となる。   The screen data to be adjusted may be configured to include only a part of the content output on the screen of the mobile phone 1. According to this, it is possible to adjust other contents while fixing the display position of the contents that are determined to be unnecessary, such as the input frame of the touch panel.

〔実施形態2〕
本発明の他の実施形態について、図5、図6に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 2]
The following will describe another embodiment of the present invention with reference to FIGS. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.

実施形態2に係る携帯電話2は、角速度検出部12を備え、ディスプレイ部21の中心を通り、ディスプレイ部21と平行な軸を中心にして携帯電話2が振れた場合(以降、角度振れとも呼ぶ)であっても、適切に表示対象物の表示位置の調整ができるものである。   The mobile phone 2 according to the second embodiment includes the angular velocity detection unit 12, and the mobile phone 2 shakes about an axis that passes through the center of the display unit 21 and is parallel to the display unit 21 (hereinafter, also referred to as angular shake). ), The display position of the display object can be appropriately adjusted.

角度振れが起こった場合、ユーザの目と携帯電話2の画面中央の相対位置は変わらないものの、ユーザの目とカメラ部11の相対位置は変化してしまう。これにより、上述した実施形態1の構成では、この位置変化を上下左右の振れと認識し、表示位置の調整を行ってしまう可能性がある。本実施形態では、角速度検出部12にて検出した角度振れ情報57に基づいて、角度振れが発生しても正しい調整を行うものである。   When the angular shake occurs, the relative position between the user's eyes and the center of the screen of the mobile phone 2 does not change, but the relative position between the user's eyes and the camera unit 11 changes. As a result, in the configuration of the first embodiment described above, there is a possibility that the position change is recognized as up / down / left / right shake and the display position is adjusted. In the present embodiment, correct adjustment is performed even if an angular shake occurs based on the angular shake information 57 detected by the angular velocity detection unit 12.

〔携帯電話2の構成〕
本実施形態に係る携帯電話2の要部構成について、図5を参照して説明する。図5に示すように、本実施形態に係る携帯電話2は、携帯電話2の傾きを検出するための角速度検出部12、および調整開始時の傾きと調整時の傾きとの変位量を元に調整量を算出する角度振れ算出部(角度差分算出部)36を備える。
[Configuration of mobile phone 2]
The principal part structure of the mobile phone 2 according to the present embodiment will be described with reference to FIG. As shown in FIG. 5, the mobile phone 2 according to the present embodiment is based on the angular velocity detection unit 12 for detecting the tilt of the mobile phone 2 and the amount of displacement between the tilt at the start of adjustment and the tilt at the time of adjustment. An angle shake calculation unit (angle difference calculation unit) 36 that calculates the adjustment amount is provided.

角度振れ算出部36は、角速度検出部12から角度振れ情報57を取得し、調整処理の開始時点における、携帯電話2の傾き具合を基準点情報53として格納する。   The angular shake calculation unit 36 acquires the angular shake information 57 from the angular velocity detection unit 12 and stores the inclination degree of the mobile phone 2 as the reference point information 53 at the start of the adjustment process.

また、角度振れ算出部36は、調整時点におけるカメラ取得画像51、AF情報52、および、角速度検出部12が検出した角度を示す角度振れ情報57を取得する。   Further, the angular shake calculation unit 36 acquires the camera acquisition image 51, the AF information 52, and the angular shake information 57 indicating the angle detected by the angular velocity detection unit 12 at the time of adjustment.

そして、基準点情報生成時の角度振れ情報57と、調整時の角度振れ情報57を比較し、角度振れ分(角度差分)を調整量算出部38に通知する。   Then, the angular shake information 57 at the time of generating the reference point information is compared with the angular shake information 57 at the time of adjustment, and the amount of angular shake (angle difference) is notified to the adjustment amount calculation unit 38.

調整量算出部38は、通知された角度振れ分を考慮して調整量を算出する。   The adjustment amount calculation unit 38 calculates the adjustment amount in consideration of the notified angular shake amount.

〔携帯電話2が実行する処理〕
次に、携帯電話2が実行する処理の流れを説明する。なお、ここでは、実施形態1との相違点のみ説明する。
[Processing performed by the mobile phone 2]
Next, the flow of processing executed by the mobile phone 2 will be described. Here, only differences from the first embodiment will be described.

まず、基準点設定(S2)において、ユーザの目とカメラ部11の相対距離および相対角度を算出した後(S4、S5)、相対的な角度振れ量を算出する(S18)。そして、相対的な角度振れ量を含む基準点情報53を設定する(S6)。   First, in the reference point setting (S2), after calculating the relative distance and relative angle between the user's eyes and the camera unit 11 (S4, S5), the relative angular shake amount is calculated (S18). Then, the reference point information 53 including the relative angular shake amount is set (S6).

次に、調整量算出(S8)において、ユーザの目とカメラ部11の相対距離および相対角度から相対的な位置振れ量を算出した後(S10、S11、S12)、相対的な角度振れ量を算出する(S19)。そして、算出したこれらの情報と基準点情報53から調整前画像データ55の調整処理を行う(S13、S14、S15)。   Next, in the adjustment amount calculation (S8), after calculating the relative positional shake amount from the relative distance and relative angle between the user's eyes and the camera unit 11 (S10, S11, S12), the relative angular shake amount is calculated. Calculate (S19). Then, the pre-adjustment image data 55 is adjusted from the calculated information and the reference point information 53 (S13, S14, S15).

その後、実施形態1と同様に、ユーザからの終了指示などの契機によって、調整処理を終了する(S16)。
〔実施形態2の変形例〕
また、角速度検出部12は、複数の検出部を備える構成としてもよい。これによれば、精度良く角度振れ情報57を取得することができる。
〔実施形態3〕
本発明のさらなる他の実施形態について、図5および図7に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
Thereafter, as in the first embodiment, the adjustment process is terminated in response to a termination instruction from the user (S16).
[Modification of Embodiment 2]
Further, the angular velocity detection unit 12 may include a plurality of detection units. According to this, the angular shake information 57 can be acquired with high accuracy.
[Embodiment 3]
The following will describe still another embodiment of the present invention with reference to FIGS. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.

本実施形態に係る携帯電話3では、角速度検出部12を備えた携帯電話3が、携帯電話3のディスプレイ部21の面の向きが変わらないまま回転した場合(以降、回転振れとも呼ぶ)であっても、表示対象物の表示位置の調整ができるものである。
〔携帯電話3の構成〕
本実施形態では、実施形態2で用いた角速度検出部12が、角度振れに加えて回転角を検出し、回転角情報58として回転振れ算出部37に通知する。
In the mobile phone 3 according to the present embodiment, the mobile phone 3 provided with the angular velocity detection unit 12 rotates without changing the orientation of the surface of the display unit 21 of the mobile phone 3 (hereinafter also referred to as rotational shake). However, the display position of the display object can be adjusted.
[Configuration of mobile phone 3]
In the present embodiment, the angular velocity detection unit 12 used in the second embodiment detects a rotation angle in addition to the angular shake, and notifies the rotation shake calculation unit 37 as the rotation angle information 58.

回転振れ算出部(回転角算出部)37は、角速度検出部12から回転振れ情報58を取得し、調整処理の開始時点における、携帯電話2の回転具合を基準点情報53として格納する。   The rotation shake calculation unit (rotation angle calculation unit) 37 acquires the rotation shake information 58 from the angular velocity detection unit 12 and stores the rotation state of the mobile phone 2 as the reference point information 53 at the start of the adjustment process.

また、回転振れ算出部37は、調整時点におけるカメラ取得画像51、AF情報52、および、角速度検出部12が検出した回転角を示す回転振れ情報58を取得する。   Further, the rotational shake calculation unit 37 acquires the camera acquisition image 51, the AF information 52, and the rotational shake information 58 indicating the rotation angle detected by the angular velocity detection unit 12 at the time of adjustment.

そして、基準点情報生成時の回転振れ情報57と、調整時の回転振れ情報57を比較し、回転振れ分(回転角度)を調整量算出部38に通知する。   Then, the rotational shake information 57 at the time of generating the reference point information is compared with the rotational shake information 57 at the time of adjustment, and the amount of rotational shake (rotation angle) is notified to the adjustment amount calculation unit 38.

調整量算出部38は、通知された回転振れ分を考慮して調整量を算出する。より詳細には、回転した角度を同じ角度分、回転方向と反対方向に表示対象物の天地を調整する。   The adjustment amount calculation unit 38 calculates the adjustment amount in consideration of the notified rotational shake amount. More specifically, the top and bottom of the display object is adjusted in the opposite direction to the rotation direction by the same angle as the rotated angle.

〔携帯電話3が実行する処理〕
次に、携帯電話3が実行する処理の流れを説明する。なお、ここでは、実施形態2との相違点のみ説明する。
[Processes performed by the mobile phone 3]
Next, the flow of processing executed by the mobile phone 3 will be described. Here, only differences from the second embodiment will be described.

まず、基準点設定(S2)において、ユーザの目とカメラ部11の相対距離および相対角度、相対的な角度振れ量を算出した後(S4、S5、S18)、相対的な回転振れ量を算出する(S20)。そして、相対的な回転振れ量を含む基準点情報53を設定する(S6)。   First, in the reference point setting (S2), after calculating the relative distance and relative angle between the user's eyes and the camera unit 11 and the relative angular shake amount (S4, S5, S18), the relative rotational shake amount is calculated. (S20). Then, reference point information 53 including a relative rotational shake amount is set (S6).

次に、調整量算出(S8)において、ユーザの目とカメラ部11の相対距離および相対角度から相対的な位置振れ量を算出した後(S10、S11、S12)、相対的な角度振れ量を算出し(S19)、相対的な回転振れ量を算出する(S21)。そして、算出したこれらの情報と基準点情報53から調整前画像データ55の調整処理を行う(S13、S14、S15)。   Next, in the adjustment amount calculation (S8), after calculating the relative positional shake amount from the relative distance and relative angle between the user's eyes and the camera unit 11 (S10, S11, S12), the relative angular shake amount is calculated. Calculate (S19), and calculate the relative rotational shake amount (S21). Then, the pre-adjustment image data 55 is adjusted from the calculated information and the reference point information 53 (S13, S14, S15).

その後、実施形態1、実施形態2と同様に、調整処理を終了する(S16)。   Thereafter, the adjustment process is terminated (S16), as in the first and second embodiments.

〔その他の変形例〕
上述した実施形態1〜3では、ユーザと携帯電話1〜3がそれぞれ1対1で対応している場合について説明したが、これに限られず、例えば、1つの携帯電話を複数のユーザが利用する構成であってもよい。この場合、ユーザが切り替わるたび、基準点情報53を作り直す、もしくは個々のユーザに対応する基準点情報53を記憶部40に格納し、識別したユーザに応じた基準点情報53を用いる構成とすればよい。
[Other variations]
In Embodiments 1 to 3 described above, the case where the user and the mobile phones 1 to 3 correspond one-to-one has been described. However, the present invention is not limited to this. For example, a plurality of users use one mobile phone. It may be a configuration. In this case, each time the user is switched, the reference point information 53 is recreated, or the reference point information 53 corresponding to each user is stored in the storage unit 40, and the reference point information 53 corresponding to the identified user is used. Good.

また、上記実施形態1〜3では、ユーザの目を用いて携帯電話1から見たユーザの相対位置(相対距離および相対角度)を算出する方法について説明したが、相対位置の算出に用いるのはユーザの目に限られるものではなく、ユーザの鼻、眉毛等、ユーザの顔の位置を特定できる部位(顔の特徴点)であればどこでもよい。   In the first to third embodiments, the method for calculating the relative position (relative distance and relative angle) of the user viewed from the mobile phone 1 using the user's eyes has been described. It is not limited to the user's eyes, and may be any part (facial feature point) that can specify the position of the user's face, such as the user's nose and eyebrows.

〔ソフトウェアによる実現例〕
携帯電話1〜3の各ブロック(特に基準点決定部31および調整量決定部32)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Example of software implementation]
Each block (particularly the reference point determination unit 31 and the adjustment amount determination unit 32) of the mobile phones 1 to 3 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or a CPU It may be realized by software using (Central Processing Unit).

後者の場合、携帯電話1〜3は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, the mobile phones 1 to 3 include a CPU that executes instructions of a program that is software that realizes each function, and a ROM (Read Only Memory) in which the program and various data are recorded so as to be readable by the computer (or CPU). ) Or a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like. And the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it. As the recording medium, a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program. The present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

〔まとめ〕
本発明の態様1に係る表示制御装置は、表示面を含む表示装置を制御する表示制御装置であって、ユーザの上記表示面に対する相対位置を算出する相対位置算出部と、上記相対位置算出部が算出した現時点の上記相対位置と、現時点より前の時点で上記相対位置算出部が算出した上記相対位置との差分である位置差分から、上記表示面に表示する対象物の表示位置を調整する調整部と、を備えている。
[Summary]
A display control device according to an aspect 1 of the present invention is a display control device that controls a display device including a display surface, and includes a relative position calculation unit that calculates a relative position of a user with respect to the display surface, and the relative position calculation unit. The display position of the object to be displayed on the display surface is adjusted from the position difference that is the difference between the relative position at the current time calculated by the above and the relative position calculated by the relative position calculation unit at a time before the current time. And an adjustment unit.

上記の構成によれば、現時点と、前の時点との、表示装置の表示面に対するユーザの相対位置の差分に基づいて表示対象物の表示位置を調整する。よって、揺れ等によって表示装置とユーザとの位置関係がずれたとしても、表示面に表示される対象物の表示位置とユーザの位置との関係はずれないようにすることができる。これにより、ユーザが視認する表示対象物の位置を、ユーザから見て変えないようにすることができるので、揺れがあっても、ユーザの視認性が低下することを防止することができる。すなわち、揺れに対する視認性を高めた表示装置を実現することができる。   According to said structure, the display position of a display target object is adjusted based on the difference of the user's relative position with respect to the display surface of a display apparatus of the present time and the previous time. Therefore, even if the positional relationship between the display device and the user is shifted due to shaking or the like, the relationship between the display position of the object displayed on the display surface and the user's position can be prevented. Thereby, since the position of the display target object visually recognized by the user can be prevented from being changed by the user, it is possible to prevent the visibility of the user from being lowered even if there is a shake. That is, a display device with improved visibility against shaking can be realized.

本発明の態様2に係る表示制御装置は、上記態様1において、上記相対位置算出部は、上記表示面に対する上記ユーザの顔の特徴点の相対位置を算出するものであってもよい。   In the display control apparatus according to aspect 2 of the present invention, in the aspect 1, the relative position calculation unit may calculate a relative position of a feature point of the user's face with respect to the display surface.

上記の構成によれば、表示面に対するユーザの顔の特徴点の相対位置を用いて表示対象物の表示位置を調整することができる。これにより、ユーザから見た表示位置を調整することができるので、よりユーザの視認性を高めることができる。   According to said structure, the display position of a display target object can be adjusted using the relative position of the feature point of a user's face with respect to a display surface. Thereby, since the display position seen from the user can be adjusted, a user's visibility can be improved more.

なお、顔の特徴点は、顔の位置を特定できる点であれば、どのような点であってもよく、例えば、目、鼻、眉毛等である。   Note that the facial feature point may be any point as long as the position of the face can be specified, such as eyes, nose, eyebrows, and the like.

本発明の態様3に係る表示制御装置は、上記態様1または2において、上記表示面の水平面に垂直な面である垂直面との角度の、上記現時点と上記前の時点とにおける差分である角度差分を算出する角度差分算出部を備え、上記調整部は、上記位置差分に加え、上記角度差分算出部が算出した角度差分をさらに用いて上記表示面に表示する対象物の表示位置を調整するものであってもよい。   The display control apparatus according to aspect 3 of the present invention is the display control apparatus according to aspect 1 or 2, wherein the angle between the current time and the previous time is an angle between the display surface and a vertical surface that is a surface perpendicular to the horizontal plane. An angle difference calculation unit that calculates a difference is provided, and the adjustment unit adjusts the display position of the object displayed on the display surface by further using the angle difference calculated by the angle difference calculation unit in addition to the position difference. It may be a thing.

上記の構成によれば、現時点と前の時点とで、表示面の角度が垂直面に対し異なっていた場合、異なっている分も考慮に入れて表示対象物の表示位置を調整することができる。   According to the above configuration, when the angle of the display surface is different from the current time and the previous time, the display position of the display object can be adjusted in consideration of the difference. .

本発明の態様4に係る表示制御装置は、上記態様1〜3の何れかにおいて、上記現時点と上記前の時点との間における、上記表示面に対して垂直方向の軸を中心とする表示面の回転角度を算出する回転角算出部を備え、上記調整部は、上記回転角算出部が算出した回転角度と同じ角度だけ、上記前の時点から上記現時点への回転方向と反対方向に回転させるように上記対象物の表示位置を調整するものであってもよい。   A display control device according to aspect 4 of the present invention is the display surface according to any one of aspects 1 to 3, wherein the display surface is centered on an axis perpendicular to the display surface between the current time point and the previous time point. A rotation angle calculation unit that calculates a rotation angle of the rotation angle, and the adjustment unit rotates the rotation angle by the same angle as the rotation angle calculated by the rotation angle calculation unit in a direction opposite to the rotation direction from the previous time point to the current time point. As described above, the display position of the object may be adjusted.

上記の構成によれば、表示面が、表示面と垂直方向の軸を中心とするように回転したとしても、表示対象物の天方向が、常に、ユーザから見て上となった状態で表示されるので、さらに、ユーザの視認性を高めることができる。   According to the above configuration, even when the display surface is rotated so as to be centered on the axis perpendicular to the display surface, the display object is always displayed with the top direction as viewed from the user. Therefore, the visibility of the user can be further improved.

本発明の態様5に係る表示装置は、上記表示制御装置と、カメラと、を備え、上記相対位置算出部は、上記カメラで撮影している上記ユーザの画像から上記相対位置を算出するものであってもよい。   A display device according to aspect 5 of the present invention includes the display control device and a camera, and the relative position calculation unit calculates the relative position from the image of the user captured by the camera. There may be.

上記の構成によれば、自装置で撮影した画像を用いて、自装置で表示している表示対象物の表示位置を調整することができる。   According to said structure, the display position of the display target object currently displayed with the own apparatus can be adjusted using the image image | photographed with the own apparatus.

本発明の態様6に係る表示制御装置の制御方法は、表示面を含む表示装置を制御する表示制御装置の制御方法であって、相対位置算出部が、ユーザの上記表示面に対する相対位置を算出する相対位置算出ステップと、上記相対位置算出ステップで算出した現時点の上記相対位置と、現時点より前の時点で上記相対位置算出部が算出した上記相対位置との差分である位置差分から、上記表示面に表示する対象物の表示位置を調整する調整ステップと、を含む。   A display control device control method according to an aspect 6 of the present invention is a display control device control method for controlling a display device including a display surface, wherein the relative position calculation unit calculates a relative position of the user with respect to the display surface. From the relative position calculation step, the relative position calculated at the relative position calculation step, and the relative position calculated by the relative position calculation unit at a time prior to the current time Adjusting the display position of the object to be displayed on the surface.

上記の方法によれば、上記態様1と同様の効果を奏することができる。   According to said method, there can exist an effect similar to the said aspect 1. FIG.

本発明の各態様に係る表示制御装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記表示制御装置が備える各部(ソフトウェア要素)として動作させることにより上記表示装置をコンピュータにて実現させる携帯機器のプログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The display control device according to each aspect of the present invention may be realized by a computer. In this case, the display device is operated by the computer by causing the computer to operate as each unit (software element) included in the display control device. A portable device program to be realized and a computer-readable recording medium on which the program is recorded also fall within the scope of the present invention.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.

1:携帯電話(表示装置)、2:携帯電話(表示装置)、3:携帯電話(表示装置)、10:入力部、11:カメラ部、12:角速度検出部、13:タッチパネル部、14:ボタン部、20:出力部、21:ディスプレイ部(表示面)、22:スピーカー部、30:制御部(表示制御装置)、31:基準点決定部(相対位置算出部)、32:調整量決定部(相対位置算出部、調整部)、33:表示位置調整部(調整部)、34:相対距離算出部、35:相対角度算出部、36:角度振れ算出部(角度差分算出部)、37:回転振れ算出部(回転角算出部)、38:調整量算出部、40:記憶部、41:表示メモリ、51:カメラ取得画像、52:AF情報、53:基準点情報、54:調整量情報、55:調整前画像データ、56:調整後画像データ、57:角度振れ情報、58:回転角情報   1: mobile phone (display device), 2: mobile phone (display device), 3: mobile phone (display device), 10: input unit, 11: camera unit, 12: angular velocity detection unit, 13: touch panel unit, 14: Button unit, 20: output unit, 21: display unit (display surface), 22: speaker unit, 30: control unit (display control device), 31: reference point determination unit (relative position calculation unit), 32: adjustment amount determination Unit (relative position calculation unit, adjustment unit), 33: display position adjustment unit (adjustment unit), 34: relative distance calculation unit, 35: relative angle calculation unit, 36: angle shake calculation unit (angle difference calculation unit), 37 : Rotational shake calculation unit (rotation angle calculation unit), 38: adjustment amount calculation unit, 40: storage unit, 41: display memory, 51: camera acquired image, 52: AF information, 53: reference point information, 54: adjustment amount Information, 55: Image data before adjustment, 56: Image after adjustment Over data, 57: angle shake information, 58: rotation angle information

Claims (7)

表示面を含む表示装置を制御する表示制御装置であって、
ユーザの上記表示面に対する相対位置を算出する相対位置算出部と、
上記相対位置算出部が算出した現時点の上記相対位置と、現時点より前の時点で上記相対位置算出部が算出した上記相対位置との差分である位置差分から、上記表示面に表示する対象物の表示位置を調整する調整部と、を備えていることを特徴とする表示制御装置。
A display control device for controlling a display device including a display surface,
A relative position calculation unit that calculates a relative position of the user with respect to the display surface;
From the position difference, which is the difference between the current relative position calculated by the relative position calculation unit and the relative position calculated by the relative position calculation unit before the current time, the object to be displayed on the display surface is displayed. And a display control device that adjusts the display position.
上記相対位置算出部は、上記表示面に対する上記ユーザの顔の特徴点の相対位置を算出することを特徴とする請求項1に記載の表示制御装置。   The display control apparatus according to claim 1, wherein the relative position calculation unit calculates a relative position of a feature point of the user's face with respect to the display surface. 上記表示面の水平面に垂直な面である垂直面との角度の、上記現時点と上記前の時点とにおける差分である角度差分を算出する角度差分算出部を備え、
上記調整部は、上記位置差分に加え、上記角度差分算出部が算出した角度差分をさらに用いて上記表示位置を調整することを特徴とする請求項1または2に記載の表示制御装置。
An angle difference calculation unit that calculates an angle difference that is a difference between the current time point and the previous time point of an angle between the display surface and a vertical surface that is perpendicular to a horizontal plane;
The display control apparatus according to claim 1, wherein the adjustment unit adjusts the display position by further using the angle difference calculated by the angle difference calculation unit in addition to the position difference.
上記現時点と上記前の時点との間における、上記表示面に対して垂直方向の軸を中心とする表示面の回転角度を算出する回転角算出部を備え、
上記調整部は、上記回転角算出部が算出した回転角度と同じ角度だけ、上記前の時点から上記現時点への回転方向と反対方向に回転させるように上記対象物の表示位置を調整することを特徴とする請求項1〜3のいずれか1項に記載の表示制御装置。
A rotation angle calculation unit that calculates a rotation angle of the display surface about the axis perpendicular to the display surface between the current time point and the previous time point;
The adjustment unit adjusts the display position of the object so as to rotate in the direction opposite to the rotation direction from the previous time point to the current time point by the same angle as the rotation angle calculated by the rotation angle calculation unit. The display control apparatus according to claim 1, wherein the display control apparatus is a display control apparatus.
請求項1〜4のいずれか1項に記載の表示制御装置と、
カメラと、を備え、
上記相対位置算出部は、上記カメラで撮影している上記ユーザの画像から上記相対位置を算出することを特徴とする表示装置。
The display control device according to any one of claims 1 to 4,
And a camera,
The display apparatus according to claim 1, wherein the relative position calculation unit calculates the relative position from an image of the user photographed by the camera.
表示面を含む表示装置を制御する表示制御装置の制御方法であって、
相対位置算出部が、ユーザの上記表示面に対する相対位置を算出する相対位置算出ステップと、
上記相対位置算出ステップで算出した現時点の上記相対位置と、現時点より前の時点で上記相対位置算出部が算出した上記相対位置との位置差分から、上記表示面に表示する対象物の表示位置を調整する調整ステップと、を含むことを特徴とする表示制御装置の制御方法。
A control method of a display control device for controlling a display device including a display surface,
A relative position calculating unit that calculates a relative position of the user with respect to the display surface;
Based on the position difference between the current relative position calculated in the relative position calculation step and the relative position calculated by the relative position calculation unit prior to the current time, the display position of the object to be displayed on the display surface is determined. An adjustment step for adjusting the display control device.
請求項1に記載の表示制御装置としてコンピュータを機能させるための制御プログラムであって、上記相対位置算出部および上記調整部としてコンピュータを機能させるための制御プログラム。   A control program for causing a computer to function as the display control apparatus according to claim 1, wherein the control program causes the computer to function as the relative position calculation unit and the adjustment unit.
JP2015166188A 2015-08-25 2015-08-25 Display controller, display device, control method for display controller and control program Pending JP2017044822A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015166188A JP2017044822A (en) 2015-08-25 2015-08-25 Display controller, display device, control method for display controller and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015166188A JP2017044822A (en) 2015-08-25 2015-08-25 Display controller, display device, control method for display controller and control program

Publications (1)

Publication Number Publication Date
JP2017044822A true JP2017044822A (en) 2017-03-02

Family

ID=58210539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015166188A Pending JP2017044822A (en) 2015-08-25 2015-08-25 Display controller, display device, control method for display controller and control program

Country Status (1)

Country Link
JP (1) JP2017044822A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014010227A (en) * 2012-06-28 2014-01-20 Nec Saitama Ltd Portable electronic apparatus, control method therefor and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014010227A (en) * 2012-06-28 2014-01-20 Nec Saitama Ltd Portable electronic apparatus, control method therefor and program

Similar Documents

Publication Publication Date Title
US10078367B2 (en) Stabilization plane determination based on gaze location
US10713828B2 (en) Image processing device, image processing method, non-transitory computer readable recording medium and photographing assist equipment
KR101977638B1 (en) Method for correcting user’s gaze direction in image, machine-readable storage medium and communication terminal
RU2624569C2 (en) Image displaying method and device
US9282242B2 (en) Method and electric device for taking panoramic photograph
EP3062286B1 (en) Optical distortion compensation
JP6211536B2 (en) Apparatus and method for controlling rotation of display image
KR102013928B1 (en) Image transformation apparatus and the method
US10956733B2 (en) Image processing apparatus and image processing method
US10587799B2 (en) Electronic apparatus and method for controlling electronic apparatus thereof
JP6135848B2 (en) Imaging apparatus, image processing apparatus, and image processing method
JP2013058828A (en) Smile determination device and method
KR20180005528A (en) Display apparatus and method for image processing
WO2016131217A1 (en) Image correction method and device
TW201337641A (en) Method and system for prompting self-catch
WO2016197639A1 (en) Screen picture display method and apparatus
US20170046813A1 (en) An apparatus and associated methods for image capture
TWI622296B (en) System and method for automatically keeping images displayed stabilizer on a display screen
JP2017108374A (en) Image processing apparatus, image processing method, and program
JP2014068335A (en) Imaging apparatus and image processing method
JP2014068336A (en) Imaging apparatus and image processing device
KR20130081439A (en) Apparatus and method for displaying camera view area in a portable terminal
WO2023107806A1 (en) Eye image stabilized augmented reality displays
JPWO2018189971A1 (en) Image processing device, imaging device, terminal device, image correction method, and image processing program
WO2015078189A1 (en) Interface adjustment method and mobile device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190702