Nothing Special   »   [go: up one dir, main page]

JP2014033408A - Electronic apparatus, method, and program - Google Patents

Electronic apparatus, method, and program Download PDF

Info

Publication number
JP2014033408A
JP2014033408A JP2012174094A JP2012174094A JP2014033408A JP 2014033408 A JP2014033408 A JP 2014033408A JP 2012174094 A JP2012174094 A JP 2012174094A JP 2012174094 A JP2012174094 A JP 2012174094A JP 2014033408 A JP2014033408 A JP 2014033408A
Authority
JP
Japan
Prior art keywords
unit
user
electronic device
communication
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012174094A
Other languages
Japanese (ja)
Other versions
JP6051665B2 (en
Inventor
Takuya Sato
琢也 佐藤
Daiki Ito
大樹 伊藤
Satoshi Ejima
聡 江島
Minako Nakahata
美奈子 中畑
Hiroyuki Mushu
宏行 無州
Tomoko Sugawara
知子 菅原
Masaichi Sekiguchi
政一 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012174094A priority Critical patent/JP6051665B2/en
Publication of JP2014033408A publication Critical patent/JP2014033408A/en
Application granted granted Critical
Publication of JP6051665B2 publication Critical patent/JP6051665B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Telephone Function (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an apparatus easy to use.SOLUTION: An electronic apparatus for performing communication with an external device includes: a first communication unit which pairs with an external device through communication performed via a user's body or short-range communication; a first sensor for detecting the orientation of the electronic apparatus in relation to pairing; a second communication unit distinct from the first communication unit; a first control unit for controlling switching between the first communication unit and the second communication unit; and an operation unit for performing an operation on the external device. The first sensor detects information related to the orientation of the user's body during operation of the operation unit.

Description

本発明は、電子機器、方法およびプログラムに関する。   The present invention relates to an electronic device, a method, and a program.

従来、自分の後ろ姿を確認する姿見装置が提案されている(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開2010−87569号公報
2. Description of the Related Art Conventionally, there has been proposed an appearance device that confirms the user's rear view (for example, see Patent Document 1).
[Prior art documents]
[Patent Literature]
[Patent Document 1] JP 2010-87569 A

しかしながら、従来の姿見装置は、操作の使い易さについては言及されておらず、使い勝手の良いものではなかった。   However, the conventional appearance apparatus does not mention the ease of use of the operation and is not easy to use.

本発明の第1の態様においては、外部機器と通信する電子機器であって、ユーザの人体を介した通信または近距離通信により前記外部機器とペアリングする第1通信部と、前記ペアリングに関連して当該電子機器の向きを検出する第1センサと、を備える電子機器、プログラムおよび方法を提供する。また、本発明の第2の態様においては、外部機器と近距離通信またはユーザを介した通信により前記外部機器とのペアリングを行なう第1通信部と、前記ユーザを撮像可能な撮像部と、前記撮像部の撮像結果に基づいて、前記ユーザの向きに関する情報を取得する取得部と、を備えた電子機器を提供する。   In the first aspect of the present invention, an electronic device that communicates with an external device, the first communication unit that pairs with the external device by communication via a human body or near field communication, and the pairing An electronic device, a program, and a method including a first sensor that detects the orientation of the electronic device in association are provided. Further, in the second aspect of the present invention, a first communication unit that performs pairing with the external device by short-range communication with the external device or communication via a user, an imaging unit that can capture the user, An electronic device comprising: an acquisition unit that acquires information related to the orientation of the user based on an imaging result of the imaging unit.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

本実施形態に係る表示システム1のブロック図である。1 is a block diagram of a display system 1 according to an embodiment. 本実施形態に係る表示システム1の概要を示す図である。It is a figure which shows the outline | summary of the display system 1 which concerns on this embodiment. 本実施形態に係る表示装置10の制御部19の処理フローを示す。The processing flow of the control part 19 of the display apparatus 10 which concerns on this embodiment is shown. (A)はユーザが携帯機器20を縦位置で保持し、表示装置10に対して正対している状態を示し、(B)はユーザが携帯機器20を縦位置で保持し、表示装置10に対して背を向けている状態を示す。(A) shows a state in which the user holds the portable device 20 in the vertical position and is directly facing the display device 10, and (B) shows the state in which the user holds the portable device 20 in the vertical position. The state where the back is turned is shown. (A)はユーザが表示装置10に対して背を向けてから、再度、表示装置10に対して正対した状態を示し、(B)はユーザが携帯機器20を横位置で保持し、表示装置10に対して正対している状態を示す。(A) shows a state where the user turns his back to the display device 10 and then faces the display device 10 again, and (B) shows the display where the user holds the portable device 20 in the horizontal position. A state of facing the device 10 is shown. (A)はユーザが表示装置10に対して横を向いている状態を示し、(B)はユーザが表示装置10に対して斜め前方向を向いている状態を示す。(A) shows a state where the user is facing sideways with respect to the display device 10, and (B) shows a state where the user is facing diagonally forward with respect to the display device 10. 変形例に係る表示システム1のブロック図である。It is a block diagram of the display system 1 which concerns on a modification. 変形例に係る表示システム1の概要を示す図である。It is a figure which shows the outline | summary of the display system 1 which concerns on a modification. 化粧道具50の外観の一例を示す。An example of the external appearance of the makeup tool 50 is shown. 変形例に係る表示装置10の制御部19の処理フローを示す。The processing flow of the control part 19 of the display apparatus 10 which concerns on a modification is shown. (A)はユーザの顔の全体画像および口の画像を分割して表示した例を示し、(B)はユーザの顔の全体画像および両目の画像を分割して表示した例を示す。(A) shows the example which divided and displayed the whole image of a user's face, and the image of a mouth, and (B) shows the example which divided and displayed the whole image of a user's face, and the image of both eyes. (A)はユーザが右目の化粧をしている状態を示し、(B)はユーザが左目の化粧をしている状態を示す。(A) shows a state where the user is making up the right eye, and (B) shows a state where the user is making up the left eye. ユーザの顔の全体画像および右目の画像を分割して表示した例を示す。The example which divided | segmented and displayed the whole image of a user's face, and the image of a right eye is shown.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

(表示システム1の構成)
図1は、本実施形態に係る表示システム1のブロック図を示し、図2は、表示システム1の概要を示す図であり、以下図1,2を用いて説明を行う。なお、表示システム1は、例えばユーザが自身の姿を確認するための姿見装置として用いられる。
(Configuration of display system 1)
FIG. 1 is a block diagram of a display system 1 according to the present embodiment, and FIG. 2 is a diagram showing an overview of the display system 1, which will be described below using FIGS. The display system 1 is used as an appearance device for a user to confirm his / her appearance, for example.

表示システム1は、表示装置10と、ユーザにより保持されて用いられる携帯機器20とを用いてユーザの姿見を行うものである。表示装置10および携帯機器20は、人体通信および無線通信によりデータの送受信を行うことができる。   The display system 1 looks at the user using the display device 10 and the portable device 20 that is held and used by the user. The display device 10 and the portable device 20 can transmit and receive data by human body communication and wireless communication.

表示装置10および携帯機器20は、通常時には互いに独立の装置として機能するが、人体通信を介したペアリング(互いの装置を認証する処理)を行った場合には互いに連携して動作する。   The display device 10 and the portable device 20 normally function as devices independent from each other, but operate in cooperation with each other when pairing (processing for authenticating each other device) via human body communication is performed.

人体通信は、導体である人体を通信媒体とする通信であり、人体に微弱な電流を流して、その電流を変調して情報を伝達する電流方式、および人体の表面に誘起する電力電界を変調して情報を伝達する電界方式等がある。本実施形態においては、電流方式及び電界方式の何れのタイプを用いることも可能であるが、ここでは電界方式を用いた場合について説明する。また、表示装置10および携帯機器20は、人体通信に代えて、FeliCa(登録商標)等の非接触通信、トランスファージェット(登録商標)等の近接無線転送技術または近距離無線通信(NFC)等の近接通信を用いてペアリングを行ってもよい。   Human body communication is communication using the human body, which is a conductor, as a communication medium. A weak current is passed through the human body, the current is modulated to transmit information, and the electric field induced on the surface of the human body is modulated. Thus, there is an electric field method for transmitting information. In the present embodiment, any of the current method and the electric field method can be used, but here, the case where the electric field method is used will be described. In addition, the display device 10 and the mobile device 20 may be replaced with non-contact communication such as FeliCa (registered trademark), proximity wireless transfer technology such as transfer jet (registered trademark), or near field communication (NFC) instead of human body communication. Pairing may be performed using proximity communication.

(表示装置10)
表示装置10は、一例として対角の長さが20インチより大きい表示領域を有する機器である。表示装置10は、撮像部11と、駆動部12と、表示部13と、画像調整部14と、メモリ部15と、電極部16と、人体通信部17と、無線通信部18と、制御部19と、を備える。
(Display device 10)
The display device 10 is, for example, a device having a display area whose diagonal length is greater than 20 inches. The display device 10 includes an imaging unit 11, a drive unit 12, a display unit 13, an image adjustment unit 14, a memory unit 15, an electrode unit 16, a human body communication unit 17, a wireless communication unit 18, and a control unit. 19.

撮像部11は、レンズ群と、CCD(Charge Coupled Device)イメージセンサまたはCMOS(Complementary Metal Oxide Semiconductor)センサ等の撮像素子とを有する。撮像部11は、当該表示装置10の上部等に設けられ、当該表示装置10の前に位置するユーザの顔(または全身等)を撮像して動画及び静止画等を出力する。なお、撮像部11は、レンズ群の一部のレンズとして、ズームレンズを含んでもよい。   The imaging unit 11 includes a lens group and an imaging element such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor. The imaging unit 11 is provided on an upper portion of the display device 10 and the like, images a user's face (or the whole body) located in front of the display device 10, and outputs a moving image, a still image, and the like. Note that the imaging unit 11 may include a zoom lens as a part of the lenses of the lens group.

駆動部12は、撮像部11をチルト方向(垂直方向の首振り)およびパン方向(水平方向の首振り)に駆動して、撮像部11の撮影方向を変更する。駆動部12は、一例として、DCモータ、ボイスコイルモータおよびリニアモータ等を適用することができる。   The drive unit 12 drives the imaging unit 11 in the tilt direction (vertical swing) and the pan direction (horizontal swing) to change the shooting direction of the imaging unit 11. For example, a DC motor, a voice coil motor, a linear motor, or the like can be applied to the driving unit 12.

表示部13は、撮像部11が撮像した画像を表示面に表示するディスプレイ13a(例えば液晶表示装置)と、このディスプレイ13aの表示面に重ね合わせて設けられたハーフミラー13bとを有する。ハーフミラー13bは、ガラス等の透明な板に金属膜を蒸着したり、半透過膜を透明な板に貼り付けたりすることにより形成され、一方の側からの光を反射するとともに、この一方の側とは反対の側からの光を透過する。このようなハーフミラー13bを有することにより、表示部13は、当該表示装置10の前に位置するユーザに対して、撮像部11が撮像した画像とともに、当該ユーザの鏡像を反射して視認させることができる。また、表示部13は、人体通信が成立していることを示す表示や、無線通信が成立していることを示す表示を行っており、これにより、ユーザは通信状況を視認することができる。   The display unit 13 includes a display 13a (for example, a liquid crystal display device) that displays an image captured by the imaging unit 11 on a display surface, and a half mirror 13b that is provided so as to overlap the display surface of the display 13a. The half mirror 13b is formed by vapor-depositing a metal film on a transparent plate such as glass or attaching a semi-transmissive film to the transparent plate, and reflects light from one side. Transmits light from the side opposite to the side. By having such a half mirror 13b, the display unit 13 causes the user located in front of the display device 10 to reflect and visually recognize the mirror image of the user together with the image captured by the imaging unit 11. Can do. In addition, the display unit 13 performs a display indicating that human body communication is established and a display indicating that wireless communication is established, thereby enabling the user to visually recognize the communication status.

なお、表示部13は、ハーフミラー13bを有さずに、撮像部11が撮像した画像を表示してもよい。また、表示部13は、表示領域を分割して、ハーフミラー13bによる鏡像と撮像部11による撮像画像との両方を視認できる領域と、鏡像および撮像画像の一方を視認できる領域とを形成してもよい。   In addition, the display part 13 may display the image which the imaging part 11 imaged, without having the half mirror 13b. The display unit 13 divides the display region to form a region where both a mirror image by the half mirror 13b and a captured image by the imaging unit 11 can be visually recognized, and a region where one of the mirror image and the captured image can be visually recognized. Also good.

画像調整部14は、撮像部11により撮像された画像を調整して表示部13に表示させる。具体的には、画像調整部14は、撮像部11により撮像された画像の一部をトリミングしたり、トリミングした画像を拡大したり、画像のトリミング位置を移動させたりして、表示部13に表示させる。   The image adjustment unit 14 adjusts the image captured by the imaging unit 11 and causes the display unit 13 to display the image. Specifically, the image adjustment unit 14 trims a part of the image captured by the imaging unit 11, enlarges the trimmed image, or moves the trimming position of the image to the display unit 13. Display.

メモリ部15は、バッファメモリ15aと、不揮発性のフラッシュメモリ15bとを有する。バッファメモリ15aは、撮像部11によって撮像された画像データを一時的に記憶したり、画像調整部14のワークメモリとして用いられたりする。なお、バッファメモリ15aは、例えば揮発性の半導体メモリである。フラッシュメモリ15bには、バッファメモリ15aに記憶された画像データのうちユーザ等により指定された画像データが転送され、転送された画像データを記憶する。また、フラッシュメモリ15bは、制御部19により実行されるプログラムデータ等の各種データを記憶する。   The memory unit 15 includes a buffer memory 15a and a nonvolatile flash memory 15b. The buffer memory 15a temporarily stores image data picked up by the image pickup unit 11 or is used as a work memory for the image adjustment unit 14. The buffer memory 15a is, for example, a volatile semiconductor memory. Of the image data stored in the buffer memory 15a, the image data designated by the user or the like is transferred to the flash memory 15b, and the transferred image data is stored. The flash memory 15b stores various data such as program data executed by the control unit 19.

電極部16は、信号電極とグランド電極とを有し、携帯機器20との間でユーザを介した人体通信により信号を授受する。電極部16は、ユーザの手に触れやすいように表示装置10の前面に設けられている。なお、電界方式の人体通信においては、ユーザが素手である場合(すなわち、ユーザの手と電極部16が接触している場合)はもちろん、ユーザが手袋をしている場合(すなわち、ユーザの手と電極部16が対向している場合)であっても、通信可能である。このため、電極部16は、プラスチックまたは樹脂等で形成された筐体の内部に設けられていてもよい。また、グランド電極は、表示装置10の回路基板のグランドに接続されていてもよい。   The electrode unit 16 includes a signal electrode and a ground electrode, and exchanges signals with the portable device 20 through human body communication via a user. The electrode unit 16 is provided on the front surface of the display device 10 so as to be easily touched by the user. In the electric field type human body communication, not only when the user is a bare hand (that is, when the user's hand and the electrode unit 16 are in contact) but also when the user is wearing a glove (that is, the user's hand). And the electrode portion 16 are opposed to each other). For this reason, the electrode part 16 may be provided in the inside of the housing | casing formed with plastic or resin. The ground electrode may be connected to the ground of the circuit board of the display device 10.

人体通信部17は、電極部16に接続され、バンドパスフィルタを有した電気回路から構成される送受信部を有し、入力した受信信号を復調して受信データを生成したり、送信するデータを変調して送信信号を生成したりする。人体通信部17は、携帯機器20との間でユーザの人体を介した人体通信により情報を送受信する。例えば、人体通信部17は、携帯機器20のIDを受信したり、携帯機器20に対して表示装置10のIDを送信したりする。また、人体通信部17は、他の通信方式への切換えをさせるための切換信号を携帯機器20に送信する。   The human body communication unit 17 includes a transmission / reception unit that is connected to the electrode unit 16 and includes an electric circuit having a band-pass filter. The human body communication unit 17 demodulates an input reception signal to generate reception data or transmit data to be transmitted. It modulates to generate a transmission signal. The human body communication unit 17 transmits / receives information to / from the mobile device 20 through human body communication via the user's human body. For example, the human body communication unit 17 receives the ID of the mobile device 20 or transmits the ID of the display device 10 to the mobile device 20. In addition, the human body communication unit 17 transmits a switching signal for switching to another communication method to the mobile device 20.

無線通信部18は、無線LAN(Local Aria Network)、BlueTooth(登録商標)又は赤外線通信等の無線通信により、携帯機器20との間で情報を送受信する。例えば、無線通信部18は、バッファメモリ15aに記憶された画像データ等を携帯機器20に送信する。   The wireless communication unit 18 transmits and receives information to and from the mobile device 20 by wireless communication such as a wireless local area network (LAN), BlueTooth (registered trademark), or infrared communication. For example, the wireless communication unit 18 transmits image data or the like stored in the buffer memory 15 a to the mobile device 20.

制御部19は、CPU(Central Processing Unit)を有し、撮像部11、駆動部12、表示部13のディスプレイ13a、画像調整部14、メモリ部15(バッファメモリ15a及びフラッシュメモリ15b)、人体通信部17及び無線通信部18に接続されて、表示装置10の全体を制御する。例えば、制御部19は、携帯機器20との間の通信処理を制御する。   The control unit 19 includes a CPU (Central Processing Unit), the imaging unit 11, the drive unit 12, the display 13a of the display unit 13, the image adjustment unit 14, the memory unit 15 (buffer memory 15a and flash memory 15b), human body communication. It is connected to the unit 17 and the wireless communication unit 18 and controls the entire display device 10. For example, the control unit 19 controls communication processing with the mobile device 20.

(携帯機器20)
携帯機器20は、一例として、携帯電話機、スマートフォンまたはタブレット型のコンピュータ等の機器である。携帯機器20は、表示部21と、タッチパネル22と、センサ部23と、計時部24と、撮像部25と、マイクロフォン26と、フラッシュメモリ27と、電極部28と、人体通信部29と、無線通信部30と、振動部31と、制御部32と、を備える。
(Portable device 20)
The mobile device 20 is, for example, a device such as a mobile phone, a smartphone, or a tablet computer. The portable device 20 includes a display unit 21, a touch panel 22, a sensor unit 23, a timing unit 24, an imaging unit 25, a microphone 26, a flash memory 27, an electrode unit 28, a human body communication unit 29, and a wireless device. A communication unit 30, a vibration unit 31, and a control unit 32 are provided.

表示部21は、液晶ディスプレイまたは有機ELディスプレイ等であり、制御部32の制御の下、画像データおよび文字データ等のデータを表示したり、ユーザが操作を行うための操作ボタンおよびメニュー等を表示したりする。また、表示部21は、人体通信が成立していることを示す表示や、無線通信が成立していることを示す表示(例えば、アイコン表示)を行ってもよい。この場合、後述する電極部28の出力からユーザが携帯機器20を保持していることや、後述する姿勢センサ23bの出力からユーザが表示部21を視認可能と判断される場合に通信状態の表示を行うようにしてもよい。なお、表示装置10の表示部13の表示領域が対角数十インチであるのに対して、表示部21の表示領域は、対角数インチであり、表示装置10の表示部13と比較して小さい。   The display unit 21 is a liquid crystal display, an organic EL display, or the like, and displays data such as image data and character data under the control of the control unit 32, and displays operation buttons and menus for the user to perform operations. To do. The display unit 21 may perform display indicating that human body communication is established or display indicating that wireless communication is established (for example, icon display). In this case, when the user holds the portable device 20 from the output of the electrode unit 28 described later, or when it is determined that the user can visually recognize the display unit 21 from the output of the posture sensor 23b described later, the communication state is displayed. May be performed. Note that the display area of the display unit 13 of the display device 10 is several tens of inches diagonal, whereas the display area of the display unit 21 is several inches diagonal, compared with the display unit 13 of the display device 10. Small.

タッチパネル22は、表示部21に一体的に設けられており、ユーザが表示部21に表示された仮想操作ボタン(例えば、図4に示す右操作マーク41R、左操作マーク41L)またはメニュー等に対して操作した場合、当該操作入力を受け付ける操作部である。タッチパネル22は、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式または静電容量方式等のいずれの方式であってもよい。なお、タッチパネル22に代えて、または、併用して操作ボタンを用いてもよい。   The touch panel 22 is provided integrally with the display unit 21, and the user operates the virtual operation buttons (for example, the right operation mark 41 </ b> R and the left operation mark 41 </ b> L illustrated in FIG. 4) or the menu displayed on the display unit 21. When the operation is performed, the operation unit accepts the operation input. The touch panel 22 may be any system such as a resistive film system, a surface acoustic wave system, an infrared system, an electromagnetic induction system, or a capacitance system. Note that the operation buttons may be used instead of or in combination with the touch panel 22.

センサ部23は、GPS(Global Positioning System)モジュール23aと、姿勢センサ23bと、方位センサ23cとを有する。これらに加えて、センサ部23は、ユーザの生体情報を取得する生体センサを有してもよい。   The sensor unit 23 includes a GPS (Global Positioning System) module 23a, an attitude sensor 23b, and an orientation sensor 23c. In addition to these, the sensor unit 23 may include a biological sensor that acquires the biological information of the user.

GPSモジュール23aは、携帯機器20の位置(緯度、経度)を検出する。GPSモジュール23aにより検出される位置情報(ユーザが存在する位置の情報)は、制御部32によりフラッシュメモリ27に書き込まれる。   The GPS module 23a detects the position (latitude, longitude) of the mobile device 20. Position information detected by the GPS module 23 a (position information where the user exists) is written into the flash memory 27 by the control unit 32.

姿勢センサ23bは、携帯機器20の姿勢を検出するセンサであり、本実施形態においては、ユーザが携帯機器20を保持する角度や、ユーザが携帯機器20を縦位置か横位置かのいずれで保持しているのかを検出する。なお、ここで、縦位置とは、携帯機器20の表示部21をユーザが図2に示されているように保持した状態をいい、横位置とは縦位置からほぼ90度回転して後述の図5(B)に示されているように保持した状態をいう。   The attitude sensor 23b is a sensor that detects the attitude of the mobile device 20, and in this embodiment, the angle at which the user holds the mobile device 20, or the user holds the mobile device 20 in either the vertical position or the horizontal position. Detect whether you are doing. Here, the vertical position means a state in which the user holds the display unit 21 of the mobile device 20 as shown in FIG. 2, and the horizontal position is rotated by 90 degrees from the vertical position and will be described later. The state held as shown in FIG.

姿勢センサ23bは、一例として、フォトインタラプタの赤外光を重力によって移動する小球が遮断するか否かを検知することにより一軸方向の姿勢を検出するセンサを、複数個組合せた構成である。これに代えて、姿勢センサ23bは、3軸加速度センサまたはジャイロセンサ等を用いた構成であってもよい。また、姿勢センサ23bは、タッチパネル22に接触しているユーザの指の位置から携帯機器20が縦位置か横位置かを検出する構成であってもよい。   As an example, the posture sensor 23b has a configuration in which a plurality of sensors that detect a posture in a uniaxial direction by detecting whether or not a small sphere moving due to gravity blocks infrared light of a photo interrupter are combined. Instead, the posture sensor 23b may be configured using a triaxial acceleration sensor, a gyro sensor, or the like. The posture sensor 23b may be configured to detect whether the mobile device 20 is in the vertical position or the horizontal position from the position of the user's finger that is in contact with the touch panel 22.

また、姿勢センサ23bは、筐体の側面のほぼ全体に設けられた電極に接触した指の位置から携帯機器20が縦位置か横位置かを検出する構成であってもよい。この場合、指が接触している電極の抵抗値および容量値は低下するので、姿勢センサ23bは、電極の抵抗値または容量値の変化を検出して手で触れられている電極を検知する。また、このような姿勢センサ23bを設けた場合、携帯機器20は、抵抗または容量が下がった電極を、人体通信に用いる電極部28として機能させてもよい。   In addition, the posture sensor 23b may be configured to detect whether the portable device 20 is in the vertical position or the horizontal position from the position of the finger in contact with the electrode provided on substantially the entire side surface of the housing. In this case, since the resistance value and the capacitance value of the electrode in contact with the finger are lowered, the posture sensor 23b detects a change in the resistance value or the capacitance value of the electrode and detects the electrode touched by the hand. In addition, when such a posture sensor 23b is provided, the mobile device 20 may cause the electrode with reduced resistance or capacity to function as the electrode unit 28 used for human body communication.

なお、姿勢センサ23bにより検出された携帯機器20の姿勢情報は、表示部21に表示される画像の向きの調整等に用いられる。   Note that the posture information of the mobile device 20 detected by the posture sensor 23b is used for adjusting the orientation of an image displayed on the display unit 21.

方位センサ23cは、方位を検出するためのセンサであり、互いに直交する方向の地磁気成分を検出する2軸の磁気センサによる磁界検出値から方位を検出する。本実施形態においては、方位センサ23cにより検出された方位は、ユーザの表示装置10に対する向き(例えばユーザが表示装置10に対して正対しているか、または、ユーザが表示装置10に対して背を向けているか等)の判別に用いられる。   The azimuth sensor 23c is a sensor for detecting the azimuth, and detects the azimuth from a magnetic field detection value by a biaxial magnetic sensor that detects geomagnetic components in directions orthogonal to each other. In the present embodiment, the orientation detected by the orientation sensor 23c is the orientation of the user with respect to the display device 10 (for example, the user is facing the display device 10 or the user is behind the display device 10). It is used to determine whether it is facing.

また、本実施形態においては、方位センサ23cにより検出された方位は、例えば、図2に示すように、携帯機器20に方位情報40として表示される。   In the present embodiment, the orientation detected by the orientation sensor 23c is displayed as orientation information 40 on the mobile device 20, for example, as shown in FIG.

計時部24は、現在の時刻を検出したり、指定された期間の経過時間を計時したりする。計時部24は、検出結果および計時結果を制御部32に出力する。   The time measuring unit 24 detects the current time or measures the elapsed time of a specified period. The timing unit 24 outputs the detection result and the timing result to the control unit 32.

撮像部25は、レンズ群と、CCDイメージセンサまたはCMOSセンサ等の撮像素子とを有し、被写体を撮像して動画及び静止画等を出力する。本実施形態においては、撮像部25は、表示部21と同一面における上方に設けられており、携帯機器20を使用するユーザを撮像することができる。   The imaging unit 25 includes a lens group and an imaging element such as a CCD image sensor or a CMOS sensor, images a subject, and outputs a moving image, a still image, and the like. In the present embodiment, the imaging unit 25 is provided above the same plane as the display unit 21 and can capture a user who uses the portable device 20.

マイクロフォン26は、表示部21と同一面における下方に設けられており、主にユーザが発した音声を取得する。フラッシュメモリ27は、不揮発性のメモリであり、表示装置10から送信された各種データ、センサ部23の検出データ、および携帯機器20のアプリケーションプログラム等を記憶する。   The microphone 26 is provided in the lower part on the same plane as the display unit 21, and mainly acquires the voice uttered by the user. The flash memory 27 is a nonvolatile memory, and stores various data transmitted from the display device 10, detection data of the sensor unit 23, an application program of the portable device 20, and the like.

電極部28は、信号電極とグランド電極とを有し、表示装置10との間でユーザを介した人体通信により信号を授受する。電極部28は、ユーザの手に触れやすいように携帯機器20の側面または背面等に設けられている。なお、電界方式の人体通信においては、電極部28は、プラスチックまたは樹脂等で形成された筐体の内部に設けられていてもよい。また、グランド電極は、携帯機器20の回路基板のグランドと接続されていてもよい。   The electrode unit 28 includes a signal electrode and a ground electrode, and exchanges signals with the display device 10 by human body communication via a user. The electrode unit 28 is provided on the side surface or the back surface of the mobile device 20 so as to be easily touched by the user. In electric field type human body communication, the electrode unit 28 may be provided inside a housing formed of plastic or resin. The ground electrode may be connected to the ground of the circuit board of the mobile device 20.

人体通信部29は、電極部28に接続され、バンドパスフィルタを有した電気回路から構成される送受信部を有し、入力した受信信号を復調して受信データを生成したり、送信するデータを変調して送信信号を生成したりする。人体通信部29は、表示装置10に対して携帯機器20のIDを送信したり、表示装置10のIDを受信したりする。また、人体通信部29は、他の通信方式への切換えをさせるための切換信号を表示装置10から受信する。   The human body communication unit 29 includes a transmission / reception unit that is connected to the electrode unit 28 and includes an electric circuit having a band-pass filter. The human body communication unit 29 demodulates an input reception signal to generate reception data or transmit data to be transmitted. It modulates to generate a transmission signal. The human body communication unit 29 transmits the ID of the portable device 20 to the display device 10 and receives the ID of the display device 10. In addition, the human body communication unit 29 receives a switching signal for switching to another communication method from the display device 10.

無線通信部30は、無線LAN、BlueTooth(登録商標)又は赤外線通信等の無線通信により表示装置10との間で情報を送受信する。例えば、無線通信部30は、表示装置10から画像データ等を受信したり、姿勢センサ23bにより検出された姿勢や、方位センサ23cにより検出された方位を表示装置10に送信したりする。   The wireless communication unit 30 transmits and receives information to and from the display device 10 by wireless communication such as wireless LAN, BlueTooth (registered trademark), or infrared communication. For example, the wireless communication unit 30 receives image data or the like from the display device 10, or transmits the orientation detected by the orientation sensor 23 b and the orientation detected by the orientation sensor 23 c to the display device 10.

振動部31は、振動モータを有し、複数の振動パターンで携帯機器20を振動させるものである。本実施の形態においては、人体通信部29による通信や無線通信部30による通信が成立したときに振動部31が数秒程度振動し、前述の通信が終了した際に数秒程度振動する。また、振動部31は、通信の種類や、通信の成立(開始)、通信の終了を判別するために振動の間隔や、振動の強度を複数設定できる。
制御部32は、CPUを有し、表示部21、タッチパネル22、センサ部23、計時部24、撮像部25、マイクロフォン26、フラッシュメモリ27、人体通信部29および振動部31と接続されて携帯機器20の全体を制御する。例えば、制御部32は、姿勢センサ23bの出力に応じて表示部21に表示する画像の向きを変更したり、表示装置10との間の通信の制御をしたりする。更に、制御部32は、通話機能および財布機能等の各種機能を実行してもよい。
The vibration part 31 has a vibration motor and vibrates the portable device 20 with a plurality of vibration patterns. In the present embodiment, the vibration unit 31 vibrates for several seconds when communication by the human body communication unit 29 or communication by the wireless communication unit 30 is established, and vibrates for several seconds when the above-described communication is completed. Further, the vibration unit 31 can set a plurality of vibration intervals and vibration intensities in order to determine the type of communication, the establishment (start) of communication, and the end of communication.
The control unit 32 includes a CPU, and is connected to the display unit 21, the touch panel 22, the sensor unit 23, the time measuring unit 24, the imaging unit 25, the microphone 26, the flash memory 27, the human body communication unit 29, and the vibration unit 31, and is a portable device. 20 is controlled. For example, the control unit 32 changes the orientation of the image displayed on the display unit 21 according to the output of the attitude sensor 23b, or controls communication with the display device 10. Further, the control unit 32 may execute various functions such as a call function and a wallet function.

なお、携帯機器20の無線通信部30と、表示装置10の無線通信部18との通信が行われにくい場合がある。このような場合、表示システム1では、表示装置10が設置されているスペースに表示装置10から分離して複数の受信部を設け、複数の受信部の中から最も通信強度の強い受信部からユーザの向きを検出するようにしてもよい。   Note that communication between the wireless communication unit 30 of the mobile device 20 and the wireless communication unit 18 of the display device 10 may be difficult. In such a case, in the display system 1, a plurality of receiving units are provided separately from the display device 10 in a space where the display device 10 is installed, and the receiving unit having the highest communication strength is selected from the plurality of receiving units. You may make it detect the direction of.

(表示システム1の処理フロー)
図3は、本実施形態に係る表示装置10の制御部19の処理フローを示す。表示装置10及び携帯機器20を連携して動作させる場合、ユーザは、携帯機器20を一方の手で持って所定の姿勢(縦位置または横位置)で保持しながら、表示装置10に対して所定の向きを向いた状態(例えば正対した状態)で、他方の手で表示装置10の電極部16に触れる。このことに応じて、本フローチャートはスタートする。なお、ユーザは、携帯機器20を人体通信が可能な箇所に所定の姿勢で保持していれば、手で持っていなくてもポケット等に入れていてもよい。
(Processing flow of display system 1)
FIG. 3 shows a processing flow of the control unit 19 of the display device 10 according to the present embodiment. When the display device 10 and the mobile device 20 are operated in cooperation, the user holds the mobile device 20 with one hand and holds the mobile device 20 in a predetermined posture (vertical position or horizontal position) while performing a predetermined operation on the display device 10. The electrode unit 16 of the display device 10 is touched with the other hand in a state of facing the direction (for example, a state of facing directly). In response to this, this flowchart starts. Note that the user may hold the portable device 20 in a pocket or the like as long as the portable device 20 is held in a predetermined posture at a location where human body communication is possible.

まず、ステップS11において、表示装置10の制御部19は、ユーザが電極部16を触れたことに応じて、携帯機器20との間で人体通信が成立したか否かを判断し、人体通信が成立するまで処理を待機する。制御部19は、人体通信が成立したタイミングで処理をステップS12に移行する。なお、制御部19は人体通信が成立したことを示す表示を表示部13にさせている。   First, in step S <b> 11, the control unit 19 of the display device 10 determines whether or not human body communication has been established with the mobile device 20 in response to the user touching the electrode unit 16, and human body communication is performed. Wait for processing until established. The control part 19 transfers a process to step S12 at the timing when human body communication was materialized. The control unit 19 causes the display unit 13 to display an indication that human body communication has been established.

続いて、ステップS12において、制御部19は、人体通信によりIDの送信要求を携帯機器20に対して送信する。携帯機器20の制御部32は、表示装置10からIDの送信要求を受け取ると、当該携帯機器20のID及びユーザ情報を表示装置10に対して人体通信により送信する。この送信に先立って、制御部32は、表示装置10へID及びユーザ情報を送信してもよいかをユーザに問い合わせてもよい。そして、制御部19は、人体通信を介して携帯機器20のID及びユーザ情報を受信して、携帯機器20を認識する。また、制御部32は人体通信が成立したことをユーザに報知するために、表示部21の表示と、振動部31により振動の少なくとも1つを行っている。このように、携帯機器20側で人体通信の成立を示す報知を行うことにより、ユーザが意図していない人体通信が行われたような場合(例えば不意に抱きつかれた場合)でもユーザは人体通信の成立している状態を認識することができる。   Subsequently, in step S <b> 12, the control unit 19 transmits an ID transmission request to the portable device 20 by human body communication. Upon receiving an ID transmission request from the display device 10, the control unit 32 of the mobile device 20 transmits the ID and user information of the mobile device 20 to the display device 10 through human body communication. Prior to this transmission, the control unit 32 may inquire of the user whether the ID and user information may be transmitted to the display device 10. Then, the control unit 19 receives the ID and user information of the mobile device 20 through human body communication, and recognizes the mobile device 20. Further, the control unit 32 performs at least one of the vibrations by the display of the display unit 21 and the vibration unit 31 in order to notify the user that the human body communication is established. In this way, even when human body communication not intended by the user is performed (for example, when the user is unexpectedly hugged) by performing notification indicating the establishment of human body communication on the mobile device 20 side, the user can perform human body communication. Can be recognized.

なお、制御部19は、携帯機器20の認識とともに、認識した携帯機器20のユーザにより表示装置10の利用履歴をフラッシュメモリ15bから取得してもよい。このステップS12の処理を実行することにより、制御部19は、人体通信をもちいて表示装置10と携帯機器20とのペアリングを完了させることができる。   The control unit 19 may acquire the usage history of the display device 10 from the flash memory 15b by the user of the recognized portable device 20 along with the recognition of the portable device 20. By executing the processing of step S12, the control unit 19 can complete the pairing between the display device 10 and the portable device 20 using human body communication.

続いて、ステップS13において、制御部19は、携帯機器20の方位を人体通信により取得する。これにより、制御部19は、ユーザが表示装置10の電極部16に触れている状態(例えば、ユーザが表示装置10と正対している状態)において携帯機器20の方位センサ23cが検出した方位(例えば、北西)を認識することができる。   Subsequently, in step S <b> 13, the control unit 19 acquires the orientation of the mobile device 20 by human body communication. As a result, the control unit 19 detects the direction detected by the direction sensor 23c of the mobile device 20 in a state where the user is touching the electrode unit 16 of the display device 10 (for example, a state where the user is facing the display device 10). For example, northwest) can be recognized.

なお、表示装置10の電極部16に触れるときのユーザの向きは、少なくとも予め定められた向きであれば、ユーザが表示装置10に対して正対でなくても、他の向き(例えば横向き)であってもよい。また、制御部19は、ステップS12とステップS13の処理を逆に実行してもよいし、1つのステップとして実行してもよい。   Note that the orientation of the user when touching the electrode unit 16 of the display device 10 is at least a predetermined orientation, even if the user is not directly facing the display device 10, other orientations (for example, landscape orientation). It may be. Moreover, the control part 19 may perform the process of step S12 and step S13 reversely, and may be performed as one step.

続いて、ステップS14において、制御部19は、人体通信を介して通信方式の切換信号を携帯機器20に送信して、表示装置10と携帯機器20との間の通信方式を、人体通信から無線通信に切り替える。これにより、制御部19は、ユーザが表示装置10から手を離した状態で、携帯機器20との間でデータの送受信をすることができる。また、無線通信は人体通信と比較してデータ転送速度が速いので、制御部19は、携帯機器20との間で画像等の大きなデータの送受信をすることができる。なお、制御部19は、上述のペアリングが成立した後は、ユーザが表示装置10の電極部16から手を離したのをトリガーとして無線通信部18、30による無線通信に切り替えるようにする。なお、通信方式の切換えに応じて、表示部13、21には無線通信が成立していることを示す表示が行なわれ、振動部31による振動パターンの切換えが行なわれる。   Subsequently, in step S14, the control unit 19 transmits a communication method switching signal to the portable device 20 via human body communication, and changes the communication method between the display device 10 and the portable device 20 from human body communication to wireless. Switch to communication. Thereby, the control part 19 can transmit / receive data between the portable apparatuses 20 in the state in which the user released the display device 10. Further, since wireless communication has a higher data transfer rate than human body communication, the control unit 19 can transmit and receive large data such as images to and from the portable device 20. In addition, after the above-described pairing is established, the control unit 19 switches to wireless communication by the wireless communication units 18 and 30 with a user's release from the electrode unit 16 of the display device 10 as a trigger. In response to the switching of the communication method, a display indicating that wireless communication is established is performed on the display units 13 and 21, and the vibration pattern is switched by the vibration unit 31.

続いて、ステップS15において、制御部19は、撮像部11によりユーザを撮像した画像データを、表示部13に表示する。さらに、制御部19は、撮像部11によりユーザを撮像した画像データを、無線通信により携帯機器20に送信して、携帯機器20の表示部21に表示させる。   Subsequently, in step S <b> 15, the control unit 19 displays image data obtained by imaging the user by the imaging unit 11 on the display unit 13. Further, the control unit 19 transmits the image data obtained by capturing the user by the imaging unit 11 to the portable device 20 by wireless communication and causes the display unit 21 of the portable device 20 to display the image data.

なお、制御部19は、携帯機器20のタッチパネル22に対するユーザの操作に応じて、表示装置10の表示部13または携帯機器20の表示部21の何れか一方に、画像を表示させてもよい。また、制御部19は、方位センサ23cの検出出力が予め定められた角度変化した場合に、ユーザの向きが反転したという通知を携帯機器20から通知を受けてもよい。この場合には、制御部19は、ユーザにより視認がされない表示装置10の表示部13の表示を中止してもよい。   Note that the control unit 19 may display an image on either the display unit 13 of the display device 10 or the display unit 21 of the mobile device 20 in accordance with a user operation on the touch panel 22 of the mobile device 20. In addition, the control unit 19 may receive a notification from the portable device 20 that the user's orientation has been reversed when the detection output of the direction sensor 23c changes by a predetermined angle. In this case, the control unit 19 may stop the display on the display unit 13 of the display device 10 that is not visually recognized by the user.

続いて、ステップS16において、制御部19は、携帯機器20から無線通信により、画像の調整指示を受信したか否かを判断する。具体的には、制御部19は、画像の表示範囲を右方向または左方向にシフトさせる調整指示を、携帯機器20から受信したか否かを判断する。なお、調整指示の具体的な操作例については、詳細を図4〜図6を参照して後述する。   Subsequently, in step S <b> 16, the control unit 19 determines whether an image adjustment instruction is received from the portable device 20 by wireless communication. Specifically, the control unit 19 determines whether or not an adjustment instruction for shifting the display range of the image in the right direction or the left direction is received from the portable device 20. A specific operation example of the adjustment instruction will be described later in detail with reference to FIGS.

制御部19は、調整指示を携帯機器20から受信した場合、処理をステップS17に進める。ステップS17において、制御部19は、携帯機器20の方位を認識して、認識した方位に基づき表示装置10に対する現在のユーザの向き(例えば、表示装置10に対して正対しているか又は背を向けているか)を判別する。なお、具体的なユーザの向きの判別方法については、調整指示の具体的な操作例とともに、詳細を図4〜図6を参照して後述する。   When the adjustment instruction is received from the mobile device 20, the control unit 19 advances the process to step S17. In step S17, the control unit 19 recognizes the orientation of the mobile device 20, and based on the recognized orientation, the current user orientation with respect to the display device 10 (for example, facing the display device 10 or facing the back). Is determined). A specific method of determining the user orientation will be described later in detail with reference to FIGS. 4 to 6 together with a specific operation example of the adjustment instruction.

なお、制御部19は、撮像部11により撮像された画像にユーザの顔が含まれているか否かを検出し、顔が検出できた場合には、ユーザが表示装置10に対して正対していると判別してもよい。また、制御部19は、撮像部11により撮像された画像にユーザの顔が含まれているか否かに応じて、携帯機器20の方位に基づき判定されたユーザの向きを補正してもよい。   Note that the control unit 19 detects whether or not the user's face is included in the image captured by the imaging unit 11. If the face can be detected, the user faces the display device 10. It may be determined that Further, the control unit 19 may correct the orientation of the user determined based on the orientation of the mobile device 20 depending on whether or not the user's face is included in the image captured by the imaging unit 11.

表示装置10に対するユーザの向きが判別できると、続いて、ステップS18において、制御部19は、撮像部11により撮像された画像の表示範囲を調整する。具体的には、制御部19は、撮像部11により撮像された画像の表示範囲を、ユーザの調整指示に応じて右方向または左方向にシフトさせる。制御部19は、ステップS18での画像調整を終えると、処理をステップS15に戻して、画像調整がされた後の画像を、表示装置10の表示部13および携帯機器20の表示部21に表示させる。   If the orientation of the user with respect to the display device 10 can be determined, the control unit 19 subsequently adjusts the display range of the image captured by the imaging unit 11 in step S18. Specifically, the control unit 19 shifts the display range of the image captured by the imaging unit 11 in the right direction or the left direction according to the user's adjustment instruction. After completing the image adjustment in step S18, the control unit 19 returns the process to step S15, and displays the image after the image adjustment on the display unit 13 of the display device 10 and the display unit 21 of the portable device 20. Let

一方、ステップS16で調整指示を受信していないと判断する場合、制御部19は、処理をステップS19に進める。ステップS19において、制御部19は、終了指示を携帯機器20から受信したか否かを判断する。   On the other hand, when determining in step S16 that the adjustment instruction has not been received, the control unit 19 advances the processing to step S19. In step S <b> 19, the control unit 19 determines whether an end instruction has been received from the mobile device 20.

例えば、表示装置10と携帯機器20との間で人体通信が成立して、表示装置10及び携帯機器20のペアリングが成立した場合に、携帯機器20の制御部32は、ペアリングが成立していることを示すアイコン、および、このペアリングを解除させる解除アイコンを表示部21に表示する。携帯機器20の制御部32は、ペアリングを解除アイコンがユーザにより操作された場合、終了指示を無線通信により表示装置10に送信する。そして、表示装置10の制御部19は、このような終了指示を携帯機器20から受信した場合に、ユーザによりペアリングの解除させる指示がされたと判断する。なお、表示装置10の無線通信部18の通信距離を例えば数m程度に設定しておき、携帯機器20の無線通信部30との通信が所定時間途切れたらペアリングを解除させてもよく、課金に応じて表示装置10とのペアリング時間を設定するようにしてもよい。   For example, when human body communication is established between the display device 10 and the portable device 20 and pairing between the display device 10 and the portable device 20 is established, the control unit 32 of the portable device 20 establishes pairing. And an unlock icon for canceling the pairing are displayed on the display unit 21. When the pairing cancel icon is operated by the user, the control unit 32 of the portable device 20 transmits an end instruction to the display device 10 by wireless communication. And the control part 19 of the display apparatus 10 judges that the instruction | indication which cancels | releases pairing was given by the user, when such completion | finish instruction | indication was received from the portable apparatus 20. FIG. Note that the communication distance of the wireless communication unit 18 of the display device 10 may be set to, for example, about several meters, and the pairing may be canceled when communication with the wireless communication unit 30 of the mobile device 20 is interrupted for a predetermined time. The pairing time with the display device 10 may be set according to the above.

終了指示を受信していないと判断する場合、制御部19は、処理をステップS16に戻し、調整指示または終了指示を取得するまで、処理をステップS16およびステップS19において待機する。また、終了指示を受信したと判断する場合、制御部19は、処理をステップS20に進める。   When determining that the end instruction has not been received, the control unit 19 returns the process to step S16, and waits for the process in step S16 and step S19 until obtaining an adjustment instruction or an end instruction. When determining that the end instruction has been received, the control unit 19 advances the processing to step S20.

ステップS20において、制御部19は、終了設定処理を実行する。制御部19は、一例として、メモリ部15のバッファメモリ15aに記憶されている画像をフラッシュメモリ15bに保存させるか否をユーザに問い合わせて、ユーザによる保存指示を受けたことに応じて、バッファメモリ15aに記憶されている画像をフラッシュメモリ15bに転送して記憶させる。なお、制御部19は、画像を保存するか否かをユーザに問い合わせる場合に、バッファメモリ15aに記憶されている画像のサムネイル画像を、表示装置10の表示部13または携帯機器20の表示部21に表示してもよい。   In step S20, the control unit 19 executes an end setting process. As an example, the control unit 19 inquires of the user whether or not to save the image stored in the buffer memory 15a of the memory unit 15 in the flash memory 15b, and receives the save instruction from the user in response to receiving the save instruction from the user. The image stored in 15a is transferred to and stored in the flash memory 15b. When the control unit 19 inquires of the user whether or not to save the image, the control unit 19 displays the thumbnail image of the image stored in the buffer memory 15a as the display unit 13 of the display device 10 or the display unit 21 of the portable device 20. May be displayed.

また、表示システム1を商業ベースで用いる場合には、制御部19は、ステップS20の終了設定処理において課金を実行する。そして、制御部19は、ステップS20の処理を完了すると、本フローチャートを抜けて処理を終了する。   When the display system 1 is used on a commercial basis, the control unit 19 performs billing in the end setting process in step S20. Then, when the process of step S20 is completed, the control unit 19 exits this flowchart and ends the process.

(正対している場合の画像の調整方法)
図4(A)は、ユーザが携帯機器20を縦位置で保持し、表示装置10に対して正対している状態を示す。
(Image adjustment method when facing the camera)
FIG. 4A shows a state where the user holds the mobile device 20 in the vertical position and faces the display device 10.

ユーザが表示装置10に対して正対している場合、表示装置10および携帯機器20は、撮像部11が撮像した画像(ユーザの正面姿の画像)を表示する。また、携帯機器20の制御部32は、表示部21に、画面右方向への矢印表示である右操作マーク41R、及び、画面左方向への矢印表示である左操作マーク41Lを表示して、これらに対する操作入力を受け付ける。   When the user is facing the display device 10, the display device 10 and the portable device 20 display an image captured by the imaging unit 11 (an image of the user's front view). The control unit 32 of the portable device 20 displays a right operation mark 41R that is an arrow display in the right direction of the screen and a left operation mark 41L that is an arrow display in the left direction of the screen on the display unit 21, An operation input for these is accepted.

表示装置10に正対している状態において、ユーザは、表示装置10及び携帯機器20の画像の表示範囲を右側にシフトさせたい場合には、右操作マーク41Rをタッチ操作する。また、ユーザは、表示装置10及び携帯機器20の画像の表示範囲を左側にシフトさせたい場合には、左操作マーク41Lをタッチ操作する。   In the state of facing the display device 10, the user touches the right operation mark 41 </ b> R to shift the image display range of the display device 10 and the mobile device 20 to the right. In addition, when the user wants to shift the display range of the images of the display device 10 and the portable device 20 to the left side, the user touches the left operation mark 41L.

右操作マーク41Rまたは左操作マーク41Lが操作された場合、携帯機器20の制御部32は、操作されたボタンの種類、操作量(例えば、タッチ回数)、および現在の方位(例えば北西)を画像の調整指示とともに無線通信により表示装置10に送信する。なお、制御部32は、表示部21に表示された操作入力に代えて、機械的なボタンまたはキーからシフトの操作を受け付けてもよい。   When the right operation mark 41R or the left operation mark 41L is operated, the control unit 32 of the mobile device 20 images the type of the operated button, the operation amount (for example, the number of touches), and the current direction (for example, northwest). Are transmitted to the display device 10 by wireless communication. Note that the control unit 32 may accept a shift operation from a mechanical button or key instead of the operation input displayed on the display unit 21.

表示装置10の制御部19は、携帯機器20から画像の調整指示を受信すると、ペアリングのときの方位と現在の方位とを比較して、表示装置10に対する現在のユーザの向きを判別する。より具体的には、制御部19は、ペアリングのときの方位(例えば北西)と、現在の方位(例えば北西)とが同一であれば、ユーザの向きがペアリングのときの向きと同一である(例えば、ユーザが表示装置10に対して正対している)と判別する。なお、この判定は、携帯機器20の制御部32が実行してもよい。   When receiving the image adjustment instruction from the portable device 20, the control unit 19 of the display device 10 compares the orientation at the time of pairing with the current orientation to determine the current orientation of the user with respect to the display device 10. More specifically, if the direction at the time of pairing (for example, northwest) and the current direction (for example, northwest) are the same, the control unit 19 has the same direction as that at the time of pairing. It is determined that there is (for example, the user is directly facing the display device 10). This determination may be performed by the control unit 32 of the mobile device 20.

そして、表示装置10の制御部19は、ユーザの向きがペアリングのときと同一である場合、表示装置10及び携帯機器20に表示する画像の表示範囲を、操作ボタンの方向と同一の方向に、操作量分(例えばタッチ数に応じた距離分)シフトさせる。より具体的には、制御部19は、ユーザが表示装置10に対して正対している状態において、右操作マーク41Rがタッチされた場合には表示範囲を右側にシフトさせ、左操作マーク41Lがタッチされた場合には表示範囲を左側にシフトさせる。これにより、制御部19は、ユーザの意図通りに適切に画像の表示範囲をシフトさせることができる。   Then, when the orientation of the user is the same as when pairing, the control unit 19 of the display device 10 sets the display range of the image displayed on the display device 10 and the portable device 20 in the same direction as the direction of the operation button. , The operation amount is shifted (for example, a distance corresponding to the number of touches). More specifically, the control unit 19 shifts the display range to the right when the right operation mark 41R is touched while the user is facing the display device 10, and the left operation mark 41L is When touched, the display range is shifted to the left. Thereby, the control part 19 can shift the display range of an image appropriately as a user intends.

(背を向けた場合の画像の調整方法)
図4(B)は、ユーザが携帯機器20を縦位置で保持し、表示装置10に対して背を向けている状態を示す。
(How to adjust the image when you turn your back)
FIG. 4B shows a state in which the user holds the mobile device 20 in the vertical position and turns his back to the display device 10.

ユーザが表示装置10に対して背を向けた場合、携帯機器20は、撮像部11が撮像した画像(即ち、ユーザの後姿の画像)を表示する。これにより、ユーザは、携帯機器20を視認することにより、自身の後姿を確認することができる。   When the user turns away from the display device 10, the portable device 20 displays an image captured by the imaging unit 11 (that is, an image of the user's rear view). Thereby, the user can confirm his / her rear view by visually recognizing the mobile device 20.

なお、携帯機器20の制御部32は、方位センサ23cの検出出力がユーザの向きが、正対しているときの方位から予め定められた角度変化した場合、ユーザの向きが反転して背を向けたとして表示装置10にその旨を通知してもよい。また、当該通知を受けた場合、表示装置10の制御部19は、ユーザが視認することができないので、画像の表示を中止してもよい。   Note that the control unit 32 of the portable device 20 reverses the user's orientation and turns his back when the detection output of the orientation sensor 23c changes by a predetermined angle from the orientation when the orientation of the user is facing directly. For example, the display device 10 may be notified of this. In addition, when the notification is received, the control unit 19 of the display device 10 may stop viewing the image because the user cannot visually recognize the notification.

表示装置10に背を向けている状態において、ユーザは、携帯機器20の画像の表示範囲を右側にシフトさせたい場合には、右操作マーク41Rをタッチ操作する。また、ユーザは、携帯機器20画像の表示範囲を左側にシフトさせたい場合には、左操作マーク41Lをタッチ操作する。   When the user wants to shift the display range of the image of the mobile device 20 to the right side in a state where the back is directed to the display device 10, the user performs a touch operation on the right operation mark 41R. In addition, when the user wants to shift the display range of the image of the mobile device 20 to the left side, the user touches the left operation mark 41L.

右操作マーク41Rまたは左操作マーク41Lが操作された場合、携帯機器20の制御部32は、操作されたボタンの種類、操作量、および現在の方位(例えば南東)を無線通信により画像の調整指示とともに表示装置10に送信する。   When the right operation mark 41R or the left operation mark 41L is operated, the control unit 32 of the portable device 20 instructs the adjustment of the image by wireless communication with the type of the operated button, the operation amount, and the current direction (for example, southeast). At the same time, it is transmitted to the display device 10.

表示装置10の制御部19は、携帯機器20から画像の調整指示を受信すると、ペアリングのときの方位と現在の方位とを比較して、表示装置10に対する現在のユーザの向きを判別する。より具体的には、制御部19は、ペアリングのときの方位(例えば北西)と、現在の方位(例えば南東)とが180度異なれば、ユーザの向きがペアリングのときと逆向きである(例えば、ユーザが表示装置10に対して背を向けている)と判別する。   When receiving the image adjustment instruction from the portable device 20, the control unit 19 of the display device 10 compares the orientation at the time of pairing with the current orientation to determine the current orientation of the user with respect to the display device 10. More specifically, if the orientation (for example, northwest) at the time of pairing differs from the current orientation (for example, southeast) by 180 degrees, the control unit 19 is in the opposite direction to that at the time of pairing. (For example, it is determined that the user is turning away from the display device 10).

ここで、ユーザが表示装置10に対して背を向けている場合、表示装置10の撮像部11の左右方向と、携帯機器20に表示された操作ボタンの左右方向とが逆となる。このため、表示装置10の制御部19は、ユーザが表示装置10に対して背を向けている場合、画像の表示範囲を操作ボタンの方向と逆方向に操作量分(例えばタッチ数に応じた距離分)シフトさせる。   Here, when the user is turning away from the display device 10, the left-right direction of the imaging unit 11 of the display device 10 and the left-right direction of the operation button displayed on the mobile device 20 are reversed. For this reason, when the user turns away from the display device 10, the control unit 19 of the display device 10 sets the display range of the image in the direction opposite to the direction of the operation button (for example, according to the number of touches) Shift by distance).

より具体的には、ユーザが表示装置10に対して背を向けている状態において、表示装置10の制御部19は、右操作マーク41Rがタッチされた場合には表示範囲を左側にシフトさせ、左操作マーク41Lがタッチされた場合には表示範囲を右側にシフトさせる。これにより、制御部19は、ユーザが表示装置10に対して背を向けている場合であっても、ユーザの意図通りに適切に画像の表示範囲をシフトさせることができる。   More specifically, in a state where the user is turning away from the display device 10, the control unit 19 of the display device 10 shifts the display range to the left when the right operation mark 41R is touched, When the left operation mark 41L is touched, the display range is shifted to the right side. Thereby, even if it is a case where the user is turning the back with respect to the display apparatus 10, the control part 19 can shift the display range of an image appropriately as a user intends.

(背を向けてから再度正対した場合の表示方法)
図5(A)は、ユーザが表示装置10に対して背を向けてから、再度、表示装置10に対して正対した状態を示す。
(Display method when facing back after turning back)
FIG. 5A shows a state in which the user faces the display device 10 again after facing the display device 10.

表示装置10の制御部19は、ユーザが表示装置10に対して背を向けている場合、撮像部11が撮像した画像(ユーザの後姿の画像)をバッファメモリ15aに記憶させておく。そして、制御部19は、ユーザが背を向けてから、再度正対した場合、バッファメモリ15aに記憶されたユーザの後姿の画像を、正対しているユーザの画像と重ならないように並べて表示する。なお、表示部13がハーフミラー13bを有する場合には、制御部19は、ハーフミラー13bにより反射されたユーザの鏡像と重ならないように並べて表示する。   When the user is turning away from the display device 10, the control unit 19 of the display device 10 stores an image captured by the imaging unit 11 (an image of the user's rear view) in the buffer memory 15 a. Then, when the user turns back and faces again, the control unit 19 displays the rear image of the user stored in the buffer memory 15a side by side so as not to overlap the image of the facing user. . In addition, when the display part 13 has the half mirror 13b, the control part 19 arranges and displays so that it may not overlap with the mirror image of the user reflected by the half mirror 13b.

これにより、表示装置10の制御部19は、ユーザにより特別の何ら操作をさせることなく、ユーザの後姿及び正面姿を同時に確認させることができる。そして、制御部19は、携帯機器20のタッチパネル22に対して、後姿の表示終了操作がされた場合(例えばタッチパネル22で後姿の画像を弾くような操作がされた場合)、後姿の表示を終了する。   Thereby, the control part 19 of the display apparatus 10 can confirm a user's rear view and front view simultaneously, without performing any special operation by a user. Then, the control unit 19 ends the display of the rear view when the rear view display end operation is performed on the touch panel 22 of the mobile device 20 (for example, when an operation for flipping the rear view image is performed on the touch panel 22). To do.

なお、表示装置10の制御部19は、ユーザが表示装置10に対して横を向いた場合においても、同様の処理を実行してもよい。これにより、表示装置10の制御部19は、ユーザの半身姿及び正面姿を同時に確認させることができる。   Note that the control unit 19 of the display device 10 may perform the same processing even when the user faces sideways with respect to the display device 10. Thereby, the control part 19 of the display apparatus 10 can confirm a user's half-body figure and a front figure simultaneously.

(携帯機器20の姿勢を縦位置から横位置に持ち替えた場合の表示方法等)
図5(B)は、ユーザが携帯機器20を横位置で保持し、表示装置10に対して正対している状態を示す。
(Display method when the posture of the portable device 20 is changed from the vertical position to the horizontal position)
FIG. 5B shows a state where the user holds the mobile device 20 in the horizontal position and faces the display device 10.

ユーザが携帯機器20の姿勢を縦位置から横位置に持ち替えた場合、表示装置10の制御部32は、姿勢センサ23bの出力に応じて表示部21に表示する画像の向きを、ユーザの頭頂部が上側に位置するように90度回転させる。さらに、制御部32は、右操作マーク41Rおよび左操作マーク41Lの表示位置も、ユーザから見て右側に右操作マーク41Rが表示され、ユーザから見て左側に左操作マーク41Lが表示されるように、90度回転させる。   When the user changes the posture of the mobile device 20 from the vertical position to the horizontal position, the control unit 32 of the display device 10 changes the orientation of the image displayed on the display unit 21 in accordance with the output of the posture sensor 23b. Is rotated 90 degrees so that is positioned on the upper side. Furthermore, the control unit 32 also displays the right operation mark 41R on the right side as viewed from the user and the left operation mark 41L on the left side as viewed from the user. Rotate 90 degrees.

制御部32は、携帯機器20の姿勢が縦位置から横位置へ切り替わった場合(又は横位置から縦位置に切り替わった場合)、ユーザの向きは変わっていないので、姿勢切換え前の方位センサ23cの出力を維持する。例えば、制御部32は、携帯機器20を縦位置で保持し且つ方位センサ23cの出力が例えば北である状態から、ユーザが携帯機器20の姿勢を横位置に変更した場合、横位置に切り替わった後の方位も同じく北となるように、方位センサ23cの出力を維持する。これにより、携帯機器20の姿勢が切り替わったとしても、同一の方位を出力することができる。   When the posture of the mobile device 20 is switched from the vertical position to the horizontal position (or when the posture is switched from the horizontal position to the vertical position), the control unit 32 does not change the orientation of the user. Maintain output. For example, when the user changes the posture of the mobile device 20 to the horizontal position from the state where the mobile device 20 is held in the vertical position and the output of the direction sensor 23c is, for example, north, the control unit 32 switches to the horizontal position. The output of the direction sensor 23c is maintained so that the subsequent direction is also north. Thereby, even if the attitude of the mobile device 20 is switched, the same direction can be output.

(その他の場合の表示方法)
図6(A)は、ユーザが表示装置10に対して横を向いている状態を示す。図6(B)は、ユーザが表示装置10に対して斜め前方向を向いている状態を示す。
(Display method in other cases)
FIG. 6A shows a state where the user is facing sideways with respect to the display device 10. FIG. 6B shows a state in which the user is facing obliquely forward with respect to the display device 10.

図6(A)に示すように、ユーザは、表示装置10に対して横(表示装置10に対して90度の角度)を向いて携帯機器20を操作してもよい。また、図6(B)に示すように、ユーザは、表示装置10に対して斜め前方向を向いて携帯機器20を操作してもよい。   As shown in FIG. 6A, the user may operate the portable device 20 while facing the display device 10 (at an angle of 90 degrees with respect to the display device 10). In addition, as illustrated in FIG. 6B, the user may operate the portable device 20 facing diagonally forward with respect to the display device 10.

このような場合、表示装置10の制御部19は、ユーザが表示装置10に対して正対している場合と同様に画像をシフトさせる。即ち、表示装置10は、右操作マーク41Rが操作された場合には、表示範囲を右側にシフトさせ、左操作マーク41Lが操作された場合には、表示範囲を左側にシフトさせる。   In such a case, the control unit 19 of the display device 10 shifts the image as in the case where the user is facing the display device 10. That is, the display device 10 shifts the display range to the right when the right operation mark 41R is operated, and shifts the display range to the left when the left operation mark 41L is operated.

また、ユーザは、表示装置10に対して斜め後方向を向いて携帯機器20を操作してもよい。例えば、ユーザが表示装置10に対して90度(又は270度)よりも後ろ側を向いて操作をした場合、表示装置10は、ユーザが表示装置10に対して背を向けている場合と同様に画像をシフトさせる。即ち、表示装置10は、右操作マーク41Rが操作された場合には、表示範囲を左側にシフトさせ、左操作マーク41Lが操作された場合には、表示範囲を側にシフトさせる。   In addition, the user may operate the portable device 20 facing obliquely backward with respect to the display device 10. For example, when the user performs an operation with the display device 10 facing rearward than 90 degrees (or 270 degrees), the display device 10 is the same as when the user is turning away from the display device 10. Shift the image to. That is, the display device 10 shifts the display range to the left when the right operation mark 41R is operated, and shifts the display range to the side when the left operation mark 41L is operated.

また、携帯機器20は、1本または2本の指等で画像を触ってスライドする操作により、表示範囲をシフトさせてもよい。   The portable device 20 may shift the display range by an operation of touching and sliding the image with one or two fingers or the like.

この場合、表示装置10は、ユーザが正対している状態で、画像が右側にスライドされれば、表示範囲を右側にシフトさせ、画像が左側にスライドされれば、表示範囲を左側にシフトさせる。また、表示装置10は、ユーザが背を向けている状態で、画像が右側にスライドされれば、表示範囲を左側にシフトさせ、画像が左側にスライドされれば、表示範囲を右側にシフトさせる。   In this case, the display device 10 shifts the display range to the right if the image is slid to the right in a state where the user is facing, and shifts the display range to the left if the image is slid to the left. . In addition, the display device 10 shifts the display range to the left if the image is slid to the right and the display range is shifted to the right if the image is slid to the left when the user is facing away. .

なお、表示装置10の制御部19は、表示装置10の表示部13に、各種の操作をジェスチャにて行なうためのジェスチャメニューを表示してもよい。この場合、制御部19は、例えば赤外線装置によりユーザの手の位置を検出して、ユーザが何れのジェスチャメニューを選択したかを検出してもよい。   The control unit 19 of the display device 10 may display a gesture menu for performing various operations using gestures on the display unit 13 of the display device 10. In this case, the control unit 19 may detect which gesture menu the user has selected by detecting the position of the user's hand using, for example, an infrared device.

(変形例に係る表示システム1の構成)
図7は、本実施形態の変形例に係る表示システム1のブロック図を示し、図8は、変形例に係る表示システム1の概要を示す図であり、以下図7,8を用いて説明を行う。変形例に係る表示システム1は、図1から図6を参照して説明した本実施形態に係る表示システム1と略同一の構成および機能を採るので、略同一の構成および機能の部材に同一の符号を付け、以下相違点を除き説明を省略する。
(Configuration of display system 1 according to a modification)
FIG. 7 is a block diagram of a display system 1 according to a modification example of the present embodiment, and FIG. 8 is a diagram illustrating an overview of the display system 1 according to the modification example, which will be described below with reference to FIGS. Do. Since the display system 1 according to the modification adopts substantially the same configuration and function as the display system 1 according to the present embodiment described with reference to FIGS. A reference numeral is attached, and the description will be omitted except for differences.

変形例に係る表示システム1は、少なくとも1つの化粧道具50を更に備える。化粧道具50(50−1,50−2,50−3)は、図8に示すように、ユーザが顔等に化粧するための器具(例えば、口紅又はアイライナー等)または身だしなみを整える等のための器具(例えば、くしまたはコンタクトレンズケース等)であって、人体通信により携帯機器20に情報を送信する機能を有する。   The display system 1 according to the modification further includes at least one makeup tool 50. As shown in FIG. 8, the makeup tool 50 (50-1, 50-2, 50-3) is a tool for the user to make up on the face or the like (for example, lipstick or eyeliner) or to adjust the appearance. Device (for example, comb or contact lens case) for transmitting information to the portable device 20 by human body communication.

また、本変形例において、表示装置10の表示部13は、ハーフミラー13bを有さない構成となっている。また、本変形例においては、携帯機器20は、ユーザが手で保持していなくても、少なくとも人体通信が成立するように保有されていれば、ポケット等に挿入していてもよい。   Moreover, in this modification, the display part 13 of the display apparatus 10 becomes a structure which does not have the half mirror 13b. In the present modification, the portable device 20 may be inserted into a pocket or the like as long as it is held so that at least human body communication is established, even if the user does not hold it by hand.

化粧道具50は、メモリ51と、電極部52と、人体通信部53とを備え、携帯機器20との間で人体通信により情報を送受信する機能を実現する。   The makeup tool 50 includes a memory 51, an electrode unit 52, and a human body communication unit 53, and realizes a function of transmitting and receiving information to and from the portable device 20 through human body communication.

メモリ51は、不揮発性のメモリであってよく、当該化粧道具50を特定するためのデータを記憶する。また、メモリ51は、化粧道具50が使用される体の部位(例えば、目、口、まつ毛、眉毛、頬)に関する情報、および、その部位が体の左右に存在するかどうかの情報を記憶する。   The memory 51 may be a non-volatile memory and stores data for specifying the makeup tool 50. Further, the memory 51 stores information on a body part (for example, eyes, mouth, eyelashes, eyebrows, cheeks) where the makeup tool 50 is used, and information on whether or not the part exists on the left and right sides of the body. .

電極部52は、信号電極とグランド電極とを有し、携帯機器20との間でユーザを介した人体通信により信号を授受する。電極部52は、例えば図9に示すように、ユーザが当該化粧道具を手にとった場合において手に触れやすい位置に複数設けられている。なお、電界方式の人体通信においては、電極部52は、プラスチックまたは樹脂等で形成された筐体の内部に設けられていてもよい。また、電極部52の配置は、図9に示す位置に限らず、ユーザの手に触れやすい位置であればどこであってもよい。   The electrode unit 52 includes a signal electrode and a ground electrode, and exchanges signals with the mobile device 20 through human body communication via a user. For example, as shown in FIG. 9, a plurality of electrode portions 52 are provided at positions where the user can easily touch the hand when the user takes the makeup tool. In electric field type human body communication, the electrode unit 52 may be provided inside a housing formed of plastic or resin. Further, the arrangement of the electrode unit 52 is not limited to the position shown in FIG. 9, and may be anywhere as long as it is easy to touch the user's hand.

人体通信部53は、メモリ51及び電極部52に接続され、バンドパスフィルタを有した電気回路から構成される送信部を有し、送信するデータを変調して送信信号を生成する。なお、人体通信部53は、データを受信する機能を有していてもよい。人体通信部53は、ユーザが化粧道具50を保持して電極に接触したときに、携帯機器20の人体通信部29との間で人体通信を成立させる。そして、人体通信部53は、人体通信が成立すると、メモリ51に記憶されたデータをユーザの体を介して携帯機器20に対して送信する。   The human body communication unit 53 includes a transmission unit that is connected to the memory 51 and the electrode unit 52 and includes an electric circuit having a band-pass filter, and modulates data to be transmitted to generate a transmission signal. The human body communication unit 53 may have a function of receiving data. The human body communication unit 53 establishes human body communication with the human body communication unit 29 of the portable device 20 when the user holds the makeup tool 50 and contacts the electrode. When the human body communication is established, the human body communication unit 53 transmits the data stored in the memory 51 to the mobile device 20 via the user's body.

(変形例に係る表示システム1の処理フロー)
図10は、変形例に係る表示装置10の制御部19の処理フローを示す。本フローチャートは、ユーザがアイシャドウ用チップなどの化粧道具50を持って、化粧道具50と携帯機器20との間で人体通信が成立し、携帯機器20の制御部32がこの人体通信の成立を表示装置10に送信されたときに開始される。
(Processing flow of the display system 1 according to the modification)
FIG. 10 shows a processing flow of the control unit 19 of the display device 10 according to the modification. In this flowchart, the user holds a makeup tool 50 such as an eye shadow chip, and human body communication is established between the makeup tool 50 and the portable device 20, and the control unit 32 of the portable device 20 establishes this human body communication. It starts when it is transmitted to the display device 10.

まず、ステップS31において、制御部19は、携帯機器20と化粧道具50との間で人体通信が成立したことの通知を受けたことの確認をする。制御部19は、人体通信が成立したタイミングで処理をステップS32に移行する。なお、人体通信や無線通信が成立した際には携帯機器20の振動部31が振動するため、ユーザは携帯機器20をポケットに入れてある場合でも通信の成立を認識することができる。   First, in step S <b> 31, the control unit 19 confirms that a notification that human body communication has been established between the mobile device 20 and the makeup tool 50 has been received. The control part 19 transfers a process to step S32 at the timing when human body communication was materialized. Note that when the human body communication or the wireless communication is established, the vibration unit 31 of the mobile device 20 vibrates, so that the user can recognize the establishment of the communication even when the mobile device 20 is in the pocket.

続いて、ステップS32において、制御部19は、撮像部11によりユーザを撮像した画像を解析して、画像内においてユーザの顔を検出する。制御部19は、一例として、画像解析処理により、ユーザの顔の輪郭、並びに、顔の各部位(目、鼻及び口等)の位置及び形状等を検出する。   Subsequently, in step S <b> 32, the control unit 19 analyzes the image captured by the imaging unit 11 and detects the user's face in the image. As an example, the control unit 19 detects the contour of the user's face and the position and shape of each part of the face (eyes, nose, mouth, etc.) by image analysis processing.

続いて、ステップS33において、制御部19は、人体通信の成立に応じて化粧道具50から携帯機器20へと送信された化粧道具50のメモリ51内の情報(化粧道具50を特定するための情報)を無線通信により携帯機器20から受信して、ユーザが手に持っている化粧道具50の種類を特定する。例えば、制御部19は、ユーザが手に持っている化粧道具50が、アイライナーなのか、口紅なのか等を特定する。なお、制御部19は、ステップS32とステップS33とを入れ替えて実行してもよい。   Subsequently, in step S33, the control unit 19 transmits information in the memory 51 of the makeup tool 50 (information for identifying the makeup tool 50) transmitted from the makeup tool 50 to the portable device 20 in response to the establishment of the human body communication. ) Is received from the portable device 20 by wireless communication, and the type of the makeup tool 50 held by the user is specified. For example, the control unit 19 specifies whether the makeup tool 50 held by the user is an eyeliner or a lipstick. In addition, the control part 19 may replace and perform step S32 and step S33.

続いて、ステップS34において、制御部19は、特定した化粧道具50が、左右が有る部位に対して使用される道具なのか否かを判断する。制御部19は、例えば、特定した化粧道具50が、目、眉毛、まつ毛、頬および耳等に対して使用される場合には、左右が有る部位に対して使用されると判断する。また、制御部19は、特定した化粧道具50が、口および鼻等に使用される場合には、左右の無い部位に対して使用されると判断する。   Subsequently, in step S <b> 34, the control unit 19 determines whether or not the specified makeup tool 50 is a tool to be used for a part having left and right. For example, when the specified makeup tool 50 is used for the eyes, eyebrows, eyelashes, cheeks, ears, or the like, the control unit 19 determines that the specified makeup tool 50 is used for a portion having left and right. In addition, when the specified makeup tool 50 is used for the mouth, the nose, or the like, the control unit 19 determines that the specified makeup tool 50 is used for a portion without left and right.

制御部19は、一例として、人体通信の成立に応じて化粧道具50から携帯機器20へと送信されたメモリ51内の情報(部位が体の左右に存在するかの情報)に基づき、左右が有る部位に対して使用される道具なのか否かを判断する。また、制御部19は、特定した化粧道具50の種類から、左右が有る部位に対して使用される道具なのか否かを推定してもよい。   As an example, the control unit 19 determines whether left and right are based on information in the memory 51 (information on whether a part exists on the left and right sides of the body) transmitted from the makeup tool 50 to the mobile device 20 in response to establishment of human body communication. Determine whether the tool is used for a certain part. Moreover, the control part 19 may estimate whether it is a tool used with respect to the site | part with right and left from the kind of the specified makeup | decoration tool 50. FIG.

特定した化粧道具50が左右の無い体の部位に対して使用される場合、制御部19は、処理をステップS35に進める。   When the specified makeup tool 50 is used for a body part without left and right, the control unit 19 advances the process to step S35.

ステップS35において、制御部19は、ユーザの顔の画像、及び、特定した化粧道具50が使用される体の部位を拡大した画像を並べて表示部13に表示させる。例えば、図11(A)に示すように、制御部19は、化粧道具50が口紅と特定された場合には、顔の全体を表す分割画像61と、口の拡大画像62とを、左右に分割して表示部13に表示させる。   In step S <b> 35, the control unit 19 causes the display unit 13 to display an image of the user's face and an image obtained by enlarging the body part where the specified makeup tool 50 is used. For example, as shown in FIG. 11A, when the makeup tool 50 is identified as a lipstick, the control unit 19 divides a divided image 61 representing the entire face and an enlarged image 62 of the mouth left and right. The image is divided and displayed on the display unit 13.

なお、制御部19は、何れの部位を拡大して表示するかは、人体通信の成立に応じて化粧道具50から携帯機器20へと送信されたメモリ51内の情報(化粧道具50が使用される部位の情報)に基づき判断してもよいし、特定した化粧道具50の種類から推定してもよい。制御部19は、ステップS35の表示処理を終えると、処理をステップS40に進める。   It should be noted that the control unit 19 determines which part is enlarged and displayed based on the information in the memory 51 transmitted from the makeup tool 50 to the mobile device 20 according to the establishment of human body communication (the makeup tool 50 is used. Information may be estimated based on the type of makeup tool 50 identified. After finishing the display process of step S35, the control part 19 advances a process to step S40.

特定した化粧道具50が左右の有る体の部位に対して使用される場合、制御部19は、処理をステップS36に進める。   When the specified makeup tool 50 is used for the left and right body parts, the control unit 19 advances the process to step S36.

ステップS36において、制御部19は、ユーザの顔の画像、及び、特定した化粧道具50が使用される部位(左右の部位の両方を含む領域)を拡大した画像を並べて表示部13に表示させる。例えば、図11(B)に示すように、制御部19は、化粧道具50がアイライナーと特定された場合には、顔の全体を表す分割画像61と、両目を含む領域の拡大画像63とを、左右に分割して表示部13に表示させる。なお、制御部19は、顔全体の画像または両目の拡大画像のいずれか一方を表示部13の中央に表示してもよい。   In step S <b> 36, the control unit 19 causes the display unit 13 to display an image of the user's face and an image obtained by enlarging an area where the specified makeup tool 50 is used (an area including both the left and right parts). For example, as shown in FIG. 11B, when the makeup tool 50 is identified as an eyeliner, the control unit 19 includes a divided image 61 that represents the entire face, and an enlarged image 63 of an area that includes both eyes. Is divided into left and right and displayed on the display unit 13. Note that the control unit 19 may display either the entire face image or the enlarged image of both eyes at the center of the display unit 13.

続いて、ステップS37において、制御部19は、ユーザが左の部位と右の部位のどちらに対して化粧を行うかを、撮像部11によりユーザを撮像した画像に基づき判別する。例えば、制御部19は、化粧道具50がアイライナーであれば、ユーザが右目または左目の何れに対して化粧を行うのかを判別する。   Subsequently, in step S <b> 37, the control unit 19 determines whether the user performs makeup on the left part or the right part based on the image captured by the imaging unit 11. For example, if the makeup tool 50 is an eyeliner, the control unit 19 determines whether the user applies makeup for the right eye or the left eye.

図12(A)はユーザが化粧道具50を右手で保持して右目の化粧を行なっている状態を示し、図12(B)はユーザが化粧道具50を右手で保持して左目の化粧を行なっている状態を示す。アイシャドウ用チップまたはアイライナーを持ってユーザが右目に対して化粧をする場合、ユーザは一般的に右目を閉じる。従って、制御部19は、撮像した画像に基づき、右目を閉じているか左目を閉じているかを判断し、右目を閉じていれば右目に対して化粧を行っており、左目を閉じていれば左目に対して化粧を行っていると判断してもよい。   FIG. 12A shows a state where the user holds the makeup tool 50 with the right hand and makes the right eye, and FIG. 12B shows the user holding the makeup tool 50 with the right hand and makes the left eye. It shows the state. When a user applies makeup to the right eye with an eye shadow tip or eyeliner, the user typically closes the right eye. Therefore, the control unit 19 determines whether the right eye is closed or the left eye is closed based on the captured image. If the right eye is closed, makeup is applied to the right eye, and if the left eye is closed, the left eye is closed. It may be determined that makeup is being applied to.

また、アイライナーを右手で持って右目の化粧をする場合には、鼻は隠れないが、アイライナーを右手で持って左目の化粧をする場合には、鼻の一部が隠れる。また、制御部19は、アイライナーを右手又は左手の何れで持っているかは、アイライナーの角度を検出することにより判断することができる。従って、制御部19は、撮像した画像に基づき、アイライナーの角度から右手に持っているか否かを検出し、更にユーザの鼻が隠れたか否かを検出して、ユーザが右目に対して化粧を行っているのか、左目に対して化粧を行っているのかを判断してもよい。   In addition, the nose is not hidden when the eyeliner is held with the right hand to make the right eye, but when the eyeliner is held with the right hand and the left eye is put on, a part of the nose is hidden. Further, the control unit 19 can determine whether the right hand or the left hand is holding the eyeliner by detecting the angle of the eyeliner. Therefore, the control unit 19 detects whether the right hand is held from the angle of the eyeliner based on the captured image, further detects whether the user's nose is hidden, and the user applies makeup to the right eye. It may be determined whether or not makeup is performed on the left eye.

また、化粧道具50は、加速度センサまたはジャイロ等を有してもよい。この場合、制御部19は、加速度センサまたはジャイロの検出結果を取得して化粧道具50の姿勢または移動方向を予測し、右の部位に対して化粧を行うのか、左の部位に対して化粧を行うのかを判断してもよい。   Further, the makeup tool 50 may include an acceleration sensor, a gyro, or the like. In this case, the control unit 19 obtains the detection result of the acceleration sensor or the gyro to predict the posture or the moving direction of the makeup tool 50, and performs makeup on the right part or makeup on the left part. You may decide whether to do it.

続いて、ステップS38において、制御部19は、右側の部位または左側の部位のうち、ステップS37で判別した側の部位を拡大して表示する。例えば、制御部19は、図13に示すように、左目に対して化粧を行っていると判断した場合には、左目の拡大画像64を表示する。また、制御部19は、左目に対して化粧を行った後に、右眼に対して化粧を行っていると判断した場合には、左目の拡大画像64から右眼の拡大画像に表示を切り替える。   Subsequently, in step S38, the control unit 19 enlarges and displays the part on the side determined in step S37 among the right part and the left part. For example, as illustrated in FIG. 13, when the control unit 19 determines that makeup is performed on the left eye, the control unit 19 displays an enlarged image 64 of the left eye. If the control unit 19 determines that makeup is applied to the right eye after applying makeup to the left eye, the control unit 19 switches the display from the enlarged image 64 of the left eye to the enlarged image of the right eye.

続いて、ステップS39において、制御部19は、左の部位および右の部位の両方について化粧を終了したか否かを判断する。例えば、制御部19は、ユーザが左側の部位および右側の部位のそれぞれに対して化粧を終えて、化粧道具50を手放して化粧道具50と携帯機器20との人体通信が切れたときに、左側の部位および右側の部位の両方について化粧を終了したと判断する。制御部19は、一方側の部位しか化粧を終了していない場合、処理をステップS37に戻して、左右の部位の両方について処理を終了するまで処理を繰り返す。   Subsequently, in step S39, the control unit 19 determines whether or not makeup has been completed for both the left part and the right part. For example, when the user finishes makeup for each of the left part and the right part and releases the makeup tool 50 and the human body communication between the makeup tool 50 and the portable device 20 is cut off, It is determined that the makeup has been completed for both of the site and the right site. If the makeup has been finished only on one side, the control unit 19 returns the process to step S37 and repeats the process until the process is finished for both the left and right parts.

なお、例えば右側の部位の化粧を終えた後において、左側の部位の化粧をしているときに、左右のバランスが気になることもある。このような場合、制御部19は、例えばユーザの指示に応じて、表示される拡大画像を左右切り換えてもよい。また、制御部19は、ユーザの指示に応じて、顔の全体像に代えて、両方の部位の全体を含む表示に切り換えたり、右側の部位の拡大画像及び左側の部位の拡大画像を同時に表示したりしてもよい。   In addition, for example, after finishing the makeup on the right side, when the makeup on the left side is being made, the right and left balance may be anxious. In such a case, the control unit 19 may switch the displayed enlarged image to the left and right, for example, in accordance with a user instruction. Further, in accordance with a user instruction, the control unit 19 switches to a display including the whole of both parts instead of the whole face image, or simultaneously displays an enlarged image of the right part and an enlarged image of the left part. You may do it.

また、制御部19は、メモリ部15に流行のメーク例を示す画像データを記憶させておき、ユーザの顔画像の上に、仮想線および仮想色を重ねて表示させてもよい。また、制御部19は、メモリ部15に代表的な髪型と、その髪型に合うメーク例を示す化粧データを記憶させておき、撮像部11により撮像された画像からユーザの髪型を判別して、メモリ部15に記憶された髪型に対応したメーク例を表示することによりアドバイスを提供するようにしてもよい。この場合、制御部19は、年齢、季節および服装等に対応付けて、複数の化粧データをメモリ部15に記憶させておいてもよい。   Further, the control unit 19 may store image data indicating a fashionable makeup example in the memory unit 15 and display a virtual line and a virtual color superimposed on the user's face image. In addition, the control unit 19 stores a representative hairstyle and makeup data indicating a makeup example that matches the hairstyle in the memory unit 15, discriminates the user's hairstyle from the image captured by the imaging unit 11, The advice may be provided by displaying a makeup example corresponding to the hairstyle stored in the memory unit 15. In this case, the control unit 19 may store a plurality of makeup data in the memory unit 15 in association with age, season, clothes, and the like.

制御部19は、左側の部位および右側の部位の両方について化粧を終了したと判断した場合、処理をステップS40に進める。   If the control unit 19 determines that makeup has been completed for both the left part and the right part, the process proceeds to step S40.

ステップS40において、制御部19は、化粧道具50が変更されたかどうかを判断する。制御部19は、他の化粧道具50に変更された場合(例えばアイライナーから眉の形を描くアイブロウペンシルに変更された場合)、処理をステップS33に戻して、処理を繰り返す。また、制御部19は、化粧道具50が変更されずに、化粧道具50と携帯機器20との人体通信が予め定められた時間(例えば数十秒から1分程度)無い場合には、化粧を終了したとして本フローチャートを終了する。   In step S40, the control unit 19 determines whether the makeup tool 50 has been changed. When the control unit 19 is changed to another makeup tool 50 (for example, when the eyeliner pencil changes the eyebrow shape from the eyeliner), the control unit 19 returns the process to step S33 and repeats the process. In addition, the control unit 19 applies makeup when the makeup tool 50 is not changed and the human body communication between the makeup tool 50 and the portable device 20 is not performed for a predetermined time (for example, about several tens of seconds to one minute). This flow chart is ended as having ended.

なお、本変形例においては、携帯機器20を介在させて、化粧道具50と表示装置10との通信を行ったが、表示システム1は、化粧道具50と表示装置10との間で人体通信または近距離無線通信を成立させて通信を行うようにしてもよい。また、携帯機器20にミラー機能(例えば、表示部21にハーフミラーフィルムを貼り付けて実現する)を設けて、化粧道具50と携帯機器20との間で人体通信又は近接通信を成立させて通信を行ってもよい。この場合、この場合、携帯機器20の撮像部25を駆動機構により駆動させて、ユーザを撮像する位置を調整してもよい。   In this modification, communication between the makeup tool 50 and the display device 10 is performed via the portable device 20, but the display system 1 is configured to perform human body communication between the makeup tool 50 and the display device 10. You may make it communicate by establishing near field communication. Further, the portable device 20 is provided with a mirror function (for example, realized by attaching a half mirror film to the display unit 21), and communication is performed by establishing human body communication or proximity communication between the makeup tool 50 and the portable device 20. May be performed. In this case, in this case, the imaging unit 25 of the mobile device 20 may be driven by a driving mechanism to adjust the position where the user is imaged.

また、表示システム1は、化粧後のユーザの画像を例えば携帯機器20のフラッシュメモリ27に記憶させて、メークの履歴を保存してもよい。また、表示システム1は、ユーザの過去のメークの履歴をアドバイスとして表示してもよい。また、表示システム1は、保存したメークの履歴からユーザに似合う色であるパーソナルカラーをユーザに報知したりしてもよい。   The display system 1 may store the makeup history by storing the user image after makeup in the flash memory 27 of the portable device 20, for example. Moreover, the display system 1 may display a user's past make history as advice. Further, the display system 1 may notify the user of a personal color that is a color that suits the user from the stored make history.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

1 表示システム、10 表示装置、11 撮像部、12 駆動部、13 表示部、13a ディスプレイ、13b ハーフミラー、14 画像調整部、15 メモリ部、15a バッファメモリ、15b フラッシュメモリ、16 電極部、17 人体通信部、18 無線通信部、19 制御部、20 携帯機器、21 表示部、22 タッチパネル、23 センサ部、23a GPSモジュール、23b 姿勢センサ、23c 方位センサ、24 計時部、25 撮像部、26 マイクロフォン、27 フラッシュメモリ、28 電極部、29 人体通信部、30 無線通信部、31 振動部、32 制御部、40 方位情報、41R 右操作マーク、41L 左操作マーク、50 化粧道具、51 メモリ、52 電極部、53 人体通信部、61 分割画像、62 拡大画像、63 拡大画像、64 拡大画像 DESCRIPTION OF SYMBOLS 1 Display system, 10 Display apparatus, 11 Imaging part, 12 Drive part, 13 Display part, 13a Display, 13b Half mirror, 14 Image adjustment part, 15 Memory part, 15a Buffer memory, 15b Flash memory, 16 Electrode part, 17 Human body Communication unit, 18 Wireless communication unit, 19 Control unit, 20 Mobile device, 21 Display unit, 22 Touch panel, 23 Sensor unit, 23a GPS module, 23b Attitude sensor, 23c Direction sensor, 24 Timekeeping unit, 25 Imaging unit, 26 Microphone, 27 Flash memory, 28 electrode section, 29 human body communication section, 30 wireless communication section, 31 vibration section, 32 control section, 40 direction information, 41R right operation mark, 41L left operation mark, 50 makeup tool, 51 memory, 52 electrode section , 53 Human body communication part, 61 Split image, 6 Enlarged image 63 enlarged image 64 enlarged image

Claims (20)

外部機器と通信する電子機器であって、
ユーザの人体を介した通信または近距離通信により前記外部機器とペアリングする第1通信部と、
前記ペアリングに関連して当該電子機器の向きを検出する第1センサと、
を備える電子機器。
An electronic device that communicates with an external device,
A first communication unit for pairing with the external device by communication through a human body or near field communication;
A first sensor that detects the orientation of the electronic device in relation to the pairing;
Electronic equipment comprising.
前記第1通信部とは異なる第2通信部と、
前記第1通信部と前記第2通信部との切換え制御を行なう第1制御部と、を備える請求項1に記載の電子機器。
A second communication unit different from the first communication unit;
The electronic device according to claim 1, further comprising: a first control unit that performs switching control between the first communication unit and the second communication unit.
前記外部機器に対する操作を行う操作部を備え、
前記第1センサは、前記操作部を操作中に前記人体の向きに関する情報を検出する請求項1または2に記載の電子機器。
An operation unit for performing operations on the external device;
The electronic device according to claim 1, wherein the first sensor detects information related to the orientation of the human body while operating the operation unit.
前記操作部の出力と、前記第1センサとの出力とを前記外部機器に送信する送信制御を行う第2制御部を備えた請求項3に記載の電子機器。   The electronic device according to claim 3, further comprising a second control unit that performs transmission control for transmitting the output of the operation unit and the output of the first sensor to the external device. 前記ユーザが前記電子機器を保持していることを検出する第2センサを有し、
前記第1センサは、前記第2センサにより前記ユーザが前記電子機器を保持しているときに前記人体の向きに関する情報を検出する請求項1から4のいずれか一項に記載の電子機器。
A second sensor for detecting that the user is holding the electronic device;
5. The electronic device according to claim 1, wherein the first sensor detects information related to the orientation of the human body when the user is holding the electronic device by the second sensor. 6.
前記第1通信部の少なくとも一部を前記第2センサの少なくとも一部として兼用する請求項5に記載の電子機器。   The electronic apparatus according to claim 5, wherein at least a part of the first communication unit is also used as at least a part of the second sensor. 前記電子機器の姿勢を検出する第3センサを備えた請求項1から6のいずれか一項に記載の電子機器。   The electronic device as described in any one of Claim 1 to 6 provided with the 3rd sensor which detects the attitude | position of the said electronic device. 前記第1通信部の少なくとも一部を前記第3センサの少なくとも一部として兼用する請求項7記載の電子機器。   The electronic device according to claim 7, wherein at least a part of the first communication unit is also used as at least a part of the third sensor. 前記第1センサは方位センサである請求項1から8のいずれか一項に記載の電子機器。   The electronic device according to claim 1, wherein the first sensor is an orientation sensor. 前記電子機器の姿勢を検出する第3センサと、
前記第3センサの出力に応じて、前記方位センサの検出結果を制御する第3制御部と、を備えた請求項9に記載の電子機器。
A third sensor for detecting the attitude of the electronic device;
The electronic device according to claim 9, further comprising: a third control unit that controls a detection result of the direction sensor according to an output of the third sensor.
前記ペアリング中に検出した前記電子機器の向きを基準として、前記操作部の操作を補正する補正部を備える請求項3に記載の電子機器。   The electronic device according to claim 3, further comprising a correction unit that corrects an operation of the operation unit based on a direction of the electronic device detected during the pairing. 前記ペアリング中に検出した前記電子機器の向きを基準向きとして、前記電子機器が前記基準向きから所定量異なる向きにあるときに、前記外部機器の表示の切り換えを指示する指示部を備える請求項1から11のいずれか一項に記載の電子機器。   An instruction unit that instructs to switch display of the external device when the electronic device is in a direction different from the reference direction by a predetermined amount, with the direction of the electronic device detected during the pairing as a reference direction. The electronic device according to any one of 1 to 11. 前記第1通信部による通信が成立していることを前記ユーザに報知する第1報知部を備えた請求項1記載の電子機器。   The electronic device of Claim 1 provided with the 1st alerting | reporting part which alert | reports to the said user that communication by the said 1st communication part is materialized. 前記第1通信部と前記第2通信部とのいずれの通信が成立しているかを前記ユーザに報知する第2報知部を備えた請求項2記載の電子機器。   The electronic device according to claim 2, further comprising a second notification unit that notifies the user which communication is established between the first communication unit and the second communication unit. コンピュータを請求項1から14のいずれか一項に記載の電子機器として機能させるためのプログラム。   The program for functioning a computer as an electronic device as described in any one of Claims 1-14. 電子機器が外部機器と通信するための方法であって、
ユーザの人体を介した通信または近距離通信により前記外部機器とペアリングするステップと、
前記ペアリングに関連して当該電子機器の向きを検出するステップと
を有する方法。
A method for an electronic device to communicate with an external device,
Pairing with the external device by communication via the human body or near field communication;
Detecting the orientation of the electronic device in relation to the pairing.
外部機器と近距離通信またはユーザを介した通信により前記外部機器とのペアリングを行なう第1通信部と、
前記ユーザを撮像可能な撮像部と、
前記撮像部の撮像結果に基づいて、前記ユーザの向きに関する情報を取得する取得部と、を備えた電子機器。
A first communication unit that performs pairing with the external device by short-distance communication with the external device or communication via a user;
An imaging unit capable of imaging the user;
An electronic device comprising: an acquisition unit that acquires information related to the orientation of the user based on an imaging result of the imaging unit.
前記取得部は、前記撮像部が撮像した画像から顔を検出する顔検出部を備えている請求項17に記載の電子機器。   The electronic device according to claim 17, wherein the acquisition unit includes a face detection unit that detects a face from an image captured by the imaging unit. 前記取得部は、前記顔検出部の検出結果に基づいて、前記撮像部に対して前記ユーザが正面を向いているかどうかの情報を取得する請求項18に記載の電子機器。   The electronic device according to claim 18, wherein the acquisition unit acquires information on whether the user is facing the front with respect to the imaging unit based on a detection result of the face detection unit. 前記外部機器からの操作を受け付ける受付部と、
前記取得部が取得した前記ユーザの向きに関する情報に基づいて、前記受付部が受け付けた操作を補正する補正部と、を備えた請求項17から19のいずれか一項に記載の電子機器。
A reception unit that receives an operation from the external device;
The electronic device according to claim 17, further comprising: a correction unit that corrects an operation received by the reception unit based on information about the user orientation acquired by the acquisition unit.
JP2012174094A 2012-08-06 2012-08-06 Electronic device, method and program Active JP6051665B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012174094A JP6051665B2 (en) 2012-08-06 2012-08-06 Electronic device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012174094A JP6051665B2 (en) 2012-08-06 2012-08-06 Electronic device, method and program

Publications (2)

Publication Number Publication Date
JP2014033408A true JP2014033408A (en) 2014-02-20
JP6051665B2 JP6051665B2 (en) 2016-12-27

Family

ID=50282903

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012174094A Active JP6051665B2 (en) 2012-08-06 2012-08-06 Electronic device, method and program

Country Status (1)

Country Link
JP (1) JP6051665B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018018263A (en) * 2016-07-27 2018-02-01 瑳京 奥条 Method for proposing styling in hair salon
JP2018121368A (en) * 2018-04-26 2018-08-02 オリンパス株式会社 Image display device and image display method

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001025004A (en) * 1999-07-09 2001-01-26 Mitsuru Takashima Electronic mirror system
JP2004046386A (en) * 2002-07-10 2004-02-12 Hitachi Ltd Personal digital assistant, power saving method for personal digital assistant, and recording medium
WO2009153975A1 (en) * 2008-06-18 2009-12-23 パナソニック株式会社 Electronic mirror device
JP2010079423A (en) * 2008-09-24 2010-04-08 Sony Corp Information processor and method, program, and information processing system
JP2010136016A (en) * 2008-12-03 2010-06-17 Ricoh Co Ltd Peripheral apparatus, network system, communication processing method for the peripheral apparatus, computer program, and recording medium
JP2010161654A (en) * 2009-01-08 2010-07-22 Sony Ericsson Mobilecommunications Japan Inc Communication terminal and communication method
WO2011046393A2 (en) * 2009-10-16 2011-04-21 Samsung Electronics Co., Ltd. Apparatus and method for establishing a personal network for providing a cpns service
JP2011172094A (en) * 2010-02-19 2011-09-01 Nikon Corp Imaging apparatus
JP2011196760A (en) * 2010-03-18 2011-10-06 Sony Corp Navigation device, method for controlling the same, and navigation system
JP2011209852A (en) * 2010-03-29 2011-10-20 Nec Personal Products Co Ltd Communication system, information processing apparatus, and communication method
JP2012060547A (en) * 2010-09-13 2012-03-22 Sharp Corp Electronic mirror system
JP2012059090A (en) * 2010-09-10 2012-03-22 Panasonic Corp Radio communication device and communication device
JP2012142867A (en) * 2011-01-05 2012-07-26 Nec Corp Mobile terminal and operation control method
JP2014505406A (en) * 2010-12-22 2014-02-27 ジエマルト・エス・アー Communications system

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001025004A (en) * 1999-07-09 2001-01-26 Mitsuru Takashima Electronic mirror system
JP2004046386A (en) * 2002-07-10 2004-02-12 Hitachi Ltd Personal digital assistant, power saving method for personal digital assistant, and recording medium
WO2009153975A1 (en) * 2008-06-18 2009-12-23 パナソニック株式会社 Electronic mirror device
JP2010079423A (en) * 2008-09-24 2010-04-08 Sony Corp Information processor and method, program, and information processing system
JP2010136016A (en) * 2008-12-03 2010-06-17 Ricoh Co Ltd Peripheral apparatus, network system, communication processing method for the peripheral apparatus, computer program, and recording medium
JP2010161654A (en) * 2009-01-08 2010-07-22 Sony Ericsson Mobilecommunications Japan Inc Communication terminal and communication method
WO2011046393A2 (en) * 2009-10-16 2011-04-21 Samsung Electronics Co., Ltd. Apparatus and method for establishing a personal network for providing a cpns service
JP2013507876A (en) * 2009-10-16 2013-03-04 サムスン エレクトロニクス カンパニー リミテッド Apparatus and method for establishing a personal network for providing a CPNS service
JP2011172094A (en) * 2010-02-19 2011-09-01 Nikon Corp Imaging apparatus
JP2011196760A (en) * 2010-03-18 2011-10-06 Sony Corp Navigation device, method for controlling the same, and navigation system
JP2011209852A (en) * 2010-03-29 2011-10-20 Nec Personal Products Co Ltd Communication system, information processing apparatus, and communication method
JP2012059090A (en) * 2010-09-10 2012-03-22 Panasonic Corp Radio communication device and communication device
JP2012060547A (en) * 2010-09-13 2012-03-22 Sharp Corp Electronic mirror system
JP2014505406A (en) * 2010-12-22 2014-02-27 ジエマルト・エス・アー Communications system
JP2012142867A (en) * 2011-01-05 2012-07-26 Nec Corp Mobile terminal and operation control method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"3分で分かるNFC基礎講座", 日経エレクトロニクス, JPN6016008225, 21 March 2011 (2011-03-21), JP, pages 1052 - 54, ISSN: 0003269731 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018018263A (en) * 2016-07-27 2018-02-01 瑳京 奥条 Method for proposing styling in hair salon
JP2018121368A (en) * 2018-04-26 2018-08-02 オリンパス株式会社 Image display device and image display method

Also Published As

Publication number Publication date
JP6051665B2 (en) 2016-12-27

Similar Documents

Publication Publication Date Title
WO2014024362A1 (en) Electronic device, method, and program
KR102458665B1 (en) Method and appratus for processing screen using device
CN105759422B (en) Display system and control method of display device
KR20160015719A (en) Mobile terminal and method for controlling the same
KR20170067058A (en) Mobile terminal and method for controlling the same
CN109166150B (en) Pose acquisition method and device storage medium
KR20130081117A (en) Mobile terminal and control method therof
CN106067833B (en) Mobile terminal and control method thereof
KR102110208B1 (en) Glasses type terminal and control method therefor
KR20160056133A (en) Method for controlling display of image and apparatus implementing the same
KR20180062454A (en) Terminal device and control method of terminal device
KR20180013151A (en) Mobile terminal
JP2016067024A (en) Portable electronic device
JP6136090B2 (en) Electronic device and display device
US20220057978A1 (en) Display Method And Apparatus, Intelligent Wearable Device, And Storage Medium
JP2017142857A (en) Input device
CN111427629B (en) Application starting method and device, vehicle equipment and storage medium
CN111447562B (en) Vehicle travel track analysis method and device and computer storage medium
CN110275655B (en) Lyric display method, device, equipment and storage medium
CN113160031B (en) Image processing method, device, electronic equipment and storage medium
JP6051665B2 (en) Electronic device, method and program
JP6439448B2 (en) Display system, program, and control method for display device
CN113763460A (en) Positioning method, device and system of transcranial magnetic stimulation coil
JP2014033398A (en) Electronic apparatus
CN114115544B (en) Man-machine interaction method, three-dimensional display device and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150707

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161114

R150 Certificate of patent or registration of utility model

Ref document number: 6051665

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250