JP2014002464A - Electronic device - Google Patents
Electronic device Download PDFInfo
- Publication number
- JP2014002464A JP2014002464A JP2012135943A JP2012135943A JP2014002464A JP 2014002464 A JP2014002464 A JP 2014002464A JP 2012135943 A JP2012135943 A JP 2012135943A JP 2012135943 A JP2012135943 A JP 2012135943A JP 2014002464 A JP2014002464 A JP 2014002464A
- Authority
- JP
- Japan
- Prior art keywords
- user
- unit
- information
- output
- external device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、電子機器に関する。 The present invention relates to an electronic device.
従来から、機器に対する説明(ガイダンス)を受けるための様々な方法が提案されている。例えば、特許文献1には、人体通信を利用したガイダンスシステムが提案されている。この特許文献1のガイダンスシステムでは、ユーザがヘルプスイッチに触れつつガイダンスを受けたい機器に触れることで、ヘルプスイッチと機器との間の人体通信が成立するので、ガイダンス制御装置は、当該人体通信の成立に応じて、機器に関するガイダンスをユーザに提供する。
Conventionally, various methods for receiving an explanation (guidance) for a device have been proposed. For example,
しかしながら、従来のガイダンスシステムでは、ユーザは、ガイダンスを受けるためにヘルプスイッチとガイダンスを受けたい機器との両方に意識的に触れる必要があり、使い勝手がよいものではなかった。 However, in the conventional guidance system, the user needs to consciously touch both the help switch and the device that wants to receive the guidance in order to receive the guidance, which is not convenient.
そこで、本発明は上記の課題に鑑みてなされたものであり、機器の使い勝手を向上させることが可能な電子機器を提供することを目的とする。 Therefore, the present invention has been made in view of the above-described problems, and an object thereof is to provide an electronic device that can improve the usability of the device.
本発明の電子機器(10)は、ユーザの機器の使用に関する情報を入力する入力部(620)と、外部機器と近接通信または人体通信を行う通信部(20)と、前記通信部が前記外部機器と通信した場合に、前記ユーザの機器の使用に関する情報に基づいて、前記外部機器が出力する情報及び前記外部機器が出力する情報の出力態様の少なくとも一方を、前記外部機器に出力する出力部(640)とを備えている。 The electronic device (10) of the present invention includes an input unit (620) for inputting information related to the use of the user's device, a communication unit (20) for performing near field communication or human body communication with an external device, and the communication unit being the external device. An output unit that outputs to the external device at least one of information output from the external device and information output from the external device based on information on use of the user's device when communicating with the device (640).
また、本発明の電子機器では、前記出力部は、前記入力部が入力した前記ユーザの使用言語に基づき、前記外部機器が出力する情報及び前記外部機器が出力する情報の出力態様の少なくとも一方を前記外部機器に出力してもよい。また、本発明の電子機器は、前記機器を使用している前記ユーザを撮像する撮像部(40)と、前記撮像部の撮像結果に基づいて前記ユーザの属性を検出する属性検出部(613)と、を備え、前記出力部は、前記ユーザの属性に応じた情報の出力及び前記ユーザの属性に応じた態様での情報出力の少なくとも一方を前記外部機器に出力してもよい。 In the electronic device of the present invention, the output unit outputs at least one of information output from the external device and information output from the external device based on the language used by the user input by the input unit. You may output to the said external apparatus. The electronic device according to the present invention includes an imaging unit (40) that images the user who is using the device, and an attribute detection unit (613) that detects the attribute of the user based on an imaging result of the imaging unit. The output unit may output at least one of information output according to the user attribute and information output in a mode according to the user attribute to the external device.
また、本発明の電子機器は、表示を行う表示部(12)を備え、前記ユーザの機器の使用に関する情報は、前記ユーザの前記表示部の使用状態に関する情報を含み、前記出力部は、前記入力部が入力した前記ユーザの前記表示部の使用状態に関する情報を前記外部機器に出力してもよい。また、本発明の電子機器は、音声を出力する音声出力部(19)を備え、前記ユーザの機器の使用に関する情報は、前記ユーザの前記音声出力部の使用状態に関する情報を含み、前記出力部は、前記入力部が入力した前記ユーザの前記音声出力部の使用状態に関する情報を前記外部機器に出力してもよい。 Moreover, the electronic device of the present invention includes a display unit (12) for performing display, the information regarding the use of the user's device includes information regarding the use state of the display unit of the user, and the output unit includes the Information regarding a usage state of the display unit of the user input by the input unit may be output to the external device. In addition, the electronic device of the present invention includes a sound output unit (19) that outputs sound, and the information related to use of the user device includes information related to a use state of the sound output unit of the user, and the output unit May output information related to a usage state of the voice output unit of the user input by the input unit to the external device.
さらに、本発明の電子機器は、電子的な支払いを行う支払部を備え、前記ユーザの機器の使用に関する情報は、前記支払部で使用された前記ユーザの使用通貨に関する情報を含み、前記出力部は、前記入力部が入力した前記ユーザの使用通貨に関する情報を前記外部機器に出力してもよい。また、本発明の電子機器では、前記出力部は、前記ユーザの使用言語に基づき、習慣に関する情報を出力してもよい。また、本発明の電子機器は、前記ユーザの機器の使用に関する情報を記憶する記憶部(50)を備えていてもよい。 Furthermore, the electronic device of the present invention includes a payment unit that performs electronic payment, and the information related to the use of the user's device includes information related to the user's currency used in the payment unit, and the output unit May output information related to the user's currency used by the input unit to the external device. Moreover, in the electronic device of the present invention, the output unit may output information on habits based on the language used by the user. Moreover, the electronic device of this invention may be provided with the memory | storage part (50) which memorize | stores the information regarding use of the said user's apparatus.
なお、本発明をわかりやすく説明するために、上記においては一実施形態を表す図面の符号に対応つけて説明したが、本発明は、これに限定されるものではなく、後述の実施形態の構成を適宜改良しても良く、また、少なくとも一部を他の構成物に代替させても良い。更に、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らず、その機能を達成できる位置に配置することができる。 In addition, in order to explain the present invention in an easy-to-understand manner, the above description has been made in association with the reference numerals of the drawings representing one embodiment. However, the present invention is not limited to this, and the configuration of an embodiment described later May be modified as appropriate, or at least a part thereof may be replaced with another component. Further, the configuration requirements that are not particularly limited with respect to the arrangement are not limited to the arrangement disclosed in the embodiment, and can be arranged at positions where the functions can be achieved.
本発明の電子機器は、機器の使い勝手を向上させることができるという効果を奏する。 The electronic device of the present invention has an effect that the usability of the device can be improved.
以下、一実施形態に係る情報処理システムについて、図1〜図6に基づいて詳細に説明する。本実施形態の情報処理システムは、携帯機器が取得した、ユーザの機器の使用に関する情報に基づき、パーソナルコンピュータ(以下、パソコンと略す)やデジタルカメラなどの情報家電の操作性を向上させるシステムである。 Hereinafter, an information processing system according to an embodiment will be described in detail with reference to FIGS. The information processing system according to the present embodiment is a system that improves the operability of information home appliances such as a personal computer (hereinafter abbreviated as a personal computer) and a digital camera based on information about the use of a user's device acquired by a mobile device. .
図1には、本実施形態に係る情報処理システム1の構成が示されている。また、図2には、情報処理システム1の使用例が模式的に示されている。情報処理システム1は、図1,図2に示すように、携帯機器10と、外部機器100と、外部機器200と、を備える。
FIG. 1 shows a configuration of an
外部機器100、200は、パソコン、デジタルカメラ等の情報家電である。本実施形態では、一例として、外部機器100、200は、図2に示すようなパソコンであるものとする。なお、本実施形態では、外部機器100が、従来からユーザが会社で継続使用しているデスクトップ型パソコンであり、外部機器200が、ユーザが会社においてこれから使用を開始するノート型パソコンであるとする。以後、外部機器100をデスクトップパソコン100、外部機器200をノートパソコン200と呼ぶものとする。
The
(デスクトップパソコン100)
デスクトップパソコン100は、図1,図2に示すように、表示部(ディスプレイ)110、キーボード120、マウス130等のユーザの入力操作部材を備える。また、デスクトップパソコン100は、図1に示すように、他の機器と通信するための通信部140、記憶部150、撮像部160および制御部180を備える。
(Desktop PC 100)
The desktop
表示部110は、例えば、液晶表示素子を用いた表示デバイスである。キーボード120としては、ケーブル接続可能なUSBキーボードや、ケーブル接続のないワイヤレスキーボードを用いることができる。なお、図2に示すように、キーボード120のうち、ユーザの腕が接触する位置には、携帯機器10の通信部20と人体通信を行うための電極部170が設けられている。
The
マウス130としては、ケーブル接続可能なUSBマウスや、ケーブル接続の無いワイヤレスマウスを用いることができる。なお、マウス130のうち、ユーザの手が触れる部分には、携帯機器10の通信部20と人体通信を行うための電極部172が設けられている。
As the
通信部140は、他の機器(本実施形態では携帯機器10の通信部20)と通信を行う。通信部140は、キーボード120やマウス130に設けられた電極部170,172を用いて人体通信を行う人体通信部141と、無線通信により通信を行う無線通信部142とを有する。人体通信部141は、携帯機器10を胸ポケット等で保持するユーザがデスクトップパソコン100を使用しているとき(図2の左上図参照)、すなわち、携帯機器10とデスクトップパソコン100との人体通信が成立しているときに、記憶部150に記憶されたデスクトップパソコン100の仕様に関する情報およびユーザのデスクトップパソコン100の使用に関する情報(これらの情報の詳細については後述する)を携帯機器10に送信する。また、人体通信部141は、携帯機器10とデスクトップパソコン100との人体通信が成立しているときに、ユーザによる他の機器(ノートパソコン200や携帯機器10)の使用や設定に関する情報等を携帯機器10から受信する。なお、無線通信部142は、携帯機器10とデスクトップパソコン100との人体通信が成立していない場合の、携帯機器10とデスクトップパソコン100との間の通信に用いられる。
The
記憶部150は、例えば、不揮発性のフラッシュメモリであり、制御部180によって実行されるデスクトップパソコン100を制御するためのプログラム、デスクトップパソコン100を制御するための各種パラメータを記憶する。さらに、記憶部150は、ユーザのデスクトップパソコン100の使用や設定に関する情報を記憶する。具体的には、記憶部150は、ユーザがデスクトップパソコン100を使用するときのユーザの操作の特徴(癖)を記憶する。本実施形態では、記憶部150は、ユーザの操作の特徴(癖)として、例えば、キーボード120の文字変換の特徴(癖)、誤変換履歴、文字(単語)登録の履歴、セキュリティレベルの設定、キーボード120やマウス130の感度設定、フォントの大きさ、表示のズーム倍率、表示部110の輝度やカーソルの点滅速度等を記憶する。また、マウス130は、主ボタンと副ボタンとを備えており、右利き・左利きに対応できるようになっている。本実施形態において、記憶部150は、主ボタン(もしくは副ボタン)の設定が右利きか左利きかを記憶している。
The
撮像部160は、ユーザがデスクトップパソコン100を操作しているときのユーザを撮像するものであり、撮像レンズや撮像素子(CCD(Charge Coupled
Device)およびCMOS(Complementary Metal Oxide Semiconductor)デバイス)などから構成される。撮像部160が撮像した画像に基づき、ユーザの操作の特徴(癖)が記憶部150に記憶される。なお、撮像部160は、図2の左上図に示すようにデスクトップパソコン100(表示部110)に内蔵されていてもよいし、デスクトップパソコン100やその近傍に後から設置されてもよい。
The
Device) and CMOS (Complementary Metal Oxide Semiconductor) devices). Based on the image captured by the
制御部180は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only
Memory)等を備え、デスクトップパソコン100全体を統括的に制御する。本実施形態においては、制御部180は、ユーザがデスクトップパソコン100を操作しているときのユーザの操作の特徴(癖)を記憶部150に記憶する処理を行う。また、制御部180は、記憶部150に記憶されたデスクトップパソコン100の仕様および使用に関する情報を、携帯機器10に送信する制御を行う。さらに、制御部180は、携帯機器10からユーザの機器の使用に関する情報を受信した場合、受信した情報を記憶部150に記憶する処理を行う。
The
Memory) and the like, and comprehensively control the desktop
(ノートパソコン200)
ノートパソコン200は、デスクトップパソコン100と同様、表示部210、キーボード220、マウス230等のユーザの入力操作部材を備える。また、ノートパソコン200は、図1に示すように、他の機器と通信するための通信部240、記憶部250、撮像部260および制御部280を備える。また、図2の右下図に示すように、キーボード220近傍及びマウス230には、電極270,272が設けられている。なお、ノートパソコン200の各構成の詳細は、デスクトップパソコン100の各構成と同様であるので、その説明を省略するものとする。
(Notebook PC 200)
As with the desktop
(携帯機器10)
携帯機器10は、ユーザにより携帯された状態で利用される情報機器である。携帯機器10としては、携帯電話、スマートフォン、タブレット型パソコン、PHS(Personal
Handy-phone System)、PDA(Personal Digital Assistant)等を採用することができる。本実施形態では、携帯機器10は、スマートフォンであるものとする。携帯機器10は、例えば、長方形の主面(ディスプレイ12が設けられる面)を有する薄板形状を有し、片手の手のひらで把持することができる程度の大きさであるものとする。携帯機器10は、電話機能やインターネット等に接続するための通信機能、および、プログラムを実行するためのデータ処理機能等を有する。
(Portable device 10)
The
Handy-phone System), PDA (Personal Digital Assistant), etc. can be employed. In the present embodiment, the
携帯機器10は、図1に示すように、ディスプレイ12、タッチパネル14、カレンダー部16、マイク18、スピーカ19、通信部20、センサ部30、撮像部40、フラッシュメモリ50、及び制御部60等を備える。
As shown in FIG. 1, the
ディスプレイ12は、携帯機器10の主面に設けられ、画像、各種情報およびボタン等の操作入力用画像を表示する。本実施形態においては、ディスプレイ12は、右手用の操作メニューと(例えば、右親指が届く範囲にアイコンを表示する)、左手用の操作メニューと(例えば、左親指が届く範囲にアイコンを表示する)を表示可能である。なお、ディスプレイ12としては、例えば、液晶表示素子を用いたデバイスを採用できる。
The
タッチパネル14は、ユーザが触れたことに応じて情報入力を受け付ける。タッチパネル14は、ディスプレイ12上またはディスプレイ12内に組み込まれて設けられる。したがって、タッチパネル14は、ユーザがディスプレイ12の表面をタッチすることに応じて、種々の情報入力を受け付ける。
The
カレンダー部16は、年、月、日、時刻といった時間情報を取得して制御部60に出力する。さらに、カレンダー部16は、計時機能を有する。
The
マイク18は、例えば、携帯機器10の主面のディスプレイ12下方に設けられ、ユーザが携帯機器10の電話機能を使用する際に、ユーザの口元に位置するようになっている。スピーカ19は、例えば、携帯機器10の主面のディスプレイ12上方に設けられ、ユーザが携帯機器10の電話機能を使用する際に、ユーザの耳元に位置するようになっている。
The microphone 18 is provided below the
通信部20は、人体通信部21と、無線通信部22と、を有する。人体通信部21は、人体と接触または近接する電極部70を介して、デスクトップパソコン100と,ノートパソコン200との間で人体通信を行う。人体通信部21は、バンドパスフィルタを有した電気回路から構成される送受信部を有し、入力した受信信号を復調して受信データを生成したり、送信するデータを変調して送信信号を生成したりする。人体通信には、人体に微弱な電流を流して、その電流を変調して情報を伝達する電流方式や、人体の表面に誘起する電界を変調して情報を伝達する電界方式などがあり、電流方式及び電界方式のいずれの方式を用いてもよい。なお、電界方式の人体通信を採用すれば、電極部70が人体に直接触れていなくても、服のポケット(例えば、ワイシャツのポケット)などに携帯機器10があれば、通信が可能である。
The
無線通信部22は、外部機器(デスクトップパソコン100、ノートパソコン200)との間で、無線通信を行う際に使用される。なお、携帯機器10と外部機器(デスクトップパソコン100、ノートパソコン200)とを人体通信(又は近距離通信(例えば、FeliCa(登録商標))によりペアリングした後に、無線通信にて携帯機器10と外部機器(デスクトップパソコン100、ノートパソコン200)との間の通信を継続するようにしてもよい。
The
本実施形態においては、人体通信部21は、デスクトップパソコン100との人体通信が成立している間に、デスクトップパソコン100の仕様に関する情報およびユーザによるデスクトップパソコン100の使用に関する情報をデスクトップパソコン100から受信する。また、人体通信部21は、ノートパソコン200との人体通信が成立している間に、ノートパソコン200に対して、デスクトップパソコン100や携帯機器10の使用に関する情報を送信する。
In the present embodiment, the human body communication unit 21 receives from the desktop
センサ部30は、各種センサを有する。本実施形態では、センサ部30は、GPS(Global Positioning System)モジュール31、生体センサ32、及び加速度センサ33を有する。
The
GPSモジュール31は、携帯機器10の位置(例えば、緯度及び経度)を検出するセンサであり、間接的に、ユーザの位置及びユーザが使用するデスクトップパソコン100及びノートパソコン200の位置を検出するセンサである。
The GPS module 31 is a sensor that detects the position (for example, latitude and longitude) of the
生体センサ32は、携帯機器10を保持するユーザの状態を取得するセンサであり、本実施形態では携帯機器10を使用しているユーザの生体情報を検出するために用いられる。例えば、生体センサ32は、ユーザの体温、血圧、脈拍及び発汗量等を取得する。また、生体センサ32は、例えば、ユーザが生体センサ32を保持している力(例えば、握力)を取得する。
The
生体センサ32としては、例えば、特開2001−276012号公報(米国特許第6526315号明細書)に開示されるように、発光ダイオードによりユーザに向けて光を照射し、この光に応じてユーザから反射した光を受光することにより、脈拍を検出するセンサを用いることができる。また、生体センサ32としては、特開2007−215749号公報(米国特許出願公開2007/0191718号明細書)に開示されているような腕時計型の生体センサにより検出された情報を取得可能なセンサを用いることとしてもよい。
As the
また、生体センサ32は、圧力センサを含んでもよい。圧力センサは、ユーザが携帯機器10を保持したことや、携帯機器10を保持する力を検出することができるものとする。なお、生体センサ32は、圧力センサによってユーザによる携帯機器10の保持を検出した段階から、他の生体情報の取得を開始するようにしてもよい。また、携帯機器10では、スリープ状態においてユーザが携帯機器10を保持したことを圧力センサが検出した場合に、他の機能をオンするようにしてもよい。
In addition, the
加速度センサ33は、ユーザがタッチパネル14を操作する際の力量を検出する。加速度センサ33には、例えば、圧電素子や歪ゲージ等を用いることができる。
The
撮像部40は、ユーザが携帯機器10を保持している場合(使用している場合)のユーザの状況(例えば、身なり、ジェスチャー)を撮像する。これにより、ユーザの携帯機器10の使用状態を、ユーザに特別な操作を強いることなく撮像できる。撮像部40は、撮影レンズや撮像素子(CCD及びCMOSデバイス)などを含み、例えば、携帯機器10の主面のディスプレイ12上方に設けられる。
The
フラッシュメモリ50は、例えば、不揮発性の半導体メモリであり、制御部60が実行する処理で使用されるデータ等を記憶する。また、フラッシュメモリ50は、携帯機器10の仕様に関する情報やユーザによる携帯機器10の使用や設定に関する情報、外部機器(例えば、デスクトップパソコン100)の仕様に関する情報やユーザによる外部機器の使用に関する情報を記憶する。前述したように、ディスプレイ12は、右手用の操作メニューと左手用の操作メニューとを表示可能であり、フラッシュメモリ50は、右手用の操作メニューおよび左手用の操作メニューのうちいずれが設定されているかを記憶する。
The
ここで、フラッシュメモリ50に記憶されている携帯機器情報テーブル及び外部機器情報テーブルについて、説明する。図3(A)には、携帯機器10の仕様および使用に関する情報を格納する携帯機器情報テーブルの一例が示されている。また、図3(B)には、外部機器の仕様および使用に関する情報を格納する外部機器情報テーブルの一例が示されている。
Here, the portable device information table and the external device information table stored in the
携帯機器情報テーブルは、図3(A)に示すように、「ID」、「カテゴリ」、「使用頻度」、「使用状況」、「構成装置」、「構成装置仕様」、「構成装置使用状態」、および「センサ出力」の項目を有する。 As shown in FIG. 3A, the portable device information table includes “ID”, “category”, “usage frequency”, “usage status”, “component device”, “component device specification”, “component device use state”. And “sensor output”.
「ID」の項目には、携帯機器を一意に識別するための識別子が格納される。また、「カテゴリ」の項目には、IDで識別される機器のカテゴリが格納される。なお、「カテゴリ」の項目としてより具体的な情報(例えば“スマートフォン”など)を格納してもよい。なお、携帯機器情報テーブルには、携帯機器自体の情報が登録されることから、「ID」及び「カテゴリ」の項目を設けないこととしてもよい。 In the item “ID”, an identifier for uniquely identifying the mobile device is stored. In the “category” item, the category of the device identified by the ID is stored. Note that more specific information (eg, “smart phone”) may be stored as the “category” item. Note that since the information on the mobile device itself is registered in the mobile device information table, the items “ID” and “category” may not be provided.
「使用頻度」の項目には、IDで識別される機器の使用頻度が格納される。例えば、ユーザが携帯機器10を毎日使用する場合には、“毎日”と格納される。「使用状況」の項目には、IDで識別される機器の使用時間が格納される。例えば、携帯機器10をユーザが1日あたり3時間使用する場合には、“3時間/日”と格納される。なお、図3(A)に示す携帯機器情報テーブルに「使用エリア」や「使用時間帯」の項目を設け、GPSモジュール31やカレンダー部16の出力に基づき、ユーザが携帯機器10をどこでどの時間帯に用いるかを格納するようにしてもよい。これにより、場所や時間帯に応じた携帯機器10の使用に関する情報を格納(蓄積)することができる。また、ユーザによる操作が右手で行われるか左手で行われるかを格納してもよい。
The item “usage frequency” stores the usage frequency of the device identified by the ID. For example, when the user uses the
「構成装置」の項目には、IDで識別される機器を構成する装置を格納する。携帯機器10が、ディスプレイ、入力装置、および音声装置を備える場合、「構成装置」の項目には、“ディスプレイ”、“入力装置”、および“音声装置”が格納される。「構成装置仕様」の項目には、各構成装置の仕様が格納される。また、「構成装置使用状態」の項目には、各構成装置の使用状態が格納される。「センサ出力」の項目には、各構成装置の使用時に各センサで取得した情報が格納される。これにより、本実施形態では、各機器の仕様に関する情報と、ユーザの各機器の使用に関する情報(操作の特徴(癖))とが、携帯機器情報テーブルにおいて関連付けて記憶されるようになっている。なお、各機器の仕様に関する情報と、使用に関する情報を関連付けるのは、同一のユーザであっても機器の仕様に応じて機器の使い方が異なったり、使用状態に応じてセンサ出力が異なるためである。
In the item “component device”, a device constituting the device identified by the ID is stored. When the
例えば、図3(A)に示すように、携帯機器10のディスプレイが3.5インチのディスプレイである場合、「構成装置仕様」の項目には“3.5インチ”が格納される。そして、「構成装置使用状態」の項目には、“3.5インチ”のディスプレイを使用する場合のフォントサイズ(例えば、「大」)が格納される。また、「センサ出力」の項目には、例えば、ユーザがディスプレイを使用しているときに撮像部40が撮像した画像に基づいて、表情検出部612が検出したユーザの表情等が格納される。例えば、ユーザが携帯機器10の使用時に目を細めていた場合、「センサ出力」の項目に“目を細める”が格納される。なお、図3(A)には、上述したディスプレイの仕様及び使用に関する情報のほか、タッチパネルの使用に関する情報(操作方法、操作速度、力量など)や、マイクの使用に関する情報(使用言語など)、スピーカの使用に関する情報(音量など)が格納される。
For example, as shown in FIG. 3A, when the display of the
外部機器情報テーブルは、図3(B)に示すように、図3(A)の携帯機器情報テーブルとほぼ同一の項目を有している。なお、図3(B)の外部機器情報テーブルには、図3(A)のテーブルに無い「使用エリア」の項目が設けられている。また、図3(B)の例では、外部機器としてデスクトップパソコンが登録されている。なお、図3(B)の外部機器情報テーブルに、外部機器の使用時間帯に関する情報やユーザによる操作が右手で行われるのか左手で行われるのかについての情報を格納してもよい。図3(A)の携帯機器情報テーブル及び図3(B)の外部機器情報テーブルに、ユーザが携帯機器10又は外部機器を操作するときの手の情報を格納することにより、ユーザの利き手がわかるとともに、マウス130の主ボタンは右手で操作し、携帯機器10の操作は左手で行なうなどユーザの特徴(癖)を認識することもできる。
As shown in FIG. 3B, the external device information table has almost the same items as the portable device information table of FIG. In the external device information table in FIG. 3B, an item “use area” that is not in the table in FIG. 3A is provided. In the example of FIG. 3B, a desktop personal computer is registered as an external device. Note that the external device information table in FIG. 3B may store information on the usage time zone of the external device and information on whether the user's operation is performed with the right hand or the left hand. By storing hand information when the user operates the
図3(B)の例では、表示装置が17インチのディスプレイであり、ユーザが表示装置を使用する場合のフォントサイズが“中”(標準)であるという情報が格納されている。また、図3(B)の例では、ユーザがフォントを小さくした場合に目を細めていたという情報が格納されている。このように、図3(B)の例では、ユーザは、17インチのディスプレイでは、フォントサイズを“中”にしても文字を容易に視認できるが、3.5インチのディスプレイでは、フォントサイズを“大”にしても文字を視認し難いということがわかる。なお、図3(B)のテーブルには、デスクトップパソコン100におけるキーボードの使用に関する情報(操作速度、使用言語など)や、マイクの使用に関する情報、スピーカの使用に関する情報(音量など)が格納される。また、図3(B)のテーブルには、使用エリアの情報(会社など)が格納される。 In the example of FIG. 3B, information is stored that the display device is a 17-inch display and the font size when the user uses the display device is “medium” (standard). Further, in the example of FIG. 3B, information that the user narrowed his eyes when the user reduced the font is stored. In this way, in the example of FIG. 3B, the user can easily see the characters on the 17-inch display even if the font size is “medium”, but the 3.5-inch display can change the font size. It can be seen that even if “Large”, characters are difficult to see. Note that the table in FIG. 3B stores information related to keyboard use in the desktop personal computer 100 (operation speed, language used, etc.), information related to microphone use, and information related to speaker use (volume etc.). . In addition, in the table of FIG. 3B, information on the use area (such as a company) is stored.
図1に戻り、制御部60は、携帯機器10全体を統括的に制御するとともに、各種処理を実行する。図4には、制御部60のハードウェア構成の一例が示されている。制御部60は、入出力部601、ROM602、CPU603、及びRAM604を備える。入出力部601は、ディスプレイ12、タッチパネル14、カレンダー部16、マイク18、スピーカ19、通信部20、センサ部30、撮像部40およびフラッシュメモリ50との間でデータの送受信を行う。ROM602は、撮像部40で撮像された画像に対して顔認識処理を行うためのプログラム等を格納する。CPU603は、ROM602に格納されたプログラムを読み込んで実行する。RAM604は、プログラムを実行する際に使用される一時的なデータを保存する。
Returning to FIG. 1, the
次に、上述したハードウェア資源とソフトウェアとの協働により実現される、携帯機器10の制御部60が備える機能の一例について説明する。図5は、制御部60が備える機能の一例を示す機能ブロック図である。制御部60は、画像分析部610、入力部620、規制部630および出力部640を有する。
Next, an example of functions provided in the
画像分析部610は、撮像部40が撮像した画像の分析を行うものであり、顔認識部611、表情検出部612及び属性検出部613を備える。
The
顔認識部611は、撮像部40から、撮像部40が撮像した画像を受け付ける。顔認識部611は、撮像部40が撮像した画像に、顔が含まれているか否かを判定する。画像の中に顔が含まれている場合、顔認識部611は、顔の部分の画像データと、フラッシュメモリ50に記憶されているユーザの顔画像データとを比較(例えば、パターンマッチング)して、撮像部40が撮像した人を認識する。また、顔認識部611は、顔の部分の画像データを表情検出部612及び属性検出部613に出力する。
The
表情検出部612は、顔認識部611から顔の部分の画像データを受け付ける。表情検出部612は、顔の画像データと、フラッシュメモリ50に記憶されている顔表情データとを比較して、ユーザの表情を検出する。例えば、表情検出部612は、目を細めている顔、笑顔、泣き顔、怒り顔、驚き顔、眉間に皺を寄せている顔、緊張している顔、およびリラックスしている顔等の表情を検出する。表情検出部612は、検出した顔の表情を、ユーザの携帯機器10の使用に関する情報としてフラッシュメモリ50に記憶させる。笑顔検出の方法としては、例えば、米国特許出願公開2008/037841号明細書に開示されている方法を使用することができる。また、眉間の皺の検出方法としては、例えば、米国特許出願公開2008/292148号明細書に開示されている方法を使用することができる。
The
属性検出部613は、顔認識部611から顔の画像データを受け付ける。属性検出部613は、撮像部40が撮像した画像に顔が含まれている場合に、顔の画像データから、ユーザの性別や年齢層を推定する。属性検出部613は、推定したユーザの性別や年齢層を、フラッシュメモリ50に記憶させる。なお、画像を用いた性別判定や年齢判定には、例えば、特許第4273359号公報(米国特許出願公開2010/0217743号明細書)に開示された方法を使用することができる。
The attribute detection unit 613 receives face image data from the
入力部620は、通信部20および規制部630を介して、外部機器から、該外部機器の仕様及びユーザの該外部機器の使用や設定に関する情報を入力し、フラッシュメモリ50に格納する。本実施形態では、入力部620は、デスクトップパソコン100から、デスクトップパソコン100の仕様に関する情報、およびユーザのデスクトップパソコン100の使用に関する情報を入力し、フラッシュメモリ50に格納する。
The
また、入力部620は、携帯機器10の使用や設定に関する情報をフラッシュメモリ50(携帯機器情報テーブル(図3(A)))に格納する。例えば、入力部620は、ディスプレイ12の設定情報、マイク18が集音した音声と音声辞書から判別可能なユーザの使用言語、スピーカ19の音量設定、ユーザによるタッチパネル14を操作するときの特徴(センサ部の検出結果に基づく特徴)や使用言語、漢字変換の履歴、カレンダー部16の出力から判定可能なユーザによる携帯機器10の使用頻度や使用状況を携帯機器情報テーブルに格納する。
In addition, the
規制部630は、通信部20を介して、デスクトップパソコン100から取得した各種データ(インターネットの閲覧履歴、デスクトップパソコン100の仕様及び使用や設定に関する情報、ユーザがデスクトップパソコン100を用いて作成した文章や資料、画像、音声等)を取得し、そのうちの一部のデータのみを入力部620に入力する。この場合、規制部630は、例えば、デスクトップパソコン100で作成した文章や資料、画像、音声等の入力部620への入力を規制し、その他のデータは入力部620に対して入力するようにする。もしくは、上述の文章や資料、画像、音声等を入力した場合でもユーザの特徴(癖)を検出した後に規制部630により入力した文章や資料、画像、音声等を削除するようにすればよい。なお、規制部630の機能を外部機器(例えば、デスクトップパソコン100)に持たせるようにしてもよい。
The
出力部640は、フラッシュメモリ50内に記憶されている情報を、通信部20を介して外部機器(ノートパソコン200)に出力する。
The
(制御部60の処理)
次に、制御部60が実行する処理について、図6のフローチャートを用いて説明する。図6は、制御部60が実行する処理の一例を示すフローチャートである。なお、本処理は繰り返し実行されてもよいし、週に1回、月に1回というように所定時間が経過するたびに本処理を開始してもよい。なお、この場合の所定時間は、フラッシュメモリ50に記憶させておけばよい。また、ユーザが意識的に携帯機器10の電極部70に触れたときや、外部機器(デスクトップパソコン100またはノートパソコン200)と近距離通信を成立させたときに図6のフローチャートを実行するようにしてもよい。
(Processing of the control unit 60)
Next, processing executed by the
図6の処理では、ステップS10において、入力部620が、人体通信が成立しているか否かを判断する。ここでの判断が否定されている間は、入力部620は、ステップS10の判断を繰り返すが、肯定された場合には、ステップS14に移行する。なお、本実施形態では、ユーザが服の胸ポケットにおいて携帯機器10を保持した状態で、手がデスクトップパソコン100のマウス130又はキーボード120に触れた場合や、ユーザが服の胸ポケットにおいて携帯機器10を保持した状態で、手がノートパソコン200のマウス230又はキーボード220に触れた場合に、ステップS10の判断が肯定されて、ステップS14に移行する。
In the process of FIG. 6, in step S10, the
ステップS14に移行すると、入力部620は、人体通信が成立した外部機器の使用頻度が高いか否か判断する。使用頻度が高いか否かは、携帯機器10のフラッシュメモリ50(外部機器情報テーブル(図3(A)))に登録されている外部機器に関する情報から使用頻度を取得し、その値が閾値(例えば、3日/週など)以上か否かに基づいて判断することができる。なお、使用頻度の情報がフラッシュメモリ50に記録されていない場合は、ユーザが初めてその外部機器を使用すると考えられるため、ステップS14が否定されるものとする。
If transfering it to step S14, the
ユーザがこれまで使用し続けているデスクトップパソコン100を現在使用している場合(図2の左上図の場合)には、当該デスクトップパソコン100の使用頻度が高いので、ステップS14の判断は肯定されて、入力部620は、ステップS16に移行する。ステップS16に移行すると、入力部620は、外部機器(デスクトップパソコン100)の記憶部150に記録されている各種データを、通信部140および通信部20を介して取得する。なお、ステップS16では、入力部620は、規制部630を介して、デスクトップパソコン100の記憶部150に記憶されている各種データを取得する。したがって、ステップS16では、規制部630の機能により、入力部620は、ユーザがデスクトップパソコン100で作成した文章等のデータを取得せず、デスクトップパソコン100の仕様に関する情報およびユーザによるデスクトップパソコン100の使用や設定に関する情報を取得することができる。
If the user is currently using the desktop
次いで、ステップS18では、入力部620は、取得した情報をフラッシュメモリ50(外部機器情報テーブル(図3(B))に記憶(更新)する。その後は、図6の全処理を終了する。
Next, in step S18, the
なお、データの送受信は、人体通信部21および人体通信部141を用いて行っても、無線通信部22および無線通信部142を用いて行ってもよく、その両方を用いてもよい。例えば、ユーザがキーボード120やマウス130を使用している場合には、人体通信を用い、ユーザが考え事をしていてキーボード120やマウス130を使用していない場合には、無線通信を用いてもよい。さらに、キーボード120の入力が途切れ途切れの場合は、無線通信を用いればよく、キーボード120の入力が途切れ途切れの場合でも、キーボード120の不図示のアームレストにユーザの手や腕が触れている場合には人体通信を用いてもよい。
Data transmission / reception may be performed using the human body communication unit 21 and the human body communication unit 141, or may be performed using the
一方、ユーザが新たに使用を開始するノートパソコン200を使用している場合には、ステップS14の判断が否定され、ステップS22に移行する。ステップS22に移行すると、出力部640が、GPSモジュール31の出力からユーザの位置情報を取得する。これは、ユーザが、例えば自宅にいるのか、ビジネスエリアにいるのかを確認するためである。このような確認を行うのは、例えば、ノートパソコンの場合、自宅で使用する場合と業務で使う場合とでは使用状態が異なることがあるからである(例えば、ノートパソコンを自宅で使用する場合であればスピーカの音量を「大」にするが、業務で使用する場合には「消音」にするなど)。
On the other hand, when the user is using the notebook
次いで、ステップS24では、出力部640は、人体通信が成立している外部機器(ノートパソコン200)に送信可能なデータが存在するか否か判断する。この場合、出力部640は、例えば、外部機器情報テーブル(図3(B))に、人体通信を行っている外部機器と類似するカテゴリの機器で、ほぼ同じエリアで使用されている外部機器のデータが存在するかを判断する。ここで、図3(B)に示すように、外部機器情報テーブルには、ノートパソコン200とカテゴリが類似するデスクトップパソコン100のデータが格納されており、ノートパソコン200をユーザが使用しているエリアが、デスクトップパソコン100の使用エリア(会社)と一致しているとする。このような場合には、出力部640は、ノートパソコン200に送信可能なデータが存在すると判断する。
Next, in step S24, the
ステップS24の判断が否定された場合、すなわち、人体通信が成立している外部機器(ノートパソコン200)に送信可能なデータが存在しない場合には、図6の全処理を終了する。一方、ステップS24の判断が肯定された場合、すなわち、人体通信が成立している外部機器(ノートパソコン200)に送信可能なデータが存在する場合には、出力部640は、ステップS26において、フラッシュメモリ50から、携帯機器10やデスクトップパソコン100の使用に関する情報を取得し、ステップS28において、人体通信が成立している外部機器(ノートパソコン200)に、取得した情報を送信する。
If the determination in step S24 is negative, that is, if there is no data that can be transmitted to the external device (notebook computer 200) with which human body communication is established, the entire processing of FIG. On the other hand, if the determination in step S24 is affirmative, that is, if there is data that can be transmitted to an external device (notebook personal computer 200) with which human body communication is established, the
この場合、出力部640は、例えば、デスクトップパソコン100の表示装置の設定、文字変換の特徴、キーボードの感度設定などの情報を、ノートパソコン200に出力する。なお、出力された情報は、ノートパソコン200の記憶部250に記憶され、ノートパソコン200の操作時に参照されることになる。これにより、ユーザはパソコンの入れ替えによる各種設定操作をほとんど行わなくても良くなる。また、ユーザがノートパソコン200を初めて操作する場合でも、ユーザの操作の特徴(癖)をノートパソコン200に記憶させることができるので、ユーザはストレスを感じずにノートパソコン200の操作を行うことができるようになる。
In this case, the
なお、ユーザがノートパソコン200を自宅で利用する場合には、出力部640は、インターネット等の検索履歴や、スピーカの設定については携帯機器10の使用に関する情報をノートパソコンに出力し、パソコン特有の設定については、デスクトップパソコン100の使用に関する情報を出力するようにしてもよい。このように、機器のカテゴリや設置場所に応じて、複数の機器の使用状態を、選択的に、新たに使用する機器に送信することで、ユーザによる機器の使い勝手を向上することができる。
When the user uses the
以上詳細に説明したように、本実施形態によると、携帯機器10は、デスクトップパソコン100と通信可能な通信部20と、ユーザによるデスクトップパソコン100の操作に応じて、デスクトップパソコン100の仕様に関する情報およびユーザによるデスクトップパソコン100の使用に関する情報の少なくとも一方を通信部20を介して入力する入力部620と、を備える。これにより、携帯機器10は、デスクトップパソコン100の仕様およびデスクトップパソコン100の使用状態を取得することができる。このようにして取得できたデスクトップパソコン100の情報を、他の機器(ノートパソコン200など)で利用することとすれば、他の機器の操作等をストレス無く行うことができるようになる。
As described above in detail, according to the present embodiment, the
また、本実施形態の携帯機器10では、通信部20は、ユーザを介してデスクトップパソコン100と通信する人体通信部21を有しているので、ユーザに特別な操作を強いることなく、ユーザがデスクトップパソコン100を操作したタイミング(人体通信が成立したタイミング)で、デスクトップパソコン100の仕様および使用に関する情報を携帯機器10が取得することができる。
Further, in the
また、本実施形態の携帯機器10は、位置情報を検出するGPSモジュール31を備え、出力部640は、GPSモジュール31が検出した位置情報に応じて、ノートパソコン200に対して情報を出力するので、ノートパソコン200の使用場所に適した情報がノートパソコン200に反映されるため、ノートパソコン200の使い勝手を向上することができる。また、本実施形態によれば、GPSモジュール31は、ユーザによるノートパソコン200の操作に応じて、位置情報を検出するので、ユーザに特別な操作を強いることなく、ユーザがノートパソコン200を操作すれば、ノートパソコン200を操作している場所に適した情報がノートパソコン200に反映されるため、ノートパソコン200の使い勝手が向上する。
In addition, the
また、本実施形態の携帯機器10では、出力部640は、ユーザによる携帯機器10やデスクトップパソコン100の使用に関する情報を出力するので、携帯機器10を操作する場合のユーザの操作の特徴(癖)を、ノートパソコン200に反映することができる。これにより、ユーザは、ノートパソコン200を初めて利用する場合などにおいても、ストレス無くノートパソコン200を操作することが可能となる。
Further, in the
また、本実施形態の携帯機器10は、ユーザがデスクトップパソコン100を用いて作成した情報の入力部620による入力を規制する規制部630を備えるので、例えば、会社で作成した文章等がユーザの携帯機器10に記録されるのを防止することができる。
In addition, since the
また、本実施形態の携帯機器10は、ユーザを撮像する撮像部40を備え、入力部620は、撮像部40が撮像した画像を使用して、携帯機器10の使用に関する情報を入力するので、ユーザに特別な操作を強制することなく、携帯機器10の使用に関する情報(例えば、フォントが小さい場合に目を細めるという情報)を入力することができる。
Moreover, since the
また、本実施形態では、出力部640は、ノートパソコン200のカテゴリに応じて、デスクトップパソコン100の使用に関する情報および携帯機器10の使用に関する情報の少なくとも一方をノートパソコン200へ出力するので、ノートパソコン200を使用するのに適したユーザの操作の特徴(癖)をノートパソコン200に反映させることができる。
In the present embodiment, the
また、本実施形態によれば、出力部640は、表示に関する情報および感度に関する情報の少なくとも一方を出力するので、ユーザはノートパソコン200の使用を開始する場合に、これらの情報をノートパソコン200で設定する必要がなく、ノートパソコン200の使い勝手が向上する。この場合、表示に関する情報に文字変換の情報が含まれていれば、ユーザの文字変換時の癖を、ノートパソコン200に反映させることができ、ノートパソコン200の使い勝手が向上する。
In addition, according to the present embodiment, the
なお、上記実施形態では、外部機器がデスクトップパソコン100やノートパソコン200である場合について説明したが、これに限られるものではない。例えば、外部機器は、デジタルカメラであってもよい。この場合、古いデジタルカメラの露出や絞り等の細かい設定を人体通信等により携帯機器10に記憶しておくことで、新しいデジタルカメラを利用するときには、当該新しいデジタルカメラに携帯機器10から古いデジタルカメラの設定を送信することができるようになる。これにより、ユーザはストレスを感じることなく、新しいデジタルカメラを使用することが可能となる。
In the above embodiment, the case where the external device is the desktop
また、例えば、携帯機器10のディスプレイ12の大きさ(例えば3.5インチ)がデジタルカメラの背面液晶パネルと一致または類似するような場合は、携帯機器10のディスプレイ12の設定をデジタルカメラ側に送信してもよい。また、デジタルカメラにタッチパネルによる入力機能が搭載されている場合には、携帯機器10のタッチパネル14の設定をデジタルカメラ側に送信してもよい。このように、カテゴリの異なる機器において構成要素が同等・類似である場合には、その構成要素の使用状態を送信することによりユーザの機器の使い勝手を向上することができる。なお、デジタルカメラ以外の機器、例えばゲーム機器やミュージックプレーヤなどにも同様の機能を持たせることで、使い勝手の向上を図ることが可能となる。
For example, when the size (for example, 3.5 inches) of the
なお、外部機器として、国内又は海外の空港などに設置されている案内装置を採用することとしてもよい。例えば、ユーザによる携帯機器10の使用言語が日本語であることが携帯機器情報テーブル(図3(A))に格納されている場合には、当該ユーザが案内装置の所定のタッチ部分(電極が設けられているものとする)をタッチしたときに、携帯機器10から使用言語「日本語」という情報を案内装置に対して送信するようにする。この場合、案内装置は、日本語による案内を表示するようにする。これにより、案内装置の使い勝手を向上することができる。また、案内装置は、当該案内装置の設置国と日本との違い(生活習慣や考え方の違いなど)を表示するようにしてもよい。例えば、ある国において、子供の頭をなでてはいけないという慣習があるならば、当該慣習を知らせるためのメッセージを案内装置上に表示することとすればよい。
In addition, it is good also as employ | adopting the guidance apparatus installed in the domestic or overseas airport etc. as an external apparatus. For example, when it is stored in the mobile device information table (FIG. 3A) that the language used by the user of the
また、携帯機器10からは、ユーザの属性に関する情報を案内装置に対して送信するようにしてもよい。この場合、例えば、携帯機器10のユーザが若年層であることが案内装置に対して送信された場合には、案内装置は、平易な表現を用いた情報や、平仮名を用いた表示を行うなどすればよい。このようにしても、案内装置の使い勝手を向上することができる。なお、案内装置としては、空港などに設置されるような大型の案内装置に限らず、美術館や動物園等で入場者に貸し出される携帯型の案内装置であってもよい。
Moreover, you may make it transmit the information regarding a user's attribute with respect to a guidance apparatus from the
また、例えば、携帯機器10が電子マネー機能を有している場合、携帯機器10に記憶されている通常使用している通貨に関する情報を案内装置に対して入力することとしてもよい。この場合、案内装置では、通常使用している通貨と訪問国の通貨との為替レートを出力するなどしてもよい。
In addition, for example, when the
なお、携帯機器10から案内装置に対して、上記実施形態で説明した情報(フォントやタッチパネルの使用状態、スピーカ音量など)を送信することとしてもよい。案内装置では、これらの情報に基づいた表示を行うことで、ユーザによる使い勝手を向上することができる。
In addition, it is good also as transmitting the information (The usage condition of a font, a touch panel, a speaker volume, etc.) demonstrated in the said embodiment from the
なお、上記実施形態で説明した携帯機器に関する情報を格納する携帯機器情報テーブル(図3(A))および外部機器に関する情報を格納する外部機器情報テーブル(図3(B))は、一例である。例えば、2つのテーブルを1つのテーブルに纏めてもよい。また、各テーブルの項目の一部を省略したり別の項目を追加することとしてもよい。 Note that the portable device information table (FIG. 3A) for storing information related to the mobile device described in the above embodiment and the external device information table (FIG. 3B) for storing information related to the external device are examples. . For example, two tables may be combined into one table. Also, some of the items in each table may be omitted or another item may be added.
なお、上記実施形態では、本発明の電子機器が、携帯機器10である場合について説明したが、これに限らず、電子機器の機能を、腕時計やネックレス、メガネ、補聴器など、ユーザが身に付ける物に設けることとしてもよい。
In the above embodiment, the case where the electronic device of the present invention is the
上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。 The above-described embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.
10 携帯機器
12 ディスプレイ
14 マイク
20 通信部
21 人体通信部
31 GPSモジュール
40 撮像部
50 フラッシュメモリ
100 デスクトップパソコン
200 ノートパソコン
613 属性検出部
620 入力部
630 規制部
640 出力部
DESCRIPTION OF
Claims (8)
外部機器と近接通信または人体通信を行う通信部と、
前記通信部が前記外部機器と通信した場合に、前記ユーザの機器の使用に関する情報に基づいて、前記外部機器が出力する情報及び前記外部機器が出力する情報の出力態様の少なくとも一方を、前記外部機器に出力する出力部と、
を備えたことを特徴とする電子機器。 An input unit for inputting information on the use of the user's device;
A communication unit that performs proximity communication or human body communication with an external device;
When the communication unit communicates with the external device, at least one of the information output by the external device and the output mode of the information output by the external device based on information on the use of the user device is An output unit that outputs to the device;
An electronic device characterized by comprising:
前記撮像部の撮像結果に基づいて前記ユーザの属性を検出する属性検出部と、を備え、
前記出力部は、前記ユーザの属性に応じた情報の出力及び前記ユーザの属性に応じた態様での情報出力の少なくとも一方を前記外部機器に出力することを特徴とする請求項1または2に記載の電子機器。 An imaging unit for imaging the user using the device;
An attribute detection unit that detects an attribute of the user based on an imaging result of the imaging unit,
The said output part outputs at least one of the output of the information according to the attribute of the said user, and the information output in the aspect according to the attribute of the said user to the said external device, The Claim 1 or 2 characterized by the above-mentioned. Electronic equipment.
前記ユーザの機器の使用に関する情報は、前記ユーザの前記表示部の使用状態に関する情報を含み、
前記出力部は、前記入力部が入力した前記ユーザの前記表示部の使用状態に関する情報を前記外部機器に出力することを特徴とする請求項1から3のいずれか一項記載の電子機器。 It has a display unit that displays,
The information on the use of the user's device includes information on the usage state of the display unit of the user,
4. The electronic device according to claim 1, wherein the output unit outputs information regarding a usage state of the display unit of the user input by the input unit to the external device. 5.
前記ユーザの機器の使用に関する情報は、前記ユーザの前記音声出力部の使用状態に関する情報を含み、
前記出力部は、前記入力部が入力した前記ユーザの前記音声出力部の使用状態に関する情報を前記外部機器に出力することを特徴とする請求項1から4のいずれか一項記載の電子機器。 It has an audio output unit that outputs audio,
The information on the use of the user's device includes information on the usage state of the voice output unit of the user,
5. The electronic device according to claim 1, wherein the output unit outputs, to the external device, information related to a usage state of the voice output unit of the user input by the input unit.
前記ユーザの機器の使用に関する情報は、前記支払部で使用された前記ユーザの使用通貨に関する情報を含み、
前記出力部は、前記入力部が入力した前記ユーザの使用通貨に関する情報を前記外部機器に出力することを特徴とする請求項1から5のいずれか一項記載の電子機器。 With a payment department that makes electronic payments,
Information on the use of the user's equipment includes information on the user's currency used in the payment unit,
The electronic device according to claim 1, wherein the output unit outputs information on the user's currency used by the input unit to the external device.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012135943A JP2014002464A (en) | 2012-06-15 | 2012-06-15 | Electronic device |
CN201380031196.4A CN104364736B (en) | 2012-06-15 | 2013-04-24 | Electronic equipment |
CN201810603973.2A CN109101106B (en) | 2012-06-15 | 2013-04-24 | Electronic device |
US14/408,131 US20150145763A1 (en) | 2012-06-15 | 2013-04-24 | Electronic device |
PCT/JP2013/062114 WO2013187138A1 (en) | 2012-06-15 | 2013-04-24 | Electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012135943A JP2014002464A (en) | 2012-06-15 | 2012-06-15 | Electronic device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014002464A true JP2014002464A (en) | 2014-01-09 |
Family
ID=50035609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012135943A Pending JP2014002464A (en) | 2012-06-15 | 2012-06-15 | Electronic device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014002464A (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003076624A (en) * | 2001-09-03 | 2003-03-14 | Nec Corp | System and method for automatically setting computer environment using portable information terminal |
JP2007312339A (en) * | 2006-04-19 | 2007-11-29 | Softbank Bb Corp | Portable communication terminal and communication server |
WO2009131130A1 (en) * | 2008-04-23 | 2009-10-29 | 日本電気株式会社 | Information processing system, information processing device, mobile communication device, and method for managing user information used for them |
JP2010003012A (en) * | 2008-06-18 | 2010-01-07 | Denso Corp | Guidance system |
JP2011228878A (en) * | 2010-04-19 | 2011-11-10 | Nikon Corp | Reproducer |
JP2012103951A (en) * | 2010-11-11 | 2012-05-31 | Sony Corp | Information processor, table, display control method, program, portable terminal and information processing system |
-
2012
- 2012-06-15 JP JP2012135943A patent/JP2014002464A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003076624A (en) * | 2001-09-03 | 2003-03-14 | Nec Corp | System and method for automatically setting computer environment using portable information terminal |
JP2007312339A (en) * | 2006-04-19 | 2007-11-29 | Softbank Bb Corp | Portable communication terminal and communication server |
WO2009131130A1 (en) * | 2008-04-23 | 2009-10-29 | 日本電気株式会社 | Information processing system, information processing device, mobile communication device, and method for managing user information used for them |
JP2010003012A (en) * | 2008-06-18 | 2010-01-07 | Denso Corp | Guidance system |
JP2011228878A (en) * | 2010-04-19 | 2011-11-10 | Nikon Corp | Reproducer |
JP2012103951A (en) * | 2010-11-11 | 2012-05-31 | Sony Corp | Information processor, table, display control method, program, portable terminal and information processing system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11514430B2 (en) | User interfaces for transfer accounts | |
US10841265B2 (en) | Apparatus and method for providing information | |
US10191564B2 (en) | Screen control method and device | |
US9122456B2 (en) | Enhanced detachable sensory-interface device for a wireless personal communication device and method | |
RU2636693C2 (en) | Method and device for managing terminal screen state and also electronic device | |
US10185883B2 (en) | Mobile terminal and method for controlling same | |
JP6012900B2 (en) | Input method, apparatus, program, and recording medium | |
WO2013187138A1 (en) | Electronic device | |
US20180253196A1 (en) | Method for providing application, and electronic device therefor | |
EP3149679A1 (en) | User device enabling access to payment information in response to mechanical input detection | |
KR20140147557A (en) | Mobile terminal and method for detecting a gesture to control functions | |
EP3046042A1 (en) | Apparatus for implementing home button and fingerprint identification on single sensor | |
EP3343343A1 (en) | Mobile terminal and control method for the mobile terminal | |
CN112068762A (en) | Interface display method, device, equipment and medium of application program | |
KR20160071263A (en) | Mobile terminal and method for controlling the same | |
CN110162956B (en) | Method and device for determining associated account | |
CN112990509B (en) | Reservation code display method, device, equipment and storage medium | |
KR20160067623A (en) | Wearable device and method for transmitting message at the same | |
KR102093328B1 (en) | Method and system for recommending clothing using clothing and environmental information of user pictures | |
US20160337855A1 (en) | Mobile terminal and method for controlling the same | |
KR20150134141A (en) | User authorization method using smart band | |
JP5942621B2 (en) | Electronics | |
JP6601457B2 (en) | Electronics | |
KR20170083403A (en) | Smart watch and controlling method using electromyograph singsl therof | |
JP2016181271A (en) | Electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150915 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151116 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160426 |