JP2020135306A - 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法 - Google Patents
表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法 Download PDFInfo
- Publication number
- JP2020135306A JP2020135306A JP2019026767A JP2019026767A JP2020135306A JP 2020135306 A JP2020135306 A JP 2020135306A JP 2019026767 A JP2019026767 A JP 2019026767A JP 2019026767 A JP2019026767 A JP 2019026767A JP 2020135306 A JP2020135306 A JP 2020135306A
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- user
- unit
- information processing
- processing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 48
- 238000000034 method Methods 0.000 title claims description 26
- 238000001514 detection method Methods 0.000 claims abstract description 78
- 230000001133 acceleration Effects 0.000 claims description 38
- 238000010801 machine learning Methods 0.000 claims description 17
- 230000033228 biological regulation Effects 0.000 claims description 15
- 230000033001 locomotion Effects 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 10
- 238000003384 imaging method Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 abstract description 10
- 210000001508 eye Anatomy 0.000 description 45
- 210000003811 finger Anatomy 0.000 description 38
- 238000012545 processing Methods 0.000 description 27
- 210000003128 head Anatomy 0.000 description 23
- 238000004891 communication Methods 0.000 description 20
- 230000003287 optical effect Effects 0.000 description 19
- 230000008569 process Effects 0.000 description 13
- 210000004932 little finger Anatomy 0.000 description 10
- 239000000758 substrate Substances 0.000 description 7
- 210000003813 thumb Anatomy 0.000 description 7
- 239000004065 semiconductor Substances 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000007423 decrease Effects 0.000 description 4
- 230000004907 flux Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 239000002131 composite material Substances 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/34—User authentication involving the use of external additional devices, e.g. dongles or smart cards
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1643—Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/266—Arrangements to supply power to external peripherals either directly from the computer or under computer control, e.g. supply of power through the communication port, computer controlled power-strips
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/003—Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
- G09G5/006—Details of the interface to the display terminal
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0181—Adaptation to the pilot/driver
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2221/00—Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/21—Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/2111—Location-sensitive, e.g. geographical location, GPS
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2221/00—Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/21—Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/2113—Multi-level security, e.g. mandatory access control
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2358/00—Arrangements for display data security
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/06—Consumer Electronics Control, i.e. control of another device by a display or vice versa
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Security & Cryptography (AREA)
- Software Systems (AREA)
- Optics & Photonics (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】スマートフォンの個人認証にかかる手間を削減する。【解決手段】表示システム1は、使用者の頭部に装着されるHMD100と、HMD100が接続されるスマートフォン300とを備える。スマートフォン300は、位置入力操作を受け付けて、操作位置の座標を検出するタッチセンサー332と、使用者のスマートフォン300に対する動作を検出する第1センサーS1と、使用者が位置入力操作を開始するまでの第1センサーS1の検出結果に基づき、使用者の個人認証を実行する第1実行部311と、を備える。【選択図】図5
Description
本発明は、表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法に関する。
スマートフォンのような携帯端末装置に表示される画像を、HMDのような表示装置にミラーリング表示することが知られている(例えば、特許文献1参照)。
特許文献1に記載の携帯端末装置は、タッチパネルと、プロセッサーとを備える。プロセッサーは、コンテンツに関連付けられた設定情報に基づいて、タッチパネルにコンテンツを表示させてタッチ入力を受け付ける第1のモードから、タッチパネルにコンテンツを表示させずにタッチ入力を受け付ける第2のモードに携帯端末装置の操作モードを切り換える。そして、操作モードが切り替えられた場合に、コンテンツを表示装置のディスプレイに表示させる。
特許文献1に記載の携帯端末装置は、タッチパネルと、プロセッサーとを備える。プロセッサーは、コンテンツに関連付けられた設定情報に基づいて、タッチパネルにコンテンツを表示させてタッチ入力を受け付ける第1のモードから、タッチパネルにコンテンツを表示させずにタッチ入力を受け付ける第2のモードに携帯端末装置の操作モードを切り換える。そして、操作モードが切り替えられた場合に、コンテンツを表示装置のディスプレイに表示させる。
特許文献1記載の構成では、スマートフォンの個人認証に手間がかかる場合があるという課題があった。
例えば、スマートフォンがスリープ状態になった場合には、スマートフォンに対して、認証コードを入力する等の方法によって個人認証処理を実行させる必要があった。
例えば、スマートフォンがスリープ状態になった場合には、スマートフォンに対して、認証コードを入力する等の方法によって個人認証処理を実行させる必要があった。
上記課題を解決する一態様は、使用者の頭部に装着される表示装置と、前記表示装置が接続される情報処理装置とを備える表示システムであって、前記情報処理装置は、位置入力操作を受け付けて、操作位置の座標を検出する位置入力部と、前記使用者の前記情報処理装置に対する動作を検出する第1センサーと、前記使用者が前記位置入力操作を開始するまでの前記第1センサーの検出結果に基づき、前記使用者の個人認証を実行する第1実行部と、を備える、表示システムである。
上記表示システムにおいて、前記情報処理装置は、前記第1実行部による前記使用者の個人認証が失敗した場合に、前記表示システムに対する前記使用者の入力を規制する規制部を備える構成であってもよい。
上記表示システムにおいて、前記情報処理装置は、前記使用者の個人認証が失敗した場合に、認証コードの入力を受け付ける受付部と、前記認証コードに基づき、前記使用者の個人認証を実行する第2実行部と、を備え、前記第2実行部による前記使用者の個人認証が成功した場合に、前記規制部は、前記表示システムに対する前記使用者の入力の規制を解除する構成であってもよい。
上記表示システムにおいて、前記情報処理装置は、前記第1センサーによって検出された前記使用者の前記情報処理装置に対する動作のプロファイルデータセットを記憶する記憶部を備え、前記1実行部は、前記プロファイルデータセットに基づき、前記使用者の個人認証を実行する構成であってもよい。
上記表示システムにおいて、前記情報処理装置は、前記使用者を含む複数のユーザーの各々による前記情報処理装置に対する動作のプロファイルデータセットに基づいて、前記複数のユーザーの各々の識別情報を学習する機械学習部と、前記機械学習部に前記第1センサーの検出結果に対応する識別情報を出力させる出力部と、を備え、前記第1実行部は、前記出力部の出力した識別情報に基づいて、前記使用者の個人認証を実行する構成であってもよい。
上記表示システムにおいて、前記第1センサーは、照度センサーを含み、前記第1実行部は、前記照度センサーの検出した照度が閾値照度以上に到達してから、前記使用者が前記位置入力操作を開始するまでの前記第1センサーの検出結果に基づき、前記使用者の個人認証を実行する構成であってもよい。
上記表示システムにおいて、前記第1センサーは、加速度センサー、ジャイロセンサー、及び地磁気センサーの少なくとも1つを含み、前記第1センサーは、前記使用者が前記位置入力操作を開始するまでの前記情報処理装置の動きを検出する構成であってもよい。
上記表示システムにおいて、前記表示装置は、前記使用者の前記情報処理装置に対する動作を検出する第2センサーを備え、前記第1実行部は、前記第1センサーの検出結果、及び前記第2センサーの検出結果に基づき、前記使用者の個人認証を実行する構成であってもよい。
上記表示システムにおいて、前記第2センサーは、加速度センサー、ジャイロセンサー、及び地磁気センサーの少なくとも1つを含み、前記第2センサーは、前記使用者の頭部の動作を検出する構成であってもよい。
上記表示システムにおいて、前記第2センサーは、外景を撮像する撮像センサーを含み、前記第1実行部は、前記撮像センサーの生成する画像に基づき、前記情報処理装置を把持する前記使用者の指の位置を検出する構成であってもよい。
上記課題を解決する別の一態様は、位置入力操作を受け付けて、操作位置の座標を検出する位置入力部と、使用者の前記情報処理装置に対する動作を検出するセンサーと、コンピューターとを備え、前記使用者の頭部に装着される表示装置が接続される情報処理装置の制御プログラムであって、前記コンピューターを、前記使用者が前記位置入力操作を開始するまでの前記センサーの検出結果に基づき、前記使用者の個人認証を実行する実行部として機能させる、制御プログラムである。
上記課題を解決する更に別の一態様は、位置入力操作を受け付けて、操作位置の座標を検出する位置入力部と、使用者の前記情報処理装置に対する動作を検出するセンサーと、コンピューターとを備え、前記用者の頭部に装着される表示装置が接続される情報処理装置の制御方法であって、前記使用者が前記位置入力操作を開始するまでの前記センサーの検出結果に基づき、前記使用者の個人認証を実行する実行ステップ、を含む、情報処理装置の制御方法である。
以下、図面を参照して実施形態について説明する。
[1.表示システムの構成]
[1−1.表示システムの全体構成]
図1は、表示システム1の概略構成を示す図である。
図1に示すように、表示システム1は、HMD(Head Mounted Display)100を備える。HMD100は、使用者の頭部に装着される映像表示部20と、接続装置10とを備え、映像表示部20により、使用者の頭部に装着された状態で使用者に虚像を視認させる装置である。HMD100は、「表示装置」の一例に対応する。以下の説明において、使用者とは、HMD100を装着して使用するユーザーを指す。
[1−1.表示システムの全体構成]
図1は、表示システム1の概略構成を示す図である。
図1に示すように、表示システム1は、HMD(Head Mounted Display)100を備える。HMD100は、使用者の頭部に装着される映像表示部20と、接続装置10とを備え、映像表示部20により、使用者の頭部に装着された状態で使用者に虚像を視認させる装置である。HMD100は、「表示装置」の一例に対応する。以下の説明において、使用者とは、HMD100を装着して使用するユーザーを指す。
接続装置10は、箱形のケースに、コネクター11A及びコネクター11Dを備える。コネクター11Aには、映像表示部20が接続ケーブル40を介して接続される。以下、コネクター11A、11Dを区別しない場合はコネクター11と表記する場合がある。接続装置10のケースは、筐体、或いは本体ということもできる。
表示システム1は、HMD100にスマートフォン300を接続して構成されるシステムである。コネクター11Dは、HMD100においてスマートフォン300が接続されるインターフェイスである。すなわち、本実施形態では、コネクター11Dにスマートフォン300が接続される。スマートフォン300は、「情報処理装置」の一例に対応する。
なお、スマートフォン300は情報処理装置の一例に過ぎない。情報処理装置は、使用者が携帯可能であって、画像を表示する表示部と、タッチセンサーのような位置入力部と、使用者の情報処理装置に対する動作を検出するセンサーと、コンピューターとを備えればよい。例えば、情報処理装置として、PDA(Personal Digital Assistant)端末、タブレット型パーソナルコンピューター等を接続装置10に接続可能である。
なお、スマートフォン300は情報処理装置の一例に過ぎない。情報処理装置は、使用者が携帯可能であって、画像を表示する表示部と、タッチセンサーのような位置入力部と、使用者の情報処理装置に対する動作を検出するセンサーと、コンピューターとを備えればよい。例えば、情報処理装置として、PDA(Personal Digital Assistant)端末、タブレット型パーソナルコンピューター等を接続装置10に接続可能である。
コネクター11は、通信ケーブルを接続する有線インターフェイスであり、この通信ケーブルにより、接続装置10は外部の装置と接続される。コネクター11Aは、接続ケーブル40を接続する端子、及び、コネクター11Aを介して信号を送受信するインターフェイス回路を備える。
コネクター11Aは、接続装置10に映像表示部20を接続するために設けられる。接続ケーブル40は、接続装置10から映像表示部20に対する電源供給を行うとともに、映像表示部20と接続装置10とが相互にデータを送受信する機能を有する。
コネクター11Dは、スマートフォン300から映像データが入力され、スマートフォン300に対してセンサーデータの出力が可能なインターフェイスである。スマートフォン300は、不揮発性記憶部に記録されたコンテンツデータを再生する。コネクター11Dは、例えば、公知の通信インターフェイス規格に準拠するコネクターである。
本実施形態では、コネクター11Dは、一例として、映像データ及び各種データの入出力に対応するインターフェイスであり、USBケーブル46を介してスマートフォン300が接続される。
本実施形態では、コネクター11Dは、一例として、映像データ及び各種データの入出力に対応するインターフェイスであり、USBケーブル46を介してスマートフォン300が接続される。
コネクター11Dとして、例えば、USB(Universal Serial Bus)−TypeC規格のコネクターを採用することができる。USB−TypeCに対応するインターフェイスは、USB3.1規格に従ったデータの伝送、及び、20ボルト、5アンペア以内の直流電力の供給が可能である。
また、USB−TypeCの代替モードの機能として、HDMI(High Definition Multimedia Interface)規格の映像データ、MHL(Mobile High−definition Link)規格の映像データ等を伝送できる。スマートフォン300は、USBケーブル46を介して、電源供給、データの送受信、及び、映像や音声のストリーミングデータの供給等を行うことができる。USB−TypeCの代替モードは、Alternativeモードとして知られている。HDMIは登録商標である。
また、USB−TypeCの代替モードの機能として、HDMI(High Definition Multimedia Interface)規格の映像データ、MHL(Mobile High−definition Link)規格の映像データ等を伝送できる。スマートフォン300は、USBケーブル46を介して、電源供給、データの送受信、及び、映像や音声のストリーミングデータの供給等を行うことができる。USB−TypeCの代替モードは、Alternativeモードとして知られている。HDMIは登録商標である。
映像表示部20は、本実施形態では眼鏡形状を有する。映像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示部22、左表示部24、右導光板26、及び左導光板28を備える。
右保持部21及び左保持部23は、前部フレーム27の両端部から後方に延び、使用者の頭部Uに映像表示部20を保持する。前部フレーム27の両端部のうち、映像表示部20の装着時に頭部Uの右側に位置する端部を端部ERとし、左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、映像表示部20の装着状態において使用者の右側頭部に対応する位置まで延伸して設けられる。左保持部23は、端部ELから、映像表示部20の装着状態において使用者の左側頭部に対応する位置まで延伸して設けられる。
右導光板26及び左導光板28は、前部フレーム27に設けられる。右導光板26は、映像表示部20の装着状態において使用者の右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、映像表示部20の装着状態において使用者の左眼の眼前に位置し、左眼に画像を視認させる。
前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有し、この連結位置は、使用者が映像表示部20を装着する装着状態で、使用者の眉間に対応する。
前部フレーム27は、右導光板26と左導光板28との連結位置において、映像表示部20の装着状態で使用者の鼻に当接する鼻当て部を設けてもよい。この場合には、鼻当て部と右保持部21及び左保持部23とにより映像表示部20を使用者の頭部に保持できる。また、右保持部21及び左保持部23に、映像表示部20の装着状態において使用者の後頭部に接するベルトを連結してもよい。この場合には、ベルトによって映像表示部20を使用者の頭部Uに保持できる。
前部フレーム27は、右導光板26と左導光板28との連結位置において、映像表示部20の装着状態で使用者の鼻に当接する鼻当て部を設けてもよい。この場合には、鼻当て部と右保持部21及び左保持部23とにより映像表示部20を使用者の頭部に保持できる。また、右保持部21及び左保持部23に、映像表示部20の装着状態において使用者の後頭部に接するベルトを連結してもよい。この場合には、ベルトによって映像表示部20を使用者の頭部Uに保持できる。
右表示部22及び左表示部24の各々は、光学ユニット及び周辺回路をユニット化したモジュールである。
右表示部22は、右導光板26による画像の表示に係るユニットであり、右保持部21に設けられ、装着状態において使用者の右側頭部の近傍に位置する。左表示部24は、左導光板28による画像の表示に係るユニットであり、左保持部23に設けられ、装着状態において使用者の左側頭部の近傍に位置する。なお、右表示部22及び左表示部24を総称して単に「表示駆動部」と呼ぶこともできる。
右表示部22は、右導光板26による画像の表示に係るユニットであり、右保持部21に設けられ、装着状態において使用者の右側頭部の近傍に位置する。左表示部24は、左導光板28による画像の表示に係るユニットであり、左保持部23に設けられ、装着状態において使用者の左側頭部の近傍に位置する。なお、右表示部22及び左表示部24を総称して単に「表示駆動部」と呼ぶこともできる。
右導光板26及び左導光板28は、光透過性の樹脂等によって形成される光学部であり、右表示部22及び左表示部24が出力する画像光を、使用者の眼に導く。右導光板26及び左導光板28は、例えばプリズムである。
使用者の右眼には、右導光板26により導かれた画像光と、右導光板26を透過した外光とが入射する。同様に、左眼には、左導光板28により導かれた画像光と、左導光板28を透過した外光とが入射する。
映像表示部20の前部フレーム27には、第2照度センサー65が配置される。第2照度センサー65は、映像表示部20を装着する使用者の前方からの外光を受光する。
カメラ61は、映像表示部20の前部フレーム27に配設される。カメラ61は、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。図1の例では、カメラ61が前部フレーム27の端部ER側に配置されているが、端部EL側に配置されてもよく、右導光板26と左導光板28との連結部に配置されてもよい。
カメラ61は、「撮像センサー」の一例に対応する。また、カメラ61は、「第2センサーS2」の一例に対応する。
カメラ61は、映像表示部20の前部フレーム27に配設される。カメラ61は、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。図1の例では、カメラ61が前部フレーム27の端部ER側に配置されているが、端部EL側に配置されてもよく、右導光板26と左導光板28との連結部に配置されてもよい。
カメラ61は、「撮像センサー」の一例に対応する。また、カメラ61は、「第2センサーS2」の一例に対応する。
カメラ61は、CCD(Charge Coupled Device)やCMOS(Complementary Metal−Oxide−Semiconductor)等の撮像素子及び撮像レンズ等を備えるデジタルカメラである。本実施形態のカメラ61は単眼カメラであるが、ステレオカメラで構成してもよい。
前部フレーム27には、LED(Light Emitting Diode)インジケーター67が配置される。LEDインジケーター67は、端部ERにおいてカメラ61の近傍に配置され、カメラ61の動作中に点灯して、撮像中であることを報知する。
前部フレーム27には、距離センサー64が設けられる。距離センサー64は、予め設定された測定方向に位置する測定対象物までの距離を検出する。距離センサー64は、例えば、LEDやレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有する光反射式距離センサーであってもよい。また、距離センサー64は、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える超音波式の距離センサーであってもよい。また、距離センサー64は、レーザーレンジスキャナーを用いてもよく、この場合には、映像表示部20の前方を含む広範囲の領域に対し測域を行える。
映像表示部20の右表示部22及び左表示部24の各々は、接続装置10に接続される。HMD100では、左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が映像表示部20内部に敷設され、右表示部22及び左表示部24の各々が接続装置10に接続される。
接続ケーブル40は、オーディオコネクター36を備え、ステレオヘッドホンを構成する右イヤホン32及び左イヤホン34と、マイク63とを有するヘッドセット30が、オーディオコネクター36に接続される。右イヤホン32は、使用者の右耳に装着され、左イヤホン34は、使用者の左耳に装着される。右イヤホン32及び左イヤホン34は、音声出力部ということもできる。
右イヤホン32及び左イヤホン34は、接続装置10が出力する音声信号に基づき音声を出力する。
マイク63は、音声を集音して、音声信号を接続装置10に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
マイク63は、音声を集音して、音声信号を接続装置10に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
接続装置10は、使用者により操作される被操作部として、輝度調整キー13、輝度調整キー14、音量調整キー15及び音量調整キー16を備える。輝度調整キー13、輝度調整キー14、音量調整キー15及び音量調整キー16の各々は、ハードウェアキーで構成される。これらの被操作部は接続装置10の本体の表面に配置され、例えば、使用者の手指により操作される。
輝度調整キー13、14は映像表示部20により表示する映像の表示輝度を調整するためのハードウェアキーである。輝度調整キー13は輝度の増大を指示し、輝度調整キー14は輝度の低減を指示する。音量調整キー15、16は、右イヤホン32及び左イヤホン34から出力される音声の音量を調整するためのハードウェアキーである。音量調整キー15は音量の増大を指示し、音量調整キー16は音量の低減を指示する。
[1−2.HMDの画像表示部の光学系の構成]
図2は、映像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
図2に示すように、右表示部22と左表示部24とは、左右対称に構成される。使用者の右眼REに画像を視認させる構成として、右表示部22は、画像光を発するOLED(Organic Light Emitting Diode)ユニット221を備える。また、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251を備える。画像光Lは、右光学系251により右導光板26に導かれる。
図2は、映像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
図2に示すように、右表示部22と左表示部24とは、左右対称に構成される。使用者の右眼REに画像を視認させる構成として、右表示部22は、画像光を発するOLED(Organic Light Emitting Diode)ユニット221を備える。また、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251を備える。画像光Lは、右光学系251により右導光板26に導かれる。
OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光してR(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子を、マトリクス状に配置して構成される、自発光型の表示パネルである。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素として、複数の画素を備え、マトリクス状に配置される画素により画像を形成する。OLED駆動回路225は、第2制御部120の制御に従って、OLEDパネル223が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル223の発光素子を発光させる。第2制御部120については、後述にて図4を参照して説明する。
OLED駆動回路225は、OLEDパネル223の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板(図示略)に実装されてもよい。この基板には図4に示す温度センサー217が実装される。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、W(白)の光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。
OLED駆動回路225は、OLEDパネル223の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板(図示略)に実装されてもよい。この基板には図4に示す温度センサー217が実装される。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、W(白)の光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。
右光学系251は、OLEDパネル223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射して右眼REに向けて右導光板26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
また、使用者の左眼LEに画像を視認させる構成として、左表示部24は、画像光を発するOLEDユニット241と、OLEDユニット241が発する画像光Lを導くレンズ群等を備えた左光学系252とを備える。画像光Lは、左光学系252により左導光板28に導かれる。
OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245とを有する。OLEDパネル243は、OLEDパネル223と同様に構成される自発光型の表示パネルである。OLED駆動回路245は、第2制御部120の指示に従って、OLEDパネル243が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル243の発光素子を発光させる。
OLED駆動回路245は、OLEDパネル243の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路245は、例えばOLEDパネル243を駆動する半導体デバイスで構成され、OLEDパネル243の裏面に固定される基板(図示略)に実装されてもよい。この基板には、図4に示す温度センサー239が実装される。
OLED駆動回路245は、OLEDパネル243の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路245は、例えばOLEDパネル243を駆動する半導体デバイスで構成され、OLEDパネル243の裏面に固定される基板(図示略)に実装されてもよい。この基板には、図4に示す温度センサー239が実装される。
左光学系252は、OLEDパネル243から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板28に入射する。左導光板28は、画像光Lを反射する複数の反射面が形成された光学素子であり、例えばプリズムである。画像光Lは、左導光板28の内部で複数回の反射を経て左眼LE側に導かれる。左導光板28には、左眼LEの眼前に位置するハーフミラー281(反射面)が形成される。画像光Lは、ハーフミラー281で反射して左眼LEに向けて左導光板28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
この構成によれば、HMD100は、透過型の表示装置として機能する。すなわち、使用者の右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。また、左眼LEには、ハーフミラー281で反射した画像光Lと、ハーフミラー281を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、右導光板26及び左導光板28を透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。
ハーフミラー261、281は、右表示部22及び左表示部24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部ということができる。
ハーフミラー261、281は、右表示部22及び左表示部24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部ということができる。
なお、左光学系252と左導光板28とを総称して「左導光部」とも呼び、右光学系251と右導光板26とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
図3は、映像表示部20の要部の構成を示す図である。図3は、映像表示部20を使用者の頭部側から見た要部斜視図である。なお、図3では接続ケーブル40の図示を省略する。
図3は、映像表示部20の使用者の頭部に接する側、言い換えれば使用者の右眼RE及び左眼LEに見える側である。別の言い方をすれば、図3では、右導光板26及び左導光板28の裏側が見えている。
図3では、使用者の右眼REに画像光を照射するハーフミラー261及び左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261を含む右導光板26の全体、及びハーフミラー281を含む左導光板28の全体が、上述したように外光を透過する。このため、使用者には、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
図3では、使用者の右眼REに画像光を照射するハーフミラー261及び左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261を含む右導光板26の全体、及びハーフミラー281を含む左導光板28の全体が、上述したように外光を透過する。このため、使用者には、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
また、映像表示部20の使用者側には内側カメラ68が配置される。内側カメラ68は、使用者の右眼RE及び左眼LEの各々に対応するように、右導光板26と左導光板28との中央位置に一対、設けられる。内側カメラ68は、使用者の右眼REと左眼LEとをそれぞれ撮像する一対のカメラである。内側カメラ68は、第2制御部120の指示に従って撮像を行う。第2制御部120は、内側カメラ68の撮像画像データを解析する。例えば、第2制御部120は、内側カメラ68の撮像画像データから右眼RE及び左眼LEの眼球表面における反射光や瞳孔の画像を検出し、使用者の視線方向を特定する。また、第2制御部120は、使用者の視線方向の変化を求めることができ、右眼RE及び左眼LEのそれぞれの眼球運動を検出してもよい。
ここで、使用者の視線の移動は、使用者の仮想視点の移動とみることもできる。
ここで、使用者の視線の移動は、使用者の仮想視点の移動とみることもできる。
また、第2制御部120は、内側カメラ68の撮像画像から右眼RE及び左眼LEの視線方向を検出した場合に、右眼RE及び左眼LEの輻輳角を求めることができる。輻輳角は、使用者が注視する対象物までの距離に対応する。すなわち、使用者が立体的に画像や物体を視認する場合、視認する対象までの距離に対応して、右眼RE及び左眼LEの輻輳角が定まる。したがって、輻輳角を検出することで、使用者が注視する距離を求めることができる。また、使用者の輻輳角を誘導するように画像を表示することにより、立体視を誘導できる。
[1−3.HMDの各部の構成]
図4は、HMD100を構成する各部の構成を示す図である。
映像表示部20の右表示部22は、右表示部基板210を有する。右表示部基板210には、接続ケーブル40に接続される右I/F部211、右I/F部211を介して接続装置10から入力されるデータを受信する受信部213及びEEPROM(Electrically Erasable Programmable Read Only Memory)215が実装される。右I/F部211は、受信部213、EEPROM215、温度センサー217、カメラ61、距離センサー64、第2照度センサー65、LEDインジケーター67、及び内側カメラ68を、接続装置10に接続する。受信部213は、OLEDユニット221を接続装置10に接続する。
図4は、HMD100を構成する各部の構成を示す図である。
映像表示部20の右表示部22は、右表示部基板210を有する。右表示部基板210には、接続ケーブル40に接続される右I/F部211、右I/F部211を介して接続装置10から入力されるデータを受信する受信部213及びEEPROM(Electrically Erasable Programmable Read Only Memory)215が実装される。右I/F部211は、受信部213、EEPROM215、温度センサー217、カメラ61、距離センサー64、第2照度センサー65、LEDインジケーター67、及び内側カメラ68を、接続装置10に接続する。受信部213は、OLEDユニット221を接続装置10に接続する。
左表示部24は、左表示部基板230を有する。左表示部基板230には、接続ケーブル40に接続される左I/F部231及び左I/F部231を介して接続装置10から入力されるデータを受信する受信部233が実装される。また、左表示部基板230には、第2の6軸センサー235及び第2磁気センサー237が実装される。
左I/F部231は、受信部233、第2の6軸センサー235、第2磁気センサー237及び温度センサー239を、接続装置10に接続する。受信部233は、OLEDユニット241を接続装置10に接続する。
左I/F部231は、受信部233、第2の6軸センサー235、第2磁気センサー237及び温度センサー239を、接続装置10に接続する。受信部233は、OLEDユニット241を接続装置10に接続する。
I/Fは、インターフェイスの略記である。なお、本実施形態においては、受信部213及び受信部233の各々を、Rx213、Rx233と記載する場合がある。
EEPROM215は、各種のデータを不揮発的に記憶する。EEPROM215は、例えば、映像表示部20が備えるOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示部22又は左表示部24が備えるセンサーの特性に関するデータ等を記憶する。
具体的には、OLEDユニット221、241のガンマ補正に係るパラメーター、温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれる。EEPROM215が記憶するデータは、第2制御部120により読取り可能である。
具体的には、OLEDユニット221、241のガンマ補正に係るパラメーター、温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれる。EEPROM215が記憶するデータは、第2制御部120により読取り可能である。
カメラ61は、右I/F部211を介して入力される信号に従って撮像を実行し、撮像画像データを、右I/F部211に出力する。
第2照度センサー65は、外光を受光し、受光量又は受光強度に対応する検出値を出力する。LEDインジケーター67は、右I/F部211を介して入力される制御信号又は駆動電流に従って点灯する。
内側カメラ68は、右I/F部211を介して入力される信号に従って撮像を実行し、撮像画像データを、右I/F部211に出力する。
温度センサー217は、OLEDユニット221の温度を検出し、検出温度に対応する電圧値又は抵抗値を、検出値として出力する。
第2照度センサー65は、外光を受光し、受光量又は受光強度に対応する検出値を出力する。LEDインジケーター67は、右I/F部211を介して入力される制御信号又は駆動電流に従って点灯する。
内側カメラ68は、右I/F部211を介して入力される信号に従って撮像を実行し、撮像画像データを、右I/F部211に出力する。
温度センサー217は、OLEDユニット221の温度を検出し、検出温度に対応する電圧値又は抵抗値を、検出値として出力する。
距離センサー64は、距離検出を実行し、検出結果を示す信号を、右I/F部211を介して接続装置10に出力する。距離センサー64は、例えば、赤外線式深度センサー、超音波式距離センサー、Time Of Flight式距離センサー、画像検出と音声検出とを組み合わせた距離検出ユニット等を用いることができる。また、距離センサー64が、ステレオカメラや単眼カメラによるステレオ撮影で得られる画像を処理して距離を検出する構成であってもよい。
受信部213は、右I/F部211を介して接続装置10から伝送される表示用の映像データを受信し、OLEDユニット221に出力する。OLEDユニット221は、接続装置10が伝送する映像データに基づく映像を表示する。
また、受信部233は、左I/F部231を介して接続装置10から伝送される表示用の映像データを受信し、OLEDユニット241に出力する。OLEDユニット241は、接続装置10が伝送する映像データに基づく映像を表示する。
また、受信部233は、左I/F部231を介して接続装置10から伝送される表示用の映像データを受信し、OLEDユニット241に出力する。OLEDユニット241は、接続装置10が伝送する映像データに基づく映像を表示する。
第2の6軸センサー235は、3軸加速度センサー、及び、3軸ジャイロセンサーを備えるモーションセンサーである。第2の6軸センサー235は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。第2磁気センサー237は、例えば、3軸の地磁気センサーである。ジャイロセンサーは、角速度センサーとも呼ばれる。以下の説明において、第2の6軸センサー235の3軸加速度センサーを第2加速度センサーと記載する場合がある。
第2の6軸センサー235及び第2磁気センサー237の各々は、「第2センサーS2」の一例に対応する。
第2の6軸センサー235及び第2磁気センサー237の各々は、「第2センサーS2」の一例に対応する。
温度センサー239は、OLEDユニット241の温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値として出力する。
映像表示部20の各部は、接続ケーブル40により接続装置10から供給される電力により動作する。
映像表示部20は、右表示部22に電源部229を備え、左表示部24に電源部249を備える。電源部229は、接続装置10が接続ケーブル40を介して供給する電力を、右表示部基板210を含む右表示部22の各部に分配し、供給する。同様に、電源部249は、接続装置10が接続ケーブル40を介して供給する電力を、左表示部基板230を含む左表示部24の各部に分配し、供給する。右表示部22及び左表示部24は、電圧を変換する変換回路等を備えてもよい。
接続装置10は、I/F部110、第2制御部120、センサー制御部122、表示制御部124、電源制御部126、不揮発性記憶部130、操作部140、接続部145及び音声処理部147を備える。
I/F部110は、コネクター11Dを備える。また、I/F部110は、コネクター11Dに接続されて、各種通信規格に準拠した通信プロトコルを実行するインターフェイス回路を備える。
I/F部110は、例えば、コネクター11D及びインターフェイス回路を実装したインターフェイス基板であってもよい。また、接続装置10の第2制御部120やセンサー制御部122、表示制御部124、電源制御部126が、図示しない接続装置メイン基板に実装される構成としてもよい。この場合には、接続装置メイン基板にI/F部110のコネクター11D及びインターフェイス回路を実装してもよい。
また、I/F部110は、例えば、外部の記憶装置や記憶媒体を接続可能なメモリーカード用インターフェイス等を備えてもよいし、I/F部110を無線通信インターフェイスで構成してもよい。
また、I/F部110は、例えば、外部の記憶装置や記憶媒体を接続可能なメモリーカード用インターフェイス等を備えてもよいし、I/F部110を無線通信インターフェイスで構成してもよい。
第2制御部120は、HMD100の各部を制御する。第2制御部120は、CPU(Central Processing Unit)のようなプロセッサーを有する。第2制御部120において、プロセッサーが制御プログラムを実行することによって、ソフトウェアとハードウェアとの協働によりHMD100の各部を制御する。第2制御部120には、不揮発性記憶部130、操作部140、接続部145及び音声処理部147が接続される。
センサー制御部122は、カメラ61、距離センサー64、第2照度センサー65、温度センサー217、第2の6軸センサー235、第2磁気センサー237及び温度センサー239を制御する。具体的には、センサー制御部122は、第2制御部120の制御に従って各センサーのサンプリング周期の設定及び初期化を行い、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。
センサー制御部122は、I/F部110のコネクター11Dに接続され、予め設定されたタイミングで、各センサーから取得した検出値に関するデータをコネクター11Dに出力する。コネクター11Dに接続されたスマートフォン300は、HMD100の各センサーの検出値、カメラ61の撮像画像データを取得できる。
表示制御部124は、I/F部110に入力される画像データや映像データに基づく画像を映像表示部20により表示するための各種処理を実行する。本実施形態では、コネクター11Dに、スマートフォン300が出力する映像信号が入力される。映像信号は、デジタル映像データであるが、アナログ映像信号であってもよい。
表示制御部124は、例えば、フレームの切り出し、解像度変換、中間フレーム生成、フレームレート変換等の各種処理を実行する。解像度変換は、いわゆるスケーリングを含む。表示制御部124は、OLEDユニット221及びOLEDユニット241の各々に対応する画像データを接続部145に出力する。接続部145に入力された画像データは、コネクター11Aから、映像信号201として右I/F部211及び左I/F部231に伝送される。映像信号201は、OLEDユニット221及びOLEDユニット241の各々に対応して処理されたデジタル映像データである。
表示制御部124は、例えば、フレームの切り出し、解像度変換、中間フレーム生成、フレームレート変換等の各種処理を実行する。解像度変換は、いわゆるスケーリングを含む。表示制御部124は、OLEDユニット221及びOLEDユニット241の各々に対応する画像データを接続部145に出力する。接続部145に入力された画像データは、コネクター11Aから、映像信号201として右I/F部211及び左I/F部231に伝送される。映像信号201は、OLEDユニット221及びOLEDユニット241の各々に対応して処理されたデジタル映像データである。
本実施形態では、コネクター11DがUSB−TypeCコネクターで構成される。表示制御部124は、コネクター11Dを介して、USB−TypeCの代替モードで伝送される映像データを受信する。
センサー制御部122及び/又は表示制御部124は、プロセッサーがプログラムを実行することにより、ソフトウェアとハードウェアとの協働により実現されてもよい。すなわち、センサー制御部122及び表示制御部124は、プロセッサーにより構成され、プログラムを実行することで上記の動作を実行する。この例で、センサー制御部122及び表示制御部124は、第2制御部120を構成するプロセッサーがプログラムを実行することで実現されてもよい。言い換えれば、プロセッサーがプログラムを実行することで、第2制御部120、表示制御部124及びセンサー制御部122として機能してもよい。ここで、プロセッサーは、コンピューターと言い換えることができる。
また、表示制御部124及びセンサー制御部122は、DSP(Digital Signal Processor)やFPGA(Field Programmable Gate Array)等、プログラムされたハードウェアにより構成されてもよい。また、センサー制御部122及び表示制御部124を統合して、SoC(System−on−a−Chip)−FPGAとして構成してもよい。
電源制御部126は、コネクター11Dに接続される。電源制御部126は、コネクター11Dから供給される電力に基づき、接続装置10の各部および映像表示部20に対する電源供給を行う。また、電源制御部126は、図示しない電圧変換回路を備え、電圧を変換して接続装置10及び映像表示部20の各部に供給する構成であってもよい。電源制御部126は、ロジック回路やFPGA等のプログラムされた半導体デバイスで構成されてもよい。また、電源制御部126をセンサー制御部122及び/又は表示制御部124と共通のハードウェアで構成してもよい。
センサー制御部122、表示制御部124及び電源制御部126は、データ処理を行うためのワークメモリーを具備してもよく、第2制御部120のメモリーを利用して処理を行ってもよい。
操作部140は、接続装置10が備える被操作部に対する操作を検出し、操作内容を示すデータ、又は、操作された被操作部を示す操作信号を第2制御部120に出力する。
音声処理部147は、第2制御部120から入力される音声データに従って、音声信号を生成し、接続部145に出力する。この音声信号は接続部145からオーディオコネクター36を介して右イヤホン32及び左イヤホン34に出力される。また、音声処理部147は、第2制御部120の制御に従って、音声信号のボリュームを調整する。また、音声処理部147は、マイク63が集音した音声の音声データを生成し、第2制御部120に出力する。この音声データは、第2制御部120により、映像表示部20が備えるセンサーの検出値と同様に処理されてもよい。
また、接続装置10は図示しないバッテリーを備え、このバッテリーから接続装置10及び映像表示部20の各部に電力を供給する構成であってもよい。接続装置10が備えるバッテリーは、充電可能な二次電池であってもよい。
[1−4.スマートフォンの構成]
図5は、HMD100の第2制御部120とスマートフォン300との構成を示す図である。
スマートフォン300は、第1制御部310、不揮発性記憶部320、表示部330、I/F部341、通信部345、第1の6軸センサー351、第1磁気センサー352、及び第1照度センサー353を備える。
第1制御部310は、CPUやマイコン等のプロセッサーを備え、このプロセッサーにより制御プログラムを実行することにより、スマートフォン300の各部を制御する。第1制御部310は、プロセッサーが実行する制御プログラムを不揮発的に記憶するROM(Read Only Memory)、及び、プロセッサーのワークエリアを構成するRAM(Random Access Memory)のようなメモリーを備えてもよい。プロセッサーは、「コンピューター」の一例に対応する。第1制御部310のメモリーに記憶された制御プログラムは、「制御プログラム」の一例に対応する。
図5は、HMD100の第2制御部120とスマートフォン300との構成を示す図である。
スマートフォン300は、第1制御部310、不揮発性記憶部320、表示部330、I/F部341、通信部345、第1の6軸センサー351、第1磁気センサー352、及び第1照度センサー353を備える。
第1制御部310は、CPUやマイコン等のプロセッサーを備え、このプロセッサーにより制御プログラムを実行することにより、スマートフォン300の各部を制御する。第1制御部310は、プロセッサーが実行する制御プログラムを不揮発的に記憶するROM(Read Only Memory)、及び、プロセッサーのワークエリアを構成するRAM(Random Access Memory)のようなメモリーを備えてもよい。プロセッサーは、「コンピューター」の一例に対応する。第1制御部310のメモリーに記憶された制御プログラムは、「制御プログラム」の一例に対応する。
不揮発性記憶部320は、第1制御部310により実行される制御プログラムや、第1制御部310が処理するデータを不揮発的に記憶する。不揮発性記憶部130は、例えば、HDD(Hard Disk Drive)等の磁気的記録装置、又は、フラッシュメモリー等の半導体記憶素子を用いた記憶装置である。
不揮発性記憶部320は、例えば、映像を含むコンテンツのコンテンツデータ321を記憶する。コンテンツデータ321は、第1制御部310により処理可能なフォーマットのファイルであり、映像データを含み、音声データを含んでもよい。
また、不揮発性記憶部320は、第1制御部310が実行する基本制御プログラムとしてのオペレーティングシステム(OS:Operating System)、OSをプラットフォームとして動作するアプリケーションプログラム等を記憶する。また、不揮発性記憶部320は、アプリケーションプログラムの実行時に処理されるデータや処理結果のデータを記憶する。
不揮発性記憶部320は、「記憶部」の一例に対応する。
また、不揮発性記憶部320は、第1制御部310が実行する基本制御プログラムとしてのオペレーティングシステム(OS:Operating System)、OSをプラットフォームとして動作するアプリケーションプログラム等を記憶する。また、不揮発性記憶部320は、アプリケーションプログラムの実行時に処理されるデータや処理結果のデータを記憶する。
不揮発性記憶部320は、「記憶部」の一例に対応する。
表示部330が備える表示パネル331及びタッチセンサー332は、第1制御部310に接続される。表示パネル331は、第1制御部310の制御に基づき各種画像を表示する。表示パネル331は、例えばLCD(Liquid Crystal Display)で構成される。表示パネル331は、矩形状に構成される。本実施形態では、表示パネル331は、長方形状である。
タッチセンサー332は、タッチ操作を検出し、検出した操作を示すデータを第1制御部310に出力する。タッチセンサー332は、表示パネル331と一体に形成される。具体的には、タッチセンサー332は、表示パネル331の画像表示面に形成される。本実施形態では、タッチセンサー332は、長方形状である。タッチセンサー332が出力するデータは、タッチセンサー332における操作位置を示す座標データ等である。
タッチセンサー332は、「位置入力部」の一例に対応する。
タッチセンサー332は、タッチ操作を検出し、検出した操作を示すデータを第1制御部310に出力する。タッチセンサー332は、表示パネル331と一体に形成される。具体的には、タッチセンサー332は、表示パネル331の画像表示面に形成される。本実施形態では、タッチセンサー332は、長方形状である。タッチセンサー332が出力するデータは、タッチセンサー332における操作位置を示す座標データ等である。
タッチセンサー332は、「位置入力部」の一例に対応する。
I/F部341は、外部の装置に接続されるインターフェイスである。I/F部341は、例えば、HDMIインターフェイス、USBインターフェイス等の規格に準拠した通信を実行する。I/F部341は、USBケーブル46を接続するコネクター、及びコネクターを伝送される信号を処理するインターフェイス回路を備える。I/F部341は、コネクター及びインターフェイス回路を有するインターフェイス基板であり、第1制御部310のプロセッサー等が実装されるメイン基板に接続される。或いは、I/F部341を構成するコネクター及びインターフェイス回路が、スマートフォン300のメイン基板に実装される。
本実施形態で、I/F部341は、USBインターフェイスを備え、USBケーブル46により、コネクター11Dに接続される。第1制御部310は、例えば、USBケーブル46により映像データを出力し、接続装置10からセンサーの出力値に関するデータ等を受信する。
また、I/F部341は、無線通信インターフェイスであってもよい。この場合には、I/F部341は、RF(Radio Frequency)部を含む通信回路を実装したインターフェイス基板、又は、メイン基板に実装される回路とすることができる。
本実施形態で、I/F部341は、USBインターフェイスを備え、USBケーブル46により、コネクター11Dに接続される。第1制御部310は、例えば、USBケーブル46により映像データを出力し、接続装置10からセンサーの出力値に関するデータ等を受信する。
また、I/F部341は、無線通信インターフェイスであってもよい。この場合には、I/F部341は、RF(Radio Frequency)部を含む通信回路を実装したインターフェイス基板、又は、メイン基板に実装される回路とすることができる。
通信部345は、外部の装置とデータ通信を実行する通信インターフェイスである。通信部345は、ケーブルを接続可能な有線通信インターフェイスであってもよいし、無線通信インターフェイスであってもよい。例えば、Ethernet(登録商標)に対応する有線LANインターフェイスや、IEEE802.11規格に対応する無線LANインターフェイスであってもよい。
また、通信部345は、例えば、他のスマートフォンと無線電話回線で接続する通信インターフェイスである。
また、通信部345は、例えば、他のスマートフォンと無線電話回線で接続する通信インターフェイスである。
第1の6軸センサー351は、3軸加速度センサー、及び、3軸ジャイロセンサーを備えるモーションセンサーである。第1の6軸センサー351は、上記のセンサーがモジュール化されたIMUを採用してもよい。第1磁気センサー352は、例えば、3軸の地磁気センサーである。ジャイロセンサーは、角速度センサーとも呼ばれる。以下の説明において、第1の6軸センサー351の3軸加速度センサーを第1加速度センサーと記載する場合がある。
第1の6軸センサー351及び第1磁気センサー352の各々は、「第1センサー」の一例に対応する。
第1の6軸センサー351及び第1磁気センサー352の各々は、「第1センサー」の一例に対応する。
第1照度センサー353は、外光を受光し、受光量又は受光強度に対応する検出値を出力する。第1照度センサー353は、例えば、表示パネル331の法線方向からの外光を受光する。
第1照度センサー353は、「第1センサー」の一例に対応する。
第1照度センサー353は、「第1センサー」の一例に対応する。
第1制御部310は、第1実行部311と、規制部312と、受付部313と、第2実行部314と、機械学習部315と、出力部316とを備える。具体的には、第1制御部310は、第1制御部310が備えるプロセッサーが制御プログラムを実行することにより、第1実行部311、規制部312、受付部313、第2実行部314、機械学習部315及び出力部316として機能する。
第1制御部310は、コンテンツデータ321を再生し、コンテンツデータ321に含まれる映像データに対応する第2画像PT2を表示部330の表示パネル331に表示する。
また、第1制御部310は、第2画像PT2を示すデータをHMD100に伝送する。具体的には、第1制御部310は、I/F部341及びコネクター11Dを介して、第2画像PT2を示すデータをHMD100の第2制御部120に伝送する。
また、第1制御部310は、第2画像PT2を示すデータをHMD100に伝送する。具体的には、第1制御部310は、I/F部341及びコネクター11Dを介して、第2画像PT2を示すデータをHMD100の第2制御部120に伝送する。
第1実行部311は、使用者がタッチセンサー332に対する位置入力操作を開始するまでの第1センサーS1の検出結果に基づき、使用者の個人認証を実行する。第1センサーS1は、使用者のスマートフォン300に対する動作を検出する。第1センサーS1は、第1照度センサー353、第1の6軸センサー351及び第1磁気センサー352を含む。
第1実行部311は、使用者がタッチセンサー332に対する位置入力操作を開始するまでの第1センサーS1及び第2センサーS2の検出結果に基づき、使用者の個人認証を実行する。第2センサーS2は、カメラ61、第2の6軸センサー235及び第2磁気センサー237を含む。カメラ61は、外景を撮像して、外景画像を生成する。第1実行部311は、外景画像に基づいて、スマートフォン300を把持する使用者の指の位置を検出する。第2の6軸センサー235及び第2磁気センサー237は、使用者の頭部Uの動作を検出する。
第1実行部311は、使用者によるスマートフォン300に対する動作のプロファイルデータセットに基づき、使用者の個人認証を実行する。プロファイルデータセットは、第1センサーS1の検出結果を示す。具体的には、プロファイルデータセットは、第1照度センサー353、第1の6軸センサー351及び第1磁気センサー352の検出結果を含む。
規制部312は、第1実行部311による使用者の個人認証が失敗した場合に、表示システム1に対する使用者の入力を規制する。
規制部312は、例えば、タッチセンサー332に対する使用者の入力を禁止する。また、規制部312は、例えば、HMD100の輝度調整キー13、輝度調整キー14、音量調整キー15及び音量調整キー16に対する使用者の入力を禁止する。
規制部312は、例えば、タッチセンサー332に対する使用者の入力を禁止する。また、規制部312は、例えば、HMD100の輝度調整キー13、輝度調整キー14、音量調整キー15及び音量調整キー16に対する使用者の入力を禁止する。
受付部313は、使用者の個人認証が失敗した場合に、使用者からの認証コードの入力を受け付ける。認証コードは、例えば、英字及び数字の少なくとも一方から構成される4桁のコードである。受付部313は、認証コードに換えて、認証パターンの入力を受け付けてもよい。
第2実行部314は、認証コードに基づき、使用者の個人認証を実行する。
機械学習部315は、使用者を含む複数のユーザーの各々によるスマートフォン300に対する動作のプロファイルデータセットに基づいて、複数のユーザーの各々の識別情報を学習する。プロファイルデータセットは、第1センサーS1の検出結果を示す。具体的には、プロファイルデータセットは、第1照度センサー353、第1の6軸センサー351及び第1磁気センサー352の検出結果を含む。
機械学習部315は、例えばディープラーニングを用いて機械学習を実行する。
機械学習部315は、例えばディープラーニングを用いて機械学習を実行する。
複数のユーザーの各々によるスマートフォン300に対する動作のプロファイルデータセットは、複数のユーザーの各々の識別情報と対応付けて、例えば不揮発性記憶部320に記憶される。
機械学習部315は、複数のユーザーの各々について、不揮発性記憶部320から、プロファイルデータセットと識別情報とを読み出して、機械学習を実行し、学習済みモデルを生成する。
学習済みモデルは、例えば、第1制御部310のメモリーに記憶される。
機械学習部315は、複数のユーザーの各々について、不揮発性記憶部320から、プロファイルデータセットと識別情報とを読み出して、機械学習を実行し、学習済みモデルを生成する。
学習済みモデルは、例えば、第1制御部310のメモリーに記憶される。
出力部316は、機械学習部315に使用者による第1センサーS1の検出結果に対応する識別情報を出力させる。具体的には、出力部316は、使用者による第1センサーS1の検出結果に対応する識別情報を、学習済みモデルに出力させる。
[1−5.HMDの第1制御部の構成]
HMD100の第2制御部120は、第1表示制御部121を備える。具体的には、第2制御部120は、第2制御部120が備えるプロセッサーが制御プログラムを実行することにより、第1表示制御部121として機能する。
HMD100の第2制御部120は、第1表示制御部121を備える。具体的には、第2制御部120は、第2制御部120が備えるプロセッサーが制御プログラムを実行することにより、第1表示制御部121として機能する。
第1表示制御部121は、第1画像PT1を表示する。具体的には、第1表示制御部121は、スマートフォン300から第2画像PT2を受信し、受信した第2画像PT2を映像表示部20により第1画像PT1として表示させる。すなわち、第1画像PT1は、第2画像PT2と一致する。換言すれば、第1画像PT1は、第2画像PT2と同一の画像を示す。この場合には、HMD100の映像表示部20は、表示パネル331に表示している画像と同じ画像を表示し、いわゆる「ミラーリング表示」を行う。
更に具体的には、第1表示制御部121は、スマートフォン300から受信した第2画像PT2から、右画像と左画像とを生成する。そして、第1表示制御部121は、右画像を右表示部22により表示させ、左画像を左表示部24により表示させる。
更に具体的には、第1表示制御部121は、右画像を右I/F部211を介してOLEDユニット221に伝送し、OLEDユニット221により右画像を表示させる。また、第1表示制御部121は、左画像を左I/F部231を介してOLEDユニット241に伝送し、OLEDユニット241により左画像を表示させる。
更に具体的には、第1表示制御部121は、右画像を右I/F部211を介してOLEDユニット221に伝送し、OLEDユニット221により右画像を表示させる。また、第1表示制御部121は、左画像を左I/F部231を介してOLEDユニット241に伝送し、OLEDユニット241により左画像を表示させる。
[2.センサーの検出結果]
[2−1.第1センサーの検出結果]
次に、図6〜図8を参照して、第1センサーS1の検出結果の一例について説明する。
図6は、スマートフォン300に配置された第1の6軸センサー351及び第1磁気センサー352の各々の軸方向の一例を示す図である。
[2−1.第1センサーの検出結果]
次に、図6〜図8を参照して、第1センサーS1の検出結果の一例について説明する。
図6は、スマートフォン300に配置された第1の6軸センサー351及び第1磁気センサー352の各々の軸方向の一例を示す図である。
図6に示すように、第1の6軸センサー351及び第1磁気センサー352の各々の軸は、互いに直交するX軸、Y軸及びZ軸で構成される。Z軸の正方向は、表示パネル331の表示面の法線方向を示す。Y軸は、表示パネル331の長辺方向と平行である。また、Y軸の正方向は、表示パネル331の上方向を示す。X軸は、表示パネル331の短辺方向と平行である。X軸の正方向は、表示パネル331の右方向を示す。
図7は、第1照度センサー353と、第1の6軸センサー351のうちの3軸加速度センサーとの検出結果の一例を示す図である。
図7の符号Aは、第1照度センサー353の検出結果を示すグラフである。図7の符号Bは、3軸加速度センサーのうちのX軸加速度センサーの検出結果を示すグラフである。図7の符号Cは、3軸加速度センサーのうちのY軸加速度センサーの検出結果を示すグラフである。図7の符号Dは、3軸加速度センサーのうちのY軸加速度センサーの検出結果を示すグラフである。
図7の符号Aは、第1照度センサー353の検出結果を示すグラフである。図7の符号Bは、3軸加速度センサーのうちのX軸加速度センサーの検出結果を示すグラフである。図7の符号Cは、3軸加速度センサーのうちのY軸加速度センサーの検出結果を示すグラフである。図7の符号Dは、3軸加速度センサーのうちのY軸加速度センサーの検出結果を示すグラフである。
図7の符号A、図7の符号B、図7の符号C、及び図7の符号Dの各々に示すグラフの横軸は時間Tを示す。図7の符号Aの示すグラフの縦軸は、照度LGを示す。図7の符号Bの示すグラフの縦軸は、X軸方向の加速度αXを示す。図7の符号Cの示すグラフの縦軸は、Y軸方向の加速度αYを示す。図7の符号Dの示すグラフの縦軸は、Z軸方向の加速度αZを示す。
図7の符号Aのグラフに示すように、時間T1において、照度LGが閾値照度LGN以上になる。閾値照度LGNは、例えば30lx(ルクス)である。時間T1より前の時間においては、照度LGが零である。本実施形態では、時間T1より前の時間においては、スマートフォン300が使用者のポケットに収納されており、時間T1においてスマートフォン300がポケットから取り出される。
図7の符号Aのグラフに示すように、時間T1から照度LGが増加している。使用者は、天井に蛍光灯が配置された部屋でスマートフォン300をポケットから取り出す。ポケットからスマートフォン300が取り出された直後は、表示パネル331の法線方向は水平方向を向いている。また、第1照度センサー353は表示パネル331の法線方向からの外光を受光する。よって、スマートフォン300が取り出された直後は、照度LGが小さい。
その後、スマートフォン300のタッチセンサー332を操作するために、使用者は、スマートフォン300の表示パネル331の法線方向が上方向を向くようにスマートフォン300の姿勢を変更する。その結果、照度LGが増加している。
その後、スマートフォン300のタッチセンサー332を操作するために、使用者は、スマートフォン300の表示パネル331の法線方向が上方向を向くようにスマートフォン300の姿勢を変更する。その結果、照度LGが増加している。
図7の符号Dのグラフに示すように、時間T2において、加速度αZが増加している。時間T2では、スマートフォン300のタッチセンサー332に対して使用者がタッチ操作をした結果、スマートフォン300がZ軸方向に移動し、加速度αZが増加している。
図7の符号Bのグラフに示すように、時間T1から時間T2の間において、時間T1の直後に加速度αXが急激に増加し、その後の変化は小さい。図7の符号Cのグラフに示すように、時間T1から時間T2の間において、時間T1の直後に加速度αYが急激に減少し、その後の変化は小さい。加速度αX及び加速度αYのこのような変化は、使用者のスマートフォン300に対する以下の動作を示している。
すなわち、時間T1においてスマートフォン300を使用者が取り出した直後に、スマートフォン300のタッチセンサー332を使用者が操作するための準備動作を行った。準備動作は、スマートフォン300の表示パネル331の法線方向がHMD100を向くように、使用者がスマートフォン300の姿勢を変更する動作である。
すなわち、時間T1においてスマートフォン300を使用者が取り出した直後に、スマートフォン300のタッチセンサー332を使用者が操作するための準備動作を行った。準備動作は、スマートフォン300の表示パネル331の法線方向がHMD100を向くように、使用者がスマートフォン300の姿勢を変更する動作である。
第1実行部311は、第1照度センサー353の検出した照度LGが閾値照度LGN以上に到達してから、使用者が位置入力操作を開始するまでの第1の6軸センサー351のうちの3軸加速度センサーの検出結果を取得する。
具体的には、第1実行部311は、時間T1から時間T2までの第1の6軸センサー351のうちの3軸加速度センサーの検出結果を取得する。時間T1は、照度LGが閾値照度LGN以上に到達した時間を示す。時間T2は、使用者が位置入力操作を開始した時間を示す。位置入力操作は、例えば、タッチセンサー332に対するタッチ操作である。
具体的には、第1実行部311は、時間T1から時間T2までの第1の6軸センサー351のうちの3軸加速度センサーの検出結果を取得する。時間T1は、照度LGが閾値照度LGN以上に到達した時間を示す。時間T2は、使用者が位置入力操作を開始した時間を示す。位置入力操作は、例えば、タッチセンサー332に対するタッチ操作である。
図8は、第1照度センサー353と、第1磁気センサー352との検出結果の一例を示す図である。
図8の符号E、図8の符号F、図8の符号G、及び図8の符号Hの各々に示すグラフの横軸は時間Tを示す。図8の符号Eの示すグラフの縦軸は、照度LGを示す。図8の符号Fの示すグラフの縦軸は、X軸方向の磁気MXを示す。図8の符号Gの示すグラフの縦軸は、Y軸方向の磁気MYを示す。図8の符号Hの示すグラフの縦軸は、Z軸方向の磁気MZを示す。
図8の符号E、図8の符号F、図8の符号G、及び図8の符号Hの各々に示すグラフの横軸は時間Tを示す。図8の符号Eの示すグラフの縦軸は、照度LGを示す。図8の符号Fの示すグラフの縦軸は、X軸方向の磁気MXを示す。図8の符号Gの示すグラフの縦軸は、Y軸方向の磁気MYを示す。図8の符号Hの示すグラフの縦軸は、Z軸方向の磁気MZを示す。
図8の符号Eのグラフに示すように、時間T1において、照度LGが閾値照度LGN以上になる。閾値照度LGNは、例えば30lx(ルクス)である。時間T1より前の時間においては、照度LGが零である。本実施形態では、スマートフォン300が、時間T1より前の時間においては、使用者のポケットに収納されており、時間T1においてスマートフォン300がポケットから取り出される。
図8の符号Eのグラフに示すように、時間T1から照度LGが増加している。使用者は、天井に蛍光灯が配置された部屋でスマートフォン300をポケットから取り出す。ポケットからスマートフォン300が取り出された直後は、表示パネル331の法線方向は水平方向を向いている。また、第1照度センサー353は表示パネル331の法線方向からの外光を受光する。よって、スマートフォン300が取り出された直後は、照度LGが小さい。
その後、スマートフォン300のタッチセンサー332を操作するために、使用者は、スマートフォン300の表示パネル331の法線方向が上方向を向くようにスマートフォン300の姿勢を変更する。その結果、照度LGが増加している。
その後、スマートフォン300のタッチセンサー332を操作するために、使用者は、スマートフォン300の表示パネル331の法線方向が上方向を向くようにスマートフォン300の姿勢を変更する。その結果、照度LGが増加している。
図8の符号Fのグラフに示すように、時間T2において、磁気MXが増加している。時間T2では、スマートフォン300のタッチセンサー332に対して使用者がタッチ操作をした結果、スマートフォン300の姿勢が変化し、磁気MXが増加している。
図8の符号Gのグラフに示すように、時間T1から時間T2の間において、時間T1の直後に磁気MYが急激に増加し、その後の変化は小さい。図8の符号Hのグラフに示すように、時間T1から時間T2の間において、時間T1の直後に磁気MZが急激に減少し、その後の変化は小さい。磁気MY及び磁気MZのこのような変化は、使用者のスマートフォン300に対する以下の動作を示している。
すなわち、時間T1においてスマートフォン300を使用者が取り出した直後に、スマートフォン300のタッチセンサー332を使用者が操作するための準備動作を行った。準備動作は、スマートフォン300の表示パネル331の法線方向がHMD100を向くように、使用者がスマートフォン300の姿勢を変更する動作である。
すなわち、時間T1においてスマートフォン300を使用者が取り出した直後に、スマートフォン300のタッチセンサー332を使用者が操作するための準備動作を行った。準備動作は、スマートフォン300の表示パネル331の法線方向がHMD100を向くように、使用者がスマートフォン300の姿勢を変更する動作である。
第1実行部311は、第1照度センサー353の検出した照度LGが閾値照度LGN以上に到達してから、使用者が位置入力操作を開始するまでの第1磁気センサー352の検出結果を取得する。
具体的には、第1実行部311は、時間T1から時間T2までの第1磁気センサー352の検出結果を取得する。時間T1は、照度LGが閾値照度LGN以上に到達した時間を示す。時間T2は、使用者が位置入力操作を開始した時間を示す。位置入力操作は、例えば、タッチセンサー332に対するタッチ操作である。
具体的には、第1実行部311は、時間T1から時間T2までの第1磁気センサー352の検出結果を取得する。時間T1は、照度LGが閾値照度LGN以上に到達した時間を示す。時間T2は、使用者が位置入力操作を開始した時間を示す。位置入力操作は、例えば、タッチセンサー332に対するタッチ操作である。
図7及び図8を参照して説明したように、第1実行部311は、第1照度センサー353の検出した照度LGが閾値照度LGN以上に到達してから、使用者が位置入力操作を開始するまでの第1センサーS1の検出結果を取得する。
具体的には、第1実行部311は、時間T1から時間T2までの第1センサーS1の検出結果を取得する。時間T1は、照度LGが閾値照度LGN以上に到達した時間を示す。時間T1は、第1照度センサー353の検出結果に基いて決定される。時間T2は、使用者が位置入力操作を開始した時間を示す。時間T2は、タッチセンサー332の検出結果に基いて決定される。
具体的には、第1実行部311は、時間T1から時間T2までの第1センサーS1の検出結果を取得する。時間T1は、照度LGが閾値照度LGN以上に到達した時間を示す。時間T1は、第1照度センサー353の検出結果に基いて決定される。時間T2は、使用者が位置入力操作を開始した時間を示す。時間T2は、タッチセンサー332の検出結果に基いて決定される。
[2−2.第2センサーの検出結果]
図9は、スマートフォン300を把持する使用者の指の位置の一例を示す図である。
図9の符号Jは、スマートフォン300を使用者が左手HLで把持して、右手HRでタッチセンサー332を操作する場合におけるスマートフォン300を把持する使用者の左手HLの指の位置の一例を示す図である。
図9の符号Kは、スマートフォン300を使用者が右手HRで把持して、右手HRの親指RF1でタッチセンサー332を操作する場合におけるスマートフォン300を把持する使用者の右手HRの指の位置の一例を示す図である。
図9は、スマートフォン300を把持する使用者の指の位置の一例を示す図である。
図9の符号Jは、スマートフォン300を使用者が左手HLで把持して、右手HRでタッチセンサー332を操作する場合におけるスマートフォン300を把持する使用者の左手HLの指の位置の一例を示す図である。
図9の符号Kは、スマートフォン300を使用者が右手HRで把持して、右手HRの親指RF1でタッチセンサー332を操作する場合におけるスマートフォン300を把持する使用者の右手HRの指の位置の一例を示す図である。
図9の符号Jの図に示すように、左手HLの親指LF1は、スマートフォン300の筐体の左側面の長辺方向に当接している。親指LF1のスマートフォン300の筐体との当接位置は、スマートフォン300の筐体の左側面の長辺方向の中央である。
左手HLの人差し指LF2、中指LF3、薬指LF4及び小指LF5の各々は、スマートフォン300の筐体の右側面の長辺方向に沿って当接している。人差し指LF2、中指LF3、薬指LF4及び小指LF5の各々は、スマートフォン300の筐体の右側面の長辺方向に沿って配列している。
左手HLの人差し指LF2、中指LF3、薬指LF4及び小指LF5の各々は、スマートフォン300の筐体の右側面の長辺方向に沿って当接している。人差し指LF2、中指LF3、薬指LF4及び小指LF5の各々は、スマートフォン300の筐体の右側面の長辺方向に沿って配列している。
人差し指LF2のスマートフォン300の筐体との当接位置は、スマートフォン300の筐体の右側面の長辺方向の中央である。小指LF5のスマートフォン300の筐体との当接位置は、スマートフォン300の筐体の右側面の長辺方向の下部である。中指LF及び薬指LF4の各々のスマートフォン300の筐体との当接位置は、人差し指LF2のスマートフォン300の筐体との当接位置と、小指LF5のスマートフォン300の筐体との当接位置との間である。人差し指LF2、中指LF3、薬指LF4及び小指LF5の各々は、互いに接している。
図9の符号Kの図に示すように、右手HRの親指RF1の位置は、タッチセンサー332上である。すなわち、使用者は、右手HRの親指RF1でタッチセンサー332を操作する。
右手HRの人差し指RF2のスマートフォン300の筐体との当接位置は、スマートフォン300の筐体の左側面の長辺方向の中央である。小指RF5のスマートフォン300の筐体との当接位置は、スマートフォン300の筐体の左側面の長辺方向の下部である。中指RF3及び薬指RF4の各々のスマートフォン300の筐体との当接位置は、人差し指RF2のスマートフォン300の筐体との当接位置と、小指RF5のスマートフォン300の筐体との当接位置との間である。人差し指RF2、中指RF3、薬指RF4及び小指RF5の各々は、互いに接している。
なお、スマートフォン300の筐体の右側面は右手HRの手のひらに当接している。
右手HRの人差し指RF2のスマートフォン300の筐体との当接位置は、スマートフォン300の筐体の左側面の長辺方向の中央である。小指RF5のスマートフォン300の筐体との当接位置は、スマートフォン300の筐体の左側面の長辺方向の下部である。中指RF3及び薬指RF4の各々のスマートフォン300の筐体との当接位置は、人差し指RF2のスマートフォン300の筐体との当接位置と、小指RF5のスマートフォン300の筐体との当接位置との間である。人差し指RF2、中指RF3、薬指RF4及び小指RF5の各々は、互いに接している。
なお、スマートフォン300の筐体の右側面は右手HRの手のひらに当接している。
カメラ61は、スマートフォン300を含む外景を撮像して、外景画像を生成する。第1実行部311は、外景画像に基づいて、スマートフォン300を把持する使用者の指の位置を検出する。具体的には、第1実行部311は、スマートフォン300を把持する使用者の左手HLの親指LF1、人差し指LF2、中指LF3、薬指LF4及び小指LF5の位置、又は右手HRの親指RF1、人差し指RF2、中指RF3、薬指RF4及び小指RF5の位置を検出する。そして、第1実行部311は、スマートフォン300を把持する使用者の指の位置の検出結果に基づいて、使用者の個人認証を実行する。
[3.受付部の処理]
図10は、認証が失敗した場合に表示パネル331に表示されるコード認証画面の一例を示す画面図である。
図10に示すように、使用者の個人認証が失敗した場合には、受付部313によって、コード認証画面が表示パネル331に表示される。コード認証画面は、メッセージ表示部PMと、パスワード入力部PPとを含む。
図10は、認証が失敗した場合に表示パネル331に表示されるコード認証画面の一例を示す画面図である。
図10に示すように、使用者の個人認証が失敗した場合には、受付部313によって、コード認証画面が表示パネル331に表示される。コード認証画面は、メッセージ表示部PMと、パスワード入力部PPとを含む。
メッセージ表示部PMには、パスワードを入力することを使用者に指示するメッセージが表示される。具体的には、「個人認証が失敗しました。パスワードを入力してください。」という文字画像がメッセージ表示部PMに表示される。
パスワード入力部PPには、パスワードの入力を受け付けることを使用者に指示するメッセージが表示される。具体的には、「パスワード:_____」という文字画像がパスワード入力部PPに表示される。なお、パスワード入力部PPのうち下線が表示された範囲は、パスワードの入力を受け付ける位置を示す。また、パスワードは、「認証コード」の一例に対応する。
[4.スマートフォンの第1制御部の処理の説明]
図11及び図12の各々は、スマートフォン300の第1制御部310の処理の一例を示すフローチャートである。
まず、図11に示すように、ステップS101において、第1制御部310は、第1照度センサー353の検出結果を取得する。
次に、ステップS103において、第1制御部310は、第1照度センサー353が検出した照度LGが閾値照度LGN以上であるか否かを判定する。
第1照度センサー353が検出した照度LGが閾値照度LGN以上ではないと第1制御部310が判定した場合(ステップS103:NO)には、処理がステップS101に戻る。第1照度センサー353が検出した照度LGが閾値照度LGN以上であると第1制御部310が判定した場合(ステップS103:YES)には、処理がステップS105に進む。
そして、ステップS105において、第1制御部310は、第1加速度センサーの検出結果を取得する。第1加速度センサーは、第1の6軸センサー351の3軸加速度センサーを示す。
図11及び図12の各々は、スマートフォン300の第1制御部310の処理の一例を示すフローチャートである。
まず、図11に示すように、ステップS101において、第1制御部310は、第1照度センサー353の検出結果を取得する。
次に、ステップS103において、第1制御部310は、第1照度センサー353が検出した照度LGが閾値照度LGN以上であるか否かを判定する。
第1照度センサー353が検出した照度LGが閾値照度LGN以上ではないと第1制御部310が判定した場合(ステップS103:NO)には、処理がステップS101に戻る。第1照度センサー353が検出した照度LGが閾値照度LGN以上であると第1制御部310が判定した場合(ステップS103:YES)には、処理がステップS105に進む。
そして、ステップS105において、第1制御部310は、第1加速度センサーの検出結果を取得する。第1加速度センサーは、第1の6軸センサー351の3軸加速度センサーを示す。
次に、ステップS107において、第1制御部310は、第1磁気センサー352の検出結果を取得する。
次に、ステップS109において、第1制御部310は、HMD100の第2加速度センサーの検出結果を取得する。第2加速度センサーは、第2の6軸センサー235の3軸加速度センサーを示す。
次に、ステップS111において、第1制御部310は、HMD100の第2磁気センサー237の検出結果を取得する。
次に、ステップS113において、第1制御部310は、HMD100のカメラ61の撮像した外景画像を取得する。
次に、ステップS115において、第1実行部311は、外景画像からスマートフォン300を把持する使用者の指の位置を検出する。
次に、ステップS109において、第1制御部310は、HMD100の第2加速度センサーの検出結果を取得する。第2加速度センサーは、第2の6軸センサー235の3軸加速度センサーを示す。
次に、ステップS111において、第1制御部310は、HMD100の第2磁気センサー237の検出結果を取得する。
次に、ステップS113において、第1制御部310は、HMD100のカメラ61の撮像した外景画像を取得する。
次に、ステップS115において、第1実行部311は、外景画像からスマートフォン300を把持する使用者の指の位置を検出する。
次に、ステップS117において、第1制御部310は、タッチセンサー332に対する位置入力操作を検出したか否かを判定する。
タッチセンサー332に対する位置入力操作を検出していないと第1制御部310が判定した場合(ステップS117:NO)には、処理がステップS101に戻る。タッチセンサー332に対する位置入力操作を検出したと第1制御部310が判定した場合(ステップS117:YES)には、処理がステップS119に進む。
そして、ステップS119において、第1実行部311は、個人認証を実行する。具体的には、第1実行部311は、第1照度センサー353の検出した照度LGが閾値照度LGN以上に到達してから使用者がタッチセンサー332に対する位置入力操作を開始するまでの第1センサーS1及び第2センサーS2の検出結果に基づき、使用者の個人認証を実行する。第1センサーS1は、第1照度センサー353、第1の6軸センサー351及び第1磁気センサー352を含む。第2センサーS2は、カメラ61、第2の6軸センサー235及び第2磁気センサー237を含む。
タッチセンサー332に対する位置入力操作を検出していないと第1制御部310が判定した場合(ステップS117:NO)には、処理がステップS101に戻る。タッチセンサー332に対する位置入力操作を検出したと第1制御部310が判定した場合(ステップS117:YES)には、処理がステップS119に進む。
そして、ステップS119において、第1実行部311は、個人認証を実行する。具体的には、第1実行部311は、第1照度センサー353の検出した照度LGが閾値照度LGN以上に到達してから使用者がタッチセンサー332に対する位置入力操作を開始するまでの第1センサーS1及び第2センサーS2の検出結果に基づき、使用者の個人認証を実行する。第1センサーS1は、第1照度センサー353、第1の6軸センサー351及び第1磁気センサー352を含む。第2センサーS2は、カメラ61、第2の6軸センサー235及び第2磁気センサー237を含む。
次に、ステップS121において、第1制御部310は、第1実行部311による個人認証が成功したか否かを判定する。
第1実行部311による個人認証が成功したと第1制御部310が判定した場合(ステップS121:YES)には、処理が終了する。第1実行部311による個人認証が失敗したと第1制御部310が判定した場合(ステップS121:NO)には、処理が図12のステップS123に進む。
そして、図12に示すように、ステップS123において、規制部312が、表示システム1に対する使用者の入力を規制する。
第1実行部311による個人認証が成功したと第1制御部310が判定した場合(ステップS121:YES)には、処理が終了する。第1実行部311による個人認証が失敗したと第1制御部310が判定した場合(ステップS121:NO)には、処理が図12のステップS123に進む。
そして、図12に示すように、ステップS123において、規制部312が、表示システム1に対する使用者の入力を規制する。
次に、ステップS125において、受付部313は、使用者からの認証コードの入力を受け付ける。
次に、ステップS127において、第2実行部314は、認証コードに基づき、使用者の個人認証を実行する。
次に、ステップS129において、第1制御部310は、第2実行部314による個人認証が成功したか否かを判定する。
第2実行部314による個人認証が失敗したと第1制御部310が判定した場合(ステップS129:NO)には、処理が終了する。第2実行部314による個人認証が成功したと第1制御部310が判定した場合(ステップS129:YES)には、処理がステップS131に進む。
そして、ステップS131において、規制部312は、表示システム1に対する使用者の入力の規制を解除する。その後、処理が終了する。
次に、ステップS127において、第2実行部314は、認証コードに基づき、使用者の個人認証を実行する。
次に、ステップS129において、第1制御部310は、第2実行部314による個人認証が成功したか否かを判定する。
第2実行部314による個人認証が失敗したと第1制御部310が判定した場合(ステップS129:NO)には、処理が終了する。第2実行部314による個人認証が成功したと第1制御部310が判定した場合(ステップS129:YES)には、処理がステップS131に進む。
そして、ステップS131において、規制部312は、表示システム1に対する使用者の入力の規制を解除する。その後、処理が終了する。
なお、図10のステップS119は、「実行ステップ」の一例に対応する。
[5.本実施形態の効果]
以上説明したように、本実施形態では、表示システム1は、使用者の頭部に装着されるHMD100と、HMD100が接続されるスマートフォン300とを備える。スマートフォン300は、位置入力操作を受け付けて、操作位置の座標を検出するタッチセンサー332と、使用者のスマートフォン300に対する動作を検出する第1センサーS1と、使用者が位置入力操作を開始するまでの第1センサーS1の検出結果に基づき、使用者の個人認証を実行する第1実行部311と、を備える。
したがって、第1実行部311が、使用者が位置入力操作を開始するまでの第1センサーS1の検出結果に基づき使用者の個人認証を実行するため、スマートフォン300の個人認証に要する手間が削減される。
以上説明したように、本実施形態では、表示システム1は、使用者の頭部に装着されるHMD100と、HMD100が接続されるスマートフォン300とを備える。スマートフォン300は、位置入力操作を受け付けて、操作位置の座標を検出するタッチセンサー332と、使用者のスマートフォン300に対する動作を検出する第1センサーS1と、使用者が位置入力操作を開始するまでの第1センサーS1の検出結果に基づき、使用者の個人認証を実行する第1実行部311と、を備える。
したがって、第1実行部311が、使用者が位置入力操作を開始するまでの第1センサーS1の検出結果に基づき使用者の個人認証を実行するため、スマートフォン300の個人認証に要する手間が削減される。
また、スマートフォン300は、第1実行部311による使用者の個人認証が失敗した場合に、表示システム1に対する使用者の入力を規制する規制部312を備える。
したがって、権限のない使用者によって表示システム1が使用されることを規制できる。
したがって、権限のない使用者によって表示システム1が使用されることを規制できる。
また、スマートフォン300は、使用者の個人認証が失敗した場合に、認証コードの入力を受け付ける受付部313と、認証コードに基づき、使用者の個人認証を実行する第2実行部314と、を備え、第2実行部314による使用者の個人認証が成功した場合に、規制部312は、表示システム1に対する使用者の入力の規制を解除する。
よって、第1センサーS1の検出結果に基づく個人認証が失敗した場合であっても、認証コードを入力することによって表示システム1に対する入力が許可される。したがって、使用者の利便性を向上できる。
よって、第1センサーS1の検出結果に基づく個人認証が失敗した場合であっても、認証コードを入力することによって表示システム1に対する入力が許可される。したがって、使用者の利便性を向上できる。
また、スマートフォン300は、第1センサーS1によって検出された使用者のスマートフォン300に対する動作のプロファイルデータセットを記憶する不揮発性記憶部320を備え、第1実行部311は、プロファイルデータセットに基づき、使用者の個人認証を実行する。
したがって、プロファイルデータセット及び第1センサーS1の検出結果に基づき、使用者の個人認証が実行されるため、個人認証の精度を向上できる。
したがって、プロファイルデータセット及び第1センサーS1の検出結果に基づき、使用者の個人認証が実行されるため、個人認証の精度を向上できる。
また、スマートフォン300は、使用者を含む複数のユーザーの各々によるスマートフォン300に対する動作のプロファイルデータセットに基づいて、複数のユーザーの各々の識別情報を学習する機械学習部315と、機械学習部315に使用者が位置入力操作を開始するまでの第1センサーS1の検出結果に対応する識別情報を出力させる出力部316と、を備え、第1実行部311は、出力部316の出力した識別情報に基づいて、使用者の個人認証を実行する。
したがって、使用者が位置入力操作を開始するまでの第1センサーS1の検出結果に対応する識別情報を機械学習部315に出力させ、出力した識別情報に基づいて、使用者の個人認証を実行するため、個人認証の精度を向上できる。
したがって、使用者が位置入力操作を開始するまでの第1センサーS1の検出結果に対応する識別情報を機械学習部315に出力させ、出力した識別情報に基づいて、使用者の個人認証を実行するため、個人認証の精度を向上できる。
また、第1センサーS1は、第1照度センサー353を含み、第1実行部311は、第1照度センサー353の検出した照度LGが閾値照度LGN以上に到達してから、使用者が位置入力操作を開始するまでの第1センサーS1の検出結果に基づき、使用者の個人認証を実行する。
したがって、第1照度センサー353の検出した照度LGが閾値照度LGN以上に到達してから、使用者が位置入力操作を開始するまでの第1センサーS1の検出結果に基づき、使用者の個人認証を実行するため、個人認証の精度を向上できる。
したがって、第1照度センサー353の検出した照度LGが閾値照度LGN以上に到達してから、使用者が位置入力操作を開始するまでの第1センサーS1の検出結果に基づき、使用者の個人認証を実行するため、個人認証の精度を向上できる。
また、第1センサーS1は、加速度センサー、ジャイロセンサー、及び地磁気センサーの少なくとも1つを含み、第1センサーS1は、使用者が位置入力操作を開始するまでのスマートフォン300の動きを検出する。
よって、使用者が位置入力操作を開始するまでのスマートフォン300の動きを的確に検出できる。したがって、個人認証の精度を向上できる。
よって、使用者が位置入力操作を開始するまでのスマートフォン300の動きを的確に検出できる。したがって、個人認証の精度を向上できる。
また、HMD100は、使用者のスマートフォン300に対する動作を検出する第2センサーS2を備え、第1実行部311は、第1センサーS1の検出結果、及び第2センサーS2の検出結果に基づき、使用者の個人認証を実行する。
したがって、第1センサーS1の検出結果、及び第2センサーS2の検出結果に基づき、使用者の個人認証を実行するため、個人認証の精度を向上できる。
したがって、第1センサーS1の検出結果、及び第2センサーS2の検出結果に基づき、使用者の個人認証を実行するため、個人認証の精度を向上できる。
また、第2センサーS2は、加速度センサー、ジャイロセンサー、及び地磁気センサーの少なくとも1つを含み、第2センサーS2は、使用者の頭部Uの動作を検出する。
したがって、第2センサーS2は、使用者の頭部Uの動作を検出し、第2センサーS2の検出結果に基づき、使用者の個人認証を実行するため、個人認証の精度を向上できる。
したがって、第2センサーS2は、使用者の頭部Uの動作を検出し、第2センサーS2の検出結果に基づき、使用者の個人認証を実行するため、個人認証の精度を向上できる。
また、第2センサーS2は、外景を撮像するカメラ61を含み、第1実行部311は、カメラ61の生成する画像に基づき、スマートフォン300を把持する使用者の指の位置を検出する。
よって、第1実行部311は、スマートフォン300を把持する使用者の指の位置に基づいて、使用者の個人認証を実行できる。したがって、個人認証の精度を向上できる。
よって、第1実行部311は、スマートフォン300を把持する使用者の指の位置に基づいて、使用者の個人認証を実行できる。したがって、個人認証の精度を向上できる。
[6.他の実施形態]
本発明は上記実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、上記実施形態では、「情報処理装置」がスマートフォン300であるが、これに限定されない。「情報処理装置」は、使用者が携帯可能に構成され、表示部と、位置入力部と、使用者の情報処理装置に対する動作を検出するセンサーと、制御部とを備えればよい。例えば、「情報処理装置」がPDA端末でもよいし、タブレット型パーソナルコンピューターでもよい。
本発明は上記実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、上記実施形態では、「情報処理装置」がスマートフォン300であるが、これに限定されない。「情報処理装置」は、使用者が携帯可能に構成され、表示部と、位置入力部と、使用者の情報処理装置に対する動作を検出するセンサーと、制御部とを備えればよい。例えば、「情報処理装置」がPDA端末でもよいし、タブレット型パーソナルコンピューターでもよい。
また、上記実施形態では、第1制御部310が、第1実行部311と、規制部312と、受付部313と、第2実行部314と、機械学習部315と、出力部316とを備えるが、本発明はこれに限定されない。第2制御部120が、第1実行部311、規制部312、受付部313、第2実行部314、機械学習部315及び出力部316の少なくとも1つを備えてもよい。
また、上記実施形態では、第1実行部311は、第1照度センサー353の検出した照度LGが閾値照度LGN以上に到達してから、使用者が位置入力操作を開始するまでの第1センサーS1の検出結果に基づき、使用者の個人認証を実行するが、本発明はこれに限定されない。第1実行部311が、使用者がタッチセンサー332に対する位置入力操作を開始するまでの第1センサーS1の検出結果に基づき、使用者の個人認証を実行すればよい。例えば、第1実行部311が、使用者がタッチセンサー332に対する位置入力操作を開始するまでの所定期間の第1センサーS1の検出結果に基づき、使用者の個人認証を実行してもよい。所定期間は、例えば10秒間である。
また、上記実施形態では、接続装置10が映像表示部20と有線接続される構成を例示したが、これに限定されず、接続装置10に対して映像表示部20が無線接続される構成であってもよい。
また、スマートフォン300は、第1の6軸センサー351及び第1磁気センサー352を統合した9軸のIMUを備える構成としてもよい。同様に、HMD100は、第2の6軸センサー235及び第2磁気センサー237を統合した9軸のIMUを備える構成としてもよい。
また、スマートフォン300は、第1の6軸センサー351及び第1磁気センサー352を統合した9軸のIMUを備える構成としてもよい。同様に、HMD100は、第2の6軸センサー235及び第2磁気センサー237を統合した9軸のIMUを備える構成としてもよい。
また、接続装置10が備える一部の機能を映像表示部20に設けてもよく、接続装置10を複数の装置により実現してもよい。例えば、接続装置10に代えて、使用者の身体、着衣、或いは、使用者が身につける装身具に取り付け可能なウェアラブルデバイスを用いてもよい。この場合のウェアラブルデバイスは、例えば、時計型の装置、指輪型の装置、レーザーポインター、マウス、エアーマウス、ゲームコントローラー、ペン型のデバイス等であってもよい。
また、上記実施形態では、映像表示部20と接続装置10とが分離され、接続ケーブル40を介して接続された構成を例に挙げて説明した。これに限定されず、接続装置10と映像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、上記実施形態において、使用者が表示部を透過して外景を視認する構成は、右導光板26及び左導光板28が外光を透過する構成に限定されない。例えば外景を視認できない状態で画像を表示する表示装置にも適用可能である。具体的には、カメラ61の撮像画像、この撮像画像に基づき生成される画像やCG(Computer Graphics)、予め記憶された映像データや外部から入力される映像データに基づく映像等を表示する表示装置に、適用できる。この種の表示装置としては、外景を視認できない、いわゆるクローズ型の表示装置を含むことができる。例えば、カメラ61により撮像する外景の画像と、表示画像とを合成した合成画像を映像表示部20により表示する構成とすれば、映像表示部20が外光を透過しなくても、使用者に外景と画像とを視認可能に表示できる。このような、いわゆるビデオシースルー型の表示装置に適用することも勿論可能である。
また、例えば、映像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼LEに対応して画像を表示する表示部と、使用者の右眼REに対応して画像を表示する表示部とを備えていればよい。また、表示装置は、例えば、自動車や飛行機等の車両に搭載されるHMDとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたHMDとして構成されてもよい。この場合には、使用者の身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。
また、画像光を使用者の眼に導く光学系として、右導光板26及び左導光板28の一部に、ハーフミラー261、281により虚像が形成される構成を例示した。これに限定されず、右導光板26及び左導光板28の全面又は大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合には、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。
更に、光学素子は、ハーフミラー261、281を有する右導光板26、左導光板28に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
更に、光学素子は、ハーフミラー261、281を有する右導光板26、左導光板28に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
また、図4、図5等に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。
また、第1制御部310が実行する制御プログラムは、不揮発性記憶部320又は第1制御部310内の他の記憶部に記憶されてもよい。また、外部の装置に記憶された制御プログラムを、通信部345等を介して取得して実行する構成としてもよい。
また、接続装置10に形成された構成が重複して映像表示部20に形成されていてもよい。例えば、接続装置10のプロセッサーと同様のプロセッサーが映像表示部20に配置されてもよいし、接続装置10が備えるプロセッサーと映像表示部20のプロセッサーとが別々に分けられた機能を実行する構成としてもよい。
また、第1制御部310が実行する制御プログラムは、不揮発性記憶部320又は第1制御部310内の他の記憶部に記憶されてもよい。また、外部の装置に記憶された制御プログラムを、通信部345等を介して取得して実行する構成としてもよい。
また、接続装置10に形成された構成が重複して映像表示部20に形成されていてもよい。例えば、接続装置10のプロセッサーと同様のプロセッサーが映像表示部20に配置されてもよいし、接続装置10が備えるプロセッサーと映像表示部20のプロセッサーとが別々に分けられた機能を実行する構成としてもよい。
また、図11及び図12に示すフローチャートの処理単位は、スマートフォン300の第1制御部310の処理を理解容易にするために、主な処理内容に応じて分割したものである。図11及び図12に示すフローチャートに示す処理単位の分割の仕方や名称によって実施形態が制限されることはない。また、第1制御部310の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできるし、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、上記のフローチャートの処理順序も、図示した例に限られるものではない。
また、スマートフォン300の制御方法は、スマートフォン300が備えるコンピューターに、スマートフォン300の制御方法に対応した制御プログラムを実行させることで実現できる。また、この制御プログラムは、コンピューターで読み取り可能に記録した記録媒体に記録しておくことも可能である。記録媒体としては、磁気的、光学的記録媒体又は半導体メモリーデバイスを用いることができる。具体的には、フレキシブルディスク、CD−ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disc)、Blu−ray(登録商標)Disc、光磁気ディスク、フラッシュメモリー、カード型記録媒体等の可搬型、或いは固定式の記録媒体が挙げられる。また、記録媒体は、画像表示装置が備える内部記憶装置であるRAM、ROM、HDD等の不揮発性記憶装置であってもよい。また、スマートフォン300の制御方法に対応した制御プログラムをサーバー装置等に記憶させておき、サーバー装置からスマートフォン300に、制御プログラムをダウンロードすることでスマートフォン300の制御方法を実現することもできる。
1…表示システム、10…接続装置、11、11A、11D…コネクター、13、14…輝度調整キー、15、16…音量調整キー、20…映像表示部、21…右保持部、22…右表示部、23…左保持部、24…左表示部、26…右導光板、261…ハーフミラー、28…左導光板、281…ハーフミラー、40…接続ケーブル、46…USBケーブル、61…カメラ(撮像センサー、第2センサー)、64…距離センサー、68…内側カメラ、100…HMD(表示装置)、120…第1制御部、121…第1表示制御部、122…視線検出部、123…赤外線検出部、130…不揮発性記憶部、140…操作部、145…接続部、147…音声処理部、210…右表示部基板、221…OLEDユニット、230…左表示部基板、235…6軸センサー(第2センサー)、237…磁気センサー(第2センサー)、241…OLEDユニット、249…電源部、300…スマートフォン(情報処理装置)、310…第2制御部、311…第1実行部、312…規制部、313…受付部、314…第2実行部、315…機械学習部、316…出力部、320…不揮発性記憶部(記憶部)、321…コンテンツデータ、330…表示部、331…表示パネル(第2表示部)、332…タッチセンサー(位置入力部)、341…I/F部、345…通信部、351…第1の6軸センサー(第1センサー)、352…磁気センサー(第1センサー)、353…照度センサー(第1センサー)、LG…照度、LGN…閾値照度、MX、MY、MZ…磁気、PT1…第1画像、PT2…第2画像、S1…第1センサー、S2…第2センサー、T、T1、T2…時間、U…頭部、αX、αY、αZ…加速度。
Claims (12)
- 使用者の頭部に装着される表示装置と、前記表示装置が接続される情報処理装置とを備える表示システムであって、
前記情報処理装置は、
位置入力操作を受け付けて、操作位置の座標を検出する位置入力部と、
前記使用者の前記情報処理装置に対する動作を検出する第1センサーと、
前記使用者が前記位置入力操作を開始するまでの前記第1センサーの検出結果に基づき、前記使用者の個人認証を実行する第1実行部と、を備える、表示システム。 - 前記情報処理装置は、前記第1実行部による前記使用者の個人認証が失敗した場合に、前記表示システムに対する前記使用者の入力を規制する規制部を備える、請求項1に記載の表示システム。
- 前記情報処理装置は、
前記使用者の個人認証が失敗した場合に、認証コードの入力を受け付ける受付部と、
前記認証コードに基づき、前記使用者の個人認証を実行する第2実行部と、を備え、
前記第2実行部による前記使用者の個人認証が成功した場合に、前記規制部は、前記表示システムに対する前記使用者の入力の規制を解除する、請求項2に記載の表示システム。 - 前記情報処理装置は、
前記第1センサーによって検出された前記使用者の前記情報処理装置に対する動作のプロファイルデータセットを記憶する記憶部を備え、
前記第1実行部は、前記プロファイルデータセットに基づき、前記使用者の個人認証を実行する、請求項1から3のいずれか1項に記載の表示システム。 - 前記情報処理装置は、
前記使用者を含む複数のユーザーの各々による前記情報処理装置に対する動作のプロファイルデータセットに基づいて、前記複数のユーザーの各々の識別情報を学習する機械学習部と、
前記機械学習部に前記使用者が前記位置入力操作を開始するまでの前記第1センサーの検出結果に対応する識別情報を出力させる出力部と、を備え、
前記第1実行部は、前記出力部の出力した識別情報に基づいて、前記使用者の個人認証を実行する、請求項1から4のいずれか1項に記載の表示システム。 - 前記第1センサーは、照度センサーを含み、
前記第1実行部は、前記照度センサーの検出した照度が閾値照度以上に到達してから、前記使用者が前記位置入力操作を開始するまでの前記第1センサーの検出結果に基づき、前記使用者の個人認証を実行する、請求項1から5のいずれか1項に記載の表示システム。 - 前記第1センサーは、加速度センサー、ジャイロセンサー、及び地磁気センサーの少なくとも1つを含み、
前記第1センサーは、前記使用者が前記位置入力操作を開始するまでの前記情報処理装置の動きを検出する、請求項1から6のいずれか1項に記載の表示システム。 - 前記表示装置は、前記使用者の前記情報処理装置に対する動作を検出する第2センサーを備え、
前記第1実行部は、前記第1センサーの検出結果、及び前記第2センサーの検出結果に基づき、前記使用者の個人認証を実行する、請求項1から7に記載の表示システム。 - 前記第2センサーは、加速度センサー、ジャイロセンサー、及び地磁気センサーの少なくとも1つを含み、
前記第2センサーは、前記使用者の頭部の動作を検出する、請求項8に記載の表示システム。 - 前記第2センサーは、外景を撮像する撮像センサーを含み、
前記第1実行部は、前記撮像センサーの生成する画像に基づき、前記情報処理装置を把持する前記使用者の指の位置を検出する、請求項8又は9に記載の表示システム。 - 位置入力操作を受け付けて、操作位置の座標を検出する位置入力部と、使用者の情報処理装置に対する動作を検出するセンサーと、コンピューターとを備え、前記使用者の頭部に装着される表示装置が接続される情報処理装置の制御プログラムであって、前記コンピューターを、
前記使用者が前記位置入力操作を開始するまでの前記センサーの検出結果に基づき、前記使用者の個人認証を実行する実行部として機能させる、制御プログラム。 - 位置入力操作を受け付けて、操作位置の座標を検出する位置入力部と、使用者の情報処理装置に対する動作を検出するセンサーと、コンピューターとを備え、前記使用者の頭部に装着される表示装置が接続される情報処理装置の制御方法であって、
前記使用者が前記位置入力操作を開始するまでの前記センサーの検出結果に基づき、前記使用者の個人認証を実行する実行ステップ、を含む、情報処理装置の制御方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019026767A JP2020135306A (ja) | 2019-02-18 | 2019-02-18 | 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法 |
US16/791,207 US11353704B2 (en) | 2019-02-18 | 2020-02-14 | Head mounted device (HMD) coupled to smartphone executing personal authentication of a user |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019026767A JP2020135306A (ja) | 2019-02-18 | 2019-02-18 | 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020135306A true JP2020135306A (ja) | 2020-08-31 |
Family
ID=72043444
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019026767A Pending JP2020135306A (ja) | 2019-02-18 | 2019-02-18 | 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11353704B2 (ja) |
JP (1) | JP2020135306A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022165237A (ja) * | 2021-04-19 | 2022-10-31 | ヤフー株式会社 | 端末装置、端末装置の制御方法および端末装置の制御プログラム |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102688823B1 (ko) * | 2021-02-26 | 2024-07-26 | (주)블라우비트 | 사용자의 화면 집중도 분석을 위한 아이 트래킹 시작 정규화 장치 및 방법 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100511266C (zh) * | 2003-07-04 | 2009-07-08 | 松下电器产业株式会社 | 活体眼睛判定方法及活体眼睛判定装置 |
KR101672212B1 (ko) * | 2010-06-15 | 2016-11-04 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 방법 |
US8693726B2 (en) * | 2011-06-29 | 2014-04-08 | Amazon Technologies, Inc. | User identification by gesture recognition |
TWI476626B (zh) * | 2012-08-24 | 2015-03-11 | Ind Tech Res Inst | 電子裝置之認證方法及密碼設定方法及認證系統 |
JP6064464B2 (ja) * | 2012-09-10 | 2017-01-25 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、認証システム |
JP6099348B2 (ja) * | 2012-10-10 | 2017-03-22 | オリンパス株式会社 | 頭部装着型表示装置、ロック解除処理システム、プログラム及びロック解除の制御方法 |
JP6264014B2 (ja) * | 2013-12-17 | 2018-01-24 | セイコーエプソン株式会社 | 頭部装着型表示装置 |
WO2015139005A1 (en) * | 2014-03-14 | 2015-09-17 | Sony Computer Entertainment Inc. | Methods and systems tracking head mounted display (hmd) and calibrations for hmd headband adjustments |
JP2015197694A (ja) | 2014-03-31 | 2015-11-09 | シャープ株式会社 | 携帯端末装置およびその制御方法 |
JP6476673B2 (ja) * | 2014-09-16 | 2019-03-06 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム |
EP3136275A1 (en) * | 2015-08-28 | 2017-03-01 | Thomson Licensing | Digital authentication using augmented reality |
WO2018187171A1 (en) * | 2017-04-04 | 2018-10-11 | Usens, Inc. | Methods and systems for hand tracking |
KR102400840B1 (ko) * | 2017-10-13 | 2022-05-24 | 삼성전자주식회사 | 디스플레이를 광원으로 이용하여 생체 정보를 획득하기 위한 방법 및 그 전자 장치 |
JP7047394B2 (ja) * | 2018-01-18 | 2022-04-05 | セイコーエプソン株式会社 | 頭部装着型表示装置、表示システム、及び、頭部装着型表示装置の制御方法 |
JP2019145009A (ja) * | 2018-02-23 | 2019-08-29 | セイコーエプソン株式会社 | 頭部装着型表示装置、認証システム、及び頭部装着型表示装置の制御方法 |
US10762336B2 (en) * | 2018-05-01 | 2020-09-01 | Qualcomm Incorporated | Face recognition in low light conditions for unlocking an electronic device |
US10593118B2 (en) * | 2018-05-04 | 2020-03-17 | International Business Machines Corporation | Learning opportunity based display generation and presentation |
-
2019
- 2019-02-18 JP JP2019026767A patent/JP2020135306A/ja active Pending
-
2020
- 2020-02-14 US US16/791,207 patent/US11353704B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022165237A (ja) * | 2021-04-19 | 2022-10-31 | ヤフー株式会社 | 端末装置、端末装置の制御方法および端末装置の制御プログラム |
JP7314196B2 (ja) | 2021-04-19 | 2023-07-25 | ヤフー株式会社 | 端末装置、端末装置の制御方法および端末装置の制御プログラム |
Also Published As
Publication number | Publication date |
---|---|
US11353704B2 (en) | 2022-06-07 |
US20200264437A1 (en) | 2020-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019128693A (ja) | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 | |
CN111600990B (zh) | 显示系统、记录介质以及信息处理装置的控制方法 | |
JP7243193B2 (ja) | 表示システム、表示システムの制御方法、情報処理装置、及び情報処理装置の制御プログラム | |
JP2017116562A (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP2014187574A (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
CN114791673B (zh) | 显示方法、显示装置以及记录介质 | |
US11353704B2 (en) | Head mounted device (HMD) coupled to smartphone executing personal authentication of a user | |
JP2018042004A (ja) | 表示装置、頭部装着型表示装置、及び、表示装置の制御方法 | |
US11269188B2 (en) | Display system, control program for information processing device, method for controlling information processing device, and display device | |
CN111488072B (zh) | 信息处理装置、信息处理装置的控制方法以及记录介质 | |
CN112526749B (zh) | 显示装置、记录介质、显示装置的控制方法和显示系统 | |
CN112581920B (zh) | 显示系统、显示控制方法以及记录介质 | |
CN111556310B (zh) | 显示系统、记录介质以及信息处理装置的控制方法 | |
JP2021047370A (ja) | 表示装置、表示装置の制御方法、表示装置の制御プログラム、及び表示システム | |
US20240027765A1 (en) | Control device, control method for head-mounted display device, and program | |
JP2021057747A (ja) | 表示システム、画像表示装置、画像表示方法及びプログラム | |
JP2020071588A (ja) | 表示装置、及び、表示装置の制御方法 |