JP2014090386A - 情報処理システム、情報処理装置、およびプログラム - Google Patents
情報処理システム、情報処理装置、およびプログラム Download PDFInfo
- Publication number
- JP2014090386A JP2014090386A JP2012240693A JP2012240693A JP2014090386A JP 2014090386 A JP2014090386 A JP 2014090386A JP 2012240693 A JP2012240693 A JP 2012240693A JP 2012240693 A JP2012240693 A JP 2012240693A JP 2014090386 A JP2014090386 A JP 2014090386A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- user
- content
- current position
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9537—Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Controls And Circuits For Display Device (AREA)
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】現在位置に対応するコンテンツを通知することが可能な情報処理システム、情報処理装置、およびプログラムを提供する。
【解決手段】所定の場所を特定する名称、位置情報、および画像のうち少なくともいずれか一つと、特定のコンテンツとが関連付けられたデータベースと、現在位置を特定する位置特定部と、前記データベースに、前記現在位置に対応するコンテンツが有るか否かを判断する判断部と、前記判断部により前記現在位置に対応するコンテンツが有ると判断されたとき、前記現在位置に対応するコンテンツが有ることをユーザに通知する通知部と、
前記通知部による通知に対するユーザのアクションに応じて、前記コンテンツの再生を開始する制御部と、を備える、情報処理システム。
【選択図】図1
【解決手段】所定の場所を特定する名称、位置情報、および画像のうち少なくともいずれか一つと、特定のコンテンツとが関連付けられたデータベースと、現在位置を特定する位置特定部と、前記データベースに、前記現在位置に対応するコンテンツが有るか否かを判断する判断部と、前記判断部により前記現在位置に対応するコンテンツが有ると判断されたとき、前記現在位置に対応するコンテンツが有ることをユーザに通知する通知部と、
前記通知部による通知に対するユーザのアクションに応じて、前記コンテンツの再生を開始する制御部と、を備える、情報処理システム。
【選択図】図1
Description
本開示は、情報処理システム、情報処理装置、およびプログラムに関する。
近年、モバイル端末の通信速度や、記憶容量、表示画面の精密度等の技術が格段と進歩し、映画やドラマ等のビデオコンテンツを手軽にモバイル端末にダウンロードして閲覧を楽しめるようになった。このようなビデオコンテンツの管理に関する技術として例えば次のような技術が開示されている。
例えば、下記特許文献1では、既に上映または放映された映画やテレビ番組をデータベース化することによって、プロが作成した映画やテレビ番組の高画質・高音質のデータを利用することが提案されている。より具体的には、特許文献1に記載のダウンロードシステムでは、ユーザは映像作品の任意の一部の音声データや動画データにアクセスしてダウンロードすることが可能となり、これを通信端末の待受画面や着信用メロディ等に利用できる。
また、下記特許文献2では、シーンコンテンツデータと関連するリンク情報を自動的に含ませる技術が開示されている。また、シーンコンテンツデータ(撮影画像)とGPS位置情報(撮影場所情報)とをリンクすることも記載されている。
しかしながら、上記いずれの特許文献においても、映像コンテンツを閲覧する場所については特に限定されておらず、映像コンテンツの名場面や名シーンの世界を、実世界とリンクさせてユーザに提供することについては何ら言及されていなかった。
そこで、本開示では、現在位置に対応するコンテンツを通知することが可能な、新規かつ改良された情報処理システム、情報処理装置、およびプログラムを提案する。
本開示によれば、所定の場所を特定する名称、位置情報、および画像のうち少なくともいずれか一つと、特定のコンテンツとが関連付けられたデータベースと、現在位置を特定する位置特定部と、前記データベースに、前記現在位置に対応するコンテンツが有るか否かを判断する判断部と、前記判断部により前記現在位置に対応するコンテンツが有ると判断されたとき、前記現在位置に対応するコンテンツが有ることをユーザに通知する通知部と、前記通知部による通知に対するユーザのアクションに応じて、前記コンテンツの再生を開始する制御部と、を備える、情報処理システムを提案する。
本開示によれば、現在位置を特定する位置特定部と、所定の場所を特定する名称、位置情報、および画像のうち少なくともいずれか一つと、特定のコンテンツとが関連付けられたデータベースを有するサーバにより、当該データベースに前記現在位置に対応するコンテンツが有ると判断されたとき、前記現在位置に対応するコンテンツが有ることをユーザに通知する通知部と、前記通知部による通知に対するユーザのアクションに応じて、前記コンテンツの再生を開始する制御部と、を備える、情報処理装置を提案する。
本開示によれば、コンピュータに、現在位置を特定する位置特定部と、所定の場所を特定する名称、位置情報、および画像のうち少なくともいずれか一つと、特定のコンテンツとが関連付けられたデータベースを有するサーバにより、当該データベースに前記現在位置に対応するコンテンツが有ると判断されたとき、前記現在位置に対応するコンテンツが有ることをユーザに通知する通知部と、前記通知部による通知に対するユーザのアクションに応じて、前記コンテンツの再生を開始する制御部、として機能させるための、プログラムを提案する。
以上説明したように本開示によれば、現在位置に対応するコンテンツを通知することが可能となる。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による通知システムの概要
2.各実施形態
2−1.第1の実施形態
2−1−1.HMDの内部構成例
2−1−2.サーバの構成
2−1−3.通知処理
2−2.第2の実施形態
3.まとめ
1.本開示の一実施形態による通知システムの概要
2.各実施形態
2−1.第1の実施形態
2−1−1.HMDの内部構成例
2−1−2.サーバの構成
2−1−3.通知処理
2−2.第2の実施形態
3.まとめ
<<1.本開示の一実施形態による通知システムの概要>>
図1は、本開示の一実施形態による通知システム(情報処理システム)の概要を説明するための図である。図1に示すように、本実施形態による通知システムは、ユーザ端末の一例であるHMD(Head Mounted Display)1およびサーバ30を含む。
図1は、本開示の一実施形態による通知システム(情報処理システム)の概要を説明するための図である。図1に示すように、本実施形態による通知システムは、ユーザ端末の一例であるHMD(Head Mounted Display)1およびサーバ30を含む。
図1に示すHMDは、眼鏡型ディスプレイまたはシースルーHMD(Head Mounted Display)と称される。具体的には、HMD1は、例えば両側頭部から後頭部にかけて半周回するようなフレームの構造の装着ユニットを持ち、図1に示すように両耳殻にかけられることでユーザに装着される。そしてこのHMD1は、図1に示すような装着状態において、ユーザの両眼の直前、即ち通常の眼鏡におけるレンズが位置する場所に、左眼用と右眼用の一対の表示部2a、2bが配置される構成とされている。この表示部2(表示部2a、2b)には、例えば液晶パネルが用いられ、HMD1は、液晶パネルの透過率を制御することで、図1に示すようなスルー状態、即ち透明または半透明の状態とできる。表示部2がスルー状態とされることで、HMD1を眼鏡のようにユーザが常時装着していても、通常の生活には支障がない。
さらに、表示部2は、透明または半透明の状態のまま、テキストや図等の画像を表示することで、現実空間の風景にAR(拡張現実)情報を重畳表示することができる。
また、表示部2は、撮像レンズ3aで撮像された現実空間の撮像画像を表示部2に表示し、当該現実空間の撮像画像にAR(拡張現実)情報を重畳表示することも可能である。また、表示部2は、HMD1が外部機器から受信したコンテンツや、HMD1の記憶媒体に記憶されるコンテンツを再生表示することも可能である。外部機器とは、図1に示すサーバ30の他、デジタルカメラ、デジタルビデオカメラ、または携帯電話端末、スマートフォン、パーソナルコンピュータ等の情報処理装置などである。
表示部2に再生表示されるコンテンツとしては、例えば映画やビデオクリップなどの動画コンテンツ、デジタルスチルカメラ等で撮像された静止画コンテンツ、電子書籍等のデータであってもよい。また、かかるコンテンツは、ユーザがパーソナルコンピュータ等で作成した画像データ、テキストデータ、表計算データ等のコンピュータユースのデータ、ゲームプログラムに基づくゲーム画像など、表示対象となるあらゆるデータが想定される。
また、ユーザが装着した状態において、ユーザが視認する方向を被写体方向として撮像するように、前方に向けて撮像レンズ3aが配置されている。また撮像レンズ3aによる撮像方向に対して照明を行う発光部4aが設けられる。発光部4aは例えばLED(Light Emitting Diode)により形成される。
また、図1では左耳側しか示されていないが、装着状態でユーザの右耳孔および左耳孔に挿入できる一対のイヤホンスピーカ5aが設けられる。
また右眼用の表示部2aの右方と、左眼用の表示部2bの左方に、外部音声を集音するマイクロホン6a、6bが配置される。
なお図1に示すHMD1の外観は一例であり、HMD1をユーザが装着するための構造は多様に考えられる。HMD1は、一般に眼鏡型、あるいは頭部装着型とされる装着ユニットで形成されればよく、少なくとも本実施の形態としては、ユーザの眼の前方に近接して表示部2が設けられていればよい。また表示部2は、両眼に対応して一対設けられる他、片側の眼に対応して1つ設けられる構成でもよい。
またイヤホンスピーカ5aは、左右のステレオスピーカとせずに、一方の耳にのみ装着するために1つ設けられるのみでもよい。またマイクロホンも、マイクロホン6a、6bのうちの一方でもよい。
また、マイクロホン6a、6bやイヤホンスピーカ5aを備えない構成も考えられる。また発光部4aを設けない構成も考えられる。
ここで、上述したように、特許文献1、2に記載のシステムでは、映像コンテンツを閲覧する場所は特に限定されておらず、映像コンテンツの名場面や名シーンの世界を、実世界とリンクさせてユーザに提供することについては何ら言及されていなかった。
しかしながら、実際に現在ユーザが居る場所(実世界)と、映像コンテンツの名場面や名シーンの世界をリンクさせてユーザに提供することができれば、映像コンテンツのエンターテインメント性がより向上する。
そこで、上記事情を一着眼点にして本開示の各実施形態による通知システムを創作するに至った。本開示の各実施形態による通知システムでは、HMD1の現在位置を特定し、現在位置に対応するコンテンツをHMD1においてユーザに通知することができる。また、HMD1は、この通知に対するユーザのアクションに応じて、コンテンツを再生制御することができる。これにより、ユーザは、実世界とリンクされた映像コンテンツの名場面や名シーンを楽しむことができる。
以下、このような本開示の各実施形態について順次説明する。なお、図1に示す例では、ユーザ端末(情報処理装置)の一例としてメガネ型ディスプレイ(シースルーHMD)を用いたが、本開示によるユーザ端末はこれに限定されない。例えば、ユーザ端末は、メガネ型以外のHMD、デジタルカメラ、デジタルビデオカメラ、PDA(Personal Digital Assistants)、PC(Personal Computer)、ノートPC、タブレット端末、携帯電話端末、スマートフォン、携帯用音楽再生装置、携帯用映像処理装置または携帯用ゲーム機器等であってもよい。
<<2.各実施形態>>
<2−1.第1の実施形態>
[2−1−1.HMDの内部構成例]
図2は、図1に示すHMD1の内部構成例を示すブロック図である。図2に示すように、HMD1は、表示部2、撮影部3、照明部4、音声出力部5、音声入力部6、システムコントローラ10、撮像制御部11、表示画像処理部12、表示駆動部13、表示制御部14、撮像信号処理部15、音声信号処理部16、画像解析部17、照明制御部18、周囲環境センサ19、撮像対象センサ20、GPS受信部21、日時計数部22、ストレージ部25、通信部26、画像入出力コントロール27、音声入出力コントロール28、および音声合成部29を有する。
<2−1.第1の実施形態>
[2−1−1.HMDの内部構成例]
図2は、図1に示すHMD1の内部構成例を示すブロック図である。図2に示すように、HMD1は、表示部2、撮影部3、照明部4、音声出力部5、音声入力部6、システムコントローラ10、撮像制御部11、表示画像処理部12、表示駆動部13、表示制御部14、撮像信号処理部15、音声信号処理部16、画像解析部17、照明制御部18、周囲環境センサ19、撮像対象センサ20、GPS受信部21、日時計数部22、ストレージ部25、通信部26、画像入出力コントロール27、音声入出力コントロール28、および音声合成部29を有する。
(システムコントローラ)
システムコントローラ10は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリ、インタフェース部を備えたマイクロコンピュータにより構成され、HMD1の各構成を制御する。
システムコントローラ10は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリ、インタフェース部を備えたマイクロコンピュータにより構成され、HMD1の各構成を制御する。
また、システムコントローラ10は、図2に示すように、HMD1の位置を特定する位置特定部10a、HMD1の動作を制御する動作制御部10bとして機能する。
・位置特定部
位置特定部10aは、GPS受信部21、画像解析部17、または音声信号処理部16から出力されるデータに基づいて、HMD1の現在位置(現在地)を特定する。具体的には、例えば位置特定部10aは、GPS受信部21から実時間で受信される現在位置情報(緯度経度等)を現在位置として特定する。また、位置特定部10aは、実時間で撮影部3により撮影され、画像解析部17により解析された撮影画像を現在位置として特定してもよい。また、位置特定部10aは、実時間で音声入力部6により集音され、音声信号処理部16により処理された音声で示された名称を現在位置として特定してもよい。なお、名称とは、住所、地名、施設名(公園名含む)、または建物名等である。
位置特定部10aは、GPS受信部21、画像解析部17、または音声信号処理部16から出力されるデータに基づいて、HMD1の現在位置(現在地)を特定する。具体的には、例えば位置特定部10aは、GPS受信部21から実時間で受信される現在位置情報(緯度経度等)を現在位置として特定する。また、位置特定部10aは、実時間で撮影部3により撮影され、画像解析部17により解析された撮影画像を現在位置として特定してもよい。また、位置特定部10aは、実時間で音声入力部6により集音され、音声信号処理部16により処理された音声で示された名称を現在位置として特定してもよい。なお、名称とは、住所、地名、施設名(公園名含む)、または建物名等である。
・動作制御部10b
動作制御部10bは、HMD1の各動作を制御する。以下、図3を参照して動作制御部10bの機能構成について説明する。
動作制御部10bは、HMD1の各動作を制御する。以下、図3を参照して動作制御部10bの機能構成について説明する。
図3は、図2に示す動作制御部10bの機能構成を示すブロック図である。図3に示すように、動作制御部10bは、該当シーン取得部100、通知部110、および再生制御部120として機能する。
該当シーン取得部100は、位置特定部10aにより特定されたHMD1の現在位置に対応するコンテンツ(該当シーン)をサーバ30から取得する。現在位置に対応するコンテンツとは、その場所で撮影された動画(映画、ドラマ、CM、ミュージックビデオ等の映像)や静止画、その場所が舞台(モデル)となっている映像やアニメーション、小説等である。また、該当シーン取得部100は、現在位置に対応するコンテンツをサーバ30から取得してもよい。この際、該当シーン取得部100は、位置特定部10aに特定された現在位置をサーバ30に送信してまず該当シーンのリストを取得し、ユーザによる再生コマンドが入力された場合に再生指示された該当シーンをサーバ30からダウンロードしてもよい。
通知部110は、サーバ30により該当シーンがあると判断された場合、現在位置に対応するコンテンツがあることをユーザに通知する。サーバ30により該当シーンがあると判断された場合とは、該当シーンがある旨の判断結果をサーバ30から受信した場合、または該当シーン取得部100により、該当シーンリストや該当シーンのデータをサーバ30から取得した場合を含む。また、通知部110による具体的な通知方法は、例えば画面表示、音声、振動、圧力、発光、または温度変化による通知が挙げられる。
例えば通知部110は、該当シーンの1フレーム、または該当シーンが含まれる映像作品のタイトルやオープニング画面を表示部2の一部に表示したり、該当シーンが含まれる映像作品のメインテーマ曲を音声出力部5から再生したりする。また、通知部110は、アラーム音や着信音を音声出力部5から再生してもよい。また、通知部110は、振動部(不図示)によりHMD1を振動させたり、圧電素子(不図示)をたわませることで両耳殻にかけられるフレーム部分を歪ませてユーザの頭部に圧力をかけたりしてもよい。
また、通知部110は、表示部2や、ユーザの視界に入るようHMD1に配置されたLED(不図示)または発光部4aを点滅させることで、ユーザに通知してもよい。また、通知部110は、HMD1の両耳殻にかけられるフレーム部分等、ユーザに接触する部分の温度を変化させるために設けられた温熱/冷却素材を制御して、温度変化を生じさせ、ユーザに通知してもよい。
再生制御部120は、通知部110による通知に対するユーザのアクションに応じて、現在位置に対応する該当シーンの再生を開始する。ユーザのアクションとは、例えば視線入力、音声入力、ジェスチャ入力、またはボタン/スイッチ操作である。
視線入力は、HMD1の内側にユーザの眼を撮影するよう配置された撮像レンズ(不図示)により検出され得る。ユーザは、瞬きをしたり、表示部2の一部に表示された該当シーンのサムネイル画像等に視線を向けたりすることで、再生指示を行うことができる。カメラによる視線の検出では、瞳孔の動きを追跡して視線の向きを算出することで、ユーザがどこを見つめているか特定する。
また、音声入力は、音声入力部6により集音され、音声信号処理部16において音声認識されることで検出され得る。例えば、ユーザは、「再生開始」等と発声することで再生指示を行うことができる。
また、ジェスチャ入力は、ユーザの手によるジェスチャを撮像レンズ3aで撮影し、画像解析部17でジェスチャ認識されることで検出され得る。または、ユーザの頭部ジェスチャが、HMD1に設けられた加速度センサやジャイロにより検出されてもよい。
また、ボタン/スイッチ操作は、HMD1に設けられた物理的なボタン/スイッチ(不図示)により検出され得る。ユーザは、確定ボタン/スイッチを押下することで、再生指示を行うことができる。
(撮像部)
撮影部3は、撮像レンズ3a、絞り、ズームレンズ、及びフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイにより実現されてもよい。撮像レンズ3aは、図1に示すように、HMD1をユーザが装着した状態において、ユーザが視認する方向を被写体方向として撮像するよう前方に向けて配置されているので、ユーザが表示部2を介して見える範囲(視界)を含む範囲を撮像することができる。
撮影部3は、撮像レンズ3a、絞り、ズームレンズ、及びフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイにより実現されてもよい。撮像レンズ3aは、図1に示すように、HMD1をユーザが装着した状態において、ユーザが視認する方向を被写体方向として撮像するよう前方に向けて配置されているので、ユーザが表示部2を介して見える範囲(視界)を含む範囲を撮像することができる。
(撮像信号処理部)
撮像信号処理部15は、撮影部3の固体撮像素子によって得られる信号に対するゲイン調整や波形整形を行うサンプルホールド/AGC(Automatic Gain Control)回路や、ビデオA/D(アナログ/デジタル)コンバータを備える。これにより、撮像信号処理部15は、デジタルデータとしての撮像信号を得る。また、撮像信号処理部15は、撮像信号に対してホワイトバランス処理、輝度処理、色信号処理、ぶれ補正処理なども行う。
撮像信号処理部15は、撮影部3の固体撮像素子によって得られる信号に対するゲイン調整や波形整形を行うサンプルホールド/AGC(Automatic Gain Control)回路や、ビデオA/D(アナログ/デジタル)コンバータを備える。これにより、撮像信号処理部15は、デジタルデータとしての撮像信号を得る。また、撮像信号処理部15は、撮像信号に対してホワイトバランス処理、輝度処理、色信号処理、ぶれ補正処理なども行う。
(撮像制御部)
撮像制御部11は、システムコントローラ10からの指示に基づいて、撮影部3及び撮像信号処理部15の動作を制御する。例えば撮像制御部11は、撮影部3、撮像信号処理部15の動作のオン/オフを制御する。また撮像制御部11は撮影部3に対して、オートフォーカス、自動露出調整、絞り調整、ズームなどの動作を実行させるための制御(モータ制御)を行うものとされる。また撮像制御部11はタイミングジェネレータを備え、固体撮像素子及び撮像信号処理部15のサンプルホールド/AGC回路、ビデオA/Dコンバータに対しては、タイミングジェネレータにて生成されるタイミング信号により信号処理動作を制御する。また、このタイミング制御により撮像フレームレートの可変制御も可能とされる。
撮像制御部11は、システムコントローラ10からの指示に基づいて、撮影部3及び撮像信号処理部15の動作を制御する。例えば撮像制御部11は、撮影部3、撮像信号処理部15の動作のオン/オフを制御する。また撮像制御部11は撮影部3に対して、オートフォーカス、自動露出調整、絞り調整、ズームなどの動作を実行させるための制御(モータ制御)を行うものとされる。また撮像制御部11はタイミングジェネレータを備え、固体撮像素子及び撮像信号処理部15のサンプルホールド/AGC回路、ビデオA/Dコンバータに対しては、タイミングジェネレータにて生成されるタイミング信号により信号処理動作を制御する。また、このタイミング制御により撮像フレームレートの可変制御も可能とされる。
さらに撮像制御部11は、固体撮像素子及び撮像信号処理部15における撮像感度や信号処理の制御を行う。例えば撮像感度制御として固体撮像素子から読み出される信号のゲイン制御を行ったり、黒レベル設定制御や、デジタルデータ段階の撮像信号処理の各種係数制御、ぶれ補正処理における補正量制御などを行うことができる。撮像感度に関しては、特に波長帯域を考慮しない全体的な感度調整や、例えば赤外線領域、紫外線領域など、特定の波長帯域の撮像感度を調整する感度調整(例えば特定波長帯域をカットするような撮像)なども可能である。波長に応じた感度調整は、撮像レンズ系における波長フィルタの挿入や、撮像信号に対する波長フィルタ演算処理により可能である。これらの場合、撮像制御部11は、波長フィルタの挿入制御や、フィルタ演算係数の指定等により、感度制御を行うことができる。
(画像入出力コントロール)
上記撮影部3で撮像され、撮像信号処理部15で処理された撮像信号(撮像による画像データ)は画像入出力コントロール27に供給される。画像入出力コントロール27は、システムコントローラ10の制御に応じて、画像データの転送を制御する。即ち撮像系(撮像信号処理部15)、表示系(表示画像処理部12)、ストレージ部25、通信部26の間の画像データの転送を制御する。
上記撮影部3で撮像され、撮像信号処理部15で処理された撮像信号(撮像による画像データ)は画像入出力コントロール27に供給される。画像入出力コントロール27は、システムコントローラ10の制御に応じて、画像データの転送を制御する。即ち撮像系(撮像信号処理部15)、表示系(表示画像処理部12)、ストレージ部25、通信部26の間の画像データの転送を制御する。
例えば画像入出力コントロール27は、撮像信号処理部15で処理された撮像信号としての画像データを、表示画像処理部12に供給したり、ストレージ部25に供給したり、通信部26に供給する動作を行う。
また画像入出力コントロール27は、例えばストレージ部25から再生された画像データを、表示画像処理部12に供給したり、通信部26に供給する動作を行う。また画像入出力コントロール27は例えば通信部26で受信された画像データを、表示画像処理部12に供給したり、ストレージ部25に供給する動作を行う。
(表示画像処理部)
表示画像処理部12は、例えばいわゆるビデオプロセッサとされ、供給された画像データに対して各種表示処理を実行できる部位とされる。例えば画像データの輝度レベル調整、色補正、コントラスト調整、シャープネス(輪郭強調)調整などを行うことができる。
表示画像処理部12は、例えばいわゆるビデオプロセッサとされ、供給された画像データに対して各種表示処理を実行できる部位とされる。例えば画像データの輝度レベル調整、色補正、コントラスト調整、シャープネス(輪郭強調)調整などを行うことができる。
(表示駆動部)
表示駆動部13は、表示画像処理部12から供給される画像データを、例えば液晶ディスプレイとされる表示部2において表示させるための画素駆動回路で構成されている。即ち表示部2においてマトリクス状に配置されている各画素について、それぞれ所定の水平/垂直駆動タイミングで映像信号に基づく駆動信号を印加し、表示を実行させる。また表示駆動部13は、表示部2の各画素の透過率を制御して、スルー状態とすることもできる。さらに、表示駆動部13は、表示部2をスルー状態とし、表示部2の一部にAR情報を表示させてもよい。
表示駆動部13は、表示画像処理部12から供給される画像データを、例えば液晶ディスプレイとされる表示部2において表示させるための画素駆動回路で構成されている。即ち表示部2においてマトリクス状に配置されている各画素について、それぞれ所定の水平/垂直駆動タイミングで映像信号に基づく駆動信号を印加し、表示を実行させる。また表示駆動部13は、表示部2の各画素の透過率を制御して、スルー状態とすることもできる。さらに、表示駆動部13は、表示部2をスルー状態とし、表示部2の一部にAR情報を表示させてもよい。
(表示制御部)
表示制御部14は、システムコントローラ10の制御に応じて、表示画像処理部12の処理動作や表示駆動部13の動作を制御する。具体的には、表示制御部14は、表示画像処理部12に対して、上述した画像データの輝度レベル調整等を行うよう制御する。また、表示制御部14は、表示駆動部13に対して、表示部2のスルー状態、画像表示状態の切り換えを行うように制御する。
表示制御部14は、システムコントローラ10の制御に応じて、表示画像処理部12の処理動作や表示駆動部13の動作を制御する。具体的には、表示制御部14は、表示画像処理部12に対して、上述した画像データの輝度レベル調整等を行うよう制御する。また、表示制御部14は、表示駆動部13に対して、表示部2のスルー状態、画像表示状態の切り換えを行うように制御する。
(音声入力部)
音声入力部6は、図1に示したマイクロホン6a、6bと、そのマイクロホン6a、6bで得られた音声信号を増幅処理するマイクアンプ部やA/D変換器を有し、音声データを音声入出力コントロール28に出力する。
音声入力部6は、図1に示したマイクロホン6a、6bと、そのマイクロホン6a、6bで得られた音声信号を増幅処理するマイクアンプ部やA/D変換器を有し、音声データを音声入出力コントロール28に出力する。
(音声入出力コントロール)
音声入出力コントロール28は、システムコントローラ10の制御に応じて、音声データの転送を制御する。具体的には、音声入出力コントロール28は、音声入力部6、音声信号処理部16、ストレージ部25、通信部26の間の音声信号の転送を制御する。例えば音声入出力コントロール28は、音声入力部6で得られた音声データを、音声信号処理部16に供給したり、ストレージ部25に供給したり、通信部26に供給する動作を行う。
音声入出力コントロール28は、システムコントローラ10の制御に応じて、音声データの転送を制御する。具体的には、音声入出力コントロール28は、音声入力部6、音声信号処理部16、ストレージ部25、通信部26の間の音声信号の転送を制御する。例えば音声入出力コントロール28は、音声入力部6で得られた音声データを、音声信号処理部16に供給したり、ストレージ部25に供給したり、通信部26に供給する動作を行う。
また音声入出力コントロール28は例えばストレージ部25で再生された音声データを、音声信号処理部16に供給したり、通信部26に供給する動作を行う。また音声入出力コントロール28は例えば通信部26で受信された音声データを、音声信号処理部16に供給したり、ストレージ部25に供給する動作を行う。
(音声信号処理部)
音声信号処理部16は、例えばデジタルシグナルプロセッサ、D/A変換器などからなる。この音声信号処理部16には、音声入力部6で得られた音声データや、ストレージ部25、あるいは通信部26からの音声データが、音声入出力コントロール28を介して供給される。音声信号処理部16は、供給された音声データに対して、システムコントローラ10の制御に応じて、音量調整、音質調整、音響エフェクト等の処理を行う。そして処理した音声データをアナログ信号に変換して音声出力部5に供給する。なお、音声信号処理部16は、デジタル信号処理を行う構成に限られず、アナログアンプやアナログフィルタによって信号処理を行うものでも良い。
音声信号処理部16は、例えばデジタルシグナルプロセッサ、D/A変換器などからなる。この音声信号処理部16には、音声入力部6で得られた音声データや、ストレージ部25、あるいは通信部26からの音声データが、音声入出力コントロール28を介して供給される。音声信号処理部16は、供給された音声データに対して、システムコントローラ10の制御に応じて、音量調整、音質調整、音響エフェクト等の処理を行う。そして処理した音声データをアナログ信号に変換して音声出力部5に供給する。なお、音声信号処理部16は、デジタル信号処理を行う構成に限られず、アナログアンプやアナログフィルタによって信号処理を行うものでも良い。
(音声出力部)
音声出力部5は、図1に示した一対のイヤホンスピーカ5aと、そのイヤホンスピーカ5aに対するアンプ回路を有する。また、音声出力部5は、いわゆる骨伝導スピーカとして構成されてもよい。ユーザは、音声出力部5により、外部音声を聞いたり、ストレージ部25で再生された音声を聞いたり、通信部26で受信された音声を聞くことができる。
音声出力部5は、図1に示した一対のイヤホンスピーカ5aと、そのイヤホンスピーカ5aに対するアンプ回路を有する。また、音声出力部5は、いわゆる骨伝導スピーカとして構成されてもよい。ユーザは、音声出力部5により、外部音声を聞いたり、ストレージ部25で再生された音声を聞いたり、通信部26で受信された音声を聞くことができる。
(ストレージ部)
ストレージ部25は、所定の記録媒体に対してデータの記録再生を行う部位とされる。ストレージ部25は、例えばHDD(Hard Disc Drive)として実現される。もちろん記録媒体としては、フラッシュメモリ等の固体メモリ、固定メモリを内蔵したメモリカード、光ディスク、光磁気ディスク、ホログラムメモリなど各種考えられ、ストレージ部25としては採用する記録媒体に応じて記録再生を実行できる構成とされればよい。
ストレージ部25は、所定の記録媒体に対してデータの記録再生を行う部位とされる。ストレージ部25は、例えばHDD(Hard Disc Drive)として実現される。もちろん記録媒体としては、フラッシュメモリ等の固体メモリ、固定メモリを内蔵したメモリカード、光ディスク、光磁気ディスク、ホログラムメモリなど各種考えられ、ストレージ部25としては採用する記録媒体に応じて記録再生を実行できる構成とされればよい。
ストレージ部25には、撮影部3で撮像され、撮像信号処理部15で処理された撮像信号としての画像データや、通信部26で受信した画像データが、画像入出力コントロール27を介して供給される。また、ストレージ部25には、音声入力部6で得られた音声データや、通信部26で受信した音声データが、音声入出力コントロール28を介して供給される。
ストレージ部25は、システムコントローラ10の制御に従って、供給された画像データや音声データに対して、記録媒体への記録のためのエンコード処理を行い、記録媒体に記録する。またストレージ部25は、システムコントローラ10の制御に従って、記録媒体から画像データや音声データを再生する。再生した画像データは画像入出力コントロール27へ出力し、また再生した音声データは音声入出力コントロール28へ出力する。
(通信部)
通信部26は外部機器との間でのデータの送受信を行う。通信部26は、外界情報を取得するための構成の一例である。通信部26は、無線LAN、ブルートゥースなどの方式で、例えばネットワークアクセスポイントに対する近距離無線通信を介してネットワーク通信を行う構成としても良いし、対応する通信機能を備えた外部機器との間で直接無線通信を行うものでもよい。
通信部26は外部機器との間でのデータの送受信を行う。通信部26は、外界情報を取得するための構成の一例である。通信部26は、無線LAN、ブルートゥースなどの方式で、例えばネットワークアクセスポイントに対する近距離無線通信を介してネットワーク通信を行う構成としても良いし、対応する通信機能を備えた外部機器との間で直接無線通信を行うものでもよい。
外部機器としては、コンピュータ機器、PDA、携帯電話端末、スマートフォン、ビデオ機器、オーディオ機器、チューナ機器など、情報処理及び通信機能を備えたあらゆる機器が想定される。またインターネット等のネットワークに接続された端末装置、サーバ装置なども通信対象の外部機器として想定される。さらには、ICチップを内蔵した非接触通信ICカード、QRコード(登録商標)等の二次元バーコード、ホログラムメモリなどを外部機器とし、通信部26はこれらの外部機器から情報を読み取る構成とすることも考えられる。さらには他のHMD1も外部機器として想定される。
通信部26には、撮影部3で撮像され、撮像信号処理部15で処理された撮像信号としての画像データや、ストレージ部25で再生した画像データが、画像入出力コントロール27を介して供給される。また、通信部26には、音声入力部6で得られた音声データや、ストレージ部25で再生された音声データが、音声入出力コントロール28を介して供給される。
通信部26は、システムコントローラ10の制御に従って、供給された画像データや音声データに対して、送信のためのエンコード処理、変調処理等を行い、外部機器に送信する。また通信部26は外部機器からのデータ受信動作を行う。受信復調した画像データは画像入出力コントロール27へ出力し、また受信復調した音声データは音声入出力コントロール28へ出力する。
また、本実施形態による通信部26には、位置特定部10aにより特定された現在位置のデータが供給され、通信部26は、現在位置のデータを外部機器であるサーバ30に送信し、現在位置に対応するコンテンツを問い合わせる。また、通信部26は、サーバ30から現在位置に対応するコンテンツを受信する。
(音声合成部)
音声合成部27は、システムコントローラ10の制御に応じて音声合成を行い、音声信号を出力する。音声合成部27から出力された音声信号は、音声入出力コントロール28を介して音声信号処理部16に供給されて処理された後、音声出力部5に供給され、ユーザに対して音声出力される。
音声合成部27は、システムコントローラ10の制御に応じて音声合成を行い、音声信号を出力する。音声合成部27から出力された音声信号は、音声入出力コントロール28を介して音声信号処理部16に供給されて処理された後、音声出力部5に供給され、ユーザに対して音声出力される。
(照明部、照明制御部)
照明部4は、図1に示した発光部4aとその発光部4a(例えばLED)を発光させる発光回路から成る。照明制御部18は、システムコントローラ10の制御に応じて、照明部4に発光動作を実行させる。照明部4における発光部4aが図1に示したように前方に対する照明を行うものとして取り付けられていることで、照明部4はユーザの視界方向に対する照明動作を行うことになる。
照明部4は、図1に示した発光部4aとその発光部4a(例えばLED)を発光させる発光回路から成る。照明制御部18は、システムコントローラ10の制御に応じて、照明部4に発光動作を実行させる。照明部4における発光部4aが図1に示したように前方に対する照明を行うものとして取り付けられていることで、照明部4はユーザの視界方向に対する照明動作を行うことになる。
(周囲環境センサ)
周囲環境センサ19は、外界情報を取得するための構成の一例である。周囲環境センサ19としては、具体的には例えば照度センサ、温度センサ、湿度センサ、気圧センサ等が想定され、HMD1の周囲環境として、周囲の明るさ、温度、湿度、或いは天候等を検出するための情報を得るセンサとされる。
周囲環境センサ19は、外界情報を取得するための構成の一例である。周囲環境センサ19としては、具体的には例えば照度センサ、温度センサ、湿度センサ、気圧センサ等が想定され、HMD1の周囲環境として、周囲の明るさ、温度、湿度、或いは天候等を検出するための情報を得るセンサとされる。
(撮像対象センサ)
撮像対象センサ20は、外界情報を取得するための構成の一例である。具体的には、撮像対象センサ20は、撮影部3での撮像動作の被写体となっている撮像対象に関する情報を検出するセンサである。例えばHMD1から撮像対象までの距離の情報を検出する測距センサや、焦電センサなどの赤外線センサのように、撮像対象が発する赤外線の特定の波長などの情報やエネルギーを検出するセンサなどが想定される。焦電センサの場合、例えば撮像対象が人や動物などの生体であるか否かの検出が可能となる。さらに、各種UV(Ultra Violet)センサのように、撮像対象が発する紫外線の特定の波長などの情報やエネルギーを検出するセンサも想定される。この場合、例えば撮像対象が蛍光物質や蛍光体であるか否かの検出や、日焼け対策に必要な外界の紫外線量の検出が可能となる。
撮像対象センサ20は、外界情報を取得するための構成の一例である。具体的には、撮像対象センサ20は、撮影部3での撮像動作の被写体となっている撮像対象に関する情報を検出するセンサである。例えばHMD1から撮像対象までの距離の情報を検出する測距センサや、焦電センサなどの赤外線センサのように、撮像対象が発する赤外線の特定の波長などの情報やエネルギーを検出するセンサなどが想定される。焦電センサの場合、例えば撮像対象が人や動物などの生体であるか否かの検出が可能となる。さらに、各種UV(Ultra Violet)センサのように、撮像対象が発する紫外線の特定の波長などの情報やエネルギーを検出するセンサも想定される。この場合、例えば撮像対象が蛍光物質や蛍光体であるか否かの検出や、日焼け対策に必要な外界の紫外線量の検出が可能となる。
(GPS受信部)
GPS受信部21は、外界情報を取得するための構成の一例である。具体的には、GPS受信部21は、GPS(Global Positioning System)の衛星からの電波を受信し、現在位置としての緯度・経度の情報を出力する。
GPS受信部21は、外界情報を取得するための構成の一例である。具体的には、GPS受信部21は、GPS(Global Positioning System)の衛星からの電波を受信し、現在位置としての緯度・経度の情報を出力する。
(日時計数部)
日時計数部22は、外界情報を取得するための構成の一例である。日時計数部22は、いわゆる時計部として、日時(年月日時分秒)を計数し、現在日時情報を出力する。
日時計数部22は、外界情報を取得するための構成の一例である。日時計数部22は、いわゆる時計部として、日時(年月日時分秒)を計数し、現在日時情報を出力する。
(画像解析部)
画像解析部17は、外界情報を取得するための構成の一例である。具体的には、画像解析部17は、画像データを解析し、画像データに含まれる画像の情報を得る。画像解析部17には、画像入出力コントロール27を介して画像データが供給される。画像解析部17において画像解析の対象となる画像データとは、撮影部3、撮像信号処理部15により得られた撮像画像としての画像データや、通信部26で受信された画像データ、あるいはストレージ部25で記録媒体から再生された画像データである。
画像解析部17は、外界情報を取得するための構成の一例である。具体的には、画像解析部17は、画像データを解析し、画像データに含まれる画像の情報を得る。画像解析部17には、画像入出力コントロール27を介して画像データが供給される。画像解析部17において画像解析の対象となる画像データとは、撮影部3、撮像信号処理部15により得られた撮像画像としての画像データや、通信部26で受信された画像データ、あるいはストレージ部25で記録媒体から再生された画像データである。
以上、本実施形態によるHMD1の内部構成について詳細に説明した。なお、外界情報を取得するための構成として周囲環境センサ19、撮像対象センサ20、GPS受信部21、日時計数部22、画像解析部17、及び通信部26を示したが、これらは必ずしも全てを備える必要はない。また、周囲の音声を検知・解析する音声解析部など、他のセンサが設けられても良い。
[2−1−2.サーバの構成]
次に、サーバ30の構成について図4を参照して説明する。図4は、本実施形態によるサーバ30の構成を示すブロック図である。図4に示すように、サーバ30は、CPU(Central Processing Unit)31、ROM(Read Only Memory)32、RAM(Random Access Memory)33、判断部34、コンテンツDB35、および通信部36を有する。
次に、サーバ30の構成について図4を参照して説明する。図4は、本実施形態によるサーバ30の構成を示すブロック図である。図4に示すように、サーバ30は、CPU(Central Processing Unit)31、ROM(Read Only Memory)32、RAM(Random Access Memory)33、判断部34、コンテンツDB35、および通信部36を有する。
(コンテンツDB)
コンテンツDB35は、所定の場所を特定する名称、位置情報、および画像のうち少なくともいずれか一つと、特定のコンテンツとが関連付けられたデータベースである。より具体的には、特定の映像コンテンツ、写真コンテンツ、テキストコンテンツ等が、その映像や写真が撮影された場所や、そのコンテンツが舞台(モデル)となっている場所と関連付けられている。ここで、図5に、コンテンツDB35に格納されているデータの一例を示す。図5に示すように、例えば様々な映像コンテンツ(映画やドラマ等)の名場面や名シーン(シーン1〜シーン4)が、そのシーンが撮影された場所を特定する位置情報(位置情報1〜位置情報4)、名称(名称1〜名称4)、画像(画像1〜画像4)と関連付けられている。なお、場所を特定する位置情報とは、例えば緯度経度情報である。また、場所を特定する名称とは、例えば住所、地名、施設名、または建物名である。また、場所を特定する画像とは、その場所の撮影画像、またはその場所周辺の特徴的な建物や風景の撮影画像である。
コンテンツDB35は、所定の場所を特定する名称、位置情報、および画像のうち少なくともいずれか一つと、特定のコンテンツとが関連付けられたデータベースである。より具体的には、特定の映像コンテンツ、写真コンテンツ、テキストコンテンツ等が、その映像や写真が撮影された場所や、そのコンテンツが舞台(モデル)となっている場所と関連付けられている。ここで、図5に、コンテンツDB35に格納されているデータの一例を示す。図5に示すように、例えば様々な映像コンテンツ(映画やドラマ等)の名場面や名シーン(シーン1〜シーン4)が、そのシーンが撮影された場所を特定する位置情報(位置情報1〜位置情報4)、名称(名称1〜名称4)、画像(画像1〜画像4)と関連付けられている。なお、場所を特定する位置情報とは、例えば緯度経度情報である。また、場所を特定する名称とは、例えば住所、地名、施設名、または建物名である。また、場所を特定する画像とは、その場所の撮影画像、またはその場所周辺の特徴的な建物や風景の撮影画像である。
さらに、各シーンには、そのシーンを含む映像コンテンツのタイトルや、タイトル画面、またはメインテーマ曲等が関連付けられていてもよい。
(判断部)
判断部34は、HMD1から送信された現在位置に対応するコンテンツが、コンテンツDB35に有るか否かを判断する。具体的には、判断部34は、HMD1から送信された現在位置を示す緯度経度情報や、撮影画像、または名称等を、コンテンツDB35に格納されている各シーン(映像コンテンツ)に関連付けられた特定の場所を示す位置情報や、画像、または名称と比較する。そして、現在位置と特定の場所が一致する場合、判断部34は、HMD1の現在位置に対応するコンテンツがコンテンツDB35に有ると判断する。判断部34は、判断結果を通信部36からHMD1に送信する。
判断部34は、HMD1から送信された現在位置に対応するコンテンツが、コンテンツDB35に有るか否かを判断する。具体的には、判断部34は、HMD1から送信された現在位置を示す緯度経度情報や、撮影画像、または名称等を、コンテンツDB35に格納されている各シーン(映像コンテンツ)に関連付けられた特定の場所を示す位置情報や、画像、または名称と比較する。そして、現在位置と特定の場所が一致する場合、判断部34は、HMD1の現在位置に対応するコンテンツがコンテンツDB35に有ると判断する。判断部34は、判断結果を通信部36からHMD1に送信する。
(通信部)
通信部36は、HMD1との間でデータの送受信を行うための通信モジュールである。例えば、本実施形態による通信部36は、HMD1から現在位置のデータを受信する。また、通信部36は、判断部34による判断結果や、CPU31によりコンテンツDB35から抽出された、HMD1の現在位置に対応するコンテンツをHMD1に送信する。
通信部36は、HMD1との間でデータの送受信を行うための通信モジュールである。例えば、本実施形態による通信部36は、HMD1から現在位置のデータを受信する。また、通信部36は、判断部34による判断結果や、CPU31によりコンテンツDB35から抽出された、HMD1の現在位置に対応するコンテンツをHMD1に送信する。
(CPU、ROM、およびRAM)
CPU10は、サーバ30の各構成を制御する制御部である。CPU10は、ROM11に記憶されているソフトウェアプログラムに従って、各構成を制御する。より具体的には、CPU10は、例えば判断部34により、現在位置に対応するコンテンツがコンテンツDB35に有ると判断された場合、コンテンツDB35から該当コンテンツ(該当シーン)を抽出し、通信部36からHMD1に送信するよう制御する。
CPU10は、サーバ30の各構成を制御する制御部である。CPU10は、ROM11に記憶されているソフトウェアプログラムに従って、各構成を制御する。より具体的には、CPU10は、例えば判断部34により、現在位置に対応するコンテンツがコンテンツDB35に有ると判断された場合、コンテンツDB35から該当コンテンツ(該当シーン)を抽出し、通信部36からHMD1に送信するよう制御する。
また、ROM11には、CPU10が各制御を実行するためソフトウェアプログラム等が記憶されている。また、RAM12は、CPU10がROM11に記憶されているソフトウェアプログラムに従って各制御を実行する際に、ワークエリアとして用いられる。
[2−1−3.通知処理]
続いて、本実施形態のHMD1による通知処理について図6〜図9を参照して説明する。本実施形態では、現在位置に対応する1のコンテンツを通知し、ユーザのアクションに応じて再生する場合の動作処理について説明する。
続いて、本実施形態のHMD1による通知処理について図6〜図9を参照して説明する。本実施形態では、現在位置に対応する1のコンテンツを通知し、ユーザのアクションに応じて再生する場合の動作処理について説明する。
図6は、本実施形態のHMD1による通知処理を示すフローチャートである。図6に示すように、まず、ステップS100において、HMD1の該当シーン取得部100は、現在位置に対応する該当シーンのリストをサーバ30から取得する。かかる処理の詳細は、図7に示す。図7は、本実施形態による該当シーンのリスト取得処理を示すフローチャートである。
図7に示すように、ステップS103において、HMD1の位置特定部10aは、現在位置を特定する。また、HMD1は、特定した現在位置のデータをサーバ30に送信して現在位置に対応する該当シーンを要求する。
次に、ステップS106において、サーバ30の判断部34は、HMD1から受信した現在位置のデータに基づいて、コンテンツDB35を照合し、現在位置に対応する該当シーンが有るか否かを判断する。
次いで、判断部34により該当シーンがあると判断された場合(S109/YES)、ステップS112において、CPU31は、該当シーンのリスト作成を行う。具体的には、CPU31は、該当シーンのリストとして、1以上の該当シーンのサムネイル画像一覧や、1以上の該当シーンを含む映像のタイトル画像一覧を作成してもよい。また、CPU31は、作成した該当シーンのリストを通信部36からHMD1に送信する。
一方、判断部34により該当シーンがないと判断された場合(S109/NO)、ステップS115において、CPU31は、該当シーンのリストが無いことをHMD1に通知してもよい。
そして、ステップS118において、HMD1は、動作終了の指示があるまで、継続的にS103〜S115の処理を繰り返す。
以上、現在位置に対応する該当シーンのリスト取得処理について詳述した。なお、ここでは一例として該当シーンのリストの取得を挙げているが、HMD1の該当シーン取得部100は、該当シーンのリストの他、例えば該当シーンが有ることを示す判断結果の取得や、該当シーンのデータ自体の取得であってもよい。
次に、図6のステップS123において、HMD1は、該当シーンのリストを取得するまで、上記S100の処理を繰り返す。
次いで、該当シーンのリストを取得できた場合(S123/YES)、HMD1の通知部110は、現在位置に対応するコンテンツ(該当シーン)があることをユーザに通知する。ユーザへの通知方法は上述したように、画面表示、音声、振動、または圧力による通知等が挙げられるが、ここでは一例として音声および画面表示による通知を行う。具体的には、ステップS126において、通知部110は、例えば該当シーンを含む作品のメインテーマ曲を音声出力部5から低音量で再生してもよい。これにより、ユーザがHMD1を装着して街を歩き、あるドラマの撮影地を通ると、そのドラマの主題歌が音声出力部5から聞こえてきて、ユーザは現在居る場所で撮影されたドラマが有ることが分かる。
次いで、ステップS129において、通知部110は、例えば該当シーンのサムネイル画像や、該当シーンを含む作品のタイトル画像を、表示部2の一部に実空間に重ねてAR表示し、ユーザに通知してもよい。ここで、図8に、本実施形態によるAR表示の具体例を示す。図8では、HMD1を装着するユーザの視線方向に見える景色を図示している。図8の上側の図に示すように、HMD1の表示部2がスルー状態である場合、ユーザは、実空間の景色を表示部2を介して見ることができるので、HMD1を眼鏡のように常時装着することが可能である。そして、HMD1を装着したまま移動し、あるドラマの撮影地を通ると、図8の下側の図に示すように、現在地が撮影地のドラマのタイトル画像200が表示部2にAR表示される。これにより、ユーザは、現在居る場所で撮影されたドラマが有ることが分かる。
次に、S132において、HMD1の再生制御部120は、通知部110による通知に対するユーザのアクションを受け付け、再生コマンド(再生指示)を検出する。ユーザのアクションは、上述したように、視線入力、音声入力、またはボタン/スイッチ操作が挙げられるが、ここでは、例えば視線入力により該当シーンを再生する場合について図9を参照して説明する。
図9は、視線入力により該当シーンの再生を開始する場合について説明するための図である。ユーザの視線検出は、上述したように、HMD1の内側にユーザの眼を撮影するよう配置された撮像レンズ(不図示)により検出される。
そして、図9の上側の図に示すように、HMD1は、表示部2に、ユーザの視線検出の結果をマークEとして表示する。ユーザは、表示部2に表示された現在位置に対応するコンテンツのタイトル画像200を所定時間見つめることで、再生コマンドを入力する。すなわち、HMD1の再生制御部120は、視線検出の結果であるマークEが表示部2にAR表示されたタイトル画像200に所定時間以上重なった場合、再生コマンドとして検出する。
次いで、再生コマンドが検出された場合(S132/YES)、S135において、HMD1の再生制御部120は、現在位置に対応する該当シーンを再生する。例えば、図9の下側の図に示すように、再生制御部120は、現在位置で撮影されたドラマの1シーン(動画像210)を表示部2に再生するよう制御する。また、再生制御部120は、かかる1シーンの音声を、音声出力部5から大音量で再生してもよい。
そして、ステップS138において、動作終了指示があるまで、上記S100〜S135の処理が繰り返される。
一方、再生コマンドが検出されない場合(S132/NO)、ステップS100に戻る。再生コマンドが検出されない場合とは、通知後、ユーザのアクションが所定時間無かった場合や、キャンセルコマンドが検出された場合である。キャンセルコマンドは様々考え得るが、例えば、手を前方に払うジェスチャや、口で吹くジェスチャ(例えば音声認識により検出され得る)であってもよい。この場合、再生制御部120は、通知した該当シーンの再生は行わない。また、動作制御部10bは、通知部110によりAR表示された該当シーンのタイトル画像200が、キャンセルコマンドに応じて遠くに飛ばされるアニメーションを提示して、キャンセルコマンドを受け付けたことを明示してもよい。
以上、第1の実施形態による通知処理について詳細に説明した。なお、図9に示す例では、再生コマンドを視線入力のみで入力しているが、本実施形態はこれに限定されず、視線入力と、ジェスチャまたはボタン操作等、複数の操作入力方法を組み合わせてもよい。例えば、再生制御部120は、ユーザの視線検出の結果として表示されるマークEが、所望のタイトル画像200に重なり、かつジェスチャやボタン操作により確定指示があった場合、再生コマンドとして検出してもよい。
また、図9に示す例では、タイトル画像200をAR表示しているが、通知部110は、この他、例えばタイトルをテキスト表示してもよい。
また、ユーザが該当シーンを視聴中であっても、ユーザが移動して新たな現在位置が特定され、当該現在位置に対応するコンテンツが有る場合、通知部110は、ユーザに通知を行う。例えば、再生する該当シーンの音声に、通知する該当シーンの音声(メインテーマ曲等)を重畳させてもよいし、再生する該当シーンの表示に、通知する該当シーンの表示(タイトル画面等)を重畳させてもよい。
<2−2.第2の実施形態>
上述した第1の実施形態では、現在位置に対応する1のコンテンツを通知する場合について説明したが、本開示はこれに限定されず、例えば複数のコンテンツを通知することも可能である。以下、第2の実施形態として、複数のコンテンツを通知する場合の動作処理について図10〜図14を参照して説明する。
上述した第1の実施形態では、現在位置に対応する1のコンテンツを通知する場合について説明したが、本開示はこれに限定されず、例えば複数のコンテンツを通知することも可能である。以下、第2の実施形態として、複数のコンテンツを通知する場合の動作処理について図10〜図14を参照して説明する。
[2−1−1.動作制御部の構成]
第2の実施形態によるHMDの構成は、システムコントローラ10が動作制御部10b’を有する点以外は、図1および図2を参照して説明した第1の実施形態によるHMD1の構成と同様である。以下、図10を参照して第2の実施形態による動作制御部10b’の構成について説明する。
第2の実施形態によるHMDの構成は、システムコントローラ10が動作制御部10b’を有する点以外は、図1および図2を参照して説明した第1の実施形態によるHMD1の構成と同様である。以下、図10を参照して第2の実施形態による動作制御部10b’の構成について説明する。
図10は、第2の実施形態による動作制御部10b’の構成を示す図である。図10に示すように、動作制御部10b’は、該当シーン取得部100、通知部110、再生制御部120、および優先順位決定部130を有する。
該当シーン取得部100は、第1の実施形態と同様に、位置特定部10aにより特定されたHMD1の現在位置に対応するコンテンツである該当シーンをサーバ30から取得する。また、該当シーン取得部100は、取得した該当シーンを通知部110と優先順位決定部130に出力する。
優先順位決定部130は、該当シーンが複数ある場合、各該当シーンの優先順位を決定する。具体的には、例えば優先順位決定部130は、予めストレージ部25に記憶されたユーザの嗜好情報に基づいて、ユーザの好みに合う該当シーンから順に優先順位を決定してもよい。または、優先順位決定部130は、ユーザの視聴履歴に基づいて、ユーザがまだ視聴していない該当シーンから順に優先順位を決定してもよい。
または、優先順位決定部130は、ユーザの嗜好情報および視聴履歴に基づいて、ユーザがまだ視聴していない該当シーンから順に優先順位を決定してもよい。例えば、優先順位決定部130は、ユーザが好きな俳優が出演していて、まだ視聴していないドラマや映画を、より高い優先順位としてもよい。
そして、優先順位決定部130は、決定した優先順位のデータを通知部110に出力する。
通知部110は、第1の実施形態と同様に、サーバ30により該当シーンがあると判断された場合(該当シーン取得部100により該当シーンを取得した場合を含む)、現在位置に対応するコンテンツがあることをユーザに通知する。ここで、複数の該当シーンがある場合、通知部110は、優先順位決定部130により決定された優先順位に従って、優先順位上位の(優先順位が高い)該当シーンから順にユーザに通知してもよい。
再生制御部120は、第1の実施形態と同様に、通知部110による通知に対するユーザのアクションに応じて、現在位置に対応する該当シーンの再生を開始する。また、再生制御部120は、ユーザのアクションに応じて、現在位置に対応する複数の該当シーンを、優先順位が高いものから順に再生してもよい。
以上、本実施形態によるHMD1の動作制御部10b’について詳細に説明した。なお、本実施形態によるサーバは、図4を参照して説明した第1の実施形態によるサーバ30と同様である。続いて、第2の実施形態による通知処理について図11〜図14を参照して説明する。
[2−1−2.通知処理]
図11は、第2の実施形態によるHMD1による通知処理を示すフローチャートである。図11に示すように、まずステップS100およびS123において、図6に示す同ステップの処理を行う。
図11は、第2の実施形態によるHMD1による通知処理を示すフローチャートである。図11に示すように、まずステップS100およびS123において、図6に示す同ステップの処理を行う。
次いで、ステップS200において、HMD1の優先順位決定部130は、複数の該当シーンの優先順位を決定する。優先順位決定処理の詳細は、図12に示す。図12は、本実施形態による優先順位決定処理を示すフローチャートである。
図12に示すように、ステップS203において、HMD1の優先順位決定部130は、該当シーン取得部100から、該当シーンのリストを取得する。
次に、ステップS206において、優先順位決定部130は、リストに含まれる複数の該当シーンの優先順位を決定するために、ユーザの嗜好情報または視聴履歴を照合する。なお、ユーザの嗜好情報および視聴履歴は、HMD1のストレージ部25に記憶されているデータでもよいし、外部機器から取得したデータでもよい。
そして、ステップS209において、優先順位決定部130は、リストに含まれる複数の該当シーンの優先順位を決定する。また、優先順位決定部130は、決定した優先順位のデータを通知部110に出力する。
次いで、図11のステップS127およびS130において、HMD1の通知部110は、現在位置に対応する複数の該当シーンを優先順位に従ってユーザに通知する。具体的には、ステップS127において、例えば通知部110は、優先順位上位の該当シーンを含む各作品のメインテーマ曲を、音声出力部5から低音量で順に再生してもよい。
また、ステップS130において、通知部110は、複数の該当シーンの各サムネイル画像や、複数の該当シーンを含む各作品のタイトル画像を、表示部2の一部に実空間に重ねてAR表示し、ユーザに通知する。ここで、図13に、本実施形態によるAR表示の具体例を示す。図13では、図8および図9と同様に、HMD1を装着するユーザの視線方向に見える景色を図示している。図13の上側の図に示すように、HMD1の表示部2がスルー状態である場合、ユーザは、実空間の景色を表示部2を介して見ることができるので、HMD1を眼鏡のように常時装着することが可能である。そして、HMD1を装着したまま移動すると、図13の下側の図に示すように、現在地が撮影地の複数のドラマや映画、CM(Commercial Message)等のタイトル画像200A〜200Cが表示部2にAR表示される。これにより、ユーザは、現在居る場所で撮影されたドラマや映画、CM等が有ることが分かる。
なお、この際、通知部110は、優先順位決定部130により決定された各該当シーンの優先順位に従って、優先順位の上位所定数の該当シーンの通知を行う。図13に示す例では、上位3つの該当シーンのタイトル画像200A〜200Cが表示されている。
また、通知部110は、ユーザにより次の該当シーンの通知を指示された場合、または自動的に、次に優先順位が高い該当シーンを通知してもよい。
続いて、ステップS132において、HMD1の再生制御部120は、通知部110による通知に対するユーザのアクションを受け付け、再生コマンド(再生指示)を検出する。ここでは、例えば音声入力により所望の該当シーンを再生する場合について図14を参照して説明する。
図14は、音声入力により所望の該当シーンの再生を開始する場合について説明するための図である。ユーザの音声は、HMD1の音声入力部6により集音され、音声入出力コントロール28を介して音声信号処理部16に出力され、音声信号処理部16において処理される。ここで、音声信号処理部16は、ユーザの音声を認識し、コマンドとして検出することができる。
したがって、図14の上側の図に示すように、HMD1の通知部110が、表示部2に複数の該当シーンのタイトル画像200A〜200Cを表示している場合に、ユーザが、例えば「3番を再生」と発声することで、再生コマンドを入力することができる。すなわち、HMD1の再生制御部120は、音声入力部6により集音されたユーザの音声を、音声信号処理部16において音声認識した結果、特定の該当シーンの再生指示が認識された場合、再生コマンドとして検出する。
次いで、再生コマンドが検出された場合(S132/YES)、S135において、HMD1の再生制御部120は、現在位置に対応する該当シーンを再生する。例えば、図14の下側の図に示すように、再生制御部120は、ユーザに指示された3番(タイトル画像200C)の、現在位置で撮影されたCM(動画像220)を表示部2に再生するよう制御する。また、再生制御部120は、かかるCMの音声を、音声出力部5から大音量で再生してもよい。
そして、ステップS138において、動作終了指示があるまで、上記S100〜S135の処理が繰り返される。
一方、再生コマンドが検出されない場合(S132/NO)、ステップS100に戻る。再生コマンドが検出されない場合とは、通知後、ユーザのアクションが所定時間無かった場合や、キャンセルコマンドが検出された場合である。
以上、第2の実施形態による通知処理について詳細に説明した。なお、上記S132において、ユーザが「連続再生」と発声し、これが再生コマンドとして検出された場合、再生制御部120は、上記S135において、通知した複数の該当シーンを、優先順位に従って順に連続して再生してもよい。
また、図14に示す例では、再生コマンドを音声入力する場合について説明したが、ユーザによる再生コマンドの入力方法(ユーザのアクション)はこれに限定されず、図9に示す例のように、再生コマンドを視線入力してもよい。また、この場合、再生制御部120は、ユーザの視線検出の結果として表示されるマークEが、所望のタイトル画像200に重なり、かつジェスチャやボタン操作により確定指示があった場合、再生コマンドとして検出してもよい。
<<3.まとめ>>
上述したように、本実施形態による通知システム(情報処理システム)では、HMD1(ユーザ端末)の現在位置と、特定の場所と関連付けられたコンテンツ(動画、静止画、テキスト等)を照合することで、現在位置に対応するコンテンツを通知することができる。また、これにより、実際に現在ユーザが居る場所(実世界)と、映像コンテンツの名場面や名シーンの世界をリンクさせてユーザに提供することができるので、映像コンテンツのエンターテインメント性がより向上する。
上述したように、本実施形態による通知システム(情報処理システム)では、HMD1(ユーザ端末)の現在位置と、特定の場所と関連付けられたコンテンツ(動画、静止画、テキスト等)を照合することで、現在位置に対応するコンテンツを通知することができる。また、これにより、実際に現在ユーザが居る場所(実世界)と、映像コンテンツの名場面や名シーンの世界をリンクさせてユーザに提供することができるので、映像コンテンツのエンターテインメント性がより向上する。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、本実施形態によるHMD1は、近隣に、名シーンや名場面等のコンテンツが関連付けられている特定の場所がある場合、その特定の場所の方向を表示部2にAR表示してユーザを誘導してもよい。
また、HMD1は、撮像レンズ3aにより実空間の写真撮影が行われた場合、撮影した場所(現在位置)に対応するコンテンツをサーバ30に問い合わせて、ユーザに通知してもよい。
また、HMD1の通知部110が、振動または圧力等によりユーザに通知した場合、再生制御部120は、ユーザによるアクションに応じて該当シーンの再生を開始してもよいし、一旦該当シーンを明示した後、再生コマンドが入力された場合に再生を開始してもよい。該当シーンの明示とは、例えば該当シーンの作品のタイトルを表示したり、該当シーンの作品のメインテーマ曲を再生することである。
また、HMD1は、該当シーンの通知後または該当シーンの再生後に、コンテンツ配信サービスへアクセスしたり、コンテンツ配信サービスへのアクセスをユーザに提示することで、該当シーンの作品(映像コンテンツ等)の購入を促すことができる。
また、HMD1は、ユーザの視界が、現在位置に対応する該当シーンの画角に近付くよう、ユーザを誘導することも可能である。具体的には、例えばHMD1が、GPS受信部21により取得された現在位置情報(緯度経度高度)や、撮像レンズ3aによりユーザの視線方向を撮影した撮影画像に基づいて、該当シーンの画角に近付くよう、音声やAR表示により誘導する。音声やAR表示による誘導は、誘導方向(前後、左右、上下)を示す誘導の他、該当シーンに写る主要な建物等の輪郭線を表示部2にAR表示してもよい。ユーザは、表示部2にAR表示された輪郭線を、実空間の対象建物の輪郭に合うよう自ら動くことで、該当シーンの画角に近付くことができる。
また、HMD1は、現在位置を、撮影画像のみならず、位置情報や名称等で現在位置を特定できるので、現在では消失した街並みや、変化した街並みで、昔撮影された映画やドラマの名シーン等を通知することができる。
また、上記各実施形態では、現在位置に対応するコンテンツとして、現在位置で撮影されたコンテンツ(映像、写真、テキスト)、または現在位置が舞台となっているコンテンツを通知するが、本開示による通知処理はこれに限定されない。例えば、HMD1は、現在位置で撮影予定のコンテンツがある場合、当該コンテンツ(タイトル等)をユーザに通知してもよい。
また、上述した各実施形態では、HMD1とサーバ30を有する通知システムについて説明しているが、本開示による通知システムはこれに限定されず、HMD1が、さらにサーバ30の主要構成を有して、本開示による通知システムを実行してもよい。すなわち、HMD1が、判断部34およびコンテンツDB35をさらに有することで、特に外部機器からコンテンツを取得する必要なく、現在位置に対応するコンテンツの通知処理を行うことができる。
なお、本技術は以下のような構成も取ることができる。
(1)
所定の場所を特定する名称、位置情報、および画像のうち少なくともいずれか一つと、特定のコンテンツとが関連付けられたデータベースと、
現在位置を特定する位置特定部と、
前記データベースに、前記現在位置に対応するコンテンツが有るか否かを判断する判断部と、
前記判断部により前記現在位置に対応するコンテンツが有ると判断されたとき、前記現在位置に対応するコンテンツが有ることをユーザに通知する通知部と、
前記通知部による通知に対するユーザのアクションに応じて、前記コンテンツの再生を開始する制御部と、
を備える、情報処理システム。
(2)
前記制御部は、前記現在位置に関連付けられたコンテンツの少なくとも一のシーンを再生させる、前記(1)に記載の情報処理システム。
(3)
前記制御部は、前記現在位置に関連付けられたコンテンツの複数のシーンを連続的に再生させる、前記(1)または(2)に記載の情報処理システム。
(4)
前記制御部は、ユーザの視聴履歴または嗜好情報の少なくともいずれかに応じて、複数のシーンに各々優先順位を付け、優先順位が高いシーンから順に再生させる、前記(1)〜(3)のいずれか1項に記載の情報処理システム。
(5)
前記通知部は、前記制御部により前記コンテンツが再生中であっても、前記位置特定部により特定された新たな現在位置に対応するコンテンツが有る場合、当該新たな現在位置に対応するコンテンツが有ることをユーザに通知する、前記(1)〜(4)のいずれか1項に記載の情報処理システム。
(6)
前記コンテンツは、動画、静止画、またはテキストである、前記(1)〜(5)のいずれか1項に記載の情報処理システム。
(7)
前記位置特定部は、現在地の名称、位置情報、および画像のうち少なくともいずれか一つにより現在位置を特定する、前記(1)〜(6)のいずれか1項に記載の情報処理システム。
(8)
前記名称は、住所、地名、施設名、または建物名である、前記(7)に記載の情報処理システム。
(9)
前記位置情報は、GPSを利用して測位される、前記(7)に記載の情報処理システム。
(10)
前記画像は、撮影部により撮影された撮影画像である、前記(7)に記載の情報処理システム。
(11)
前記通知部は、画面表示、音声、振動、圧力、発光、または温度変化により通知する、前記(1)〜(10)のいずれか1項に記載の情報処理システム。
(12)
前記通知に対するユーザのアクションは、視線入力、音声入力、ジェスチャ入力、またはボタン/スイッチ操作である、前記(1)〜(11)のいずれか1項に記載の情報処理システム。
(13)
前記情報処理システムは、サーバおよびユーザ端末を備え、
前記サーバは、前記データベースおよび前記判断部を有し、
前記ユーザ端末は、前記位置特定部、前記通知部、および前記制御部を有する、前記(1)〜(12)のいずれか1項に記載の情報処理システム。
(14)
前記ユーザ端末は、携帯電話端末、スマートフォン、携帯ゲーム装置、タブレット端末、PDA、ノートPC、デジタルカメラ、またはデジタルビデオカメラである、前記(13)に記載の情報処理システム。
(15)
前記ユーザ端末は、ヘッドマウントディスプレイ、または眼鏡型ディスプレイである、前記(13)に記載の情報処理システム。
(16)
現在位置を特定する位置特定部と、
所定の場所を特定する名称、位置情報、および画像のうち少なくともいずれか一つと、特定のコンテンツとが関連付けられたデータベースを有するサーバにより、当該データベースに前記現在位置に対応するコンテンツが有ると判断されたとき、前記現在位置に対応するコンテンツが有ることをユーザに通知する通知部と、
前記通知部による通知に対するユーザのアクションに応じて、前記コンテンツの再生を開始する制御部と、
を備える、情報処理装置。
(17)
コンピュータに、
現在位置を特定する位置特定部と、
所定の場所を特定する名称、位置情報、および画像のうち少なくともいずれか一つと、特定のコンテンツとが関連付けられたデータベースを有するサーバにより、当該データベースに前記現在位置に対応するコンテンツが有ると判断されたとき、前記現在位置に対応するコンテンツが有ることをユーザに通知する通知部と、
前記通知部による通知に対するユーザのアクションに応じて、前記コンテンツの再生を開始する制御部、
として機能させるための、プログラム。
(1)
所定の場所を特定する名称、位置情報、および画像のうち少なくともいずれか一つと、特定のコンテンツとが関連付けられたデータベースと、
現在位置を特定する位置特定部と、
前記データベースに、前記現在位置に対応するコンテンツが有るか否かを判断する判断部と、
前記判断部により前記現在位置に対応するコンテンツが有ると判断されたとき、前記現在位置に対応するコンテンツが有ることをユーザに通知する通知部と、
前記通知部による通知に対するユーザのアクションに応じて、前記コンテンツの再生を開始する制御部と、
を備える、情報処理システム。
(2)
前記制御部は、前記現在位置に関連付けられたコンテンツの少なくとも一のシーンを再生させる、前記(1)に記載の情報処理システム。
(3)
前記制御部は、前記現在位置に関連付けられたコンテンツの複数のシーンを連続的に再生させる、前記(1)または(2)に記載の情報処理システム。
(4)
前記制御部は、ユーザの視聴履歴または嗜好情報の少なくともいずれかに応じて、複数のシーンに各々優先順位を付け、優先順位が高いシーンから順に再生させる、前記(1)〜(3)のいずれか1項に記載の情報処理システム。
(5)
前記通知部は、前記制御部により前記コンテンツが再生中であっても、前記位置特定部により特定された新たな現在位置に対応するコンテンツが有る場合、当該新たな現在位置に対応するコンテンツが有ることをユーザに通知する、前記(1)〜(4)のいずれか1項に記載の情報処理システム。
(6)
前記コンテンツは、動画、静止画、またはテキストである、前記(1)〜(5)のいずれか1項に記載の情報処理システム。
(7)
前記位置特定部は、現在地の名称、位置情報、および画像のうち少なくともいずれか一つにより現在位置を特定する、前記(1)〜(6)のいずれか1項に記載の情報処理システム。
(8)
前記名称は、住所、地名、施設名、または建物名である、前記(7)に記載の情報処理システム。
(9)
前記位置情報は、GPSを利用して測位される、前記(7)に記載の情報処理システム。
(10)
前記画像は、撮影部により撮影された撮影画像である、前記(7)に記載の情報処理システム。
(11)
前記通知部は、画面表示、音声、振動、圧力、発光、または温度変化により通知する、前記(1)〜(10)のいずれか1項に記載の情報処理システム。
(12)
前記通知に対するユーザのアクションは、視線入力、音声入力、ジェスチャ入力、またはボタン/スイッチ操作である、前記(1)〜(11)のいずれか1項に記載の情報処理システム。
(13)
前記情報処理システムは、サーバおよびユーザ端末を備え、
前記サーバは、前記データベースおよび前記判断部を有し、
前記ユーザ端末は、前記位置特定部、前記通知部、および前記制御部を有する、前記(1)〜(12)のいずれか1項に記載の情報処理システム。
(14)
前記ユーザ端末は、携帯電話端末、スマートフォン、携帯ゲーム装置、タブレット端末、PDA、ノートPC、デジタルカメラ、またはデジタルビデオカメラである、前記(13)に記載の情報処理システム。
(15)
前記ユーザ端末は、ヘッドマウントディスプレイ、または眼鏡型ディスプレイである、前記(13)に記載の情報処理システム。
(16)
現在位置を特定する位置特定部と、
所定の場所を特定する名称、位置情報、および画像のうち少なくともいずれか一つと、特定のコンテンツとが関連付けられたデータベースを有するサーバにより、当該データベースに前記現在位置に対応するコンテンツが有ると判断されたとき、前記現在位置に対応するコンテンツが有ることをユーザに通知する通知部と、
前記通知部による通知に対するユーザのアクションに応じて、前記コンテンツの再生を開始する制御部と、
を備える、情報処理装置。
(17)
コンピュータに、
現在位置を特定する位置特定部と、
所定の場所を特定する名称、位置情報、および画像のうち少なくともいずれか一つと、特定のコンテンツとが関連付けられたデータベースを有するサーバにより、当該データベースに前記現在位置に対応するコンテンツが有ると判断されたとき、前記現在位置に対応するコンテンツが有ることをユーザに通知する通知部と、
前記通知部による通知に対するユーザのアクションに応じて、前記コンテンツの再生を開始する制御部、
として機能させるための、プログラム。
1 HMD(ヘッドマウンドディスプレイ)
2 表示部
3 撮像部
4 照明部
5 音声出力部
6 音声入力部
10 システムコントローラ
10a 位置特定部
10b、10b’ 動作制御部
100 該当シーン取得部
110 通知部
120 再生制御部
130 優先順位決定部
11 撮像制御部
12 表示画像処理部
13 表示駆動部
14 表示制御部
15 撮像信号処理部
16 音声信号処理部
17 画像解析部
18 照明制御部
19 周囲環境センサ
20 撮像対象センサ
21 GPS受信部
22 日時計数部
25 ストレージ部
26 通信部
27 画像入出力コントロール
28 音声入出力コントロール
29 音声合成部
30 サーバ
31 CPU
32 ROM
33 RAM
34 判断部
35 コンテンツDB
36 通信部
2 表示部
3 撮像部
4 照明部
5 音声出力部
6 音声入力部
10 システムコントローラ
10a 位置特定部
10b、10b’ 動作制御部
100 該当シーン取得部
110 通知部
120 再生制御部
130 優先順位決定部
11 撮像制御部
12 表示画像処理部
13 表示駆動部
14 表示制御部
15 撮像信号処理部
16 音声信号処理部
17 画像解析部
18 照明制御部
19 周囲環境センサ
20 撮像対象センサ
21 GPS受信部
22 日時計数部
25 ストレージ部
26 通信部
27 画像入出力コントロール
28 音声入出力コントロール
29 音声合成部
30 サーバ
31 CPU
32 ROM
33 RAM
34 判断部
35 コンテンツDB
36 通信部
Claims (17)
- 所定の場所を特定する名称、位置情報、および画像のうち少なくともいずれか一つと、特定のコンテンツとが関連付けられたデータベースと、
現在位置を特定する位置特定部と、
前記データベースに、前記現在位置に対応するコンテンツが有るか否かを判断する判断部と、
前記判断部により前記現在位置に対応するコンテンツが有ると判断されたとき、前記現在位置に対応するコンテンツが有ることをユーザに通知する通知部と、
前記通知部による通知に対するユーザのアクションに応じて、前記コンテンツの再生を開始する制御部と、
を備える、情報処理システム。 - 前記制御部は、前記現在位置に関連付けられたコンテンツの少なくとも一のシーンを再生させる、請求項1に記載の情報処理システム。
- 前記制御部は、前記現在位置に関連付けられたコンテンツの複数のシーンを連続的に再生させる、請求項1に記載の情報処理システム。
- 前記制御部は、ユーザの視聴履歴または嗜好情報の少なくともいずれかに応じて、複数のシーンに各々優先順位を付け、優先順位が高いシーンから順に再生させる、請求項1に記載の情報処理システム。
- 前記通知部は、前記制御部により前記コンテンツが再生中であっても、前記位置特定部により特定された新たな現在位置に対応するコンテンツが有る場合、当該新たな現在位置に対応するコンテンツが有ることをユーザに通知する、請求項1に記載の情報処理システム。
- 前記コンテンツは、動画、静止画、またはテキストである、請求項1に記載の情報処理システム。
- 前記位置特定部は、現在地の名称、位置情報、および画像のうち少なくともいずれか一つにより現在位置を特定する、請求項1に記載の情報処理システム。
- 前記名称は、住所、地名、施設名、または建物名である、請求項7に記載の情報処理システム。
- 前記位置情報は、GPSを利用して測位される、請求項7に記載の情報処理システム。
- 前記画像は、撮影部により撮影された撮影画像である、請求項7に記載の情報処理システム。
- 前記通知部は、画面表示、音声、振動、圧力、発光、または温度変化により通知する、請求項1に記載の情報処理システム。
- 前記通知に対するユーザのアクションは、視線入力、音声入力、ジェスチャ入力、またはボタン/スイッチ操作である、請求項1に記載の情報処理システム。
- 前記情報処理システムは、サーバおよびユーザ端末を備え、
前記サーバは、前記データベースおよび前記判断部を有し、
前記ユーザ端末は、前記位置特定部、前記通知部、および前記制御部を有する、請求項1に記載の情報処理システム。 - 前記ユーザ端末は、携帯電話端末、スマートフォン、携帯ゲーム装置、タブレット端末、PDA、ノートPC、デジタルカメラ、またはデジタルビデオカメラである、請求項13に記載の情報処理システム。
- 前記ユーザ端末は、ヘッドマウントディスプレイ、または眼鏡型ディスプレイである、請求項13に記載の情報処理システム。
- 現在位置を特定する位置特定部と、
所定の場所を特定する名称、位置情報、および画像のうち少なくともいずれか一つと、特定のコンテンツとが関連付けられたデータベースを有するサーバにより、当該データベースに前記現在位置に対応するコンテンツが有ると判断されたとき、前記現在位置に対応するコンテンツが有ることをユーザに通知する通知部と、
前記通知部による通知に対するユーザのアクションに応じて、前記コンテンツの再生を開始する制御部と、
を備える、情報処理装置。 - コンピュータに、
現在位置を特定する位置特定部と、
所定の場所を特定する名称、位置情報、および画像のうち少なくともいずれか一つと、特定のコンテンツとが関連付けられたデータベースを有するサーバにより、当該データベースに前記現在位置に対応するコンテンツが有ると判断されたとき、前記現在位置に対応するコンテンツが有ることをユーザに通知する通知部と、
前記通知部による通知に対するユーザのアクションに応じて、前記コンテンツの再生を開始する制御部、
として機能させるための、プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012240693A JP2014090386A (ja) | 2012-10-31 | 2012-10-31 | 情報処理システム、情報処理装置、およびプログラム |
CN201310506767.7A CN103793360A (zh) | 2012-10-31 | 2013-10-24 | 信息处理系统、信息处理设备和存储介质 |
US14/062,191 US20140123015A1 (en) | 2012-10-31 | 2013-10-24 | Information processing system, information processing apparatus, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012240693A JP2014090386A (ja) | 2012-10-31 | 2012-10-31 | 情報処理システム、情報処理装置、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014090386A true JP2014090386A (ja) | 2014-05-15 |
Family
ID=50548663
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012240693A Pending JP2014090386A (ja) | 2012-10-31 | 2012-10-31 | 情報処理システム、情報処理装置、およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20140123015A1 (ja) |
JP (1) | JP2014090386A (ja) |
CN (1) | CN103793360A (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016184296A (ja) * | 2015-03-26 | 2016-10-20 | 富士通株式会社 | 表示制御方法、表示制御プログラム、及び情報処理装置 |
WO2018066191A1 (ja) * | 2016-10-07 | 2018-04-12 | ソニー株式会社 | サーバ、クライアント端末、制御方法、および記憶媒体 |
JP6366808B1 (ja) * | 2017-11-10 | 2018-08-01 | 株式会社NewsTV | 拡張現実映像提供システム |
JP2018164223A (ja) * | 2017-03-27 | 2018-10-18 | 東芝情報システム株式会社 | 表示システム |
KR20190107012A (ko) | 2017-01-16 | 2019-09-18 | 소니 주식회사 | 정보 처리 장치, 정보 처리 방법, 및 프로그램 |
JP2020527771A (ja) * | 2017-07-17 | 2020-09-10 | グーグル エルエルシー | メディアコンテンツのプレビューを提示するための方法、システム、および媒体 |
WO2021079407A1 (ja) * | 2019-10-21 | 2021-04-29 | マクセル株式会社 | 情報表示装置 |
WO2021084756A1 (ja) * | 2019-11-01 | 2021-05-06 | 日本電信電話株式会社 | 拡張現実告知情報配信システムとその配信制御装置、方法およびプログラム |
US12131500B2 (en) | 2016-12-29 | 2024-10-29 | Magic Leap, Inc. | Systems and methods for augmented reality |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2619749A4 (en) * | 2010-09-21 | 2017-11-15 | 4IIII Innovations Inc. | Head-mounted peripheral vision display systems and methods |
CN105659310B (zh) | 2013-08-13 | 2021-02-26 | 飞利斯有限公司 | 电子显示区域的优化 |
WO2015031426A1 (en) | 2013-08-27 | 2015-03-05 | Polyera Corporation | Flexible display and detection of flex state |
CN105793781B (zh) | 2013-08-27 | 2019-11-05 | 飞利斯有限公司 | 具有可挠曲电子构件的可附接装置 |
WO2015038684A1 (en) * | 2013-09-10 | 2015-03-19 | Polyera Corporation | Attachable article with signaling, split display and messaging features |
WO2015100224A1 (en) | 2013-12-24 | 2015-07-02 | Polyera Corporation | Flexible electronic display with user interface based on sensed movements |
KR20160103073A (ko) | 2013-12-24 | 2016-08-31 | 폴리에라 코퍼레이션 | 가요성 전자 부품용 지지대 구조물 |
KR20160103083A (ko) | 2013-12-24 | 2016-08-31 | 폴리에라 코퍼레이션 | 탈부착형 2차원 플렉서블 전자 기기용 지지 구조물 |
US20150227245A1 (en) | 2014-02-10 | 2015-08-13 | Polyera Corporation | Attachable Device with Flexible Electronic Display Orientation Detection |
WO2015184045A2 (en) | 2014-05-28 | 2015-12-03 | Polyera Corporation | Device with flexible electronic components on multiple surfaces |
WO2016082063A1 (zh) * | 2014-11-24 | 2016-06-02 | 潘有程 | 一种3d显示头盔控制装置 |
WO2016138356A1 (en) | 2015-02-26 | 2016-09-01 | Polyera Corporation | Attachable device having a flexible electronic component |
CN105915990B (zh) | 2016-05-25 | 2022-11-15 | 歌尔光学科技有限公司 | 一种虚拟现实头盔及其使用方法 |
WO2017203750A1 (ja) * | 2016-05-25 | 2017-11-30 | 株式会社コーエーテクモゲームス | ゲーム装置、及びゲーム制御方法 |
US20180300916A1 (en) * | 2017-04-14 | 2018-10-18 | Facebook, Inc. | Prompting creation of a networking system communication with augmented reality elements in a camera viewfinder display |
CN107229448A (zh) * | 2017-06-30 | 2017-10-03 | 联想(北京)有限公司 | 音频播放方法及电子设备 |
US11792484B2 (en) * | 2017-09-29 | 2023-10-17 | Honda Motor Co., Ltd. | Information providing system, information providing method and management apparatus for information providing system for providing information obtained through a robot |
CN109407312A (zh) * | 2018-09-27 | 2019-03-01 | 深圳奇迹智慧网络有限公司 | 一种头戴式显示设备 |
JP6607589B1 (ja) * | 2019-03-29 | 2019-11-20 | 株式会社 情報システムエンジニアリング | 情報提供システム及び情報提供方法 |
CN115904303A (zh) * | 2021-05-21 | 2023-04-04 | 荣耀终端有限公司 | 一种播放声音的方法及设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100306825A1 (en) * | 2009-05-27 | 2010-12-02 | Lucid Ventures, Inc. | System and method for facilitating user interaction with a simulated object associated with a physical location |
KR101657565B1 (ko) * | 2010-04-21 | 2016-09-19 | 엘지전자 주식회사 | 증강 원격제어장치 및 그 동작 방법 |
US20120212484A1 (en) * | 2010-02-28 | 2012-08-23 | Osterhout Group, Inc. | System and method for display content placement using distance and location information |
JP2011217197A (ja) * | 2010-03-31 | 2011-10-27 | Sony Corp | 電子機器、再生制御システム、再生制御方法及びプログラム |
GB201108709D0 (en) * | 2011-05-24 | 2011-07-06 | Corethree Ltd | Core engine |
-
2012
- 2012-10-31 JP JP2012240693A patent/JP2014090386A/ja active Pending
-
2013
- 2013-10-24 US US14/062,191 patent/US20140123015A1/en not_active Abandoned
- 2013-10-24 CN CN201310506767.7A patent/CN103793360A/zh active Pending
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016184296A (ja) * | 2015-03-26 | 2016-10-20 | 富士通株式会社 | 表示制御方法、表示制御プログラム、及び情報処理装置 |
US11283915B2 (en) | 2016-10-07 | 2022-03-22 | Sony Corporation | Server, client terminal, control method, and storage medium |
WO2018066191A1 (ja) * | 2016-10-07 | 2018-04-12 | ソニー株式会社 | サーバ、クライアント端末、制御方法、および記憶媒体 |
JP6992761B2 (ja) | 2016-10-07 | 2022-01-13 | ソニーグループ株式会社 | サーバ、クライアント端末、制御方法、記憶媒体、およびプログラム |
JPWO2018066191A1 (ja) * | 2016-10-07 | 2019-07-18 | ソニー株式会社 | サーバ、クライアント端末、制御方法、および記憶媒体 |
US11825012B2 (en) | 2016-10-07 | 2023-11-21 | Sony Group Corporation | Server, client terminal, control method, and storage medium |
US12131500B2 (en) | 2016-12-29 | 2024-10-29 | Magic Leap, Inc. | Systems and methods for augmented reality |
US10868977B2 (en) | 2017-01-16 | 2020-12-15 | Sony Corporation | Information processing apparatus, information processing method, and program capable of adaptively displaying a video corresponding to sensed three-dimensional information |
DE112017006836T5 (de) | 2017-01-16 | 2019-09-26 | Sony Corporation | Informationsverarbeitungsgerät, informationsverarbeitungsverfahren und programm |
KR20190107012A (ko) | 2017-01-16 | 2019-09-18 | 소니 주식회사 | 정보 처리 장치, 정보 처리 방법, 및 프로그램 |
JP2018164223A (ja) * | 2017-03-27 | 2018-10-18 | 東芝情報システム株式会社 | 表示システム |
JP2020527771A (ja) * | 2017-07-17 | 2020-09-10 | グーグル エルエルシー | メディアコンテンツのプレビューを提示するための方法、システム、および媒体 |
US12001645B2 (en) | 2017-07-17 | 2024-06-04 | Google Llc | Methods, systems, and media for presenting media content previews |
US11474661B2 (en) | 2017-07-17 | 2022-10-18 | Google Llc | Methods, systems, and media for presenting media content previews |
JP2019087180A (ja) * | 2017-11-10 | 2019-06-06 | 株式会社NewsTV | 拡張現実映像提供システム |
JP6366808B1 (ja) * | 2017-11-10 | 2018-08-01 | 株式会社NewsTV | 拡張現実映像提供システム |
WO2021079407A1 (ja) * | 2019-10-21 | 2021-04-29 | マクセル株式会社 | 情報表示装置 |
JPWO2021084756A1 (ja) * | 2019-11-01 | 2021-05-06 | ||
WO2021084756A1 (ja) * | 2019-11-01 | 2021-05-06 | 日本電信電話株式会社 | 拡張現実告知情報配信システムとその配信制御装置、方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN103793360A (zh) | 2014-05-14 |
US20140123015A1 (en) | 2014-05-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2014090386A (ja) | 情報処理システム、情報処理装置、およびプログラム | |
JP6094190B2 (ja) | 情報処理装置および記録媒体 | |
JP7077376B2 (ja) | 撮像装置およびその制御方法 | |
JP6256339B2 (ja) | 制御装置および記憶媒体 | |
JP4281819B2 (ja) | 撮像画像データ処理装置、視聴情報生成装置、視聴情報生成システム、撮像画像データ処理方法、視聴情報生成方法 | |
JP6574937B2 (ja) | 通信システム、制御方法、および記憶媒体 | |
US10061349B2 (en) | Head mountable camera system | |
JP5228307B2 (ja) | 表示装置、表示方法 | |
JP6799660B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
JP2008096868A (ja) | 撮像表示装置、撮像表示方法 | |
CN107018307A (zh) | 摄像装置以及判定方法 | |
JP5915457B2 (ja) | 制御システムおよびプログラム | |
JP7267686B2 (ja) | 撮像装置及びその制御方法 | |
JP5664677B2 (ja) | 撮像表示装置、撮像表示方法 | |
JP2015126451A (ja) | 画像の記録方法、電子機器およびコンピュータ・プログラム | |
JP2013083994A (ja) | 表示装置、表示方法 | |
JP5971298B2 (ja) | 表示装置、表示方法 | |
JP6896818B2 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
JPWO2017208352A1 (ja) | 録画画像共有システム、方法及びプログラム |