Nothing Special   »   [go: up one dir, main page]

JP2012155655A - 情報処理装置、報知方法及びプログラム - Google Patents

情報処理装置、報知方法及びプログラム Download PDF

Info

Publication number
JP2012155655A
JP2012155655A JP2011016441A JP2011016441A JP2012155655A JP 2012155655 A JP2012155655 A JP 2012155655A JP 2011016441 A JP2011016441 A JP 2011016441A JP 2011016441 A JP2011016441 A JP 2011016441A JP 2012155655 A JP2012155655 A JP 2012155655A
Authority
JP
Japan
Prior art keywords
danger
user
information processing
unit
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011016441A
Other languages
English (en)
Inventor
Akihiko Kaino
彰彦 貝野
Yoshiaki Iwai
嘉昭 岩井
Kenichiro Oi
堅一郎 多井
Shunichi Honma
俊一 本間
Ka-Nyong Oh
嘉寧 呉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011016441A priority Critical patent/JP2012155655A/ja
Priority to CN2012100199567A priority patent/CN102622850A/zh
Priority to US13/355,927 priority patent/US20120194554A1/en
Publication of JP2012155655A publication Critical patent/JP2012155655A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19613Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19617Surveillance camera constructional details
    • G08B13/19621Portable camera

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Alarm Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】拡張現実アプリケーションが提供されている間の実世界でのユーザの危険に対するリスクを低減すること。
【解決手段】実空間に仮想オブジェクトを重畳して表示する拡張現実アプリケーションをユーザに提供可能な情報処理装置であって、上記拡張現実アプリケーションの提供のために使用される入力画像についての画像認識の結果に基づいて、上記実空間において上記ユーザに及ぶ危険を認識する危険認識部と、上記拡張現実アプリケーションが上記ユーザに提供されている間に上記危険認識部により危険が認識された場合に、上記ユーザに危険の存在を報知する報知部と、を備える情報処理装置を提供する。
【選択図】図3

Description

本発明は、情報処理装置、報知方法及びプログラムに関する。
近年、実世界に付加的な情報を重畳してユーザに呈示する拡張現実(AR:Augmented Reality)のための様々なアプリケーションが提案されている。例えば、下記非特許文献1に記載されたアプリケーションでは、マップ上の任意の位置と関連付けられる仮想的なタグが予めシステムに登録される。そして、ユーザが携帯する端末により撮像される画像内で、当該画像に映る位置と関連付けられているタグがその位置に重畳して表示される。
「Sekai Camera Support Center」、[online]、[2010年12月22日検索]、インターネット<URL:http://support.sekaicamera.com/en>
拡張現実アプリケーションが提供されている間、ユーザは、アプリケーション画面に注意を奪われがちである。拡張現実アプリケーションの画面は、他の種類のアプリケーションの画面とは異なり、ユーザに実世界そのものを見ているという感覚を与える。この感覚は、ある側面においては危険である。即ち、実際には、携帯端末の画面又はヘッドマウントディスプレイの画面の画角は人間の視野角よりも狭い。また、拡張現実アプリケーションの付加的な情報によって、実世界に存在する物体がユーザの視界から隠されてしまう可能性もある。そのため、拡張現実アプリケーションが提供されている間、実世界に存在する危険にユーザが気付かない(又は気付くのが遅れる)というリスクはより高まる。
そこで、本発明は、拡張現実アプリケーションが提供されている間の実世界でのユーザの危険に対するリスクを低減させる、情報処理装置、報知方法及びプログラムを提供しようとするものである。
本発明のある実施形態によれば、実空間に仮想オブジェクトを重畳して表示する拡張現実アプリケーションをユーザに提供可能な情報処理装置であって、上記拡張現実アプリケーションの提供のために使用される入力画像についての画像認識の結果に基づいて、上記実空間において上記ユーザに及ぶ危険を認識する危険認識部と、上記拡張現実アプリケーションが上記ユーザに提供されている間に上記危険認識部により危険が認識された場合に、上記ユーザに危険の存在を報知する報知部と、を備える情報処理装置が提供される。
また、上記情報処理装置は、上記画像認識の結果に基づいて上記実空間内の物体と上記入力画像を撮像する撮像装置との間の距離を推定する推定部、をさらに備え、上記危険認識部は、上記推定部により推定される各物体と上記撮像装置との間の距離に基づいて、上記実空間において上記ユーザに及ぶ危険を認識してもよい。
また、上記危険認識部は、上記実空間において上記ユーザと衝突する可能性のある障害物の存在を危険として認識してもよい。
また、上記情報処理装置は、上記実空間における相対的に安全性の低い危険領域を定義する危険領域情報を取得する情報取得部、をさらに備え、上記危険認識部は、上記危険領域情報により定義された上記危険領域への上記ユーザの接近又は進入を危険として認識してもよい。
また、上記情報処理装置は、上記実空間において上記ユーザに危険を及ぼす可能性のある危険物体を定義する危険物体情報を取得する情報取得部、をさらに備え、上記危険認識部は、上記危険物体情報により定義された上記危険物体への上記ユーザの接近を危険として認識してもよい。
また、上記情報処理装置は、上記画像認識の結果に基づいて上記実空間内の物体の位置及び上記ユーザの位置の少なくとも一方を推定する推定部、をさらに備えてもよい。
また、上記情報処理装置は、上記実空間内の物体と上記ユーザとの間の距離を測定する測距センサ、をさらに備え、上記危険認識部は、上記入力画像を用いて認識されない危険を、上記測距センサにより測定される各物体との間の距離に基づいて認識してもよい。
また、上記測距センサは、上記入力画像を撮像する撮像装置の光軸とは異なる方向に沿って距離を測定可能なように設けられてもよい。
また、上記情報処理装置は、外部装置から危険に関する情報を受信する通信部、をさらに備え、上記危険認識部は、上記通信部により受信される上記危険に関する情報を用いて、上記ユーザに及ぶ危険を認識してもよい。
また、上記外部装置は、上記ユーザに及ぶ危険の原因となる可能性のある物体又は領域に設置される装置であってもよい。
また、上記外部装置は、上記情報処理装置と同等の危険報知機能を有する他のユーザの装置であってもよい。
また、上記危険に関する情報は、上記ユーザに及ぶ危険の原因となる可能性のある物体又は領域の位置又は範囲を特定する情報であり、上記危険認識部は、上記危険に関する情報と上記ユーザの位置とに基づいて、上記ユーザに及ぶ危険を認識してもよい。
また、本発明の別の実施形態によれば、実空間に仮想オブジェクトを重畳して表示する拡張現実アプリケーションをユーザに提供可能な情報処理装置における報知方法であって、上記拡張現実アプリケーションが上記ユーザに提供されている間に、上記拡張現実アプリケーションの提供のために使用される入力画像についての画像認識の結果に基づいて、上記実空間において上記ユーザに及ぶ危険を認識するステップと、危険が認識された場合に、上記ユーザに危険の存在を報知するステップと、を含む報知方法が提供される。
また、本発明の別の実施形態によれば、実空間に仮想オブジェクトを重畳して表示する拡張現実アプリケーションをユーザに提供可能な情報処理装置を制御するコンピュータを、上記拡張現実アプリケーションの提供のために使用される入力画像についての画像認識の結果に基づいて、上記実空間において上記ユーザに及ぶ危険を認識する危険認識部と、上記拡張現実アプリケーションが上記ユーザに提供されている間に上記危険認識部により危険が認識された場合に、上記ユーザに危険の存在を報知する報知部と、として機能させるためのプログラムが提供される。
本発明に係る情報処理装置、報知方法及びプログラムによれば、拡張現実アプリケーションが提供されている間の実世界でのユーザの危険に対するリスクを低減させることができる。
拡張現実アプリケーションが利用され得る状況の一例を示す説明図である。 一実施形態に係る情報処理装置の構成の一例を示すブロック図である。 一実施形態に係る情報処理装置の制御部により実現される機能の構成の一例を示すブロック図である。 一実施形態に係る情報処理装置における撮像装置及び測距センサの配置について説明するための第1の説明図である。 一実施形態に係る情報処理装置における撮像装置及び測距センサの配置について説明するための第2の説明図である。 一実施形態において危険を認識するために使用され得るパラメータの例について説明するための説明図である。 一実施形態において認識され得る危険の種別について説明するための説明図である。 一実施形態において危険に関する情報を送信する装置の第1の例を示す説明図である。 一実施形態において危険に関する情報を送信する装置の第2の例を示す説明図である。 一実施形態において危険に関する情報を送信する装置の第3の例を示す説明図である。 一実施形態における報知部による報知の第1の例を示す説明図である。 一実施形態における報知部による報知の第2の例を示す説明図である。 一実施形態における報知部による報知の第3の例を示す説明図である。 一実施形態における報知部による報知の第4の例を示す説明図である。 第1のシナリオにおける危険報知処理の流れの例を示すフローチャートである。 第2のシナリオにおける危険報知処理の流れの例を示すフローチャートである。 第3のシナリオにおける危険報知処理の流れの例を示すフローチャートである。 第4のシナリオにおける危険報知処理の流れの例を示すフローチャートである。 第5のシナリオにおける危険報知処理の流れの例を示すフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付すことにより重複説明を省略する。
また、以下の順序にしたがって当該「発明を実施するための形態」を説明する。
1.一実施形態に係る情報処理装置の概要
2.一実施形態に係る情報処理装置の構成例
3.一実施形態に係る処理の流れ
4.まとめ
<1.一実施形態に係る情報処理装置の概要>
図1は、拡張現実(AR)アプリケーションが利用され得る状況の一例を示す説明図である。図1を参照すると、実空間1において、ユーザUaが歩道上を歩いており、ユーザUaの前方にはブロック10及び階段12が存在する。また、ユーザUaは、情報処理装置100を保持している。情報処理装置100は、ARアプリケーションを提供可能な装置である。情報処理装置100は、スマートフォン、PC(Personal Computer)、ゲーム端末又は携帯型音楽プレーヤなどであってよい。情報処理装置100によりユーザUaにARアプリケーションが提供されている間、ユーザUaは、情報処理装置100の画面に注意を奪われがちである。情報処理装置100の画面には、実世界の様子が映し出される。しかし、画面の画角はユーザUaの視野角よりも狭く、付加的な情報も画面上に表示されるため、ARアプリケーションが提供されている間、ユーザUaが実空間1に存在する危険に気付かない(又は気付くのが遅れる)というリスクは高まる。例えば、ユーザUaは、ブロック10につまずく可能性がある。また、ユーザUaは、階段12にぶつかる可能性もある。また、ユーザUaは、歩道から外れて車道に進入する可能性もある。図1に示した例の他にも、実世界には様々な危険が存在する。本発明の一実施形態に係る情報処理装置100は、以下に説明する仕組みによって、これら危険の存在をユーザに報知する。
<2.一実施形態に係る情報処理装置の構成例>
[2−1.ハードウェア構成]
図2は、図1に示した情報処理装置100の構成の一例を示すブロック図である。図2を参照すると、情報処理装置100は、撮像部102、センサ部104、測位部106、通信部108、記憶部110、入力部112、表示部114、音声出力部116、振動部118、バス119及び制御部120を備える。
(撮像部)
撮像部102は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を有するカメラモジュールである。撮像部102は、実空間1を撮像することにより一連の入力画像を生成する。撮像部102により生成される入力画像は、ARアプリケーションの提供のために利用されることに加えて、ユーザ位置の推定及び入力画像に映る物体の位置の推定などの目的で利用され得る。撮像部102は、情報処理装置100とは別体に構成され、ARアプリケーションの提供の際に情報処理装置100と接続されてもよい。
(センサ部)
センサ部104は、情報処理装置100による危険の認識を支援するセンサ群である。例えば、センサ部104は、ジャイロセンサ、加速度センサ及び地磁気センサの少なくとも1つを含み、情報処理装置100の傾き角、3軸加速度又は方位を測定する。情報処理装置100の傾き角、3軸加速度又は方位は、情報処理装置100の姿勢を推定するために使用され得る。
また、センサ部104は、実空間内の物体とユーザとの間の距離を測定するレーザ方式又は赤外線方式の測距センサを含んでよい。測距センサは、典型的には、撮像部102の向き(光軸)とは異なる方向に沿って距離を測定可能なように設けられる(図4参照)。それにより、情報処理装置100の画角から外れる位置に存在する障害物(例えば、ブロック10)の存在を情報処理装置100が認識することができる(図5参照)。測距センサにより測定される距離と情報処理装置100の姿勢とに基づいて、情報処理装置100と障害物との間の相対的な位置関係を推定することも可能である。なお、測距センサは、図5に例示した下方向ではなく他の任意の方向を向くように設けられてよい。
(測位部)
測位部106は、情報処理装置100の位置を測定するモジュールである。測位部106は、例えば、GPS(Global Positioning System)信号を受信して情報処理装置100の緯度、経度及び高度を測定するGPSモジュールであってよい。その代わりに、測位部106は、無線アクセスポイントから受信される無線信号の強度に基づいて情報処理装置100の位置を測定するPlaceEngine(登録商標)などの測位モジュールであってもよい。
(通信部)
通信部108は、情報処理装置100が他の装置と通信するための通信インタフェースである。例えば、通信部108は、外部装置から危険に関する情報を外部情報として受信する。また、通信部108は、情報処理装置100と同等の危険報知機能を有する近傍の装置へ、危険に関する情報を送信してもよい。
(記憶部)
記憶部110は、半導体メモリ又はハードディスクなどの記憶媒体を用いて、情報処理装置100による処理のためのプログラム及びデータを記憶する。例えば、記憶部110は、撮像部102により生成される入力画像、センサ部104から出力されるセンサデータ、測位部106により測定される位置データ、及び通信部108により受信される外部情報を記憶する。また、記憶部110は、後に説明する画像認識処理のための特徴データを記憶する。記憶部110により記憶される特徴データは、実空間内の1つ以上の物体の外観の特徴を表すデータである。
(入力部)
入力部112は、情報処理装置100のユーザが情報処理装置100を操作し又は情報処理装置100へ情報を入力するために使用される。入力部112は、例えば、キーパッド、ボタン、スイッチ又はタッチパネルなどを含み得る。入力部112は、入力画像に映るユーザのジェスチャを認識するジェスチャ認識モジュールを含んでもよい。
(表示部)
表示部114は、ARアプリケーションにより生成され実空間に重畳される仮想オブジェクトを表示する画面を有する表示モジュールである。表示部114の画面上には、ユーザに危険の存在を報知する警報のためのオブジェクトも表示され得る。表示部114の画面は、シースルー型であってもよく、非シースルー型であってもよい。また、表示部114は、情報処理装置100とは別体に構成され、ARアプリケーションの提供の際に情報処理装置100と接続されてもよい。
(音声出力部)
音声出力部116は、典型的には、ユーザに向けて音又は音声を出力するスピーカであってよい。音声出力部116は、ユーザの聴覚を通じてユーザに危険の存在を報知するために使用され得る。
(振動部)
振動部118は、典型的には、電気的に駆動される偏心モータなどのバイブレータであってよい。振動部118は、ユーザの触覚を通じてユーザに危険の存在を報知するために使用され得る。
(バス)
バス119は、撮像部102、センサ部104、測位部106、通信部108、記憶部110、入力部112、表示部114、音声出力部116、振動部118及び制御部120を相互に接続する。
(制御部)
制御部120は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などのプロセッサに相当する。制御部120は、記憶部110により記憶されるプログラムを実行することにより、次に説明する情報処理装置100の様々な機能を動作させる。
[2−2.機能構成]
図3は、図2に示した情報処理装置100の制御部120により実現される機能の構成の一例を示すブロック図である。図3を参照すると、制御部120は、アプリケーション部130、画像認識部140、推定部150、マップ記憶部152、情報取得部160、危険認識部170、報知部180及び設定部190を含む。
(アプリケーション部)
アプリケーション部130は、実空間に仮想オブジェクトを重畳して表示するARアプリケーションをユーザに提供する。アプリケーション部130により提供されるARアプリケーションは、例えば、道案内、作業支援、情報提供又はゲームなど、任意の目的を有するアプリケーションであってよい。アプリケーション部130は、入力画像に映る物体と関連付けてユーザに呈示すべき仮想オブジェクトを生成する。そして、アプリケーション部130は、生成した仮想オブジェクトを表示する画像を、表示部114へ出力する。アプリケーション部130は、仮想オブジェクトの表示位置を、入力画像についての画像認識の結果に基づいて決定し得る。
(画像認識部)
画像認識部140は、撮像部102により撮像される入力画像について画像認識処理を行う。例えば、画像認識部140は、入力画像から抽出される特徴データと記憶部110により予め記憶される特徴データとを照合し、入力画像に映る実空間内の物体又は領域を認識する。画像認識部140による特徴データの照合は、例えば、David G. Loweによる“Distinctive Image Features from Scale-Invariant Keypoints”(the International Journal of Computer Vision, 2004)に記載されたSIFT(Scale Invariant Feature Transform)法に従って行われてもよい。また、画像認識部140による特徴データの照合は、例えば、Mustafa Oezuysalらによる“Fast Keypoint Recognition using Random Ferns”(IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.32, Nr.3, pp.448-461, March 2010)に記載されたRandom Ferns法に従って行われてもよい。また、画像認識部140は、実空間内の物体又は領域の外観に現れるマーカ(人工マーカ又は自然マーカ)を認識してもよい。画像認識部140は、画像認識の結果として認識した物体又は領域を特定する情報(例えば、識別子及び入力画像内の位置又は範囲)を、推定部150へ出力する。
(推定部)
推定部150は、画像認識部140による画像認識の結果に基づいて、実空間内に存在する各物体の位置及び各物体と撮像部102との間の距離を推定する。例えば、推定部150は、各物体(又はマーカ)の実際の大きさと入力画像内での大きさとを比較することにより、各物体と撮像部102との間の距離を推定する。そして、推定部150は、推定した距離と撮像部102の位置及び姿勢(情報処理装置100の位置及び姿勢)とに応じて、情報処理装置100を基準とした各物体の相対的な位置を推定する。また、推定部150は、SLAM技術の原理に従って、実空間内の各物体と情報処理装置100との間の相対的な位置関係を動的に推定してもよい。SLAM技術の原理は、Andrew J.Davisonによる“Real-Time Simultaneous Localization and Mapping with a Single Camera”(Proceedings of the 9th IEEE International Conference on Computer Vision Volume 2, 2003, pp.1403-1410)において詳細に説明されている。実空間内の物体と情報処理装置100との間の距離は、危険の認識において、実空間内の物体とユーザとの間の距離に相当するものとして扱われ得る。
なお、推定部150は、撮像部102からズーム率などのカメラパラメータを取得し、取得したカメラパラメータに応じて、各物体の位置及び各物体との間の距離についての推定結果を補正してもよい。
(マップ記憶部)
マップ記憶部152は、半導体メモリ又はハードディスクなどの記憶媒体を用いて、推定部150により推定される各物体の位置を記憶する。それにより、一度画像認識部140により認識された物体又は領域を、情報処理装置100が移動することで当該物体又は領域が入力画像から消えた後でも、情報処理装置100は認識することができる。
(情報取得部)
情報取得部160は、危険認識部170による危険の認識のために使用される危険に関する情報を取得する。危険に関する情報は、予め記憶部110により記憶されてもよく、又は通信部108を介して外部装置から動的に取得されてもよい。
例えば、情報取得部160は、実空間における相対的に安全性の低い危険領域を定義する危険領域情報を取得する。危険領域とは、例えば、階段、エスカレータ、車道、横断歩道、プラットフォーム又は工事現場などであってよい。危険領域情報は、各危険領域の識別子及び各危険領域の範囲を示す座標データを含み得る。
また、情報取得部160は、実空間においてユーザに危険を及ぼす可能性のある危険物体を定義する危険物体情報を取得する。危険物体とは、実空間内の静的物体及び動的物体のうち、特にユーザに危険を及ぼす可能性の高い物体をいう。危険物体は、例えば、路上の設置物、落下物、看板、柱又は壁などの静的な障害物であってもよい。また、危険物体は、例えば、自動車、自転車又は列車などの高速に移動可能な動的物体であってもよい。危険物体情報は、各危険物体の識別子、特徴データ、又は各危険物体の位置を示す座標データなどを含み得る。
(危険認識部)
危険認識部170は、実空間においてユーザに及ぶ危険を認識する。危険認識部170は、ARアプリケーションの提供のために使用される入力画像についての画像認識の結果に基づいて危険を認識してもよい。また、危険認識部170は、入力画像を用いて認識されない危険を、センサ部104の測距センサにより測定される各物体との間の距離に基づいて認識してもよい。さらに、危険認識部170は、ユーザに及ぶ危険の原因に対応する実空間の位置又は領域を認識する。そして、危険認識部170は、危険を認識すると、危険の内容を表す情報、及び対応する実空間内の位置又は領域を、報知部180へ出力する。
図6は、本実施形態において危険認識部170が危険を認識するために使用し得るパラメータの例について説明するための説明図である。図6を参照すると、危険認識部170が使用し得るパラメータの例として、以下に説明する12通りのパラメータが示されている。
(1)ユーザ位置
ユーザ位置とは、情報処理装置100を携帯するユーザの位置である。ユーザの絶対的な位置は、測位部106によりGPS信号を用いて測定され得る。また、近傍の物体又は領域に対するユーザの相対的な位置は、画像認識部140による画像認識の結果に基づいて、推定部150により推定され得る。近傍のランドマークの絶対的な位置が既知である場合には、ユーザのランドマークからの相対的な位置と既知のランドマークの位置とに基づいて、ユーザの絶対的な位置が算出されてもよい。本実施形態では、ユーザ位置、情報処理装置100の位置及び撮像部102の位置は、近似的に互いに等しいものとして扱われる。
(2)ユーザの移動速度
ユーザの移動速度は、ユーザ位置の時間的変化から算出され得る。また、センサ部104が加速度センサを含む場合には、ユーザの移動速度は、加速度センサの出力値の積分によって算出されてもよい。
(3)静的物体の位置
静的物体の相対位置は、画像認識部140による画像認識の結果に基づいて、推定部150により推定され得る。既知の静的物体の位置は、記憶部110により記憶される位置データにより予め定義されてもよい。また、静的物体の位置は、後に例示する外部装置から取得される位置データを用いて認識されてもよい。
(4)静的物体との距離
静的物体とユーザとの間の距離は、ユーザ位置に対する静的物体の相対位置から算出され得る。また、静的物体とユーザとの間の距離は、センサ部104に含まれる測距センサを用いて計測されてもよい。
(5)静的物体への接近速度
静的物体へのユーザの接近速度(あるいはユーザへの静的物体の接近速度)は、静的物体とユーザとの間の距離の時間的変化から算出され得る。
(6)動的物体の位置
動的物体の相対位置は、画像認識部140による画像認識の結果に基づいて、推定部150により推定され得る。また、動的物体の位置は、後に例示する外部装置から取得される位置データを用いて認識されてもよい。
(7)動的物体との距離
動的物体とユーザとの間の距離は、ユーザ位置に対する動的物体の相対位置から算出され得る。また、動的物体とユーザとの間の距離は、センサ部104に含まれる測距センサを用いて計測されてもよい。
(8)動的物体への接近速度
動的物体へのユーザの接近速度(あるいはユーザへの動的物体の接近速度)は、動的物体とユーザとの間の距離の時間的変化から算出され得る。
(9)危険物体の存在
危険物体の存在は、画像認識部140による画像認識の結果として認識され得る。認識された物体が危険物体か否かは、例えば、認識された物体の識別子を既知の識別子のリストと照合することにより判定されてもよい。その代わりに、移動速度が所定の閾値を上回っている物体が一時的に危険物体として認識されてもよい。
また、危険物体の存在は、危険物体が発するビーコンを通信部108が受信することにより認識されてもよい。入力画像に映らない近傍の危険物体の存在は、ユーザ位置とマップ記憶部152により記憶されている危険物体の位置との間の距離から認識されてもよい。
(10)危険物体の位置
危険物体の位置は、静的物体の位置又は動的物体の位置と同様に認識され得る。
(11)危険領域の範囲
危険領域の範囲は、画像認識部140による画像認識の結果として認識され得る。危険領域の範囲は、記憶部110により記憶される危険領域情報により予め定義されてもよい。また、危険領域の範囲は、外部装置から取得される危険領域情報を用いて認識されてもよい。
(12)オブジェクト占拠率
オブジェクト占拠率は、表示される仮想オブジェクトの画面に占める割合を表すパラメータである。危険認識部170は、例えば、仮想オブジェクトの表示量を示す情報(例えば、仮想オブジェクトの画面上でのサイズの合計値)をアプリケーション部130から取得する。そして、危険認識部170は、仮想オブジェクトの表示量を入力画像のサイズ(又は画面サイズ)で除算することにより、オブジェクト占拠率を算出する。
危険認識部170は、これら12通りのパラメータのうち少なくとも1つを使用して、実空間においてユーザに及ぶ危険を認識する。
図7は、本実施形態において危険認識部170により認識され得る危険の種別について説明するための説明図である。図7を参照すると、危険認識部170により認識され得る危険は、「静的物体との衝突」、「動的物体との衝突」、「危険物体への接近」、「危険領域への接近・侵入」及び「ユーザの注意力の阻害」という5通りの種別に分類される。
(1)静的物体との衝突
危険認識部170は、例えば、ある静的物体とユーザとの間の距離が所定の閾値を下回る場合に、ユーザが当該物体に衝突する可能性があると判定してもよい。また、危険認識部170は、ある静的物体への接近速度が所定の閾値を上回る場合に、ユーザが当該物体に衝突する可能性があると判定してもよい。そして、危険認識部170は、ユーザと衝突する可能性のある静的物体の存在を危険として認識し得る。
(2)動的物体との衝突
危険認識部170は、例えば、ある動的物体とユーザとの間の距離が所定の閾値を下回る場合に、ユーザが当該物体に衝突する可能性があると判定してもよい。また、危険認識部170は、ある動的物体への接近速度(あるいは当該動的物体のユーザへの接近速度)が所定の閾値を上回る場合に、ユーザが当該物体に衝突する可能性があると判定してもよい。動的物体についての判定の閾値は、上述した静的物体についての判定の閾値とは異なる値であってよい。そして、危険認識部170は、ユーザと衝突する可能性のある動的物体の存在を危険として認識し得る。
(3)危険物体への接近
危険認識部170は、危険物体へのユーザの接近を危険として認識してもよい。危険認識部170は、例えば、画像認識又は危険物体からのビーコンの受信により危険物体の存在を検知した場合に、危険物体へユーザが接近したと判定し得る。また、危険認識部170は、危険物体とユーザとの間の距離を所定の閾値と比較することにより、危険物体へユーザが接近したと判定し得る。
(4)危険領域への接近・侵入
危険認識部170は、危険領域へのユーザの接近又は進入を危険として認識してもよい。危険認識部170は、現在のユーザ位置が危険領域の内部である場合に、危険領域へユーザが進入したと判定し得る。また、危険認識部170は、危険領域の境界と現在のユーザ位置との間の距離を所定の閾値と比較することにより、危険領域へユーザが接近したと判定し得る。また、危険認識部170は、床面(又は地面)の高さが大きく変化している領域を危険領域として認識してもよい。
(5)ユーザの注意力の阻害
危険認識部170は、ユーザの注意力が阻害され得る状態を危険として認識してもよい。危険認識部170は、例えば、上述したオブジェクト占拠率が所定の閾値を上回る場合に、ユーザの注意力がARアプリケーションにより阻害され得ると判定してもよい。また、危険認識部170は、ユーザの移動速度が所定の閾値を上回る場合に、ユーザの注意力が阻害され得ると判定してもよい。
危険認識部170は、これら5通りの種別のいずれかに該当する危険を認識すると、認識した危険の内容を表す情報(例えば、危険の種別、危険物体又は危険領域の識別子若しくは名称など)及び対応する実空間内の位置又は領域を、報知部180へ出力する。
(外部装置の例)
外部装置が情報処理装置100へ危険に関する情報を提供することにより、情報処理装置100の危険を認識する能力を高めることが可能である。図8〜図10は、そのような外部装置の例をそれぞれ示している。
図8を参照すると、階段12に無線送信機20aが設置されている。階段12は、ユーザUaに及ぶ危険の原因となる可能性のある物体又は領域である。無線送信機20aは、周囲の装置へ、危険を知らせるためのビーコンを周期的に送信する。当該ビーコンは、例えば、階段12の識別子及び位置データを含む。情報処理装置100の情報取得部160は、通信部108によりビーコンが受信されると、ビーコンに含まれる情報を外部情報として取得し、取得した情報を危険認識部170へ出力する。それにより、危険認識部170は、階段12の存在及びその位置を認識することができる。
図9を参照すると、ユーザUbが情報処理装置20bを保持している。情報処理装置20bは、情報処理装置100と同等の危険報知機能を有する装置である。ユーザUbは、ユーザUaの位置する方向へ向かって走っている。情報処理装置20bは、かかるユーザUbの移動速度が所定の閾値を上回ることを認識し、周囲の装置へ危険を知らせるためのビーコンを送信する。当該ビーコンは、例えば、情報処理装置20bの識別子、位置データ及び速度データを含む。情報処理装置100の情報取得部160は、通信部108によりビーコンが受信されると、ビーコンに含まれる情報を外部情報として取得し、取得した情報を危険認識部170へ出力する。それにより、危険認識部170は、ユーザUaがユーザUbと衝突する可能性があることを認識することができる。
図10を参照すると、情報処理装置100との間で通信可能なデータサーバ20cが示されている。データサーバ20cは、ユーザに及ぶ危険の原因となる可能性のある物体又は領域を特定するデータ(例えば物体又は領域の識別子)を位置データと関連付けて保持するサーバである。データサーバ20cにより保持されるデータは、例えば、上述した危険物体情報及び危険領域情報に相当する。情報処理装置100の情報取得部160は、通信部108を介して、データサーバ20cから危険物体情報及び危険領域情報(図中のダウンロードデータ22)をダウンロードする。それにより、危険認識部170は、ダウンロードされた危険物体情報及び危険領域情報を用いて危険を認識することができる。
(報知部)
報知部180は、ARアプリケーションがユーザに提供されている間に危険認識部170により危険が認識された場合に、ユーザに危険の存在を報知する。例えば、報知部180による報知は、ARアプリケーションの表示を制御することにより行われてもよい。より具体的には、本実施形態において、報知部180は、危険認識部170により危険が認識されると、ARアプリケーションに割り込みを行う。そして、報知部180は、ARアプリケーションの表示を制御する。ARアプリケーションの表示の制御とは、単純にARアプリケーションを中断させ又は停止させることであってもよい。また、報知部180は、ARアプリケーションにおいて表示中の仮想オブジェクトの表示を弱めてもよい。一例として、報知部180は、表示中の仮想オブジェクトを点滅させ又は透過させる。さらに、報知部180は、ARアプリケーションが提供されている表示部114の画面上に、警報のためのオブジェクトを表示させてもよい。警報のためのオブジェクトは、例えば、危険認識部170により認識された危険の位置又は領域をユーザに示すオブジェクトであってよい。
代替的に又は追加的に、報知部180による報知は、ARアプリケーションの表示の制御以外の手段により行われてもよい。例えば、報知部180は、スピーカ部116から警告音又は警告メッセージを出力させることにより、ユーザに危険の存在を報知してもよい。また、報知部180は、振動部118を振動させることにより、ユーザに危険の存在を報知してもよい。
報知部180は、ARアプリケーションに依存することなく独立して情報処理装置100に設けられる機能であってよい。その代わりに、情報処理装置100に搭載されるいずれかのARアプリケーションが、報知部180としての機能を有していてもよい。
図11〜図14は、本実施形態における報知部180による危険の存在の報知の例をそれぞれ示している。
(1)第1の例
図11の左の画像Im11は、ARアプリケーションにより表示され得る出力画像の一例である。画像Im11において、実空間内の建物に仮想オブジェクトT1が重畳されている。仮想オブジェクトT1は、例えば、建物内のレストランの評価に関する情報を表現するオブジェクトである。
図11の右の画像Im12は、画像Im11が表示された後、ユーザUaが階段12に近付いた結果として報知部180により報知が行われる際の出力画像の例である。画像Im12において、仮想オブジェクトT1は透過的に表示されている。それにより、危険の原因となる可能性のある物体又は領域が仮想オブジェクトT1により隠されることがない。また、階段の位置(領域)をユーザに示すオブジェクトA1、及びユーザに注意を喚起するメッセージを示すオブジェクトA2が表示されている。それにより、ユーザは、自らに及ぶ危険を迅速かつ的確に認識することができる。
(2)第2の例
図12の左の画像Im21は、ARアプリケーションにより表示され得る出力画像の一例である。画像Im21においても、実空間内の建物に仮想オブジェクトT1が重畳されている。また、画像Im21には、ユーザUaにとって障害物となる可能性のあるブロック10が映っている。
図12の右の画像Im22は、画像Im21が表示された後、ユーザUaがブロック10に近付いた結果として報知部180により報知が行われる際の出力画像の例である。画像Im22において、仮想オブジェクトT1は画面から消去されている。また、ブロック10の位置をユーザに示すと共にユーザに注意を喚起するメッセージを示すオブジェクトA3が表示されている。ブロック10は画面の画角から外れているが、例えば、センサ部104の測距センサがブロック10との間の距離を測定することで、又はマップ記憶部152がブロック10の位置を記憶していることで、危険認識部170は、ブロック10がユーザUaに及ぼす危険を認識することができる。
(3)第3の例
図13の左の画像Im31は、ARアプリケーションにより表示され得る出力画像の一例である。画像Im31においても、実空間内の建物に仮想オブジェクトT1が重畳されている。
図13の右の画像Im32は、画像Im31が表示された後、ユーザUaが走り出した結果として、報知部180により報知が行われる際の出力画像の例である。画像Im32において、仮想オブジェクトT1は画面から消去され、ARアプリケーションは停止している。このように、報知部180は、単純にARアプリケーションを中断し又は停止することにより、ユーザに注意を喚起してもよい。
(4)第4の例
図14の左の画像Im41は、ARアプリケーションにより表示され得る出力画像の一例である。画像Im41においても、実空間内の建物に仮想オブジェクトT1が重畳されている。また、ユーザUaの前方には、溝14が存在する。このような溝14もまた、危険物体又は危険領域として認識され得る。
図14の右の画像Im42は、画像Im41が表示された後、ユーザUaが溝14へ接近した結果として、報知部180により報知が行われる際の出力画像の例である。画像Im42においても、仮想オブジェクトT1は透過的に表示されている。さらに、報知部180は、振動部118を振動させると共に、スピーカ部116から警告メッセージを出力させている。このように、視覚的な報知のみならず触覚又は聴覚を介する報知を行うことで、より強くユーザに注意を喚起することができる。
(設定部)
設定部190は、危険認識部170による危険認識処理及び報知部180による報知処理に関する設定を管理する。例えば、設定部190は、危険認識部170により危険が認識された際にどの手法で報知が行われるべきかを管理する。設定部190は、認識される危険の種別ごとに異なる手法で報知部180に報知を行わせてもよい。また、設定部190は、入力部112を介して報知の手法をユーザに指定させてもよい。
また、例えば、設定部190は、同じ危険についてユーザに報知を行う回数の上限値を保持する。報知部180は、危険物体及び危険領域の識別子又は位置ごとに、報知の回数をカウントする。そして、報知部180は、上限値と等しい回数既にユーザに報知された危険について、当該危険の存在をユーザに報知しなくてもよい。また、例えば、設定部190は、ユーザの行動履歴を記録する。ユーザの行動履歴とは、例えば、測位部106により測定されるユーザの移動の履歴であってよい。そして、報知部180は、ユーザの行動履歴に含まれる行動と同様の行動をユーザが行っている場合には、ユーザに危険の存在を報知しなくてもよい。このような報知の無効化により、ユーザにとって既に認識済みの危険について過剰な報知が行われることを防止することができる。
また、設定部190は、報知を無効化すべき危険物体又は危険領域の識別子若しくは位置を入力部112を介してユーザに予め指定させてもよい。この場合には、ユーザにより明示的に指定された危険物体又は危険領域についての報知部180による報知が無効化される。
<3.一実施形態に係る処理の流れ>
次に、本実施形態に係る情報処理装置100による処理の流れの例を、図15〜図19を用いて、5つのシナリオに沿ってそれぞれ説明する。なお、情報処理装置100は、これら5つのシナリオのいずれか1つの処理のみを実行してもよく、複数の処理を実行してもよい。また、情報処理装置100は、ここに例示される処理とは異なる流れを有する処理を実行してもよい。
[3−1.第1のシナリオ]
図15は、第1のシナリオにおける危険報知処理の流れの例を示すフローチャートである。第1のシナリオでは、入力画像についての画像認識の結果に基づく危険の認識が行われる。
図15を参照すると、まず、画像認識部140により入力画像が取得される(ステップS110)。次に、画像認識部140は、取得した入力画像に映る物体を認識する(ステップS112)。次に、推定部150は、画像認識部140により認識された各物体の位置及びユーザ位置を推定する(ステップS114)。次に、推定部150は、推定した各物体の位置及びユーザ位置に基づいて、各物体とユーザとの間の距離を算出し、さらに各物体へのユーザの接近速度を算出する(ステップS116)。
そして、危険認識部170は、推定部150により推定され又は算出された各物体とユーザとの間の距離及び各物体へのユーザの接近速度をそれぞれ所定の閾値と比較することにより、危険の存在を判定する(ステップS160)。例えば、ある物体へのユーザの接近速度が所定の閾値を上回る場合には、危険認識部170は、当該物体にユーザが衝突する可能性があると判定し得る。また、ある危険物体とユーザとの間の距離が所定の閾値を下回る場合には、危険認識部170は、危険物体にユーザが接近していると判定し得る。
ステップS160において危険認識部170により危険が存在すると判定されると、報知部180は、アプリケーション部130により提供されているARアプリケーションに割り込みを行う(ステップS170)。そして、報知部180は、図11〜図14に例示した手法又は他の手法で、危険の存在をユーザに報知する(ステップS180)。一方、ステップS160において危険認識部170により危険が存在しないと判定されると、処理はステップS110へ戻る。
[3−2.第2のシナリオ]
図16は、第2のシナリオにおける危険報知処理の流れの例を示すフローチャートである。第2のシナリオでは、データサーバから受信される危険に関する情報を用いた危険の認識が行われる。
図16を参照すると、まず、情報取得部160は、通信部108を介して外部装置から危険に関する情報を取得する(ステップS120)。ここでは、一例として、図10に例示したデータサーバ20cから、危険物体を定義する危険物体情報及び危険領域を定義する危険領域情報が取得されるものとする。情報取得部160は、ステップS120において取得した危険領域情報を記憶部110に記憶させる(ステップS122)。次に、測位部106は、ユーザ位置を測定する(ステップS124)。ステップS124において、測位部106によりユーザ位置が測定される代わりに、入力画像についての画像認識の結果に基づいて、推定部150によりユーザ位置が推定されてもよい。
そして、危険認識部170は、危険領域情報及び危険物体情報とユーザ位置とに基づいて、危険の存在を判定する(ステップS162)。例えば、危険領域情報により示される危険領域の範囲にユーザ位置が含まれる場合、又は危険領域の境界とユーザ位置との間の距離が所定の閾値を下回る場合には、危険認識部170は、ユーザが危険領域に進入し又は接近していると判定し得る。また、危険物体情報により示される危険物体の位置とユーザ位置との間の距離が所定の閾値を下回る場合には、危険認識部170は、ユーザの近傍に危険物体が存在していると判定し得る。
ステップS162において危険認識部170により危険が存在すると判定されると、報知部180は、アプリケーション部130により提供されているARアプリケーションに割り込みを行う(ステップS170)。そして、報知部180は、図11〜図14に例示した手法又は他の手法で、危険の存在をユーザに報知する(ステップS180)。一方、ステップS162において危険認識部170により危険が存在しないと判定されると、処理はステップS124へ戻る。
[3−3.第3のシナリオ]
図17は、第3のシナリオにおける危険報知処理の流れの例を示すフローチャートである。第3のシナリオでは、データサーバとは異なる外部装置から受信される情報に基づく危険の認識が行われる。
図17を参照すると、まず、情報取得部160は、通信部108を介して外部装置から危険に関する情報を受信する(ステップS130)。ここでは、一例として、図8に例示した無線送信機20a又は図9に例示した情報処理装置20bから、危険を知らせるビーコンが受信されるものとする。情報取得部160により危険を知らせるビーコンが受信されると、危険認識部170は、危険を認識する(ステップS164)。危険認識部170は、ビーコンの受信に応じて即座に危険を認識してもよく、又は当該ビーコンに含まれる位置データとユーザ位置とに基づいて危険の存在を判定してもよい。
ステップS164において危険認識部170により危険が認識されると、報知部180は、アプリケーション部130により提供されているARアプリケーションに割り込みを行う(ステップS170)。そして、報知部180は、図11〜図14に例示した手法又は他の手法で、危険の存在をユーザに報知する(ステップS180)。
[3−4.第4のシナリオ]
図18は、第4のシナリオにおける危険報知処理の流れの例を示すフローチャートである。第4のシナリオでは、入力画像についての画像認識の結果に基づいて生成されるマップを用いた危険の認識が行われる。
図18を参照すると、まず、画像認識部140により入力画像が取得される(ステップS140)。次に、画像認識部140は、取得した入力画像に映る物体を認識する(ステップS142)。次に、推定部150は、画像認識部140により認識された各物体の位置及びユーザ位置を推定する(ステップS144)。次に、推定部150は、推定した各物体の位置及びユーザ位置をマップ記憶部152に記憶させる(ステップS146)。次に、推定部150は、マップ記憶部152に記憶されている各物体の位置と最新のユーザ位置との間の距離を算出し、さらに各物体へのユーザの接近速度を算出する(ステップS148)。
そして、危険認識部170は、推定部150により推定され又は算出された各物体とユーザとの間の距離及び各物体へのユーザの接近速度をそれぞれ所定の閾値と比較することにより、危険の存在を判定する(ステップS166)。ここで、危険認識部170により危険が存在すると判定されると、報知部180は、アプリケーション部130により提供されているARアプリケーションに割り込みを行う(ステップS170)。そして、報知部180は、図11〜図14に例示した手法又は他の手法で、危険の存在をユーザに報知する(ステップS180)。一方、ステップS166において危険認識部170により危険が存在しないと判定されると、処理はステップS140へ戻る。
[3−5.第5のシナリオ]
図19は、第5のシナリオにおける危険報知処理の流れの例を示すフローチャートである。第5のシナリオでは、アプリケーション部130から取得される情報を用いた危険の認識が行われる。
図19を参照すると、まず、危険認識部170は、アプリケーション部130から、仮想オブジェクトの表示量を示す情報を取得する(ステップS150)。次に、危険認識部170は、仮想オブジェクトの表示量を入力画像のサイズ(又は画面サイズ)で除算することにより、オブジェクト占拠率を算出する(ステップS152)。
そして、危険認識部170は、オブジェクト占拠率を所定の閾値と比較することにより、危険の存在を判定する(ステップS168)。ここで、危険認識部170により危険が存在すると判定されると、報知部180は、アプリケーション部130により提供されているARアプリケーションに割り込みを行う(ステップS170)。そして、報知部180は、図11〜図14に例示した手法又は他の手法で、危険の存在をユーザに報知する(ステップS180)。一方、ステップS168において危険認識部170により危険が存在しないと判定されると、処理はステップS150へ戻る。
<4.まとめ>
ここまで、図1〜図19を用いて、本発明の一実施形態について詳細に説明した。本実施形態に係る情報処理装置100によれば、ARアプリケーションがユーザに提供されている間に実空間においてユーザに及ぶ危険が認識された場合に、ユーザに危険の存在が報知される。それにより、実世界でのユーザの危険に対するリスクが低減される。その結果、ユーザがより安心してARアプリケーションを利用することが可能となる。
また、本実施形態によれば、ユーザへの報知は、ARアプリケーションの表示を制御することにより行われ得る。それにより、ARアプリケーションを利用しているユーザは、報知を見逃すことなく、迅速に危険を認識することができる。
また、本実施形態によれば、報知はARアプリケーションへの割り込みにより行われ得る。従って、どのようなARアプリケーションが情報処理装置100に搭載されるとしても、ARアプリケーションが提供されている間にユーザに危険の存在を報知することができる。また、ARアプリケーションに依存しない独立した機能として上述した報知機能を実現することもできる。その場合には、個々のARアプリケーションが個別に危険へのリスクを低減させる対策を講じなくてもよいため、ARアプリケーションの開発の自由度も高められる。
また、本実施形態によれば、ARアプリケーションの提供のために使用される入力画像についての画像認識の結果に基づいて、ユーザに及ぶ危険が認識され得る。即ち、画像認識の結果に基づいて、実空間内の物体とユーザとの間の距離、各物体へのユーザの接近速度、又はユーザの移動速度などのパラメータが推定される。そして、推定されたパラメータを用いて危険が認識される。この場合には、ARアプリケーションを提供可能な装置を少ないコストで拡張することにより、上述した危険報知処理を容易に実現することができる。
また、本実施形態によれば、実空間においてユーザと衝突する可能性のある障害物の存在が危険として認識され得る。従って、ARアプリケーションにユーザが注意を奪われている間にユーザが障害物に衝突するリスクが低減される。
また、本実施形態によれば、危険領域へのユーザの接近若しくは進入、又は危険物体への接近も危険として認識され得る。従って、ARアプリケーションにユーザが注意を奪われている間にユーザが危険領域に接近し若しくは進入し又はユーザが危険物体に接近するリスクが低減される。
また、本実施形態によれば、危険に関する情報が外部装置から提供され得る。危険領域又は危険物体を定義する情報がデータサーバから提供される場合には、情報処理装置100が単独で危険を認識しようとする場合と比較して、情報処理装置100の危険認識能力が高められる。また、情報処理装置100と同等の危険報知機能を有する他のユーザの装置が危険に関する情報を提供する場合には、装置間での協調によって、危険をより確実に認識することができる。また、危険の原因となる可能性のある物体又は領域に危険に関する情報を発信する装置が設置される場合には、危険度の高い場所において危険を一層確実に認識することが可能となる。
また、本実施形態によれば、撮像装置の光軸とは異なる方向に沿って実空間内の物体との間の距離を測定可能な測距センサが、危険の認識のために活用される。従って、画像認識のみでは認識し得ない危険をも認識することができる。
また、本実施形態によれば、表示される仮想オブジェクトの画面に占める割合に基づいて、ユーザの注意力が阻害されているか否かが判定される。従って、過剰な数の仮想オブジェクトが画面上に表示されることによりユーザが実世界に存在する危険に気付くのが遅れるというリスクも低減される。
また、本実施形態によれば、報知の回数、ユーザの行動履歴又はユーザによる明示的な設定に基づいて、ユーザにとって不要な報知が無効化される。従って、ユーザにとって望ましくない報知が行われることでユーザによるARアプリケーションの利用が阻害されることが防止される。
また、本実施形態によれば、危険が認識されると、ARアプリケーションは中断され又は停止され得る。この場合には、認識された危険にユーザの注意をより確実に向かわせることができる。また、ARアプリケーションにより表示中の仮想オブジェクトは、点滅され又は透過され得る。従って、入力画像に映る危険の存在が仮想オブジェクトによって完全に隠されることがない。
また、本実施形態によれば、危険が認識されると、画面上に警報のためのオブジェクトが表示され得る。警報のためのオブジェクトは、認識された危険の位置又は領域をユーザに報知し得る。従って、ユーザが危険の原因を迅速に認識することができる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
1 実空間
10 ブロック(危険物体の例)
12 階段(危険領域の例)
20a〜c 外部装置
100 情報処理装置
102 撮像部
104 センサ部
106 測位部
108 通信部
110 記憶部
150 推定部
160 情報取得部
170 危険認識部
180 報知部
190 設定部

Claims (14)

  1. 実空間に仮想オブジェクトを重畳して表示する拡張現実アプリケーションをユーザに提供可能な情報処理装置であって、
    前記拡張現実アプリケーションの提供のために使用される入力画像についての画像認識の結果に基づいて、前記実空間において前記ユーザに及ぶ危険を認識する危険認識部と、
    前記拡張現実アプリケーションが前記ユーザに提供されている間に前記危険認識部により危険が認識された場合に、前記ユーザに危険の存在を報知する報知部と、
    を備える情報処理装置。
  2. 前記情報処理装置は、前記画像認識の結果に基づいて前記実空間内の物体と前記入力画像を撮像する撮像装置との間の距離を推定する推定部、をさらに備え、
    前記危険認識部は、前記推定部により推定される各物体と前記撮像装置との間の距離に基づいて、前記実空間において前記ユーザに及ぶ危険を認識する、
    請求項1に記載の情報処理装置。
  3. 前記危険認識部は、前記実空間において前記ユーザと衝突する可能性のある障害物の存在を危険として認識する、請求項2に記載の情報処理装置。
  4. 前記情報処理装置は、前記実空間における相対的に安全性の低い危険領域を定義する危険領域情報を取得する情報取得部、をさらに備え、
    前記危険認識部は、前記危険領域情報により定義された前記危険領域への前記ユーザの接近又は進入を危険として認識する、
    請求項1に記載の情報処理装置。
  5. 前記情報処理装置は、前記実空間において前記ユーザに危険を及ぼす可能性のある危険物体を定義する危険物体情報を取得する情報取得部、をさらに備え、
    前記危険認識部は、前記危険物体情報により定義された前記危険物体への前記ユーザの接近を危険として認識する、
    請求項1に記載の情報処理装置。
  6. 前記情報処理装置は、前記画像認識の結果に基づいて前記実空間内の物体の位置及び前記ユーザの位置の少なくとも一方を推定する推定部、をさらに備える、請求項4又は請求項5に記載の情報処理装置。
  7. 前記情報処理装置は、前記実空間内の物体と前記ユーザとの間の距離を測定する測距センサ、をさらに備え、
    前記危険認識部は、前記入力画像を用いて認識されない危険を、前記測距センサにより測定される各物体との間の距離に基づいて認識する、
    請求項1に記載の情報処理装置。
  8. 前記測距センサは、前記入力画像を撮像する撮像装置の光軸とは異なる方向に沿って距離を測定可能なように設けられる、請求項7に記載の情報処理装置。
  9. 前記情報処理装置は、外部装置から危険に関する情報を受信する通信部、をさらに備え、
    前記危険認識部は、前記通信部により受信される前記危険に関する情報を用いて、前記ユーザに及ぶ危険を認識する、
    請求項1に記載の情報処理装置。
  10. 前記外部装置は、前記ユーザに及ぶ危険の原因となる可能性のある物体又は領域に設置される装置である、請求項9に記載の情報処理装置。
  11. 前記外部装置は、前記情報処理装置と同等の危険報知機能を有する他のユーザの装置である、請求項9に記載の情報処理装置。
  12. 前記危険に関する情報は、前記ユーザに及ぶ危険の原因となる可能性のある物体又は領域の位置又は範囲を特定する情報であり、
    前記危険認識部は、前記危険に関する情報と前記ユーザの位置とに基づいて、前記ユーザに及ぶ危険を認識する、
    請求項9に記載の情報処理装置。
  13. 実空間に仮想オブジェクトを重畳して表示する拡張現実アプリケーションをユーザに提供可能な情報処理装置における報知方法であって、
    前記拡張現実アプリケーションが前記ユーザに提供されている間に、前記拡張現実アプリケーションの提供のために使用される入力画像についての画像認識の結果に基づいて、前記実空間において前記ユーザに及ぶ危険を認識するステップと、
    危険が認識された場合に、前記ユーザに危険の存在を報知するステップと、
    を含む報知方法。
  14. 実空間に仮想オブジェクトを重畳して表示する拡張現実アプリケーションをユーザに提供可能な情報処理装置を制御するコンピュータを、
    前記拡張現実アプリケーションの提供のために使用される入力画像についての画像認識の結果に基づいて、前記実空間において前記ユーザに及ぶ危険を認識する危険認識部と、
    前記拡張現実アプリケーションが前記ユーザに提供されている間に前記危険認識部により危険が認識された場合に、前記ユーザに危険の存在を報知する報知部と、
    として機能させるためのプログラム。
JP2011016441A 2011-01-28 2011-01-28 情報処理装置、報知方法及びプログラム Pending JP2012155655A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011016441A JP2012155655A (ja) 2011-01-28 2011-01-28 情報処理装置、報知方法及びプログラム
CN2012100199567A CN102622850A (zh) 2011-01-28 2012-01-20 信息处理装置、报警方法和程序
US13/355,927 US20120194554A1 (en) 2011-01-28 2012-01-23 Information processing device, alarm method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011016441A JP2012155655A (ja) 2011-01-28 2011-01-28 情報処理装置、報知方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2012155655A true JP2012155655A (ja) 2012-08-16

Family

ID=46562745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011016441A Pending JP2012155655A (ja) 2011-01-28 2011-01-28 情報処理装置、報知方法及びプログラム

Country Status (3)

Country Link
US (1) US20120194554A1 (ja)
JP (1) JP2012155655A (ja)
CN (1) CN102622850A (ja)

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013257716A (ja) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc 障害物回避装置および障害物回避方法
JP2014093034A (ja) * 2012-11-06 2014-05-19 Nintendo Co Ltd 情報処理用プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2014119786A (ja) * 2012-12-13 2014-06-30 Seiko Epson Corp 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、作業支援システム
JP2014170330A (ja) * 2013-03-02 2014-09-18 Yasuaki Iwai 仮想現実提示システム、仮想現実提示方法、仮想現実提示装置
WO2014171200A1 (ja) 2013-04-16 2014-10-23 ソニー株式会社 情報処理装置及び情報処理方法、表示装置及び表示方法、並びに情報処理システム
JP2014216962A (ja) * 2013-04-26 2014-11-17 京セラ株式会社 電子機器及びシステム
JP2015059965A (ja) * 2013-09-17 2015-03-30 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
JP2015143976A (ja) * 2013-12-25 2015-08-06 キヤノンマーケティングジャパン株式会社 情報処理装置及びその制御方法、プログラム
JP2016062277A (ja) * 2014-09-18 2016-04-25 泰章 岩井 仮想現実提示システム、仮想現実提示装置、仮想現実提示方法
JP2016512626A (ja) * 2013-01-12 2016-04-28 マイクロソフト テクノロジー ライセンシング,エルエルシー ウェアラブルな行動ベース視覚システム
US9418293B2 (en) 2012-12-27 2016-08-16 Sony Corporation Information processing apparatus, content providing method, and computer program
US9448407B2 (en) 2012-12-13 2016-09-20 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and work supporting system
JP2016532178A (ja) * 2013-06-08 2016-10-13 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイにおいて、透過モードと非透過モードとの間を移行するシステム及び方法
JP2016541035A (ja) * 2013-09-30 2016-12-28 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイのユーザー向けカメラベース安全機構
CN106652332A (zh) * 2016-12-15 2017-05-10 英业达科技有限公司 虚拟实景装置的安防系统
KR20170051136A (ko) * 2015-10-29 2017-05-11 삼성전자주식회사 헤드 마운트 디스플레이의 사용자에게 알림을 제공하기 위한 방법 및 장치
JP2017091433A (ja) * 2015-11-17 2017-05-25 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
JP2017142790A (ja) * 2017-02-01 2017-08-17 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、作業支援システム
WO2017191702A1 (ja) * 2016-05-02 2017-11-09 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置
JP2017535901A (ja) * 2014-11-05 2017-11-30 バルブ コーポレーション 仮想現実環境においてユーザをガイドするための感覚フィードバックシステム及び方法
KR101849021B1 (ko) * 2016-12-08 2018-04-16 한양대학교 에리카산학협력단 가상/증강 현실 공간 창조 방법 및 시스템
JP2018067301A (ja) * 2016-09-06 2018-04-26 トムソン ライセンシングThomson Licensing 拡張現実のシーンを再生する際の自動ズームのための方法、装置及びシステム
JPWO2017006640A1 (ja) * 2015-07-08 2018-06-07 ソニー株式会社 情報処理装置、表示装置、情報処理方法及びプログラム
WO2018179523A1 (ja) * 2017-03-31 2018-10-04 株式会社ニコン 電子機器およびプログラム
JP2018195321A (ja) * 2018-07-03 2018-12-06 株式会社東芝 ウェアラブル端末及び方法
WO2019123729A1 (ja) * 2017-12-19 2019-06-27 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理方法、およびプログラム
JP2019215871A (ja) * 2016-03-23 2019-12-19 日本電気株式会社 眼鏡型ウェアラブル端末及びその制御プログラム並びに通知方法
WO2020090266A1 (ja) * 2018-11-02 2020-05-07 ソニー株式会社 電子デバイス、情報提供システム
JPWO2020230892A1 (ja) * 2019-05-15 2020-11-19
JP2021060957A (ja) * 2019-10-07 2021-04-15 株式会社mediVR リハビリテーション支援装置、その方法およびプログラム
JP2021090142A (ja) * 2019-12-04 2021-06-10 公立大学法人岩手県立大学 表示装置、表示システム及びプログラム
JP2021130010A (ja) * 2015-03-16 2021-09-09 マジック リープ,インコーポレイティド 健康を損う疾病を診断して治療する方法及びシステム
JPWO2021124516A1 (ja) * 2019-12-19 2021-12-23 株式会社ガク・アソシエイツ 境界線可視化システム、境界線可視化方法、境界線可視化プログラムおよびデジタルフォトアルバム作成システム
US11714326B2 (en) 2017-02-23 2023-08-01 Magic Leap, Inc. Variable-focus virtual image devices based on polarization conversion
US11900795B2 (en) 2019-05-20 2024-02-13 Panasonic Intellectual Property Management Co., Ltd. Pedestrian device and traffic safety assistance method
KR102722558B1 (ko) * 2022-07-01 2024-10-29 주식회사 코너스 작업현장 위험감지 시스템

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103197980B (zh) * 2012-01-10 2016-03-30 华为终端有限公司 一种呈现增强现实技术内容的方法、装置及系统
KR101899977B1 (ko) * 2012-07-10 2018-09-19 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US20140184643A1 (en) * 2012-12-27 2014-07-03 Caterpillar Inc. Augmented Reality Worksite
US10685487B2 (en) 2013-03-06 2020-06-16 Qualcomm Incorporated Disabling augmented reality (AR) devices at speed
IL298018B2 (en) 2013-03-11 2024-04-01 Magic Leap Inc System and method for augmentation and virtual reality
NZ735747A (en) 2013-03-15 2019-10-25 Magic Leap Inc Display system and method
US9729864B2 (en) 2013-09-30 2017-08-08 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
JP6202981B2 (ja) * 2013-10-18 2017-09-27 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP6202980B2 (ja) * 2013-10-18 2017-09-27 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
US20150199106A1 (en) * 2014-01-14 2015-07-16 Caterpillar Inc. Augmented Reality Display System
JP2015134079A (ja) * 2014-01-17 2015-07-27 株式会社ユニバーサルエンターテインメント ゲーミングマシン
KR20160009879A (ko) * 2014-07-17 2016-01-27 엘지전자 주식회사 웨어러블 디스플레이 디바이스 및 그 제어 방법
US20160055377A1 (en) * 2014-08-19 2016-02-25 International Business Machines Corporation Real-time analytics to identify visual objects of interest
US9471837B2 (en) 2014-08-19 2016-10-18 International Business Machines Corporation Real-time analytics to identify visual objects of interest
JP5777786B1 (ja) * 2014-09-12 2015-09-09 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
US10620900B2 (en) * 2014-09-30 2020-04-14 Pcms Holdings, Inc. Reputation sharing system using augmented reality systems
US9582976B2 (en) * 2014-10-16 2017-02-28 Elwha Llc Systems and methods for detecting and reporting hazards on a pathway
US9311802B1 (en) * 2014-10-16 2016-04-12 Elwha Llc Systems and methods for avoiding collisions with mobile hazards
KR102383425B1 (ko) * 2014-12-01 2022-04-07 현대자동차주식회사 전자 장치, 전자 장치의 제어 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
US9836814B2 (en) * 2015-01-09 2017-12-05 Panasonic Intellectual Property Management Co., Ltd. Display control apparatus and method for stepwise deforming of presentation image radially by increasing display ratio
US9836652B2 (en) * 2016-02-02 2017-12-05 International Business Machines Corporation Showing danger areas associated with objects using augmented-reality display techniques
US20170287215A1 (en) * 2016-03-29 2017-10-05 Google Inc. Pass-through camera user interface elements for virtual reality
WO2017203774A1 (ja) * 2016-05-26 2017-11-30 ソニー株式会社 情報処理装置、情報処理方法及び記憶媒体
JP6755728B2 (ja) * 2016-06-23 2020-09-16 本田技研工業株式会社 コンテンツ出力システム及び方法
CN106470277A (zh) * 2016-09-06 2017-03-01 乐视控股(北京)有限公司 一种安全提示方法及装置
CN106781242B (zh) * 2016-11-25 2019-03-12 北京小米移动软件有限公司 危险区域的预警方法和装置
CN107223235B (zh) * 2016-12-14 2022-02-25 达闼机器人有限公司 一种辅助显示方法、装置及显示系统
US10204455B2 (en) 2016-12-31 2019-02-12 Intel Corporation Collision prevention for virtual reality systems
US10360437B2 (en) * 2017-03-22 2019-07-23 T-Mobile Usa, Inc. Collision avoidance system for augmented reality environments
WO2018200315A1 (en) * 2017-04-26 2018-11-01 Pcms Holdings, Inc. Method and apparatus for projecting collision-deterrents in virtual reality viewing environments
US10317990B2 (en) 2017-05-25 2019-06-11 International Business Machines Corporation Augmented reality to facilitate accessibility
CN107229706A (zh) * 2017-05-25 2017-10-03 广州市动景计算机科技有限公司 一种基于增强现实的信息获取方法及其装置
EP3483104B1 (en) 2017-11-10 2021-09-01 Otis Elevator Company Systems and methods for providing information regarding elevator systems
US11501224B2 (en) 2018-01-24 2022-11-15 Andersen Corporation Project management system with client interaction
US10859831B1 (en) * 2018-05-16 2020-12-08 Facebook Technologies, Llc Systems and methods for safely operating a mobile virtual reality system
US10452915B1 (en) * 2018-08-08 2019-10-22 Capital One Services, Llc Systems and methods for depicting vehicle information in augmented reality
JP2021536592A (ja) 2018-08-31 2021-12-27 マジック リープ, インコーポレイテッドMagic Leap, Inc. 拡張現実デバイスのための空間的に分解された動的調光
CN109344728B (zh) * 2018-09-07 2021-09-17 浙江大丰实业股份有限公司 舞台剪刀撑安全维护平台
GB2578133A (en) * 2018-10-18 2020-04-22 British Telecomm Augumented reality system
US11297223B2 (en) * 2018-11-16 2022-04-05 International Business Machines Corporation Detecting conditions and alerting users during photography
JP2022517207A (ja) 2019-01-11 2022-03-07 マジック リープ, インコーポレイテッド 種々の深度における仮想コンテンツの時間多重化された表示
US11132052B2 (en) * 2019-07-19 2021-09-28 Disney Enterprises, Inc. System for generating cues in an augmented reality environment
US11544921B1 (en) 2019-11-22 2023-01-03 Snap Inc. Augmented reality items based on scan
WO2021183736A1 (en) * 2020-03-13 2021-09-16 Harmonix Music Systems, Inc. Techniques for virtual reality boundaries and related systems and methods
JP7439694B2 (ja) * 2020-08-11 2024-02-28 トヨタ自動車株式会社 情報処理装置、情報処理方法、及びプログラム
US12032803B2 (en) 2020-09-23 2024-07-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US11615596B2 (en) 2020-09-24 2023-03-28 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US11562528B2 (en) 2020-09-25 2023-01-24 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
CN112287928A (zh) * 2020-10-20 2021-01-29 深圳市慧鲤科技有限公司 一种提示方法、装置、电子设备及存储介质
US11954242B2 (en) 2021-01-04 2024-04-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
WO2022147146A1 (en) * 2021-01-04 2022-07-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
CN112861725A (zh) * 2021-02-09 2021-05-28 深圳市慧鲤科技有限公司 一种导航提示方法、装置、电子设备及存储介质
CN113703580A (zh) * 2021-08-31 2021-11-26 歌尔光学科技有限公司 Vr导向显示方法、装置、设备及计算机可读存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3078359U (ja) * 2000-12-15 2001-07-10 株式会社 アルファプログレス 車輌に関する情報を視点箇所に表示する表示装置
JP2002340583A (ja) * 2001-05-17 2002-11-27 Honda Motor Co Ltd 周辺車両情報提供装置
JP2003240850A (ja) * 2002-02-18 2003-08-27 Nec Corp 前方障害物検出機能付き携帯情報端末
JP2005075190A (ja) * 2003-09-01 2005-03-24 Nissan Motor Co Ltd 車両用表示装置
WO2005108926A1 (ja) * 2004-05-12 2005-11-17 Takashi Yoshimine 情報処理装置、携帯機器及び情報処理方法
JP2006174288A (ja) * 2004-12-17 2006-06-29 Sharp Corp 携帯端末装置、衝突防止方法、衝突防止プログラムおよび記録媒体
JP2006301924A (ja) * 2005-04-20 2006-11-02 Canon Inc 画像処理方法および画像処理装置
JP2007028363A (ja) * 2005-07-20 2007-02-01 Alpine Electronics Inc トップビュー画像生成装置及びトップビュー画像表示方法
JP2008230296A (ja) * 2007-03-16 2008-10-02 Mazda Motor Corp 車両用運転支援システム
JP2010239568A (ja) * 2009-03-31 2010-10-21 Ntt Docomo Inc 情報提示システム、情報提示サーバ、通信端末、および情報提示方法

Family Cites Families (89)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7243945B2 (en) * 1992-05-05 2007-07-17 Automotive Technologies International, Inc. Weight measuring systems and methods for vehicles
JPH07199042A (ja) * 1993-12-28 1995-08-04 Canon Inc 視線検出機能付カメラ
US5706195A (en) * 1995-09-05 1998-01-06 General Electric Company Augmented reality maintenance system for multiple rovs
DE19647660B4 (de) * 1996-11-19 2005-09-01 Daimlerchrysler Ag Auslösevorrichtung für Insassenrückhaltesysteme in einem Fahrzeug
US9183306B2 (en) * 1998-12-18 2015-11-10 Microsoft Technology Licensing, Llc Automated selection of appropriate information based on a computer user's context
KR100466458B1 (ko) * 1999-09-20 2005-01-14 마츠시타 덴끼 산교 가부시키가이샤 운전지원장치
US20020196202A1 (en) * 2000-08-09 2002-12-26 Bastian Mark Stanley Method for displaying emergency first responder command, control, and safety information using augmented reality
US20020191004A1 (en) * 2000-08-09 2002-12-19 Ebersole John Franklin Method for visualization of hazards utilizing computer-generated three-dimensional representations
US20030210228A1 (en) * 2000-02-25 2003-11-13 Ebersole John Franklin Augmented reality situational awareness system and method
DE10030813B4 (de) * 2000-06-23 2004-02-12 Daimlerchrysler Ag Aufmerksamkeitssteuerung für Bediener einer technischen Einrichtung
US6903707B2 (en) * 2000-08-09 2005-06-07 Information Decision Technologies, Llc Method for using a motorized camera mount for tracking in augmented reality
US6891960B2 (en) * 2000-08-12 2005-05-10 Facet Technology System for road sign sheeting classification
US20020052724A1 (en) * 2000-10-23 2002-05-02 Sheridan Thomas B. Hybrid vehicle operations simulator
JP2002316602A (ja) * 2001-04-24 2002-10-29 Matsushita Electric Ind Co Ltd 車載カメラの撮像画像表示方法及びその装置
EP1438703A1 (en) * 2001-09-07 2004-07-21 The General Hospital Corporation Medical procedure training system
US6917370B2 (en) * 2002-05-13 2005-07-12 Charles Benton Interacting augmented reality and virtual reality
US7002551B2 (en) * 2002-09-25 2006-02-21 Hrl Laboratories, Llc Optical see-through augmented reality modified-scale display
US7762665B2 (en) * 2003-03-21 2010-07-27 Queen's University At Kingston Method and apparatus for communication between humans and devices
US7079024B2 (en) * 2003-05-23 2006-07-18 Ramon Alarcon Alert system for prevention of collisions with low visibility mobile road hazards
DE10336638A1 (de) * 2003-07-25 2005-02-10 Robert Bosch Gmbh Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld
US7356408B2 (en) * 2003-10-17 2008-04-08 Fuji Jukogyo Kabushiki Kaisha Information display apparatus and information display method
US6992592B2 (en) * 2003-11-06 2006-01-31 International Business Machines Corporation Radio frequency identification aiding the visually impaired with sound skins
US8225226B2 (en) * 2003-12-31 2012-07-17 Abb Research Ltd. Virtual control panel
US8521411B2 (en) * 2004-06-03 2013-08-27 Making Virtual Solid, L.L.C. En-route navigation display method and apparatus using head-up display
KR100594117B1 (ko) * 2004-09-20 2006-06-28 삼성전자주식회사 Hmd 정보 단말기에서 생체 신호를 이용하여 키를입력하는 장치 및 방법
JP4696248B2 (ja) * 2004-09-28 2011-06-08 国立大学法人 熊本大学 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置
US7746378B2 (en) * 2004-10-12 2010-06-29 International Business Machines Corporation Video analysis, archiving and alerting methods and apparatus for a distributed, modular and extensible video surveillance system
DE102005061211B4 (de) * 2004-12-22 2023-04-06 Abb Schweiz Ag Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche
US7349783B2 (en) * 2005-06-09 2008-03-25 Delphi Technologies, Inc. Supplemental restraint deployment method with anticipatory crash classification
US7737965B2 (en) * 2005-06-09 2010-06-15 Honeywell International Inc. Handheld synthetic vision device
SE529304C2 (sv) * 2005-09-06 2007-06-26 Gm Global Tech Operations Inc Metod och system för förbättrande av trafiksäkerhet
JP4353162B2 (ja) * 2005-09-26 2009-10-28 トヨタ自動車株式会社 車輌周囲情報表示装置
US20080042878A1 (en) * 2006-08-17 2008-02-21 Soon Teck Heng Pedestrian road safety system
CN101432780B (zh) * 2006-09-04 2011-07-27 松下电器产业株式会社 危险判定装置、危险判定方法和危险通知装置
WO2008041497A1 (en) * 2006-09-29 2008-04-10 Aisin Seiki Kabushiki Kaisha Alarm device for vehicle and alarm method for vehicle
JP5262057B2 (ja) * 2006-11-17 2013-08-14 株式会社豊田中央研究所 照射装置
WO2008068832A1 (ja) * 2006-12-04 2008-06-12 Fujitsu Limited 運転模擬評価方法、運転模擬評価装置及びコンピュータプログラム
JP5088669B2 (ja) * 2007-03-23 2012-12-05 株式会社デンソー 車両周辺監視装置
US7710248B2 (en) * 2007-06-12 2010-05-04 Palo Alto Research Center Incorporated Human-machine-interface (HMI) customization based on collision assessments
DE102007033391A1 (de) * 2007-07-18 2009-01-22 Robert Bosch Gmbh Informationsvorrichtung, Verfahren zur Information und/oder Navigation von einer Person sowie Computerprogramm
US20090009313A1 (en) * 2007-07-03 2009-01-08 Pippins Sr Joseph M System and method for promoting safe driving
US20090115593A1 (en) * 2007-11-02 2009-05-07 Gm Global Technology Operations, Inc. Vehicular warning system and method
US8102334B2 (en) * 2007-11-15 2012-01-24 International Businesss Machines Corporation Augmenting reality for a user
US20090218157A1 (en) * 2008-02-28 2009-09-03 David Rammer Radar Deployed Fender Air Bag
FR2930069A1 (fr) * 2008-04-14 2009-10-16 Jacques Belloteau Procede et dispositif de guidage individuel.
NL1035303C2 (nl) * 2008-04-16 2009-10-19 Virtual Proteins B V Interactieve virtuele reality eenheid.
DE102008002322A1 (de) * 2008-06-10 2009-12-17 Robert Bosch Gmbh Tragbare Vorrichtung mit Warnsystem und Verfahren
US20110187844A1 (en) * 2008-09-12 2011-08-04 Kabushiki Kaisha Toshiba Image irradiation system and image irradiation method
US8013747B2 (en) * 2008-09-24 2011-09-06 Arima Communications Corp. Driving safety warning method and device for a drowsy or distracted driver
US8606657B2 (en) * 2009-01-21 2013-12-10 Edgenet, Inc. Augmented reality method and system for designing environments and buying/selling goods
US8935055B2 (en) * 2009-01-23 2015-01-13 Robert Bosch Gmbh Method and apparatus for vehicle with adaptive lighting system
CN101539804A (zh) * 2009-03-11 2009-09-23 上海大学 基于增强虚拟现实与异型屏的实时人机互动方法及系统
US20100238161A1 (en) * 2009-03-19 2010-09-23 Kenneth Varga Computer-aided system for 360º heads up display of safety/mission critical data
JP2010223829A (ja) * 2009-03-24 2010-10-07 Fujitsu Ltd 移動装置及びプログラム
US8269652B2 (en) * 2009-04-02 2012-09-18 GM Global Technology Operations LLC Vehicle-to-vehicle communicator on full-windshield head-up display
US9728006B2 (en) * 2009-07-20 2017-08-08 Real Time Companies, LLC Computer-aided system for 360° heads up display of safety/mission critical data
US8427326B2 (en) * 2009-07-30 2013-04-23 Meir Ben David Method and system for detecting the physiological onset of operator fatigue, drowsiness, or performance decrement
JP5483535B2 (ja) * 2009-08-04 2014-05-07 アイシン精機株式会社 車両周辺認知支援装置
US8531526B1 (en) * 2009-08-25 2013-09-10 Clinton A. Spence Wearable video recorder and monitor system and associated method
KR101648339B1 (ko) * 2009-09-24 2016-08-17 삼성전자주식회사 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치
US8340894B2 (en) * 2009-10-08 2012-12-25 Honda Motor Co., Ltd. Method of dynamic intersection mapping
JP4952765B2 (ja) * 2009-10-21 2012-06-13 トヨタ自動車株式会社 車両用夜間視界支援装置
CN102396009B (zh) * 2009-11-09 2014-06-25 松下电器产业株式会社 注意力状态判定装置、方法
US8597027B2 (en) * 2009-11-25 2013-12-03 Loren J. Staplin Dynamic object-based assessment and training of expert visual search and scanning skills for operating motor vehicles
KR101229078B1 (ko) * 2009-12-21 2013-02-04 한국전자통신연구원 실내외 상황인식 기반의 모바일 혼합현실 콘텐츠 운용 장치 및 방법
DE102010001684A1 (de) * 2010-02-09 2011-08-11 Robert Bosch GmbH, 70469 Verfahren zum Betreiben eines Head-Up-Display-Systems, Head-Up-Display-System
US9128281B2 (en) * 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US9901828B2 (en) * 2010-03-30 2018-02-27 Sony Interactive Entertainment America Llc Method for an augmented reality character to maintain and exhibit awareness of an observer
US8284847B2 (en) * 2010-05-03 2012-10-09 Microsoft Corporation Detecting motion for a multifunction sensor device
US8543319B2 (en) * 2010-05-12 2013-09-24 Renesas Electronics Corporation Communication equipment, inter-vehicle communication control method and inter-vehicle communication system
CN201673267U (zh) * 2010-05-18 2010-12-15 山东师范大学 基于增强现实技术的生命探测与救援系统
JP4688981B1 (ja) * 2010-05-26 2011-05-25 三菱電機株式会社 車外への音発生装置
US20110316845A1 (en) * 2010-06-25 2011-12-29 Palo Alto Research Center Incorporated Spatial association between virtual and augmented reality
JP5548542B2 (ja) * 2010-07-13 2014-07-16 富士通テン株式会社 携帯端末装置および駐車位置案内プログラム
JP2012034076A (ja) * 2010-07-29 2012-02-16 Alps Electric Co Ltd 車両用視覚補助システム及び該システムを備える車両
KR101726849B1 (ko) * 2010-08-06 2017-04-13 삼성전자주식회사 휴대 단말, 휴대 단말을 이용한 위험 감지 장치 및 방법
US8558718B2 (en) * 2010-09-20 2013-10-15 Honda Motor Co., Ltd. Method of controlling a collision warning system using line of sight
JP5814532B2 (ja) * 2010-09-24 2015-11-17 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム及び表示制御方法
US20120075088A1 (en) * 2010-09-29 2012-03-29 Mesa Digital, LLC. Safe distance measuring device for a vehicle
DE102010046915A1 (de) * 2010-09-29 2012-03-29 Gm Global Technology Operations Llc (N.D.Ges.D. Staates Delaware) Kraftfahrzeug mit Warnsystem
WO2012068280A1 (en) * 2010-11-16 2012-05-24 Echo-Sense Inc. Remote guidance system
CN103201731B (zh) * 2010-12-02 2016-01-20 英派尔科技开发有限公司 增强现实系统
US10996073B2 (en) * 2010-12-02 2021-05-04 Telenav, Inc. Navigation system with abrupt maneuver monitoring mechanism and method of operation thereof
EP3450920B1 (en) * 2010-12-30 2023-05-24 TomTom Navigation B.V. Methods and systems of providing information using a navigation apparatus
US8849483B2 (en) * 2011-04-13 2014-09-30 California Institute Of Technology Target trailing with safe navigation with colregs for maritime autonomous surface vehicles
US8963956B2 (en) * 2011-08-19 2015-02-24 Microsoft Technology Licensing, Llc Location based skins for mixed reality displays
KR102028720B1 (ko) * 2012-07-10 2019-11-08 삼성전자주식회사 위험 요소에 대한 정보를 디스플레이하는 투명 디스플레이 장치 및 그 방법
US9048960B2 (en) * 2012-08-17 2015-06-02 Qualcomm Incorporated Methods and apparatus for communicating safety message information
US9619939B2 (en) * 2013-07-31 2017-04-11 Microsoft Technology Licensing, Llc Mixed reality graduated information delivery

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3078359U (ja) * 2000-12-15 2001-07-10 株式会社 アルファプログレス 車輌に関する情報を視点箇所に表示する表示装置
JP2002340583A (ja) * 2001-05-17 2002-11-27 Honda Motor Co Ltd 周辺車両情報提供装置
JP2003240850A (ja) * 2002-02-18 2003-08-27 Nec Corp 前方障害物検出機能付き携帯情報端末
JP2005075190A (ja) * 2003-09-01 2005-03-24 Nissan Motor Co Ltd 車両用表示装置
WO2005108926A1 (ja) * 2004-05-12 2005-11-17 Takashi Yoshimine 情報処理装置、携帯機器及び情報処理方法
JP2006174288A (ja) * 2004-12-17 2006-06-29 Sharp Corp 携帯端末装置、衝突防止方法、衝突防止プログラムおよび記録媒体
JP2006301924A (ja) * 2005-04-20 2006-11-02 Canon Inc 画像処理方法および画像処理装置
JP2007028363A (ja) * 2005-07-20 2007-02-01 Alpine Electronics Inc トップビュー画像生成装置及びトップビュー画像表示方法
JP2008230296A (ja) * 2007-03-16 2008-10-02 Mazda Motor Corp 車両用運転支援システム
JP2010239568A (ja) * 2009-03-31 2010-10-21 Ntt Docomo Inc 情報提示システム、情報提示サーバ、通信端末、および情報提示方法

Cited By (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013257716A (ja) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc 障害物回避装置および障害物回避方法
US9599818B2 (en) 2012-06-12 2017-03-21 Sony Corporation Obstacle avoidance apparatus and obstacle avoidance method
JP2014093034A (ja) * 2012-11-06 2014-05-19 Nintendo Co Ltd 情報処理用プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2014119786A (ja) * 2012-12-13 2014-06-30 Seiko Epson Corp 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、作業支援システム
US9448407B2 (en) 2012-12-13 2016-09-20 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and work supporting system
US9418293B2 (en) 2012-12-27 2016-08-16 Sony Corporation Information processing apparatus, content providing method, and computer program
JP2016512626A (ja) * 2013-01-12 2016-04-28 マイクロソフト テクノロジー ライセンシング,エルエルシー ウェアラブルな行動ベース視覚システム
JP2014170330A (ja) * 2013-03-02 2014-09-18 Yasuaki Iwai 仮想現実提示システム、仮想現実提示方法、仮想現実提示装置
WO2014171200A1 (ja) 2013-04-16 2014-10-23 ソニー株式会社 情報処理装置及び情報処理方法、表示装置及び表示方法、並びに情報処理システム
JP2014216962A (ja) * 2013-04-26 2014-11-17 京セラ株式会社 電子機器及びシステム
JP2016532178A (ja) * 2013-06-08 2016-10-13 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイにおいて、透過モードと非透過モードとの間を移行するシステム及び方法
JP2015059965A (ja) * 2013-09-17 2015-03-30 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
JP2018099523A (ja) * 2013-09-30 2018-06-28 株式会社ソニー・インタラクティブエンタテインメント 物理オブジェクトの画像をフェードアウトする方法
JP2016541035A (ja) * 2013-09-30 2016-12-28 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイのユーザー向けカメラベース安全機構
JP2017148530A (ja) * 2013-09-30 2017-08-31 株式会社ソニー・インタラクティブエンタテインメント 物理オブジェクトの画像をフェードアウトする方法
JP2015143976A (ja) * 2013-12-25 2015-08-06 キヤノンマーケティングジャパン株式会社 情報処理装置及びその制御方法、プログラム
JP2016062277A (ja) * 2014-09-18 2016-04-25 泰章 岩井 仮想現実提示システム、仮想現実提示装置、仮想現実提示方法
JP2017535901A (ja) * 2014-11-05 2017-11-30 バルブ コーポレーション 仮想現実環境においてユーザをガイドするための感覚フィードバックシステム及び方法
US11334145B2 (en) 2014-11-05 2022-05-17 Valve Corporation Sensory feedback systems and methods for guiding users in virtual reality environments
US10241566B2 (en) 2014-11-05 2019-03-26 Valve Corporation Sensory feedback systems and methods for guiding users in virtual reality environments
US11747627B2 (en) 2015-03-16 2023-09-05 Magic Leap, Inc. Augmented and virtual reality display systems and methods for diagnosing health conditions based on visual fields
JP7179910B2 (ja) 2015-03-16 2022-11-29 マジック リープ,インコーポレイティド 健康を損う疾病を診断して治療する方法及びシステム
US11474359B2 (en) 2015-03-16 2022-10-18 Magic Leap, Inc. Augmented and virtual reality display systems and methods for diagnosing health conditions based on visual fields
JP2021130010A (ja) * 2015-03-16 2021-09-09 マジック リープ,インコーポレイティド 健康を損う疾病を診断して治療する方法及びシステム
JPWO2017006640A1 (ja) * 2015-07-08 2018-06-07 ソニー株式会社 情報処理装置、表示装置、情報処理方法及びプログラム
KR20170051136A (ko) * 2015-10-29 2017-05-11 삼성전자주식회사 헤드 마운트 디스플레이의 사용자에게 알림을 제공하기 위한 방법 및 장치
KR102627636B1 (ko) * 2015-10-29 2024-01-22 삼성전자주식회사 헤드 마운트 디스플레이의 사용자에게 알림을 제공하기 위한 방법 및 장치
JP2017091433A (ja) * 2015-11-17 2017-05-25 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
JP2019215871A (ja) * 2016-03-23 2019-12-19 日本電気株式会社 眼鏡型ウェアラブル端末及びその制御プログラム並びに通知方法
US11132887B2 (en) 2016-03-23 2021-09-28 Nec Corporation Eyeglasses-type wearable terminal, control method thereof, and control program
JPWO2017191702A1 (ja) * 2016-05-02 2018-11-22 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置
US10540825B2 (en) 2016-05-02 2020-01-21 Sony Interactive Entertainment Inc. Image processing apparatus
WO2017191702A1 (ja) * 2016-05-02 2017-11-09 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置
JP7090410B2 (ja) 2016-09-06 2022-06-24 インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ 拡張現実のシーンを再生する際の自動ズームのための方法、装置及びシステム
JP2018067301A (ja) * 2016-09-06 2018-04-26 トムソン ライセンシングThomson Licensing 拡張現実のシーンを再生する際の自動ズームのための方法、装置及びシステム
KR101849021B1 (ko) * 2016-12-08 2018-04-16 한양대학교 에리카산학협력단 가상/증강 현실 공간 창조 방법 및 시스템
CN106652332A (zh) * 2016-12-15 2017-05-10 英业达科技有限公司 虚拟实景装置的安防系统
JP2017142790A (ja) * 2017-02-01 2017-08-17 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、作業支援システム
US11982916B2 (en) 2017-02-23 2024-05-14 Magic Leap, Inc. Variable-focus virtual image devices based on polarization conversion
US11714326B2 (en) 2017-02-23 2023-08-01 Magic Leap, Inc. Variable-focus virtual image devices based on polarization conversion
WO2018179523A1 (ja) * 2017-03-31 2018-10-04 株式会社ニコン 電子機器およびプログラム
JP7251472B2 (ja) 2017-03-31 2023-04-04 株式会社ニコン 電子機器およびプログラム
JPWO2018179523A1 (ja) * 2017-03-31 2020-02-06 株式会社ニコン 電子機器およびプログラム
US11176748B2 (en) 2017-12-19 2021-11-16 Sony Interactive Entertainment Inc. Image processing apparatus, image processing method, and program
JPWO2019123729A1 (ja) * 2017-12-19 2020-12-17 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理方法、およびプログラム
WO2019123729A1 (ja) * 2017-12-19 2019-06-27 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理方法、およびプログラム
JP2018195321A (ja) * 2018-07-03 2018-12-06 株式会社東芝 ウェアラブル端末及び方法
US11570870B2 (en) 2018-11-02 2023-01-31 Sony Group Corporation Electronic device and information provision system
WO2020090266A1 (ja) * 2018-11-02 2020-05-07 ソニー株式会社 電子デバイス、情報提供システム
JP7316354B2 (ja) 2019-05-15 2023-07-27 株式会社Nttドコモ 処理装置
WO2020230892A1 (ja) * 2019-05-15 2020-11-19 株式会社Nttドコモ 処理装置
JPWO2020230892A1 (ja) * 2019-05-15 2020-11-19
US11900795B2 (en) 2019-05-20 2024-02-13 Panasonic Intellectual Property Management Co., Ltd. Pedestrian device and traffic safety assistance method
JP2021060957A (ja) * 2019-10-07 2021-04-15 株式会社mediVR リハビリテーション支援装置、その方法およびプログラム
JP7448943B2 (ja) 2019-10-07 2024-03-13 株式会社mediVR リハビリテーション支援装置、その方法およびプログラム
WO2021112043A1 (ja) * 2019-12-04 2021-06-10 公立大学法人岩手県立大学 表示装置、表示システム及びプログラム
JP2021090142A (ja) * 2019-12-04 2021-06-10 公立大学法人岩手県立大学 表示装置、表示システム及びプログラム
JP7131780B2 (ja) 2019-12-19 2022-09-06 株式会社ガク・アソシエイツ 境界線可視化システム、境界線可視化方法、境界線可視化プログラムおよびデジタルフォトアルバム作成システム
JPWO2021124516A1 (ja) * 2019-12-19 2021-12-23 株式会社ガク・アソシエイツ 境界線可視化システム、境界線可視化方法、境界線可視化プログラムおよびデジタルフォトアルバム作成システム
KR102722558B1 (ko) * 2022-07-01 2024-10-29 주식회사 코너스 작업현장 위험감지 시스템

Also Published As

Publication number Publication date
CN102622850A (zh) 2012-08-01
US20120194554A1 (en) 2012-08-02

Similar Documents

Publication Publication Date Title
JP5691568B2 (ja) 情報処理装置、報知方法及びプログラム
JP2012155655A (ja) 情報処理装置、報知方法及びプログラム
US9975483B1 (en) Driver assist using smart mobile devices
US11107349B2 (en) Sidewalk detection for electric scooters
US9420559B2 (en) Obstacle detection and warning system using a mobile device
US9451062B2 (en) Mobile device edge view display insert
US8953841B1 (en) User transportable device with hazard monitoring
US11132887B2 (en) Eyeglasses-type wearable terminal, control method thereof, and control program
WO2018156549A1 (en) Personal navigation system
KR101218257B1 (ko) 레이더를 이용한 야생동물 침입 탐지 방법 및 그 시스템
Tung et al. Use of phone sensors to enhance distracted pedestrians’ safety
JP2016066231A (ja) 衝突防止装置、衝突防止方法、衝突防止プログラムおよび記録媒体
EP2846172A1 (en) Warning system and method
US20220092981A1 (en) Systems and methods for controlling vehicle traffic
CN106713639A (zh) 避障提醒方法、避障提醒装置和移动终端
KR101862986B1 (ko) 스마트 폰을 사용하며 보행중인 사용자 경보 시스템 및 방법
WO2017185268A1 (zh) 一种检测道路障碍物的方法及装置
JP4277678B2 (ja) 車両運転支援装置
US20160335916A1 (en) Portable device and control method using plurality of cameras
Wei et al. Automatic accident detection and alarm system
JP2018206210A (ja) 衝突事故抑制システム及び衝突事故抑制方法
JP6874456B2 (ja) 衝突防止装置、通信システム、衝突防止方法、およびコンピュータプログラム
CN101363738A (zh) 便携式导航仪
JP7422344B2 (ja) 報知制御装置、報知装置、報知制御方法および報知制御プログラム
US20240012491A1 (en) Method and communication device for positioning estimation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131211

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150310

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150630