JP6025433B2 - Portable navigation device - Google Patents
Portable navigation device Download PDFInfo
- Publication number
- JP6025433B2 JP6025433B2 JP2012158449A JP2012158449A JP6025433B2 JP 6025433 B2 JP6025433 B2 JP 6025433B2 JP 2012158449 A JP2012158449 A JP 2012158449A JP 2012158449 A JP2012158449 A JP 2012158449A JP 6025433 B2 JP6025433 B2 JP 6025433B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- route
- augmented reality
- navigation device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003190 augmentative effect Effects 0.000 claims description 48
- 230000035945 sensitivity Effects 0.000 claims description 24
- 238000001514 detection method Methods 0.000 claims description 18
- 230000004044 response Effects 0.000 claims description 5
- 238000003860 storage Methods 0.000 description 23
- 238000013500 data storage Methods 0.000 description 12
- 238000000034 method Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 230000010365 information processing Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
Images
Landscapes
- Instructional Devices (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、携帯ナビゲーション装置に関する。 The present invention relates to a portable navigation device.
近年、スマートフォン等の携帯端末の普及に伴い、歩行者向けのナビゲーションサービスが利用されるようになってきている。このようなサービスでは、例えば、現在位置付近の地図や目的地までの経路などを含む経路情報が、携帯端末の画面上に表示される。ところが、自動車向けのナビゲーションの場合と異なり、歩行者は進行方向の自由度が高いため、画面上に表示された地図と現実との整合に時間がかかってしまうことがある。 In recent years, with the spread of mobile terminals such as smartphones, navigation services for pedestrians have been used. In such a service, for example, route information including a map near the current position and a route to the destination is displayed on the screen of the mobile terminal. However, unlike navigation for automobiles, pedestrians have a high degree of freedom in the direction of travel, and it may take time to match the map displayed on the screen with reality.
そこで、地図を表示するのではなく、拡張現実(AR:Augmented Reality)によってナビゲーションをすることが考えられている。例えば、特許文献1には、ヘッドマウントディスプレイ(HMD)を用いることにより、現実世界の画像上に、目的地に向かって移動していくキャラクタを重畳して表示する手法が開示されている。 Therefore, it is considered to perform navigation by augmented reality (AR) instead of displaying a map. For example, Patent Document 1 discloses a method of superimposing and displaying a character moving toward a destination on a real-world image by using a head-mounted display (HMD).
たしかに、ARによるナビゲーションは、案内人に道案内される際の感覚に近く、歩行者にとっては違和感が少ない。しかしながら、ARによるナビゲーションだけでは、歩行者の目の前の状況しか把握することができず、不便である場合もある。例えば、歩行者は、ARによるナビゲーションを利用している際にも、地図上で経路や周辺の状況を確認したい場合もある。 Certainly, navigation by AR is close to the sense of being guided by a guide, and there is little discomfort for pedestrians. However, only the navigation by AR can grasp only the situation in front of the pedestrian, which may be inconvenient. For example, a pedestrian may want to check a route and surrounding conditions on a map even when using AR navigation.
本発明はこのような事情に鑑みてなされたものであり、ARによるナビゲーションを利用する際の利便性を高めることを目的とする。 The present invention has been made in view of such circumstances, and an object of the present invention is to improve convenience when using navigation by AR.
本発明の一側面に係る携帯ナビゲーション装置は、画像を表示する表示部と、目的地までの経路を示す経路情報を取得する経路情報取得部と、現実世界の画像を取得する画像取得部と、経路情報に基づいて、経路に従って進行するキャラクタの画像を現実世界の画像に重畳した拡張現実画像を生成する拡張現実画像生成部と、経路情報に基づいて、経路を地図上に示した地図画像を生成する地図画像生成部と、表示部の水平方向からの傾き角度を検出する角度検出部と、角度が所定の閾値以上である場合は、拡張現実画像を表示部に出力し、角度が所定の閾値未満である場合は、地図画像を表示部に出力する表示制御部と、を備える。 A mobile navigation device according to one aspect of the present invention includes a display unit that displays an image, a route information acquisition unit that acquires route information indicating a route to a destination, an image acquisition unit that acquires an image of the real world, Based on the route information, an augmented reality image generating unit that generates an augmented reality image in which an image of a character traveling according to the route is superimposed on a real world image; and a map image showing the route on the map based on the route information. A map image generation unit to be generated, an angle detection unit for detecting a tilt angle from the horizontal direction of the display unit, and an angle that is equal to or greater than a predetermined threshold, an augmented reality image is output to the display unit, and the angle is And a display control unit that outputs a map image to the display unit when it is less than the threshold value.
なお、本発明において、「部」とは、単に物理的手段を意味するものではなく、その「部」が有する機能をソフトウェアによって実現する場合も含む。また、1つの「部」や装置が有する機能が2つ以上の物理的手段や装置により実現されても、2つ以上の「部」や装置の機能が1つの物理的手段や装置により実現されてもよい。 In the present invention, the “part” does not simply mean a physical means, but includes a case where the function of the “part” is realized by software. Also, even if the functions of one “unit” or device are realized by two or more physical means or devices, the functions of two or more “units” or devices are realized by one physical means or device. May be.
本発明によれば、ARによるナビゲーションを利用する際の利便性を高めることが可能となる。 According to the present invention, it is possible to improve convenience when using navigation by AR.
以下、図面を参照して本発明の一実施形態について説明する。図1は、本発明の一実施形態である携帯端末を含むナビゲーションシステムの構成の一例を示す図である。図1に示すように、ナビゲーションシステムは、ナビゲーションサーバ10及び携帯端末20を含んで構成されている。ナビゲーションサーバ10及び携帯端末20は、例えば、携帯電話の基地局やインターネットを介して通信可能に接続されている。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating an example of a configuration of a navigation system including a mobile terminal according to an embodiment of the present invention. As shown in FIG. 1, the navigation system includes a
まず、ナビゲーションサーバ10について説明する。ナビゲーションサーバ10は、携帯端末20に対して歩行者向けのナビゲーションサービスを提供するものであり、1台または複数台の情報処理装置を用いて構成される。図1に示すように、ナビゲーションサーバ10は、経路ネットワーク情報記憶部30、地図情報記憶部32、施設位置情報記憶部34、経路探索部36、経路情報提供部38、及び位置特定部40を含んで構成することができる。これらの各部は、例えば、メモリや記憶装置等の記憶領域を用いたり、記憶領域に格納されているプログラムをプロセッサが実行したりすることにより実現することができる。
First, the
経路ネットワーク情報記憶部30は、経路ネットワークを構成するノードやリンクに関する情報である経路ネットワーク情報を記憶している。具体的には、経路ネットワーク情報には、各ノードの緯度・経度等を示す位置情報や、ノード間を接続する道路であるリンクを示す情報が含まれる。
The route network
地図情報記憶部32は、経路案内において利用可能な地図情報を記憶している。地図情報には、例えば、平面地図や三次元空間画像等の画像情報が含まれている。三次元空間画像とは、例えば、事前に撮影された画像(いわゆる、ストリートビュー(登録商標)画像)や、ポリゴンにより表現された画像等である。
The map
施設位置情報記憶部34は、各種施設の位置情報である施設位置情報を記憶している。施設位置情報には、例えば、施設ID、緯度・経度、特徴情報等が含まれる。なお、施設には、例えば、建物や店舗等の施設そのものの他に、建物に設置された看板等の各種物体も含まれる。また、特徴情報は、施設の特徴を示す情報であり、例えば、施設の外観画像や名称等を示す情報が含まれる。例えば、施設が看板である場合、特徴情報には、看板に記載されている文字を示す文字情報が含まれることとしてもよい。
The facility location
経路探索部36は、携帯端末20からの経路探索要求に応じて、経路ネットワーク情報記憶部30を参照し、経路探索を実行する。経路探索要求には、例えば、出発地や目的地、経由地等の、経路探索条件が含まれる。
In response to a route search request from the
経路情報提供部38は、経路探索結果に基づいて経路案内を行う際に必要となる経路情報を携帯端末20に提供する。経路情報には、経路を構成するノードやリンクの情報の他に、経路案内用の地図情報や音声情報も含まれる。例えば、経路情報提供部38は、携帯端末20から表示対象の地図の種類や中心位置、縮尺、サイズ等を含む地図取得要求を受信し、該要求に応じた地図情報を地図情報記憶部32から取得することができる。
The route
位置特定部40は、携帯端末20からの目標物の位置特定要求に基づいて、該目標物の位置を特定することができる。目標物は、位置を特定可能な物であり、例えば、建物に設置された看板や、建物自身等である。位置特定要求には、例えば、目標物に記載された文字を示す文字情報や目標物を撮影した画像、現在位置等が含まれる。位置特定部40は、このような位置特定要求から目標物の特徴を示す特徴情報を抽出することができる。そして、位置特定部40は、抽出した特徴情報を施設位置情報記憶部34に記憶されている特徴情報と照合することにより、目標物に対応する施設を特定し、目標物の位置を特定することができる。なお、位置特定部40は、目標物を特定する際に、位置特定要求に含まれる現在位置を考慮することができる。例えば、位置特定部40は、特徴情報をもとに特定される施設が複数存在する場合に、現在位置に近い施設を目標物に対応する施設として特定することとしてもよい。
The
次に、携帯端末20について説明する。携帯端末20は、スマートフォンやタブレット端末等の携帯型情報処理装置である。本実施形態の携帯端末20は、ナビゲーション機能を備えた携帯ナビゲーション装置として用いることができる。図1に示すように、携帯端末20は、カメラ50、ディスプレイ52、GPS(Global Positioning System)モジュール54、角度センサ56、方位センサ58、感度判定部60、照度センサ62、経路情報取得部64、経路情報記憶部66、拡張現実画像生成部68、地図画像生成部70、表示制御部72、アイコン操作部74、通知部76、音声案内出力部78、撮影データ記憶部80、目標位置特定部82、目標方位特定部84、方位補正部86、及び補正データ記憶部88を含んで構成することができる。これらの各部は、例えば、各種デバイスを用いたり、メモリや記憶装置等の記憶領域を用いたり、記憶領域に格納されているプログラムをプロセッサが実行したりすることにより実現することができる。
Next, the
図2には、携帯端末20の外観の一例を示す図が示されている。図2(A)に示すように、携帯端末20には、ユーザが見る側の面(前面)にディスプレイ52(表示部)が設けられている。また、図2(B)に示すように、携帯端末20の背面には、カメラ50(画像取得部)が設けられている。携帯端末20では、カメラ50が向けられた方向の画像を撮影することができる。
FIG. 2 is a diagram illustrating an example of the appearance of the
GPSモジュール54(現在位置特定部)は、GPS衛星と通信することにより、ユーザの現在位置(携帯端末20の現在位置)を示す位置情報を出力することができる。位置情報には、例えば、緯度、経度、高度、測位精度などの情報が含まれる。 The GPS module 54 (current position specifying unit) can output position information indicating the current position of the user (current position of the mobile terminal 20) by communicating with a GPS satellite. The position information includes information such as latitude, longitude, altitude, and positioning accuracy.
角度センサ56(角度検出部)は、携帯端末20のディスプレイ52の水平方向からの傾き角度を検出可能なセンサである。角度センサ56は、例えば、ジャイロセンサを用いて構成することができる。例えば、角度センサ56は、ジャイロセンサから出力される角速度を積分することにより、角度を検出することができる。
The angle sensor 56 (angle detection unit) is a sensor that can detect an inclination angle of the
方位センサ58(方位検出部)は、携帯端末20が向けられている方位を検出可能なセンサである。ここで、携帯端末20が向けられている方位とは、例えば、携帯端末20の背面に設けられたカメラ50が向けられている方位である。方位センサ58は、例えば、地磁気センサを用いて構成することができる。
The direction sensor 58 (the direction detection unit) is a sensor that can detect the direction in which the
感度判定部60は、方位センサ58による方位検出の感度を判定することができる。感度判定部60は、例えば、方位センサ58の出力レベルの変化や、方位センサ58の出力信号に含まれる精度情報等に基づいて、方位検出の感度を判定することができる。
The sensitivity determination unit 60 can determine the sensitivity of direction detection by the
照度センサ62(照度検出部)は、携帯端末20の周囲の照度(明るさ)を検出可能なセンサである。照度センサ62は、例えば、フォトダイオード等の光学素子と、光学素子の出力に基づいて照度を検出する集積回路とを用いて構成することができる。
The illuminance sensor 62 (illuminance detection unit) is a sensor that can detect the illuminance (brightness) around the
経路情報取得部64は、ユーザに対して経路案内を行うために必要となる経路情報をナビゲーションサーバ10から取得し、経路情報記憶部66に格納する。具体的には、経路情報取得部64は、ユーザから、目的地や経由地等の経路探索条件を受け付け、該経路探索条件に基づいて、ナビゲーションサーバ10に経路探索要求を送信することができる。
The route
経路情報取得部64が取得する経路情報には、例えば、経路を構成するノードやリンクの情報や、経路案内用の地図情報、音声情報等が含まれる。なお、経路情報取得部64は、全ての経路情報を一度に取得するのではなく、必要な情報を必要なタイミングで取得することができる。例えば、経路情報取得部64は、最初に、経路を構成するノードやリンクの情報を取得することができる。その後、経路情報取得部64は、携帯端末20において経路とともに地図を表示するための地図情報を取得することができる。例えば、経路情報取得部64は、表示対象の地図の種類や中心位置、縮尺、サイズ等を含む地図取得要求をナビゲーションサーバ10に送信することにより、地図情報を取得することができる。
The route information acquired by the route
拡張現実画像生成部68は、カメラ50によって撮影された現実世界の画像に、経路案内を行うための画像を重畳した拡張現実(AR)画像を生成する。図3は、AR画像の生成の一例を説明するための図である。図3(A)には、カメラ50によって撮影された画像がディスプレイ52に表示された例が示されている。拡張現実画像生成部68は、この現実世界の画像に、経路案内を行うための画像を重畳したAR画像を生成することができる。図3(B)には、図3(A)の画像をもとに生成されたAR画像の一例が示されている。図3(B)に示すAR画像では、現実世界の画像に、キャラクタ100の画像が重畳されている。キャラクタ100は、経路情報によって示される経路に従って進行するものである。ユーザは、ディスプレイ52に表示されたキャラクタ100の後を追うことにより、経路どおりに進むことができる。
The augmented reality
なお、拡張現実画像生成部68は、ユーザの現在位置やユーザ操作に応じて、キャラクタ100が表示される位置を制御することができる。例えば、拡張現実画像生成部68は、経路上の、現在位置から所定距離離れた位置にキャラクタ100を表示することとしてもよい。また、拡張現実画像生成部68は、キャラクタ100が経路上を所定速度で移動するようにしてもよい。この速度は、例えば、あらかじめユーザによって設定されていてもよいし、AR画像が表示された状態において、ユーザからの指示によって設定されることとしてもよい。また、拡張現実画像生成部68は、ユーザからの指示に応じて、キャラクタの進行を停止させたり、進行を再開させたりしてもよい。
The augmented reality
また、拡張現実画像生成部68は、経路の分岐点においてキャラクタ100が待機するようにAR画像を生成することとしてもよい。図4には、経路の分岐点においてキャラクタ100が待機しているAR画像の一例が示されている。図4に示すように、キャラクタ100が経路の分岐点に到達した場合、拡張現実画像生成部68は、ユーザの現在位置とキャラクタ100の位置とが所定範囲内となるまでキャラクタ100を分岐点に待機させることとしてもよい。そして、拡張現実画像生成部68は、ユーザの現在位置とキャラクタ100の位置とが所定範囲内になると、キャラクタ100の進行を再開させることとしてもよい。このようにキャラクタ100の動きを制御することにより、経路の分岐点においてユーザがキャラクタ100を見失ってしまうことを防ぐことができる。
The augmented reality
また、図3(B)に示す例では、AR画像が表示される画面に「AR+地図」ボタン110が表示されている。このボタン110は、AR画像とともに地図画像を表示する画面に切り替えるためのものである。これについては後述する。
In the example shown in FIG. 3B, an “AR + Map”
なお、拡張現実画像生成部68は、カメラ50によって撮影された画像の代わりに、ナビゲーションサーバ10から取得される三次元空間画像を用いることも可能である。三次元空間画像は、カメラ50が向けられた方向に対応する画像であり、経路情報取得部64によってナビゲーションサーバ10から取得することができる。例えば、拡張現実画像生成部68は、夜間や雨天時など、照度センサ62によって検出される照度が所定の閾値未満である場合に、カメラ50によって撮影された画像の代わりに三次元空間画像を用いることとしてもよい。照度が低い場合はカメラ50によって撮影された画像が見にくくなるため、三次元空間画像を用いることにより、ユーザにとって見やすい経路案内画像を提供することができる。
Note that the augmented reality
図1に戻り、地図画像生成部70は、経路案内を行うための地図画像を生成する。例えば、地図画像生成部70は、経路情報に基づいて、現在位置付近の地図上に経路を示した地図画像を生成することができる。図5には、地図画像生成部70によって生成される地図画像の一例が示されている。図5に示す例では、経路を示す破線が地図上に表示されている。また、地図画像には、キャラクタ100の位置を示すアイコン120と、現在位置を示すアイコン130とが表示されている。
Returning to FIG. 1, the map
図1に戻り、表示制御部72は、経路案内を行うための画像の表示を制御する。例えば、表示制御部72は、ディスプレイ52に表示する画像をAR画像または地図画像のいずれとするかを切り替えることができる。図6には、表示制御部72による表示制御の一例が示されている。図6に示すように、表示制御部72は、角度センサ56によって検出された、携帯端末20のディスプレイ52の水平方向からの角度が所定の閾値(例えば45°)以上である場合は、AR画像をディスプレイ52に表示し、該角度が該閾値未満である場合は、地図画像をディスプレイ52に表示することができる。なお、図6に示される閾値(45°)は一例であり、他の閾値を用いることも可能である。
Returning to FIG. 1, the
ユーザがAR画像を見ながら経路を進む際には、進行方向の画像を確認するために、ディスプレイ52が垂直に近い角度となるように携帯端末20が保持された状態が自然であると考えられる。そのため、表示制御部72は、携帯端末20のディスプレイ52の水平方向からの角度が所定の閾値以上である場合は、AR画像をディスプレイ52に表示する。
When the user travels along the route while viewing the AR image, it is considered natural that the
一方、ユーザは、AR画像による経路案内中においても、例えば、現在位置付近の地図を確認したい場合がある。ユーザが地図画像を見る場合においては、ディスプレイ52を水平に近い角度となるように携帯端末20が保持された状態が自然であると考えられる。そのため、表示制御部72は、携帯端末20のディスプレイ52の水平方向からの角度が所定の閾値未満である場合は、地図画像をディスプレイ52に表示する。
On the other hand, the user may want to check, for example, a map near the current position even during route guidance using an AR image. When the user views the map image, it is considered natural that the
このように、表示制御部72は、携帯端末20のディスプレイ52の水平方向からの角度に基づいて、ユーザがAR画像または地図画像のいずれを見たいのかを判断し、ディスプレイ52に表示される画像を自動的に切り替えることができる。つまり、ユーザは、携帯端末20のディスプレイ52の水平方向からの角度を変えることにより、その角度に応じた適切な画像を見ることができる。
As described above, the
また、表示制御部72は、ユーザからの要求に応じて、AR画像及び地図画像をディスプレイ52に同時に表示することも可能である。例えば、図3(B)に示した画面において「AR+地図」110ボタンが押下されると、表示制御部72は、図7に示すように、AR画像及び地図画像をディスプレイ52に同時に表示することができる。また、例えば、図7に示す画面において「ARのみ」ボタン140が押下されると、表示制御部72は、図3(B)に示したように、AR画像のみをディスプレイ52に表示することができる。
Further, the
図1に戻り、アイコン操作部74は、地図画像に表示されたアイコンに対する操作を行うことができる。図8には、アイコン操作の一例が示されている。ユーザは、ディスプレイ52に表示された地図画像上において、キャラクタ100のアイコン120を移動させることができる。図8に示す例では、位置Aから位置Bにアイコン120が移動されている。このようにアイコン120が移動された後、AR画像が表示されると、図9に示すように、移動後のアイコン120に対応した位置Bにキャラクタ100が表示される。このようにアイコン120が移動された場合、拡張現実画像生成部68は、例えば図9に示すように、移動された位置でキャラクタが待機しているAR画像を生成することとしてもよい。
Returning to FIG. 1, the
図1に戻り、通知部76は、経路案内中にユーザに対する様々な通知を行う。例えば、通知部76は、ユーザが経路を外れたことを通知することができる。具体例を用いて説明する。図10には、ユーザが経路を間違えてしまった場合の地図画像が表示されている。図10に示す地図画像は、本来であればアイコン120が表示されているC点にて右折すべきであったところ、間違えて直進し、D点に到達してしまった状況を表している。図11には、この状況におけるAR画像の一例が表示されている。図11に示す例では、経路上にキャラクタ100が表示されていない。その代わりに、通知部76は、AR画像に、経路を間違えていることを示すメッセージ140や、キャラクタを呼ぶためのボタン150を表示することができる。また、通知部76は、キャラクタの音声(例えば、「ワンワン」など)を出力することもできる。
Returning to FIG. 1, the
ユーザは、図11に例示した画面で、経路を間違えていることに気付くと、携帯端末20を向ける方向を変えることにより、経路に戻るための方向を探すことができる。具体的には、図10に示したD点において、携帯端末20をC点の方向に向けると、拡張現実画像生成部68は、例えば、図12に示すAR画像を表示することができる。図12に示すAR画像では、C点に位置するキャラクタ100がユーザのいるD点の方向を向いて表示されている。ユーザはキャラクタ100を発見し、キャラクタ100のいる方向に進むことによって経路に戻ることができる。
When the user notices that the route is wrong on the screen illustrated in FIG. 11, the user can search for the direction to return to the route by changing the direction in which the
なお、拡張現実画像生成部68は、元の経路上ではなく、元の経路にユーザを誘導可能な位置にキャラクタ100を表示することとしてもよい。例えば、拡張現実画像生成部68は、図10に示したD点とC点とを結ぶ線上にキャラクタ100を表示してもよい。このとき、必要に応じて、経路情報取得部64が、元の経路に戻るための経路情報をナビゲーションサーバ10から取得することとしてもよい。
Note that the augmented reality
また、ユーザは、図11に例示した画面で、「犬を呼ぶ」ボタン150を押下することにより、キャラクタ100をユーザの進行している方向に表示させることができる。具体的には、拡張現実画像生成部68は、「犬を呼ぶ」ボタン150が押下されると、図13に例示するように、キャラクタ100がユーザの進行方向の地点Eに移動するようにAR画像を生成することができる。この場合、経路情報取得部64は、図14に示すように、キャラクタ100が移動した地点Eを経由して目的地に到達するまでの経路を再探索することができる。
Further, the user can display the
また、通知部76は、感度判定部60の判定結果に基づいて、方位センサ58の検出感度が所定レベル未満であることをユーザに通知することができる。図15には、方位センサ58の検出感度が低いことをユーザに通知するAR画像の一例が示されている。図15に示すように、通知部76は、方位センサ58の検出感度が低いことを示すメッセージ180や、方位の補正に関するボタン190,200を出力することができる。方位の補正については後述する。
Further, the
また、方位センサ58の検出感度が低い場合、拡張現実画像生成部68は、キャラクタ100の表示態様を変更することとしてもよい。例えば、図15に示すAR画像では、キャラクタ100はユーザの方を向いた画像となっている。なお、図15に示すキャラクタ100の表示態様は一例であり、これに限られない。例えば、キャラクタ100の表情が変更されたり、キャラクタ100の動作が変更されたりしてもよい。
Further, when the detection sensitivity of the
図1に戻り、音声案内出力部78は、経路情報取得部64によって取得された経路情報に基づいて、ユーザを経路案内するための音声を出力することができる。なお、拡張現実画像生成部68は、音声案内出力部78による音声案内にあわせて、キャラクタ100の表示態様を変更することとしてもよい。例えば、拡張現実画像生成部68は、音声案内が出力される際に、キャラクタ100の顔がユーザの方向に向けられるようにAR画像を生成してもよい。
Returning to FIG. 1, the voice
撮影データ記憶部80は、方位を補正するためにカメラ50によって撮影された画像を記憶する。また、撮影データ記憶部80は、該画像が撮影された際の現在位置を示す情報、および、該画像が撮影された際に方位センサ58によって検出された方位(検出方位)を示す情報を画像と対応づけて記憶する。
The shooting
例えば、図15に示すAR画像において、「センサ補正」ボタン190が押下されると、カメラ50は、図16に示す撮影画面を表示する。この画面には、例えば、目標物を捉える範囲220や撮影ボタン230等が表示される。ここで、目標物とは、方位を補正する際に基準とするものであり、その位置がナビゲーションサーバ10の施設位置情報記憶部34に登録されているものである。図16に示す画面には、目標物の一例として看板240が表示されている。そして、例えば、図17に示すように、目標物(看板240)の少なくとも一部が範囲220に含まれる状態で撮影ボタン230が押下されると、カメラ50は、撮影された画像を現在位置及び検出方位と対応づけて撮影データ記憶部80に格納する。なお、図15に示すAR画像において「無視」ボタン200が押下されると、方位補正が行われることなく経路案内が継続される。
For example, when the “sensor correction”
図1に戻り、目標位置特定部82は、撮影データ記憶部80に格納された画像に基づいて、目標物の位置(目標位置)を特定する。例えば、目標位置特定部82は、この画像をナビゲーションサーバ10に送信し、目標位置に関する情報をナビゲーションサーバ10から受信することとしてもよい。また例えば、目標位置特定部82は、この画像から文字等の特徴情報を抽出してナビゲーションサーバ10に送信することにより、目標位置に関する情報を取得することとしてもよい。いずれの場合においても、ナビゲーションサーバ10の位置特定部40は、施設位置情報記憶部34を参照することにより、携帯端末20から受信する情報に基づいて目標位置を特定することができる。
Returning to FIG. 1, the target
目標方位特定部84は、目標位置特定部82によって特定された目標位置と、GPSモジュール54によって検出された現在位置とに基づいて、携帯端末20が向けられている方位を特定する。つまり、目標方位特定部84は、現在位置から目標位置への方位(目標方位)を特定する。
The target
方位補正部86は、目標方位特定部84によって特定された目標方位に基づいて、方位センサ58によって検出された方位(検出方位)を補正する。図18は、方位の補正方法を説明するための図である。図18に示すように、方位補正部86は、目標方位と検出方位との差を補正角度θとして算出する。この補正角度θが、方位センサ58の感度低下による検出方位のずれを表している。方位補正部86は、このように算出した補正角度θを示す補正データを補正データ記憶部88に格納する。携帯端末20においては、方位センサ58で検出された方位を補正データ記憶部88に記憶された補正データで補正して用いることができる。つまり、補正された方位に基づいて経路案内を行うことができる。
The
図19は、携帯端末20におけるAR画像と地図画像の表示切替処理の一例を示すフローチャートである。角度センサ56は、ディスプレイ52の水平方向からの傾き角度を検出する(S1901)。表示制御部72は、検出された角度が所定の閾値以上であるかどうか判定する(S1902)。
FIG. 19 is a flowchart illustrating an example of display switching processing between the AR image and the map image in the
検出された角度が所定の閾値以上である場合(S1902:Y)、すなわち、ディスプレイ52の傾き角度が垂直方向に近い範囲にある場合、表示制御部72は、図3(B)に示したように、拡張現実画像生成部68によって生成されたAR画像をディスプレイ52に表示する(S1903)。また、表示制御部72は、ユーザからの指示に応じて、例えば図7に示したように、AR画像と地図画像とをディスプレイ52に同時に表示することができる。
When the detected angle is equal to or larger than the predetermined threshold (S1902: Y), that is, when the tilt angle of the
一方、検出された角度が所定の閾値である場合(S1902:N)、すなわち、ディスプレイ52の傾き角度が水平方向に近い範囲にある場合、表示制御部72は、図5に示したように、地図画像生成部70によって生成された地図画像をディスプレイ52に表示する(S1904)。
On the other hand, when the detected angle is a predetermined threshold (S1902: N), that is, when the tilt angle of the
このように、ディスプレイ52の水平方向からの傾き角度に応じた画像の切替処理が、ユーザからの指示によって表示処理が終了されるまで(S1905)、繰り返し実行される。
In this manner, the image switching process according to the tilt angle of the
図20は、携帯端末20における方位補正処理の一例を示すフローチャートである。感度判定部60は、方位センサ58の出力を取得し(S2001)、方位センサ58の感度を判定する(S2002)。方位センサ58の感度が所定の閾値以上である場合(S2003:N)、方位補正部86は方位センサ58の方位補正を行わずに処理を終了する。
FIG. 20 is a flowchart illustrating an example of the orientation correction process in the
方位センサ58の感度が所定の閾値未満である場合(S2003:Y)、通知部76は、方位センサ58の感度が低いことをユーザに通知する(S2004)。ユーザが方位の補正を行わないことを選択すると(S2005:N)、方位補正部86は方位センサ58の方位補正を行わずに処理を終了する。
When the sensitivity of the
方位センサ58の感度が低いことの通知に応じて、ユーザが、方位の補正を行うことを選択すると(S2005:Y)、目標位置特定部82は、カメラ50によって撮影された目標物の撮影データを取得する(S2006)。そして、目標位置特定部82は、該撮影データに基づいて目標物の位置(目標位置)を特定する(S2007)。なお、目標位置特定部82は、目標位置の特定にあたり、ナビゲーションサーバ10と通信を行うことができる。
When the user selects to correct the orientation in response to the notification that the sensitivity of the
目標位置が特定されると、目標方位特定部84は、目標物が撮影された際の現在位置から目標位置の方位(目標方位)を特定する(S2008)。なお、目標物が撮影された際の現在位置を示す情報、および、方位センサ58により検出された方位(検出方位)を示す情報は、目標物の画像と対応づけて撮影データ記憶部80に格納されている。
When the target position is specified, the target
目標方位が特定されると、方位補正部86は、図18に示したように、目標方位と、方位センサ58によって検出された方位(検出方位)とに基づいて補正角度を算出し、補正角度を示す補正データを補正データ記憶部88に格納する(S2010)。これにより、方位センサ58の感度が低い場合において、目標物の位置に基づいて方位を補正することができる。なお、図20に示した処理は、経路案内が行われている間、繰り返し実行することができる。
When the target azimuth is specified, the
以上、本実施形態について説明した。本実施形態によれば、ディスプレイ52の水平方向からの傾き角度に応じて、AR画像の表示と地図画像の表示とを自動的に切り替えることができる。これにより、ARによるナビゲーションを利用する際の利便性を向上させることができる。
The present embodiment has been described above. According to the present embodiment, the display of the AR image and the display of the map image can be automatically switched according to the inclination angle of the
また、本実施形態では、地図画像上でキャラクタ100のアイコン120の位置を変更することにより、AR画像に切り替わった際に、キャラクタ100の位置をアイコン120に応じた位置に変更することができる。このように、地図画像上での操作とAR画像の表示とを連携させることにより、ARによるナビゲーションを利用する際の利便性を向上させることができる。
Further, in the present embodiment, by changing the position of the
また、本実施形態では、ユーザが経路を外れてしまった場合に、すぐにユーザの進行方向を前提とした経路の再探索を行うのではなく、元の経路にユーザを誘導可能な位置にキャラクタ100を表示することができる。 In the present embodiment, when the user deviates from the route, the character is not immediately re-searched for the route based on the user's traveling direction, but at a position where the user can be guided to the original route. 100 can be displayed.
また、本実施形態では、例えば、周囲が暗い場合等において、カメラ50で撮影される画像に代えて、ストリートビュー画像等の三次元空間画像を用いることができる。これにより、AR画像による経路案内時の視認性を向上させることができる。
In the present embodiment, for example, when the surroundings are dark, a three-dimensional space image such as a street view image can be used instead of the image captured by the
また、本実施形態では、方位センサ58の感度が低い場合に、あらかじめ位置が特定されている目標物を撮影することにより、方位センサ58によって検出される方位を補正することができる。これにより、例えば、経路案内時の進行方向の特定精度を向上させることが可能となる。
In the present embodiment, when the sensitivity of the
なお、本実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更/改良され得るととともに、本発明にはその等価物も含まれる。 Note that this embodiment is intended to facilitate understanding of the present invention and is not intended to limit the present invention. The present invention can be changed / improved without departing from the spirit thereof, and the present invention includes equivalents thereof.
10 ナビゲーションサーバ
20 携帯端末
30 経路ネットワーク情報記憶部
32 地図情報記憶部
34 位置情報記憶部
36 経路探索部
38 経路情報提供部
40 位置特定部
50 カメラ
52 ディスプレイ
54 GPSモジュール
56 角度センサ
58 方位センサ
60 感度判定部
62 照度センサ
64 経路情報取得部
66 経路情報記憶部
68 拡張現実画像生成部
70 地図画像生成部
72 表示制御部
74 アイコン操作部
76 通知部
78 音声案内出力部
80 撮影データ記憶部
82 目標位置特定部
84 目標方位特定部
86 方位補正部
88 補正データ記憶部
DESCRIPTION OF
Claims (10)
目的地までの経路を示す経路情報を取得する経路情報取得部と、
現実世界の画像を取得する画像取得部と、
前記経路情報に基づいて、前記経路に従って進行するキャラクタの画像を前記現実世界の画像に重畳した拡張現実画像を生成する拡張現実画像生成部と、
前記経路情報に基づいて、前記拡張現実画像における前記キャラクタの位置を示すアイコンが含まれる、前記経路を地図上に示した地図画像を生成する地図画像生成部と、
前記表示部の水平方向からの傾き角度を検出する角度検出部と、
前記角度が所定の閾値以上である場合は、前記拡張現実画像を前記表示部に出力し、前記角度が前記所定の閾値未満である場合は、前記地図画像を前記表示部に出力する表示制御部と、
前記表示部に表示された前記地図画像上において、ユーザ操作に応じて、前記アイコンの位置を変更するアイコン操作部と、
を備え、
前記拡張現実画像生成部は、前記アイコンの前記変更された位置に対応する位置に前記キャラクタの画像が重畳された前記拡張現実画像を生成する、
携帯ナビゲーション装置。 A display for displaying an image;
A route information acquisition unit that acquires route information indicating a route to the destination;
An image acquisition unit that acquires real-world images;
An augmented reality image generating unit that generates an augmented reality image in which an image of a character traveling according to the route is superimposed on the image of the real world based on the route information;
A map image generation unit for generating a map image showing the route on a map , including an icon indicating the position of the character in the augmented reality image based on the route information;
An angle detection unit for detecting an inclination angle of the display unit from a horizontal direction;
A display control unit that outputs the augmented reality image to the display unit when the angle is greater than or equal to a predetermined threshold value, and outputs the map image to the display unit when the angle is less than the predetermined threshold value. When,
On the map image displayed on the display unit, an icon operation unit that changes the position of the icon in response to a user operation;
Equipped with a,
The augmented reality image generation unit generates the augmented reality image in which the image of the character is superimposed on a position corresponding to the changed position of the icon;
Portable navigation device.
前記拡張現実画像生成部は、前記現実世界の画像で示される範囲に前記経路が含まれない場合、前記キャラクタの画像を前記現実世界の画像に重畳せずに前記拡張現実画像を生成する、
携帯ナビゲーション装置。 The portable navigation device according to claim 1 ,
The augmented reality image generation unit generates the augmented reality image without superimposing the character image on the real world image when the path is not included in the range indicated by the real world image.
Portable navigation device.
前記拡張現実画像生成部は、前記現実世界の画像が前記経路に戻る方向の画像である場合、ユーザを前記経路に誘導可能な位置に前記キャラクタの画像を重畳した前記拡張現実画像を生成する、
携帯ナビゲーション装置。 The portable navigation device according to claim 2 ,
The augmented reality image generation unit generates the augmented reality image in which the character image is superimposed on a position where a user can be guided to the route when the image of the real world is an image returning to the route.
Portable navigation device.
前記現実世界の画像で示される範囲に前記経路が含まれない場合、経路を外れていることをユーザに通知する通知部をさらに備える、
携帯ナビゲーション装置。 The portable navigation device according to claim 2 or 3 ,
When the route is not included in the range shown in the real-world image, the device further includes a notification unit that notifies the user that the route is off.
Portable navigation device.
前記経路情報取得部は、前記現実世界の画像に対応する三次元空間画像を取得可能であり、
前記拡張現実画像生成部は、前記キャラクタの画像を重畳する画像を前記三次元空間画像に切り替え可能である、
携帯ナビゲーション装置。 The portable navigation device according to any one of claims 1 to 4 , wherein
The route information acquisition unit is capable of acquiring a three-dimensional spatial image corresponding to the real world image,
The augmented reality image generation unit can switch an image on which the character image is superimposed to the three-dimensional space image.
Portable navigation device.
周囲の照度を検出する照度検出部をさらに備え、
前記拡張現実画像生成部は、前記周囲の照度が所定レベル未満である場合、前記現実世界の画像の代わりに前記三次元空間画像に前記キャラクタの画像を重畳して前記拡張現実画像を生成する、
携帯ナビゲーション装置。 The portable navigation device according to claim 5 , wherein
An illuminance detection unit that detects ambient illuminance is further provided,
The augmented reality image generation unit generates the augmented reality image by superimposing the character image on the three-dimensional space image instead of the real world image when the ambient illuminance is less than a predetermined level.
Portable navigation device .
前記表示制御部は、前記拡張現実画像及び前記地図画像を含む画像を前記表示部に出力可能である、
携帯ナビゲーション装置。 The portable navigation device according to any one of claims 1 to 6 ,
The display control unit can output an image including the augmented reality image and the map image to the display unit.
Portable navigation device.
現在位置を特定する現在位置特定部と、
前記現実世界の画像に含まれる目標物の位置である目標位置を特定する目標位置特定部と、
方位を検出する方位検出部と、
前記現在位置から前記目標位置への方位である目標方位を特定する目標方位特定部と、
前記検出された方位と前記目標方位との差に基づいて、前記検出された方位を補正する方位補正部と、
をさらに備える携帯ナビゲーション装置。 The portable navigation device according to any one of claims 1 to 7 ,
A current position specifying unit for specifying the current position;
A target position specifying unit for specifying a target position which is a position of a target included in the real world image;
An azimuth detector for detecting the azimuth;
A target orientation identifying unit that identifies a target orientation that is an orientation from the current position to the target position;
An azimuth correction unit that corrects the detected azimuth based on a difference between the detected azimuth and the target azimuth;
A portable navigation device further comprising:
前記方位の検出結果に基づいて前記方位の検出感度を判定する感度判定部をさらに備え、
前記拡張現実画像生成部は、前記検出感度に応じて前記キャラクタの画像の表示態様を変更する、
携帯ナビゲーション装置。 The portable navigation device according to claim 8 , wherein
A sensitivity determination unit for determining the detection sensitivity of the orientation based on the detection result of the orientation,
The augmented reality image generation unit changes the display mode of the character image according to the detection sensitivity.
Portable navigation device.
目的地までの経路を示す経路情報を取得する経路情報取得部と、
現実世界の画像を取得する画像取得部と、
前記経路情報に基づいて、前記経路に従って進行するキャラクタの画像を前記現実世界の画像に重畳した拡張現実画像を生成する地図画像生成部と、
前記経路情報に基づいて、前記拡張現実画像における前記キャラクタの位置を示すアイコンが含まれる、前記経路を地図上に示した地図画像を生成する拡張現実画像生成部と、
前記表示部の水平方向からの傾き角度を検出する角度検出部と、
前記角度が所定の閾値以上である場合は、前記拡張現実画像を前記表示部に出力し、前記角度が前記所定の閾値未満である場合は、前記地図画像を前記表示部に出力する表示制御部と、
前記表示部に表示された前記地図画像上において、ユーザ操作に応じて、前記アイコンの位置を変更するアイコン操作部と、
を実現させ、
前記拡張現実画像生成部は、前記アイコンの前記変更された位置に対応する位置に前記キャラクタの画像が重畳された前記拡張現実画像を生成する、
プログラム。 In a portable navigation device having a display unit for displaying an image,
A route information acquisition unit that acquires route information indicating a route to the destination;
An image acquisition unit that acquires real-world images;
Based on the route information, a map image generation unit that generates an augmented reality image in which an image of a character that proceeds according to the route is superimposed on the image of the real world;
An augmented reality image generating unit that generates a map image showing the route on a map , including an icon indicating the position of the character in the augmented reality image based on the route information;
An angle detection unit for detecting an inclination angle of the display unit from a horizontal direction;
If the angle is above a predetermined threshold value, the augmented reality image output to the display unit, if the angle is less than the predetermined threshold, the display control unit for outputting the map image on the display unit When,
On the map image displayed on the display unit, an icon operation unit that changes the position of the icon in response to a user operation;
Realized ,
The augmented reality image generation unit generates the augmented reality image in which the image of the character is superimposed on a position corresponding to the changed position of the icon;
program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012158449A JP6025433B2 (en) | 2012-07-17 | 2012-07-17 | Portable navigation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012158449A JP6025433B2 (en) | 2012-07-17 | 2012-07-17 | Portable navigation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014020863A JP2014020863A (en) | 2014-02-03 |
JP6025433B2 true JP6025433B2 (en) | 2016-11-16 |
Family
ID=50195920
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012158449A Active JP6025433B2 (en) | 2012-07-17 | 2012-07-17 | Portable navigation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6025433B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4080328A1 (en) * | 2021-04-21 | 2022-10-26 | Salient World AS | Method involving digital avatar |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6640455B2 (en) * | 2015-03-17 | 2020-02-05 | 株式会社Jcchセルティオ | Local area navigation device |
JP6680499B2 (en) * | 2015-09-28 | 2020-04-15 | 株式会社Screenホールディングス | Route guidance device, route guidance system, route guidance method, and route guidance program |
JP6673699B2 (en) * | 2016-01-13 | 2020-03-25 | 株式会社パスコ | Terrain display system |
CN107643084B (en) * | 2016-07-21 | 2021-09-28 | 阿里巴巴集团控股有限公司 | Method and device for providing data object information and live-action navigation |
JP7009747B2 (en) * | 2017-02-20 | 2022-01-26 | 株式会社Jvcケンウッド | Terminal device, control method, program |
EP3383035A1 (en) * | 2017-03-29 | 2018-10-03 | Koninklijke Philips N.V. | Image generation from video |
US10685485B2 (en) * | 2017-11-21 | 2020-06-16 | Google Llc | Navigation in augmented reality environment |
JP7023775B2 (en) * | 2018-04-11 | 2022-02-22 | 株式会社Nttドコモ | Route guidance program, route guidance method and information processing equipment |
CN111879331B (en) * | 2020-07-31 | 2022-06-28 | 维沃移动通信有限公司 | Navigation method and device and electronic equipment |
JP6828934B1 (en) | 2020-08-18 | 2021-02-10 | 株式会社ビーブリッジ | Navigation devices, navigation systems, navigation methods, navigation programs |
KR102458102B1 (en) | 2020-09-18 | 2022-10-24 | 네이버랩스 주식회사 | Method and apparatus for route guidance using augmented reality view |
CN112146649B (en) * | 2020-09-23 | 2023-04-07 | 北京市商汤科技开发有限公司 | Navigation method and device in AR scene, computer equipment and storage medium |
JP7372230B2 (en) * | 2020-12-21 | 2023-10-31 | トヨタ自動車株式会社 | Display system and display device |
JP7522026B2 (en) | 2020-12-21 | 2024-07-24 | トヨタ自動車株式会社 | Guidance display system |
JP7575337B2 (en) | 2021-04-23 | 2024-10-29 | 東芝Itコントロールシステム株式会社 | Destination Guidance System |
CN113280823A (en) * | 2021-05-18 | 2021-08-20 | 北京远舢智能科技有限公司 | Spatial map navigation technology based on mixed reality |
CN113484889A (en) * | 2021-07-07 | 2021-10-08 | 中国人民解放军国防科技大学 | Immersive navigation system based on augmented reality and satellite positioning of mobile terminal |
US20230236659A1 (en) * | 2022-01-25 | 2023-07-27 | Ford Global Technologies, Llc | Systems and Methods For Providing A Delivery Assistance Service Having An Augmented-Reality Digital Companion |
CN115523940B (en) * | 2022-09-26 | 2023-12-05 | 北京百度网讯科技有限公司 | Navigation display method, navigation display device, electronic equipment and storage medium |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003111128A (en) * | 2001-09-28 | 2003-04-11 | J-Phone East Co Ltd | Method of specifying present location, method of providing information on present location, method of guiding moving route, position information management system, and information communication terminal |
JP2008157680A (en) * | 2006-12-21 | 2008-07-10 | Matsushita Electric Ind Co Ltd | Navigation apparatus |
JP5622510B2 (en) * | 2010-10-01 | 2014-11-12 | オリンパス株式会社 | Image generation system, program, and information storage medium |
JP5174942B2 (en) * | 2011-08-03 | 2013-04-03 | パイオニア株式会社 | Terminal device, image display method and image display program executed by terminal device |
-
2012
- 2012-07-17 JP JP2012158449A patent/JP6025433B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4080328A1 (en) * | 2021-04-21 | 2022-10-26 | Salient World AS | Method involving digital avatar |
WO2022223524A1 (en) * | 2021-04-21 | 2022-10-27 | Salient World As | Method involving digital avatar |
Also Published As
Publication number | Publication date |
---|---|
JP2014020863A (en) | 2014-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6025433B2 (en) | Portable navigation device | |
US11692842B2 (en) | Augmented reality maps | |
US10190885B2 (en) | Method and apparatus for providing service using a sensor and image recognition in a portable terminal | |
US10677596B2 (en) | Image processing device, image processing method, and program | |
KR101436223B1 (en) | Image identification using trajectory-based location determination | |
JP6123120B2 (en) | Method and terminal for discovering augmented reality objects | |
CN103398717A (en) | Panoramic map database acquisition system and vision-based positioning and navigating method | |
JP4969053B2 (en) | Portable terminal device and display method | |
KR101541076B1 (en) | Apparatus and Method for Identifying an Object Using Camera | |
KR20150088662A (en) | Method and apparatus for providing mobile navigation service used augmented reality singularity | |
US20230314154A1 (en) | Navigation Using Computer System | |
US12075168B2 (en) | Portable device | |
JP7023775B2 (en) | Route guidance program, route guidance method and information processing equipment | |
JP6537189B2 (en) | Map display device and map display method | |
JP6523353B2 (en) | Terminal device and program | |
JP6976186B2 (en) | Terminal devices and programs | |
JP2014066595A (en) | Navigation apparatus | |
JP6523362B2 (en) | Server device, terminal device and program | |
WO2021200187A1 (en) | Portable terminal, information processing method, and storage medium | |
JP2015015775A (en) | Geographical feature display system, mobile terminal, geographical feature display method, and program | |
JP6673700B2 (en) | Feature information providing system | |
JP2011228877A (en) | Landform display system, mobile terminal, and landform display method | |
JP2020106390A (en) | Facility information providing program | |
JP2016151453A (en) | Route guiding device and route guiding method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150330 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160307 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161011 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6025433 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |