JP2016219980A - Target information display device - Google Patents
Target information display device Download PDFInfo
- Publication number
- JP2016219980A JP2016219980A JP2015101747A JP2015101747A JP2016219980A JP 2016219980 A JP2016219980 A JP 2016219980A JP 2015101747 A JP2015101747 A JP 2015101747A JP 2015101747 A JP2015101747 A JP 2015101747A JP 2016219980 A JP2016219980 A JP 2016219980A
- Authority
- JP
- Japan
- Prior art keywords
- shooting
- related information
- virtual
- photographing
- dimensional space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Instructional Devices (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、対象物情報表示装置に関する。 The present invention relates to an object information display device.
従来より、道路や河川等の管理を行うために、画像データ、撮影時刻や撮影地等の属性データ、地図データ等を管理サーバーに蓄積し、あるいはこれらのデータを表示するシステムが提案されている。 Conventionally, in order to manage roads and rivers, a system has been proposed in which image data, attribute data such as shooting time and shooting location, map data, etc. are stored in a management server or displayed. .
例えば、下記特許文献1には、時間的に撮影範囲が変化する映像のデータを再生し、前記映像の撮影範囲を含む地図上に重畳して表示画面に表示する映像表示装置であって、前記撮影範囲の変化に対応して前記映像または地図の表示状態を変化させる構成が開示されている。 For example, Patent Document 1 below is a video display device that reproduces video data whose shooting range changes over time and displays the video data on a display screen superimposed on a map including the video shooting range. A configuration is disclosed in which the display state of the video or map is changed in response to a change in the shooting range.
また、下記特許文献2には、携帯端末に備えられたカメラで河川の撮影がなされたときに、撮影された河川の位置情報を検出するとともに、河川の位置を示す距離標を基準とした場所特定情報の入力を受付け、前記携帯端末は撮影した河川の写真データと、検出された位置特定情報と、入力された場所特定情報とを河川監視用の管理サーバーに送信する構成が開示されている。 Further, in Patent Document 2 below, when a river is photographed with a camera provided in a portable terminal, the location information of the photographed river is detected, and a place based on a distance indicator indicating the position of the river A configuration is disclosed in which input of specific information is received, and the mobile terminal transmits photographed river photograph data, detected position specifying information, and input location specifying information to a river monitoring management server. .
しかし、上記従来の技術においては、道路や河川等の映像を表示する場合、過去に撮影した画像を、必要に応じて地図情報等とともに表示画面に表示するものであった。従って、現在撮影中の画像を表示しつつ、過去に取得した道路や河川等に関する情報を重畳して表示することはできなかった。このため、例えば撮影機能付のタブレット端末等で現地を撮影しつつ、その撮影中に当該位置の周辺で過去に記録された情報(過去に発生した不具合や工事実績、道路や河川の識別符号、道路の埋設物の位置等)を確認することができなかった。 However, in the above conventional technique, when images of roads and rivers are displayed, images captured in the past are displayed on a display screen together with map information and the like as necessary. Therefore, it is not possible to superimpose and display information on roads, rivers, and the like acquired in the past while displaying an image currently being photographed. For this reason, for example, while photographing the site with a tablet terminal with a photographing function, information recorded in the past around the position during the photographing (defects and construction results that occurred in the past, road and river identification codes, The location of the buried objects on the road, etc.) could not be confirmed.
本発明は、上記従来の課題に鑑み、撮影中の画像に、撮影時点より過去に設定された撮影対象物の関連情報を重畳して撮影中に表示できる対象物情報表示装置を提供することを目的とする。 SUMMARY OF THE INVENTION In view of the above-described conventional problems, the present invention provides an object information display device capable of superimposing related information of an imaging target set in the past from the time of shooting on an image being shot and displaying it during shooting. Objective.
上記目的を達成するために、本発明の一実施形態は、対象物情報表示装置であって、撮影中の撮影位置を検出する撮影位置検出手段と、撮影中の撮影方位を検出する撮影方位検出手段と、撮影に使用するカメラの撮影中の傾きを検出する傾き検出手段と、座標軸を有し、撮影時点より過去に設定した撮影対象の関連情報が前記座標軸上の座標と関連付けられた仮想3次元空間を設定する仮想3次元空間設定手段と、前記撮影位置、撮影方位、撮影に使用するカメラの撮影中の傾き及びカメラの画角に基づいて、前記仮想3次元空間における撮影中の撮影範囲を特定する撮影範囲特定手段と、前記仮想3次元空間における撮影範囲に含まれる平面座標を有する関連情報を特定する関連情報特定手段と、撮影中の画像に前記特定された関連情報を重畳して撮影中に表示する表示手段と、を備える、を備えることを特徴とする。 In order to achieve the above object, an embodiment of the present invention is an object information display device, which is a shooting position detection unit that detects a shooting position during shooting, and a shooting direction detection that detects a shooting direction during shooting. Means 3 for detecting the tilt of the camera used for shooting during shooting, and a virtual 3 having coordinate axes, and related information of the shooting target set in the past from the shooting time point is associated with the coordinates on the coordinate axes. Based on the virtual three-dimensional space setting means for setting a three-dimensional space, the photographing position, the photographing orientation, the tilt during photographing of the camera used for photographing and the angle of view of the camera, the photographing range during photographing in the virtual three-dimensional space A shooting range specifying means for specifying, related information specifying means for specifying related information having plane coordinates included in the shooting range in the virtual three-dimensional space, and the specified related information in the image being shot. Comprising a display means for displaying in tatami for shooting, and characterized in that it comprises a.
上記表示手段は、前記撮影範囲及び前記撮影範囲が含まれる地図画像を撮影中の撮影画像とともに表示するのが好適である。 Preferably, the display means displays the shooting range and a map image including the shooting range together with a shot image being shot.
また、上記対象物情報表示装置は、撮影機能及び撮影した画像の表示機能を有するタブレット型端末上で構成されているのが好適である。 The object information display device is preferably configured on a tablet terminal having a photographing function and a display function of a photographed image.
また、本発明の他の実施形態は、対象物情報表示装置であって、撮影対象の撮影中に、前記撮影対象の画像に、撮影時点より過去に設定した前記撮影対象の関連情報を重畳して撮影中に表示する表示手段を備えることを特徴とする。 Another embodiment of the present invention is an object information display device that superimposes the relevant information of the photographing target set in the past from the time of photographing on the image of the photographing target during photographing of the photographing target. And display means for displaying during photographing.
また、本発明のさらに他の実施形態は、対象物情報表示プログラムであって、コンピュータを、撮影中の撮影位置を検出する撮影位置検出手段、撮影中の撮影方位を検出する撮影方位検出手段、撮影に使用するカメラの撮影中の傾きを検出する傾き検出手段、座標軸を有し、撮影時点より過去に設定した撮影対象の関連情報が前記座標軸上の座標と関連付けられた仮想3次元空間を設定する仮想3次元空間設定手段、前記撮影位置、撮影方位、撮影に使用するカメラの撮影中の傾き及びカメラの画角に基づいて、前記仮想3次元空間における撮影中の撮影範囲を特定する撮影範囲特定手段、前記仮想3次元空間における撮影範囲に含まれる平面座標を有する関連情報を特定する関連情報特定手段、撮影中の画像に前記特定された関連情報を重畳して撮影中に表示する表示制御手段、として機能させることを特徴とする。 Still another embodiment of the present invention is an object information display program, comprising a computer, a shooting position detection unit that detects a shooting position during shooting, a shooting direction detection unit that detects a shooting direction during shooting, Tilt detection means for detecting the tilt during shooting of the camera used for shooting, has a coordinate axis, and sets a virtual three-dimensional space in which related information of the shooting target set in the past from the shooting time point is associated with the coordinates on the coordinate axis A shooting range for specifying a shooting range during shooting in the virtual three-dimensional space based on the virtual three-dimensional space setting means, the shooting position, shooting direction, tilt during shooting of the camera used for shooting, and the angle of view of the camera Specifying means, related information specifying means for specifying related information having plane coordinates included in the shooting range in the virtual three-dimensional space, and overlapping the specified related information on the image being shot. Characterized in that to display control unit that displays during shooting function as.
本発明によれば、撮影中の画像に、撮影時点より過去に設定された撮影対象物の関連情報を重畳して撮影中に表示できる。 According to the present invention, it is possible to superimpose related information of a photographing object set in the past from the time of photographing on the image being photographed and display it while photographing.
以下、本発明を実施するための形態(以下、実施形態という)を、図面に従って説明する。 Hereinafter, modes for carrying out the present invention (hereinafter referred to as embodiments) will be described with reference to the drawings.
図1(a)、(b)には、実施形態にかかる対象物情報表示装置の説明図が示される。図1(a)において、撮影機能及び撮影した画像の表示機能を有するタブレット端末等の撮影・表示端末10は、表側に画像を表示する表示画面12が、裏側に撮影対象(対象物)を撮影するためのカメラ14(図1(b)参照)が設けられている。 1A and 1B are explanatory diagrams of an object information display device according to an embodiment. Referring to FIG. 1A, in a photographing / display terminal 10 such as a tablet terminal having a photographing function and a photographed image display function, a display screen 12 that displays an image on the front side photographs a photographing target (object) on the back side. A camera 14 (see FIG. 1B) is provided.
上記カメラ14は、ステレオカメラとする必要はなく、動画撮影のできるものであれば、単一のカメラ(撮影装置)により構成することができる。なお、カメラ14は、CCD、CMOS等を使用した撮像素子で構成することができる。 The camera 14 does not need to be a stereo camera, and can be configured by a single camera (photographing device) as long as it can shoot moving images. The camera 14 can be configured by an image sensor using a CCD, a CMOS, or the like.
撮影・表示端末10は、上記カメラ14により矢印P方向を撮影し、道路、河川その他の撮影対象を撮影しつつ表示画面12に当該画像を表示する。本実施形態にかかる撮影・表示端末10では、撮影・表示端末10で撮影中の対象物(撮影対象)の画像を表示している際に、撮影時点より過去に設定した撮影対象の関連情報が撮影範囲(表示範囲)に存在していると、この関連情報を特定し、撮影中の画像に特定された関連情報を重畳して撮影中に表示する。関連情報の特定方法及び表示例は後述する。 The photographing / display terminal 10 photographs the direction of the arrow P by the camera 14 and displays the image on the display screen 12 while photographing a photographing object such as a road, a river or the like. In the photographing / display terminal 10 according to the present embodiment, when the image of the target object (photographing target) being photographed is displayed on the photographing / display terminal 10, the relevant information of the photographing target set in the past from the photographing time is displayed. If it exists in the shooting range (display range), this related information is specified, and the specified related information is superimposed on the image being shot and displayed during shooting. A related information specifying method and a display example will be described later.
なお、撮影・表示端末10は、タブレット端末に限定されるものではなく、撮影機能、撮影した画像の表示機能、インターネット回線や電話回線等を使用して外部のサーバーと通信する機能、撮影方位を検出する機能、ジャイロ等を使用して自分の傾きを検出する機能及びGPS等を使用して自分の位置を特定する機能等を有するものであれば撮影・表示端末10として使用できる。 The photographing / display terminal 10 is not limited to a tablet terminal, and has a photographing function, a function for displaying a photographed image, a function for communicating with an external server using an Internet line or a telephone line, and a photographing direction. Any device having a function of detecting, a function of detecting its own inclination using a gyro, etc., and a function of specifying its own position using a GPS or the like can be used as the photographing / display terminal 10.
また、上記関連情報は、例えば過去における道路や周辺設備の修理箇所、破損状況、道路や河川の識別符号(国道の番号、河川コード等)、道路や河川に設定されたキロポストの位置、道路周囲の建物の名称や、当該建物に入居している施設、都道府県名、市区町村名、地番等が挙げられるが、これらに限定されるものではない。道路、河川、その他撮影対象となるものに関連する情報であればどのような情報であっても関連情報として設定することができる。 In addition, the related information includes, for example, past repair locations of roads and surrounding facilities, damage status, road and river identification codes (national road numbers, river codes, etc.), location of kiloposts set on roads and rivers, and road surroundings The name of the building, the facility occupying the building, the name of the prefecture, the name of the city, the lot number, etc. are mentioned, but it is not limited to these. Any information can be set as related information as long as it is information related to roads, rivers, and other objects to be photographed.
関連情報を設定する際には、当該関連情報に、表示位置を特定するための座標情報を属性として含ませておく。 When setting the related information, coordinate information for specifying the display position is included in the related information as an attribute.
図2には、実施形態にかかる対象物情報表示装置の例の機能ブロック図が示される。図2において、対象物情報表示装置は、撮影位置検出部16、撮影方位検出部18、傾き検出部20、仮想3次元空間設定部22、撮影範囲特定部24、関連情報特定部26、表示制御部28、通信部30、記憶部32及びCPU34を含んで構成されている。この対象物情報表示装置は、CPU34、ROM、RAM、不揮発性メモリ、I/O、通信インターフェース等を備え、装置全体の制御及び各種演算を行うコンピュータとして構成されており、上記各機能は、例えばCPU34とCPU34の処理動作を制御するプログラムとにより実現される。 FIG. 2 shows a functional block diagram of an example of the object information display device according to the embodiment. In FIG. 2, the object information display device includes a shooting position detection unit 16, a shooting direction detection unit 18, an inclination detection unit 20, a virtual three-dimensional space setting unit 22, a shooting range specifying unit 24, a related information specifying unit 26, and display control. The unit 28, the communication unit 30, the storage unit 32, and the CPU 34 are configured. The object information display device includes a CPU 34, a ROM, a RAM, a nonvolatile memory, an I / O, a communication interface, and the like, and is configured as a computer that controls the entire device and performs various calculations. This is realized by the CPU 34 and a program for controlling the processing operation of the CPU 34.
撮影位置検出部16は、撮影・表示端末10のカメラ14で撮影対象(対象物)を撮影しているときに、当該撮影対象を撮影中の撮影位置、すなわち自分の位置の座標を検出する。撮影位置検出部16は、例えばGPS受信機により取得した位置情報により撮影位置の座標を検出する構成とすることができる。また、GPS受信機にIMU(慣性計測装置)を組み合わせても良い。撮影位置の座標としては、例えば緯度、経度、標高等の3次元座標が挙げられるが、これには限定されない。検出した撮影位置の座標は、記憶部32に記憶させる。 The shooting position detection unit 16 detects the shooting position during shooting of the shooting target, that is, the coordinates of its own position, when shooting the shooting target (target object) with the camera 14 of the shooting / display terminal 10. The photographing position detection unit 16 can be configured to detect the coordinates of the photographing position based on position information acquired by a GPS receiver, for example. Further, an IMU (Inertial Measurement Device) may be combined with the GPS receiver. Examples of the coordinates of the shooting position include three-dimensional coordinates such as latitude, longitude, and altitude, but are not limited thereto. The coordinates of the detected photographing position are stored in the storage unit 32.
撮影方位検出部18は、撮影・表示端末10のカメラ14で撮影対象を撮影しているときに、撮影中の撮影方位(カメラ14の光軸の方位)を検出する。撮影方位の検出は、例えば磁気センサにより行うことができる。すなわち、撮影方位検出部18が磁気センサからの出力を受け取り、磁気センサの取り付け方向、カメラ14の光軸方向等に基づき撮影方位を演算する。演算した撮影方位は記憶部32に記憶させる。 The shooting direction detection unit 18 detects the shooting direction (the direction of the optical axis of the camera 14) during shooting when the camera 14 of the shooting / display terminal 10 is shooting the shooting target. The shooting direction can be detected by, for example, a magnetic sensor. That is, the shooting direction detection unit 18 receives the output from the magnetic sensor, and calculates the shooting direction based on the mounting direction of the magnetic sensor, the optical axis direction of the camera 14, and the like. The calculated shooting direction is stored in the storage unit 32.
傾き検出部20は、撮影・表示端末10のカメラ14で撮影対象を撮影しているときに、撮影中のカメラ14(撮影画面)の傾き、すなわちカメラ14の光軸周りの回転(ローリング)及び光軸と直交する左右軸(ローリングが無い場合に撮影方向を前方としたときの左右に伸びる水平の軸であり、ローリングがあるときにはその角度分傾く軸)周りの回転(ピッチング)の角度を検出する。なお、ローリング及びピッチンクを、図1(a)に示す。カメラ14の傾きは、例えば加速度センサからの出力を受け取り、演算することにより求める。演算したカメラ14の傾きは記憶部32に記憶させる。 The tilt detection unit 20 tilts the camera 14 (shooting screen) during shooting when the camera 14 of the shooting / display terminal 10 is shooting, that is, rotation of the camera 14 around the optical axis (rolling) and Detects the angle of rotation (pitching) around the left and right axis perpendicular to the optical axis (the horizontal axis that extends to the left and right when the shooting direction is forward when there is no rolling, and that tilts when there is rolling) To do. Rolling and pitching are shown in FIG. For example, the tilt of the camera 14 is obtained by receiving and calculating an output from an acceleration sensor. The calculated tilt of the camera 14 is stored in the storage unit 32.
仮想3次元空間設定部22は、関連情報を含んだ仮想3次元空間を設定する。ここで、仮想3次元空間は、現実の空間の座標(例えば緯度、経度、標高)に対応する座標を表す座標軸を有する仮想的な、すなわちコンピュータ上に設定される空間である。また、仮想3次元空間設定部22は、上記関連情報を、関連情報が属性として有する座標情報に基づいて仮想3次元空間中の座標に関連付ける。また、上記関連情報を表示するための図形(以後、タグという場合がある)も仮想3次元空間設定部22が上記座標に関連付ける。このタグには、関連情報の内容を表示するための文字、図形等が含まれているのが好適である。なお、仮想3次元空間中の座標軸と撮影位置検出部16が検出する撮影位置の座標を表す座標軸とを同じもの(例えば、緯度、経度、標高に統一する等)としてもよいし、異なる座標軸をそれぞれ設定し、必要に応じて座標を変換してもよい。仮想3次元空間の座標軸、仮想3次元空間中の座標に関連付けられた関連情報及びタグ等の仮想3次元空間に関する情報は、仮想3次元空間設定部22が記憶部32に記憶させる。なお、仮想3次元空間については、図3において後述する。 The virtual three-dimensional space setting unit 22 sets a virtual three-dimensional space including related information. Here, the virtual three-dimensional space is a virtual space having coordinate axes representing coordinates corresponding to the coordinates of the real space (for example, latitude, longitude, altitude), that is, set on the computer. The virtual three-dimensional space setting unit 22 associates the related information with coordinates in the virtual three-dimensional space based on coordinate information that the related information has as an attribute. The virtual three-dimensional space setting unit 22 also associates a graphic for displaying the related information (hereinafter sometimes referred to as a tag) with the coordinates. This tag preferably includes characters, graphics, etc. for displaying the contents of the related information. Note that the coordinate axis in the virtual three-dimensional space and the coordinate axis representing the coordinates of the photographing position detected by the photographing position detection unit 16 may be the same (for example, unified to latitude, longitude, altitude, etc.), or different coordinate axes may be used. Each may be set and the coordinates may be converted as necessary. The virtual three-dimensional space setting unit 22 stores the information about the virtual three-dimensional space, such as the coordinate axes of the virtual three-dimensional space, the related information associated with the coordinates in the virtual three-dimensional space, and the tags, in the storage unit 32. The virtual three-dimensional space will be described later with reference to FIG.
撮影範囲特定部24は、上記撮影対象を撮影中の上記撮影位置、撮影方位、撮影に使用するカメラ14の傾き及びカメラ14の画角に基づいて、撮影中の撮影範囲を特定する。画角は、カメラ14で撮影される光景の範囲を角度で表したものであり、水平画角、垂直画角、対角線画角がカメラ14に固有の値として予めわかっているので、これらの値と撮影位置、撮影方位、カメラ14の傾きとを使用して撮影範囲を特定することができる。具体的には、公知のコンピュータグラフィックスの処理として仮想3次元空間を透視投影するスクリーンを設定する際に、上記撮影位置、撮影方位、撮影に使用するカメラ14の傾き及びカメラ14の画角に基づいてスクリーンの大きさ及び方向(スクリーンの法線が向く方向)を決定する。撮影範囲は、上記スクリーンに仮想3次元空間が透視投影される範囲となる。この場合、上記撮影位置の座標には、上述した緯度、経度等の平面座標と標高が含まれる。標高は、撮影位置検出部16が検出した標高値としてもよいし、検出値の誤差が大きい等の事情がある場合には、予め設定した標高値を使用してもよい。 The shooting range specifying unit 24 specifies a shooting range during shooting based on the shooting position, shooting direction, tilt of the camera 14 used for shooting, and the angle of view of the camera 14 during shooting of the shooting target. The angle of view expresses the range of the scene photographed by the camera 14 as an angle, and the horizontal angle of view, the vertical angle of view, and the diagonal angle of view are known in advance as values inherent to the camera 14, so these values are used. The shooting range can be specified using the shooting position, shooting direction, and tilt of the camera 14. Specifically, when a screen for perspective projection of a virtual three-dimensional space is set as a known computer graphics process, the shooting position, shooting direction, tilt of the camera 14 used for shooting, and the angle of view of the camera 14 are set. Based on this, the size and direction of the screen (direction in which the normal of the screen faces) are determined. The shooting range is a range in which the virtual three-dimensional space is projected on the screen. In this case, the coordinates of the photographing position include the above-described plane coordinates such as latitude and longitude and the altitude. The altitude may be an altitude value detected by the imaging position detection unit 16, or a preset altitude value may be used when there is a situation such as a large error in the detected value.
上記カメラ14の画角も記憶部32に記憶しておき、撮影範囲特定部24が読み出して使用する構成としておくのが好適である。また、特定した撮影範囲すなわち上記スクリーンの大きさと方向は記憶部32に記憶させる。 It is preferable that the angle of view of the camera 14 is also stored in the storage unit 32 and is read and used by the imaging range specifying unit 24. The specified photographing range, that is, the size and direction of the screen is stored in the storage unit 32.
関連情報特定部26は、上記撮影範囲特定部24が特定した撮影範囲中の座標情報を有し、撮影時点より過去に設定された撮影対象の関連情報を特定する。この処理は、例えば上記スクリーンに透視投影される関連情報、すなわちスクリーンに透視投影される仮想3次元空間の範囲に含まれる緯度、経度等の平面座標及び高さ(標高)を有する関連情報を撮影範囲中の関連情報として特定することにより行う。特定した関連情報は、関連情報特定部26が記憶部32に記憶させる。なお、上記関連情報は、例えば通信部30により外部のサーバーと通信し、当該サーバーから取得する構成とすることができる。この場合、撮影対象の撮影中に、撮影位置検出部16が検出する撮影位置の座標をサーバーに送信し、送信した座標を含む一定範囲(上記撮影範囲よりも広い一定範囲)に含まれる座標を座標情報として有する関連情報をサーバーから返信させる構成とすることができる。サーバーから返信された関連情報は、記憶部32に記憶させておく。また、関連情報は、サーバーから撮影中に受け取るのではなく、撮影範囲の候補となる領域に含まれる座標を座標情報として有する関連情報を予め記憶部32に記憶させておいてもよい。 The related information specifying unit 26 has coordinate information in the shooting range specified by the shooting range specifying unit 24, and specifies related information of the shooting target set in the past from the shooting time. This processing, for example, captures related information that is perspective-projected on the screen, that is, related information that has plane coordinates and height (elevation) such as latitude and longitude included in the range of the virtual three-dimensional space that is perspective-projected on the screen. This is done by specifying it as related information in the scope. The related information specifying unit 26 stores the specified related information in the storage unit 32. Note that the related information can be acquired from the server by communicating with an external server by the communication unit 30, for example. In this case, during shooting of the shooting target, the coordinates of the shooting position detected by the shooting position detection unit 16 are transmitted to the server, and coordinates included in a certain range (a certain range wider than the shooting range) including the transmitted coordinates are obtained. It can be set as the structure which returns the related information which has as coordinate information from a server. The related information returned from the server is stored in the storage unit 32. Further, the related information may not be received from the server during shooting, but may be stored in advance in the storage unit 32 as related information having coordinates included in a region that is a shooting range candidate as coordinate information.
表示制御部28は、撮影・表示端末10のカメラ14が撮影中の画像を表示画面12に表示するとともに、撮影中の画像に上記関連情報特定部26が特定した関連情報を記憶部32から読み出して重畳し、表示画面12に撮影中に表示する。この場合、関連情報が属性として有する緯度、経度等の平面座標が表す点に関連情報の画像の一部が重なる(上記点が関連情報の画像内に含まれる)ように関連情報を表示するのが好適である。また、カメラ14が撮影中の画像は、カメラ14からの画像情報を記憶部32に記憶させ、これを表示制御部28が読み出して表示画面12に表示するが、撮影中の画像情報を予め上記仮想3次元空間を透視投影するスクリーンに重畳しておいてもよい。 The display control unit 28 displays an image being captured by the camera 14 of the photographing / display terminal 10 on the display screen 12, and reads related information specified by the related information specifying unit 26 in the image being captured from the storage unit 32. And superimposed on the display screen 12 during shooting. In this case, the related information is displayed so that a part of the image of the related information overlaps the point represented by the plane coordinates such as latitude and longitude as the attribute of the related information (the point is included in the image of the related information). Is preferred. Further, for the image being photographed by the camera 14, image information from the camera 14 is stored in the storage unit 32, and this is read out by the display control unit 28 and displayed on the display screen 12. The virtual three-dimensional space may be superimposed on a screen for perspective projection.
また、表示制御部28は、上記撮影範囲特定部24が特定した撮影範囲が含まれる地図画像を撮影中の画像とともに表示する。地図画像は、例えば記憶部32に記憶させ、あるいは外部のサーバーから取得した地図情報に基づき、表示制御部28が生成する。さらに、撮影範囲を示す画像を表示制御部28が生成し、上記地図上に重畳して表示してもよい。撮影範囲を示す画像は、例えば上記撮影位置検出部16が検出した撮影位置に対応する点から、上記撮影方位検出部18が検出した撮影方位の方向に対して一定角度範囲(例えば+/−30度、あるいは+/−45度等)及び一定半径に広がる扇形とすることができる。なお、上記一定角度範囲は、カメラ14の画角に基づいて表示制御部28が決定する構成とすることができる。 The display control unit 28 displays a map image including the shooting range specified by the shooting range specifying unit 24 together with the image being shot. The map image is generated by the display control unit 28 based on the map information stored in the storage unit 32 or acquired from an external server, for example. Furthermore, the display control unit 28 may generate an image indicating the shooting range and display the image superimposed on the map. The image indicating the shooting range is, for example, from a point corresponding to the shooting position detected by the shooting position detection unit 16 with respect to the direction of the shooting direction detected by the shooting direction detection unit 18 (for example, +/− 30). Degrees, or +/− 45 degrees, etc.) and a fan-shaped fan having a constant radius. The constant angle range can be determined by the display control unit 28 based on the angle of view of the camera 14.
通信部30は、適宜なインターフェースにより構成され、無線または有線の通信回線を介してCPU34が外部のサーバー等とデータ(撮影対象の関連情報等)をやり取りするために使用する。 The communication unit 30 is configured by an appropriate interface, and is used by the CPU 34 to exchange data (related information about the photographing target) with an external server or the like via a wireless or wired communication line.
記憶部32は、ハードディスク装置、ソリッドステートドライブ(SSD)等の不揮発性メモリで構成され、上記各種情報等、及びCPU34の動作プログラム等の、対象物情報表示装置が行う各処理に必要な情報を記憶させる。なお、記憶部32としては、デジタル・バーサタイル・ディスク(DVD)、コンパクトディスク(CD)、光磁気ディスク(MO)、フレキシブルディスク(FD)、磁気テープ、電気的消去および書き換え可能な読出し専用メモリ(EEPROM)、フラッシュ・メモリ等を使用してもよい。また、記憶部32には、主としてCPU34の作業領域として機能するランダムアクセスメモリ(RAM)、及びBIOS等の制御プログラムその他のCPU34が使用するデータが格納される読み出し専用メモリ(ROM)を含めるのが好適である。 The storage unit 32 includes a nonvolatile memory such as a hard disk device or a solid state drive (SSD), and stores information necessary for each process performed by the object information display device, such as the above-described various information and an operation program of the CPU 34. Remember. The storage unit 32 includes a digital versatile disk (DVD), a compact disk (CD), a magneto-optical disk (MO), a flexible disk (FD), a magnetic tape, an electrically erasable and rewritable read-only memory ( EEPROM), flash memory or the like may be used. The storage unit 32 includes a random access memory (RAM) that mainly functions as a work area of the CPU 34, and a read-only memory (ROM) that stores control programs such as BIOS and other data used by the CPU 34. Is preferred.
図3には、仮想3次元空間並びに仮想3次元空間において撮影範囲及び関連情報を特定する処理の説明図が示される。図3において、コンピュータ上に設定された仮想3次元空間には、座標軸α1、α2、α3が規定されている。この座標軸は任意に設定することができ、上述したように、例えば(X、Y、Z)座標(数学座標系)、(緯度、経度、標高)座標(地球座標系)等でもよい。 FIG. 3 is an explanatory diagram of a process for specifying a shooting range and related information in the virtual three-dimensional space and the virtual three-dimensional space. In FIG. 3, coordinate axes α1, α2, and α3 are defined in the virtual three-dimensional space set on the computer. This coordinate axis can be arbitrarily set. As described above, for example, (X, Y, Z) coordinates (mathematical coordinate system), (latitude, longitude, altitude) coordinates (earth coordinate system), and the like may be used.
仮想3次元空間には、属性として座標情報を有する関連情報が、上記座標軸α1、α2、α3に基づいて当該座標情報に対応する位置に配置されている。なお、「仮想3次元空間に配置されている」とは、関連情報が、その座標情報に基づき仮想3次元空間中の座標軸が表す座標に関連付けられていることをいう。図3の例では、関連情報が「タグ」と表示されている。 In the virtual three-dimensional space, related information having coordinate information as an attribute is arranged at a position corresponding to the coordinate information based on the coordinate axes α1, α2, and α3. Note that “arranged in the virtual three-dimensional space” means that the related information is associated with the coordinates represented by the coordinate axes in the virtual three-dimensional space based on the coordinate information. In the example of FIG. 3, the related information is displayed as “tag”.
上述したように、撮影範囲は、撮影位置(例えば緯度、経度、標高により定まるカメラ14の視点、図3の例では(x、y、z)で表されている)、撮影方位、撮影に使用するカメラ14の傾き及びカメラ14の画角から撮影範囲特定部24が特定する。図3では撮影範囲が矩形領域として示されている。この撮影範囲は、上述したように、仮想3次元空間を透視投影するスクリーンとして設定され、上記撮影位置、撮影方位、撮影に使用するカメラ14の傾き及びカメラ14の画角に基づいてスクリーンの大きさ及び方向が決定される。 As described above, the shooting range is used for the shooting position (for example, the viewpoint of the camera 14 determined by latitude, longitude, and altitude, represented by (x, y, z) in the example of FIG. 3), shooting direction, and shooting. The shooting range specifying unit 24 specifies from the tilt of the camera 14 and the angle of view of the camera 14. In FIG. 3, the photographing range is shown as a rectangular area. As described above, the shooting range is set as a screen for perspective projection of the virtual three-dimensional space, and the size of the screen is based on the shooting position, shooting direction, tilt of the camera 14 used for shooting, and the angle of view of the camera 14. The length and direction are determined.
関連情報特定部26は、上記スクリーンに透視投影される仮想3次元空間の範囲に含まれる緯度、経度等の平面座標及び/または高さ(標高)を有する関連情報を特定する。具体的には、撮影範囲を示す矩形領域(スクリーン)中に上記平面座標及び/または高さがあるタグを特定する。図3の例では、タグI、IIが、平面座標を表す丸印及び/または高さを表す星印がスクリーン中に存在しているので、撮影範囲中の関連情報として特定される。一方、上記平面座標及び星印がスクリーンの外に存在しているタグIIIは、撮影範囲中の関連情報として特定されない。 The related information specifying unit 26 specifies related information having plane coordinates such as latitude and longitude and / or height (elevation) included in the range of the virtual three-dimensional space projected through the screen. Specifically, a tag having the plane coordinates and / or height is specified in a rectangular area (screen) indicating a photographing range. In the example of FIG. 3, the tags I and II are identified as related information in the shooting range because the circles representing the plane coordinates and / or the stars representing the height are present in the screen. On the other hand, the tag III in which the plane coordinates and the star are present outside the screen is not specified as related information in the photographing range.
図4には、実施形態にかかる対象物情報表示装置の動作例のフローが示される。図4において、仮想3次元空間設定部22が、上記関連情報を含んだ仮想3次元空間を設定する(S1)。仮想3次元空間の座標軸、仮想3次元空間中の座標に関連付けられた関連情報及びタグ等の仮想3次元空間に関する情報は、上述したように、仮想3次元空間設定部22が記憶部32に記憶させる。 FIG. 4 shows a flow of an operation example of the object information display device according to the embodiment. In FIG. 4, the virtual three-dimensional space setting unit 22 sets a virtual three-dimensional space including the related information (S1). As described above, the virtual three-dimensional space setting unit 22 stores the information about the virtual three-dimensional space, such as the coordinate axes of the virtual three-dimensional space, the related information associated with the coordinates in the virtual three-dimensional space, and the tags, in the storage unit 32. Let
また、カメラ14で撮影対象を撮影しているときに、当該撮影対象を撮影中の撮影位置、すなわち自分の位置の座標を、GPS受信機等により取得した位置情報により撮影位置検出部16が検出し、記憶部32に記憶させる(S2)。撮影位置の座標は、上述したように、緯度、経度、標高等の3次元座標である。なお、標高は、撮影位置検出部16の検出値ではなく、予め設定した設定値であってもよい。 When the camera 14 is shooting the shooting target, the shooting position detection unit 16 detects the shooting position at which the shooting target is being shot, that is, the coordinates of its own position, using position information acquired by a GPS receiver or the like. Then, it is stored in the storage unit 32 (S2). As described above, the coordinates of the photographing position are three-dimensional coordinates such as latitude, longitude, and altitude. The altitude may be a preset setting value instead of the detection value of the photographing position detection unit 16.
また、カメラ14で撮影対象を撮影しているときに、磁気センサ等の出力に基づき撮影方位検出部18が撮影方位を検出し、記憶部32に記憶させる(S3)。 In addition, when the camera 14 is shooting the shooting target, the shooting direction detection unit 18 detects the shooting direction based on the output of the magnetic sensor or the like, and stores it in the storage unit 32 (S3).
また、カメラ14で撮影対象を撮影しているときに、ジャイロ等の出力に基づき傾き検出部20が撮影中のカメラ14(撮影画面)の傾きを検出し、記憶部32に記憶させる(S4)。 In addition, when the camera 14 is shooting the shooting target, the tilt detection unit 20 detects the tilt of the camera 14 (shooting screen) being shot based on the output of the gyro and the like, and stores it in the storage unit 32 (S4). .
次に、カメラ14で撮影対象を撮影しているときに、S2で検出した撮影位置と、S3で検出した撮影方位と、S4で検出したカメラ14の傾きと、カメラ14の画角とに基づいて、撮影範囲特定部24が撮影中の撮影範囲を特定する(S5)。 Next, when the subject to be photographed is photographed by the camera 14, based on the photographing position detected in S2, the photographing orientation detected in S3, the tilt of the camera 14 detected in S4, and the angle of view of the camera 14. The shooting range specifying unit 24 specifies the shooting range during shooting (S5).
次に、関連情報特定部26は、S5で特定した撮影範囲中のいずれかの点の座標に一致する平面座標(緯度、経度等)及び/または高さを有し、撮影時点より過去に設定された撮影対象の関連情報を特定し(S6)、記憶部32に記憶する。 Next, the related information specifying unit 26 has plane coordinates (latitude, longitude, etc.) and / or height that coincide with the coordinates of any point in the shooting range specified in S5, and is set in the past from the time of shooting. The related information of the imaged subject is specified (S6) and stored in the storage unit 32.
次に、表示制御部28は、カメラ14が撮影中の画像を表示画面12に表示するとともに、撮影中の画像にS6で特定した関連情報を表示するタグを記憶部32から読み出して重畳し、表示画面12に撮影中に表示する(S7)。 Next, the display control unit 28 displays an image being captured by the camera 14 on the display screen 12, and reads and superimposes a tag for displaying the related information identified in S6 on the image being captured from the storage unit 32, Displayed on the display screen 12 during shooting (S7).
上述した、図4の各ステップを実行するためのプログラムは、記録媒体に格納することも可能であり、また、そのプログラムを通信手段によって提供しても良い。その場合、例えば、上記説明したプログラムについて、「プログラムを記録したコンピュータ読み取り可能な記録媒体」の発明または「データ信号」の発明として捉えても良い。 The above-described program for executing each step in FIG. 4 can be stored in a recording medium, and the program may be provided by communication means. In that case, for example, the above-described program may be regarded as an invention of a “computer-readable recording medium recording a program” or an invention of a “data signal”.
図5には、撮影・表示端末10の表示制御部28の制御により表示画面12に表示された画面の例が示される。なお、画面の例は図5に限定されるものではない。図5の例では、表示画面12がA部とB部に分割され、A部に撮影対象としての道路及びその周辺地域の画像が表示されている。図5において、道路及びその周辺(道路脇の崖、遠方の山等)が撮影中の画像として表示画面12に表示されている際に、関連情報特定部26が特定した、撮影対象の関連情報の画像も重畳的に表示される。 FIG. 5 shows an example of a screen displayed on the display screen 12 under the control of the display control unit 28 of the photographing / display terminal 10. The example of the screen is not limited to FIG. In the example of FIG. 5, the display screen 12 is divided into an A part and a B part, and images of roads and surrounding areas as shooting targets are displayed in the A part. In FIG. 5, when the road and its surroundings (cliffs beside the road, distant mountains, etc.) are displayed on the display screen 12 as images being shot, the related information of the shooting target specified by the related information specifying unit 26 These images are also displayed in a superimposed manner.
図5のA部には、関連情報として道路の識別符号(県道○号線)、道路上の補修箇所(○月×日補修)、道路脇の崖のコンクリート等による補強箇所のひび割れ(○月△日ヒビ割れ)等が表示されている。これらの関連情報は、当該関連情報が属性として有している座標情報により特定される平面座標が表す点が、表示画面12に表示されている画像内(撮影範囲)に含まれているときに、上記属性としての座標に対応する位置に(上記点を関連情報の画像が含むように)表示される。 In part A of FIG. 5, as related information, road identification code (prefectural road No. ○ line), repair location on the road (○ month × date repair), cracks in the reinforcement portion due to concrete on the side of the road (○ month △ Sun cracks) are displayed. These pieces of related information are obtained when the point represented by the plane coordinates specified by the coordinate information that the related information has as an attribute is included in the image (shooting range) displayed on the display screen 12. Are displayed at positions corresponding to the coordinates as the attribute (so that the image of the related information includes the point).
なお、関連情報は、過去のある時点において、上記表示画面12に表示されている道路や道路脇の崖等につき、これらに関連する情報として設定され、上記記憶部32あるいは外部のサーバー等に格納されている。これらの関連情報には、上述したように、情報の表示位置を特定するための座標情報を属性として含ませておく。 The related information is set as information related to roads, cliffs and the like displayed on the display screen 12 at a certain point in the past, and stored in the storage unit 32 or an external server. Has been. As described above, the related information includes coordinate information for specifying the display position of the information as an attribute.
また、図5のB部には、A部に表示された画像の撮影範囲を含む地図画像と、現在の撮影範囲を示す扇形の図形Cが表示されている。この場合の地図画像は、上述したように、予め記憶部32に記憶させ、あるいは外部のサーバーから取得した地図情報に基づき、表示制御部28が生成する。また、扇形の図形Cも、上述したように、表示制御部28が生成する。 In FIG. 5B, a map image including the shooting range of the image displayed in the A portion and a fan-shaped figure C indicating the current shooting range are displayed. As described above, the map image in this case is stored in the storage unit 32 in advance, or is generated by the display control unit 28 based on map information acquired from an external server. In addition, the display control unit 28 generates the fan-shaped figure C as described above.
10 撮影・表示端末、12 表示画面、14 カメラ、16 撮影位置検出部、18 撮影方位検出部、20 傾き検出部、22 仮想3次元空間設定部、24 撮影範囲特定部、26 関連情報特定部、28 表示制御部、30 通信部、32 記憶部、34 CPU。
10 shooting / display terminal, 12 display screen, 14 camera, 16 shooting position detection unit, 18 shooting direction detection unit, 20 tilt detection unit, 22 virtual three-dimensional space setting unit, 24 shooting range specifying unit, 26 related information specifying unit, 28 display control unit, 30 communication unit, 32 storage unit, 34 CPU.
Claims (5)
撮影中の撮影方位を検出する撮影方位検出手段と、
撮影に使用するカメラの撮影中の傾きを検出する傾き検出手段と、
座標軸を有し、撮影時点より過去に設定した撮影対象の関連情報が前記座標軸上の座標と関連付けられた仮想3次元空間を設定する仮想3次元空間設定手段と、
前記撮影位置、撮影方位、撮影に使用するカメラの撮影中の傾き及びカメラの画角に基づいて、前記仮想3次元空間における撮影中の撮影範囲を特定する撮影範囲特定手段と、
前記仮想3次元空間における撮影範囲に含まれる平面座標を有する関連情報を特定する関連情報特定手段と、
撮影中の画像に前記特定された関連情報を重畳して撮影中に表示する表示手段と、
を備える対象物情報表示装置。 Photographing position detecting means for detecting a photographing position during photographing;
A shooting direction detecting means for detecting a shooting direction during shooting;
Tilt detection means for detecting the tilt of the camera used for shooting during shooting;
A virtual three-dimensional space setting means that has a coordinate axis and sets a virtual three-dimensional space in which related information of a photographing target set in the past from the photographing time point is associated with coordinates on the coordinate axis;
A shooting range specifying means for specifying a shooting range during shooting in the virtual three-dimensional space based on the shooting position, shooting direction, tilt during shooting of the camera used for shooting, and angle of view of the camera;
Related information specifying means for specifying related information having plane coordinates included in the imaging range in the virtual three-dimensional space;
Display means for superimposing the identified related information on an image being shot and displaying the image during shooting;
An object information display device comprising:
撮影中の撮影位置を検出する撮影位置検出手段、
撮影中の撮影方位を検出する撮影方位検出手段、
撮影に使用するカメラの撮影中の傾きを検出する傾き検出手段、
座標軸を有し、撮影時点より過去に設定した撮影対象の関連情報が前記座標軸上の座標と関連付けられた仮想3次元空間を設定する仮想3次元空間設定手段、
前記撮影位置、撮影方位、撮影に使用するカメラの撮影中の傾き及びカメラの画角に基づいて、前記仮想3次元空間における撮影中の撮影範囲を特定する撮影範囲特定手段、
前記仮想3次元空間における撮影範囲に含まれる平面座標を有する関連情報を特定する関連情報特定手段、
撮影中の画像に前記特定された関連情報を重畳して撮影中に表示する表示制御手段、
として機能させることを特徴とする対象物情報表示プログラム。
Computer
Shooting position detection means for detecting the shooting position during shooting,
Shooting direction detection means for detecting the shooting direction during shooting,
Tilt detection means for detecting the tilt during shooting of the camera used for shooting,
A virtual three-dimensional space setting means that has a coordinate axis and sets a virtual three-dimensional space in which related information of a photographing target set in the past from the photographing time point is associated with coordinates on the coordinate axis;
A shooting range specifying means for specifying a shooting range during shooting in the virtual three-dimensional space based on the shooting position, shooting direction, tilt during shooting of the camera used for shooting, and angle of view of the camera;
Related information specifying means for specifying related information having plane coordinates included in the imaging range in the virtual three-dimensional space;
Display control means for superimposing the specified related information on an image being photographed and displaying it during photographing;
The object information display program characterized by being made to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015101747A JP2016219980A (en) | 2015-05-19 | 2015-05-19 | Target information display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015101747A JP2016219980A (en) | 2015-05-19 | 2015-05-19 | Target information display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016219980A true JP2016219980A (en) | 2016-12-22 |
JP2016219980A5 JP2016219980A5 (en) | 2018-06-28 |
Family
ID=57581611
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015101747A Pending JP2016219980A (en) | 2015-05-19 | 2015-05-19 | Target information display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016219980A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2020225843A1 (en) * | 2019-05-07 | 2020-11-12 | ||
CN113592997A (en) * | 2021-07-30 | 2021-11-02 | 腾讯科技(深圳)有限公司 | Object drawing method, device and equipment based on virtual scene and storage medium |
JP2022508146A (en) * | 2018-11-20 | 2022-01-19 | ラチ,インコーポレイテッド | Occupant and guest interaction with virtual environment |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003106853A (en) * | 2001-09-28 | 2003-04-09 | Toshiba Corp | Drive supporting apparatus |
JP2009271732A (en) * | 2008-05-07 | 2009-11-19 | Sony Corp | Device and method for presenting information, imaging apparatus, and computer program |
JP2011244058A (en) * | 2010-05-14 | 2011-12-01 | Sony Corp | Information processing device, information processing system, and program |
JP2012216935A (en) * | 2011-03-31 | 2012-11-08 | Jvc Kenwood Corp | Information processing system, search device and program |
JP2015091055A (en) * | 2013-11-06 | 2015-05-11 | キヤノン株式会社 | Imaging device and image processing device |
-
2015
- 2015-05-19 JP JP2015101747A patent/JP2016219980A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003106853A (en) * | 2001-09-28 | 2003-04-09 | Toshiba Corp | Drive supporting apparatus |
JP2009271732A (en) * | 2008-05-07 | 2009-11-19 | Sony Corp | Device and method for presenting information, imaging apparatus, and computer program |
JP2011244058A (en) * | 2010-05-14 | 2011-12-01 | Sony Corp | Information processing device, information processing system, and program |
JP2012216935A (en) * | 2011-03-31 | 2012-11-08 | Jvc Kenwood Corp | Information processing system, search device and program |
JP2015091055A (en) * | 2013-11-06 | 2015-05-11 | キヤノン株式会社 | Imaging device and image processing device |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022508146A (en) * | 2018-11-20 | 2022-01-19 | ラチ,インコーポレイテッド | Occupant and guest interaction with virtual environment |
JP7553443B2 (en) | 2018-11-20 | 2024-09-18 | ラチ システムズ,インコーポレイテッド | Occupant and guest interaction with the virtual environment |
US12130997B2 (en) | 2018-11-20 | 2024-10-29 | Latch Systems, Inc. | Occupant and guest interaction with a virtual environment |
JPWO2020225843A1 (en) * | 2019-05-07 | 2020-11-12 | ||
CN113592997A (en) * | 2021-07-30 | 2021-11-02 | 腾讯科技(深圳)有限公司 | Object drawing method, device and equipment based on virtual scene and storage medium |
CN113592997B (en) * | 2021-07-30 | 2023-05-30 | 腾讯科技(深圳)有限公司 | Object drawing method, device, equipment and storage medium based on virtual scene |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4600515B2 (en) | Information presenting apparatus, information presenting method, imaging apparatus, and computer program | |
KR20210046592A (en) | Augmented reality data presentation method, device, device and storage medium | |
CN102338639B (en) | Information processing device and information processing method | |
US20070070233A1 (en) | System and method for correlating captured images with their site locations on maps | |
JP2011239361A (en) | System and method for ar navigation and difference extraction for repeated photographing, and program thereof | |
JP7311502B2 (en) | Slope stability visualization | |
US20110183684A1 (en) | Mobile communication terminal and method | |
JP4969053B2 (en) | Portable terminal device and display method | |
JP2005283221A (en) | Surveying data processing system, storage medium storing digital map and digital map display | |
CN110703805A (en) | Method, device and equipment for planning three-dimensional object surveying and mapping route, unmanned aerial vehicle and medium | |
US20240087157A1 (en) | Image processing method, recording medium, image processing apparatus, and image processing system | |
JP6110780B2 (en) | Additional information display system | |
JP2009140402A (en) | Information display device, information display method, information display program, and recording medium with recorded information display program | |
KR101574636B1 (en) | Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage | |
JP2008154027A (en) | Photographing device, photographing method, and program | |
JP2016219980A (en) | Target information display device | |
JP5669438B2 (en) | Object management image generation apparatus and object management image generation program | |
CN115601496A (en) | AR-assisted three-dimensional map scale recovery method and system | |
TWI426237B (en) | Instant image navigation system and method | |
JP5262232B2 (en) | Image orientation display method and apparatus, and photograph | |
KR101579970B1 (en) | Method and apparatus for calculating location of points captured in image | |
JP2016133701A (en) | Information providing system and information providing method | |
JP2007279769A (en) | Three-dimensional information display device | |
CN109933642B (en) | Method and device for generating guide picture, electronic equipment and storage medium | |
CN112825198B (en) | Mobile tag display method, device, terminal equipment and readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180516 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180516 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190312 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190917 |