Nothing Special   »   [go: up one dir, main page]

JP5458411B2 - Photographed image display device, photographed image display method, and electronic map output by photographed image display method - Google Patents

Photographed image display device, photographed image display method, and electronic map output by photographed image display method Download PDF

Info

Publication number
JP5458411B2
JP5458411B2 JP2010056734A JP2010056734A JP5458411B2 JP 5458411 B2 JP5458411 B2 JP 5458411B2 JP 2010056734 A JP2010056734 A JP 2010056734A JP 2010056734 A JP2010056734 A JP 2010056734A JP 5458411 B2 JP5458411 B2 JP 5458411B2
Authority
JP
Japan
Prior art keywords
image
information
head
shooting
image display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010056734A
Other languages
Japanese (ja)
Other versions
JP2011193170A (en
Inventor
理恵子 門林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2010056734A priority Critical patent/JP5458411B2/en
Publication of JP2011193170A publication Critical patent/JP2011193170A/en
Application granted granted Critical
Publication of JP5458411B2 publication Critical patent/JP5458411B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Telephonic Communication Services (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、デジタルカメラの撮影画像を電子地図と関連付けて表示する撮影画像表示装置、撮影画像表示方法、及び同方法によって出力される電子地図に関し、特に撮影時の撮影位置及び撮影方向の情報を、電子地図上に分かりやすく表示するための技術に関する。   The present invention relates to a photographed image display device that displays a photographed image of a digital camera in association with an electronic map, a photographed image display method, and an electronic map output by the method, and in particular, information on a photographing position and a photographing direction at the time of photographing. The present invention relates to a technique for easily displaying on an electronic map.

近年、携帯電話端末の高機能化が進んでおり、ほとんどの機種においてインターネットに接続するデータ通信機能や、デジタルカメラと同様の機能を備えたカメラ機能を備えている。さらに、端末位置をGPSによって測定する位置測定機能や、端末の傾き等を検出する機能を備える機種もある。   In recent years, mobile phone terminals have become more sophisticated, and most models have a data communication function for connecting to the Internet and a camera function having the same function as a digital camera. Further, there are models equipped with a position measuring function for measuring the terminal position by GPS and a function for detecting the inclination of the terminal.

カメラ機能を用いて、撮影した画像をインターネット上のサーバー装置にアップロードすることは画像掲示板などにおいてしばしば行われている。さらに本件発明者は、携帯電話端末の位置測定機能や端末の傾きを検出する機能を利用して、撮影した写真と、撮影位置、撮影の方位、仰角などをサーバー装置に送ることを提案している(非特許文献1)。
このようなシステムを用いると、サーバー装置に格納する地図と、写真を組み合わせて、地図上の各地点からどのような風景をみることができるのか、簡易に表示することができる。本件出願人による特許文献1をはじめ、インターネットのサーバー上で、地図情報と撮影画像を重ねて表示する方法は一般的である。
Uploading a captured image to a server device on the Internet using a camera function is often performed on an image bulletin board or the like. Furthermore, the present inventor has proposed to send a photograph taken, a photographing position, a photographing direction, an elevation angle, and the like to the server device by using the position measuring function of the mobile phone terminal and the function of detecting the tilt of the terminal. (Non-Patent Document 1).
By using such a system, it is possible to easily display what kind of scenery can be seen from each point on the map by combining the map stored in the server device and the photograph. A method of displaying the map information and the captured image in an overlapping manner on a server on the Internet, such as Patent Document 1 by the present applicant, is common.

一方、携帯電話やデジタルカメラ上では、撮影時に計測した撮影位置や撮影方向の情報は、撮影データとして画像と共に記録され、数値データとして参照することができる。しかし、緯度・経度の数値や、仰角の値のままでは、直感的に把握しにくく、計測機能を十分に活用できていない問題がある。   On the other hand, on a mobile phone or a digital camera, information on the shooting position and shooting direction measured at the time of shooting is recorded together with the image as shooting data and can be referred to as numerical data. However, there is a problem that it is difficult to grasp intuitively if the values of latitude and longitude and the value of elevation angle remain as they are, and the measurement function cannot be fully utilized.

また、上記の地図上に画像を配置して表示する構成では、例えば撮影した向きを示す直線を立体的に表示することで、撮影画像とその位置、向きを感覚的に分かりやすく表示することを目的としたものがある。例えば、特許文献1では、対応する写真画像データをパネル写真として表示処理し、その写真の撮影地点に相当する地図上の位置に配置すると共に、その写真の撮影方角に相当する地図上の方角に合わせて配向し、更に、その写真の撮影仰角を示す仰角アイコンをパネル写真に付設表示する構成が提案されている。   Further, in the configuration in which the image is arranged and displayed on the above map, for example, the captured image, its position, and orientation can be displayed in a sensuous and easy-to-understand manner by displaying a straight line indicating the captured direction in three dimensions. There is a purpose. For example, in Patent Document 1, corresponding photographic image data is displayed as a panel photograph, arranged at a position on the map corresponding to the photographing point of the photograph, and in a direction on the map corresponding to the photographing direction of the photograph. There has been proposed a configuration in which an orientation angle icon indicating the photographing elevation angle of the photograph is additionally displayed on the panel photograph.

本方法は、地図上に直接パネル表示をするため、どの地点からどの方角を見た時に、どのような風景が見えるか、ということが直感的に分かりやすい長所を有する。しかし、多数の写真を掲載するにはパネルが多く見にくくなること、仰角は仰角アイコンで示すので感覚的に理解しにくいこと、パネルに写真を貼り込んで立体的な画像を生成するため、コンピュータの処理能力が要求されること、などの問題があった。   Since this method directly displays a panel on a map, it has an advantage that it is intuitively easy to understand what kind of scenery is seen when viewing from which point. However, in order to publish a large number of photos, it is difficult to see many panels, and the elevation angle is indicated by an elevation angle icon, so it is difficult to understand sensuously. There were problems such as requiring processing power.

この他、風景や建物の写真など地理情報を有する写真を、その撮影地点に応じて電子地図に対応付けるシステムには次のような文献がある。
例えば、特許文献2には、デジタルカメラ付き携帯端末で撮影した写真画像に、時刻情報と撮影方角と撮影位置とからなる撮影識別情報を付加した撮影識別情報付き写真画像をサーバーへ送信し、そのサーバーが撮影位置を含む地図やその撮影地点での写真画像を利用者端末へ提供する位置方位付き写真提供システムが開示されている。
本発明者も、特許文献3及び4に、地理情報を有する写真を、その撮影地点に応じて地図に対応付ける方法、並びに、その写真マッピング方法を実施するシステムを開示している。
In addition to the above, there are the following documents as a system for associating a photograph having geographical information such as a photograph of a landscape or a building with an electronic map according to the photographing point.
For example, in Patent Document 2, a photograph image with photographing identification information in which photographing identification information including time information, a photographing direction, and a photographing position is added to a photograph image photographed with a mobile terminal with a digital camera is transmitted to a server. There has been disclosed a photo providing system with a position orientation in which a server provides a map including a shooting position and a photo image at the shooting point to a user terminal.
The present inventors have also disclosed in Patent Documents 3 and 4 a method of associating a photograph having geographic information with a map according to the shooting point, and a system for implementing the photograph mapping method.

他方、電子地図に関しては、特許文献4〜7があり、地図を立体的に視認するサービス(グーグルマップやグーグルアース)(非特許文献2、3)が知られている。   On the other hand, regarding electronic maps, there are Patent Documents 4 to 7, and services (Google Map and Google Earth) (Non-Patent Documents 2 and 3) for viewing the map in three dimensions are known.

特開2010− 39583号JP 2010-39583 A 特開2007− 52809号JP 2007-52809 特開2009−176262号JP 2009-176262 A 特開2009−157897号JP 2009-157897 特表2008−501161号Special table 2008-501161 特表2007−531004号Special table 2007-531004 特表2007−524113号Special table 2007-524113

Rieko Kadobayashi, A Gaze-based Guidance System based on aReal-world 3D Photo Logging System, in Proceedings of the Joint Workshop MobileInteraction with the Real World and 5th Workshop on "HCI in MobileGuides",pp. 37-40, 2007年9月Rieko Kadobayashi, A Gaze-based Guidance System based on aReal-world 3D Photo Logging System, in Proceedings of the Joint Workshop MobileInteraction with the Real World and 5th Workshop on "HCI in MobileGuides", pp. 37-40, September 2007 インターネットURL http://maps.google.co.jp/(2010年2月26日検索)Internet URL http://maps.google.co.jp/ (searched on February 26, 2010) インターネットURL http://earth.google.com/intl/ja/(2010年2月26日検索)Internet URL http://earth.google.com/intl/en/ (searched on February 26, 2010)

本発明は、上記従来技術の有する問題点に鑑みて創出されたものであり、デジタルカメラの撮影画像を電子地図と関連付けて表示する際に、撮影時の撮影位置及び撮影方向の情報を、電子地図上に分かりやすく表示するための技術を提供することを目的とする。   The present invention was created in view of the above-described problems of the prior art, and when displaying a captured image of a digital camera in association with an electronic map, information on the shooting position and shooting direction at the time of shooting is displayed electronically. The purpose is to provide a technique for displaying on a map in an easy-to-understand manner.

上記課題を解決するため、本発明は次のような構成を用いる。
すなわち本発明は、デジタルカメラの撮影画像を電子地図と関連付けて表示する撮影画像表示装置を提供する。装置には、第1記憶手段上に格納され、地図と位置情報との対応関係を含む地図データを入力する地図データ入力手段と、第2記憶手段上に格納され、少なくとも画像撮影時に記録した位置情報及び方向情報を含む撮影画像を入力する撮影画像入力手段とを備えて各データを入力する。
In order to solve the above problems, the present invention uses the following configuration.
That is, the present invention provides a captured image display device that displays a captured image of a digital camera in association with an electronic map. The apparatus stores map data input means for inputting map data including a correspondence relationship between the map and position information stored on the first storage means, and a position stored on the second storage means and recorded at least at the time of image capturing. Each piece of data is input with a photographic image input means for inputting a photographic image including information and direction information.

また、撮影画像から位置情報及び方向情報を抽出する撮影情報抽出手段と、抽出した位置情報から電子地図上の表示位置を決定する表示位置決定手段と、抽出した方向情報から方向情報に対応する方向にキャラクタの顔の向きを合わせた頭部画像を生成する頭部画像生成手段を備える。
そして、地図データから電子地図画像を出力すると共に、電子地図画像上の決定された表示位置に、頭部画像を重ねて出力する頭部画像出力手段と、撮影画像を表示する撮影画像表示手段とを備えたことを特徴とする撮影画像表示装置を提供する。
Also, shooting information extraction means for extracting position information and direction information from the shot image, display position determination means for determining a display position on the electronic map from the extracted position information, and a direction corresponding to the direction information from the extracted direction information And a head image generating means for generating a head image in which the direction of the character's face is matched.
And while outputting an electronic map image from map data, the head image output means which outputs and outputs a head image on the determined display position on an electronic map image, and the picked-up image display means which displays a picked-up image A photographed image display device characterized by comprising:

上記の方向情報が画像撮影時におけるデジタルカメラの方位及び仰角であって、その方位に、頭部画像の顔の正面方向を向けると共に、仰角が0度の時に、頭部画像の顔の正面が上記の電子地図の地表面と平行な方向を向き、仰角が正の場合には顔の正面が上向いて顔が視認できるようにし、仰角が負の場合には顔の正面が下向いて後頭部が視認できるようにすることもできる。   The direction information is the azimuth and elevation angle of the digital camera at the time of image capture, and the front direction of the face of the head image is directed to the azimuth, and when the elevation angle is 0 degrees, the front of the face of the head image is If the elevation angle is positive, the front of the face is facing upward and the face can be visually recognized.If the elevation angle is negative, the front of the face is facing downward and the back of the head is It can also be made visible.

上記の撮影画像表示装置において、電子地図画像上に複数の頭部画像を同時に表示可能な構成であって、入力手段から任意の頭部画像の指定を受理する画像指定受理手段を備え、撮影画像表示手段が、指定に従って、その撮影画像を表示する構成でもよい。   In the photographed image display device, a plurality of head images can be simultaneously displayed on the electronic map image, and the photographed image display device includes image designation receiving means for accepting designation of an arbitrary head image from the input means. The display means may be configured to display the captured image in accordance with the designation.

上記の撮影情報に、撮影者又は撮影者の属性を識別可能な撮影者識別情報を含み、その撮影者識別情報に応じて、前記頭部画像を変化させることもできる。また、撮影情報に、撮影時の天候や撮影場所の雰囲気などを示す撮影状況情報を含み、その撮影状況情報に応じて、前記頭部画像を変化させることもできる。   The above photographing information may include photographer identification information that can identify the photographer or the photographer's attributes, and the head image may be changed according to the photographer identification information. In addition, the shooting information includes shooting situation information indicating the weather at the time of shooting, the atmosphere of the shooting place, and the like, and the head image can be changed according to the shooting situation information.

本発明は、デジタルカメラの撮影画像を電子地図と関連付けて表示する撮影画像表示方法を提供することができる。
すなわち、
(S1) 地図データ入力手段が、第1記憶手段上に格納され、地図と位置情報との対応関係を含む地図データを入力する地図データ入力工程、
(S2) 撮影画像入力手段が、第2記憶手段上に格納され、少なくとも画像撮影時に記録した位置情報及び方向情報を含む撮影画像を入力する撮影画像入力工程、
(S3) 撮影情報抽出手段が、撮影画像から位置情報及び方向情報を抽出する撮影情報抽出工程、
(S4) 表示位置決定手段が、抽出した位置情報から電子地図上の表示位置を決定する表示位置決定工程、
(S5) 頭部画像生成手段が、抽出した方向情報から方向情報に対応する方向にキャラクタの顔の向きを合わせた頭部画像を生成する頭部画像生成工程、
(S6) 頭部画像出力手段が、地図データから電子地図画像を出力すると共に、電子地図画像上の決定された表示位置に、頭部画像を重ねて出力する頭部画像出力工程、
(S7) 撮影画像表示手段が、撮影画像を表示する撮影画像表示工程
の各工程を有することを特徴とする。
The present invention can provide a captured image display method for displaying a captured image of a digital camera in association with an electronic map.
That is,
(S1) A map data input step in which map data input means inputs map data that is stored on the first storage means and includes the correspondence between the map and position information;
(S2) A photographed image input step in which the photographed image input means inputs a photographed image that is stored on the second storage means and includes at least position information and direction information recorded at the time of image photographing,
(S3) An imaging information extraction step in which imaging information extraction means extracts position information and direction information from the captured image;
(S4) a display position determining step in which the display position determining means determines a display position on the electronic map from the extracted position information;
(S5) A head image generation step in which the head image generation means generates a head image in which the direction of the character's face is matched with the direction corresponding to the direction information from the extracted direction information;
(S6) a head image output step in which the head image output means outputs an electronic map image from the map data and outputs the head image superimposed on the determined display position on the electronic map image;
(S7) The captured image display means includes each step of a captured image display step for displaying a captured image.

上記の方向情報が画像撮影時におけるデジタルカメラの方位及び仰角であって、その方位に、頭部画像の顔の正面方向を向けると共に、仰角が0度の時に、頭部画像の顔の正面が電子地図の地表面と平行な方向を向き、仰角が正の場合には顔の正面が上向いて顔が視認できるようにし、仰角が負の場合には顔の正面が下向いて後頭部が視認できるようにすることもできる。   The direction information is the azimuth and elevation angle of the digital camera at the time of image capture, and the front direction of the face of the head image is directed to the azimuth, and when the elevation angle is 0 degrees, the front of the face of the head image is When facing a direction parallel to the ground surface of the electronic map, when the elevation angle is positive, the front of the face faces upward and the face can be seen. When the elevation angle is negative, the front of the face faces downward and the back of the head can be seen It can also be done.

上記の頭部画像出力工程において、電子地図画像上に複数の頭部画像を同時に表示可能な構成であって、頭部画像出力工程の次に、画像指定受理手段が、入力手段から任意の頭部画像の指定を受理する画像指定受理工程を有し、上記撮影画像表示工程において、撮影画像表示手段が、指定に従って、その撮影画像を表示する構成でもよい。   In the head image output step, a plurality of head images can be simultaneously displayed on the electronic map image. After the head image output step, the image designation receiving means receives an arbitrary head from the input means. An image designation receiving step for accepting designation of a partial image may be provided, and in the photographed image display step, the photographed image display means may display the photographed image according to the designation.

上記の撮影情報に、撮影者又は撮影者の属性を識別可能な撮影者識別情報を含み、その撮影者識別情報に応じて、頭部画像生成工程において頭部画像を変化させることもできる。同様に、撮影情報に、撮影時の天候や撮影場所の雰囲気などを示す撮影状況情報を含み、その撮影状況情報に応じて、前記頭部画像を変化させることもできる。   The above-described photographing information includes photographer identification information that can identify the photographer or the photographer's attribute, and the head image can be changed in the head image generation step according to the photographer identification information. Similarly, the shooting information includes shooting situation information indicating the weather at the time of shooting, the atmosphere of the shooting place, and the like, and the head image can be changed according to the shooting situation information.

本発明は、以上の撮影画像表示方法によって画像表示されたり、あるいは画像データとして出力された電子地図として提供することもできる。   The present invention can also be provided as an electronic map that is displayed by the above-described captured image display method or that is output as image data.

本発明は、以上の構成を備えることにより、次の効果を奏する。
すなわち、抽出した方向情報から方向情報に対応する方向にキャラクタの顔の向きを合わせた頭部画像を生成する頭部画像生成手段を備えて、電子地図上に頭部画像を重ねて表示することにより、撮影位置を地図上に表示すると共に、頭部の向きを視覚的に表現することができる。特に、頭部画像は方位だけでなく仰角についても向きを直感的に把握しやすく、撮影画像とその撮影情報を伝達するために最適な構成である。
By providing the above configuration, the present invention has the following effects.
That is, a head image generating means for generating a head image in which the direction of the character's face is matched with the direction corresponding to the direction information from the extracted direction information, and the head image is displayed on the electronic map in an overlapping manner. Thus, the shooting position can be displayed on the map and the orientation of the head can be visually expressed. In particular, the head image is easy to intuitively grasp not only the orientation but also the elevation angle, and is an optimal configuration for transmitting the captured image and the captured information.

電子地図上に複数の頭部画像を表示する場合、従来のパネルに比して小型のアイコンで表示できることから、多数の写真でも良好に表示することができる。また、撮影位置と撮影方向について、各写真相互の関係が理解しやすく、1つの地点から周囲の状況の写真を選択する場合や、1つの被写体を複数の地点から見たときの写真を選択する場合には、特に好適である。   When displaying a plurality of head images on an electronic map, it can be displayed with a small icon as compared with a conventional panel, so that even a large number of photographs can be displayed well. In addition, regarding the shooting position and shooting direction, it is easy to understand the relationship between each photo, when selecting a photo of the surrounding situation from one point, or selecting a photo when viewing one subject from multiple points In some cases, it is particularly suitable.

本発明の画像撮影装置の構成図である。It is a block diagram of the image photographing device of the present invention. 本発明による処理のフローチャートである。3 is a flowchart of processing according to the present invention. 頭部画像生成処理部が生成する頭部画像の一例である。It is an example of the head image which a head image generation process part produces | generates. 頭部画像の回転を示す説明図である。It is explanatory drawing which shows rotation of a head image. 本発明による電子地図の表示例である。It is an example of a display of the electronic map by this invention. 本発明に係る画像撮影時のフローチャートである。It is a flowchart at the time of the image photography which concerns on this invention. 本発明に係る画像撮影時の表示例である。It is an example of a display at the time of image capturing according to the present invention.

以下、本発明の実施形態を、図面に示す実施例を基に説明する。なお、実施形態は下記に限定されるものではない。
図1は本発明に係る撮影画像表示装置(1)の構成図である。本実施例では、本装置(1)を公知の携帯電話端末に実装する例として説明する。携帯電話端末は、周知のように様々な処理を行うCPU(10)がメモリと協働して動作する。本発明は、電子地図の地図データと、デジタルカメラで撮影した撮影画像との2種類のデータを少なくとも用いるが、本実施例では、まずインターネットのサーバー上にこれらのデータを格納し、データ通信によって入力する方法を説明する。両データを本装置上に備える構成についても随時説明する。
Hereinafter, embodiments of the present invention will be described based on examples shown in the drawings. The embodiment is not limited to the following.
FIG. 1 is a configuration diagram of a captured image display device (1) according to the present invention. In this embodiment, the device (1) will be described as an example of mounting on a known mobile phone terminal. In the mobile phone terminal, as is well known, a CPU (10) that performs various processes operates in cooperation with a memory. The present invention uses at least two types of data, that is, map data of an electronic map and a photographed image taken by a digital camera. In this embodiment, these data are first stored on a server on the Internet, and are transmitted by data communication. A method of inputting will be described. A configuration in which both data are provided on the apparatus will also be described as needed.

公知のように、携帯電話端末である本装置(1)はインターネット(20)への接続が可能であり、そのための通信アダプタ(11)を備えている。なお、通信アダプタ(11)は、携帯電話網に接続するためのアンテナと通信モジュールからなり、実際には該携帯電話網におけるパケットが交換局を経てインターネットと送受信されるが、詳細な構成は説明を省略する。   As is well known, the present device (1), which is a mobile phone terminal, can be connected to the Internet (20) and includes a communication adapter (11) for this purpose. The communication adapter (11) includes an antenna and a communication module for connecting to a mobile phone network. Actually, packets in the mobile phone network are transmitted / received to / from the Internet via an exchange, but the detailed configuration will be described. Is omitted.

本装置(1)には、CMOSセンサ等と画像処理回路等からなるカメラ(12)、ダイヤルボタンなどのキーボード(13)、本装置(1)の姿勢を検出する姿勢センサ(14)、GPS衛星からの電波を受信するGPSアンテナ(15)、撮影しようとする被写体を表示したり、撮影済みの画像を表示するモニタ(16)、撮影した画像などを保存する記憶部(17)を備えている。   The device (1) includes a camera (12) including a CMOS sensor and an image processing circuit, a keyboard (13) such as a dial button, a posture sensor (14) for detecting the posture of the device (1), and a GPS satellite. A GPS antenna (15) for receiving radio waves from the monitor, a monitor (16) for displaying a subject to be photographed or displaying a photographed image, and a storage unit (17) for storing the photographed image. .

CPU(10)には、通信アダプタ(11)を介してインターネット(20)上の地図・撮影画像サーバー(21)とデータの送受信を行うデータ通信部(100)、撮影画像から撮影情報を抽出する撮影情報抽出処理部(101)、撮影画像について電子地図上の表示位置を決定する表示位置決定処理部(102)、キャラクタの顔を表す頭部画像を生成する頭部画像生成処理部(103)、電子地図画像上の決定された表示位置に頭部画像を重ねて出力する頭部画像出力部(104)、所定の表示方法で撮影画像を表示する撮影画像表示部(105)を備える。   In the CPU (10), the data communication unit (100) that transmits / receives data to / from the map / photographed image server (21) on the Internet (20) via the communication adapter (11), and the photographing information is extracted from the photographed image. A shooting information extraction processing unit (101), a display position determination processing unit (102) for determining a display position on the electronic map for the shot image, and a head image generation processing unit (103) for generating a head image representing the face of the character A head image output unit (104) for outputting the head image superimposed on the determined display position on the electronic map image, and a captured image display unit (105) for displaying the captured image by a predetermined display method.

この他、本発明において必須な構成要素ではないが、GPSアンテナ(15)で受信した信号を処理するGPS処理部(106)、姿勢センサ(14)の信号処理を行う姿勢センサ処理部(107)、カメラ(12)で取得した画像データを処理する撮像処理部(108)、GPS処理部(101)や姿勢センサ処理部(102)の動作を制御する情報取得制御部(109)を備える。   In addition, although not an essential component in the present invention, a GPS processing unit (106) that processes a signal received by the GPS antenna (15), and a posture sensor processing unit (107) that performs signal processing of the posture sensor (14). The image processing unit (108) that processes the image data acquired by the camera (12), the information acquisition control unit (109) that controls the operation of the GPS processing unit (101) and the attitude sensor processing unit (102).

以下、本発明の処理を図2に示すフローチャートに従って説明する。
本発明では、まず地図データ入力ステップ(S10)において、電子地図の地図データをCPU(10)に入力する。本実施例ではインターネット(20)で接続された外部コンピュータである地図・撮影画像サーバー(21)からデータ通信部(100)の処理により取得する。ここで、地図・撮影画像サーバー(21)は、公知のウェブサービスを提供するサーバー装置などによって構成され、本装置(1)のウェブブラウザ上からの要求によって、記憶手段上の地図データ(22)を送出するようになっている。地図データは格納する地図の全範囲でもよいが、最近では全世界の詳細な地図を備えておき、その中のごく一部の指定された地域を指定された縮尺で送出することが一般的となっている。
Hereinafter, the processing of the present invention will be described with reference to the flowchart shown in FIG.
In the present invention, first, in the map data input step (S10), map data of the electronic map is input to the CPU (10). In this embodiment, it is acquired from the map / photographed image server (21), which is an external computer connected via the Internet (20), by processing of the data communication unit (100). Here, the map / photographed image server (21) is configured by a server device or the like that provides a known web service, and the map data (22) on the storage means in response to a request from the web browser of the device (1). Is sent out. The map data may be the entire range of the map to be stored, but recently it is common to have a detailed map of the whole world and send out a small part of the specified area at the specified scale. It has become.

本発明は、地図データを任意の第1の記憶手段に備えることができるので、地図データ(22)を格納するのは本実施例のように外部のサーバー上とし、地図データ入力手段としてデータ通信部(100)を用いている。また別の実施例としては、本装置(1)の記憶部(17)に地図データを備えて、該記憶部(17)から直接読み出すこともできる。この場合、CPU(10)における図示しない読み出し処理部を地図データ入力手段とすることができる。   Since the present invention can provide map data in any first storage means, the map data (22) is stored on an external server as in this embodiment, and data communication is performed as map data input means. Part (100). As another embodiment, the storage unit (17) of the device (1) can be provided with map data and read directly from the storage unit (17). In this case, a read processing unit (not shown) in the CPU (10) can be used as the map data input means.

上記地図データには、表示する電子地図と、地図上の各地点における位置情報との対応関係情報が含まれている。例えば、地図上の所定地点の緯度・経度の情報を備えておき、緯度・経度を指定すると、所定地点との差を計算して指定地点が地図上のどの点に当たるかを算出することができるようにしておく。また、マップコードと呼ばれる独自のコードにより、該マップコードを与えると当該地点を示すことができるようにしてもよい。さらに、地名や住所の情報から、指定地点が示されるようにすることもできる。これらの構成は公知であり、任意の方式を用いることができる。   The map data includes correspondence information between an electronic map to be displayed and position information at each point on the map. For example, if the latitude / longitude information of a predetermined point on the map is prepared and the latitude / longitude is specified, the difference from the predetermined point can be calculated to calculate which point on the map corresponds to the specified point. Keep it like that. In addition, when the map code is given by a unique code called a map code, the point may be indicated. Further, the designated point can be indicated from the place name and address information. These configurations are known, and any method can be used.

次に、撮影画像入力ステップ(S11)において、上記地図・撮影画像サーバー(21)の記憶手段における撮影画像(23)のデータを取得する。ここでもデータ通信部(100)が撮影画像入力手段として作用し、撮影画像をCPU(10)内に取り込む処理を行う。
撮影画像データには、本発明の特徴である撮影時の位置や撮影方向を示す位置情報及び方向情報が含まれている。
Next, in the photographed image input step (S11), data of the photographed image (23) in the storage means of the map / photographed image server (21) is acquired. Again, the data communication unit (100) functions as a captured image input unit, and performs processing for capturing the captured image into the CPU (10).
The captured image data includes position information and direction information indicating the position at the time of shooting and the shooting direction, which are features of the present invention.

本発明は、撮影画像を任意の第2の記憶手段に備えることができるので、撮影画像(23)を格納するのは本実施例のように外部のサーバー上とし、撮影画像入力手段としてデータ通信部(100)を用いている。また別の実施例としては、本装置(1)に備えたカメラ(12)で撮影した撮影画像を入力することもでき、その場合はカメラ(12)及び後述する撮像処理部(108)を撮影画像入力手段とすることもできる。
さらに、本装置(1)の記憶部(17)に撮影画像データを備えて、該記憶部(17)から直接読み出すこともできる。この場合、CPU(10)における図示しない読み出し処理部を撮影画像入力手段とすることができる。
According to the present invention, since the photographed image can be provided in any second storage means, the photographed image (23) is stored on an external server as in this embodiment, and data communication is performed as the photographed image input means. Part (100). As another embodiment, a photographed image photographed by the camera (12) provided in the present apparatus (1) can be input. In this case, the camera (12) and an imaging processing unit (108) described later are photographed. It can also be an image input means.
Furthermore, the storage unit (17) of the apparatus (1) can be provided with photographed image data and read directly from the storage unit (17). In this case, a reading processing unit (not shown) in the CPU (10) can be used as the photographed image input means.

上記したように、本発明では、地図データを第1の記憶手段、撮影画像を第2の記憶手段に備えることを特徴とする。すなわち、これら2つのデータを、別個の外部記憶装置に格納してもよいし、第1及び第2の記憶手段を1つの外部記憶装置に構成してもよい。
別個の外部記憶装置に格納する場合、一方を本装置内に格納し、他方をインターネット等を介したサーバ上に格納する構成でもよい。
As described above, the present invention is characterized in that the map data is provided in the first storage means and the photographed image is provided in the second storage means. That is, these two data may be stored in separate external storage devices, or the first and second storage means may be configured in one external storage device.
When storing in a separate external storage device, one may be stored in the present device, and the other may be stored on a server via the Internet or the like.

本装置(1)において、地図データ入力ステップ(S10)と撮影画像入力ステップ(S11)の順序は問わない。逆の順序でもよいし、同時でもよい。   In this device (1), the order of the map data input step (S10) and the captured image input step (S11) is not limited. The reverse order may be sufficient, or simultaneous.

入力した撮影画像から、撮影情報抽出処理部(101)が撮影情報の抽出を行う。(撮影情報抽出ステップ(S12))
周知のようにデジタルカメラの撮影画像ではExif(Exchangeable image file format)と呼ばれるフォーマットが広く使われており、本実施例においても、撮影画像のデータに合わせて撮影情報をこの方式で記録しておくことができる。撮影情報抽出処理部(101)はExifの方式に従って、撮影情報を抽出すればよい。
また別の実施例としては、撮影画像と、撮影情報とは別個のデータとして、各画像に係る撮影情報を対応付けて記憶させておくこともできる。この場合、撮影情報抽出処理部(101)は、撮影画像からこの対応付けに従って撮影情報を検索し、抽出する。
A shooting information extraction processing unit (101) extracts shooting information from the input shot image. (Photographing information extraction step (S12))
As is well known, a format called Exif (Exchangeable image file format) is widely used in captured images of digital cameras, and also in this embodiment, shooting information is recorded in accordance with captured image data in this manner. be able to. The shooting information extraction processing unit (101) may extract shooting information according to the Exif method.
As another example, the shooting information relating to each image can be stored in association with each other as data separately from the shooting image and shooting information. In this case, the shooting information extraction processing unit (101) searches and extracts shooting information from the shooting image according to this association.

本発明における撮影情報には、少なくとも撮影した時の位置情報や方向情報を含むことができる。
すなわち、位置情報として撮影地点の緯度・経度の情報の他、上記したようにマップコードや地名、住所など、位置を表す情報を備えておけばよい。なお、以下では本装置(1)に備えたGPSアンテナ(15)の計測結果である緯度・経度を位置情報として説明する。
The shooting information in the present invention can include at least position information and direction information at the time of shooting.
That is, as the position information, in addition to the latitude / longitude information of the shooting point, information indicating the position such as the map code, the place name, and the address may be provided as described above. In the following description, latitude and longitude, which are measurement results of the GPS antenna (15) provided in the present apparatus (1), will be described as position information.

方向情報としては撮影時の仰角や方位を用いることができる。本実施例では、姿勢センサ(14)により撮影時の傾きや方位、両端部間の段差など、所定の位置における角度情報又は偏差情報を取得し、これらの情報から撮影時の仰角、向きなどを測定して、本発明の方向情報として出力している。   As the direction information, an elevation angle or direction at the time of photographing can be used. In this embodiment, the angle sensor or deviation information at a predetermined position such as the tilt and orientation at the time of shooting and the step between both ends is acquired by the attitude sensor (14), and the elevation angle and direction at the time of shooting are obtained from these information. Measured and output as direction information of the present invention.

上記撮影情報以外に、本発明では任意の情報を付加して利用することができる。
例えば、公知のように撮影時の日時、カメラ設定やカメラ型番をExifによって記録しておき、これらを後段の処理で利用することができる。また、撮影者の名前などの撮影者識別情報、撮影時の天気、気温、湿度などの天候情報、撮影者の気分やその場の雰囲気などを示す雰囲気情報などを撮影情報として用いることもできる。これらの利用方法については後述する。
In the present invention, arbitrary information can be added and used in addition to the shooting information.
For example, as is well known, the date and time at the time of shooting, the camera settings, and the camera model number are recorded by Exif, and these can be used in subsequent processing. In addition, photographer identification information such as a photographer's name, weather information such as weather, temperature, and humidity at the time of photographing, atmosphere information indicating a photographer's mood and the atmosphere at the spot, and the like can also be used as photographing information. These utilization methods will be described later.

次に、表示位置決定ステップ(S13)において、表示位置決定処理部(102)が電子地図上で、本発明の頭部画像である頭部画像を表示する位置を決定する。本処理は撮影情報抽出処理部(101)が抽出した位置情報から、入力した地図データ(22)の電子地図上でどの位置に当たるのかを計算し、決定する処理である。本処理により、電子地図と頭部画像との相対的位置関係が決定される。   Next, in the display position determination step (S13), the display position determination processing unit (102) determines a position on the electronic map for displaying the head image that is the head image of the present invention. This process is a process of calculating and determining which position on the electronic map of the input map data (22) from the position information extracted by the photographing information extraction processing unit (101). With this process, the relative positional relationship between the electronic map and the head image is determined.

表示位置決定ステップ(S13)の後、あるいはその前、又は同時に、頭部画像生成ステップ(S14)を頭部画像生成処理部(103)が実行する。
図3は、頭部画像生成処理部(103)が生成した頭部画像の一例である。本実施例では、猫の頭部を大きく、胴体及び尻尾部分を小さく表現したキャラクタ画像(3)を用いており、図示のように顔の角度が異なる頭部画像を生成する。
The head image generation processing unit (103) executes the head image generation step (S14) after, before or simultaneously with the display position determination step (S13).
FIG. 3 is an example of a head image generated by the head image generation processing unit (103). In the present embodiment, a character image (3) in which the cat's head is enlarged and the torso and tail portions are expressed small is used, and a head image with different face angles is generated as shown.

すなわち、前記撮影情報のうち、撮影時の仰角を顔の向きで表現するようにしており、仰角が正の場合、すなわち撮影時に上を仰ぎ見ている場合には顔の正面(30)が見える状態(a)で表す。仰角が0度、すなわち撮影時に水平方向を見ている場合には電子地図の地表面と平行な向きを見ている状態(31)(b)で表す。仰角が負の場合、すなわち撮影時に被写体を見下ろしている場合には、顔の正面が下を向き、後頭部(32)が視認できる状態(c)で表している。   That is, in the shooting information, the elevation angle at the time of shooting is expressed by the face direction, and when the elevation angle is positive, that is, when looking up at the time of shooting, the front (30) of the face can be seen. This is represented by state (a). When the elevation angle is 0 degree, that is, when looking in the horizontal direction at the time of photographing, it is represented by a state (31) (b) looking at the direction parallel to the ground surface of the electronic map. When the elevation angle is negative, that is, when the subject is looking down at the time of photographing, the front of the face faces downward and the state (c) is visible.

ここで、仰角に対する頭部画像の選択は適宜設定することができ、例えば仰角±15度は(b)、仰角+15度〜+120度を(a)、仰角−15度〜−120度を(c)のように、幅を持たせて定義することが望ましい。   Here, the selection of the head image with respect to the elevation angle can be appropriately set. For example, the elevation angle ± 15 degrees is (b), the elevation angle +15 degrees to +120 degrees is (a), the elevation angle is −15 degrees to −120 degrees (c) It is desirable to define with a width like

また、仰角と頭部画像との関係は、この3パターンに限らず、仰角に応じて複数のパターンを用いることができる。例えば、30度毎に異なるパターンを用意したり、頭部画像の立体形状情報を備えておき、計算に応じて仰角に従った正確な見え方を再現してもよい。   Further, the relationship between the elevation angle and the head image is not limited to these three patterns, and a plurality of patterns can be used according to the elevation angle. For example, a different pattern may be prepared every 30 degrees, or three-dimensional shape information of the head image may be prepared to reproduce an accurate appearance according to the elevation angle according to the calculation.

頭部画像は、頭部画像の顔の正面が上記の電子地図の地表面と平行な方向を向けることが好ましい。すなわち、電子地図を鳥瞰図のように斜め方向から表示する場合には、仰角0度の場合の頭部画像を地図の傾斜角に合わせた角度とし、上下に傾ける場合も該傾斜角との相対的角度に従って表示しても良い。
これにより、鳥瞰図様に表示した場合にも、直感的に理解しやすい向きを向いた頭部画像を生成することができる。
It is preferable that the front image of the head image is directed in a direction parallel to the ground surface of the electronic map. That is, when the electronic map is displayed from an oblique direction as in a bird's-eye view, the head image when the elevation angle is 0 degrees is set to an angle that matches the inclination angle of the map, and the inclination is also relative to the inclination angle when tilting up and down. You may display according to an angle.
Thereby, even when displayed in a bird's eye view, it is possible to generate a head image oriented in a direction that is easy to understand intuitively.

頭部画像生成処理部(103)は、さらに撮影時の方位に合わせて頭部画像の顔の正面方向を向ける回転処理を行う。図4はこの処理を説明する説明図であり、例えば表示する地図が北を上とする場合には、撮影情報に含まれる方位が北を0度として時計回りに表される場合、方位が0度の時には図4(a)のように顔の正面が真北(上)を向き、30度の時には図4(b)のように北北東に回転、方位が210度の時には図4(c)のように南南東に回転する。   The head image generation processing unit (103) further performs a rotation process for directing the front direction of the face of the head image in accordance with the orientation at the time of shooting. FIG. 4 is an explanatory diagram for explaining this processing. For example, when the map to be displayed has north as the top, when the orientation included in the shooting information is represented clockwise with north as 0 degree, the orientation is 0. When the angle is 30 degrees, the front of the face faces true north (upward) as shown in FIG. 4A. When it is 30 degrees, it rotates north-northeast as shown in FIG. 4B. When the direction is 210 degrees, FIG. ) To the south-southeast.

該回転角度は、入力した電子地図がどの向きを向いているかによって適宜設定することができる。また、電子地図を表示する際に、向きを任意に変更できる場合には、ここでの処理は電子地図との相対角度で設定し、電子地図と連動して向きを変えられるようにしてもよい。   The rotation angle can be set as appropriate depending on the orientation of the input electronic map. In addition, when the orientation can be arbitrarily changed when displaying the electronic map, the processing here may be set at a relative angle with the electronic map so that the orientation can be changed in conjunction with the electronic map. .

本発明において、頭部画像生成処理部(103)は少なくとも仰角に応じていくつかのパターンから選択、又は画像処理し、さらに方位に合わせた回転を行うことで、表示する頭部画像を生成することを特徴とするが、本発明ではさらに撮影情報に基づいて頭部画像に変化のある生成を行ってもよい。   In the present invention, the head image generation processing unit (103) generates a head image to be displayed by selecting or performing image processing from several patterns according to at least the elevation angle, and further performing rotation according to the orientation. In the present invention, the head image may be generated with a change based on the photographing information.

例えば、撮影情報として撮影者の名前などの撮影者識別情報を用いる場合、撮影者識別情報に応じてキャラクタを変化させることができる。簡単な方法としては撮影者毎にキャラクタの色を変えて、撮影者Aは黒、撮影者Bは赤、撮影者Cは青、のように色で撮影者を判別できるようにしてもよい。あるいは、撮影者が自分で作成したキャラクタ画像を登録しておき、頭部画像生成処理部(103)が撮影者識別情報から該キャラクタ画像を選択するようにしてもよい。ネットワーク上で自己のキャラクタを作成する方法としては、アバターと呼ばれるサービスが公知であり、本発明ではこれを利用することもできる。   For example, when photographer identification information such as a photographer's name is used as the photograph information, the character can be changed according to the photographer identification information. As a simple method, the color of the character may be changed for each photographer so that the photographer can be identified by colors such as black for the photographer A, red for the photographer B, and blue for the photographer C. Alternatively, the character image created by the photographer himself / herself may be registered, and the head image generation processing unit (103) may select the character image from the photographer identification information. As a method for creating one's own character on the network, a service called an avatar is known and can be used in the present invention.

撮影時の天気、気温、湿度などの天候情報を用いる場合、天気を表すマークを頭部画像の横に負荷したり、気温や湿度に応じて頭部画像の服装を変化させることもできる。例えば、撮影時の天気が晴れの場合には帽子を被ったり、雨の場合には傘をさす、気温が高かった場合は薄手の服装、低かった場合はマフラーを着けた画像、など視覚的に撮影時の状況がわかるような表示を行うことができる。   When weather information such as weather, temperature, and humidity at the time of shooting is used, a mark representing the weather can be loaded next to the head image, and the clothes of the head image can be changed according to the temperature and humidity. For example, if the weather at the time of shooting is sunny, wear a hat, wear an umbrella when it is raining, wear light clothes when the temperature is high, or wear a scarf when it is low, etc. It is possible to display so that the situation at the time of shooting can be understood.

また、撮影者が撮影時に気分やその場の雰囲気を雰囲気情報と設定して撮影情報に記録しておき、該情報に従ってキャラクタを変化させてもよい。例えば、興奮したり、嬉しい時など、ポジティブな印象の写真には赤、憂鬱なときや好ましくない状況の時の写真には青、のように色を定義しておき、撮影情報にしたがって顔や服装の色を変えることもできる。また、笑う、怒る、泣く、冷や汗を流す、など表情を変化させてもよい。
雰囲気情報や天候情報は、撮影場所の周辺の状況を示す撮影状況情報として、それぞれ別個に、あるいは組み合わせて用いることもできる。
Alternatively, the photographer may set the mood and the atmosphere at the time of shooting as atmosphere information and record it in the shooting information, and change the character according to the information. For example, when you are excited or happy, you can define a color such as red for a photo with a positive impression and blue for a photo when you are depressed or in an unfavorable situation. You can also change the color of your outfit. Also, the facial expression may be changed, such as laughing, angry, crying, or chilling.
Atmosphere information and weather information can also be used separately or in combination as shooting status information indicating the situation around the shooting location.

さらに撮影情報として一般的な日時やカメラ設定、カメラ型番を用いてもよい。日時に従って頭部画像の色合いを変えたり、頭部画像の背景に太陽や星を表示してもよい。また、頭部画像にカメラを持たせて、カメラを実際の機種の画像にしたり、一眼レフとコンパクトカメラの区別を分かるようにしてもよい。露出時間や絞りなどの数値を表示したり、絞りを画像表示して絞りの程度を示してもよい。   Furthermore, general date and time, camera settings, and camera model numbers may be used as shooting information. The color of the head image may be changed according to the date and time, or the sun or stars may be displayed on the background of the head image. Further, the head image may be provided with a camera so that the camera is an image of an actual model, or the distinction between a single-lens reflex camera and a compact camera can be recognized. Numerical values such as exposure time and aperture may be displayed, or the aperture may be displayed as an image to indicate the degree of aperture.

以上のように、頭部画像生成処理部(103)では、仰角を表すだけでなく、さまざまな撮影情報を反映させた頭部画像を生成することができる。次に、生成された頭部画像を電子地図上に表示する頭部画像出力ステップ(S15)に進む。
本ステップ(S15)では、頭部画像出力部(104)が、入力した地図データから電子地図画像を作成し、前記表示位置決定処理部(102)が決定した表示位置に、頭部画像生成処理部(103)が生成した頭部画像を重ねて出力する。
As described above, the head image generation processing unit (103) can generate a head image that reflects not only the elevation angle but also various shooting information. Next, the process proceeds to a head image output step (S15) for displaying the generated head image on the electronic map.
In this step (S15), the head image output unit (104) creates an electronic map image from the input map data, and the head image generation process is performed at the display position determined by the display position determination processing unit (102). The head image generated by the unit (103) is superimposed and output.

図5は頭部画像出力部(104)によってモニタ(16)から出力された画面の一例である。本装置(1)のモニタ(16)上にユーザが指定した範囲の電子地図(4)を表示し、該電子地図(4)には撮影画像に対応する複数のキャラクタ画像(3)が重ねて表示されている。
本発明において表示する撮影画像は1枚として、1つのキャラクタ画像(3)を表示する構成でもよいが、以下では複数の撮影画像を同時に扱う構成について説明する。
FIG. 5 shows an example of a screen output from the monitor (16) by the head image output unit (104). An electronic map (4) in a range designated by the user is displayed on the monitor (16) of the apparatus (1), and a plurality of character images (3) corresponding to the photographed image are superimposed on the electronic map (4). It is displayed.
In the present invention, a single captured image may be displayed as one captured image, but a configuration in which a plurality of captured images are handled simultaneously will be described below.

図示のように電子地図(4)上の多数の地点にキャラクタ画像(3)を表示し、各キャラクタ画像(3)は、頭部画像生成処理部(103)によって撮影時の方位と仰角を表している。例えば、右上にあるキャラクタ画像(3a)は、同画像の置かれた地点から北西方向を見て、その際に仰角が負、下向きであったことを示している。また、中央付近にあるキャラクタ画像(3b)は、同地点から西を向き、水平方向を見た撮影画像であることを示している。   As shown in the figure, character images (3) are displayed at a number of points on the electronic map (4), and each character image (3) represents an azimuth and elevation angle at the time of shooting by the head image generation processing unit (103). ing. For example, the character image (3a) in the upper right indicates that the elevation angle is negative and downward when looking at the northwest direction from the point where the image is placed. Further, the character image (3b) in the vicinity of the center indicates that the photographed image is directed to the west from the same point and viewed in the horizontal direction.

本発明は、電子地図(4)上に複数のキャラクタ画像(3)を一覧することができるので、どの地点からどの方向に、どのような仰角で撮影した写真であるかが一目瞭然でわかり、近い地点から周囲を見渡した撮影画像や、1つの被写体を複数の地点から撮影した撮影画像を容易に選択できるようになる。これにより、静止画であっても風景を空間的に把握しやすくなる。   In the present invention, since a plurality of character images (3) can be listed on the electronic map (4), it can be seen at a glance from which point, in which direction, at what elevation angle, and close. It is possible to easily select a photographed image overlooking the surroundings from a point or a photographed image obtained by photographing one subject from a plurality of points. This makes it easy to grasp the landscape spatially even for still images.

最後に、撮影画像表示ステップ(S16)において、指定した撮影画像をモニタ(16)で表示する。表示方法は任意であるが、例えば閲覧者が見たい地点のキャラクタ画像(3)を指定することにより、撮影画像表示部(105)の処理により、別画面が開いて撮影画像を表示することもできる。また、電子地図(4)上にポップアップして表示させることもできる。   Finally, in the captured image display step (S16), the designated captured image is displayed on the monitor (16). Although the display method is arbitrary, for example, by designating the character image (3) of the point that the viewer wants to see, the captured image display unit (105) may open another screen to display the captured image. it can. It can also be displayed pop-up on the electronic map (4).

以上の一連の処理により、本発明に係る撮影画像表示装置と、撮影画像表示方法は提供される。
また、本方法で出力される頭部画像を重ねた電子地図は、モニタ(16)上で表示されるだけでなく、プリンタで印刷したり、通信アダプタ(11)からインターネット(20)を介して任意の端末に向けて画像データを出力してもよい。例えば、地図データ(22)、撮影画像(23)は本装置(1)の記憶部(17)に格納しておき、図示しない端末装置から表示する電子地図や撮影画像の指定を受理して、本発明の処理方法を実行し、頭部画像出力部(104)からの出力結果を該端末に返信する構成でもよい。その場合、端末からの指定に基づいて、さらに撮影画像を送信することもできる。
Through the series of processes described above, the captured image display device and the captured image display method according to the present invention are provided.
In addition, the electronic map on which the head image output by this method is superimposed is not only displayed on the monitor (16), but also printed by a printer or via the Internet (20) from the communication adapter (11). Image data may be output to an arbitrary terminal. For example, the map data (22) and the photographed image (23) are stored in the storage unit (17) of the device (1), and the designation of the electronic map or photographed image displayed from the terminal device (not shown) is accepted. The processing method of the present invention may be executed, and the output result from the head image output unit (104) may be returned to the terminal. In that case, a captured image can be further transmitted based on designation from the terminal.

本実施例では、撮影画像表示装置(1)において、本装置(1)で表示するための撮影画像を撮影する機構も備えている。以下、この機構について説明する。
撮影の際、本装置(1)は図1の構成により図6に示すフローチャートの処理を行う。
すなわち、本実施例をCPU(10)に実行処理させるアプリケーションプログラムを起動すると、情報取得制御部(109)の制御により、位置測定(S20)と、撮影方向測定(S21)を行う。
位置測定(S20)においては、GPS処理部(106)がGPSアンテナ(15)で複数の衛星からの信号を受信してその信号処理により現在地を算出する。本処理は公知である。
なお、携帯電話端末の場合には、基地局の情報など他の情報も用いて正確な現在地を算出している。本発明は位置情報取得手段として任意の技術を用いることができる。
In this embodiment, the photographed image display device (1) is also provided with a mechanism for photographing a photographed image to be displayed on the device (1). Hereinafter, this mechanism will be described.
At the time of shooting, the apparatus (1) performs the processing of the flowchart shown in FIG. 6 with the configuration of FIG.
That is, when an application program that causes the CPU (10) to execute the present embodiment is started, position measurement (S20) and photographing direction measurement (S21) are performed under the control of the information acquisition control unit (109).
In the position measurement (S20), the GPS processing unit (106) receives signals from a plurality of satellites by the GPS antenna (15), and calculates the current location by the signal processing. This process is known.
In the case of a mobile phone terminal, an accurate current location is calculated using other information such as base station information. The present invention can use any technique as position information acquisition means.

撮影方向測定(S21)では、姿勢センサ処理部(107)が、姿勢センサ(14)から該情報を取得する。ここで、姿勢とは本装置(1)の傾きや方位、両端部間の段差など、所定の位置における角度情報又は偏差情報を指し、姿勢情報から撮影時の仰角、向きなどを測定して、本発明の方向情報として出力する。
姿勢センサ(14)には公知の任意のセンサを用いることができる。
なお、方位に関しては、GPS処理部(106)から取得することもできるが、ここでは機能的に分類して姿勢センサ処理部(107)と処理として説明する。
In the photographing direction measurement (S21), the posture sensor processing unit (107) acquires the information from the posture sensor (14). Here, the posture refers to angle information or deviation information at a predetermined position such as the inclination and orientation of the device (1), the step between both ends, and the elevation angle and direction at the time of shooting are measured from the posture information, Output as direction information of the present invention.
Any known sensor can be used as the attitude sensor (14).
The direction can also be acquired from the GPS processing unit (106), but here it is functionally classified and described as the attitude sensor processing unit (107) and processing.

本装置(1)には、公知のデジタルカメラの機構であるカメラ(12)及び撮像処理部(103)、モニタ(16)、記憶部(17)を備えている。これによりカメラ(12)及び撮像処理部(108)からなるカメラ手段で撮影画像を撮影することができる。   The apparatus (1) includes a camera (12), an imaging processing unit (103), a monitor (16), and a storage unit (17), which are known digital camera mechanisms. As a result, the photographed image can be taken by the camera means including the camera (12) and the imaging processing unit (108).

本実施例では、カメラ手段から撮影画像を入力(S22)し、さらに上記の位置情報及び方向情報を含む撮影情報を、撮影画像と重ねて表示(S23)する。図7はこの時の本装置(1)の画面表示の説明図である。本図で示す装置(1)は、市販の携帯電話端末であり、大画面のタッチパネル式液晶画面を備えてモニタ(16)であると同時に、キーボード(13)としても作用する。そこで、画面上にカメラアイコン(160)を表示させ、この部位をタッチすることで、シャッターが切れるようになっている。   In this embodiment, the photographed image is input from the camera means (S22), and the photographing information including the position information and the direction information is displayed so as to overlap the photographed image (S23). FIG. 7 is an explanatory diagram of the screen display of the device (1) at this time. The device (1) shown in the figure is a commercially available mobile phone terminal, which has a large-screen touch panel type liquid crystal screen and is a monitor (16), and also acts as a keyboard (13). Therefore, the camera icon (160) is displayed on the screen and the shutter is released by touching this part.

カメラアイコン(160)の上の画像領域(161)は、背面に設けられているカメラ(12)で撮影中の画像であり、本装置(1)を動かすことで自由に構図を決めることができる。
画像領域(161)の上部には、撮影画像を透過する態様で撮影情報表示領域(162)を設けており、撮影者は撮影画像を見ながら、撮影情報を視認できるようにしている。
An image area (161) above the camera icon (160) is an image being photographed by the camera (12) provided on the back surface, and the composition can be freely determined by moving the device (1). .
A shooting information display area (162) is provided in an upper part of the image area (161) so as to transmit the shot image, so that the photographer can visually recognize the shooting information while looking at the shot image.

撮影情報表示領域では、右から順に方位(162a)、緯度・経度(162b)、仰角(162c)を表示している。特に本発明では、方位と仰角の表示にアナログ針式の表示を行っている点に特徴がある。   In the photographing information display area, the azimuth (162a), the latitude / longitude (162b), and the elevation angle (162c) are displayed in order from the right. In particular, the present invention is characterized in that an analog needle type display is performed for displaying the azimuth and the elevation angle.

従来から、方位や仰角の情報を取得できる装置は知られていたが、撮影中にこれらを確認することは稀であり、撮影時にこれらの撮影情報を表示する好適な方法は提案されていなかった。
しかし、近年ではインターネットの普及によって撮影した画像を人に見せる機会が格段に増えていることや、デジタルカメラによって撮影済みの写真を容易に参照できるようになっている。その場合、過去に撮影した写真と同様の位置から同様の方向で撮影することで比較しやすくしたり、あるいは他の写真と異なる、所望の向きで撮影したい場合が多い。
Conventionally, devices that can acquire azimuth and elevation information have been known, but it is rare to check these during shooting, and no suitable method for displaying these shooting information during shooting has been proposed. .
However, in recent years, with the spread of the Internet, opportunities for showing images taken by people to have increased dramatically, and it has become possible to easily refer to photos taken with a digital camera. In that case, there are many cases in which it is easy to compare by photographing in the same direction from the same position as a photograph taken in the past, or in a desired direction different from other photographs.

このような要求に対して、従来のように数値で情報を表示しても、カメラの構図を決める際には被写体の様子を見たり、周辺の状況に配慮して撮影しなければならないため、順次に撮影情報を理解することが難しい問題があった。
一方、本発明では、例えば方位(162a)は北を上とするコンパス様の画像表示を行い、赤色の指針によってどの方位を向いているかを直感的にわかりやすく表示している。また、仰角(162c)は水平方向からの角度を青色の指針によって表示することで、例えば正確に水平な撮影や、垂直上向き、垂直下向き、などの撮影も容易に行えるようにしている。特に、撮影が不得手な者や、連続したパノラマ写真を撮影する場合には好適である。
本発明では撮影情報の一部をアナログ針式とすることを提案するものであり、方位、仰角以外の情報、例えば、本装置の傾きや偏差情報など任意の情報を表示することができる。
In response to such requests, even if information is displayed numerically as in the past, when deciding on the composition of the camera, it is necessary to look at the state of the subject and shoot in consideration of the surrounding situation. There was a problem that it was difficult to understand the shooting information sequentially.
On the other hand, in the present invention, for example, the compass-like image is displayed with the azimuth (162a) facing north, and the azimuth (162a) is displayed intuitively and easily by the red pointer. Further, the elevation angle (162c) is displayed by the blue pointer indicating the angle from the horizontal direction so that, for example, accurate horizontal shooting, vertical upward, vertical downward, etc. can be easily performed. It is particularly suitable for those who are not good at shooting or when taking continuous panoramic photos.
In the present invention, it is proposed that a part of the photographing information is an analog needle type, and information other than the azimuth and the elevation angle, for example, arbitrary information such as the inclination and deviation information of the apparatus can be displayed.

緯度・経度(162b)は数値で表示し、前回撮影した位置や、他人が撮影した位置と同位置で撮影する際の手がかりとすることができる。
なお、予め指定の撮影位置を緯度・経度を本装置(1)で定義しておき、測定中の位置との差分から指定の撮影位置の方向をアナログ針式で示すこともできる。そして、指定の撮影位置(差分が0)となったときには、その表示を行う。この方法によれば、撮影者が全く同じ緯度・経度に立つことが容易になる。
The latitude / longitude (162b) is displayed as a numerical value, and can be used as a clue when shooting at the same position as the position where the previous shooting was taken or the position taken by another person.
It is also possible to define the latitude and longitude of the designated shooting position in advance with this device (1) and indicate the direction of the designated shooting position with an analog needle type from the difference from the position being measured. When the designated photographing position (difference is 0) is displayed. This method makes it easy for the photographer to stand at exactly the same latitude and longitude.

上記において、撮影情報表示領域(162)は透過して撮影画像に重なるように表示しているが、本発明では近傍に配置することもできる。また、配置位置は画像領域(161)の上でなくともよく、上下左右のいずれか、または自由に位置を変えられるようにしてもよい。さらに、本装置(1)の本体の向きに合わせて撮影情報の向きが自動的に変化するようにしてもよい。   In the above description, the photographing information display area (162) is displayed so as to be transparent and overlapped with the photographed image. However, in the present invention, the photographing information display area (162) may be arranged in the vicinity. Further, the arrangement position does not have to be on the image area (161), and the position may be freely changed either up, down, left, or right. Furthermore, the orientation of the photographing information may be automatically changed according to the orientation of the main body of the apparatus (1).

撮影画像や撮影情報は撮影までの間、常時更新されていることが望ましく、両情報を同時表示(S23)しながら、位置測定(S20)以下の工程を繰り返し実行処理することができる。
なお、位置測定(S20)にはより多くの時間を要するため、撮影方向測定(S21)を繰り返す間の所定回数に一度測定する構成や、所定時間に一度測定する構成でもよい。
It is desirable that the photographed image and the photographed information are constantly updated until the photographing, and the processes after the position measurement (S20) can be repeatedly executed while displaying both pieces of information simultaneously (S23).
In addition, since more time is required for position measurement (S20), a configuration in which measurement is performed once at a predetermined number of times during repeated shooting direction measurement (S21) or a configuration in which measurement is performed at a predetermined time may be employed.

画像撮影装置(1)では、モニタ(16)の撮影画像や撮影情報を見ながら、撮影者がカメラアイコン(160)等のシャッターを押すことによって撮影(S24)を行う。画像が撮影されると、公知のように撮像処理部(108)が画像処理や圧縮処理を行い、記憶部(17)に記憶(S25)する。記憶部(17)は本装置(1)に実装されたメモリや、本装置(1)に装着された外部メモリカードとして実現される。   In the image photographing device (1), the photographer performs photographing (S24) by pressing a shutter such as a camera icon (160) while viewing the photographed image and photographing information on the monitor (16). When an image is taken, the imaging processing unit (108) performs image processing and compression processing as is well known, and stores it in the storage unit (17) (S25). The storage unit (17) is realized as a memory mounted on the apparatus (1) or an external memory card mounted on the apparatus (1).

また、別の実施例として、画像を撮影(S24)した後、記憶部(17)への記録の有無に関わらず、データ通信部(100)の作用により電子メール形式に変換したり、ftpによる通信で通信アダプタ(11)からインターネット(20)上の任意のサーバー装置や端末装置に送信することもできる。   As another embodiment, after taking an image (S24), it is converted into an e-mail format by the action of the data communication unit (100) regardless of whether or not it is recorded in the storage unit (17), or by ftp It can also be transmitted from the communication adapter (11) to an arbitrary server device or terminal device on the Internet (20) by communication.

本発明は、請求項記載の範囲内で任意に変更することができる。本発明の頭部画像は、人物や動物、アニメーションの登場人物など様々なキャラクタを用いることができる。人物の頭部画像の場合には、撮影者本人や著名人の写真、似顔絵などでもよい。動物の場合には、犬や猫などに限らず、鳥や魚でもよい。   The present invention can be arbitrarily changed within the scope of the claims. The head image of the present invention can use various characters such as a person, an animal, and an animated character. In the case of a person's head image, a photograph of a photographer or a celebrity or a portrait may be used. In the case of animals, not only dogs and cats, but also birds and fish may be used.

本発明を応用する用途としては、次のようなものが考えられる。
まず、災害時に被害状況を一覧表示するシステムとして利用し、被害箇所を撮影した画像を集積する。その際、撮影場所と、撮影方向を本発明によって表示することで、被害箇所の特定に寄与することができる。
The following can be considered as applications to which the present invention is applied.
First, it is used as a system for displaying a list of damage situations at the time of a disaster, and images taken of the damaged parts are accumulated. At this time, the shooting location and the shooting direction are displayed according to the present invention, which can contribute to the identification of the damage location.

観光スポットの案内を行うシステムにおいて、推奨の観光スポットの写真を位置と方位、仰角の情報と共に蓄積しておき、観光客がキャラクタ画像をクリックして指定することで、簡単に観光スポットの写真を表示することができる。   In a system that guides tourist spots, photos of recommended tourist spots are stored together with information on position, azimuth, and elevation angle, and tourists can easily click on a character image to specify a picture of a tourist spot. Can be displayed.

1 画像撮影装置
10 CPU
11 通信アダプタ
12 カメラ
13 キーボード
14 姿勢センサ
15 GPSアンテナ
16 モニタ
17 記憶部
20 インターネット
21 地図・撮影画像サーバー
22 地図データ
23 撮影画像
100 データ通信部
101 撮影情報抽出処理部
102 表示位置決定処理部
103 頭部画像生成処理部
104 頭部画像出力部
105 撮影画像表示部
106 GPS処理部
107 姿勢センサ処理部
108 撮像処理部
109 情報取得制御部
1 Image photographing device 10 CPU
DESCRIPTION OF SYMBOLS 11 Communication adapter 12 Camera 13 Keyboard 14 Attitude sensor 15 GPS antenna 16 Monitor 17 Memory | storage part 20 Internet 21 Map and imaging | photography image server 22 Map data 23 Captured image 100 Data communication part 101 Shooting information extraction process part 102 Display position determination process part 103 Head Partial image generation processing unit 104 Head image output unit 105 Captured image display unit 106 GPS processing unit 107 Attitude sensor processing unit 108 Imaging processing unit 109 Information acquisition control unit

Claims (9)

デジタルカメラの撮影画像を電子地図と関連付けて表示する撮影画像表示装置であって、
第1記憶手段上に格納され、地図と位置情報との対応関係を含む地図データを入力する地図データ入力手段と、
第2記憶手段上に格納され、少なくとも画像撮影時に記録した位置情報及び方向情報を含む撮影画像を入力する撮影画像入力手段と、
該撮影画像から該位置情報及び該方向情報を抽出する撮影情報抽出手段と、
抽出した該位置情報から電子地図上の表示位置を決定する表示位置決定手段と、
抽出した該方向情報から該方向情報に対応する方向にキャラクタの顔の向きを合わせた頭部画像を生成する頭部画像生成手段と、
該地図データから電子地図画像を出力すると共に、該電子地図画像上の決定された該表示位置に、該頭部画像を重ねて出力する頭部画像出力手段と、
撮影画像を表示する撮影画像表示手段と
を備えた構成において、
該方向情報が画像撮影時におけるデジタルカメラの方位及び仰角であって、
該方位に、該頭部画像の顔の正面方向を向けると共に、
該仰角が0度の時に、該頭部画像の顔の正面が該電子地図の地表面と平行な方向を向き、仰角が正の場合には顔の正面が上向いて顔が視認できるようになり、仰角が負の場合には顔の正面が下向いて後頭部が視認できるようになる構成である
ことを特徴とする撮影画像表示装置。
A captured image display device that displays a captured image of a digital camera in association with an electronic map,
Map data input means for inputting map data stored on the first storage means and including the correspondence between the map and the position information;
A photographed image input means for inputting a photographed image that is stored on the second storage means and includes at least position information and direction information recorded at the time of image photographing;
Photographing information extraction means for extracting the position information and the direction information from the photographed image;
Display position determining means for determining a display position on the electronic map from the extracted position information;
Head image generation means for generating a head image in which the orientation of the character's face is matched with the direction corresponding to the direction information from the extracted direction information;
A head image output means for outputting an electronic map image from the map data, and outputting the head image superimposed on the determined display position on the electronic map image;
In a configuration comprising a captured image display means for displaying a captured image ,
The direction information is the azimuth and elevation angle of the digital camera at the time of image capture,
Directing the front direction of the face of the head image to the orientation,
When the elevation angle is 0 degree, the front of the face of the head image faces in a direction parallel to the ground surface of the electronic map, and when the elevation angle is positive, the front of the face faces upward and the face can be visually recognized. When the elevation angle is negative, the photographed image display device is configured such that the front of the face faces downward and the back of the head can be seen .
前記撮影画像表示装置において、前記電子地図画像上に複数の前記頭部画像を同時に表示可能な構成であって、
入力手段から前記任意の頭部画像の指定を受理する画像指定受理手段
を備え、
前記撮影画像表示手段が、該指定に従って、その撮影画像を表示する
請求項に記載の撮影画像表示装置。
In the captured image display device, the plurality of head images can be simultaneously displayed on the electronic map image,
Image designation accepting means for accepting designation of the arbitrary head image from the input means,
The photographed image display device according to claim 1 , wherein the photographed image display means displays the photographed image in accordance with the designation.
前記撮影画像表示装置において、
前記撮影情報に、撮影者又は撮影者の属性を識別可能な撮影者識別情報を含み、
該撮影者識別情報に応じて、前記頭部画像を変化させる
請求項1又は2に記載の撮影画像表示装置。
In the captured image display device,
The photograph information includes photographer identification information that can identify the photographer or the photographer's attributes,
In response to the photographer identity, the captured image display device according to claim 1 or 2 changing the head image.
前記撮影画像表示装置において、
前記撮影情報に、撮影時の天候や撮影場所の雰囲気などを示す撮影状況情報を含み、
該撮影状況情報に応じて、前記頭部画像を変化させる
請求項1ないしのいずれかに記載の撮影画像表示装置。
In the captured image display device,
The shooting information includes shooting situation information indicating the weather at the time of shooting, the atmosphere of the shooting location, etc.
In accordance with the shooting conditions information, the captured image display device according to any one of 3 claims 1 changing the head image.
デジタルカメラの撮影画像を電子地図と関連付けて表示する撮影画像表示方法であって、
地図データ入力手段が、第1記憶手段上に格納され、地図と位置情報との対応関係を含む地図データを入力する地図データ入力工程、
撮影画像入力手段が、第2記憶手段上に格納され、少なくとも画像撮影時に記録した位置情報及び方向情報を含む撮影画像を入力する撮影画像入力工程、
撮影情報抽出手段が、該撮影画像から該位置情報及び該方向情報を抽出する撮影情報抽出工程、
表示位置決定手段が、抽出した該位置情報から電子地図上の表示位置を決定する表示位置決定工程、
頭部画像生成手段が、抽出した該方向情報から該方向情報に対応する方向にキャラクタの顔の向きを合わせた頭部画像を生成する頭部画像生成工程、
頭部画像出力手段が、該地図データから電子地図画像を出力すると共に、該電子地図画像上の決定された該表示位置に、該頭部画像を重ねて出力する頭部画像出力工程、
撮影画像表示手段が、撮影画像を表示する撮影画像表示工程
を有する構成であって、
該方向情報が画像撮影時におけるデジタルカメラの方位及び仰角であって、
該方位に、該頭部画像の顔の正面方向を向けると共に、
該仰角が0度の時に、該頭部画像の顔の正面が該電子地図の地表面と平行な方向を向き、仰角が正の場合には顔の正面が上向いて顔が視認できるようになり、仰角が負の場合には顔の正面が下向いて後頭部が視認できるようになる
ことを特徴とする撮影画像表示方法。
A captured image display method for displaying a captured image of a digital camera in association with an electronic map,
A map data input step in which map data input means inputs map data which is stored on the first storage means and includes the correspondence between the map and the position information;
A photographed image input step in which a photographed image input means inputs a photographed image that is stored on the second storage means and includes at least position information and direction information recorded during image photographing;
A shooting information extraction step in which shooting information extraction means extracts the position information and the direction information from the shot image;
A display position determining step for determining a display position on the electronic map from the extracted position information;
A head image generation step in which the head image generation means generates a head image in which the orientation of the character's face is matched with the direction corresponding to the direction information from the extracted direction information;
A head image output step in which a head image output means outputs an electronic map image from the map data and outputs the head image superimposed on the determined display position on the electronic map image;
The captured image display means includes a captured image display step for displaying a captured image ,
The direction information is the azimuth and elevation angle of the digital camera at the time of image capture,
Directing the front direction of the face of the head image to the orientation,
When the elevation angle is 0 degree, the front of the face of the head image faces in a direction parallel to the ground surface of the electronic map. When the angle of elevation is negative, the front of the face faces down and the back of the head can be seen
A photographed image display method characterized by the above.
前記頭部画像出力工程において、前記電子地図画像上に複数の前記頭部画像を同時に表示可能な構成であって、頭部画像出力工程の次に、
画像指定受理手段が、入力手段から前記任意の頭部画像の指定を受理する画像指定受理工程を有し、
前記撮影画像表示工程において、
前記撮影画像表示手段が、該指定に従って、その撮影画像を表示する
請求項に記載の撮影画像表示方法。
In the head image output step, the plurality of head images can be simultaneously displayed on the electronic map image, and after the head image output step,
The image designation receiving means has an image designation receiving step of accepting designation of the arbitrary head image from the input means,
In the captured image display step,
The captured image display method according to claim 5 , wherein the captured image display means displays the captured image in accordance with the designation.
前記撮影画像表示方法の頭部画像生成工程において、
前記撮影情報に、撮影者又は撮影者の属性を識別可能な撮影者識別情報を含み、
該撮影者識別情報に応じて、前記頭部画像を変化させる
請求項5又は6に記載の撮影画像表示方法。
In the head image generation step of the captured image display method,
The photograph information includes photographer identification information that can identify the photographer or the photographer's attributes,
The captured image display method according to claim 5 or 6 , wherein the head image is changed according to the photographer identification information.
前記撮影画像表示方法の頭部画像生成工程において、
前記撮影情報に、撮影時の天候や撮影場所の雰囲気などを示す撮影状況情報を含み、
該撮影状況情報に応じて、前記頭部画像を変化させる
請求項5ないし7のいずれかに記載の撮影画像表示方法。
In the head image generation step of the captured image display method,
The shooting information includes shooting situation information indicating the weather at the time of shooting, the atmosphere of the shooting location, etc.
The captured image display method according to claim 5 , wherein the head image is changed in accordance with the imaging state information.
請求項5ないし8に記載の撮影画像表示方法によって出力される
ことを特徴とする電子地図。
An electronic map that is output by the captured image display method according to claim 5 .
JP2010056734A 2010-03-12 2010-03-12 Photographed image display device, photographed image display method, and electronic map output by photographed image display method Expired - Fee Related JP5458411B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010056734A JP5458411B2 (en) 2010-03-12 2010-03-12 Photographed image display device, photographed image display method, and electronic map output by photographed image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010056734A JP5458411B2 (en) 2010-03-12 2010-03-12 Photographed image display device, photographed image display method, and electronic map output by photographed image display method

Publications (2)

Publication Number Publication Date
JP2011193170A JP2011193170A (en) 2011-09-29
JP5458411B2 true JP5458411B2 (en) 2014-04-02

Family

ID=44797654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010056734A Expired - Fee Related JP5458411B2 (en) 2010-03-12 2010-03-12 Photographed image display device, photographed image display method, and electronic map output by photographed image display method

Country Status (1)

Country Link
JP (1) JP5458411B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011193169A (en) * 2010-03-12 2011-09-29 National Institute Of Information & Communication Technology Method and device for simultaneously displaying and processing photographed image and photographing information
JP2017146347A (en) * 2016-02-15 2017-08-24 大日本印刷株式会社 Display device and display system

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002169746A (en) * 2000-11-30 2002-06-14 Matsushita Electric Ind Co Ltd Receiving device
JP2002186007A (en) * 2000-12-12 2002-06-28 Yamaha Corp Mobile telephone
JP2002340605A (en) * 2001-05-15 2002-11-27 Yamaha Corp Portable communication device, navigation server and navigation system
JP4181372B2 (en) * 2002-09-27 2008-11-12 富士フイルム株式会社 Display device, image information management terminal, image information management system, and image display method
JP4137756B2 (en) * 2003-09-30 2008-08-20 株式会社リコー Electronic picture book generation method and electronic picture book generation program
JP2007078842A (en) * 2005-09-12 2007-03-29 Seiko Epson Corp Display control apparatus and display control method
JP2007110642A (en) * 2005-10-17 2007-04-26 Toshiba Elevator Co Ltd Remote monitoring system
JP4952516B2 (en) * 2006-11-30 2012-06-13 株式会社デンソー Weather information notification device, program
JP5172227B2 (en) * 2007-06-26 2013-03-27 みずほ情報総研株式会社 Emergency information communication system, emergency information communication method, and emergency information communication program
JP4851412B2 (en) * 2007-09-27 2012-01-11 富士フイルム株式会社 Image display apparatus, image display method, and image display program
JP4924987B2 (en) * 2007-09-28 2012-04-25 株式会社デンソー Vehicle map display device
JP2009094769A (en) * 2007-10-09 2009-04-30 Panasonic Corp Title input device
JP5102708B2 (en) * 2008-06-24 2012-12-19 株式会社キャメロット Composite image photographing system and composite image photographing method
JP5334159B2 (en) * 2008-07-31 2013-11-06 独立行政法人情報通信研究機構 Photo display method and system on electronic map

Also Published As

Publication number Publication date
JP2011193170A (en) 2011-09-29

Similar Documents

Publication Publication Date Title
US20180286098A1 (en) Annotation Transfer for Panoramic Image
CN106973228B (en) Shooting method and electronic equipment
JP6682821B2 (en) Service system, information processing device, service providing method
JP2013186691A (en) Image processing device, image processing method, and program
JP2009239397A (en) Imaging apparatus, imaging system, control method of imaging apparatus, and control program
JP4264099B2 (en) Mobile device with camera
JP2007052809A5 (en)
JP2008225862A (en) System for picking-up construction photograph with electric blackboard and automatically preparing construction management ledger and program for use in the same
JP2008513852A (en) Method and system for identifying object in photograph, and program, recording medium, terminal and server for realizing the system
JP6107518B2 (en) Information processing apparatus, information processing method, and program
TW201919003A (en) Computer Readable Media, Information Processing Apparatus and Information Processing Method
WO2015159775A1 (en) Image processing apparatus, communication system, communication method, and image-capturing device
JP2012038153A (en) Surrounding information retrieval device and surrounding information retrieval method
JP2014038429A (en) Image processor, image processing method and image processing program
JP2011060254A (en) Augmented reality system and device, and virtual object display method
KR101211209B1 (en) Photographing method of image shooting device using location information, image shooting device using the same, method of supporting photographing method of image shooting device using location information by server and server supporting the same
JP3521718B2 (en) Image data processing system and image processing device
JP5007631B2 (en) Electronic camera
CN108932055B (en) Method and equipment for enhancing reality content
JP5458411B2 (en) Photographed image display device, photographed image display method, and electronic map output by photographed image display method
JP5922517B2 (en) Electronic equipment with shooting function
JP5003358B2 (en) Display device, electronic camera, and control program
JP4875955B2 (en) Image album creating apparatus and method, communication terminal, and image collecting apparatus
JP7012485B2 (en) Image information processing device and image information processing method
JP2007259002A (en) Image reproducing apparatus, its control method, and its control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131226

R150 Certificate of patent or registration of utility model

Ref document number: 5458411

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees