Nothing Special   »   [go: up one dir, main page]

JP2010044580A - Camera and retrieval system - Google Patents

Camera and retrieval system Download PDF

Info

Publication number
JP2010044580A
JP2010044580A JP2008208031A JP2008208031A JP2010044580A JP 2010044580 A JP2010044580 A JP 2010044580A JP 2008208031 A JP2008208031 A JP 2008208031A JP 2008208031 A JP2008208031 A JP 2008208031A JP 2010044580 A JP2010044580 A JP 2010044580A
Authority
JP
Japan
Prior art keywords
search
information
data
imaging
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008208031A
Other languages
Japanese (ja)
Inventor
Osami Eda
修己 江田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008208031A priority Critical patent/JP2010044580A/en
Publication of JP2010044580A publication Critical patent/JP2010044580A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a camera and a retrieval system which can efficiently retrieve photographic subjects. <P>SOLUTION: The system is constituted so that photographic subject retrieval data are stored in a built-in flash memory 109 of the camera 1. The system is constituted so that a retrieval object in an image obtained by image pickup in addition to narrowing down of the photographic subject retrieval data using the current position information acquired from a GPS unit 104 and the current date-and-time information acquired from RTC 105. Thereby, since the photographic subject retrieval data unrelated to the retrieval object can be excluded from the retrieval object, efficient retrieval can be achieved. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮像して得られた画像に基づいて対象物について検索できるカメラおよび検索システムに関する。   The present invention relates to a camera and a search system that can search for an object based on an image obtained by imaging.

被写体を撮像し、撮像して得られた画像に基づいて被写体に関する情報を検索する装置が知られている。この装置では、表示装置に表示された被写体の任意の部位が指定されると、その部位の色相に基づいて、被写体の形状を抽出する。そして、被写体の色相に基づいて画像データファイルを絞り込み、次いで被写体の形状に基づいて画像データを絞り込む(特許文献1参照)。   2. Description of the Related Art An apparatus that captures an image of a subject and retrieves information related to the subject based on an image obtained by capturing the image is known. In this apparatus, when an arbitrary part of the subject displayed on the display device is designated, the shape of the subject is extracted based on the hue of the part. Then, the image data file is narrowed down based on the hue of the subject, and then the image data is narrowed down based on the shape of the subject (see Patent Document 1).

特開2005−100012号公報JP 2005-100012 A

上述した特許文献に記載の装置では、被写体の指定された部位の色相に基づいて画像データファイルを絞り込んでいるが、絞り込みを行う画像データファイルの中には被写体とは関係のないものも多く含まれているため、非効率である。   In the device described in the above-mentioned patent document, the image data file is narrowed down based on the hue of the designated part of the subject, but the image data file to be narrowed down includes many that are not related to the subject. Is inefficient.

(1) 請求項1の発明によるカメラは、被写体像を撮像する撮像手段と、対象物を特定するためのデータであって対象物に関する地域についての情報および対象物に関する時期についての情報のうちの少なくとも1つを検索項目として備えたデータを格納するデータ格納手段と、撮像手段で被写体像を撮像する際の撮像地点の情報および撮像時期の情報のうちの少なくとも1つを取得する撮像時情報取得手段と、撮像時情報取得手段で取得した撮像地点の情報および撮像時期の情報のうちの少なくとも1つを用いて、データ格納手段に格納されたデータのうち検索に用いるデータを絞り込むデータ絞り込み手段と、データ絞り込み手段で絞り込まれたデータと、撮像手段で撮像した被写体像の画像に含まれる対象物(検索対象物)の特徴に関する情報とを照合して検索対象物を検索する検索手段と、検索手段による検索結果を表示する表示手段とを備えることを特徴とする。
(2) 請求項2の発明は、請求項1に記載のカメラにおいて、カメラの外部と通信を行う通信手段と、検索手段で検索対象物を検索した結果、検索対象物に該当するデータがデータ格納手段に格納されていない場合には、外部に検索対象物を検索させるために検索対象物の特徴に関する情報を通信手段を介して外部に送信させる通信制御手段をさらに備え、表示手段は、検索対象物に関するデータを通信手段を介して外部から受信すると、受信した検索対象物に関するデータに基づいて、検索対象物についての情報を表示することを特徴とする。
(3) 請求項3の発明は、請求項1または請求項2に記載のカメラにおいて、検索対象物が撮像手段で撮像した被写体像の画像に占める割合を算出する割合算出手段と、撮像手段で被写体像を撮像する際の撮影レンズの焦点距離の情報を取得する焦点距離情報取得手段と、割合算出手段で算出した割合と、焦点距離情報取得手段で取得した焦点距離の情報とに基づいて、検索対象物の大きさを算出する大きさ算出手段をさらに備え、データは、対象物に関する大きさについての情報をさらに検索項目として備えており、データ絞り込み手段は、大きさ算出手段で算出した検索対象物の大きさに基づいて、データ格納手段に格納されたデータを絞り込むことを特徴とする。
(4) 請求項4の発明によるカメラは、被写体像を撮像する撮像手段と、撮像手段で被写体像を撮像する際の撮像地点の情報および撮像時期の情報のうちの少なくとも1つを取得する撮像時情報取得手段と、カメラの外部と通信を行う通信手段と、外部に検索対象物を検索させるために、撮像時情報取得手段で取得した撮像地点の情報および撮像時期の情報のうちの少なくとも1つと、撮像手段で撮像した被写体像の画像に含まれる検索対象物の特徴に関する情報とを通信手段を介して外部に送信させる通信制御手段と、検索対象物に関するデータを通信手段を介して外部から受信すると、受信した検索対象物に関するデータに基づいて、検索対象物についての情報を表示する表示手段とを備えることを特徴とする。
(5) 請求項5の発明による検索システムは、請求項4に記載のカメラと、検索対象物を検索するサーバと、対象物を特定するためのデータであって対象物に関する地域についての情報および対象物に関する時期についての情報のうちの少なくとも1つを検索項目として備えたデータを格納するデータ格納装置とを備え、サーバは、カメラから送信された、撮像時情報取得手段で取得した撮像地点の情報および撮像時期の情報のうちの少なくとも1つと、撮像手段で撮像した被写体像の画像に含まれる検索対象物の特徴に関する情報とを受信すると、受信した情報と、データ格納装置に格納されたデータとに基づいて検索対象物を検索し、検索結果をカメラに送信することを特徴とする。
(1) The camera according to the first aspect of the present invention is an image capturing unit that captures an image of a subject, data for specifying an object, information about a region related to the object, and information about time related to the object Data storage means for storing data having at least one as a search item, and acquisition-time information acquisition for acquiring at least one of imaging point information and imaging timing information when the subject image is captured by the imaging means And a data narrowing-down means for narrowing down data to be used for search out of data stored in the data storage means, using at least one of the information on the imaging point and the information on the imaging time acquired by the information acquisition means at the time of imaging The characteristics of the object (search object) included in the data narrowed down by the data narrowing means and the subject image captured by the imaging means. And a display means for displaying a search result by the search means.
(2) According to the invention of claim 2, in the camera according to claim 1, as a result of searching the search object by the communication means for communicating with the outside of the camera and the search means, the data corresponding to the search object is data In the case where it is not stored in the storage means, it further comprises communication control means for transmitting information related to the characteristics of the search object to the outside via the communication means in order to make the search object search externally, and the display means includes the search When data related to the object is received from the outside via the communication means, information about the search object is displayed based on the received data related to the search object.
(3) The invention of claim 3 is the camera according to claim 1 or 2, wherein the ratio calculation means for calculating the ratio of the search object to the image of the subject image captured by the imaging means, and the imaging means Based on the focal length information acquisition means for acquiring the focal length information of the taking lens when capturing the subject image, the ratio calculated by the ratio calculation means, and the focal length information acquired by the focal length information acquisition means, A size calculating means for calculating the size of the search object is further provided, the data further includes information about the size related to the object as a search item, and the data narrowing means is a search calculated by the size calculating means. The data stored in the data storage unit is narrowed down based on the size of the object.
(4) According to a fourth aspect of the present invention, there is provided a camera according to a fourth aspect of the present invention, an imaging unit that captures a subject image, and an imaging unit that acquires at least one of information on an imaging point and information on an imaging timing when the subject unit captures the subject image. Time information acquisition means, communication means for communicating with the outside of the camera, and at least one of the information on the imaging point and the information on the imaging time acquired by the imaging time information acquisition means in order to make the search target search outside. Communication control means for transmitting information relating to the characteristics of the search object included in the image of the subject image captured by the imaging means to the outside via the communication means, and data relating to the search object from the outside via the communication means And display means for displaying information about the search object based on the received data related to the search object.
(5) A search system according to the invention of claim 5 is a camera according to claim 4, a server for searching for a search object, data for specifying the object, and information on a region related to the object and And a data storage device that stores data including at least one of information about the time concerning the object as a search item, and the server transmits an imaging point acquired by the imaging time information acquisition unit transmitted from the camera. When at least one of the information and the information of the imaging time and the information on the characteristics of the search target included in the image of the subject image captured by the imaging unit are received, the received information and the data stored in the data storage device The search object is searched based on the above and the search result is transmitted to the camera.

本発明によれば、効率的に検索できる。   According to the present invention, it is possible to search efficiently.

図1〜14を参照して、本発明によるカメラおよび検索システムの一実施の形態を説明する。図1は、本実施の形態の検索システムの全体構成を示す図であり、図2は本実施の形態のカメラの全体構成を示す図である。本実施の形態の検索システムは、カメラ1と、サーバ3と、データベース4とを備えている。カメラ1は、レンズユニット101と、撮像素子102と、処理ユニット103と、GPSユニット104と、リアルタイムクロック(RTC)105と、無線LANユニット106とを備えている。また、カメラ1は、メモリカードインターフェース107と、表示部108と、内蔵フラッシュメモリ109と、操作スイッチ110と、レンズ駆動部111と、レンズ位置検出部112とを備えている。   An embodiment of a camera and a search system according to the present invention will be described with reference to FIGS. FIG. 1 is a diagram showing the overall configuration of the search system of the present embodiment, and FIG. 2 is a diagram showing the overall configuration of the camera of the present embodiment. The search system according to the present embodiment includes a camera 1, a server 3, and a database 4. The camera 1 includes a lens unit 101, an image sensor 102, a processing unit 103, a GPS unit 104, a real-time clock (RTC) 105, and a wireless LAN unit 106. The camera 1 also includes a memory card interface 107, a display unit 108, a built-in flash memory 109, an operation switch 110, a lens driving unit 111, and a lens position detection unit 112.

レンズユニット101は、不図示のズームレンズとフォーカスレンズとを含む。ズームレンズは、レンズ駆動部111によって光軸方向に進退駆動され、レンズユニット101による焦点距離を調節する。フォーカスレンズはレンズ駆動部111によって光軸方向に進退駆動され、レンズユニット101による焦点位置を調節する。レンズ駆動部111は、後述する処理ユニット103から送出されるレンズ制御信号に応じてズームレンズとフォーカスレンズをそれぞれ駆動する。レンズ位置検出部112は、ズームレンズおよびフォーカスレンズの光軸方向の位置をそれぞれ検出する。   The lens unit 101 includes a zoom lens and a focus lens (not shown). The zoom lens is driven back and forth in the optical axis direction by the lens driving unit 111 to adjust the focal length of the lens unit 101. The focus lens is driven back and forth in the optical axis direction by the lens driving unit 111 to adjust the focal position of the lens unit 101. The lens driving unit 111 drives the zoom lens and the focus lens, respectively, according to a lens control signal sent from the processing unit 103 described later. The lens position detection unit 112 detects the positions of the zoom lens and the focus lens in the optical axis direction.

撮像素子102は、たとえばCCDイメージセンサなどによって構成される。撮像素子102は、レンズユニット101を通過した被写体光による像を撮像し、撮像信号を処理ユニット103へ出力する。処理ユニット103は、CPUおよびROMやRAMなどCPUの周辺回路からなり、各部から出力される信号を入力して所定の演算を行い、演算結果に基づく制御信号を各部へ出力する。GPSユニット104は、GPS衛星からのGPS信号を受信して自身の現在位置(たとえば緯度、経度、高度)を検出し、現在位置の情報を処理ユニット103へ出力する。RTC105は、現在の日時の情報を処理ユニット103へ出力する。   The image sensor 102 is configured by, for example, a CCD image sensor. The image sensor 102 captures an image of subject light that has passed through the lens unit 101 and outputs an image signal to the processing unit 103. The processing unit 103 includes a CPU and peripheral circuits of the CPU such as a ROM and a RAM. The processing unit 103 inputs a signal output from each unit, performs a predetermined calculation, and outputs a control signal based on the calculation result to each unit. The GPS unit 104 receives a GPS signal from a GPS satellite, detects its current position (for example, latitude, longitude, altitude), and outputs information on the current position to the processing unit 103. The RTC 105 outputs information on the current date and time to the processing unit 103.

無線LANユニット106は、後述する無線LAN基地局2など、あらかじめ構築されている無線LANネットワークに接続して、ネットワークに接続されている他の機器と無線通信(ワイヤレス通信)を行う。メモリカードインターフェース107は、たとえばメモリカード120などの記憶媒体を着脱可能に保持し、装着された記憶媒体に記録されたデータの読み込みや消去、記憶媒体へのデータの書き込みを行う。表示部108は、たとえば液晶表示装置(LCD)などの表示装置と、タッチパネルスイッチとを有する。内蔵フラッシュメモリ109は、後述する被写体検索データを格納している。操作スイッチ110は、カメラ1の各部の操作のためのボタンなどに連動して処理ユニット103に信号を出力するスイッチ群であり、上述した表示部108のタッチパネルスイッチを含む。   The wireless LAN unit 106 is connected to a wireless LAN network constructed in advance, such as a wireless LAN base station 2 described later, and performs wireless communication (wireless communication) with other devices connected to the network. The memory card interface 107 holds, for example, a storage medium such as the memory card 120 in a detachable manner, and reads and erases data recorded on the attached storage medium and writes data to the storage medium. Display unit 108 includes a display device such as a liquid crystal display device (LCD) and a touch panel switch. The built-in flash memory 109 stores subject search data described later. The operation switch 110 is a switch group that outputs a signal to the processing unit 103 in conjunction with a button for operating each part of the camera 1, and includes the touch panel switch of the display unit 108 described above.

サーバ3は、無線LAN基地局2およびデータベース4に接続されている。後述するように、サーバ3は、無線LAN基地局2を介してカメラ1から被写体に関する問い合わせを受けると、データベース4に格納された被写体検索データを参照して、問い合わせに係る被写体の情報を無線LAN基地局2を介してカメラ1に送信する。無線LAN基地局2は、あらかじめ構築されている無線LANネットワークの基地局である。データベース4は、被写体検索データを格納している。   The server 3 is connected to the wireless LAN base station 2 and the database 4. As will be described later, when the server 3 receives an inquiry about the subject from the camera 1 via the wireless LAN base station 2, the server 3 refers to the subject search data stored in the database 4 and obtains information on the subject related to the inquiry via the wireless LAN. Transmit to the camera 1 via the base station 2. The wireless LAN base station 2 is a wireless LAN network base station constructed in advance. The database 4 stores subject search data.

このように構成されるカメラ1および検索システムでは、カメラ1で被写体像を撮像すると、被写体像の特徴とカメラ1の内蔵フラッシュメモリ109に格納された被写体検索データとを照合することで被写体に関するデータを検索する。また、カメラ1は、このようにデータを検索した結果、当該被写体に該当するデータがなかった場合には、当該被写体像についてサーバ3に問い合わせる。以下、詳述する。   In the camera 1 and the search system configured as described above, when a subject image is captured by the camera 1, the subject-related data is checked against subject search data stored in the built-in flash memory 109 of the camera 1. Search for. Further, as a result of searching for data as described above, when there is no data corresponding to the subject, the camera 1 inquires the server 3 about the subject image. Details will be described below.

−−−被写体検索データ−−−
図3は、被写体検索データの一例として、花に関する被写体検索データの構成を示す図である。被写体検索データには、複数の情報の項目があり、それぞれ花の種類(植物の名称)毎に区分されている。情報の項目としては、たとえば、位置情報と、高度情報と、時期情報と、大きさ情報と、特徴量情報と、図鑑情報とが挙げられる。位置情報は、花の分布する地域に関する情報であり、たとえば緯度および経度で表される。高度情報は、花の分布する高度に関する情報であり、たとえば標高で表される。時期情報は、花が咲く時期に関する情報であり、たとえば月日で表される。大きさ情報は、花の大きさに関する情報であり、たとえば花の大きさの範囲が数値で表される。
---- Subject search data ---
FIG. 3 is a diagram illustrating a configuration of subject search data regarding flowers as an example of subject search data. The subject search data includes a plurality of information items, each of which is classified for each type of flower (plant name). Examples of information items include position information, altitude information, time information, size information, feature amount information, and picture book information. The position information is information related to the area where the flowers are distributed, and is represented by latitude and longitude, for example. The altitude information is information relating to the altitude at which the flowers are distributed, and is represented by altitude, for example. The time information is information related to the time when the flower blooms, and is expressed by, for example, the date. The size information is information relating to the size of the flower, and for example, the range of the size of the flower is represented by a numerical value.

特徴量情報は、花の色彩や模様、形状など、花の外観に関する情報である。色彩の情報は、たとえば色相の範囲が数値で表されている。模様や形状の情報には、たとえば、花びらの枚数、花の形状がどのような形状パターンであるか、等といった情報が含まれている。図鑑情報は、花の写真や絵など、花の外観を表す画像データである。   The feature amount information is information related to the appearance of the flower such as the color, pattern, and shape of the flower. In the color information, for example, the hue range is represented by a numerical value. The pattern and shape information includes, for example, information such as the number of petals and the shape pattern of the flower. The pictorial book information is image data representing the appearance of a flower, such as a photograph or picture of a flower.

上述したように、被写体検索データはカメラ1の内蔵フラッシュメモリ109およびデータベース4にそれぞれ格納されている。なお、記憶容量の関係で、データベース4に格納された被写体検索データには、内蔵フラッシュメモリ109に格納された被写体検索データよりも多くの花の種類の情報が含まれている。   As described above, the subject search data is stored in the built-in flash memory 109 and the database 4 of the camera 1, respectively. Note that the subject search data stored in the database 4 includes more flower type information than the subject search data stored in the built-in flash memory 109 because of the storage capacity.

−−−撮像および検索について−−−
不図示の電源ボタンが操作されてカメラ1の電源がオンされた後、操作者の操作によってたとえば不図示のズームボタンが押圧操作されると、ズームボタンが押圧操作されている間に操作スイッチ110からズーム操作信号(望遠指示信号または広角指示信号)が出力される。ズーム操作信号を受信した処理ユニット103は、ズームレンズを進退駆動させるようにレンズ駆動部111に信号を出力する。これにより、レンズユニット101の焦点距離が任意の焦点距離に設定される。
--- About imaging and retrieval ---
After the power button (not shown) is operated and the power of the camera 1 is turned on, when the zoom button (not shown) is pressed by the operator, for example, the operation switch 110 is pressed while the zoom button is pressed. A zoom operation signal (a telephoto instruction signal or a wide-angle instruction signal) is output from. The processing unit 103 that has received the zoom operation signal outputs a signal to the lens driving unit 111 so as to drive the zoom lens forward and backward. Thereby, the focal length of the lens unit 101 is set to an arbitrary focal length.

このようにして、操作者が、レンズユニット101の焦点距離を任意の焦点距離を設定した後、不図示のレリーズボタンを全押し操作すると、操作スイッチ110から全押し操作信号が出力される。全押し操作信号を受信すると、処理ユニット103は、公知の測光および測距演算を行って、シャッタ速度(シャッタ秒時)、制御絞り値を算出する。そして、不図示の絞りの絞り値が算出した制御絞り値となるように不図示の絞り駆動部に制御信号(絞り制御信号)を出力するとともに、フォーカスレンズを駆動するためのレンズ制御信号をレンズ駆動部111に出力する。   In this way, when the operator sets the focal length of the lens unit 101 to an arbitrary focal length and then fully presses a release button (not shown), a full-press operation signal is output from the operation switch 110. When the full-press operation signal is received, the processing unit 103 performs a known photometry and distance measurement calculation, and calculates a shutter speed (in the shutter speed) and a control aperture value. Then, a control signal (aperture control signal) is output to an aperture drive unit (not shown) so that the aperture value of the aperture (not shown) becomes the calculated control aperture value, and a lens control signal for driving the focus lens is output to the lens. Output to the drive unit 111.

その後、処理ユニット103は、撮像素子102で被写体像を撮像するよう各部を制御する。処理ユニット103は、撮像素子102で撮像して得られた被写体像の画像のデータに所定の画像処理を行い、画像処理後の画像データをメモリカード120に書き込むように各部を制御する。また、処理ユニット103は、図4に示すように、撮像して得られた画像(撮像画像)201と、被写体の名称を検索するか否かを問い合わせる表示(問い合わせ表示)202とを表示部108に一定時間表示するように各部を制御する。なお、被写体像の撮像の後、処理ユニット103は、カメラ1の各部のリセットを開始するように各部を制御する。図4は花が被写体である場合の一例である。201aは被写体の花である。   Thereafter, the processing unit 103 controls each unit so that the image sensor 102 captures a subject image. The processing unit 103 performs predetermined image processing on the image data of the subject image obtained by imaging with the image sensor 102 and controls each unit so as to write the image data after the image processing to the memory card 120. Further, as shown in FIG. 4, the processing unit 103 displays an image (captured image) 201 obtained by imaging and a display (inquiry display) 202 for inquiring whether or not to search for the name of the subject. Each part is controlled to display for a certain period of time. Note that after capturing the subject image, the processing unit 103 controls each unit so as to start resetting each unit of the camera 1. FIG. 4 shows an example in which a flower is a subject. 201a is a flower of the subject.

問い合わせ表示202には、被写体の名称を検索するか否かを問い合わせる旨の表示と、操作者が被写体名称の検索を指示するための「はい」ボタン202aとが含まれる。撮像画像201および問い合わせ表示202が表示部108に一定時間表示されている間に、「はい」ボタン202aが押圧操作されないと、すなわち、撮像画像201および問い合わせ表示202を表示部108に表示させた後、所定時間以内に「はい」ボタン202aが押圧操作されたことを示す操作信号を受信できなかった場合には、処理ユニット103は、撮像画像201および問い合わせ表示202の表示を終了するように各部を制御する。これにより、カメラ1は、撮影待機状態に復帰する。   The inquiry display 202 includes a display for inquiring whether or not to search for the name of the subject, and a “Yes” button 202a for the operator to instruct the search for the subject name. While the captured image 201 and the inquiry display 202 are displayed on the display unit 108 for a certain period of time, the “Yes” button 202a is not pressed, that is, after the captured image 201 and the inquiry display 202 are displayed on the display unit 108. When the operation signal indicating that the “Yes” button 202a is pressed within a predetermined time cannot be received, the processing unit 103 sets each unit to end the display of the captured image 201 and the inquiry display 202. Control. As a result, the camera 1 returns to the shooting standby state.

撮像画像201および問い合わせ表示202が表示部108に一定時間表示されている間に、「はい」ボタン202aが押圧操作されると、すなわち、撮像画像201および問い合わせ表示202を表示部108に表示させた後、所定時間以内に「はい」ボタン202aが押圧操作されたことを示す操作信号を受信できた場合には、処理ユニット103は、次に述べる検索モードに移行して、被写体像に関して検索するよう各部を制御する。処理ユニット103は、検索モードに移行すると、図5に示すように、問い合わせ表示202の表示を終了(中止)し、撮像画像201の中で検索の対象となる被写体像が表示された領域を指定するように促す旨の表示(領域指定の案内表示)203を表示部108に表示するよう各部を制御する。   When the “Yes” button 202a is pressed while the captured image 201 and the inquiry display 202 are displayed on the display unit 108 for a certain period of time, that is, the captured image 201 and the inquiry display 202 are displayed on the display unit 108. Thereafter, when an operation signal indicating that the “Yes” button 202a is pressed within a predetermined time can be received, the processing unit 103 shifts to a search mode described below to search for a subject image. Control each part. When the processing unit 103 shifts to the search mode, as shown in FIG. 5, the display of the inquiry display 202 is ended (stopped), and an area in which the subject image to be searched is displayed in the captured image 201 is designated. Each unit is controlled so as to display on the display unit 108 a display 203 for prompting the user to perform (region-specific guidance display).

たとえば、図6に示すように、操作者は、検索の対象となる被写体像(検索対象物)が表示されている領域を囲うように、指で表示部108の表面をなぞることで、検索対象物が表示されている領域を指示できる。図6の例では、操作者が撮像画像201中の花201aの周囲を囲うように、指で表示部108の表面をなぞることになる。表示部108の所定領域を指示する信号を受信すると、処理ユニット103は、図7に示すように検索中である旨の表示204を表示部108に表示するよう各部を制御するとともに、受信した信号に基づいて撮像画像201の中の検索対象物が表示された領域を特定し、特定した領域内の被写体像(すなわち検索対象物)を認識する。そして、処理ユニット103は、認識した検索対象物について、特徴量情報として色相や模様、形状などを認識(抽出)してRAMに保存する。   For example, as shown in FIG. 6, the operator traces the surface of the display unit 108 with his / her finger so as to surround the area where the subject image (search target) to be searched is displayed. The area where the object is displayed can be indicated. In the example of FIG. 6, the operator traces the surface of the display unit 108 with a finger so as to surround the flower 201 a in the captured image 201. When receiving a signal indicating a predetermined area of the display unit 108, the processing unit 103 controls each unit to display on the display unit 108 a display 204 indicating that the search is being performed as shown in FIG. Based on the image, the region where the search object is displayed in the captured image 201 is specified, and the subject image (that is, the search object) in the specified region is recognized. Then, the processing unit 103 recognizes (extracts) a hue, a pattern, a shape, or the like as feature amount information for the recognized search object and stores it in the RAM.

処理ユニット103は、GPSユニット104から出力される現在位置の情報、および、RTC105から出力される現在の日時の情報を取得する。また、処理ユニット103は、レンズ位置検出部112から出力されるズームレンズおよびフォーカスレンズの光軸方向の位置の情報を取得する。そして、処理ユニット103は、上記認識した検索対象物の撮像画像201中の大きさを算出し、取得したズームレンズおよびフォーカスレンズの光軸方向の位置の情報に基づいて、検索対象物の実際の大きさを算出してRAMに保存する。すなわち、処理ユニット103は、ズームレンズの位置の情報から焦点距離を算出し、フォーカスレンズの位置の情報から検出対象物である被写体までの距離を算出する。そして、処理ユニット103は、検索対象物の撮像画像201中の大きさ(検索対象物が撮像画像201に占める割合)を算出し、焦点距離および被写体までの距離を参照して検索対象物の実際の大きさを算出して、算出値をRAMに保存する。   The processing unit 103 acquires information on the current position output from the GPS unit 104 and information on the current date and time output from the RTC 105. Further, the processing unit 103 acquires information on the position of the zoom lens and the focus lens in the optical axis direction output from the lens position detection unit 112. Then, the processing unit 103 calculates the size of the recognized search target object in the captured image 201, and based on the acquired information on the position of the zoom lens and the focus lens in the optical axis direction, the actual search target object is calculated. The size is calculated and stored in the RAM. That is, the processing unit 103 calculates the focal length from the information on the position of the zoom lens, and calculates the distance to the subject that is the detection target from the information on the position of the focus lens. Then, the processing unit 103 calculates the size of the search object in the captured image 201 (the ratio of the search object to the captured image 201), and refers to the focal distance and the distance to the subject to determine the actual search object. Is calculated, and the calculated value is stored in the RAM.

次に、処理ユニット103は、内蔵フラッシュメモリ109に格納された被写体検索データに基づいて検索対象物を検索する。まず、処理ユニット103は、GPSユニット104から取得した現在位置の情報と、被写体検索データの位置情報とを比較することで、被写体検索データを絞り込む。たとえば、処理ユニット103は、GPSユニット104から取得した現在位置の情報と、被写体検索データの位置情報とを比較して、検索対象とならないと判断される花の種類については、フラグ(検索対象外フラグ)に1をセットする。   Next, the processing unit 103 searches for a search object based on subject search data stored in the built-in flash memory 109. First, the processing unit 103 narrows down the subject search data by comparing the current position information acquired from the GPS unit 104 with the position information of the subject search data. For example, the processing unit 103 compares the current position information acquired from the GPS unit 104 with the position information of the subject search data, and uses a flag (not search target) for the types of flowers that are determined not to be search targets. Set 1 to (Flag).

また、処理ユニット103は、GPSユニット104から取得した現在位置の高度の情報と、被写体検索データの高度情報とを比較することで、被写体検索データを絞り込む。たとえば、処理ユニット103は、GPSユニット104から取得した現在位置の高度の情報と、被写体検索データの高度情報とを比較して、検索対象とならないと判断される花の種類については、フラグ(検索対象外フラグ)に1をセットする。処理ユニット103は、RTC105から取得した現在の日時の情報と、被写体検索データの時期情報とを比較することで、被写体検索データを絞り込む。たとえば、処理ユニット103は、RTC105から取得した現在の日時の情報と、被写体検索データの時期情報とを比較して、検索対象とならないと判断される花の種類については、フラグ(検索対象外フラグ)に1をセットする。   The processing unit 103 narrows down the subject search data by comparing the altitude information of the current position acquired from the GPS unit 104 with the altitude information of the subject search data. For example, the processing unit 103 compares the altitude information of the current position acquired from the GPS unit 104 with the altitude information of the subject search data, and uses a flag (search for the type of flower that is determined not to be a search target. 1 is set to the non-target flag. The processing unit 103 narrows down the subject search data by comparing the current date and time information acquired from the RTC 105 with the time information of the subject search data. For example, the processing unit 103 compares the current date and time information acquired from the RTC 105 with the time information of the subject search data, and sets a flag (non-search target flag) for a flower type that is determined not to be searched. ) Is set to 1.

処理ユニット103は、上述したように算出して得られた検索対象物の実際の大きさと、被写体検索データの大きさ情報とを比較することで、被写体検索データを絞り込む。たとえば、処理ユニット103は、算出して得られた検索対象物の実際の大きさと、被写体検索データの大きさ情報とを比較して、検索対象とならないと判断される花の種類については、フラグ(検索対象外フラグ)に1をセットする。上記のように被写体検索データを絞り込んだ後、処理ユニット103は、検索対象外フラグに1がセットされていない被写体検索データを参照して、RAMに保存されている検索対象物の特徴量情報で検索対象物を検索する。   The processing unit 103 narrows down the subject search data by comparing the actual size of the search target obtained by calculation as described above with the size information of the subject search data. For example, the processing unit 103 compares the actual size of the search target obtained by calculation with the size information of the subject search data, and determines the type of flower that is determined not to be the search target. 1 is set to (non-search target flag). After narrowing down the subject search data as described above, the processing unit 103 refers to the subject search data in which 1 is not set in the non-search target flag, and uses the feature amount information of the search target stored in the RAM. Search the search object.

検索の結果、RAMに保存されている検索対象物の特徴量情報に合致する被写体検索データが存在しない場合には、処理ユニット103は、後述するように、外部のサーバ3に検索対象物を検索させる。   As a result of the search, when there is no subject search data that matches the feature amount information of the search target stored in the RAM, the processing unit 103 searches the external server 3 for the search target as described later. Let

検索の結果、RAMに保存されている検索対象物の特徴量情報に合致する被写体検索データが存在する場合には、処理ユニット103は、図8に示すように、検索結果である、合致する被写体検索データの表示205と、結果の良否を確認するための表示206とを表示部108に表示するように各部を制御する。表示205には、たとえば、被写体検索データから読み出した花の種類を示す表示205aと、その花の画像205bとが含まれる。すなわち、処理ユニット103は、たとえば、合致する被写体検索データから花の種類の情報と図鑑情報とを読み出し、花の種類を示す表示205aと、その花の画像205bとを表示させる。表示206には、検索結果が正しかった場合に操作者が押圧操作するための「はい」ボタン206aと、検索結果が正しくなかった場合に操作者が押圧操作するための「いいえ」ボタン206bとが含まれる。   As a result of the search, when there is subject search data that matches the feature quantity information of the search target stored in the RAM, the processing unit 103, as shown in FIG. Each unit is controlled to display a display 205 of the search data and a display 206 for confirming the quality of the result on the display unit 108. The display 205 includes, for example, a display 205a indicating the type of flower read from the subject search data and an image 205b of the flower. That is, for example, the processing unit 103 reads out flower type information and picture book information from the matching subject search data, and displays a display 205a indicating the flower type and an image 205b of the flower. The display 206 includes a “Yes” button 206a for the operator to press when the search result is correct, and a “No” button 206b for the operator to press when the search result is incorrect. included.

「はい」ボタン206aが押圧操作されると、すなわち、「はい」ボタン206aが押圧操作されたことを示す操作信号を受信できた場合には、処理ユニット103は、撮像画像201の画像データと検索結果とを関連づけるように各部を制御する。たとえば処理ユニット103は、撮像画像201の画像データの画像ファイルにおいて、たとえばExifファイルフォーマットにおけるメーカーノートに、被写体検索データの花の種類を示す情報を付加するように各部を制御する。処理ユニット103は、撮像画像201の画像データと検索結果とを関連づけるよう各部を制御した後、検索モードから通常の撮影モードに復帰して、撮影待機状態となるように各部を制御する。   When the “Yes” button 206 a is pressed, that is, when an operation signal indicating that the “Yes” button 206 a is pressed can be received, the processing unit 103 searches the image data of the captured image 201 and searches. Each part is controlled so as to correlate the result. For example, in the image file of the image data of the captured image 201, the processing unit 103 controls each unit so as to add information indicating the type of flower of the subject search data to, for example, a maker note in the Exif file format. The processing unit 103 controls each unit so that the image data of the captured image 201 and the search result are associated with each other, and then returns to the normal shooting mode from the search mode and enters a shooting standby state.

「いいえ」ボタン206bが押圧操作されると、すなわち、「いいえ」ボタン206bが押圧操作されたことを示す操作信号を受信できた場合には、処理ユニット103は、外部のサーバ3に検索対象物を検索させるように、無線LANユニット106を介して次の情報をサーバ3に送信するよう各部を制御する。なお、上述したように、カメラ1側での検索の結果、RAMに保存されている検索対象物の特徴量情報に合致する被写体検索データが存在しない場合も同様である。まず、処理ユニット103は、無線LANユニット106を介してサーバ3との接続を確立させる。サーバ3との接続が確立できれば、処理ユニット103は、被写体像の特徴量情報、GPSユニット104から出力される現在位置の情報、RTC105から出力される現在の日時の情報、および、上述したように算出した検索対象物の実際の大きさの算出値を、無線LANユニット106を介してサーバ3に送信する。処理ユニット103は、サーバ3との接続が確立できれば、図9に示すように、検索対象物についてサーバで検索している旨を示す表示207を表示部108に表示するように各部を制御する。   When the “NO” button 206b is pressed, that is, when an operation signal indicating that the “NO” button 206b is pressed can be received, the processing unit 103 sends the search target object to the external server 3. Each unit is controlled to transmit the following information to the server 3 via the wireless LAN unit 106. As described above, the same applies to the case where there is no subject search data that matches the feature amount information of the search target stored in the RAM as a result of the search on the camera 1 side. First, the processing unit 103 establishes a connection with the server 3 via the wireless LAN unit 106. If the connection with the server 3 can be established, the processing unit 103 has the subject image feature amount information, the current position information output from the GPS unit 104, the current date and time information output from the RTC 105, and as described above. The calculated value of the actual size of the calculated search object is transmitted to the server 3 via the wireless LAN unit 106. If the connection with the server 3 can be established, the processing unit 103 controls each unit so as to display on the display unit 108 a display 207 indicating that the search target object is being searched for, as shown in FIG.

サーバ3は、検索に必要な上述の情報を無線LAN基地局2を介してカメラ1から受信すると、データベース4に格納された被写体検索データに基づいて検索対象物を検索する。サーバ3における処理内容については後述する。サーバ3は、検索の結果、合致する被写体検索データが存在する場合には、検索結果である、合致する被写体検索データの花の種類の情報を、無線LAN基地局2を介してカメラ1に送信する。サーバ3は、検索の結果、合致する被写体検索データが存在しない場合には、合致する被写体検索データが存在しない旨の情報を、無線LAN基地局2を介してカメラ1に送信する。   When the server 3 receives the above-mentioned information necessary for the search from the camera 1 via the wireless LAN base station 2, the server 3 searches for the search object based on the subject search data stored in the database 4. The processing contents in the server 3 will be described later. If there is matching subject search data as a result of the search, the server 3 transmits the information on the type of flower of the matching subject search data, which is the search result, to the camera 1 via the wireless LAN base station 2. To do. If there is no matching subject search data as a result of the search, the server 3 transmits information indicating that there is no matching subject search data to the camera 1 via the wireless LAN base station 2.

処理ユニット103は、合致する被写体検索データの花の種類の情報を無線LANユニット106を介してサーバ3から受信すると、図8に示すように、合致する被写体検索データの表示205と、結果の良否を確認するための表示206とを表示部108に表示するように各部を制御する。   When the processing unit 103 receives the flower type information of the matching subject search data from the server 3 via the wireless LAN unit 106, as shown in FIG. 8, the matching subject search data display 205 and the result pass / fail are displayed. Each unit is controlled to display on the display unit 108 a display 206 for confirming.

「はい」ボタン206aが押圧操作されると、すなわち、「はい」ボタン206aが押圧操作されたことを示す操作信号を受信できた場合には、処理ユニット103は、撮像画像201の画像データと、受信した検索結果とを関連づけるように各部を制御する。たとえば処理ユニット103は、撮像画像201の画像データの画像ファイルにおいて、たとえばExifファイルフォーマットにおけるメーカーノートに、被写体検索データの花の種類を示す情報を付加するように各部を制御する。処理ユニット103は、撮像画像201の画像データと検索結果とを関連づけるよう各部を制御した後、検索モードから通常の撮影モードに復帰して、撮影待機状態となるように各部を制御する。   When the “Yes” button 206a is pressed, that is, when an operation signal indicating that the “Yes” button 206a is pressed can be received, the processing unit 103 receives the image data of the captured image 201, Each unit is controlled so as to correlate with the received search result. For example, in the image file of the image data of the captured image 201, the processing unit 103 controls each unit so as to add information indicating the type of flower of the subject search data to, for example, a maker note in the Exif file format. The processing unit 103 controls each unit so that the image data of the captured image 201 and the search result are associated with each other, and then returns to the normal shooting mode from the search mode and enters a shooting standby state.

「いいえ」ボタン206bが押圧操作されると、すなわち、「いいえ」ボタン206bが押圧操作されたことを示す操作信号を受信できた場合には、処理ユニット103は、撮像画像201の画像データと検索結果とを関連づけることなく、検索モードから通常の撮影モードに復帰して、撮影待機状態となるように各部を制御する。   When the “NO” button 206b is pressed, that is, when an operation signal indicating that the “NO” button 206b is pressed can be received, the processing unit 103 searches the image data of the captured image 201 and searches. Without associating the result with each other, each unit is controlled to return to the normal shooting mode from the search mode and enter a shooting standby state.

処理ユニット103は、合致する被写体検索データが存在しない旨の情報を無線LANユニット106を介してサーバ3から受信すると、図10に示すように、合致する被写体検索データが存在しない旨を示す表示208を一定時間だけ表示部108に表示するように各部を制御する。その後、処理ユニット103は、検索モードから通常の撮影モードに復帰して、撮影待機状態となるように各部を制御する。   When the processing unit 103 receives information indicating that there is no matching subject search data from the server 3 via the wireless LAN unit 106, as shown in FIG. 10, a display 208 indicating that there is no matching subject search data. Are controlled so as to be displayed on the display unit 108 for a predetermined time. Thereafter, the processing unit 103 returns from the search mode to the normal shooting mode and controls each unit so as to enter a shooting standby state.

なお、サーバ3との接続が確立できなかった場合には、処理ユニット103は、図11に示すように、サーバ3との接続が確立できない旨を示す表示209を一定時間だけ表示部108に表示するように各部を制御する。その後、処理ユニット103は、検索モードから通常の撮影モードに復帰して、撮影待機状態となるように各部を制御する。   If the connection with the server 3 cannot be established, the processing unit 103 displays on the display unit 108 a display 209 indicating that the connection with the server 3 cannot be established as shown in FIG. Control each part to do. Thereafter, the processing unit 103 returns from the search mode to the normal shooting mode and controls each unit so as to enter a shooting standby state.

−−−サーバ3における検索処理−−−
サーバ3は、検索に必要な上述の情報を無線LAN基地局2を介してカメラ1から受信すると、データベース4に格納された被写体検索データに基づいて次のように検索対象物を検索する。サーバ3は、カメラ1から受信した現在位置の情報と、データベース4に格納された被写体検索データの位置情報とを比較することで、被写体検索データを絞り込む。たとえば、サーバ3は、カメラ1から受信した現在位置の情報と、被写体検索データの位置情報とを比較して、検索対象とならないと判断される花の種類については、フラグ(検索対象外フラグ)に1をセットする。
--- Search processing in server 3 ---
When the server 3 receives the above-described information necessary for the search from the camera 1 via the wireless LAN base station 2, the server 3 searches for the search object based on the subject search data stored in the database 4 as follows. The server 3 narrows down the subject search data by comparing the current position information received from the camera 1 with the position information of the subject search data stored in the database 4. For example, the server 3 compares the current position information received from the camera 1 with the position information of the subject search data, and sets a flag (non-search target flag) for a flower type that is determined not to be a search target. Set 1 to.

また、サーバ3は、カメラ1から受信した現在位置の高度の情報と、被写体検索データの高度情報とを比較することで、被写体検索データを絞り込む。たとえば、サーバ3は、カメラ1から受信した現在位置の高度の情報と、被写体検索データの高度情報とを比較して、検索対象とならないと判断される花の種類については、フラグ(検索対象外フラグ)に1をセットする。サーバ3は、カメラ1から受信した日時の情報と、被写体検索データの時期情報とを比較することで、被写体検索データを絞り込む。たとえば、サーバ3は、カメラ1から受信した日時の情報と、被写体検索データの時期情報とを比較して、検索対象とならないと判断される花の種類については、フラグ(検索対象外フラグ)に1をセットする。   The server 3 narrows down the subject search data by comparing the altitude information of the current position received from the camera 1 with the altitude information of the subject search data. For example, the server 3 compares the altitude information of the current position received from the camera 1 with the altitude information of the subject search data, and for the types of flowers that are determined not to be searched, Set 1 to (Flag). The server 3 narrows down the subject search data by comparing the date and time information received from the camera 1 with the time information of the subject search data. For example, the server 3 compares the date and time information received from the camera 1 with the time information of the subject search data, and uses a flag (non-search target flag) for a flower type that is determined not to be a search target. Set 1

サーバ3は、カメラ1から受信した検索対象物の実際の大きさの算出値と、被写体検索データの大きさ情報とを比較することで、被写体検索データを絞り込む。たとえば、サーバ3は、カメラ1から受信した検索対象物の実際の大きさの算出値と、被写体検索データの大きさ情報とを比較して、検索対象とならないと判断される花の種類については、フラグ(検索対象外フラグ)に1をセットする。上記のように被写体検索データを絞り込んだ後、サーバ3は、検索対象外フラグに1がセットされていない被写体検索データを参照して、カメラ1から受信した検索対象物の特徴量情報で検索対象物を検索する。   The server 3 narrows down the subject search data by comparing the calculated value of the actual size of the search target received from the camera 1 with the size information of the subject search data. For example, the server 3 compares the calculated value of the actual size of the search target received from the camera 1 with the size information of the subject search data, and determines the type of flower that is determined not to be the search target. , 1 is set to the flag (non-search target flag). After narrowing down the subject search data as described above, the server 3 refers to the subject search data for which 1 is not set in the non-search target flag, and uses the feature amount information of the search target received from the camera 1 as a search target. Search for things.

検索の結果、カメラ1から受信した検索対象物の特徴量情報に合致する被写体検索データが存在する場合には、サーバ3は、上述したように、合致する被写体検索データの花の種類の情報を、無線LAN基地局2を介してカメラ1に送信する。サーバ3は、検索の結果、カメラ1から受信した検索対象物の特徴量情報に合致する被写体検索データが存在しない場合には、上述したように、合致する被写体検索データが存在しない旨の情報を、無線LAN基地局2を介してカメラ1に送信する。   As a result of the search, if there is subject search data that matches the feature amount information of the search target received from the camera 1, the server 3 uses the information on the type of flower that matches the subject search data as described above. And transmitted to the camera 1 via the wireless LAN base station 2. As a result of the search, if there is no subject search data that matches the feature amount information of the search target received from the camera 1, the server 3 sets information indicating that there is no matching subject search data as described above. And transmitted to the camera 1 via the wireless LAN base station 2.

−−−フローチャート−−−
図12は、撮影後に上述したように検索対象物の検索を行うプログラムの処理内容を示すフローチャートである。カメラ1の不図示の電源スイッチがオンされると、カメラ1は通常の撮影モードで起動され、撮影待機状態となる。また、カメラ1の不図示の電源スイッチがオンされると、この処理を行うプログラムが起動されて、処理ユニット103で実行される。ステップS1において、操作スイッチ110から全押し操作信号を受信するまで待機する。ステップS1が肯定判断されるとステップS3へ進み、公知の測光および測距演算を行ってステップS5へ進む。ステップS5において、ステップS3の演算結果に基づいて絞り制御信号およびレンズ制御信号を出力してステップS7へ進む。
--- Flow chart ---
FIG. 12 is a flowchart showing the processing contents of a program for searching for a search object as described above after shooting. When a power switch (not shown) of the camera 1 is turned on, the camera 1 is activated in a normal shooting mode and enters a shooting standby state. When a power switch (not shown) of the camera 1 is turned on, a program for performing this process is activated and executed by the processing unit 103. In step S1, the process waits until a full-press operation signal is received from the operation switch 110. If an affirmative determination is made in step S1, the process proceeds to step S3, where known photometry and distance measurement calculations are performed, and the process proceeds to step S5. In step S5, an aperture control signal and a lens control signal are output based on the calculation result of step S3, and the process proceeds to step S7.

ステップS7において、撮像素子102で被写体像を撮像するよう各部を制御してステップS9へ進む。ステップS9において、撮像素子102で撮像して得られた被写体像の画像のデータに所定の画像処理を行い、画像処理後の画像データをメモリカード120に書き込むように各部を制御してステップS11へ進む。ステップS11において、撮像して得られた撮像画像201と、問い合わせ表示202とを表示部108に表示するように各部を制御してステップS13へ進む。ステップS13において、カメラ1の各部のリセットを開始するように各部を制御してステップS15へ進む。   In step S7, each unit is controlled so as to capture a subject image with the image sensor 102, and the process proceeds to step S9. In step S9, predetermined image processing is performed on the image data of the subject image obtained by imaging with the image sensor 102, and each unit is controlled to write the image data after the image processing to the memory card 120. move on. In step S11, each unit is controlled to display the captured image 201 obtained by imaging and the inquiry display 202 on the display unit 108, and the process proceeds to step S13. In step S13, each part is controlled to start resetting each part of the camera 1, and the process proceeds to step S15.

ステップS15において、図4に示す「はい」ボタン202aが押圧操作されたことを示す操作信号を受信したか否かを判断する。ステップS15が肯定判断されるとステップS17へ進み、検索モードに移行してステップS25へ進む。ステップS25において、問い合わせ表示202の表示を中止するよう各部を制御してステップS27へ進む。ステップS27において、領域指定の案内表示203を表示部108に表示するよう各部を制御してステップS29へ進む。ステップS29において、表示部108の所定領域を指示する信号を受信するまで待機する。   In step S15, it is determined whether or not an operation signal indicating that the “Yes” button 202a shown in FIG. 4 has been pressed is received. If an affirmative determination is made in step S15, the process proceeds to step S17, the search mode is entered, and the process proceeds to step S25. In step S25, each unit is controlled to stop the display of the inquiry display 202, and the process proceeds to step S27. In step S27, each unit is controlled to display the area designation guidance display 203 on the display unit 108, and the process proceeds to step S29. In step S29, the process waits until a signal indicating a predetermined area of the display unit 108 is received.

ステップS29が肯定判断されるとステップS31へ進み、検索中である旨の表示204を表示部108に表示するよう各部を制御するとともに、受信した操作信号に基づいて撮像画像201の中の検索対象物が表示された領域を特定してステップS33へ進む。ステップS33において、ステップS31で特定した領域内の検索対象物の被写体像を認識してステップS35へ進む。ステップS35において、ステップS33で認識した検索対象物について、色相や模様、形状などについて特徴量情報を抽出し、RAMに保存してステップS37へ進む。ステップS37において、GPSユニット104から出力される現在位置の情報、および、RTC105から出力される現在の日時の情報を取得してステップS39へ進む。   If an affirmative determination is made in step S29, the process proceeds to step S31, where each unit is controlled to display a display 204 indicating that the search is being performed on the display unit 108, and the search target in the captured image 201 is based on the received operation signal. The area where the object is displayed is specified, and the process proceeds to step S33. In step S33, the subject image of the search target in the area specified in step S31 is recognized, and the process proceeds to step S35. In step S35, the feature amount information for the hue, pattern, shape, etc. is extracted from the search object recognized in step S33, stored in the RAM, and the process proceeds to step S37. In step S37, the current position information output from the GPS unit 104 and the current date information output from the RTC 105 are acquired, and the process proceeds to step S39.

ステップS39において、レンズ位置検出部112から出力されるズームレンズおよびフォーカスレンズの光軸方向の位置の情報を取得してステップS41へ進む。ステップS41において、検索対象物の実際の大きさを算出し、算出値をRAMに保存してステップS100の検索処理および検索結果の表示処理のサブルーチンへ進む。ステップS100のサブルーチンについては後述する。ステップS100のサブルーチンが実行されるとステップS43へ進み、検索モードから通常の撮影モードに復帰してステップS45へ進む。ステップS45において、カメラ1の不図示の電源スイッチがオフされたか否かを判断する。ステップS45が肯定判断されると本プログラムを終了する。ステップS45が否定判断されるとステップS1へ戻る。   In step S39, information on the position of the zoom lens and focus lens in the optical axis direction output from the lens position detector 112 is acquired, and the process proceeds to step S41. In step S41, the actual size of the search object is calculated, the calculated value is stored in the RAM, and the process proceeds to a subroutine of search processing and search result display processing in step S100. The subroutine of step S100 will be described later. When the subroutine of step S100 is executed, the process proceeds to step S43, returns from the search mode to the normal photographing mode, and proceeds to step S45. In step S45, it is determined whether a power switch (not shown) of the camera 1 is turned off. If a positive determination is made in step S45, the program is terminated. If a negative determination is made in step S45, the process returns to step S1.

ステップS15が否定判断されるとステップS19へ進み、ステップS11で撮像画像201と、問い合わせ表示202とを表示部108に表示させてから所定時間が経過したか否かを判断する。ステップS19が否定判断されるとステップS15へ戻る。ステップS19が肯定判断されるとステップS21へ進み、撮像画像201および問い合わせ表示202の表示を中止するよう各部を制御してステップS1へ戻る。   If a negative determination is made in step S15, the process proceeds to step S19, and it is determined whether or not a predetermined time has elapsed since the captured image 201 and the inquiry display 202 are displayed on the display unit 108 in step S11. If a negative determination is made in step S19, the process returns to step S15. If an affirmative determination is made in step S19, the process proceeds to step S21, each part is controlled to stop displaying the captured image 201 and the inquiry display 202, and the process returns to step S1.

−−−ステップS100のサブルーチン−−−
図13は、ステップS100の検索処理および検索結果の表示処理のサブルーチンを示すフローチャートである。図12のステップS41が実行されるとステップS101へ進み、図12のステップS37で取得した現在位置の情報と、内蔵フラッシュメモリ109に格納された被写体検索データの位置情報とを比較することで、被写体検索データを絞り込んでステップS103へ進む。ステップS103において、図12のステップS37で取得した現在位置の高度の情報と、内蔵フラッシュメモリ109に格納された被写体検索データの高度情報とを比較することで、被写体検索データを絞り込んでステップS105へ進む。ステップS105において、図12のステップS37で取得した日時の情報と、内蔵フラッシュメモリ109に格納された被写体検索データの時期情報とを比較することで、被写体検索データを絞り込んでステップS107へ進む。
--- Subroutine of step S100 ---
FIG. 13 is a flowchart showing a subroutine of search processing and search result display processing in step S100. When step S41 of FIG. 12 is executed, the process proceeds to step S101, where the current position information acquired in step S37 of FIG. 12 is compared with the position information of the subject search data stored in the built-in flash memory 109. The subject search data is narrowed down and the process proceeds to step S103. In step S103, by comparing the altitude information of the current position acquired in step S37 of FIG. 12 with the altitude information of the subject search data stored in the built-in flash memory 109, the subject search data is narrowed down to step S105. move on. In step S105, by comparing the date information acquired in step S37 of FIG. 12 with the time information of the subject search data stored in the built-in flash memory 109, the subject search data is narrowed down and the process proceeds to step S107.

ステップS107において、図12のステップS41で算出した検索対象物の実際の大きさの算出値と、内蔵フラッシュメモリ109に格納された被写体検索データの大きさ情報とを比較することで、被写体検索データを絞り込んでステップS109へ進む。ステップS109において、ステップS101からステップS107で絞り込んだ後の被写体検索データを参照して、RAMに保存されている検索対象物の特徴量情報で検索対象物を検索してステップS111へ進む。ステップS111において、ステップS109で検索した結果、RAMに保存されている検索対象物の特徴量情報に合致する被写体検索データが存在するか否かを判断する。   In step S107, the subject search data is compared by comparing the calculated value of the actual size of the search target calculated in step S41 of FIG. 12 with the size information of the subject search data stored in the built-in flash memory 109. And the process proceeds to step S109. In step S109, referring to the subject search data after being narrowed down in steps S101 to S107, the search target is searched with the feature amount information of the search target stored in the RAM, and the process proceeds to step S111. In step S111, as a result of the search in step S109, it is determined whether there is subject search data that matches the feature amount information of the search target stored in the RAM.

ステップS111が肯定判断されるとステップS113へ進み、合致する被写体検索データの表示205と、結果の良否を確認するための表示206とを表示部108に表示するように各部を制御してステップS115へ進む。ステップS115において、図8に示す「はい」ボタン206aが押圧操作されたことを示す操作信号を受信したか否かを判断する。ステップS115が肯定判断されるとステップS119へ進み、撮像画像201の画像データと検索結果とを関連づけるように各部を制御してステップS121へ進む。ステップS121において、ステップS113で表示させた、合致する被写体検索データの表示205、および、結果の良否を確認するための表示206の表示部108への表示を中止するように各部を制御して、図12のステップS43へ戻る。   If an affirmative determination is made in step S111, the process proceeds to step S113, and each unit is controlled to display on the display unit 108 a display 205 of matching subject search data and a display 206 for confirming whether the result is good or not, and step S115. Proceed to In step S115, it is determined whether or not an operation signal indicating that the “Yes” button 206a shown in FIG. 8 has been pressed is received. If an affirmative determination is made in step S115, the process proceeds to step S119, and each unit is controlled to associate the image data of the captured image 201 with the search result, and the process proceeds to step S121. In step S121, each unit is controlled so as to stop the display 205 of the matching subject search data displayed in step S113 and the display 206 of the display 206 for confirming the quality of the result. The process returns to step S43 in FIG.

ステップS115が否定判断されるとステップS117へ進み、図8に示す「いいえ」ボタン206bが押圧操作されたことを示す操作信号を受信したか否かを判断する。ステップS117が否定判断されるとステップS115へ戻る。ステップS117が肯定判断されるとステップ123へ進み、無線LANユニット106を介して外部のサーバ3と接続するための処理(外部接続処理)を行う。この外部接続処理は公知の処理であるので詳細な説明は省略する。ステップS123の外部接続処理が実行されるとステップS125へ進み、サーバ3との接続が確立したか否かを判断する。   If a negative determination is made in step S115, the process proceeds to step S117, and it is determined whether or not an operation signal indicating that the “NO” button 206b shown in FIG. 8 has been pressed is received. If a negative determination is made in step S117, the process returns to step S115. If an affirmative determination is made in step S117, the process proceeds to step 123, and processing for connecting to the external server 3 via the wireless LAN unit 106 (external connection processing) is performed. Since this external connection process is a known process, a detailed description thereof will be omitted. If the external connection process of step S123 is performed, it will progress to step S125 and it will be judged whether the connection with the server 3 was established.

ステップS125が肯定判断されるとステップS127へ進み、図9に示すように、検索対象物についてサーバで検索している旨を示す表示207を表示部108に表示するように各部を制御する。そして、被写体像の特徴量情報、GPSユニット104から出力される現在位置の情報、RTC105から出力される現在の日時の情報、および、検索対象物の実際の大きさの算出値を、無線LANユニット106を介してサーバ3に送信してステップS129へ進む。ステップS129において、無線LANユニット106を介してサーバ3から検索結果を受信するまで待機する。   When an affirmative determination is made in step S125, the process proceeds to step S127, and each unit is controlled to display on the display unit 108 a display 207 indicating that the search target object is being searched for as shown in FIG. Then, the feature value information of the subject image, the current position information output from the GPS unit 104, the current date and time information output from the RTC 105, and the calculated value of the actual size of the search object are obtained. The information is transmitted to the server 3 via 106, and the process proceeds to step S129. In step S129, the process waits until a search result is received from the server 3 via the wireless LAN unit 106.

ステップS129が肯定判断されるとステップS130へ進み、サーバ3との接続を終了する処理(切断処理)を行う。この切断処理は公知の処理であるので詳細な説明は省略する。ステップS130の切断処理が実行されるとステップS131へ進み、サーバ3で検索した結果、合致する被写体検索データが存在したか否かを判断する。   If an affirmative determination is made in step S129, the process proceeds to step S130, and a process (disconnection process) for terminating the connection with the server 3 is performed. Since this cutting process is a known process, a detailed description thereof will be omitted. When the cutting process of step S130 is executed, the process proceeds to step S131, and it is determined whether or not there is matching subject search data as a result of searching by the server 3.

ステップS131が肯定判断されるとステップS133へ進み、サーバ3から受信した被写体検索データの表示205と、結果の良否を確認するための表示206とを表示部108に表示するように各部を制御してステップS135へ進む。ステップS135において、図8に示す「はい」ボタン206aが押圧操作されたことを示す操作信号を受信したか否かを判断する。ステップS135が肯定判断されるとステップS139へ進み、撮像画像201の画像データと検索結果とを関連づけるように各部を制御してステップS121へ進む。   If an affirmative determination is made in step S131, the process proceeds to step S133, and each part is controlled to display the display 205 of the subject search data received from the server 3 and the display 206 for confirming the quality of the result on the display unit 108. Then, the process proceeds to step S135. In step S135, it is determined whether or not an operation signal indicating that the “Yes” button 206a shown in FIG. 8 has been pressed is received. If an affirmative determination is made in step S135, the process proceeds to step S139, and each unit is controlled to associate the image data of the captured image 201 with the search result, and the process proceeds to step S121.

ステップS135が否定判断されるとステップS137へ進み、図8に示す「いいえ」ボタン206bが押圧操作されたことを示す操作信号を受信したか否かを判断する。ステップS137が否定判断されるとステップS135へ戻る。ステップS137が肯定判断されるとステップ121へ進む。   If a negative determination is made in step S135, the process proceeds to step S137, and it is determined whether or not an operation signal indicating that the “NO” button 206b shown in FIG. 8 has been pressed is received. If a negative determination is made in step S137, the process returns to step S135. If a positive determination is made in step S137, the process proceeds to step 121.

ステップS131が否定判断されるとステップS143へ進み、合致する被写体検索データが存在しない旨を示す表示208(図10)を一定時間だけ表示部108に表示するように各部を制御して、図12のステップS43へ戻る。   If a negative determination is made in step S131, the process proceeds to step S143, and each part is controlled so that the display 208 (FIG. 10) indicating that no matching subject search data exists is displayed on the display unit 108 for a certain period of time. Return to step S43.

ステップS125が否定判断されるとステップS141へ進み、サーバ3との接続が確立できない旨を示す表示209(図11)を一定時間だけ表示部108に表示するように各部を制御して、図12のステップS43へ戻る。   If a negative determination is made in step S125, the process proceeds to step S141, and each unit is controlled so that a display 209 (FIG. 11) indicating that the connection with the server 3 cannot be established is displayed on the display unit 108 for a certain period of time. Return to step S43.

ステップS111が否定判断されるとステップS123へ進む。   If a negative determination is made in step S111, the process proceeds to step S123.

−−−サーバ3のフローチャート−−−
図14は、サーバ3における検索対象物の検索を行うプログラムの処理内容を示すフローチャートである。サーバ3の電源が投入されると、この処理を行うプログラムが起動される。ステップS501において、無線LAN基地局2を介してカメラ1からの接続要求を受信するまで待機する。ステップS501が肯定判断されるとステップS503へ進み、無線LAN基地局2を介してカメラ1と接続するための処理(外部接続処理)を行う。この外部接続処理は公知の処理であるので詳細な説明は省略する。ステップS503の外部接続処理が実行されるとステップS505へ進み、カメラ1と接続が確立したか否かを判断する。
--- Flowchart of server 3 ---
FIG. 14 is a flowchart showing the processing contents of a program for searching for a search object in the server 3. When the server 3 is powered on, a program for performing this process is activated. In step S501, the process waits until a connection request from the camera 1 is received via the wireless LAN base station 2. If an affirmative determination is made in step S501, the process proceeds to step S503, and processing for connecting to the camera 1 via the wireless LAN base station 2 (external connection processing) is performed. Since this external connection process is a known process, a detailed description thereof will be omitted. When the external connection process of step S503 is executed, the process proceeds to step S505, and it is determined whether or not a connection with the camera 1 has been established.

ステップS505が否定判断されるとリターンする。ステップS505が肯定判断されるとステップS507へ進み、カメラ1から送信される被写体像の特徴量情報や現在位置の情報など、検索に必要な各種の情報を受信するまで待機する。ステップS507が肯定判断されるとステップS509へ進み、ステップS507で受信(取得)した現在位置の情報と、データベース4に格納された被写体検索データの位置情報とを比較することで、被写体検索データを絞り込んでステップS511へ進む。ステップS511において、ステップS507で取得した現在位置の高度の情報と、データベース4に格納された被写体検索データの高度情報とを比較することで、被写体検索データを絞り込んでステップS513へ進む。ステップS513において、ステップS507で取得した日時の情報と、データベース4に格納された被写体検索データの時期情報とを比較することで、被写体検索データを絞り込んでステップS515へ進む。   If a negative determination is made in step S505, the process returns. If an affirmative determination is made in step S505, the process proceeds to step S507 and waits until various information necessary for the search, such as the feature amount information of the subject image and the current position information transmitted from the camera 1, are received. If an affirmative determination is made in step S507, the process proceeds to step S509, where the current position information received (acquired) in step S507 is compared with the position information of the subject search data stored in the database 4 to obtain subject search data. Narrow down and go to step S511. In step S511, the subject search data is narrowed down by comparing the altitude information of the current position acquired in step S507 with the altitude information of the subject search data stored in the database 4, and the process proceeds to step S513. In step S513, by comparing the date information acquired in step S507 with the time information of the subject search data stored in the database 4, the subject search data is narrowed down and the process proceeds to step S515.

ステップS515において、ステップS507で取得した検索対象物の実際の大きさの算出値と、データベース4に格納された被写体検索データの大きさ情報とを比較することで、被写体検索データを絞り込んでステップS517へ進む。ステップS517において、ステップS509からステップS515で絞り込んだ後の被写体検索データを参照して、ステップS507で取得した検索対象物の特徴量情報で検索対象物を検索してステップS519へ進む。ステップS519において、ステップS519で検索した結果を無線LAN基地局2を介してカメラ1に送信してステップS521へ進む。ステップS521において、カメラ1との接続を終了する処理(切断処理)を行う。この切断処理は公知の処理であるので詳細な説明は省略する。ステップS521の切断処理が実行されるとリターンする。   In step S515, the calculated value of the actual size of the search object acquired in step S507 is compared with the size information of the subject search data stored in the database 4, thereby narrowing down the subject search data and step S517. Proceed to In step S517, the subject search data after narrowing down in steps S509 to S515 is referred to, the search target is searched with the feature amount information of the search target acquired in step S507, and the process proceeds to step S519. In step S519, the search result in step S519 is transmitted to the camera 1 via the wireless LAN base station 2, and the process proceeds to step S521. In step S521, a process for terminating the connection with the camera 1 (disconnection process) is performed. Since this cutting process is a known process, a detailed description thereof will be omitted. When the cutting process of step S521 is executed, the process returns.

上述したカメラおよび検索システムでは、次の作用効果を奏する。
(1) カメラ1の内蔵フラッシュメモリ109に被写体検索データを格納するように構成した。そして、GPSユニット104から取得した現在位置の情報や、RTC105から取得した現在の日時の情報などを利用して被写体検索データを絞り込んだ上で、撮像して得られた画像中の検索対象物について検索するように構成した。これにより、検索対象物とは関係のない被写体検索データを検索対象から除外できるので、効率的に検索できる。
The above-described camera and search system have the following operational effects.
(1) The camera 1 is configured to store subject search data in the built-in flash memory 109 of the camera 1. Then, the subject search data is narrowed down using the current position information acquired from the GPS unit 104, the current date and time information acquired from the RTC 105, and the like in the image obtained by imaging. Configured to search. Thus, subject search data that is not related to the search target can be excluded from the search target, so that the search can be performed efficiently.

(2) 検索対象物に該当する被写体検索データがカメラ1の内蔵フラッシュメモリ109に存在しないと判断されると、外部のサーバ3に検索対象物を検索させるように構成した。これにより、コスト面などから記憶容量に制限のあるカメラ1の内蔵フラッシュメモリ109に比べて、より多くの被写体検索データを格納するデータベース4を利用して検索対象物を検索できる。したがって、より多くの被写体に対応した検索が可能となり、利便性が向上する。また、カメラ1で撮像して得られた画像中の検索対象物について、外部のサーバ3に検索対象物を検索させるように構成することで、安価で可搬性の高い検索システムを提供できる。 (2) When it is determined that subject search data corresponding to the search target does not exist in the built-in flash memory 109 of the camera 1, the external server 3 is configured to search for the search target. As a result, the search object can be searched using the database 4 storing more subject search data than the built-in flash memory 109 of the camera 1 whose storage capacity is limited due to cost and the like. Therefore, a search corresponding to more subjects can be performed, and convenience is improved. In addition, by configuring the search target in the image obtained by imaging with the camera 1 so that the external server 3 searches the search target, an inexpensive and highly portable search system can be provided.

(3) 処理ユニット103が、認識した被写体像の撮像画像201中の大きさを算出し、取得したズームレンズおよびフォーカスレンズの光軸方向の位置の情報に基づいて、検索対象物の実際の大きさを算出するように構成した。そして、算出した検索対象物の実際の大きさに基づいて、被写体検索データを絞り込むように構成した。これにより効率的に検索できるほか、検索の精度を向上できる。 (3) The processing unit 103 calculates the size of the recognized subject image in the captured image 201, and based on the acquired information on the position of the zoom lens and the focus lens in the optical axis direction, the actual size of the search target object It was configured to calculate the thickness. The subject search data is narrowed down based on the calculated actual size of the search object. As a result, the search can be performed efficiently and the search accuracy can be improved.

−−−変形例−−−
(1) 上述の説明では、特徴量情報で検索する前に、位置情報、高度情報、時期情報、大きさ情報の各項目で被写体検索データを絞り込むように構成しているが、本発明はこれに限定されない。たとえば、被写体検索データを絞り込む際に、位置情報、高度情報、時期情報、大きさ情報のうち、少なくとも1項目について絞り込むように構成してもよい。また、絞り込みを行う項目は例示であり、被写体検索データの情報の項目として上述した情報以外にも項目を設けて、当該項目について被写体検索データを絞り込むようにしてもよい。
---- Modified example ---
(1) In the above description, the object search data is narrowed down by each item of position information, altitude information, time information, and size information before searching by feature amount information. It is not limited to. For example, when narrowing down subject search data, it may be configured to narrow down at least one item among position information, altitude information, time information, and size information. Further, the items to be narrowed down are only examples, and items other than the information described above may be provided as items of subject search data information, and subject search data may be narrowed down for those items.

(2) 上述の説明では、図8に示すように、検索結果を表示する際に、花の種類を示す表示205aと、その花の画像205bを表示するように構成しているが、本発明はこれに限定されない。たとえば、花の種類を示す表示205aだけを表示するようにしても良く、検索の結果合致した花の種類についての他の項目の情報を表示するようにしてもよい。 (2) In the above description, as shown in FIG. 8, when the search result is displayed, the display 205a indicating the type of flower and the image 205b of the flower are displayed. Is not limited to this. For example, only the display 205a indicating the type of flower may be displayed, or information on other items regarding the type of flower matched as a result of the search may be displayed.

(3) 上述の説明では、撮像画像201の画像データと検索結果とを関連づけるように構成しているが、本発明はこれに限定されない。たとえば、撮像時点におけるGPSユニット104から出力された現在位置の情報やRTC105から出力された現在の日時の情報、検索対象物の実際の大きさの算出値、抽出した特徴量情報など、撮像に際して得られた各種情報について、撮像画像201の画像データと関連づけるようにしてもよい。具体的には、たとえば処理ユニット103が、これら撮像に際して得られた各種情報などを、撮像画像201の画像ファイルにおいて、たとえばExifファイルフォーマットにおけるメーカーノートに付加するように構成してもよい。 (3) In the above description, the image data of the captured image 201 and the search result are associated with each other, but the present invention is not limited to this. For example, information on the current position output from the GPS unit 104 at the time of imaging, information on the current date and time output from the RTC 105, a calculated value of the actual size of the search object, extracted feature amount information, and the like are obtained during imaging. The various pieces of information may be associated with the image data of the captured image 201. Specifically, for example, the processing unit 103 may be configured to add various types of information obtained in the imaging to the maker note in the Exif file format in the image file of the captured image 201, for example.

(4) 上述の説明では、特徴量情報で検索する前に、位置情報、高度情報、時期情報、大きさ情報の各項目で被写体検索データを絞り込むように構成しているが、本発明はこれに限定されない。たとえば花の場合には、植物園などのように植物に関する所定の施設では植物の本来の分布範囲にかかわらず各種の植物が存在し、本来の開花時期とは異なる時期に開花していることが考えられる。そこで、内蔵フラッシュメモリ109に植物園や動物園など、動植物に関する所定の施設の位置の情報を格納しておき、GPSユニット104から出力される現在位置の情報から、これらの施設(敷地)内であることが確認されると、被写体検索データの検索を際に、処理ユニット103が位置情報や高度情報、時期情報による絞り込みを行わないように構成してもよい。 (4) In the above description, the object search data is narrowed down by each item of position information, altitude information, time information, and size information before searching by feature amount information. It is not limited to. For example, in the case of flowers, there are various types of plants in certain facilities such as botanical gardens, regardless of the original distribution range of plants, and they are flowering at a time different from the original flowering time. It is done. Therefore, information on the position of a predetermined facility relating to animals and plants such as a botanical garden or a zoo is stored in the built-in flash memory 109, and the information on the current position output from the GPS unit 104 is within these facilities (site). If it is confirmed, the processing unit 103 may be configured not to narrow down by position information, altitude information, and time information when searching for subject search data.

(5) 上述の説明では、まずカメラ1側で被写体検索データの検索を行い、合致するデータがなかった場合にサーバ3側で被写体検索データの検索を行うように構成しているが、本発明はこれに限定されない。たとえば、カメラ1側だけで被写体検索データの検索を行うように構成しても良い。この場合、処理ユニット103は、カメラ1側で被写体検索データの検索を行った結果、合致する被写体検索データが存在しなくても、サーバ3側への問い合わせを行わない。すなわち、この場合には、サーバ3側での検索は必須ではなく、サーバ3やデータベース4が存在しなくてもよい。この場合であっても、検索対象物とは関係のない被写体検索データを検索対象から除外できるので、上述の説明と同様に効率的に検索できる。 (5) In the above description, the object search data is first searched on the camera 1 side, and when there is no matching data, the object search data is searched on the server 3 side. Is not limited to this. For example, the configuration may be such that subject search data is searched only on the camera 1 side. In this case, the processing unit 103 does not make an inquiry to the server 3 side even if there is no matching subject search data as a result of searching the subject search data on the camera 1 side. That is, in this case, the search on the server 3 side is not essential, and the server 3 and the database 4 may not exist. Even in this case, subject search data that is not related to the search target can be excluded from the search target, so that the search can be efficiently performed as described above.

また、サーバ3側だけで被写体検索データの検索を行うように構成してもよい。この場合、処理ユニット103は、撮像素子102で被写体像を撮像した後、上述したカメラ1側での検索処理を行わずに、サーバ3側へ問い合わせを行う。すなわち、この場合には、カメラ1側での検索は必須ではなく、内蔵フラッシュメモリ109に被写体検索データを格納しておかなくてもよい。この場合であっても、検索対象物とは関係のない被写体検索データを検索対象から除外できるので、上述の説明と同様に効率的に検索できる。   Further, the subject search data may be searched only on the server 3 side. In this case, the processing unit 103 makes an inquiry to the server 3 side without performing the above-described search process on the camera 1 side after taking a subject image with the image sensor 102. In other words, in this case, the search on the camera 1 side is not essential, and the subject search data may not be stored in the built-in flash memory 109. Even in this case, subject search data that is not related to the search target can be excluded from the search target, so that the search can be efficiently performed as described above.

また、カメラ1側で被写体検索データの検索を行い、カメラ1側で合致するデータが存在するか否かにかかわらず、さらにサーバ3側でも被写体検索データの検索を行うように構成してもよい。この場合には、カメラ1側およびサーバ3側の双方の検索結果をそれぞれ表示部108に表示することが望ましい。この場合であっても、検索対象物とは関係のない被写体検索データを検索対象から除外できるので、上述の説明と同様に効率的に検索できる。   Further, it may be configured such that the subject search data is searched on the camera 1 side and the subject search data is also searched on the server 3 side regardless of whether or not there is matching data on the camera 1 side. . In this case, it is desirable to display the search results on both the camera 1 side and the server 3 side on the display unit 108, respectively. Even in this case, subject search data that is not related to the search target can be excluded from the search target, so that the search can be efficiently performed as described above.

(6) 上述の説明では、検索対象の一例として花(植物)について例示したが、本発明はこれに限定されない。たとえば、花ではなく、葉や実から植物を検索するようにしてもよい。また、植物に限らず、動物や昆虫など、他の生物を検索対象とする場合であっても本発明を適用できる。
(7) 上述した各実施の形態および変形例は、それぞれ組み合わせてもよい。
(6) In the above description, the flower (plant) is exemplified as an example of the search target, but the present invention is not limited to this. For example, you may make it search a plant from a leaf and a fruit instead of a flower. In addition, the present invention can be applied to a case where other organisms such as animals and insects are not limited to plants.
(7) You may combine each embodiment and modification which were mentioned above, respectively.

なお、本発明は、上述した実施の形態のものに何ら限定されず、被写体像を撮像する撮像手段と、対象物を特定するためのデータであって対象物に関する地域についての情報および対象物に関する時期についての情報のうちの少なくとも1つを検索項目として備えたデータを格納するデータ格納手段と、撮像手段で被写体像を撮像する際の撮像地点の情報および撮像時期の情報のうちの少なくとも1つを取得する撮像時情報取得手段と、撮像時情報取得手段で取得した撮像地点の情報および撮像時期の情報のうちの少なくとも1つを用いて、データ格納手段に格納されたデータのうち検索に用いるデータを絞り込むデータ絞り込み手段と、データ絞り込み手段で絞り込まれたデータと、撮像手段で撮像した被写体像の画像に含まれる対象物(検索対象物)の特徴に関する情報とを照合して検索対象物を検索する検索手段と、検索手段による検索結果を表示する表示手段とを備えることを特徴とする各種構造のカメラを含むものである。   Note that the present invention is not limited to the above-described embodiment, and relates to imaging means for capturing a subject image, data for specifying a target object, information about a region related to the target object, and the target object. Data storage means for storing data having at least one of information about time as a search item, and at least one of information on an imaging point and information on imaging time when the subject image is taken by the imaging means And at least one of the information on the imaging point and the information on the imaging time acquired by the imaging information acquisition unit, and is used for searching among the data stored in the data storage unit. Data narrowing means for narrowing down data, data narrowed down by the data narrowing means, and objects included in the image of the subject image captured by the imaging means ( Search means for searching for the search object by collating the information on the characteristics of the search target), is intended to include cameras for various structures, comprising a display means for displaying a search result by the search unit.

また、本発明は、上述した実施の形態のものに何ら限定されず、被写体像を撮像する撮像手段と、撮像手段で被写体像を撮像する際の撮像地点の情報および撮像時期の情報のうちの少なくとも1つを取得する撮像時情報取得手段と、カメラの外部と通信を行う通信手段と、外部に検索対象物を検索させるために、撮像時情報取得手段で取得した撮像地点の情報および撮像時期の情報のうちの少なくとも1つと、撮像手段で撮像した被写体像の画像に含まれる検索対象物の特徴に関する情報とを通信手段を介して外部に送信させる通信制御手段と、検索対象物に関するデータを通信手段を介して外部から受信すると、受信した検索対象物に関するデータに基づいて、検索対象物についての情報を表示する表示手段とを備えることを特徴とする各種構造のカメラを含むものである。   Further, the present invention is not limited to the above-described embodiment, and includes an imaging unit that captures a subject image, and information on an imaging point and an imaging timing information when the subject image is captured by the imaging unit. Imaging time information acquisition means for acquiring at least one, communication means for communicating with the outside of the camera, and imaging point information and imaging time acquired by the imaging time information acquisition means in order to search the search target outside Communication control means for transmitting to the outside via communication means at least one of the information and information relating to the characteristics of the search object included in the image of the subject image captured by the imaging means, and data relating to the search object Display means for displaying information about the search object based on the received data related to the search object when received from outside via the communication means It is intended to include the camera structure.

さらに、本発明は、上述した実施の形態のものに何ら限定されず、上記のカメラと、検索対象物を検索するサーバと、対象物を特定するためのデータであって対象物に関する地域についての情報および対象物に関する時期についての情報のうちの少なくとも1つを検索項目として備えたデータを格納するデータ格納装置とを備え、サーバは、カメラから送信された、撮像時情報取得手段で取得した撮像地点の情報および撮像時期の情報のうちの少なくとも1つと、撮像手段で撮像した被写体像の画像に含まれる検索対象物の特徴に関する情報とを受信すると、受信した情報と、データ格納装置に格納されたデータとに基づいて検索対象物を検索し、検索結果をカメラに送信することを特徴とする各種構造の検索システムを含むものである。   Furthermore, the present invention is not limited to the above-described embodiment, and the above-described camera, a server that searches for a search target, data for specifying the target, and a region related to the target A data storage device that stores data including at least one of information and time information related to the target object as a search item, and the server captures the image acquired by the imaging information acquisition means transmitted from the camera When at least one of the information on the point and the information on the imaging time and the information on the characteristics of the search object included in the image of the subject image captured by the imaging unit are received, the received information is stored in the data storage device. It includes a search system with various structures characterized in that a search object is searched based on the data and the search result is transmitted to the camera.

本実施の形態の検索システムの全体構成を示す図である。It is a figure which shows the whole structure of the search system of this Embodiment. 本実施の形態のカメラの全体構成を示す図である。It is a figure which shows the whole structure of the camera of this Embodiment. 被写体検索データの一例として、花に関する被写体検索データの構成を示す図である。It is a figure which shows the structure of the subject search data regarding a flower as an example of subject search data. 表示部108の表示例を示す図である。6 is a diagram illustrating a display example of the display unit 108. FIG. 表示部108の表示例を示す図である。6 is a diagram illustrating a display example of the display unit 108. FIG. 検索対象物が表示されている領域を指示する例を示す図である。It is a figure which shows the example which instruct | indicates the area | region where the search target object is displayed. 表示部108の表示例を示す図である。6 is a diagram illustrating a display example of the display unit 108. FIG. 表示部108の表示例を示す図である。6 is a diagram illustrating a display example of the display unit 108. FIG. 表示部108の表示例を示す図である。6 is a diagram illustrating a display example of the display unit 108. FIG. 表示部108の表示例を示す図である。6 is a diagram illustrating a display example of the display unit 108. FIG. 表示部108の表示例を示す図である。6 is a diagram illustrating a display example of the display unit 108. FIG. 撮影後に検索対象物の検索を行うプログラムの処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the program which searches a search target object after imaging | photography. 図12のステップS100の検索処理および検索結果の表示処理のサブルーチンを示すフローチャートである。It is a flowchart which shows the subroutine of the search process of step S100 of FIG. 12, and the display process of a search result. サーバ3における検索対象物の検索を行うプログラムの処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the program which searches the search target object in the server.

符号の説明Explanation of symbols

1 カメラ 3 サーバ
4 データベース 101 レンズユニット
102 撮像素子 103 処理ユニット
104 GPSユニット 105 リアルタイムクロック(RTC)
106 無線LANユニット 108 表示部
109 内蔵フラッシュメモリ 110 操作スイッチ
111 レンズ駆動部 112 レンズ位置検出部
DESCRIPTION OF SYMBOLS 1 Camera 3 Server 4 Database 101 Lens unit 102 Image pick-up element 103 Processing unit 104 GPS unit 105 Real-time clock (RTC)
106 Wireless LAN unit 108 Display unit 109 Built-in flash memory 110 Operation switch 111 Lens drive unit 112 Lens position detection unit

Claims (5)

被写体像を撮像する撮像手段と、
対象物を特定するためのデータであって前記対象物に関する地域についての情報および前記対象物に関する時期についての情報のうちの少なくとも1つを検索項目として備えたデータを格納するデータ格納手段と、
前記撮像手段で被写体像を撮像する際の撮像地点の情報および撮像時期の情報のうちの少なくとも1つを取得する撮像時情報取得手段と、
前記撮像時情報取得手段で取得した前記撮像地点の情報および前記撮像時期の情報のうちの少なくとも1つを用いて、前記データ格納手段に格納された前記データのうち検索に用いるデータを絞り込むデータ絞り込み手段と、
前記データ絞り込み手段で絞り込まれた前記データと、前記撮像手段で撮像した被写体像の画像に含まれる対象物(検索対象物)の特徴に関する情報とを照合して前記検索対象物を検索する検索手段と、
前記検索手段による検索結果を表示する表示手段とを備えることを特徴とするカメラ。
Imaging means for capturing a subject image;
Data storage means for storing data for specifying an object, the data including at least one of information about a region about the object and information about a time about the object as a search item;
An imaging time information acquisition unit for acquiring at least one of information on an imaging point and information on an imaging time when the subject image is captured by the imaging unit;
Data refinement for narrowing down the data used for the search from among the data stored in the data storage means using at least one of the information on the imaging point and the information on the imaging time acquired by the information acquisition means at the time of imaging Means,
Retrieval means for retrieving the retrieval object by collating the data narrowed down by the data narrowing means and information relating to the characteristics of the object (retrieval object) included in the image of the subject image captured by the imaging means. When,
A camera comprising: display means for displaying a search result obtained by the search means.
請求項1に記載のカメラにおいて、
前記カメラの外部と通信を行う通信手段と、
前記検索手段で前記検索対象物を検索した結果、前記検索対象物に該当する前記データが前記データ格納手段に格納されていない場合には、外部に前記検索対象物を検索させるために前記検索対象物の特徴に関する情報を前記通信手段を介して外部に送信させる通信制御手段をさらに備え、
前記表示手段は、前記検索対象物に関するデータを前記通信手段を介して外部から受信すると、受信した前記検索対象物に関するデータに基づいて、前記検索対象物についての情報を表示することを特徴とするカメラ。
The camera of claim 1,
Communication means for communicating with the outside of the camera;
As a result of searching the search object by the search means, if the data corresponding to the search object is not stored in the data storage means, the search object is externally searched for the search object. Further comprising communication control means for transmitting information on the characteristics of the object to the outside through the communication means,
The display means displays information on the search object based on the received data on the search object when data related to the search object is received from the outside via the communication means. camera.
請求項1または請求項2に記載のカメラにおいて、
前記検索対象物が前記撮像手段で撮像した被写体像の画像に占める割合を算出する割合算出手段と、
前記撮像手段で被写体像を撮像する際の撮影レンズの焦点距離の情報を取得する焦点距離情報取得手段と、
前記割合算出手段で算出した前記割合と、前記焦点距離情報取得手段で取得した前記焦点距離の情報とに基づいて、前記検索対象物の大きさを算出する大きさ算出手段をさらに備え、
前記データは、対象物に関する大きさについての情報をさらに検索項目として備えており、
前記データ絞り込み手段は、前記大きさ算出手段で算出した前記検索対象物の大きさに基づいて、前記データ格納手段に格納された前記データを絞り込むことを特徴とするカメラ。
The camera according to claim 1 or 2,
A ratio calculating means for calculating the ratio of the search object to the image of the subject image captured by the imaging means;
Focal length information acquisition means for acquiring information on the focal length of the taking lens when the subject image is picked up by the imaging means;
Based on the ratio calculated by the ratio calculating unit and the focal length information acquired by the focal length information acquiring unit, further comprising a size calculating unit that calculates the size of the search object,
The data further includes information about the size of the object as a search item,
The data narrowing means narrows down the data stored in the data storage means based on the size of the search object calculated by the size calculating means.
被写体像を撮像する撮像手段と、
前記撮像手段で被写体像を撮像する際の撮像地点の情報および撮像時期の情報のうちの少なくとも1つを取得する撮像時情報取得手段と、
前記カメラの外部と通信を行う通信手段と、
外部に前記検索対象物を検索させるために、前記撮像時情報取得手段で取得した前記撮像地点の情報および前記撮像時期の情報のうちの少なくとも1つと、前記撮像手段で撮像した被写体像の画像に含まれる検索対象物の特徴に関する情報とを前記通信手段を介して外部に送信させる通信制御手段と、
前記検索対象物に関するデータを前記通信手段を介して外部から受信すると、受信した前記検索対象物に関するデータに基づいて、前記検索対象物についての情報を表示する表示手段とを備えることを特徴とするカメラ。
Imaging means for capturing a subject image;
An imaging time information acquisition unit for acquiring at least one of information on an imaging point and information on an imaging time when the subject image is captured by the imaging unit;
Communication means for communicating with the outside of the camera;
In order to search for the search object to the outside, at least one of the information on the imaging point and the information on the imaging timing acquired by the imaging information acquisition unit, and an image of the subject image captured by the imaging unit Communication control means for transmitting information related to the characteristics of the search object included to the outside via the communication means;
And display means for displaying information about the search object based on the received data related to the search object when data related to the search object is received from the outside via the communication means. camera.
請求項4に記載のカメラと、
前記検索対象物を検索するサーバと、
前記対象物を特定するためのデータであって対象物に関する地域についての情報および前記対象物に関する時期についての情報のうちの少なくとも1つを検索項目として備えたデータを格納するデータ格納装置とを備え、
前記サーバは、前記カメラから送信された、前記撮像時情報取得手段で取得した前記撮像地点の情報および前記撮像時期の情報のうちの少なくとも1つと、前記撮像手段で撮像した被写体像の画像に含まれる検索対象物の特徴に関する情報とを受信すると、受信した情報と、前記データ格納装置に格納された前記データとに基づいて前記検索対象物を検索し、検索結果を前記カメラに送信することを特徴とする検索システム。
A camera according to claim 4;
A server for searching for the search object;
A data storage device for storing data that is data for specifying the object and includes at least one of information about a region related to the object and information about a time related to the object as a search item; ,
The server includes at least one of the imaging point information and the imaging timing information acquired by the imaging time information acquisition unit and the image of the subject image captured by the imaging unit, transmitted from the camera. Receiving information related to the characteristics of the search object to be searched, searching the search object based on the received information and the data stored in the data storage device, and transmitting a search result to the camera. Feature search system.
JP2008208031A 2008-08-12 2008-08-12 Camera and retrieval system Pending JP2010044580A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008208031A JP2010044580A (en) 2008-08-12 2008-08-12 Camera and retrieval system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008208031A JP2010044580A (en) 2008-08-12 2008-08-12 Camera and retrieval system

Publications (1)

Publication Number Publication Date
JP2010044580A true JP2010044580A (en) 2010-02-25

Family

ID=42015915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008208031A Pending JP2010044580A (en) 2008-08-12 2008-08-12 Camera and retrieval system

Country Status (1)

Country Link
JP (1) JP2010044580A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012009923A (en) * 2010-06-22 2012-01-12 Nippon Telegr & Teleph Corp <Ntt> Landscape image synthesis device, landscape image synthesis method and landscape image synthesis program
JP2014010722A (en) * 2012-06-29 2014-01-20 Ricoh Co Ltd Retrieval device, retrieval method and program
JP2014132748A (en) * 2012-12-05 2014-07-17 Canon Inc Reproduction control device, reproduction control method, and storage medium
JP2014178996A (en) * 2013-03-15 2014-09-25 Olympus Imaging Corp Information apparatus
KR20160068225A (en) * 2014-12-05 2016-06-15 대한민국(산림청 국립산림과학원장) Bird's nest
US9690378B2 (en) 2013-01-30 2017-06-27 Olympus Corporation Operation apparatus
JP2018191311A (en) * 2018-07-11 2018-11-29 オリンパス株式会社 Imaging apparatus, communication system, and imaging method
JP2020119177A (en) * 2019-01-23 2020-08-06 Necプラットフォームズ株式会社 Wearable search system, search method, and search program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012009923A (en) * 2010-06-22 2012-01-12 Nippon Telegr & Teleph Corp <Ntt> Landscape image synthesis device, landscape image synthesis method and landscape image synthesis program
JP2014010722A (en) * 2012-06-29 2014-01-20 Ricoh Co Ltd Retrieval device, retrieval method and program
JP2014132748A (en) * 2012-12-05 2014-07-17 Canon Inc Reproduction control device, reproduction control method, and storage medium
US9690378B2 (en) 2013-01-30 2017-06-27 Olympus Corporation Operation apparatus
JP2014178996A (en) * 2013-03-15 2014-09-25 Olympus Imaging Corp Information apparatus
KR20160068225A (en) * 2014-12-05 2016-06-15 대한민국(산림청 국립산림과학원장) Bird's nest
KR101698315B1 (en) * 2014-12-05 2017-01-20 대한민국 Bird's nest
JP2018191311A (en) * 2018-07-11 2018-11-29 オリンパス株式会社 Imaging apparatus, communication system, and imaging method
JP2020119177A (en) * 2019-01-23 2020-08-06 Necプラットフォームズ株式会社 Wearable search system, search method, and search program

Similar Documents

Publication Publication Date Title
JP2010044580A (en) Camera and retrieval system
US9007464B2 (en) Photographing apparatus, photographing system, photographing method, and program stored in non-transitory medium in photographing apparatus
JP4366601B2 (en) Time shift image distribution system, time shift image distribution method, time shift image request device, and image server
JP3833486B2 (en) Imaging device
CN103369234B (en) server, client terminal and system
WO2016058468A1 (en) Mobile terminal, server, shooting method and computer storage medium
JP5194650B2 (en) Electronic camera
GB2428927A (en) Accurate positioning of a time lapse camera
JP6231387B2 (en) Server, client terminal, system, and recording medium
CN105917639A (en) Location-tag camera focusing systems
JP2002175315A (en) Image annotation server, method for image annotation service, image collation device, electronic camera, telephoto optical equipment, and recording medium
WO2015159775A1 (en) Image processing apparatus, communication system, communication method, and image-capturing device
US9736424B2 (en) Image capturing apparatus and control method therefor
JP2003333498A (en) Device and system for photographing conditions data delivery and digital camera
JP4870503B2 (en) Camera and blog management system
JP2013021473A (en) Information processing device, information acquisition method, and computer program
JP5428821B2 (en) Analysis device, imaging device, server device, analysis method, program, and analysis system
US10841453B2 (en) Image file creation apparatus, image file creation method, recording medium storing image file creation program, and content creation system
JP2013126012A (en) Photographic system, photographic device, and information management device
JP6168926B2 (en) Information processing apparatus, display system, and control method
JP2008154163A (en) Portable electronic picture book
JP5687995B2 (en) Subject search device, subject search method, subject search information providing program, and subject search program
JP5885480B2 (en) Information processing apparatus, control method for information processing apparatus, and program
JP2007179389A (en) Photographing device
JP2021182659A (en) Imaging apparatus and imaging system