Nothing Special   »   [go: up one dir, main page]

JP5369881B2 - Image classification apparatus, image classification method and program thereof - Google Patents

Image classification apparatus, image classification method and program thereof Download PDF

Info

Publication number
JP5369881B2
JP5369881B2 JP2009116804A JP2009116804A JP5369881B2 JP 5369881 B2 JP5369881 B2 JP 5369881B2 JP 2009116804 A JP2009116804 A JP 2009116804A JP 2009116804 A JP2009116804 A JP 2009116804A JP 5369881 B2 JP5369881 B2 JP 5369881B2
Authority
JP
Japan
Prior art keywords
shooting
image
time
cpu
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009116804A
Other languages
Japanese (ja)
Other versions
JP2010268141A5 (en
JP2010268141A (en
Inventor
賢一 水上
史隆 川手
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009116804A priority Critical patent/JP5369881B2/en
Publication of JP2010268141A publication Critical patent/JP2010268141A/en
Publication of JP2010268141A5 publication Critical patent/JP2010268141A5/en
Application granted granted Critical
Publication of JP5369881B2 publication Critical patent/JP5369881B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve the retrieval performance of an image much better than in the conventional manner. <P>SOLUTION: Recorded images are classified on the basis of the depth of field of a photographing time. By doing this, each image can be classified, for example, into an image that is in focus over a wide range from this side to the depth, such as a scenery image or an image that is in focus only on a person or an object at rest, such as a portrait. Thus, it is easier to find a desired image than when images are classified on the basis of photographing date and time as in the conventional manner. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は、画像分類装置、画像分類方法及びそのプログラムに関し、例えば、デジタルスチルカメラに適用して好適なものである。 The present invention relates to an image classification device, an image classification method, and a program thereof, and is suitable for application to, for example, a digital still camera.

デジタルスチルカメラ(これをDSCとも呼ぶ)などの撮像装置は、メモリカードなどの記録媒体に画像を記録するようになっている。近年、この記録媒体の大容量化により、DSCは、例えば1枚のメモリカードに数百〜数千の画像を記録できるようになった。   An imaging apparatus such as a digital still camera (also referred to as DSC) records an image on a recording medium such as a memory card. In recent years, due to the increase in capacity of this recording medium, DSC can record hundreds to thousands of images on, for example, one memory card.

ところが、このように大量の画像を記録できるようになると、個々の画像の検索が困難になってしまう。そこで、従来のDSCは、画像とは別に、画像を統括的に管理する為のデータベースを保持するようになっている。   However, when a large amount of images can be recorded in this way, it becomes difficult to search for individual images. Therefore, the conventional DSC holds a database for comprehensively managing images separately from images.

このデータベースには、例えば、記録媒体に記録されている各画像の記録日時(つまり撮影日時)を示す日時情報が登録されている。このようなデータベースを利用することで、DSCは、例えば、ユーザに指定された日時に撮影した画像を検索して表示することなどができるようになっている。   In this database, for example, date and time information indicating the recording date and time (that is, the shooting date and time) of each image recorded on the recording medium is registered. By using such a database, the DSC can search for and display images taken at the date and time designated by the user, for example.

さらに、各画像の日時情報に基づいて、例えば、撮影日時が近い画像を同一グループにするようにして、画像を自動的に分類するDSCも提案されている(例えば特許文献1参照)。   Furthermore, based on the date / time information of each image, for example, a DSC that automatically classifies images by grouping images with similar shooting dates and times into the same group has been proposed (see, for example, Patent Document 1).

特開2009−49863公報JP 2009-49863 A

ところで、上述したように、撮影日時に基づいて画像を分類できるようになっていても、そもそも何時画像を撮影したのか覚えていない、もしくは確認しなかったユーザにとっては、所望の画像を容易に見付けることは難しい。   By the way, as described above, even if the image can be classified based on the shooting date and time, it is easy for the user who does not remember or confirm the time when the image was originally taken to easily find the desired image. It ’s difficult.

一方で、撮影日時を気にする気にしないに関わらず、ユーザは、どのような画像を撮影するのか、また撮影したのかについては確認するはずである。ゆえに、ユーザにとっては、何時撮影したのかよりも、どのような画像を撮影したのかという観点から分類した方が、所望の画像を見付け出し易いと考えられる。   On the other hand, regardless of whether or not the shooting date and time is concerned, the user should confirm what kind of image is taken and whether it is taken. Therefore, it is considered that it is easier for the user to find a desired image by classifying from the viewpoint of what kind of image was taken rather than when it was taken.

本発明は以上の点を考慮してなされたもので、従来と比して一段と画像の検索性を向上させた画像分類装置、画像分類方法及びそのプログラムを提案しようとするものである。   The present invention has been made in consideration of the above points, and an object of the present invention is to propose an image classification apparatus, an image classification method, and a program therefor, which further improve the searchability of an image as compared with the prior art.

かかる課題を解決するため本発明の画像分類装置においては、撮影時における画像の被写界深度と、画像から人物の顔が認識できたかを示す顔認識情報及び撮影時の位置を取得できたかを示す位置取得可否情報のうち少なくとも一方とを取得し、取得した被写界深度と、顔認識情報及び位置取得可否情報のうち少なくとも一方とに基づいて、画像の撮影状況を判別し、さらに撮影日時を取得し、画像と、取得した撮影日時と、判別した画像の撮影状況とを関連付け、画像を、画像に関連付けられた撮影日時に基づいてグループ化し、グループごとに、グループ内の画像に関連付けられた撮影状況のうち、最も信頼度が高い撮影状況を特定して、これをグループ内の画像で共通の撮影状況となるように、グループ内の画像の撮影状況を再判別し、画像を、再判別した撮影状況によって分類するように制御する制御部を設けるようにした。 In order to solve such a problem, in the image classification device of the present invention, it is determined whether the depth of field of an image at the time of shooting, face recognition information indicating whether a human face can be recognized from the image, and the position at the time of shooting can be acquired. At least one of the acquired position acquisition availability information is determined, and the imaging status of the image is determined based on the acquired depth of field and at least one of the face recognition information and the position acquisition availability information, and further the shooting date and time The image, the acquired shooting date and time, and the shooting status of the determined image are associated, the images are grouped based on the shooting date and time associated with the image, and each group is associated with an image in the group. The shooting situation with the highest reliability is identified, and the shooting situation of the images in the group is re-determined so that this is the same shooting situation for the images in the group. Images were as a control unit for controlling to classify by re-discriminated shooting conditions provided.

こうすることで、本発明の画像分類装置は、各画像がどのような撮影状況で撮影された画像であるのかを判別して、この撮影状況によって各画像を分類することができる。これにより、撮影日時で画像を分類する場合と比して、所望の画像を見付け出し易くすることができる。 By doing so, the image classification device of the present invention can determine in which shooting situation each image was taken and classify each image according to this shooting situation . This makes it easier to find a desired image as compared with the case of classifying images by shooting date and time.

本発明によれば、撮影日時で画像を分類する場合と比して、所望の画像を見付け出し易くすることができ、かくして、画像の検索性を向上させた画像分類装置、画像分類方法及びそのプログラムを実現できる。
According to the present invention, it is possible to easily find a desired image as compared with the case of classifying an image by shooting date and time, and thus an image classification apparatus, an image classification method, and an image classification method thereof that improve the searchability of an image. A program can be realized.

実施の形態の概要となる撮像装置の構成を示す略線図である。It is a basic diagram which shows the structure of the imaging device used as the outline | summary of embodiment. DSC(デジタルスチルカメラ)のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of DSC (digital still camera). 属性情報の構成を示す略線図である。It is a basic diagram which shows the structure of attribute information. 属性情報登録処理手順を示すフローチャートである。It is a flowchart which shows an attribute information registration process procedure. 撮影シーン判別処理手順を示すフローチャートである。It is a flowchart which shows a photography scene discrimination | determination processing procedure. 撮影状況判別処理手順を示すフローチャートである。It is a flowchart which shows a photography condition discrimination | determination processing procedure. 撮影状況再判別処理手順を示すフローチャートである。It is a flowchart which shows a photographing condition re-discrimination processing procedure. 他の実施の形態における撮影パターンに基づく撮影シーンの判別の説明に供する表である。It is a table | surface with which it uses for description of the discrimination | determination of the imaging | photography scene based on the imaging | photography pattern in other embodiment. 他の実施の形態における撮影パターンに基づく撮影状況の判別の説明に供する表である。It is a table | surface provided with description of discrimination | determination of the imaging condition based on the imaging pattern in other embodiment. 他の実施の形態における撮影状況判別処理手順を示すフローチャートである。It is a flowchart which shows the imaging | photography condition discrimination | determination processing procedure in other embodiment.

以下、発明を実施するための最良の形態(以下実施の形態とする)について説明する。尚、説明は以下の順序で行う。
1.実施の形態
2.他の実施の形態
Hereinafter, the best mode for carrying out the invention (hereinafter referred to as an embodiment) will be described. The description will be given in the following order.
1. Embodiment 2. FIG. Other embodiments

<1.実施の形態>
[1−1.実施の形態の概要]
まず、本実施の形態の概要を説明する。因みに、この概要を説明した後、本実施の形態の具体例の説明に移る。
<1. Embodiment>
[1-1. Outline of Embodiment]
First, an outline of the present embodiment will be described. Incidentally, after describing this outline, the description moves to a specific example of the present embodiment.

図1において1は、撮像装置を示す。この撮像装置1は、被写界深度を変更可能な撮像部2を有している。またこの撮像装置1は、撮影時の被写界深度を取得する取得部3を有している。さらにこの撮像装置1は、撮像部2で撮像した画像を所定の記録媒体4に記録する制御部5を有している。さらにこの撮像装置1は、記録媒体4に記録した画像を、取得部3により取得された画像の撮影時の被写界深度に基づいて分類する分類部6とを有している。   In FIG. 1, reference numeral 1 denotes an imaging apparatus. The imaging device 1 includes an imaging unit 2 that can change the depth of field. In addition, the imaging device 1 includes an acquisition unit 3 that acquires the depth of field at the time of shooting. The imaging apparatus 1 further includes a control unit 5 that records an image captured by the imaging unit 2 on a predetermined recording medium 4. Furthermore, the imaging apparatus 1 includes a classification unit 6 that classifies the image recorded on the recording medium 4 based on the depth of field at the time of capturing the image acquired by the acquisition unit 3.

このような構成により、撮像装置1は、各画像を、例えば、風景画像のように手前から奥までの広範囲にピントを合わせた画像か、ポートレートのように人物や静物にだけピントを合わせた画像かに分類することができる。   With such a configuration, the imaging apparatus 1 focuses each image on, for example, an image obtained by focusing a wide range from the front to the back, such as a landscape image, or only a person or a still life, such as a portrait. It can be classified into images.

かくして、撮像装置1は、撮影日時で画像を分類する場合と比して、所望の画像を見付け出し易くすることができる。   Thus, the imaging apparatus 1 can easily find a desired image as compared with the case of classifying images by shooting date and time.

このような構成でなる撮像装置の具体例について、以下、詳しく説明する。   A specific example of the imaging apparatus having such a configuration will be described in detail below.

[1−2.DSC(デジタルスチルカメラ)のハードウェア構成]
次に、実施の形態の具体例となるDSC(デジタルスチルカメラ)のハードウェア構成について説明する。
[1-2. DSC (Digital Still Camera) Hardware Configuration]
Next, a hardware configuration of a DSC (digital still camera) as a specific example of the embodiment will be described.

図2に示すように、DSC100は、CPU101が、プログラムROM102に書き込まれたプログラムをRAM103にロードして実行することで各種処理を実行すると共に、タッチパネル104や操作部105からの入力信号に応じて各部を制御する。因みに、CPUは、Central Processing Unitの略である。また、ROMは、Read Only Memoryの略、RAMは、Random Access Memoryの略である。   As shown in FIG. 2, in the DSC 100, the CPU 101 loads the program written in the program ROM 102 into the RAM 103 and executes it, and executes various processes, and in response to input signals from the touch panel 104 and the operation unit 105. Control each part. Incidentally, CPU is an abbreviation for Central Processing Unit. ROM is an abbreviation for Read Only Memory, and RAM is an abbreviation for Random Access Memory.

タッチパネル104は、液晶パネル106と共にタッチスクリーン107を構成するデバイスであり、タッチパネル104上の任意の位置が指でタッチされると、タッチされた位置を液晶パネル106に表示させる画面の座標として検出する。そしてタッチパネル104は、タッチされた位置の座標に応じた入力信号をCPU101に送る。   The touch panel 104 is a device that forms a touch screen 107 together with the liquid crystal panel 106. When an arbitrary position on the touch panel 104 is touched with a finger, the touched position is detected as a screen coordinate displayed on the liquid crystal panel 106. . The touch panel 104 sends an input signal corresponding to the coordinates of the touched position to the CPU 101.

操作部105は、ズームレバー(TELE/WIDE)、シャッタボタン、電源ボタン、モード切替ボタンなどからなるデバイスであり、これらの押下操作に応じた入力信号をCPU101に送る。   The operation unit 105 is a device including a zoom lever (TELE / WIDE), a shutter button, a power button, a mode switching button, and the like, and sends an input signal corresponding to these pressing operations to the CPU 101.

CPU101は、操作部105を介して、動作モードを撮影モードに切り替えるよう指示されると、動作モードを撮影モードに切り替える。   When the CPU 101 is instructed to switch the operation mode to the shooting mode via the operation unit 105, the CPU 101 switches the operation mode to the shooting mode.

撮影モードに移行すると、CPU101は、モータドライバ108を制御して、アクチュエータ109を駆動させることで、レンズ部110を、DSC100の筐体から露出させる。またCPU101は、アクチュエータ109を駆動させることで、レンズ部110の絞りを調整したり、フォーカスレンズを移動させたりする。   When the photographing mode is entered, the CPU 101 controls the motor driver 108 and drives the actuator 109 to expose the lens unit 110 from the casing of the DSC 100. Further, the CPU 101 drives the actuator 109 to adjust the diaphragm of the lens unit 110 and move the focus lens.

またこのとき、CPU101は、タイミングジェネレータ111を制御して、タイミング信号をCCD(Charge Coupled Device)などでなる撮像素子112に供給する。撮像素子112は、このタイミング信号に基づいて動作することにより、レンズ部110を介して取り込まれた被写体からの光を電気信号に変換(すなわち光電変換)して、これをアナログ信号処理部113に供給する。   At this time, the CPU 101 controls the timing generator 111 to supply a timing signal to the image sensor 112 formed of a CCD (Charge Coupled Device) or the like. The image sensor 112 operates based on the timing signal to convert light from the subject captured via the lens unit 110 into an electrical signal (that is, photoelectric conversion), and this is converted to the analog signal processing unit 113. Supply.

アナログ信号処理部113は、CPU101の制御のもと、この電気信号に対してアナログ信号処理(増幅等)を施すことでアナログ画像信号を得、これをアナログデジタル変換部(これをA/D変換部とも呼ぶ)114に供給する。   Under the control of the CPU 101, the analog signal processing unit 113 performs analog signal processing (amplification) on the electrical signal to obtain an analog image signal, which is converted into an analog-digital conversion unit (which is converted into an A / D converter) Part 114).

A/D変換部114は、CPU101の制御のもと、送られてきたアナログ画像信号をアナログデジタル変換(A/D変換)することでデジタル画像信号を得、これをデジタル信号処理部115に供給する。   The A / D conversion unit 114 obtains a digital image signal by performing analog-digital conversion (A / D conversion) on the sent analog image signal under the control of the CPU 101, and supplies this to the digital signal processing unit 115. To do.

デジタル信号処理部115は、CPU101の制御のもと、送られてきたデジタル画像信号に対してデジタル信号処理(ノイズ除去等)を施した後、液晶パネル106に供給する。この結果、液晶パネル106には、被写体の画像がスルー画像として表示される。このようにしてDSC100は、撮影者に被写体を確認させる。   The digital signal processing unit 115 performs digital signal processing (noise removal or the like) on the transmitted digital image signal under the control of the CPU 101 and supplies the digital image signal to the liquid crystal panel 106. As a result, the image of the subject is displayed on the liquid crystal panel 106 as a through image. In this way, the DSC 100 causes the photographer to confirm the subject.

またこのとき、デジタル信号処理部115は、CPU101の制御のもと、送られてきたデジタル画像信号を解析して、この画像から人物の顔を認識する処理(これを顔認識処理とも呼ぶ)を行う。そしてデジタル信号処理部115は、画像から人物の顔を認識できたか否か、顔と認識されたのは画像のどの部分か、顔と認識された部分にピントがあっているか否かなどを、顔認識処理の結果として、CPU101に返す。   At this time, the digital signal processing unit 115 analyzes the received digital image signal under the control of the CPU 101 and recognizes a person's face from this image (this is also called face recognition processing). Do. Then, the digital signal processing unit 115 determines whether or not the face of the person can be recognized from the image, which part of the image is recognized as the face, whether or not the part recognized as the face is in focus, etc. The result is returned to the CPU 101 as a result of the face recognition process.

さらにこのとき、デジタル信号処理部115は、CPU101の制御のもと、アイコンや、顔と認識された部分を示す枠(顔枠とも呼ぶ)などのグラフィックス信号を生成して、これをデジタル画像信号に重畳する。この結果、液晶パネル106には、スルー画像と共に、アイコンや顔枠などが表示される。   Further, at this time, the digital signal processing unit 115 generates a graphics signal such as an icon or a frame indicating a portion recognized as a face (also referred to as a face frame) under the control of the CPU 101, and converts the generated digital signal into a digital image. Superimpose on the signal. As a result, an icon, a face frame, and the like are displayed on the liquid crystal panel 106 together with the through image.

ここで、操作部105のシャッタボタンが押下されたとする。するとCPU101は、シャッタボタンの押下に応じて操作部105から送られてくる入力信号により、シャッタボタンが押下されたと認識して、画像を記録する。   Here, it is assumed that the shutter button of the operation unit 105 is pressed. Then, the CPU 101 recognizes that the shutter button has been pressed by an input signal sent from the operation unit 105 in response to the pressing of the shutter button, and records an image.

すなわちデジタル信号処理部115は、CPU101の制御のもと、A/D変換部114から送られてきたデジタル画像信号を、例えば、JPEGなどの圧縮伸長フォーマットで圧縮することで、圧縮画像データを生成する。因みに、JPEGとは、Joint Photographic Experts Groupの略である。   That is, the digital signal processing unit 115 generates compressed image data by compressing the digital image signal sent from the A / D conversion unit 114 in a compression / decompression format such as JPEG under the control of the CPU 101. To do. Incidentally, JPEG is an abbreviation for Joint Photographic Experts Group.

CPU101は、デジタル信号処理部115で生成された圧縮画像データに、ファイルヘッダなどを付与することで画像ファイルを生成する。   The CPU 101 generates an image file by adding a file header or the like to the compressed image data generated by the digital signal processing unit 115.

そしてCPU101は、この画像ファイルを記録部116に記録する。このようにしてCPU101は、画像を記録する。   Then, the CPU 101 records this image file in the recording unit 116. In this way, the CPU 101 records an image.

因みに、記録部116は、例えば数ギガバイト〜数十ギガバイト程度の不揮発性メモリであり、DSC100に予め内蔵された記録媒体であってもよいし、メモリカードのようにDSC100に着脱可能な記録媒体であってもよい。   Incidentally, the recording unit 116 is a non-volatile memory of about several gigabytes to several tens of gigabytes, for example, and may be a recording medium built in the DSC 100 in advance, or a recording medium detachable from the DSC 100 such as a memory card. There may be.

またDSC100は、記録部116とは別に、フラッシュメモリ117を有している。CPU101は、このフラッシュメモリ117に、ユーザにより設定された各種情報など、電源オフ後も保持する必要がある情報を記憶させるようになっている。   The DSC 100 has a flash memory 117 separately from the recording unit 116. The CPU 101 stores information that needs to be retained even after the power is turned off, such as various information set by the user, in the flash memory 117.

またCPU101は、記録した画像を管理する為のデータベースを記録部116に記憶させて保持するようにもなっている。このデータベースには、図3に示すように、画像ごとに、その属性情報が登録されるようになっている。   Further, the CPU 101 stores a database for managing the recorded image in the recording unit 116 and holds it. In this database, as shown in FIG. 3, the attribute information is registered for each image.

具体的に、この属性情報には、画像のファイル名が含まれる。つまり、このファイル名により、画像と属性情報とが1対1で対応付けられている。またこの属性情報には、画像を撮影したときの日時(撮影日時)が含まれる。   Specifically, this attribute information includes the file name of the image. That is, by this file name, the image and the attribute information are associated with each other on a one-to-one basis. The attribute information includes the date and time when the image was taken (shooting date and time).

さらにこの属性情報には、撮影時の被写界深度が含まれる。さらにこの属性情報には、画像から人物の顔が認識されたか否かと、認識された顔の数と、認識された顔にピントが合っているか否かとを示す顔認識情報が含まれる。   Further, this attribute information includes the depth of field at the time of shooting. Further, the attribute information includes face recognition information indicating whether or not a human face has been recognized from the image, the number of recognized faces, and whether or not the recognized faces are in focus.

さらにこの属性情報には、撮影時にGPS(Global Positioning System)情報が受信できたか否かを示すGPS可否情報が含まれる。   Further, the attribute information includes GPS availability information indicating whether GPS (Global Positioning System) information has been received at the time of shooting.

さらに属性情報には、どのようなシーンを撮影したのかを示す撮影シーン(例えば、ポートレート、風景、記念撮影など)と、どのような状況を撮影したのかを示す撮影状況(例えば、日常、会合、旅行など)とが含まれる。   Furthermore, the attribute information includes a shooting scene (for example, portrait, landscape, commemorative shooting, etc.) indicating what scene was shot, and a shooting situation (for example, daily, meeting) indicating what kind of situation was shot. , Travel, etc.).

このような属性情報を、CPU101は、画像の記録時(撮影時)に、データベースに登録する。   The CPU 101 registers such attribute information in the database when an image is recorded (at the time of shooting).

すなわちCPU101は、撮影時に、タイマなどの計時部(図示せず)から現在の日時(撮影日時)を得る。さらにCPU101は、絞りの調整量などから、既存の算出方法を用いて被写界深度を算出する。さらにCPU101は、顔認識処理の結果から顔認識情報を得る。さらにCPU101は、GPSモジュール118から現在位置を示す現在位置情報が得られたか否かにより、GPS可否情報を得る。さらにCPU101は、このようにして得た撮影日時、被写界深度、顔認識情報及びGPS可否情報に基づいて、撮影シーン及び撮影状況を判別する(判別方法については後述する)。   In other words, the CPU 101 obtains the current date and time (shooting date and time) from a timer unit (not shown) such as a timer during shooting. Furthermore, the CPU 101 calculates the depth of field using an existing calculation method from the aperture adjustment amount and the like. Further, the CPU 101 obtains face recognition information from the result of the face recognition process. Further, the CPU 101 obtains GPS availability information based on whether or not current position information indicating the current position is obtained from the GPS module 118. Further, the CPU 101 determines the shooting scene and the shooting situation based on the shooting date and time, the depth of field, the face recognition information, and the GPS availability information obtained in this way (the determination method will be described later).

そしてCPU101は、撮影日時、被写界深度、顔認識情報、GPS可否情報、撮影シーン及び撮影状況を、画像の属性情報としてデータベースに登録する。   The CPU 101 registers the shooting date / time, depth of field, face recognition information, GPS availability information, shooting scene, and shooting status in the database as image attribute information.

尚、被写界深度については、厳密な数値ではなく、浅いか深いかが登録されるようになっている。すなわちCPU101は、被写界深度があらかじめ決められた基準値未満であれば浅いと判別する一方で、基準値以上であれば深いと判別するようになっている。   It should be noted that the depth of field is not an exact numerical value, and whether shallow or deep is registered. In other words, the CPU 101 determines that the depth of field is shallow if it is less than a predetermined reference value, while it determines that the depth of field is deep if it is greater than or equal to the reference value.

一方、操作部105を介して、動作モードを再生モードに切り替えるよう指示されると、CPU101は、動作モードを再生モードに切り替える。   On the other hand, when instructed to switch the operation mode to the reproduction mode via the operation unit 105, the CPU 101 switches the operation mode to the reproduction mode.

DSC100は、再生モードとして、画像を撮影日時ごとに分類して表示する日時別表示モードと、撮影シーンごとに分類して表示するシーン別表示モードと、撮影状況ごとに分類して表示する状況別表示モードとを有している。   The DSC 100 displays, as playback modes, a display mode classified by date and time for displaying images classified by shooting date, a display mode classified by scene for displaying classified according to shooting scenes, and a display classified according to shooting situations. Display mode.

CPU101は、操作部105を介して日時別表示モードが選択されると、データベースに登録されている画像の撮影日時を全て取得する。さらにCPU101は、デジタル信号処理部115を制御して、取得した撮影日時をもとに、例えば撮影日の一覧を液晶パネル106に表示させる。   When the date and time display mode is selected via the operation unit 105, the CPU 101 acquires all the shooting dates and times of images registered in the database. Further, the CPU 101 controls the digital signal processing unit 115 to display, for example, a list of shooting dates on the liquid crystal panel 106 based on the acquired shooting date and time.

ここで、タッチパネル104を介して所望の撮影日が選択されると、CPU101は、データベースを参照することで、選択された撮影日に撮影された画像を特定して、その画像ファイルを記録部116からRAM103に読み出す。   Here, when a desired shooting date is selected via the touch panel 104, the CPU 101 refers to the database to identify an image shot on the selected shooting date, and stores the image file in the recording unit 116. To RAM 103.

CPU101は、RAM103に読み出した画像ファイルから、圧縮画像データを抽出して、これをデジタル信号処理部115に供給する。   The CPU 101 extracts compressed image data from the image file read into the RAM 103 and supplies this to the digital signal processing unit 115.

デジタル信号処理部115は、CPU101の制御のもと、送られてきた圧縮画像データを伸長することにより圧縮前のデジタル画像信号を得、これを液晶パネル106に供給する。この結果、液晶パネル106には、選択された撮影日に撮影された画像が表示される。尚、選択された撮影日に撮影された画像が複数の場合、CPU101が、デジタル信号処理部115を制御して、液晶パネル106に複数の画像を一覧表示させるようにしてもよい。   Under the control of the CPU 101, the digital signal processing unit 115 expands the transmitted compressed image data to obtain a digital image signal before compression, and supplies this to the liquid crystal panel 106. As a result, an image photographed on the selected photographing date is displayed on the liquid crystal panel 106. When there are a plurality of images shot on the selected shooting date, the CPU 101 may control the digital signal processing unit 115 to display a list of a plurality of images on the liquid crystal panel 106.

また操作部105を介してシーン別表示モードが選択されると、CPU101は、データベースに登録されている画像の撮影シーンを全て取得する。さらにCPU101は、デジタル信号処理部115を制御して、取得した撮影シーンをもとに、撮影シーンの一覧を液晶パネル106に表示させる。   When the scene display mode is selected via the operation unit 105, the CPU 101 acquires all the shooting scenes of the images registered in the database. Further, the CPU 101 controls the digital signal processing unit 115 to display a list of shooting scenes on the liquid crystal panel 106 based on the acquired shooting scenes.

ここで、タッチパネル104を介して所望の撮影シーンが選択されると、CPU101は、データベースを参照することで、選択された撮影シーンに分類された画像を特定して、その画像ファイルを記録部116からRAM103に読み出す。   Here, when a desired shooting scene is selected via the touch panel 104, the CPU 101 refers to the database to identify an image classified into the selected shooting scene, and stores the image file in the recording unit 116. To RAM 103.

CPU101は、RAM103に読み出した画像ファイルから、圧縮画像データを抽出して、これをデジタル信号処理部115に供給する。   The CPU 101 extracts compressed image data from the image file read into the RAM 103 and supplies this to the digital signal processing unit 115.

デジタル信号処理部115は、CPU101の制御のもと、送られてきた圧縮画像データを伸長することにより圧縮前のデジタル画像信号を得、これを液晶パネル106に供給する。この結果、液晶パネル106には、選択された撮影シーンに分類された画像が表示される。尚、選択された撮影シーンに分類された画像が複数の場合、CPU101が、デジタル信号処理部115を制御して、液晶パネル106に複数の画像を一覧表示させるようにしてもよい。   Under the control of the CPU 101, the digital signal processing unit 115 expands the transmitted compressed image data to obtain a digital image signal before compression, and supplies this to the liquid crystal panel 106. As a result, images classified into the selected shooting scene are displayed on the liquid crystal panel 106. When there are a plurality of images classified into the selected shooting scene, the CPU 101 may control the digital signal processing unit 115 to display a list of a plurality of images on the liquid crystal panel 106.

さらに操作部105を介して状況別表示モードが選択されると、CPU101は、データベースに登録されている画像の撮影状況を全て取得する。さらにCPU101は、デジタル信号処理部115を制御して、取得した撮影状況をもとに、撮影状況の一覧を液晶パネル106に表示させる。   Further, when the situation-specific display mode is selected via the operation unit 105, the CPU 101 acquires all the shooting conditions of images registered in the database. Further, the CPU 101 controls the digital signal processing unit 115 to display a list of shooting conditions on the liquid crystal panel 106 based on the acquired shooting conditions.

ここで、タッチパネル104を介して所望の撮影状況が選択されると、CPU101は、データベースを参照することで、選択された撮影状況に分類された画像を特定して、その画像ファイルを記録部116からRAM103に読み出す。   Here, when a desired shooting situation is selected via the touch panel 104, the CPU 101 refers to the database to identify an image classified into the selected shooting situation, and stores the image file in the recording unit 116. To RAM 103.

CPU101は、RAM103に読み出した画像ファイルから、圧縮画像データを抽出して、これをデジタル信号処理部115に供給する。   The CPU 101 extracts compressed image data from the image file read into the RAM 103 and supplies this to the digital signal processing unit 115.

デジタル信号処理部115は、CPU101の制御のもと、送られてきた圧縮画像データを伸長することにより圧縮前のデジタル画像信号を得、これを液晶パネル106に供給する。この結果、液晶パネル106には、選択された撮影状況に分類された画像が表示される。尚、選択された撮影状況に分類された画像が複数の場合、CPU101が、デジタル信号処理部115を制御して、液晶パネル106に複数の画像を一覧表示させるようにしてもよい。   Under the control of the CPU 101, the digital signal processing unit 115 expands the transmitted compressed image data to obtain a digital image signal before compression, and supplies this to the liquid crystal panel 106. As a result, the liquid crystal panel 106 displays images classified into the selected shooting situation. When there are a plurality of images classified into the selected shooting situation, the CPU 101 may control the digital signal processing unit 115 to display a list of a plurality of images on the liquid crystal panel 106.

このようにしてDSC100は、画像を撮影日時ごと、撮影シーンごと、撮影状況ごとに分類して表示するようになっている。   In this way, the DSC 100 classifies and displays images by shooting date / time, shooting scene, and shooting situation.

尚、このDSC100のレンズ部110及び撮像素子112が、上述した撮像装置1の撮像部2に相当するハードウェアである。またDSC100の記録部116が、上述した撮像装置1の記録媒体4に相当するハードウェアである。さらにDSC100のCPU101が、上述した撮像装置1の取得部3、制御部5、及び分類部6に相当するハードウェアである。   Note that the lens unit 110 and the imaging element 112 of the DSC 100 are hardware corresponding to the imaging unit 2 of the imaging apparatus 1 described above. The recording unit 116 of the DSC 100 is hardware corresponding to the recording medium 4 of the imaging apparatus 1 described above. Further, the CPU 101 of the DSC 100 is hardware corresponding to the acquisition unit 3, the control unit 5, and the classification unit 6 of the imaging device 1 described above.

[1−3.属性情報登録処理手順]
次に、上述した画像の属性情報を登録する処理手順(これを属性情報登録処理手順とも呼ぶ)について、画像の撮影シーンと撮影状況の判別方法と共に、図4〜図6に示すフローチャートを用いて説明する。
[1-3. Attribute information registration process]
Next, regarding the processing procedure for registering image attribute information described above (also referred to as an attribute information registration processing procedure), together with the method for determining the shooting scene and shooting status of the image, the flowcharts shown in FIGS. explain.

因みに、この属性情報登録処理手順RT1は、DSC100のCPU101が、プログラムROM102に書き込まれているプログラムに従って実行する処理手順である。   Incidentally, the attribute information registration processing procedure RT1 is a processing procedure executed by the CPU 101 of the DSC 100 according to the program written in the program ROM 102.

CPU101は、撮影モードで、操作部105のシャッタボタンが押下されると、画像を記録すると共に、この属性情報登録処理手順RT1を開始して、ステップSP1に移る。   When the shutter button of the operation unit 105 is pressed in the photographing mode, the CPU 101 records an image and starts this attribute information registration processing procedure RT1, and proceeds to step SP1.

ステップSP1においてCPU101は、画像の属性情報となり、撮影シーン及び撮影状況の判別に必要な、現在の日時(撮影日時)と、被写界深度と、顔認識情報と、GPS可否情報を取得して、次のステップSP2に移る。   In step SP1, the CPU 101 obtains image attribute information, and acquires the current date and time (shooting date and time), depth of field, face recognition information, and GPS availability information that are necessary to determine the shooting scene and shooting situation. The process proceeds to the next step SP2.

ステップSP2においてCPU101は、撮影シーンを判別する処理手順(撮影シーン判別処理手順)SRT1(図5)を開始してステップSP10に移る。   In step SP2, the CPU 101 starts a processing procedure for determining a shooting scene (shooting scene determination processing procedure) SRT1 (FIG. 5), and proceeds to step SP10.

ステップSP10においてCPU101は、取得した被写界深度に基づいて、被写界深度が浅いか否かを判別する。ここで肯定結果を得ると、このことは被写界深度が浅いこと、すなわち、記録した画像が、人物や静物など、主要な被写体にのみピントを合わせ、他の部分にはピントを合わせずぼやけるようにして撮影されたものであることを意味する。換言すれば、この画像は、或る一部分を注視して撮影されたものであることを意味する。このときCPU101は、ステップSP11に移る。   In step SP10, the CPU 101 determines whether the depth of field is shallow based on the acquired depth of field. If a positive result is obtained here, this means that the depth of field is shallow, that is, the recorded image is focused only on the main subject, such as a person or a still life, and is not focused on the other parts. It means that it was taken in this way. In other words, this image means that the image was taken while gazing at a certain part. At this time, the CPU 101 proceeds to step SP11.

ステップSP11においてCPU101は、取得した顔認識情報に基づいて、記録した画像から人物の顔が認識されているか否かを判別する。ここで肯定結果を得ると、このことは人物の顔が認識されていること、つまり記録した画像に、人物の顔が含まれていることを意味する。このときCPU101は、ステップSP12に移る。   In step SP11, the CPU 101 determines whether a human face is recognized from the recorded image based on the acquired face recognition information. If a positive result is obtained here, this means that the face of the person is recognized, that is, the recorded face includes the face of the person. At this time, the CPU 101 proceeds to step SP12.

ステップSP12においてCPU101は、取得した顔認識情報に基づいて、認識されている人物の顔にピントが合っているか否かを判別する。ここで肯定結果を得ると、このことは人物の顔にピントが合っていること、すなわち、記録した画像が、人物を注視して撮影されたものであることを意味する。このときCPU101は、ステップSP13に移る。   In step SP12, the CPU 101 determines whether or not the face of the recognized person is in focus based on the acquired face recognition information. If a positive result is obtained here, this means that the person's face is in focus, that is, the recorded image was taken while paying attention to the person. At this time, the CPU 101 proceeds to step SP13.

ステップSP13においてCPU101は、ピントが合っている人物の数が一人であるか否かを判別する。ここで肯定結果を得ると、このことはピントが合っている人物の顔が一人であること、すなわち、記録した画像が、一人の人物に注視して撮影されたものであることを意味する。このときCPU101は、ステップSP14に移る。   In step SP13, the CPU 101 determines whether the number of persons in focus is one. If an affirmative result is obtained here, this means that the face of the person in focus is one person, that is, the recorded image was taken while paying attention to one person. At this time, the CPU 101 proceeds to step SP14.

ここまでの判別結果から、記録した画像は、一人の人物を注視して撮影されたものであることがわかる。よって、CPU101は、ステップSP14において、記録した画像の撮影シーンを「ポートレート(人物写真)」と判別する。このことは、CPU101が、この画像を、撮影シーンの「ポートレート」に分類したことを意味する。   From the determination results so far, it can be seen that the recorded image was taken while paying attention to one person. Therefore, in step SP14, the CPU 101 determines that the photographed scene of the recorded image is “portrait (person photograph)”. This means that the CPU 101 classifies this image into the “portrait” of the shooting scene.

また上述のステップSP10で否定結果を得ると、このことは被写界深度が深いこと、すなわち、記録した画像が、手前から奥までの広範囲にピントを合わせて撮影されたものであることを意味する。換言すれば、この画像は、全体がぼやけず視認できるように撮影されたものであることを意味する。このときCPU101は、ステップSP15に移る。   If a negative result is obtained in step SP10 described above, this means that the depth of field is deep, that is, the recorded image has been photographed with a wide range of focus from the front to the back. To do. In other words, this image is taken so that the entire image can be seen without blurring. At this time, the CPU 101 proceeds to step SP15.

ステップSP15においてCPU101は、取得した顔認識情報に基づいて、記録した画像から人物の顔が認識されているか否かを判別する。ここで肯定結果を得ると、このことは人物の顔が認識されていること、つまり記録した画像に、人物の顔が含まれていることを意味する。このときCPU101は、ステップSP16に移る。   In step SP15, the CPU 101 determines whether a human face is recognized from the recorded image based on the acquired face recognition information. If a positive result is obtained here, this means that the face of the person is recognized, that is, the recorded face includes the face of the person. At this time, the CPU 101 proceeds to step SP16.

ここまでの判別結果から、記録した画像は、人物の顔が含まれ、全体がぼやけず視認できるように撮影されたものであることがわかる。よって、CPU101は、ステップSP16において、記録した画像の撮影シーンを「記念撮影」と判別する。このことは、CPU101が、この画像を、撮影シーンとしての「記念撮影」に分類したことを意味する。   From the determination results so far, it can be seen that the recorded image is taken so that the face of the person is included and the entire image can be seen without blurring. Therefore, in step SP16, the CPU 101 determines that the recorded scene of the recorded image is “commemorative photography”. This means that the CPU 101 classifies this image as “commemorative photography” as a photographing scene.

また上述のステップSP13で否定結果を得た場合、ここまでの判別結果から、記録した画像が、複数の人物を注視して撮影されたものであることがわかる。この場合も、CPU101は、ステップSP16に移り、記録した画像の撮影シーンを「記念撮影」と判別する。このことは、CPU101が、この画像を、撮影シーンとしての「記念撮影」に分類したことを意味する。   If a negative result is obtained in step SP13 described above, it can be seen from the determination results so far that the recorded image has been taken while paying attention to a plurality of persons. Also in this case, the CPU 101 proceeds to step SP16, and determines the shooting scene of the recorded image as “commemorative shooting”. This means that the CPU 101 classifies this image as “commemorative photography” as a photographing scene.

また上述のステップSP15で否定結果を得ると、このことは記録した画像から人物の顔が認識されていないこと、つまり記録した画像に、人物の顔が含まれていないことを意味する。このときCPU101は、ステップSP17に移る。   If a negative result is obtained in step SP15 described above, this means that the person's face is not recognized from the recorded image, that is, the recorded image does not include the person's face. At this time, the CPU 101 proceeds to step SP17.

ステップSP17においてCPU101は、取得したGPS可否情報に基づいて、GPS情報が取得できなかったか否かを判別する。ここで肯定結果を得ると、このことは現在位置(撮影場所)がGPS情報を受信できない場所であること、すなわち、屋内で撮影された可能性が高いことを意味する。このときCPU101は、ステップSP18に移る。   In step SP17, the CPU 101 determines whether GPS information has not been acquired based on the acquired GPS availability information. If a positive result is obtained here, this means that the current position (photographing place) is a place where GPS information cannot be received, that is, there is a high possibility that the picture was taken indoors. At this time, the CPU 101 proceeds to step SP18.

ここまでの判別結果から、記録した画像は、人物の顔が含まれず、全体がぼやけず視認できるように屋内で撮影されたものであることがわかる。よって、CPU101は、ステップSP18において、記録した画像の撮影シーンを「静物」と判別する。このことは、CPU101が、この画像を、撮影シーンとしての「静物」に分類したことを意味する。   From the determination results so far, it can be seen that the recorded image was taken indoors so that it does not include a human face and can be visually recognized without blurring. Therefore, in step SP18, the CPU 101 determines that the captured scene of the recorded image is “still life”. This means that the CPU 101 classifies this image as a “still life” as a shooting scene.

また上述のステップSP11で否定結果を得た場合、ここまでの判別結果から、記録した画像が、人物の顔以外の被写体を注視して撮影されたものであることがわかる。この場合も、CPU101は、ステップSP18に移り、記録した画像の撮影シーンを「静物」と判別する。このことは、CPU101が、この画像を、撮影シーンとしての「静物」に分類したことを意味する。   If a negative result is obtained in step SP11 described above, it can be seen from the determination results so far that the recorded image was taken while paying attention to a subject other than the human face. Also in this case, the CPU 101 proceeds to step SP18 to determine that the recorded scene of the recorded image is “still life”. This means that the CPU 101 classifies this image as a “still life” as a shooting scene.

さらに上述のステップSP12で否定結果を得た場合、ここまでの判別結果から、記録した画像が、人物の顔以外の被写体を注視して撮影されたものであることがわかる。この場合も、CPU101は、ステップSP18に移り、記録した画像の撮影シーンを「静物」と判別する。このことは、CPU101が、この画像を、撮影シーンとしての「静物」に分類したことを意味する。   Furthermore, when a negative result is obtained in the above-described step SP12, it can be seen from the determination results so far that the recorded image was taken while paying attention to a subject other than the face of a person. Also in this case, the CPU 101 proceeds to step SP18 to determine that the recorded scene of the recorded image is “still life”. This means that the CPU 101 classifies this image as a “still life” as a shooting scene.

また上述のステップSP17で否定結果を得ると、このことは現在位置(撮影場所)がGPS情報を受信できる場所であること、すなわち、屋外で撮影された可能性が高いことを意味する。このときCPU101は、ステップSP19に移る。   If a negative result is obtained in step SP17 described above, this means that the current position (photographing place) is a place where GPS information can be received, that is, the possibility of photographing outdoors is high. At this time, the CPU 101 proceeds to step SP19.

ここまでの判別結果から、記録した画像は、人物の顔が含まれず、全体がぼやけず視認できるように屋外で撮影されたものであることがわかる。よって、CPU101は、ステップSP19において、記録した画像の撮影シーンを「風景」と判別する。このことは、CPU101が、この画像を、撮影シーンとしての「風景」に分類したことを意味する。   From the determination results so far, it can be seen that the recorded image was taken outdoors so that the face of the person is not included and the entire image can be seen without blurring. Therefore, in step SP19, the CPU 101 determines that the captured scene of the recorded image is “landscape”. This means that the CPU 101 classifies this image into “landscape” as a shooting scene.

このようにして、記録した画像の撮影シーンを判別し終えると、CPU101は、この撮影シーン判別処理手順SRT1を終了して、次のステップSP3(図4)に移る。   In this way, when determining the shooting scene of the recorded image, the CPU 101 ends the shooting scene determination processing procedure SRT1 and proceeds to the next step SP3 (FIG. 4).

ステップSP3においてCPU101は、撮影状況を判別する処理手順(撮影状況判別処理手順)SRT2(図6)を開始してステップSP20に移る。   In step SP3, the CPU 101 starts a processing procedure (shooting status determination processing procedure) SRT2 (FIG. 6) for determining the shooting status, and proceeds to step SP20.

ステップSP20においてCPU101は、取得した被写界深度に基づいて、被写界深度が浅いか否かを判別する。ここで否定結果を得ると、このことは被写界深度が深いこと、すなわち、記録した画像が、手前から奥までの広範囲にピントを合わせて撮影されたものであることを意味する。換言すれば、この画像は、全体がぼやけず視認できるように撮影されたものであることを意味する。このときCPU101は、ステップSP21に移る。   In step SP20, the CPU 101 determines whether the depth of field is shallow based on the acquired depth of field. If a negative result is obtained here, this means that the depth of field is deep, that is, the recorded image is taken in a wide range from the near side to the far side. In other words, this image is taken so that the entire image can be seen without blurring. At this time, the CPU 101 proceeds to step SP21.

ステップSP21において、取得した顔認識情報に基づいて、記録した画像から人物の顔が認識されているか否かを判別する。ここで肯定結果を得ると、このことは人物の顔が認識されていること、つまり記録した画像に、人物の顔が含まれていることを意味する。このときCPU101は、ステップSP22に移る。   In step SP21, based on the acquired face recognition information, it is determined whether or not a person's face is recognized from the recorded image. If a positive result is obtained here, this means that the face of the person is recognized, that is, the recorded face includes the face of the person. At this time, the CPU 101 proceeds to step SP22.

ここまでの判別結果から、記録した画像は、人物の顔を含み、全体がぼやけず視認できるように撮影されたものであることがわかる。よって、CPU101は、ステップSP22において、記録した画像の撮影状況を「記念撮影」と判別する。このことは、CPU101が、この画像を、撮影状況としての「記念撮影」に分類したことを意味する。   From the determination results so far, it can be seen that the recorded image is taken so that the entire face is visible without blurring. Therefore, in step SP22, the CPU 101 determines that the shooting state of the recorded image is “commemorative shooting”. This means that the CPU 101 classifies this image as “commemorative photography” as a photographing situation.

また上述のステップSP20で肯定結果を得ると、このことは被写界深度が浅いこと、すなわち、記録した画像が、人物や静物など、主要な被写体にのみピントを合わせ、他の部分にはピントを合わせずぼやけるようにして撮影されたものであることを意味する。換言すれば、この画像は、或る一部分を注視して撮影されたものであることを意味する。このときCPU101は、ステップSP23に移る。   If a positive result is obtained in step SP20 described above, this means that the depth of field is shallow, that is, the recorded image is focused only on a main subject such as a person or a still life, and is not focused on other portions. It means that the image was taken so as not to be blurred. In other words, this image means that the image was taken while gazing at a certain part. At this time, the CPU 101 proceeds to step SP23.

ステップSP23においてCPU101は、取得した顔認識情報に基づいて、記録した画像から人物の顔が認識されているか否かを判別する。ここで否定結果を得ると、このことは人物の顔が認識されていないこと、つまり記録した画像に、人物の顔が含まれていないことを意味する。このときCPU101は、ステップSP24に移る。   In step SP23, the CPU 101 determines whether a human face is recognized from the recorded image based on the acquired face recognition information. If a negative result is obtained here, this means that the face of the person is not recognized, that is, the face of the person is not included in the recorded image. At this time, the CPU 101 proceeds to step SP24.

ステップSP24においてCPU101は、取得したGPS可否情報に基づいて、GPS情報が受信できなかったか否かを判別する。ここで肯定結果を得ると、このことは現在位置(撮影場所)がGPS情報を受信できない場所であること、すなわち、屋内で撮影された可能性が高いことを意味する。このときCPU101は、ステップSP25に移る。   In step SP24, the CPU 101 determines whether GPS information could not be received based on the acquired GPS availability information. If a positive result is obtained here, this means that the current position (photographing place) is a place where GPS information cannot be received, that is, there is a high possibility that the picture was taken indoors. At this time, the CPU 101 proceeds to step SP25.

この場合、ここまでの判別結果から、記録した画像が、人物の顔を含まず全体がぼやけず視認できるように屋内で撮影されたものであることがわかる。よって、CPU101は、ステップSP25において、記録した画像の撮影状況を、「屋内、静物、記録」のいずれかであると判別する。このことは、CPU101が、この画像を、撮影状況として「屋内、静物、記録」に分類したことを意味する。   In this case, it can be seen from the determination results so far that the recorded image was taken indoors so that the entire image is not blurred and can be visually recognized without blurring. Accordingly, in step SP25, the CPU 101 determines that the shooting state of the recorded image is “indoor, still life, recording”. This means that the CPU 101 classifies this image as “indoor, still life, recording” as the shooting situation.

また上述のステップSP21で否定結果を得た後に、ステップSP24で肯定結果を得た場合、ここまでの判別結果から、記録した画像が、人物の顔を含まず人物の顔以外の被写体を注視して屋内で撮影されたものであることがわかる。この場合も、CPU101は、ステップSP25に移り、記録した画像の撮影状況を、「屋内、静物、記録」のいずれかであると判別する。このことは、CPU101が、この画像を、撮影状況として「屋内、静物、記録」に分類したことを意味する。   Further, when a negative result is obtained in step SP21 described above and a positive result is obtained in step SP24, based on the determination results thus far, the recorded image does not include a person's face but pays attention to a subject other than the person's face. It can be seen that it was taken indoors. Also in this case, the CPU 101 proceeds to step SP25, and determines that the shooting state of the recorded image is any one of “indoor, still life, and recording”. This means that the CPU 101 classifies this image as “indoor, still life, recording” as the shooting situation.

また上述のステップSP24で否定結果を得ると、このことは現在位置(撮影場所)がGPS情報を受信できる場所であること、すなわち、屋外で撮影された可能性が高いことを意味する。このときCPU101は、ステップSP26に移る。   If a negative result is obtained in step SP24 described above, this means that the current position (photographing place) is a place where GPS information can be received, that is, there is a high possibility that the picture was taken outdoors. At this time, the CPU 101 proceeds to step SP26.

この場合、ここまでの判別結果から、記録した画像が、人物の顔を含まず全体がぼやけず視認できるように屋外で撮影されたもの、又は人物の顔以外の被写体を注視して屋外で撮影されたものであることがわかる。よって、CPU101は、ステップSP26において、記録した画像の撮影状況を、「旅行、記録、風景」のいずれかであると判別する。このことは、CPU101が、この画像を、撮影状況として「旅行、記録、風景」に分類したことを意味する。   In this case, based on the determination results so far, the recorded image was taken outdoors so that the entire face is not blurred and can be seen without blurring, or the subject other than the person's face is watched and taken outdoors. It can be seen that Therefore, in step SP26, the CPU 101 determines that the recording state of the recorded image is any one of “travel, recording, landscape”. This means that the CPU 101 classifies this image as “travel, recording, landscape” as a shooting situation.

また上述のステップSP23で肯定結果を得ると、このことは、記録した画像から人物の顔が認識されていること、つまり記録した画像に人物の顔が含まれていることを意味する。このときCPU101は、ステップSP27に移る。   If a positive result is obtained in step SP23 described above, this means that the person's face is recognized from the recorded image, that is, the person's face is included in the recorded image. At this time, the CPU 101 proceeds to step SP27.

この場合、ここまでの判別結果から、記録した画像は、人物の顔が含まれ、全体がぼやけず視認できるように撮影されたものであることがわかる。よって、CPU101は、ステップSP27において、記録した画像の撮影状況を「日常、会合、旅行」のいずれかであると判別する。このことは、CPU101が、この画像を、撮影状況として「日常、会合、旅行」に分類したことを意味する。   In this case, from the determination results so far, it can be seen that the recorded image was captured so that the face of the person was included and the entire image could be seen without blurring. Therefore, in step SP27, the CPU 101 determines that the recorded state of the recorded image is “everyday, meeting, travel”. This means that the CPU 101 classifies this image as “daily life, meeting, travel” as the shooting situation.

このようにして、記録した画像の撮影状況を判別し終えると、CPU101は、この撮影状況判別処理手順SRT2を終了して、次のステップSP4(図3)に移る。   In this way, when determining the shooting status of the recorded image, the CPU 101 ends the shooting status determination processing procedure SRT2, and proceeds to the next step SP4 (FIG. 3).

ステップSP4においてCPU101は、ここまでに得た、撮影日時、被写界深度、顔認識情報、GPS可否情報、撮影シーン及び撮影状況を、記録した画像の属性情報としてデータベースに登録して、この属性情報登録処理手順RT1を終了する。   In step SP4, the CPU 101 registers the shooting date / time, depth of field, face recognition information, GPS availability information, shooting scene, and shooting status obtained so far in the database as attribute information of the recorded image. The information registration processing procedure RT1 is terminated.

このような属性情報登録処理手順RT1により、DSC100は、記録した画像の属性情報を登録するようになっている。   By such attribute information registration processing procedure RT1, the DSC 100 registers the attribute information of the recorded image.

ところで、上述した撮影状況判別処理手順SRT2では、場合によっては、画像の撮影状況を、「日常、会合、旅行」のいずれかというように大まかにしか判別できない。   By the way, in the above-described shooting situation determination processing procedure SRT2, depending on the case, it is possible to roughly determine the shooting situation of an image such as “everyday, meeting, travel”.

そこで、CPU101は、記録部116に複数の画像が記録されている状態で、これら複数の画像を撮影日時をもとにグルーピングして、グループごとに画像の撮影状況を細かく判別し直すようになっている。   Therefore, the CPU 101 groups the plurality of images based on the shooting date and time in a state where a plurality of images are recorded in the recording unit 116, and re-determines the shooting state of the images for each group. ing.

ここで、撮影状況を判別し直す処理手順(これを撮影状況再判別処理手順)について、図7に示すフローチャートを用いて説明する。   Here, the processing procedure for re-discriminating the shooting situation (this is the shooting status redetermination processing procedure) will be described with reference to the flowchart shown in FIG.

因みに、この撮影状況再判別処理手順RT2も、DSC100のCPU101が、プログラムROM102に書き込まれているプログラムに従って実行する処理手順である。   Incidentally, this photographing state redetermination processing procedure RT2 is also a processing procedure executed by the CPU 101 of the DSC 100 in accordance with the program written in the program ROM 102.

CPU101は、例えば、電源オン時に、記録部116に複数の画像が記録されていることを認識すると、この撮影状況再判別処理手順RT2を開始して、ステップSP30に移る。   For example, when the CPU 101 recognizes that a plurality of images are recorded in the recording unit 116 when the power is turned on, the CPU 101 starts the photographing state redetermination processing procedure RT2, and proceeds to step SP30.

ステップSP30においてCPU101は、データベースに属性情報として登録されている各画像の撮影日時をもとに、記録部116に記録されている各画像を撮影日時単位でグルーピングする。   In step SP30, the CPU 101 groups each image recorded in the recording unit 116 based on the shooting date and time of each image registered as attribute information in the database.

具体的にCPU101は、例えば、各画像を、撮影日時に基づいて、時間軸上に並べ、時間軸上に隣接する2つの画像の撮影日時の差が所定値以上である場合に、2つの画像の間を、グループの境界とするようにして、各画像をグルーピングする。   Specifically, for example, the CPU 101 arranges each image on the time axis based on the shooting date and time, and when the difference between the shooting dates and times of two images adjacent on the time axis is a predetermined value or more, the two images Each image is grouped so as to be a group boundary.

実際、記録部116に記録されている各画像は、旅行などのイベント単位で、時間的にまとまっていることが多い。ゆえに、上述したようにして各画像をグルーピングすることで、各画像をイベント単位でまとめることができる。   Actually, the images recorded in the recording unit 116 are often grouped in time in units of events such as trips. Therefore, by grouping the images as described above, the images can be grouped in units of events.

このようにしてグルーピングした後、CPU101は、次のステップSP31に移る。ステップSP31においてCPU101は、グループごとに(すなわちイベントごとに)、画像の撮影状況を再判別する。   After grouping in this way, the CPU 101 proceeds to next step SP31. In step SP31, the CPU 101 re-discriminates the shooting state of the image for each group (that is, for each event).

具体的にCPU101は、例えば、グループごとに、グループ内の画像の撮影状況から、グループ内で最も多く登録されている撮影状況を抽出する。そしてCPU101は、この撮影状況が、グループ内で最も信頼度の高い撮影状況であるとして、この撮影状況を、グループ内の画像の新たな撮影状況とする。   Specifically, for example, the CPU 101 extracts, for each group, the shooting status registered most in the group from the shooting status of the images in the group. Then, the CPU 101 assumes that this shooting situation is the shooting situation with the highest reliability in the group, and sets this shooting situation as a new shooting situation for images in the group.

例えば、或るグループ内に3つの画像が有り、これら3つの画像の撮影状況が、それぞれ「日常、会合、旅行」、「旅行、記録、風景」、「記念撮影」であったとする。この場合、CPU101は、「旅行」を、これら3つの画像の撮影状況のうち、最も信頼度の高い撮影状況であるとして、これら3つの画像の撮影状況を「旅行」と再判別する。このことは、CPU101が、これら3つの画像を、撮影状況の「旅行」に分類したことを意味する。   For example, it is assumed that there are three images in a group, and the shooting situations of these three images are “daily, meeting, travel”, “travel, recording, landscape”, and “commemorative photo”, respectively. In this case, the CPU 101 determines that “trip” is the most reliable shooting situation among the shooting situations of these three images, and re-determines the shooting situation of these three images as “travel”. This means that the CPU 101 classifies these three images as “travel” in the shooting situation.

このようにして、グループごとに、画像の撮影状況を再判別し終えると、すなわち再分類し終えると、CPU101は、次のステップSP32に移る。   In this way, when the re-discrimination of the image capturing status for each group is completed, that is, when the reclassification is completed, the CPU 101 proceeds to the next step SP32.

ステップSP32においてCPU101は、ステップSP31の再判別に基づいて、データベースに属性情報として登録されている各画像の撮影状況を更新して、この撮影状況再判別処理手順RT2を終了する。   In step SP32, the CPU 101 updates the shooting status of each image registered as attribute information in the database based on the redetermination in step SP31, and ends this shooting status redetermination processing procedure RT2.

このような撮影状況再判別処理手順RT2により、DSC100は、撮影状況を再判別するようになっている。   The DSC 100 re-discriminates the shooting state by such a shooting state redetermination processing procedure RT2.

[1−4.動作及び効果]
以上の構成において、DSC100のCPU101は、撮影時に、現在日時、被写界深度、顔認識情報及びGPS可否情報を取得する。
[1-4. Operation and effect]
In the above configuration, the CPU 101 of the DSC 100 acquires the current date and time, depth of field, face recognition information, and GPS availability information at the time of shooting.

さらにCPU101は、取得したこれらの情報をもとに、記録した画像の撮影シーン及び撮影状況を判別する。   Further, the CPU 101 determines the shooting scene and shooting situation of the recorded image based on the acquired information.

そしてCPU101は、判別した撮影シーン及び撮影状況を、取得した被写界深度などと共に、記録した画像の属性情報としてデータベースに登録する。   The CPU 101 registers the determined shooting scene and shooting situation in the database as attribute information of the recorded image together with the acquired depth of field.

このように、記録した画像ごとに、撮影シーン及び撮影状況を判別して、これらを記録した画像の属性情報とすることで、DSC100に記録された各画像が、撮影シーン及び撮影状況により分類されたことになる。   In this way, for each recorded image, the shooting scene and shooting situation are determined, and these are used as attribute information of the recorded image, so that each image recorded in the DSC 100 is classified according to the shooting scene and shooting situation. That's right.

このように、CPU101は、記録した画像を、被写界深度などの情報に基づいて、撮影シーン毎に及び撮影状況により分類する。   As described above, the CPU 101 classifies the recorded images for each shooting scene and according to shooting conditions based on information such as depth of field.

そしてCPU101は、例えば、ユーザにより所望の撮影シーンが指定されると、指定された撮影シーンを属性情報として持つ画像(つまり指定された撮影シーンに分類された画像)を検索して、液晶パネル106に表示させる。   Then, for example, when a desired shooting scene is specified by the user, the CPU 101 searches for an image having the specified shooting scene as attribute information (that is, an image classified into the specified shooting scene), and the liquid crystal panel 106. To display.

このように、DSC100は、記録した画像を、何時撮影したのかではなく、撮影シーンや撮影状況のように、どのような画像を撮影したのかという観点から分類するようにした。   In this way, the DSC 100 classifies the recorded images not from when they were taken, but from the viewpoint of what kind of images were taken, such as shooting scenes and shooting situations.

これにより、DSC100は、撮影日時で分類する場合と比して、所望の画像をユーザが見付け出し易くすることができる。   Thereby, the DSC 100 can make it easier for the user to find a desired image as compared with the case of classifying by the shooting date and time.

またDSC100のCPU101は、記録した画像を、撮影日時をもとにイベントごとにグルーピングする。そしてCPU101は、グループごとに、グループ内の画像の撮影状況のうち、最も信頼度が高い撮影状況を特定して、これをグループ内の画像で共通の撮影状況となるように、グループ内の画像の撮影状況を再判別する。   The CPU 101 of the DSC 100 groups the recorded images for each event based on the shooting date and time. Then, for each group, the CPU 101 identifies the shooting situation with the highest reliability among the shooting situations of the images in the group, and sets the image in the group so that this becomes a common shooting situation for the images in the group. Re-determine the shooting status.

この再判別は、同一イベントの画像は同一撮影状況で撮影されたものであるという考え方に基づくものである。こうすることでCPU101は、記録した画像を、より正確な撮影状況で分類することができる。   This re-discrimination is based on the idea that images of the same event are taken in the same shooting situation. In this way, the CPU 101 can classify the recorded images based on more accurate shooting conditions.

以上の構成によれば、DSC100は、撮影日時で画像を分類する場合と比して、所望の画像を見付け出し易くすることができ、かくして、画像の検索性を向上させることができる。   According to the above configuration, the DSC 100 can easily find a desired image as compared with the case of classifying images by shooting date and time, and thus can improve the searchability of images.

<2.他の実施の形態>
[2−1.他の実施の形態1]
尚、上述した実施の形態では、DSC100のCPU101が、上述した撮影シーン判別処理手順SRT1及び撮影状況判別処理手順SRT2により、記録した画像の撮影シーン及び撮影状況を判別するようにした。
<2. Other embodiments>
[2-1. Other Embodiment 1]
In the embodiment described above, the CPU 101 of the DSC 100 discriminates the shooting scene and the shooting situation of the recorded image by the shooting scene determination processing procedure SRT1 and the shooting situation determination processing procedure SRT2.

これに限らず、例えば、図8に示すように、予め様々な撮影パターンと、その撮影パターンで撮影された画像を分類する撮影シーンとを対応付けたデータを利用して、記録した画像の撮影シーン及び撮影状況を判別するようにしてもよい。このデータをパターン別シーンデータとも呼び、このデータは、予め例えばフラッシュメモリ117に記憶されているとする。   Not limited to this, for example, as shown in FIG. 8, shooting of a recorded image using data in which various shooting patterns are associated with shooting scenes that classify images shot with the shooting pattern in advance. You may make it discriminate | determine a scene and imaging | photography condition. This data is also called pattern-specific scene data, and this data is assumed to be stored in advance in the flash memory 117, for example.

この撮影パターンは、被写界深度が浅いか深いか、人物の顔が認識されているか否か、顔にピントが合っているか否か、顔の数が複数であるか否か、GPS情報を受信できたか否かの組み合わせにより分けられている。   This shooting pattern is based on whether the depth of field is shallow or deep, whether a person's face is recognized, whether the face is in focus, whether there are multiple faces, GPS information They are classified according to the combination of whether or not they can be received.

したがって、CPU101は、この組み合わせから、撮影時の撮影パターンを特定し、さらに特定した撮影パターンから、記録した画像の撮影シーンを判別する。   Therefore, the CPU 101 specifies the shooting pattern at the time of shooting from this combination, and further determines the shooting scene of the recorded image from the specified shooting pattern.

例えば、被写界深度が浅く、顔が認識され、顔にピントが合っており、顔の数が単数で、GPS情報を受信できているとすると、CPU101は、この組み合わせから、撮影時の撮影パターンがパターン3であると特定できる。   For example, assuming that the depth of field is shallow, the face is recognized, the face is in focus, the number of faces is singular, and GPS information can be received, the CPU 101 takes a picture at the time of shooting from this combination. It can be specified that the pattern is pattern 3.

そしてCPU101は、このパターン3に、撮影シーンとしてポートレートが対応付けられていることから、記録した画像の撮影シーンを「ポートレート」と判別する。つまり、CPU101は、記録した画像を、撮影シーンの「ポートレート」に分類する。   Then, since the portrait is associated with the pattern 3 as the shooting scene, the CPU 101 determines that the shooting scene of the recorded image is “portrait”. That is, the CPU 101 classifies the recorded image into a “portrait” of the shooting scene.

また、例えば図9に示すように、予め様々な撮影パターンと、その撮影パターンで撮影された画像を分類する撮影状況とを対応付けたデータを利用して、記録した画像の撮影シーン及び撮影状況を判別するようにしてもよい。このデータをパターン別状況データとも呼び、このデータは、予め例えばフラッシュメモリ117に記憶されているとする。   Further, for example, as shown in FIG. 9, the shooting scene and the shooting situation of the recorded image using data in which various shooting patterns and the shooting situation for classifying the images shot with the shooting pattern are used in advance. You may make it discriminate | determine. This data is also referred to as pattern-specific status data, and this data is stored in advance in, for example, the flash memory 117.

この撮影パターンは、被写界深度が浅いか深いか、人物の顔が認識されているか否か、GPS情報を受信できたか否かの組み合わせにより分けられている。   This shooting pattern is divided according to the combination of whether the depth of field is shallow or deep, whether a human face is recognized, and whether GPS information has been received.

したがって、CPU101は、この組み合わせから、撮影時の撮影パターンを特定し、さらに特定した撮影パターンから、記録した画像の撮影状況を判別する。   Therefore, the CPU 101 specifies the shooting pattern at the time of shooting from this combination, and further determines the shooting status of the recorded image from the specified shooting pattern.

例えば、被写界深度が深く、顔が認識され、GPS情報を受信できているとすると、CPU101は、この組み合わせから、撮影時の撮影パターンがパターン5であると特定できる。   For example, if the depth of field is deep, the face is recognized, and GPS information can be received, the CPU 101 can specify that the shooting pattern at the time of shooting is the pattern 5 from this combination.

そしてCPU101は、このパターン5に、撮影状況として「記念撮影」が対応付けられていることから、記録した画像の撮影状況を「記念撮影」と判別する。つまり、CPU101は、記録した画像を、撮影状況の「記念撮影」に分類する。   Then, the CPU 101 determines that the photographed state of the recorded image is “commemorative photography” because “commemorative photography” is associated with the pattern 5 as the photographing situation. That is, the CPU 101 classifies the recorded image into “commemorative photography” of the photographing situation.

またCPU101が、フラッシュメモリ117に記憶されているパターン別シーンデータ及びパターン別状況データを、メモリカード等を介して外部から取得したパターン別シーンデータ及びパターン別状況データにより更新する等してもよい。   The CPU 101 may update the pattern-specific scene data and the pattern-specific status data stored in the flash memory 117 with the pattern-specific scene data and the pattern-specific status data acquired from the outside via a memory card or the like. .

[2−2.他の実施の形態2]
さらに上述した実施の形態では、撮影時に、撮影日時、被写界深度、顔認識情報、GPS可否情報を取得して、これらをもとに、記録した画像の撮影シーン及び撮影状況を判別するようにした。
[2-2. Other Embodiment 2]
Further, in the above-described embodiment, at the time of shooting, the shooting date / time, depth of field, face recognition information, and GPS availability information are acquired, and based on these, the shooting scene and shooting situation of the recorded image are determined. I made it.

これに限らず、CPU101が、撮影時に、上述した情報にくわえて、GPSモジュール118から現在位置情報を取得し、これらをもとに、記録した画像の撮影シーン及び撮影状況を判別するようにしてもよい。尚、ここでは、撮影時に取得した現在位置情報を、撮影場所情報とも呼ぶ。   Not limited to this, the CPU 101 obtains the current position information from the GPS module 118 in addition to the above-described information at the time of shooting, and determines the shooting scene and shooting status of the recorded image based on these information. Also good. Here, the current position information acquired at the time of shooting is also referred to as shooting location information.

この場合、CPU101は、例えば、撮影時に取得した現在位置情報(すなわち撮影場所情報)と、既にデータベースに登録されている他の画像の撮影場所情報の各々との距離を算出する。   In this case, for example, the CPU 101 calculates the distance between the current position information (that is, the shooting location information) acquired at the time of shooting and the shooting location information of other images already registered in the database.

ここで、今回取得した撮影場所情報との距離が所定範囲(例えば数キロメートル)内である撮像場所情報が所定数(例えば10個)以上、データベースに登録されていたとする。   Here, it is assumed that a predetermined number (for example, 10) or more of shooting location information whose distance from the currently acquired shooting location information is within a predetermined range (for example, several kilometers) is registered in the database.

このことは、今回の撮影場所が、ユーザが普段よく撮影を行う場所であることを意味する。   This means that the current shooting location is a location where the user normally takes photos.

このことを利用して、撮影状況を判別するようにした場合の撮影状況判別処理手順SRT3を、図10に示すフローチャートを用いて説明する。尚、この撮影状況判別処理手順SRT3のステップSP20〜SP26の処理は、上述した撮影状況判別処理手順SRT2と同様である為、ここでは説明を省略する。   Taking advantage of this, the shooting situation determination processing procedure SRT3 when the shooting situation is determined will be described with reference to the flowchart shown in FIG. Note that the processing at steps SP20 to SP26 of the shooting situation determination processing procedure SRT3 is the same as the above-described shooting situation determination processing procedure SRT2, and therefore the description thereof is omitted here.

CPU101は、この撮影状況判別処理手順SRT3のステップSP23で肯定結果を得ると、ステップSP100に移る。   If the CPU 101 obtains an affirmative result in step SP23 of the shooting situation determination processing procedure SRT3, it moves to step SP100.

ステップSP100においてCPU101は、取得したGPS可否情報に基づいて、GPS情報が受信できなかったか否かを判別する。ここで肯定結果を得ると、このことは現在位置(撮影場所)がGPS情報を受信できない場所であること、すなわち、屋内で撮影された可能性が高いことを意味する。このときCPU101は、ステップSP101に移る。   In step SP100, the CPU 101 determines whether GPS information has not been received based on the acquired GPS availability information. If a positive result is obtained here, this means that the current position (photographing place) is a place where GPS information cannot be received, that is, there is a high possibility that the picture was taken indoors. At this time, the CPU 101 proceeds to step SP101.

この場合、ここまでの判別結果から、記録した画像が、人物の顔を含み、全体がぼやけず視認できるように屋内で撮影されたものであることがわかる。よって、CPU101は、ステップSP101において、記録した画像の撮影状況を、「屋内、会合」のいずれかであると判別する。つまり、CPU101は、この画像を、撮影状況として「屋内、会合」に分類する。   In this case, it can be seen from the determination results so far that the recorded image is taken indoors so that the entire image includes a person's face and is visible without blurring. Therefore, in step SP101, the CPU 101 determines that the recording state of the recorded image is “indoor or meeting”. That is, the CPU 101 classifies this image as “indoor, meeting” as the shooting situation.

また上述のステップSP100で否定結果を得ると、このことは現在位置(撮影場所)がGPS情報を受信できる場所であること、すなわち、屋外で撮影された可能性が高いことを意味する。このときCPU101は、ステップSP102に移る。   If a negative result is obtained in step SP100 described above, this means that the current position (photographing place) is a place where GPS information can be received, that is, there is a high possibility that the picture was taken outdoors. At this time, the CPU 101 proceeds to step SP102.

ステップSP102においてCPU101は、取得した現在位置情報(撮影場所情報)と、既に登録されている他の画像の撮影場所情報とに基づいて、今回の撮影場所が、ユーザが普段よく撮影を行う場所であるか否かを判別する。   In step SP102, the CPU 101 determines that the current shooting location is a location where the user normally performs shooting based on the acquired current position information (shooting location information) and shooting location information of other images already registered. It is determined whether or not there is.

ここで肯定結果を得ると、このことは今回の撮影場所が、ユーザが普段よく撮影を行う場所であることを意味する。このときCPU101は、ステップSP103に移る。   If an affirmative result is obtained here, this means that the shooting location this time is a location where the user often takes photos. At this time, the CPU 101 proceeds to step SP103.

この場合、ここまでの判別結果から、記録した画像が、人物の顔を含み、全体がぼやけず視認できるように屋外のユーザが普段よく撮影を行う場所で撮影されたものであることがわかる。よって、CPU101は、ステップSP103において、記録した画像の撮影状況を、「日常」であると判別する。つまり、CPU101は、この画像を、撮影状況として「日常」に分類する。   In this case, it can be seen from the determination results so far that the recorded image is taken at a place where an outdoor user usually takes a picture so that the entire face can be seen without blurring. Therefore, in step SP103, the CPU 101 determines that the recorded state of the recorded image is “daily”. That is, the CPU 101 classifies this image as “daily life” as a shooting situation.

また上述のステップSP102で否定結果を得ると、このことは、今回の撮影場所が、ユーザが普段撮影を行わない場所であることを意味する。このときCPU101は、ステップSP104に移る。   If a negative result is obtained in step SP102 described above, this means that the current shooting location is a location where the user does not normally perform shooting. At this time, the CPU 101 proceeds to step SP104.

この場合、ここまでの判別結果から、記録した画像が、人物の顔を含み、全体がぼやけず視認できるように屋外のユーザが普段撮影を行わない場所で撮影されたものであることがわかる。よって、CPU101は、ステップSP104において、記録した画像の撮影状況を、「旅行」であると判別する。つまり、CPU101は、この画像を、撮影状況として「旅行」に分類する。   In this case, it can be seen from the determination results so far that the recorded image is taken at a place where the outdoor user does not usually take a picture so that the entire face can be seen without blurring. Therefore, in step SP104, the CPU 101 determines that the recorded state of the recorded image is “travel”. That is, the CPU 101 classifies this image as “travel” as the shooting situation.

このように、撮影場所情報を利用することで、より正確に撮影状況を判別することができる。   In this way, the shooting situation can be more accurately determined by using the shooting location information.

また、予めユーザの自宅の位置情報を登録しておき、この位置情報と、今回取得した撮影場所情報との距離をもとに、今回の撮影場所が、ユーザが普段よく撮影を行う場所であるか否か(自宅付近であるか否か)を判別するようにしてもよい。   Also, the location information of the user's home is registered in advance, and based on the distance between this location information and the acquired shooting location information, the current shooting location is a location where the user usually takes images. Or not (whether or not it is near home).

さらに、DSC100のフラッシュメモリ117に、予め位置情報と地名とが対応付けて登録された地図データベースを記憶させておき、CPU101が、この地図データベースから撮影場所の地名を取得するようにしてもよい。   Further, a map database in which position information and a place name are registered in advance in association with each other may be stored in the flash memory 117 of the DSC 100, and the CPU 101 may acquire the place name of the shooting location from this map database.

そして、例えば、上述したステップSP104において、記録した画像を、撮影状況として「地名+旅行」に分類するようにしてもよい。このようにすれば、記録した画像をより細かく分類することができ、一段と、所望の画像をユーザが見付け出し易くすることができる。   Then, for example, in step SP104 described above, the recorded image may be classified as “place name + travel” as a shooting situation. In this way, the recorded images can be classified more finely, and the user can more easily find a desired image.

さらに、CPU101が、撮影日時、被写界深度、顔認識情報、GPS可否情報、撮影場所情報に限らず、撮影時に取得できる様々な情報をもとに、撮影シーンや撮影状況を判別するようにしてもよい。   Further, the CPU 101 discriminates a shooting scene and a shooting situation based on various information that can be acquired at the time of shooting, not limited to shooting date / time, depth of field, face recognition information, GPS availability information, and shooting location information. May be.

例えば、撮影時のカメラ設定から、明るさやシャッタスピードが取得できれば、これらと撮影日時とをもとに、記録した画像が、夜景を撮影したものであるかが判別できる。   For example, if the brightness and shutter speed can be acquired from the camera settings at the time of shooting, it is possible to determine whether the recorded image is a night view shot based on these and the shooting date and time.

また、例えば、DSC100に加速度センサが設けられ、DSC100に加えられている加速度が取得できれば、記録した画像が、パンさせながら撮影されたものであるか、すなわち流し撮りしたものであるかが判別できる。   Further, for example, if an acceleration sensor is provided in the DSC 100 and the acceleration applied to the DSC 100 can be acquired, it can be determined whether the recorded image is taken while panning, that is, a panning shot. .

このように撮影時に取得できる様々な情報を利用することで、より多様な撮影シーンや撮影状況を判別することができる。   In this way, by using various information that can be acquired at the time of shooting, it is possible to determine more various shooting scenes and shooting situations.

[2−3.他の実施の形態3]
さらに上述した実施の形態では、撮影日時、被写界深度、顔認識情報、GPS可否情報をもとに、記録した画像を、撮影シーン毎にや撮影状況により分類するようにした。
[2-3. Other Embodiment 3]
Furthermore, in the above-described embodiment, the recorded images are classified for each shooting scene and according to shooting conditions based on shooting date / time, depth of field, face recognition information, and GPS availability information.

これに限らず、被写界深度のみをもとに、記録した画像を被写界深度が深いか浅いかで分類するようにしてもよい。このように被写界深度のみで分類したとしても、記録した画像を、例えば、風景画像のように手前から奥までの広範囲にピントを合わせた画像か、ポートレートのように人物や静物にだけピントを合わせた画像かに分類することができる。これにより、撮影日時で画像を分類する場合と比して、所望の画像を見付け出し易くすることができる。   However, the present invention is not limited to this, and based on only the depth of field, the recorded image may be classified according to whether the depth of field is deep or shallow. Even if you classify only by the depth of field in this way, the recorded image is, for example, an image that focuses on a wide range from the front to the back, such as a landscape image, or only a person or still life, such as a portrait. The image can be classified as a focused image. This makes it easier to find a desired image as compared with the case of classifying images by shooting date and time.

またこれに限らず、被写界深度と、撮影日時、顔認識情報、GPS可否情報のうちの任意の情報とをもとに、記録した画像を分類するようにしてもよい。   However, the present invention is not limited to this, and the recorded images may be classified based on the depth of field and arbitrary information among the shooting date / time, face recognition information, and GPS availability information.

[2−4.他の実施の形態4]
さらに上述した実施の形態では、撮影日時単位のグループごとに、グループ内で最も多く登録されている撮影状況を、グループ内で最も信頼度の高い撮影状況であるとして、撮影状況を最判別するようにした。
[2-4. Other Embodiment 4]
Furthermore, in the above-described embodiment, the most frequently registered shooting situation in the group is determined as the most reliable shooting situation in the group for each group of shooting date units. I made it.

これに限らず、例えば、グループ内で登録されている撮影状況のうち、「旅行」のように1つに限定されている撮影状況があれば、これを最も信頼度の高い撮影状況であるとしてもよい。   Not limited to this, for example, if there is a shooting situation limited to one such as “travel” among the shooting situations registered in the group, this is regarded as the shooting situation with the highest reliability. Also good.

例えば、或るグループ内に2つの画像が有り、これら2つの画像の撮影状況が、それぞれ「旅行、記録、風景」、「日常」であったとする。この場合、CPU101は、「日常」を、これら2つの画像の撮影状況のうち、最も信頼度の高い撮影状況であるとする。   For example, it is assumed that there are two images in a certain group, and the shooting conditions of these two images are “travel, recording, landscape” and “daily life”, respectively. In this case, the CPU 101 assumes that “everyday” is the most reliable shooting situation among the shooting situations of these two images.

また1つに限定されている撮影状況が複数有る場合には、それらのうちのいずれか、もしくは最も多く登録されているものを、最も信頼度の高い撮影状況であると判別するようにしてもよい。   In addition, when there are a plurality of shooting situations limited to one, it is possible to determine one of them or the most registered one as the shooting situation with the highest reliability. Good.

[2−5.他の実施の形態5]
さらに上述した実施の形態では、撮影シーンと撮影状況との両方を判別するようにした。これに限らず、撮影シーン及び撮影状況のうちのどちらか一方を判別するようにしてもよい。
[2-5. Other Embodiment 5]
Furthermore, in the above-described embodiment, both the shooting scene and the shooting situation are discriminated. However, the present invention is not limited to this, and either one of the shooting scene and the shooting situation may be determined.

[2−6.他の実施の形態6]
さらに上述した実施の形態では、CPU101が、撮影時に、画像の撮影シーン及び撮影状況を判別するようにした。
[2-6. Other Embodiment 6]
Further, in the above-described embodiment, the CPU 101 discriminates the shooting scene and shooting situation of the image at the time of shooting.

これに限らず、撮影時に、撮影日時、被写界深度、顔認識情報、GPS可否情報を属性情報としてデータベースに登録しておき、この属性情報をもとに、任意の時点で撮影シーン及び撮影状況を判別するようにしてもよい。   Not limited to this, at the time of shooting, shooting date / time, depth of field, face recognition information, GPS availability information are registered in the database as attribute information, and based on this attribute information, a shooting scene and shooting can be performed at an arbitrary time. The situation may be determined.

[2−7.他の実施の形態7]
さらに上述した実施の形態では、撮像装置としてのDSC100に、撮像部としてのレンズ部110及び撮像素子112を設けるようにした。またこのDSC100に、画像を記録する記録媒体としての記録部116を設けるようにした。さらにこのDSC1に被写界深度を取得する取得部、撮像した画像を所定の記録媒体に記録する制御部、及び被写界深度に基づいて画像を分類する分類部としてのCPU101を設けるようにした。
[2-7. Other Embodiment 7]
Further, in the above-described embodiment, the DSC 100 as the imaging device is provided with the lens unit 110 and the imaging element 112 as the imaging unit. The DSC 100 is provided with a recording unit 116 as a recording medium for recording an image. Further, the DSC 1 is provided with an acquisition unit for acquiring the depth of field, a control unit for recording the captured image on a predetermined recording medium, and a CPU 101 as a classification unit for classifying the image based on the depth of field. .

本発明はこれに限らず、同様の機能を有するのであれば、上述したDSC100の各機能部を、他の種々のハードウェアもしくはソフトウェアにより構成するようにしてもよい。   The present invention is not limited to this, and each functional unit of the DSC 100 described above may be configured by other various hardware or software as long as it has similar functions.

さらに上述した実施の形態では、DSC100に本発明を適用するようにした。これに限らず、カメラ機能を有する機器であれば、デジタルビデオカメラ、携帯型電話機、ゲーム機など、この他種々の機器に適用するようにしてもよく、また適用することができる。   Further, in the above-described embodiment, the present invention is applied to the DSC 100. The present invention is not limited to this, and any device having a camera function may be applied to various other devices such as a digital video camera, a mobile phone, a game machine, and the like.

[2−8.他の実施の形態8]
さらに上述した実施の形態では、各種処理を実行するためのプログラムを、DSC100のプログラムROM102に書き込んでおくようにした。
[2-8. Other Embodiment 8]
Furthermore, in the above-described embodiment, a program for executing various processes is written in the program ROM 102 of the DSC 100.

これに限らず、このプログラムを例えばメモリカードなどの記録媒体に記録しておき、DSC100の制御部10が、このプログラムを記録媒体から読み出して実行するようにしてもよい。また記録媒体から読み出したプログラムを、フラッシュメモリ117にインストールするようにしてもよい。   For example, the program may be recorded on a recording medium such as a memory card, and the control unit 10 of the DSC 100 may read the program from the recording medium and execute the program. The program read from the recording medium may be installed in the flash memory 117.

[2−9.他の実施の形態9]
さらに本発明は、上述した実施の形態と他の実施の形態とに限定されるものではない。すなわち本発明は、上述した実施の形態と他の実施の形態の一部または全部を任意に組み合わせた形態、もしくは一部を抽出した形態にもその適用範囲が及ぶものである。
[2-9. Other Embodiment 9]
Further, the present invention is not limited to the above-described embodiment and other embodiments. That is, the scope of application of the present invention extends to a form in which a part or all of the above-described embodiment and another embodiment are arbitrarily combined, or a form in which a part is extracted.

本発明は、カメラ機能を有する機器で広く利用することができる。   The present invention can be widely used in devices having a camera function.

100……DSC(デジタルスチルカメラ)、101……CPU、102……プログラムROM、103……RAM、104……タッチパネル、105……操作部、106……液晶パネル、110……レンズ部、112……CCD、116……記録部、117……フラッシュメモリ、118……GPSモジュール。   DESCRIPTION OF SYMBOLS 100 ... DSC (digital still camera) 101 ... CPU, 102 ... Program ROM, 103 ... RAM, 104 ... Touch panel, 105 ... Operation part, 106 ... Liquid crystal panel, 110 ... Lens part, 112 ... CCD, 116 ... recording unit, 117 ... flash memory, 118 ... GPS module.

Claims (4)

撮影時における画像の被写界深度と、上記画像から人物の顔が認識できたかを示す顔認識情報及び撮影時の位置を取得できたかを示す位置取得可否情報のうち少なくとも一方とを取得し、取得した上記被写界深度と、上記顔認識情報及び上記位置取得可否情報のうち少なくとも一方とに基づいて、上記画像の撮影状況を判別し、さらに撮影日時を取得し、上記画像と、取得した上記撮影日時と、判別した上記画像の撮影状況とを関連付け、上記画像を、当該画像に関連付けられた撮影日時に基づいてグループ化し、グループごとに、グループ内の画像に関連付けられた撮影状況のうち、最も信頼度が高い撮影状況を特定して、これをグループ内の画像で共通の撮影状況となるように、グループ内の画像の撮影状況を再判別し、上記画像を、再判別した上記撮影状況によって分類するように制御する制御部
を具える画像分類装置。
Obtaining at least one of the depth of field of the image at the time of shooting and the face recognition information indicating whether or not the face of the person can be recognized from the image and the position acquisition availability information indicating whether or not the position at the time of shooting can be acquired; Based on the acquired depth of field and at least one of the face recognition information and the position acquisition availability information, the shooting situation of the image is determined, and the shooting date and time is acquired, and the image and the acquired The shooting date / time and the shooting status of the determined image are associated, the images are grouped based on the shooting date / time associated with the image, and for each group, among the shooting statuses associated with the images in the group The most reliable shooting situation is identified, and the shooting situation of the images in the group is re-determined so that this becomes a common shooting situation for the images in the group. Image classification apparatus comprising a control unit for controlling to classify by another was the shooting conditions.
上記制御部は、
得した上記被写界深度と、上記顔認識情報及び上記位置取得可否情報のうち少なくとも一方に基づいて、上記画像を撮影シーン毎に分類するように制御する
請求項に記載の画像分類装置。
The control unit
And obtained was the depth of field winding, based on at least one of the face recognition information and the position acquisition permission information, an image classification apparatus according to claim 1 for controlling so as to classify the image for each photographic scene .
制御部が、撮影時における画像の被写界深度と、上記画像から人物の顔が認識できたかを示す顔認識情報及び撮影時の位置を取得できたかを示す位置取得可否情報のうち少なくとも一方とを取得し、取得した上記被写界深度と、上記顔認識情報及び上記位置取得可否情報のうち少なくとも一方とに基づいて、上記画像の撮影状況を判別し、さらに撮影日時を取得し、上記画像と、取得した上記撮影日時と、判別した上記画像の撮影状況とを関連付け、上記画像を、当該画像に関連付けられた撮影日時に基づいてグループ化し、グループごとに、グループ内の画像に関連付けられた撮影状況のうち、最も信頼度が高い撮影状況を特定して、これをグループ内の画像で共通の撮影状況となるように、グループ内の画像の撮影状況を再判別し、上記画像を、再判別した上記撮影状況によって分類するように制御する
画像分類方法。
At least one of the depth of field of the image at the time of shooting, face recognition information indicating whether a human face can be recognized from the image, and position acquisition availability information indicating whether the position at the time of shooting can be acquired from the image Based on the acquired depth of field and at least one of the face recognition information and the position acquisition enable / disable information, determine the shooting status of the image, further acquire the shooting date and time, and acquire the image And the acquired shooting date and time and the determined shooting status of the image, the images are grouped based on the shooting date and time associated with the image, and each group is associated with an image in the group. Of the shooting situations, identify the shooting situation with the highest degree of reliability, and re-determine the shooting situation of the images in the group so that this is the same shooting situation for the images in the group. Image classification method for controlling to classify by the photographing conditions the image was re-determined.
撮影時における画像の被写界深度と、上記画像から人物の顔が認識できたかを示す顔認識情報及び撮影時の位置を取得できたかを示す位置取得可否情報のうち少なくとも一方とを制御部が取得する取得ステップと、
取得した上記被写界深度と、上記顔認識情報及び上記位置取得可否情報のうち少なくとも一方とに基づいて、上記画像の撮影状況を制御部が判別する判別ステップと、
さらに撮影日時を制御部が取得し、上記画像と、取得した上記撮影日時と、判別した上記画像の撮影状況とを制御部が関連付ける関連付けステップと、
上記画像を、当該画像に関連付けられた撮影日時に基づいて制御部がグループ化し、グループごとに、グループ内の画像に関連付けられた撮影状況のうち、最も信頼度が高い撮影状況を制御部が特定して、これをグループ内の画像で共通の撮影状況となるように、グループ内の画像の撮影状況を制御部が再判別する再判別ステップと、
上記画像を、再判別した上記撮影状況によって制御部が分類する分類ステップと
を実行させるための画像分類プログラム。
The control unit has at least one of the depth of field of the image at the time of shooting and the face recognition information indicating whether or not the person's face can be recognized from the image and the position acquisition availability information indicating whether or not the position at the time of shooting can be acquired. An acquisition step to acquire;
A determination step in which the control unit determines the shooting state of the image based on the acquired depth of field and at least one of the face recognition information and the position acquisition availability information;
Further, the control unit acquires the shooting date and time, and the control unit associates the image, the acquired shooting date and time, and the determined shooting status of the image,
The control unit groups the images based on the shooting date and time associated with the image, and for each group, the control unit identifies the shooting situation with the highest reliability among the shooting situations associated with the images in the group. Then, a re-determination step in which the control unit re-determines the shooting status of the images in the group so that this becomes a common shooting status for the images in the group;
An image classification program for executing a classification step in which the control unit classifies the image according to the re-determined shooting state .
JP2009116804A 2009-05-13 2009-05-13 Image classification apparatus, image classification method and program thereof Expired - Fee Related JP5369881B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009116804A JP5369881B2 (en) 2009-05-13 2009-05-13 Image classification apparatus, image classification method and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009116804A JP5369881B2 (en) 2009-05-13 2009-05-13 Image classification apparatus, image classification method and program thereof

Publications (3)

Publication Number Publication Date
JP2010268141A JP2010268141A (en) 2010-11-25
JP2010268141A5 JP2010268141A5 (en) 2012-04-12
JP5369881B2 true JP5369881B2 (en) 2013-12-18

Family

ID=43364778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009116804A Expired - Fee Related JP5369881B2 (en) 2009-05-13 2009-05-13 Image classification apparatus, image classification method and program thereof

Country Status (1)

Country Link
JP (1) JP5369881B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6188077B2 (en) * 2014-02-24 2017-08-30 Kddi株式会社 Management device, program, system and method for estimating floor level where portable terminal is located

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4221577B2 (en) * 2003-03-18 2009-02-12 富士ゼロックス株式会社 Image processing device
JP2005122688A (en) * 2003-09-26 2005-05-12 Fuji Photo Film Co Ltd Image processing method, device, and program
JP2008011346A (en) * 2006-06-30 2008-01-17 Olympus Imaging Corp Imaging system
JP2008042616A (en) * 2006-08-08 2008-02-21 Eastman Kodak Co Imaging apparatus
JP4870503B2 (en) * 2006-09-20 2012-02-08 オリンパスイメージング株式会社 Camera and blog management system
JP4861123B2 (en) * 2006-10-25 2012-01-25 オリンパスイメージング株式会社 Image management apparatus, camera, image management method, program
JP4759498B2 (en) * 2006-11-30 2011-08-31 オリンパスイメージング株式会社 Camera, image recording method and program
JP2008165700A (en) * 2007-01-05 2008-07-17 Seiko Epson Corp Image processing device, electronic equipment, image processing system, image processing method, and program

Also Published As

Publication number Publication date
JP2010268141A (en) 2010-11-25

Similar Documents

Publication Publication Date Title
US10764447B2 (en) Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
US9154690B2 (en) Image search device, image search method, and image search program
CN102263899B (en) Photographing device and control method therefor
KR101720774B1 (en) Digital photographing apparatus and method for providing a picture thereof
US9013589B2 (en) Digital image processing apparatus and digital image processing method capable of obtaining sensibility-based image
JP5388611B2 (en) Imaging apparatus, control method therefor, and program
JP2009044602A (en) Imaging apparatus, imaging system and imaging method
KR20190080779A (en) Electronic apparatus and method for controlling the same
JP2011055096A (en) Photographing condition setting apparatus, photographing condition setting method, and photographing condition setting program
US20130100329A1 (en) Image pickup apparatus
JP4901258B2 (en) Camera and data display method
CN112989092A (en) Image processing method and related device
JP2014146989A (en) Image pickup device, image pickup method, and image pickup program
JP2015198300A (en) Information processor, imaging apparatus, and image management system
CN106231198B (en) Shoot the method and device of image
JP2007110261A (en) Digital camera
JP2012084052A (en) Imaging apparatus, control method and program
JP2012253421A (en) Image display device, imaging apparatus, and image display program
JP5369881B2 (en) Image classification apparatus, image classification method and program thereof
WO2017022296A1 (en) Information management device, information management method, image reproduction device and image reproduction method
US20110205396A1 (en) Apparatus and method, and computer readable recording medium for processing, reproducing, or storing image file including map data
JP4185810B2 (en) Imaging device
JP5368614B2 (en) Image search apparatus and image search method
JP2010183565A (en) Image capturing apparatus, image retrieval device, and program
JP2015095082A (en) Image display device, control method therefor, and control program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120229

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120229

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130902

LAPS Cancellation because of no payment of annual fees