Nothing Special   »   [go: up one dir, main page]

JP2019169985A - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP2019169985A
JP2019169985A JP2019118316A JP2019118316A JP2019169985A JP 2019169985 A JP2019169985 A JP 2019169985A JP 2019118316 A JP2019118316 A JP 2019118316A JP 2019118316 A JP2019118316 A JP 2019118316A JP 2019169985 A JP2019169985 A JP 2019169985A
Authority
JP
Japan
Prior art keywords
image
unit
comment
input
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2019118316A
Other languages
English (en)
Inventor
藤縄 展宏
Nobuhiro Fujinawa
展宏 藤縄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Publication of JP2019169985A publication Critical patent/JP2019169985A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2217/00Details of cameras or camera bodies; Accessories therefor
    • G03B2217/24Details of cameras or camera bodies; Accessories therefor with means for separately producing marks on the film

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

【課題】撮像された画像に基づくコメントおよび画像を同時に表示させたときのマッチング感を向上させる。【解決手段】テキスト情報の記述内容に基づいて画像を加工する画像加工部と、前記テキスト情報と前記加工された画像とを関連付ける処理部と、を有する画像処理装置。【選択図】図2

Description

本発明は、画像処理装置、撮像装置およびプログラムに関する。
従来、撮像された画像に文字情報を付与する技術が開発されている。たとえば、特許文献1には、撮像画像に対して撮像画像に関連づけたコメントを付与する技術が開示されている。
特開2010−206239
本発明は、撮像された画像に基づくコメントおよび画像を同時に表示させたときのマッチング感を向上させることができる画像処理装置、撮影装置およびプログラムを提供することを目的とする。
上記の目的を達成するために、本発明に係る画像処理装置は、テキスト情報の記述内容に基づいて画像を加工する画像加工部と、前記テキスト情報と前記加工された画像とを関連付ける処理部と、を有することを特徴とする。
なお、本発明をわかりやすく説明するために、実施形態を示す図面の符号に対応付けて説明したが、本発明は、これに限定されるものでない。後述の実施形態の構成を適宜改良してもよく、また、少なくとも一部を他の構成に代替させても良い。更に、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らず、その機能を達成できる位置に配置することができる。
図1は、本発明の一実施形態に係るカメラの概略ブロック図である。 図2は、図1に示す画像処理部の概略ブロック図である。 図3は、図1および図2に示す画像処理部による処理の一例を示すフローチャートである。 図4は、図1および図2に示す画像処理部による画像処理の一例を示す。 図5は、図1および図2に示す画像処理部による画像処理の他の一例を示す。 図6は、図1および図2に示す画像処理部による画像処理の他の一例を示す。 図7は、図1および図2に示す画像処理部による画像処理の他の一例を示す。 図8は、図1および図2に示す画像処理部による画像処理の他の一例を示す。 図9は、図1および図2に示す画像処理部による画像処理の他の一例を示す。 図10は、図1および図2に示す画像処理部による画像処理の他の一例を示す。 図11は、図1および図2に示す画像処理部による画像処理の他の一例を示す。
第1実施形態
図1に示すカメラ50は、いわゆるコンパクトデジタルカメラである。以下の実施形態では、コンパクトデジタルカメラを例に説明するが、本発明はこれに限定されない。たとえば、レンズ鏡筒とカメラボディとが別々に構成される一眼レフカメラであっても良い。また、コンパクトデジタルカメラや一眼レフデジタルカメラに限らず、携帯電話などのモバイル機器、PC、フォトフレームなどにも適用できる。
図1に示すように、カメラ50は、撮像レンズ1、撮像素子2、A/D変換部3、バッファメモリ4、CPU5、記憶部6、カードインタフェース(カードI/F)7、タイミングジェネレータ(TG)9、レンズ駆動部10、入力インターフェース(入力I/F)11、温度測定部12、画像処理部13、GPS受信部14、GPSアンテナ15、表示部16およびタッチパネルボタン17を備える。
TG9及びレンズ駆動部10はCPU5に、撮像素子2及びA/D変換部3はTG9に、撮像レンズ1はレンズ駆動部10にそれぞれ接続されている。バッファメモリ4、CPU5、記憶部6、カードI/F7、入力I/F11、温度測定部12、画像処理部13、GPS受信部14および表示部16は、バス18を介して情報伝達可能に接続されている。
撮像レンズ1は、複数の光学レンズにより構成され、CPU5からの指示に基づいてレンズ駆動部10によって駆動され、被写体からの光束を撮像素子2の受光面に結像する。
撮像素子2は、CPU5の指令を受けてTG9が発するタイミングパルスに基づいて動作し、撮像素子2の前方に設けられた撮像レンズ1によって結像される被写体の画像を取得する。撮像素子2には、CCDやCMOSの半導体のイメージセンサ等を適宜選択して用いることができる。
撮像素子2から出力される画像信号は、A/D変換部3にてデジタル信号に変換される。このA/D変換部3は、撮像素子2とともに、CPU5の指令によりTG9が発するタイミングパルスに基づいて動作する。画像信号は、一時的にフレームメモリ(不図示)に記憶された後、バッファメモリ4に記憶される。なお、バッファメモリ4には、半導体メモリのうち、任意の不揮発性メモリを適宜選択して用いることができる。
CPU5は、ユーザにより電源ボタン(不図示)が押されて、カメラ50の電源が入れられると、記憶部6に記憶されているカメラ50の制御プログラムを読み込み、カメラ50を初期化する。そして、CPU5は、入力I/F11を介してユーザからの指示を受け付けると、制御プログラムに基づいて、撮像素子2に対して被写体の撮像、画像処理部13に対して撮像した画像の画像処理、その処理された画像の記憶部6やカードメモリ8への記録や表示部16への表示等の制御を行う。
記憶部6は、カメラ50が撮像した画像、CPU5が用いるカメラ50を制御する制御プログラム等の各種プログラム、及び撮像した画像に付与するためのコメント作成の基となるコメントリストを記憶する。記憶部6は、一般的なハードディスク装置、光磁気ディスク装置又はフラッシュRAM等の記憶装置を適宜選択して用いることができる。
カードI/F7には、カードメモリ8が脱着可能に装着される。バッファメモリ4に記憶されている画像は、CPU5の指示に基づいて画像処理部13で画像処理され、焦点距離、シャッター速度、絞り値及びISO値等や、画像撮像時のGPS受信部14によって求められた撮影位置や高度等からなる撮像情報がヘッダ情報として付加されたExif形式等の画像ファイルとして、カードメモリ8に記憶される。
レンズ駆動部10は、撮像素子2による被写体の撮影を行う前に、被写体の輝度を測光することによって求める合焦状態と、CPU5が算出するシャッター速度、絞り値及びISO値等に基づいて、撮像レンズ1を駆動させ、被写体からの光束を撮像素子2の受光面に結像させる。
入力I/F11は、ユーザによる操作の内容に応じた操作信号をCPU5に出力する。入力I/F11には、たとえば、不図示の電源ボタン、撮影モード等のモード設定ボタン及びレリーズボタン等の操作部材が接続されている。また、入力I/F11には、表示部16の前面に設けられるタッチパネルボタン17が接続されている。
温度測定部12は、撮像時におけるカメラ50の周りの温度を測定する。温度測定部12には、一般的な温度センサを適宜選択して用いることができる。
GPS受信部14には、GPSアンテナ15が接続され、GPS衛星からの信号を受信する。GPS受信部14は、受信した信号に基づいて、緯度、経度及び高度や日時等の情報を取得する。
表示部16は、スルー画や撮影した画像又はモード設定画面等を表示する。表示部16には、液晶モニタ等を適宜選択して用いることができる。また、表示部16の前面には、入力I/F11に接続されるタッチパネルボタン17が備えられる。
画像処理部13は、補間処理、輪郭強調処理やホワイトバランス補正等の画像処理を行うとともに、撮影条件や撮像情報等をヘッダ情報として付加したExif形式等の画像ファイル生成を行うデジタル回路である。また、画像処理部13は、図2に示すように、画像入力部102、画像解析部104、コメント作成部110、画像加工部112、画像出力部114を備え、入力される画像に対して後述の画像処理を行う。
画像入力部102は、静止画やスルー画等の画像を入力する。画像入力部102は、たとえば、図1に示すA/D変換部3から出力される画像や、バッファメモリ部4に記憶された画像や、カードメモリ8に記憶された画像を入力する。なお、他の例として、画像入力部が、ネットワーク(図示せず)を介して画像を入力しても良い。画像入力部102は、入力した入力画像を画像解析部104および画像加工部112に出力する。
画像解析部104は、画像入力部102から入力される入力画像の解析を行う。たとえば、画像解析部104は、入力画像に対して、画像特徴量(たとえば、色分布、輝度分布及びコントラスト)の算出や顔認識等を行い、画像解析結果をコメント作成部110に出力する。なお、本実施形態では、公知である任意の手法を用いて顔認識を行う。また、画像解析部104は、入力画像に付与されるヘッダ情報に基づき、撮像日時、撮像場所および温度等を取得する。画像解析部104は、画像解析結果をコメント作成部110に出力する。
また、画像解析部104は、人物判定部106および風景判定部108を有し、画像解析結果に基づいて入力画像のシーン判定を行う。人物判定部106は、画像解析結果に基づいて入力画像が人物画像であるか否かを判定したシーン判定結果を画像加工部112に出力する。風景判定部108は、画像解析結果に基づいて入力画像が風景画像か否かを判定したシーン判定結果を画像加工部112に出力する。
コメント作成部110は、画像解析部104から入力される画像解析結果に基づき、入力画像に対するコメントを作成する。コメント作成部110は、画像解析部104からの画像解析結果と記憶部6に記憶してあるテキストデータとの対応関係によりコメントを作成する。また、他の例として、コメント作成部110は、複数のコメント候補を表示部に表示し、ユーザがタッチパネルボタン17を操作することにより複数のコメント候補の中からコメントを設定しても良い。コメント作成部110は、コメントを画像加工部112および画像出力部114に出力する。
画像加工部112は、人物判定部106または風景判定部108からのシーン判定結果に基づき、画像入力部102から入力される入力画像から表示画像を作成する。なお、作成される表示画像は、一枚の画像であってもよく、複数の画像であっても良い。また、画像加工部112は、シーン判定結果とともに、コメント作成部110からのコメントおよび/または画像解析部104からの画像解析結果を利用して表示画像を作成しても良い。
画像出力部114は、コメント作成部110からのコメントと画像加工部112からの表示画像との組み合わせから成る出力画像を、図1に示す表示部16に出力する。すなわち、画像出力部114は、コメントと表示画像とを入力し、表示画像にテキスト合成領域を設定し、テキスト合成領域にコメントを合成する。表示画像に対して、テキスト合成領域を設定する手法としては、任意の手法が用いられる。たとえば、表示画像の中で、相対的に重要な被写体が写っている重要領域以外の非重要領域にテキスト合成領域を決定することができる。具体的には、人物の顔が写っている領域を重要領域に分類し、重要領域を含まない非重要領域をテキスト合成領域に設定し、テキスト合成領域にコメントを重畳させる。また、ユーザがタッチパネルボタン17を操作することにより、テキスト合成領域を設定しても良い。
次に、本実施形態における画像処理の例を、図3および図4を用いて説明する。まず、ユーザは、図1に示すタッチパネルボタン17を操作して、本実施形態における画像処理を行う画像処理モードに切り替える。
図3に示すステップS02において、ユーザは、図1に示すタッチパネルボタン17を操作して、表示部13に表示される画像の候補から、画像処理を行う画像を選択決定する。本実施形態では、図4(a)に示す画像を選択する。
ステップS04において、ステップS02で選択された画像が、図2に示すバス18を介して、カードメモリ8から画像入力部102に転送される。画像入力部102は、入力された入力画像を画像解析部104および画像加工部112に出力する。
ステップS06において、図2に示す画像解析部104は、図4(a)に示す入力画像の画像解析を行う。画像解析部104は、図4(a)に示す入力画像について、たとえば、顔認識等を行い、入力画像に撮像されている人物の人数を求めるとともに、各人物の性別及び口角の上がり具合等に基づいた笑顔判定を行う。本実施形態では、公知である任意の手法を用いて、各人物の性別判定及び笑顔判定を行う。画像解析部104は、たとえば、図4(a)に示す入力画像について、「1人、女性、笑顔」の画像解析結果を図2に示すコメント作成部110に出力する。
ステップS08において、図2に示す画像解析部104の人物判定部106は、ステップS06における「1人、女性、笑顔」の画像解析結果から、図4(a)に示す入力画像は人物画像であると判定する。人物判定部106は、「人物画像」のシーン判定結果を画像加工部112に出力する。本実施形態では、人物画像なので、ステップS12(Yes側)に移行する。
ステップS12において、図2に示すコメント作成部110は、画像解析部104からの「1人、女性、笑顔」の画像解析結果から、「わっ!微笑んでる(^_^)」のコメントを作成する。コメント作成部110は、当該コメントを画像出力部114に出力する。
ステップS14において、図2に示す画像加工部112は、人物判定部106からの「人物画像」のシーン判定結果に基づき、図4(b)に示す表示画像(ただし、この段階では、コメントは付与されていない)を作成する。すなわち、画像加工部112は、「人物画像」の入力に基づき、図4(a)において破線で囲まれる人物の顔を中心にした領域をクローズアップするように入力画像を加工する。画像加工部112は、人物の顔をクローズアップした表示画像を画像出力部114に出力する。
ステップS16において、画像出力部114は、上記のステップS12で作成したコメントおよびステップS14で作成した表示画像を合成して、図4(b)に示す出力画像を図1に示す表示部16に出力する。
ステップS18において、図1に示す表示部16に表示される出力画像をユーザが確認する。ユーザは、図4(b)に示す出力画像に満足した場合は、タッチパネルボタン17を操作することにより、出力画像を記憶部6に記憶させて、画像処理を終了する。出力画像を保存する際には、撮像情報および上記の画像処理におけるパラメータをヘッダ情報として付加したExif形式等の画像ファイルとして、記憶部6に記憶する。
一方、ユーザが図4(b)に示す出力画像に満足しなかった場合は、タッチパネルボタン17を操作することにより、ステップS20(No側)に進む。このとき、コメント作成部110は、ステップS06における画像解析結果に基づき、複数のコメントの候補を表示部16に表示する。ユーザは、タッチパネルボタン17を操作することにより、表示部16に表示されるコメントの候補から、画像に適したコメントを選択する。コメント作成部112は、ユーザにより選択されたコメントを画像出力部114に出力する。
次に、ステップS20において、図2に示す画像加工部112は、人物判定部106からのシーン判定結果およびステップS20においてユーザが選択したコメントに基づき、表示画像を作成する。なお、画像加工部112は、シーン判定結果およびユーザが選択したコメントに基づいて、複数の表示画像の候補を、表示部16に表示しても良い。ユーザは、タッチパネルボタン17を操作することにより、複数の候補の中から表示画像を選択して、表示画像を決定する。画像加工部112は、表示画像を画像出力部114に出力して、ステップS16に移行する。
なお、上述の実施形態では、図4(b)に示すように、1枚の出力画像であったが、図4(c)に示すように、複数の出力画像であっても良い。
この場合、ステップS14において、図2に示す画像加工部112は、人物判定部106からのシーン判定結果に基づき、図4(c)に示す複数の表示画像(ただし、この段階では、コメントは付与されていない)を作成する。すなわち、画像加工部112は、図4(c)に示す初期画像(1)(図4(a)に対応)、中間画像(2)(初期画像(1)を、人物を中心にズームアップした画像)、最終画像(3)(中間画像(2)を、人物を中心にさらにズームアップした画像)を作成する。画像加工部112は、当該複数の画像から成る表示画像を画像出力部114に出力する。
ステップS16において、画像出力部114は、ステップS12で作成したコメントおよびステップS14で作成した表示画像を合成して、図4(c)に示す出力画像を図1に示す表示部16に出力する。すなわち、画像出力部114は、コメントとともに、図4(c)の(1)〜(3)に示す一連の画像を順次表示するスライドショーを出力する。
なお、本実施形態では、図4(c)の(1)〜(3)に示す全ての画像にコメントを付与したが、初期画像(1)および中間画像(2)にはコメントを付与しないで、最終画像(3)のみにコメントを付与しても良い。
また、本実施形態では、初期画像(1)、中間画像(2)および最終画像(3)の3枚の画像を出力したが、初期画像(1)および最終画像(3)の2枚の画像を出力しても良い。また、中間画像を2枚以上で構成し、より滑らかにズームアップさせても良い。
このように本実施形態では、表情について記述したコメントと、表情がクローズアップされる表示画像とを合成して出力画像を出力している。このため、本実施形態では、コメントと表示画像とがマッチングした出力画像を得ることができる。
第2実施形態
第2実施形態では、図5(b)に示すように、出力画像に付与するコメントが異なる点で、第1実施形態と異なる以外は、第1実施形態と同様である。以下の説明において、上記の実施形態と重複する部分の説明を省略する。
図3に示すステップS06において、図2に示す画像解析部104は、図5(a)に示す入力画像の画像解析を行う。画像解析部104は、図4(a)に示す入力画像について、上記の第1実施形態と同様に、「1人、女性、笑顔」の画像解析結果を図2に示すコメント作成部110に出力する。また、画像解析部104は、入力画像のヘッダ情報から、「2008年4月14日」の情報を取得してコメント作成部110に出力する。
ステップS08において、図2に示す画像解析部104の人物判定部106は、ステップS06における「1人、女性、笑顔」の画像解析結果から、図4(a)に示す入力画像は人物画像であると判定する。人物判定部106は、「人物画像」のシーン判定結果を画像加工部112に出力する。本実施形態では、人物画像なので、ステップS12(Yes側)に移行する。
ステップS12において、図2に示すコメント作成部110は、画像解析部104からの「2008年4月14日」および「1人、女性、笑顔」の画像解析結果から、「2008年 春の一枚」および「わっ!微笑んでる(^_^)」のコメントを作成する。コメント作成部110は、当該コメントを画像出力部114に出力する。
ステップS14において、図2に示す画像加工部112は、人物判定部106からの「人物画像」のシーン判定結果に基づき、図5(b)に示す複数の表示画像(ただし、この段階では、コメントは付与されていない)を作成する。すなわち、画像加工部112は、図5(b)に示す初期画像(1)(図5(a)に対応)、ズームアップ画像(2)(初期画像(1)を、人物を中心にズームアップした画像)を作成する。画像加工部112は、当該複数の画像から成る表示画像を画像出力部114に出力する。
ステップS16において、画像出力部114は、ステップS12で作成したコメントおよびステップS14で作成した表示画像を合成して、図5(b)に示す出力画像を図1に示す表示部16に出力する。本実施形態では、複数の画像のそれぞれにマッチングしたコメントを付与しており、具体的には、画像のズームアップの度合いに応じて、それらの画像に付与するコメントを変更している。すなわち、画像出力部114は、図5(b)(1)に示すように、初期画像に「2008年 春の一枚」のコメントを組み合わせた出力画像、および、図5(b)(2)に示すように、ズームアップ画像に「わっ!微笑んでる(^_^)」のコメントを組み合わせた出力画像を順次表示することによるスライドショーを出力する。
このように、本実施形態では、ズームアップ前の初期画像に、日時に関するコメントを付与した画像と、ズームアップ後のズームアップ画像に、当該ズームアップ画像にマッチングしたコメントを付与した画像と、を用いてスライドショーを出力している。その結果、本実施形態では、初期画像に付与された日時に関するコメントにより、撮影時の記憶を連想して思い出しながら、ズームアップ画像に付与された当該ズームアップ画像にマッチングしたコメントにより、撮影時の記憶をより膨らませて思い出すことができる。
第3実施形態
第3実施形態では、図6(a)に示すように、入力画像に複数の人物が含まれる点で、第1実施形態と異なる以外は、第1実施形態と同様である。以下の説明において、上記の実施形態と重複する部分の説明を省略する。
図3に示すステップS06において、図2に示す画像解析部104は、図6(a)に示す入力画像の画像解析を行う。本実施形態では、画像解析部104は、たとえば、図6(a)に示す入力画像について、「2人、男性1人女性1人、笑顔」の画像解析結果を、図2に示すコメント作成部110に出力する。
ステップS08において、図2に示す画像解析部104の人物判定部106は、ステップS06における「2人、男性1人女性1人、笑顔」の画像解析結果から、図6(a)に示す入力画像は人物画像であると判定する。人物判定部106は、「人物画像」のシーン判定結果を画像加工部112に出力する。本実施形態では、人物画像なので、ステップS12(Yes側)に移行する。
ステップS12において、図2に示すコメント作成部110は、画像解析部104からの「2人、男性1人女性1人、笑顔」の画像解析結果から、「みんな いい表情!」のコメントを作成する。コメント作成部110は、当該コメントを、画像加工部112および画像出力部114に出力する。
ステップS14において、図2に示す画像加工部112は、人物判定部106からの「人物画像」のシーン判定結果とコメント作成部110からの「みんな いい表情!」のコメントとに基づき、図6(b)に示す表示画像(ただし、この段階では、コメントは付与されていない)を作成する。すなわち、画像加工部112は、「人物画像」および「みんな いい表情!」の入力に基づき、図6(a)において破線で囲まれる2人の顔を中心にした領域をクローズアップするように画像加工を行う。画像加工部112は、表示画像を画像出力部114に出力する。
ステップS16において、画像出力部114は、上記のステップS12で作成したコメントおよびステップS14で作成した表示画像を合成して、図6(b)に示す出力画像を図1に示す表示部16に出力する。
第4実施形態
第4実施形態では、図7(b)に示すように、出力画像が複数である点および出力画像に付与するコメントが異なる点で、第3実施形態と異なる以外は、第3実施形態と同様である。以下の説明において、上記の実施形態と重複する部分の説明を省略する。
図3に示すステップS06において、図2に示す画像解析部104は、図7(a)に示す入力画像の画像解析を行う。画像解析部104は、図7(a)に示す入力画像について、上記の第3実施形態と同様に、「2人、男性1人女性1人、笑顔」の画像解析結果を図2に示すコメント作成部110に出力する。また、画像解析部104は、入力画像のヘッダ情報から、「xx市xx町xx(位置情報)」の情報を取得してコメント作成部110に出力する。
ステップS08において、図2に示す画像解析部104の人物判定部106は、ステップS06における「2人、男性1人女性1人、笑顔」の画像解析結果から、図7(a)に示す入力画像は人物画像であると判定する。人物判定部106は、「人物画像」のシーン判定結果を画像加工部112に出力する。本実施形態では、人物画像なので、ステップS12(Yes側)に移行する。
ステップS12において、図2に示すコメント作成部110は、画像解析部104からの「xx市xx町xx(位置情報)」および「2人、男性1人女性1人、笑顔」の画像解析結果から、「自宅」および「みんな いい表情!」のコメントを作成する。コメント作成部110は、当該コメントを画像出力部114に出力する。
ステップS14において、図2に示す画像加工部112は、人物判定部106からの「人物画像」のシーン判定結果に基づき、図7(b)に示す複数の表示画像(ただし、この段階では、コメントは付与されていない)を作成する。すなわち、画像加工部112は、図7(b)に示す初期画像(1)(図7(a)に対応)、ズームアップ画像(2)(図7(a)において破線で囲まれる2人の顔を中心にした領域をクローズアップした画像)を作成する。画像加工部112は、当該複数の画像から成る表示画像を画像出力部114に出力する。
ステップS16において、画像出力部114は、ステップS12で作成したコメントおよびステップS14で作成した表示画像を合成して、図7(b)に示す出力画像を図1に示す表示部16に出力する。本実施形態では、複数の画像のそれぞれにマッチングしたコメントを付与しており、具体的には、画像のズームアップの度合いに応じて、それらの画像に付与するコメントを変更している。すなわち、画像出力部114は、図7(b)(1)に示すように、初期画像に「自宅」のコメントを組み合わせた出力画像、および、図7(b)(2)に示すように、ズームアップ画像に「みんな いい表情!」のコメントを組み合わせた出力画像を順次表示することによるスライドショーを出力する。
このように、本実施形態では、ズームアップ前の初期画像に、位置情報に関するコメントを付与した画像と、ズームアップ後のズームアップ画像に、当該ズームアップ画像にマッチングしたコメントを付与した画像と、を用いてスライドショーを出力している。その結果、本実施形態では、初期画像に付与された位置情報に関するコメントにより、撮影時の記憶を連想して思い出しながら、ズームアップ画像に付与された当該ズームアップ画像にマッチングしたコメントにより、撮影時の記憶をより膨らませて思い出すことができる。
第5実施形態
本発明の第5実施形態では、図8(a)に示すように、入力される画像が海岸を含む風景画像である点で、第1実施形態と異なる以外は、第1実施形態と同様である。以下の説明においては、上記の実施形態と重複する部分の説明を省略する。
図3に示すステップS06にて、図2に示す画像解析部104は、図8(a)に示す入力画像の画像解析を行う。画像解析部104は、図8(a)に示す画像について、青の色分布の割合および輝度が大きく、しかも焦点距離が長いことから、たとえば、「晴れ、海」の画像解析結果を、図2に示す画像加工部112に出力する。
ステップS08において、図2に示す人物判定部106は、画像解析部104による「晴れ、海」の画像解析結果から、図8(a)に示す画像は、人物画像ではないと判定する。
ステップS10において、図2に示す風景判定部108は、「晴れ、海」の画像解析結果から、図8(a)に示す入力画像は風景画像であると判定し、「風景画像」のシーン判定結果を図2に示す画像加工部112に出力する。
ステップS12において、図2に示すコメント作成部110は、画像解析部104からの「晴れ、海」の画像解析結果から、「穏やかな瞬間の一枚」のコメントを作成する。コメント作成部110は、当該コメントを、画像加工部112および画像出力部114に出力する。
ステップS14において、画像加工部112は、風景判定部108からの「風景画像」のシーン判定結果およびコメント作成部110からの「穏やかな瞬間の一枚」のコメントに基づき、図8(b)に示す表示画像を作成する。すなわち、本実施形態では、明度を徐々に変化させる表示画像を作成する。具体的には、図8(a)に示す入力画像に比べて明るさを若干暗く表示した図8(b)に示す初期画像(1)から、最終画像(2)(図8(a)に対応)まで、明るさを徐々に明るく変化する表示画像(ただし、この段階では、コメントは付与されていない)を作成する。
ステップS16にて、画像出力部114は、ステップS12で作成したコメントとステップS14で作成した表示画像とを組み合わせて、図8(b)に示す出力画像を図1に示す表示部16に出力する。このとき、画像出力部114は、図8(b)に示す初期画像(1)から最終画像(2)まで明るさを徐々に変化させる段階ではコメントを付与せず、最終画像(2)に到達したときにコメントを付与する。なお、初期画像(1)から最終画像(2)まで明るさを徐々に変化させる段階において、コメントを付与しても良い。
上記のように、本実施形態では、明度を徐々に変化させることで、最終的に表示される画像全体の色や雰囲気を際立たせて、最終的に表示される画像とテキストとのマッチング感をより向上させることができる。
第6実施形態
本発明の第4実施形態では、図9(a)に示すように、入力される画像が山を含む風景画像である点で、第5実施形態と異なる以外は、第3実施形態と同様である。以下の説明においては、上記の実施形態と重複する部分の説明を省略する。
図3に示すステップS06にて、図2に示す画像解析部104は、図9(a)に示す入力画像の画像解析を行う。画像解析部104は、図9(a)に示す入力画像について、青および緑の色分布の割合ならびに輝度が大きく、しかも焦点距離が長いことから、たとえば、「晴れ、山」と解析する。また、画像解析部104は、入力画像のヘッダ情報から、「2008年1月24日」に取得された画像である旨の情報を取得する。画像解析部104は、画像解析結果を図2に示す画像加工部112に出力する。なお、画像解析部104は、入力画像のヘッダ情報から撮影場所を取得して、撮影場所と「晴れ、山」の画像解析結果とから、山の名称を解析することも可能である。
ステップS08において、図2に示す人物判定部106は、画像解析部104による「晴れ、山」の画像解析結果から、図9(a)に示す入力画像は、人物画像ではないと判定する。
ステップS10において、図2に示す風景判定部108は、「晴れ、山」の画像解析結果から、図9(a)に示す入力画像は風景画像であると判定し、「風景画像」のシーン判定結果を図2に示す画像加工部112に出力する。
ステップS12において、図2に示すコメント作成部110は、画像解析部104からの「晴れ、山」および「2008年1月24日」の画像解析結果から、「すがすがしい。。。」および「2008/1/24」のコメントを作成する。コメント作成部110は、当該コメントを、画像加工部112および画像出力部114に出力する。
ステップS14において、画像加工部112は、風景判定部108からの「風景画像」のシーン判定結果およびコメント作成部110からの「晴れ、山」のコメントに基づき、図9(b)に示す表示画像を作成する。すなわち、本実施形態では、ピントを徐々に変化させる表示画像を作成する。具体的には、図9(a)に示す入力画像をぼかした図9(b)の初期画像(1)から、最終画像(2)(図9(a)に対応)まで、ピントを徐々に合わせる表示画像(ただし、この段階では、コメントは付与されていない)を作成する。
ステップS16において、画像出力部114は、ステップS12で作成したコメントおよびステップS14で作成した表示画像を組み合わせて、図9(b)に示すように、ピントを徐々に合わせながら表示する出力画像を図1に示す表示部16に出力する。
上記のように、本実施形態では、ピントを徐々に調整することで、最終的に表示される画像全体の色や雰囲気を際立たせて、最終的に表示される画像とテキストとのマッチング感を向上させることができる。
第7実施形態
本発明の第7実施形態では、図10(a)に示すように、人、建物、看板、道路、空等の様々な被写体を含む画像である点で、第1実施形態と異なる以外は、第1実施形態と同様である。以下の説明においては、上記の実施形態と重複する部分の説明を省略する。
図3に示すステップS06にて、図2に示す画像解析部104は、図10(a)に示す入力画像の画像解析を行う。画像解析部104は、たとえば、図10(a)に示す入力画像について、様々な色が含まれていることから、「その他の画像」であると解析する。また、画像解析部104は、入力画像のヘッダ情報から、「2012年7月30日、大阪」の情報を取得する。画像解析部104は、画像解析結果を図2に示す画像加工部112に出力する。
ステップS08において、図2に示す人物判定部106は、画像解析部104による「その他の画像」の画像解析結果から、図10(a)に示す入力画像は、人物画像ではないと判定する。
ステップS10において、図2に示す風景判定部108は、「その他の画像」の画像解析結果から、図10(a)に示す入力画像は風景画像ではないと判定する。ステップS24(No側)に移行する。
ステップS24において、図2に示すコメント作成部110は、画像解析部104からの「その他の画像」および「2012年7月30日、大阪」の画像解析結果から、「大阪 2012.7.30」のコメントを作成する。コメント作成部110は、当該コメントを、画像加工部112および画像出力部114に出力する。
ステップS26において、画像入力部102は、風景判定部108からの「その他の画像」のシーン判定結果およびコメント作成部110からの「大阪 2012.7.30」のコメントに基づき、図10(b)に示すカードメモリ8内の関連画像を入力する。すなわち、画像入力部102は、「大阪 2012.7.30」の情報に基づき、大阪で2012年7月30日に撮像された図10(b)に示す関連画像を入力する。なお、画像入力部102は、日時や場所や気温等の情報に基づいて、これらの情報に関連性を有する関連画像を入力しても良い。
ステップS14において、画像加工部112は、風景判定部108からの「その他の画像」のシーン判定結果およびコメント作成部110からの「大阪 2012.7.30」のコメントに基づき、図10(c)に示す表示画像を作成する。すなわち、本実施形態では、画像加工部102は、図10(a)に示す入力画像および図10(b)に示す2枚の関連画像を組み合わせる。本実施形態では、図10(a)に示す入力画像が目立つように、図10(a)に示す入力画像を真ん中に配置する。画像加工部112は、表示画像を画像出力部114に出力する。
ステップS16にて、画像出力部114は、ステップS12で作成したコメントおよびステップS14で作成した表示画像を組み合わせて、図10(c)に示す出力画像を図1に示す表示部16に出力する。
上記のように、本実施形態では、日時および場所について記述したコメントと、日時および場所が近い画像をグループ化した表示画像とを組み合わせて出力画像を出力している。このため、本実施形態では、コメントと表示画像とがマッチングしており、コメントとグループ化された表示画像とから、撮影時の記憶を連想して思い出すことができる。
第8実施形態
本発明の第8実施形態では、図11(b)に示す関連画像に人物画像が含まれる点で、第7実施形態と異なる以外は、第5実施形態と同様である。以下の説明において、上記の実施形態と重複する部分の説明を省略する。
図3に示すステップS26において、画像入力部102は、風景判定部108からの「その他の画像」のシーン判定結果およびコメント作成部110からの「大阪 2012.7」のコメントに基づき、図11(b)に示すカードメモリ8内の関連画像を入力する。本実施形態では、図11(b)の左側に示すように、関連画像に人物画像が含まれる。関連画像に人物画像が含まれる場合は、上述の実施形態と同様に、図11(c)の右上に示すように、人物画像はズームアップされ、ズームアップされた画像に対して人物画像の表情に関連づけたコメントが付与される。
ステップS14において、画像加工部112は、風景判定部108からの「その他の画像」のシーン判定結果およびコメント作成部110からの「大阪 2012.7」のコメントに基づき、図11(c)に示す表示画像を作成する。すなわち、本実施形態では、画像加工部102は、図11(a)に示す入力画像および図11(b)に示す2枚の関連画像を組み合わせる。本実施形態では、図11(a)に示す入力画像および図11(b)の左側に示す人物画像が目立つように、これらの画像は他の画像と比較して大きく表示する。画像加工部112は、表示画像を画像出力部114に出力する。
ステップS16にて、画像出力部114は、ステップS12で作成したコメントおよびステップS14で作成した表示画像を組み合わせて、図11(c)に示す出力画像を図1に示す表示部16に出力する。
なお、本発明は、上記の実施形態に限定されない。
上記の実施形態では、図2に示す画像解析部104は、人物判定部106および風景判定部108を含んだが、たとえば、動物判定部や友達判定部などの他の判定部をさらに含んでも良い。たとえば、動物画像のシーン判定結果の場合は、動物をズームアップする画像処理を行うことが考えられ、友達画像のシーン判定結果の場合は、友達の画像をグループ化した表示画像を作成することが考えられる。
上記の実施形態では、カメラ50の編集モードにおいて、画像処理を行ったが、カメラ50による撮像時に、画像処理を行って出力画像を表示部16に表示しても良い。たとえば、ユーザがレリーズボタンを半押したときに、出力画像を作成して表示部16に表示することができる。
上記の実施形態では、出力画像を記憶部6に記録したが、たとえば、出力画像そのものを記憶部に記録せずに、撮像画像を画像処理のパラメータとともに、Exif形式等の画像ファイルとして記録しても良い。
なお、本発明に係る画像処理装置における各工程を実現するためのプログラムを備え、画像処理装置としてコンピュータを機能させることに対しても適用可能である。
本発明は、その精神又はその主要な特徴から逸脱することなく他の様々な形で実施することができる。そのため、上述した実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈されてはならない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内である。
6…記憶部
13…画像処理部
16…表示部
17…タッチパネルボタン
50…カメラ
102…画像入力部
104…画像解析部
106…人物判定部
108…風景判定部
110…コメント作成部
112…画像加工部
114…画像出力部

Claims (1)

  1. テキスト情報の記述内容に基づいて画像を加工する画像加工部と、
    前記テキスト情報と前記加工された画像とを関連付ける処理部と、
    を有する画像処理装置。
JP2019118316A 2012-08-17 2019-06-26 画像処理装置 Withdrawn JP2019169985A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012180746 2012-08-17
JP2012180746 2012-08-17

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017181254A Division JP2017229102A (ja) 2012-08-17 2017-09-21 画像処理装置、撮像装置およびプログラム

Publications (1)

Publication Number Publication Date
JP2019169985A true JP2019169985A (ja) 2019-10-03

Family

ID=50685611

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2014530565A Active JP6213470B2 (ja) 2012-08-17 2013-08-14 画像処理装置、撮像装置およびプログラム
JP2017181254A Pending JP2017229102A (ja) 2012-08-17 2017-09-21 画像処理装置、撮像装置およびプログラム
JP2019118316A Withdrawn JP2019169985A (ja) 2012-08-17 2019-06-26 画像処理装置

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2014530565A Active JP6213470B2 (ja) 2012-08-17 2013-08-14 画像処理装置、撮像装置およびプログラム
JP2017181254A Pending JP2017229102A (ja) 2012-08-17 2017-09-21 画像処理装置、撮像装置およびプログラム

Country Status (4)

Country Link
US (1) US20150249792A1 (ja)
JP (3) JP6213470B2 (ja)
CN (1) CN104584529A (ja)
WO (1) WO2014027675A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105302315A (zh) * 2015-11-20 2016-02-03 小米科技有限责任公司 图片处理方法及装置
CN107181908B (zh) * 2016-03-11 2020-09-11 松下电器(美国)知识产权公司 图像处理方法、图像处理装置及计算机可读记录介质

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100396083C (zh) * 2003-11-27 2008-06-18 富士胶片株式会社 图像编辑装置及其方法
JP4578948B2 (ja) * 2003-11-27 2010-11-10 富士フイルム株式会社 画像編集装置および方法並びにプログラム
JP4735084B2 (ja) * 2005-07-06 2011-07-27 パナソニック株式会社 密閉型圧縮機
US9131140B2 (en) * 2007-08-10 2015-09-08 Canon Kabushiki Kaisha Image pickup apparatus and image pickup method
JP2009141516A (ja) * 2007-12-04 2009-06-25 Olympus Imaging Corp 画像表示装置,カメラ,画像表示方法,プログラム,画像表示システム
JP2009239772A (ja) * 2008-03-28 2009-10-15 Sony Corp 撮像装置、画像処理装置、および画像処理方法、並びにプログラム
JP5232669B2 (ja) * 2009-01-22 2013-07-10 オリンパスイメージング株式会社 カメラ
JP5402018B2 (ja) * 2009-01-23 2014-01-29 株式会社ニコン 表示装置及び撮像装置
JP2010191775A (ja) * 2009-02-19 2010-09-02 Nikon Corp 画像加工装置、電子機器、プログラム及び画像加工方法
JP5423052B2 (ja) * 2009-02-27 2014-02-19 株式会社ニコン 画像処理装置、撮像装置及びプログラム
JP2010244330A (ja) * 2009-04-07 2010-10-28 Nikon Corp 画像演出プログラムおよび画像演出装置
JP4992932B2 (ja) * 2009-04-23 2012-08-08 村田機械株式会社 画像形成装置
JP5701040B2 (ja) * 2010-12-14 2015-04-15 キヤノン株式会社 画像処理装置、画像処理方法、プログラム
US9117221B2 (en) * 2011-06-30 2015-08-25 Flite, Inc. System and method for the transmission of live updates of embeddable units
US9100724B2 (en) * 2011-09-20 2015-08-04 Samsung Electronics Co., Ltd. Method and apparatus for displaying summary video
US9019415B2 (en) * 2012-07-26 2015-04-28 Qualcomm Incorporated Method and apparatus for dual camera shutter

Also Published As

Publication number Publication date
WO2014027675A1 (ja) 2014-02-20
JP6213470B2 (ja) 2017-10-18
JPWO2014027675A1 (ja) 2016-07-28
CN104584529A (zh) 2015-04-29
US20150249792A1 (en) 2015-09-03
JP2017229102A (ja) 2017-12-28

Similar Documents

Publication Publication Date Title
JP2005318554A (ja) 撮影装置及びその制御方法及びプログラム及び記憶媒体
US9900523B2 (en) Image processing apparatus which performs image processing on photographic subject
US20120105676A1 (en) Digital photographing apparatus and method of controlling the same
JP5228354B2 (ja) ディジタルカメラ
JP5423052B2 (ja) 画像処理装置、撮像装置及びプログラム
JP2015005860A (ja) 撮像装置、撮像方法及びプログラム
JP3971240B2 (ja) アドバイス機能付きカメラ
JP2008104069A (ja) デジタルカメラ及びデジタルカメラのプログラム
JP5896680B2 (ja) 撮像装置、画像処理装置、及び画像処理方法
JP2019169985A (ja) 画像処理装置
JP2008245093A (ja) デジタルカメラ、デジタルカメラの制御方法及び制御プログラム
JP2011135527A (ja) デジタルカメラ
US8571404B2 (en) Digital photographing apparatus, method of controlling the same, and a computer-readable medium storing program to execute the method
JP2014068081A (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP5530548B2 (ja) 表情データベース登録方法及び表情データベース登録装置
JP2013062711A (ja) 撮影装置、撮影画像処理方法、およびプログラム
JP6024135B2 (ja) 被写体追尾表示制御装置、被写体追尾表示制御方法およびプログラム
JP2007259004A (ja) デジタルカメラ、画像処理装置及び画像処理プログラム
JP4865631B2 (ja) 撮像装置
JP2013081136A (ja) 画像処理装置および制御プログラム
JP5029765B2 (ja) 画像データ生成装置、画像データ生成方法
JP6357922B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP4757828B2 (ja) 画像合成装置、撮影装置、画像合成方法及び画像合成プログラム
JP6610713B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5711296B2 (ja) 撮像方法及び撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200311

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20200423