JP4271648B2 - Image composition apparatus, imaging means, and program - Google Patents
Image composition apparatus, imaging means, and program Download PDFInfo
- Publication number
- JP4271648B2 JP4271648B2 JP2004327016A JP2004327016A JP4271648B2 JP 4271648 B2 JP4271648 B2 JP 4271648B2 JP 2004327016 A JP2004327016 A JP 2004327016A JP 2004327016 A JP2004327016 A JP 2004327016A JP 4271648 B2 JP4271648 B2 JP 4271648B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- unit
- data
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Editing Of Facsimile Originals (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- Studio Circuits (AREA)
Description
本発明は、取得した複数の画像データを合成して1つの画像データを生成する画像合成装置、撮像手段、およびプログラムに関する。 The present invention relates to an image synthesizing apparatus, an imaging unit, and a program for synthesizing a plurality of acquired image data to generate one image data.
従来、カメラ等の撮像機器において広範囲にピントの合った画像を得るために、レンズの絞り調節による被写界深度の調整などに加え、撮像装置が取得した画像データに画像処理を施すことが行われている。画像処理により、同一画像内に存在する遠景と近景の距離が大きい場合や画像に高い鮮鋭度が求められる場合など、レンズの絞り調節など光学的手法による調節のみでは得られない品質の高い画像を得ることができる。 Conventionally, in order to obtain an image focused on a wide range in an imaging device such as a camera, in addition to adjusting the depth of field by adjusting the aperture of a lens, image processing has been performed on image data acquired by an imaging device. It has been broken. High-quality images that cannot be obtained only by adjustment using an optical method such as lens aperture adjustment, such as when the distance between distant and close-up scenes in the same image is large due to image processing, or when high sharpness is required for the image. Obtainable.
広範囲にピントの合った画像を取得する画像処理方法としては、従来、同一被写体を撮像した複数枚の元画像の画像データについて、画像データ中の特定位置の画素または特定の被写体が撮像された領域(以下「被写体領域」と称する。)を注目画素または注目領域として特定し、RGBの各色領域からエッジ検出フィルタなどを用いて注目画素または注目領域の周辺画素または周辺領域に対する画像データの変化量を検出し、変化量の最も大きい画素または領域をピントの合った元画像として選択し、選択した画素または領域の画像データを画面全体にわたって合成し合成画像を生成する方法が知られている(たとえば特許文献1参照)。 Conventionally, as an image processing method for acquiring an image that is in focus over a wide range, conventionally, with respect to image data of a plurality of original images obtained by imaging the same subject, a pixel at a specific position in the image data or a region where a specific subject is captured (Hereinafter referred to as “subject region”) is specified as the target pixel or the target region, and the amount of change in image data with respect to the target pixel or the peripheral pixel of the target region or the peripheral region is determined from each of the RGB color regions using an edge detection filter or the like. A method is known in which a pixel or region having the largest amount of change is detected and selected as a focused original image, and image data of the selected pixel or region is synthesized over the entire screen to generate a composite image (for example, a patent) Reference 1).
しかし、上記特許文献1に記載された発明は、被写体ごとに合焦判定を行ったうえで合成画像を形成することになるため、特に画像データ内に被写体が複数存在する場合には、必要な精度の合焦判定を行うために相当枚数の画像データの撮像が必要となる。そのため、画像データを一時的に保存するためのメモリの容量を多く必要とする。また、画像データ内では被写体ごとに領域を形成し領域ごとに合焦判定などの処理を行うため、CPUの処理量が多くなり、CPUの処理負担の増大や、処理時間の長大化を招く恐れがある。
However, since the invention described in
一方、被写体領域ごとの合焦判定を行わずに複数の画像データをもとに画像合成を行い、画像処理に要するCPUの処理負担を減少させる方法も考えられるが、その場合であっても全体として違和感のある合成画像が生成されることを防ぐにはなんらかの画像処理が必要となる。 On the other hand, a method of reducing the processing load on the CPU required for image processing by combining images based on a plurality of image data without performing focus determination for each subject area is conceivable. In order to prevent the generation of a composite image with a sense of incongruity, some image processing is required.
本発明は上記課題に基づいてなされたものであり、本発明の目的は、画像全体にわたってピントの合った品質の高い画像データを、少ない数の画像データを元に、少ない処理負荷や少ないメモリ容量において形成できる画像合成装置、撮像手段、およびプログラムを提供するものである。 The present invention has been made on the basis of the above problems, and an object of the present invention is to provide high-quality image data focused on the entire image, a small processing load and a small memory capacity based on a small number of image data. Providing an image synthesizing device, an imaging means, and a program.
本発明の上記課題は、撮像装置が同一の被写体をピントを変えて連続的に撮影し取得した複数の画像データに基づいて一の合成画像データを形成する画像合成装置であって、前記各画像データに含まれる特徴量情報を所定の画素群単位に形成した処理領域ごとに抽出する特徴量情報抽出手段と、前記特徴量情報抽出手段が抽出した前記特徴量情報を前記複数の画像データそれぞれの対応する前記処理領域ごとに対比し、前記処理領域ごとの前記特徴量情報が最も多い画像データの処理領域データの集合を比較結果として抽出する比較手段と、前記比較結果のうち、異なる画像データの処理領域同士が隣接する箇所を抽出して周辺領域として形成する周辺領域形成手段と、前記周辺領域に相当する処理領域に存在する特徴量情報の連続性の有無を判断し、特徴量情報の連続性が有ると判断された処理領域については、当該処理領域において前記特徴量情報が最も多い画像データの対応する処理領域データの集合を判断結果として出力する連続性判断手段と、前記比較結果と前記判断結果とを対比して前記比較結果を修正した修正結果を出力する修正手段と、前記修正結果を用いて前記処理領域単位で前記複数の画像データの中の対応する画像データの処理領域データを合成して前記合成画像データを形成する画像データ合成手段とを有する画像合成装置によって達成される。 The above object of the present invention is an image synthesizing apparatus for forming a one composite image data based on the plurality of image data acquired continuously shooting imaging device by changing the focus of the same object, each image Feature amount information extracting means for extracting feature amount information included in the data for each processing region formed in a predetermined pixel group unit, and the feature amount information extracted by the feature amount information extracting means for each of the plurality of image data compared for each of the processing regions corresponding, comparison means for extracting as a comparison result a set of processing area data of the most common image data and the feature amount information of each of the processing region, among the comparison result, different image data Peripheral area forming means for extracting a part where processing areas are adjacent to each other and forming it as a peripheral area, and presence / absence of continuity of feature amount information existing in the processing area corresponding to the peripheral area Determination, and for been processed region it determined that the continuity of the feature amount information is present, the continuity determination to output as a result determine a corresponding set of processing area data of the most common image data and the feature amount information in the processing region Means for comparing the comparison result with the determination result and outputting a correction result obtained by correcting the comparison result, and a correspondence among the plurality of image data for each processing region using the correction result The image synthesizing apparatus includes image data synthesizing means for synthesizing the processing area data of the image data to be synthesized to form the synthesized image data.
上記画像合成装置によれば、複数取得した画像データを複数の処理領域に区分し、処理領域単位で複数の画像データを合成し合成画像データを形成することにより、CPUに重い処理負担をかけることなく画像合成処理を行うことができる。 According to the image composition device, a plurality of acquired image data is divided into a plurality of processing areas, and a plurality of image data is synthesized in units of processing areas to form composite image data, thereby placing a heavy processing burden on the CPU. Image composition processing can be performed.
上記画像合成装置によれば、異なる画像データの対応する処理領域において特徴量情報の多い方を合成画像データの形成に用いることにより、処理領域ごとにより鮮明な画像を用いて画像データの合成を行うことができる。 According to the above image composition device, the image data is synthesized using a clearer image for each processing region by using the one with more feature amount information in the processing region corresponding to the different image data for forming the composite image data. be able to.
上記画像合成装置によれば、隣接する処理領域に含まれる特徴量情報の連続性の有無を判断した結果を画像データの合成に用いることにより、近景被写体と遠景被写体との境界領域など特徴量情報が連続する部分において位置ずれや大きさのずれ等が生じにくいため、視覚上もほぼ違和感のない合成画像データを形成できる。 According to the image composition device, feature amount information such as a boundary region between a foreground subject and a distant subject is obtained by using the result of determining the continuity of feature amount information included in adjacent processing regions for image data composition. Therefore, it is possible to form composite image data that is almost visually uncomfortable because it is difficult for position shifts, size shifts, and the like to occur in a continuous portion.
本発明の画像合成装置において、複数の画像データは、撮像部とシャッタ駆動手段とを備えた撮像装置の、利用者による前記撮像部のシャッタボタンの操作によるシャッタの稼働を検知するシャッタ検知手段と、前記シャッタ検知手段による前記シャッタの稼働の検知を受けて前記撮像部のレンズ部のピントを調節するピント調節手段と、前記ピント調節手段による前記レンズ部のピントの調節を受けて前記撮像部のシャッタを稼働させるシャッタ稼働手段とを有する前記シャッタ駆動手段によって、利用者による前記撮像部のシャッタボタンの操作を受けて、撮像部に同一の被写体を連続で撮影させ、ピントを変えた同一の被写体の複数の画像データを取得させる。 In the image composition device according to the present invention , the plurality of pieces of image data include: a shutter detection unit that detects an operation of a shutter by an operation of a shutter button of the imaging unit by a user of an imaging device including an imaging unit and a shutter driving unit; A focus adjusting unit that adjusts a focus of the lens unit of the imaging unit in response to detection of the operation of the shutter by the shutter detecting unit, and a focus adjustment unit that adjusts a focus of the lens unit by the focus adjusting unit. The same subject in which the same subject is continuously photographed by the imaging unit in response to the operation of the shutter button of the imaging unit by the user by the shutter driving unit having the shutter operating unit for operating the shutter, and the focus is changed. A plurality of image data is acquired.
上記撮像手段によれば、1回のシャッタボタンの操作でふたつの画像データを連続して取得することが可能になり、ふたつの画像データで画像合成を行う画像合成装置に用いる画像データの取得を実現できる。 According to the imaging means, it is possible to continuously acquire two image data by operating the shutter button once, and it is possible to acquire image data to be used for an image composition apparatus that performs image composition using the two image data. realizable.
本発明によれば、一の画像データ中に近景と遠景が並存する場合においても、近景と遠景との境界部分に違和感の無い、画面全体にわたって焦点の合った品質の高い合成画像の形成をCPU等の処理負荷やメモリ容量の少ない状態で行うことが可能となり、カメラ付き携帯電話など処理能力の小さいCPUや容量の少ないメモリを内蔵した小型端末機器においても容易に実現可能となる。 According to the present invention, even when a foreground and a distant view coexist in one image data, the CPU can form a high-quality composite image that is focused on the entire screen without causing a sense of incongruity at the boundary between the foreground and the distant view. Thus, it can be easily realized even in a small terminal device incorporating a CPU with a small processing capacity and a memory with a small capacity, such as a mobile phone with a camera.
以下、本発明の一の実施の形態を図1の構成ブロック図を参照して説明する。また、図1の各構成ブロックによって取得されるデータのイメージを図9から図21に示すイメージ図を参照して説明する。 Hereinafter, one embodiment of the present invention will be described with reference to the block diagram of FIG. 1 will be described with reference to the image diagrams shown in FIGS. 9 to 21. FIG.
図1は、本発明に係る撮像装置および画像合成装置の構成を示す構成ブロック図である。本発明に係る撮像装置1Aは、カメラ付き携帯電話機やカメラ付きPHS(Personal Handy-Phone System)やカメラ付き携帯情報端末のような各種撮像装置を内蔵した各種の携帯端末に内蔵されている。撮像装置1Aは、画像合成装置1と、撮像部2と、シャッタ駆動手段3と、AD変換部4とを備えている。
FIG. 1 is a configuration block diagram showing configurations of an imaging apparatus and an image composition apparatus according to the present invention. The imaging device 1A according to the present invention is built in various mobile terminals including various imaging devices such as a camera-equipped mobile phone, a camera-equipped PHS (Personal Handy-Phone System), and a camera-equipped personal digital assistant. The imaging device 1A includes an
撮像部2は画像撮影用のCCDカメラであり、レンズ部2aと撮像素子部2bとを備える。撮像部2はオートフォーカス機構を有し、ピントを調整することができる。ピントの調整は、レンズの開口絞りにより被写界深度を深くするものでもよいし、ズームレンズによる焦点距離の調整によるものでもよい。
The
撮像部2のレンズ部2aは複数枚のレンズを有し、たとえばズームレンズのように焦点距離を調整する手段、または、開口絞りのように被写界深度を調節する手段を有する。撮像素子部2bはCCD(change coupled device)撮像デバイスであって、レンズ部2a側のレンズに対向する面である受光面2cに集積した画素領域を設け、画素領域がレンズ部2aの集光した光を受光し結像する。
The
受光面2cの画素領域には画素がマトリクス状に多数配列されている。画素領域を形成する画素はホトダイオードのような受光素子にて形成されており、画素の表面にはそれぞれ光の3原色である赤(R)、緑(G)、青(B)の色フィルタが貼り付けられている。各画素が受けた光の強さは表面に貼り付けられたフィルタの色ごとに電気信号の大きさに変換され(光電変換)、変換された電気信号は信号量に応じた電荷として一定時間画素内に蓄積されたのち、CCD転送により縦または横方向の画素のラインごとに信号電荷として出力される。
A large number of pixels are arranged in a matrix in the pixel region of the
図1に示すシャッタ駆動手段3は、撮像部2のレンズ部2aとシャッタ(図示せず)とを自動的に稼働させるための制御手段であり、撮像部2のシャッタのスイッチ(図示せず)が1回操作されたことを受けて撮像部2に同一の被写体を2回連続で撮影させ、撮像部2に2回連続で画像データを取得させる。シャッタ駆動手段3は、シャッタ検知部3aと、ピント調節部3bと、シャッタ稼働部3cとを有している。
The
シャッタ検知部3aは利用者の手動操作に基づくシャッタの稼働を検知するセンサであって、利用者が手動操作で撮像部2のシャッタのスイッチ(図示せず)を押すと、シャッタの稼働信号や開閉動作を検知し、シャッタのスイッチ(図示せず)が押されたことを知らせる検知信号を出力する。
The
ピント調節部3bはシャッタ検知部3aが出力した検知信号を受けて、レンズ部2aの開口絞りの大きさまたはズームレンズの位置を予め設定された所定の状態(以下「設定状態」と称する。)に移動させ、レンズ部2aのピントを調節する。本実施の形態における設定状態は、通常のカメラは遠方の被写体に対する被写界深度を深くとれることに鑑み、レンズ部2aが開口絞りを有する場合には開口絞りが小さくなって遠方まで被写界深度が深まった状態に設定され、レンズ部2aがズームレンズである場合には焦点が遠方に合った状態に設定されている。ただし、撮像装置1Aの状態や撮像対象によっては、設定状態はレンズ部2aの開口絞りが大きくなった状態やズームレンズの焦点距離が撮像部2から近い位置であってもよい。また、レンズ部2aの調節に要する時間は、同一の被写体を撮影する必要があることに鑑み、極めて短時間であることが望ましい。ピント調節部3bはレンズ部2aの調節が終了すると調節が終了したことを通知する信号を出力する。
The
シャッタ稼働部3cは焦点調節部3bから調節が終了した旨の信号を受信すると撮像部2に対してシャッタの稼働信号を送信する。撮像部2はシャッタ稼働部3cからシャッタの稼働信号を受信すると自動的にシャッタを再度開閉させて2回目の写真撮影を行い、2回目の画像データの取得を行う。本明細書においては、利用者によって撮像部2のシャッタのスイッチが押されたのちに最初に撮影された写真により撮像部2が生成する画像データを「第1画像データ」と称し、最初の撮影の後連続して撮影された写真により撮像部2が生成する画像データを「第2画像データ」と称する。
When the
図9に撮像部2が取得した第1画像データのイメージ図を示し、図10に撮像部2が取得した第2画像データのイメージ図を示す。図9に示す第1画像データ21は、焦点が撮像部2から近距離に合った状態で撮像された画像データであり、実線が焦点の合った鮮鋭な輪郭線を示し、点線が焦点の外れたぼけた輪郭線を示している。図9においては、円柱状の近景被写体22が鮮鋭な輪郭線で撮像され、自由曲線(山の稜線を示す)の遠景被写体23がぼけた輪郭線で撮像されている。図10においては、遠景被写体23が鮮鋭な輪郭線で撮像され、近景被写体22がぼけた輪郭線で撮像されている。
FIG. 9 shows an image diagram of the first image data acquired by the
図1に戻り、AD変換部4は量子化器であり、撮像素子部2bから出力された画像データの信号を受信して赤(R)、緑(G)、青(B)ごとに量子化し、アナログ信号からディジタル信号に変換する。 Returning to FIG. 1, the AD conversion unit 4 is a quantizer, which receives the image data signal output from the imaging device unit 2 b and quantizes it for each of red (R), green (G), and blue (B). Convert from analog signal to digital signal.
画像合成装置1は、撮像装置1Aが内蔵されたカメラ付き携帯電話機やカメラ付きPHSなどに組み込まれたCPUや各種画像処理プロセッサ、およびCPUの演算処理によって実行されるコンピュータプログラムなどによって形成され、特徴量情報抽出部7と、比較部8と、ラベリング部9と、周辺領域形成部10と、連続性判断部11と、修正部12と、画像データ合成部13と、記憶手段14とを備えている。
The
特徴量情報抽出部7は、AD変換部4から出力された第1画像データおよび第2画像データを受信し、第1画像データおよび第2画像データのそれぞれに含まれる特徴量情報を抽出する。特徴量情報抽出部7が抽出する特徴量としては、第1画像データおよび第2画像データに含まれるエッジ情報や、RGBなどの色情報などが考えられる。 The feature amount information extraction unit 7 receives the first image data and the second image data output from the AD conversion unit 4, and extracts feature amount information included in each of the first image data and the second image data. The feature amount extracted by the feature amount information extraction unit 7 may be edge information included in the first image data and the second image data, color information such as RGB, and the like.
特徴量情報抽出部7は、所定の画素群ごとに形成された処理領域を単位にして特徴量を抽出する。 The feature amount information extraction unit 7 extracts feature amounts in units of processing regions formed for each predetermined pixel group.
図2に処理領域の模式図を示す。処理領域2dはr行×s列(rおよびsは1以上の整数である。)のマトリクス状の画素群によって形成され、処理領域2d群はp行×q列(pおよびqは1以上の整数であり、図2においてはp=10かつq=14である。)のマトリクス格子状を形成する。各処理領域2dには行番号と列番号で形成された番地情報(i,j)が関連付けられる。ここでiは行番号、jは列番号であって、1≦i≦pかつ1≦j≦qである。画像合成装置1における処理を正しく行うためには、各処理領域2dを形成する画素の数はすべて同一であり、各処理領域2dの面積がすべて等しいことが望ましい。
FIG. 2 shows a schematic diagram of the processing area. The
図1に戻り、特徴量情報抽出部7において特徴量情報として第1画像データおよび第2画像データに含まれるエッジ情報を用いる場合には、第1画像データおよび第2画像データのそれぞれに対し畳み込みオペレータを適用した演算処理を行い、第1画像データおよび第2画像データのそれぞれに含まれる特徴量情報を抽出する。抽出されたエッジ量は、処理領域2dごとに具体的な数値により算出される。
Returning to FIG. 1, when the edge information included in the first image data and the second image data is used as the feature amount information in the feature amount information extraction unit 7, the first image data and the second image data are convolved with each other. Calculation processing using an operator is performed to extract feature amount information included in each of the first image data and the second image data. The extracted edge amount is calculated by a specific numerical value for each
図3に特徴量情報抽出部7が特徴量としてエッジ情報を抽出する場合に用いる畳み込みオペレータの具体例を示す。図3のa-1およびa-2はPrewittのエッジ検出オペレータ(a-1はx方向の差分、a-2はy方向の差分を求めるオペレータ)であり、b-1およびb-2はSobelのエッジ検出オペレータ(b-1はx方向の差分、b-2はy方向の差分を求めるオペレータ)である。a-1,a-2,b-1,b-2のオペレータはいずれも3×3画素の9画素に対する畳み込みフィルタであり、中央の値が注目画素に対する重み付け係数の値であり、周辺の8つの値が注目画素の8近傍の周辺画素に対する重み付け係数の値である。特徴量情報抽出部7は図3(a-1)および(a-2)、または(b-1)および(b-2)のいずれかを画像データに適用して注目画素の画像データと周辺画素の画像データとの濃度値の差分を求め、注目画素をずらしながら処理を繰り返し行うことにより、処理領域2d全体や画像データ全体の特徴量部分を抽出できる。
FIG. 3 shows a specific example of a convolution operator used when the feature quantity information extraction unit 7 extracts edge information as a feature quantity. In FIG. 3, a-1 and a-2 are Prewitt edge detection operators (a-1 is an x direction difference, a-2 is an y direction difference operator), and b-1 and b-2 are Sobel. Edge detection operators (b-1 is an x direction difference and b-2 is an y direction difference operator). The operators a-1, a-2, b-1, and b-2 are all convolution filters for 9 pixels of 3 × 3 pixels, the center value is the value of the weighting coefficient for the pixel of interest, and the surrounding 8 One value is a value of a weighting coefficient for neighboring pixels in the vicinity of 8 of the target pixel. The feature amount information extraction unit 7 applies any of FIGS. 3A-1 and 3A-2, or B-1 and B-2 to the image data, and the image data of the pixel of interest and the surrounding area. By calculating the density value difference from the image data of the pixel and repeatedly performing the process while shifting the target pixel, it is possible to extract the feature amount portion of the
図3の(c)は3行×3列の移動平均オペレータであり、図3の(d)(e)は3行×3列の加重平均オペレータであって、本実施の形態においては選択的に用いられる。図3(c)(d)(e)のオペレータは、それぞれ中央の値が注目画素に対する重み付け係数の値であり、周辺の8つの値が注目画素の8近傍の周辺画素に対する重み付け係数の値である。図3(c)(d)(e)に示すいずれかのオペレータを画像データに適用し、注目画素をずらしながら注目画素の画像データと周辺画素の画像データとの濃度値の差分を求めることにより、画像データを平滑化し、ノイズが存在する部分や主被写体と背景被写体との境界部分などに、ノイズの除去や境界部分の不自然な接合状態をぼかすことができる。 3C is a moving average operator of 3 rows × 3 columns, and FIGS. 3D and 3E are weighted average operators of 3 rows × 3 columns, which are selectively used in this embodiment. Used for. The operators in FIGS. 3C, 3D, and 3E each have a center value as a weighting coefficient value for the target pixel, and eight neighboring values as weighting coefficient values for the neighboring pixels in the vicinity of the target pixel. is there. By applying one of the operators shown in FIGS. 3C, 3D, and 3E to the image data, and obtaining the difference in density value between the image data of the pixel of interest and the image data of the surrounding pixels while shifting the pixel of interest Further, it is possible to smooth the image data, and to remove noise and blur an unnatural connection state of the boundary portion in a portion where noise exists or a boundary portion between the main subject and the background subject.
なお、図3に示すオペレータはいずれも3×3画素に適用するサイズであるが、オペレータのサイズは3×3画素に限定されず、たとえば5×5画素や7×7画素など、他のサイズであってもよい。 Note that all of the operators shown in FIG. 3 are sizes applicable to 3 × 3 pixels, but the size of the operator is not limited to 3 × 3 pixels, and other sizes such as 5 × 5 pixels and 7 × 7 pixels, for example. It may be.
図11に特徴量情報抽出部7が第1画像データからエッジ成分を抽出したデータのイメージ図を示し、図12に特徴量情報抽出部7が第2画像データからエッジ成分を抽出したデータのイメージ図を示す。図11および図12においては、実線が強いエッジ成分のエッジ情報を示し、点線が弱いエッジ成分のエッジ情報を示している。図11に示す第1画像データのエッジ成分抽出データ25においては近景被写体22から強いエッジ成分が抽出されて遠景被写体23から弱いエッジ成分が抽出されている。図12に示す第2画像データのエッジ成分抽出データ26においては近景被写体22から弱いエッジ成分が抽出されて遠景被写体23から強いエッジ成分が抽出されている。
FIG. 11 shows an image diagram of data obtained by extracting the edge component from the first image data by the feature amount information extracting unit 7. FIG. 12 shows an image diagram of data obtained by extracting the edge component from the second image data by the feature amount information extracting unit 7. Show. In FIGS. 11 and 12, the solid line indicates edge information of a strong edge component, and the dotted line indicates edge information of a weak edge component. In the edge
なお、図1に示す特徴量情報抽出部7においてRGBなどの色情報を抽出する場合には、抽出する色のフィルタ等を用いて所望の色情報を抽出する。 When color information such as RGB is extracted by the feature amount information extraction unit 7 shown in FIG. 1, desired color information is extracted using a filter of the color to be extracted.
図1において、比較部8は、第1画像データと第2画像データとに含まれる特徴量情報の量を処理領域2dごとに比較し、比較の結果特徴量成分が多く含まれている方の処理領域2dを選択し、選択した処理領域2dの集合により選択したデータを比較結果として出力する。
In FIG. 1, the comparison unit 8 compares the amount of feature amount information included in the first image data and the second image data for each
図13に比較部8が出力した比較結果データのイメージ図を示す。比較結果データ27の各マス目は図2に示す処理領域2dであり、斜線で示された処理領域2dは第1画像データ21の方がエッジ量が多いと判断された第1画像データ推定領域28であり、斜線以外の処理領域2dは第2画像データ24の方がエッジ量が多いと判断された第2画像データ推定領域29である。図13においては、遠景被写体23のエッジ情報はすべて第2画像データ推定領域29に含まれており、近景被写体22のエッジ情報は大部分が第1画像データ推定領域28に含まれているが両上端部のエッジ情報は第2画像データ推定領域29に含まれている。
FIG. 13 shows an image diagram of comparison result data output by the comparison unit 8. Each square of the
図1に戻り、ラベリング部9は、比較部8が出力した比較結果のデータを形成する各処理領域2dの番地情報を抽出し、処理領域2dごとの番地情報に画像識別子を関連付ける。画像識別子は第1画像データおよび第2画像データを識別するための文字や記号などであり、本実施の形態においては、第1画像データの画像識別子に「A」の文字を適用し、第2画像データの画像識別子に「B」の文字を適用する。本明細書においては、画像データを形成する処理領域2dの番地情報に各画像データの画像識別子を関連付けることを「ラベリング」と称し、ラベリングによって形成したデータを「ラベリングデータ」と称する。ラベリング部9は、処理領域2dごとに「A」または「B」のラベリングがされた第1ラベリングデータおよび比較部8から供給された比較結果のデータを出力する。
Returning to FIG. 1, the
図14にラベリング部9が形成する第1ラベリングデータのイメージ図を示す。第1ラベリングデータ30においては、第1画像データ推定領域28(ドット表示された領域)には処理領域2dごとに画像識別子「A」がラベリングされ、第2画像データ推定領域29(無地で表示された部分)には処理領域2dごとに画像識別子「B」がラベリングされている。
FIG. 14 shows an image diagram of the first labeling data formed by the
図1に戻り、周辺領域形成部10は、ラベリング部9が出力した比較結果のデータにおける第1画像データを元に形成された処理領域2d(すなわちラベリング部9が画像識別子「A」をラベリングした処理領域2d)と第2画像データを元に形成された処理領域2d(すなわちラベリング部9が画像識別子「B」をラベリングした処理領域2d)とが隣接している境界の箇所を抽出し、境界の箇所に隣接する処理領域2dが形成する領域である周辺領域を形成する。ここで処理領域2dが「隣接」している状態とは2つの処理領域2dが共有する一辺を有する状態のことをいい、一の処理領域2dを注目領域としたとき注目領域の上下左右にある処理領域2d(つまり、注目領域の番地情報が(x,y)であった場合における、番地情報が(x-1,y),(x+1,y),(x,y-1),(x,y+1)のいずれかである処理領域2d)が隣接する処理領域2dに該当する。
Returning to FIG. 1, the peripheral
図15に周辺領域形成部10において形成された周辺領域データのイメージ図を示す。図15中、ドット表示された処理領域2dが図14において画像識別子「A」と画像識別子「B」とが隣接している処理領域2dであり、かかる領域が周辺領域データ31を形成する。なお、本明細書においては、図15に示すとおり、周辺領域形成部10が形成した周辺領域に含まれるデータを「周辺領域データ」と称する。
FIG. 15 shows an image diagram of the peripheral area data formed in the peripheral
図1に戻り、連続性判断部11は、特徴量情報抽出部7が出力した第1画像データおよび第2画像データの特徴量情報の供給と周辺領域形成部10が形成した周辺領域データとの供給を受け、第1画像データおよび第2画像データにおいて周辺領域に相当する処理領域2dに存在する特徴量情報の連続性の有無を判断する。なお、連続性判断部11において有無が判断される連続性とは、隣接する処理領域2d同士にわたって連続した特徴量情報が含まれる可能性のことである。連続性判断部11は判断結果のデータに連続性があると判断した部分に「A」または「B」の画像識別子のうち適切な方をラベリングして第2ラベリングデータを形成して出力する。「A」「B」いずれの画像識別子が適切であるかは、連続性があると判断した処理領域2dにおいて第1画像データおよび第2画像データのうち特徴量情報が多い方を選択することで決定する。
Returning to FIG. 1, the continuity determination unit 11 supplies the feature amount information of the first image data and the second image data output from the feature amount information extraction unit 7 and the peripheral region data formed by the peripheral
図16に連続性判断部11による連続性の判断結果のイメージ図を示す。連続性判断部11が周辺領域データ31を対象に連続性の判断を行った結果は、周辺領域データ31中の近景被写体22のエッジ情報が連続している部分が連続性があると判断される。図16において、連続性があると判断された領域32は、ドット表示された領域として表示されている。
FIG. 16 shows an image diagram of the continuity determination result by the continuity determination unit 11. As a result of the continuity determination unit 11 determining the continuity for the surrounding
図17に第2ラベリングデータのイメージ図を示す。図16において連続性があると判断された領域32に対応する領域に第2ラベリングデータ33が形成されている。図16に示す連続性があると判断された領域32においては第2画像データよりも第1画像データの方がエッジ量が多いため、第2ラベリングデータ33を形成する各処理領域2dには、第1画像データを意味する画像識別子「A」が関連付けられている。
FIG. 17 shows an image diagram of the second labeling data.
図1に戻り、修正部12は、連続性判断部11が出力した第2ラベリングデータの画像識別子とラベリング部9が形成した第1ラベリングデータの画像識別子とを対比し、双方の画像識別子が異なる箇所を抽出する。双方の画像識別子が異なる処理領域2dが存在する場合、第1ラベリングデータの異なる画像識別子を第2ラベリングデータの画像識別子に置き換える。修正部12による修正結果は第3ラベリングデータとして出力される。
Returning to FIG. 1, the correction unit 12 compares the image identifier of the second labeling data output from the continuity determination unit 11 with the image identifier of the first labeling data formed by the
図18に第3ラベリングデータのイメージ図を示す。第3ラベリングデータ34は、第1画像データ推定領域28(図18中ドット表示された領域)の左右上端部分の処理領域2d(図18中斜線表示された領域)が第2画像データ推定領域29から第1画像データ推定領域28に置き換えられ(以下置き換えられた領域を「置換領域」と称する。)置換領域35a,35bは第1画像データ推定領域28の一部を形成している。
FIG. 18 shows an image diagram of the third labeling data. In the
図1に戻り、画像データ合成部13は、修正部12が出力した第3ラベリングデータとAD変換部4が出力した第1画像データおよび第2画像データとの供給を受け、第3ラベリングデータの番地情報および画像識別子をもとに第1画像データと第2画像データを合成して合成画像データを形成する。合成画像データはメインメモリや伝送手段やフラッシュメモリなどの各種記録媒体に出力される。 Returning to FIG. 1, the image data synthesis unit 13 receives the third labeling data output from the correction unit 12 and the first image data and the second image data output from the AD conversion unit 4, and receives the third labeling data. Based on the address information and the image identifier, the first image data and the second image data are synthesized to form synthesized image data. The composite image data is output to various recording media such as a main memory, transmission means, and flash memory.
図19は第3ラベリングデータに基づいて第1画像データと第2画像データとの合成を行う過程を示すイメージ図である。図19において、ドット表示された領域36は図18に示す第3ラベリングデータの34の第1画像データ推定領域28(ドット表示された領域)に相当し、斜線表示された領域37a,37bは図18に示す第3ラベリングデータ34の置換領域35a,35b(斜線表示された領域)に相当し、両領域36、37a、37bによって第1画像データ21が合成される。図19において無地で表示された領域は図18に示す第3ラベリングデータ34の第2画像データ推定領域29(無地で表示された領域)に相当し、第2画像データ24が合成される。
FIG. 19 is an image diagram illustrating a process of combining the first image data and the second image data based on the third labeling data. In FIG. 19, a dot-displayed
図20は、画像データ合成部13によって合成された合成画像データのイメージ図である。 FIG. 20 is an image diagram of the composite image data synthesized by the image data synthesis unit 13.
図20に示す合成画像データ38の近景被写体22はすべて第1画像データが合成されたものであり、遠景被写体23はすべて第2画像データが合成されたものである。
All the foreground subjects 22 in the
なお、図20の合成画像データ38との比較のため、図21に比較結果データ27のみにより合成された場合に形成される仮想合成画像データのイメージ図を示す。図21示す仮想合成画像データ39は、大半の被写体がより鮮明な輪郭情報を含む画像データが合成されているが、近景被写体22の一部(図21においては近景被写体22の左右上端部近傍)に第2画像データが合成されており、図20に示す合成画像データ38に比べると一部違和感のある画像データとなっている。
For comparison with the
図1に戻り、記憶手段14はDRAMなどの各種内蔵メモリであって、画像処理に利用されるデータや処理途中のデータを一時的に記憶する。本実施の形態においては、AD変換部4が出力した第1画像データおよび第2画像データと、ラベリング部9が出力する第1ラベリングデータとが保存される。
Returning to FIG. 1, the storage means 14 is various built-in memories such as DRAMs, and temporarily stores data used for image processing and data being processed. In the present embodiment, the first image data and second image data output from the AD conversion unit 4 and the first labeling data output from the
なお、ピント調節部3bにおける調節がレンズ部2aのズームレンズの位置である場合には、特徴量情報抽出部7や、連続性判断部11や、画像データ合成部13などが、第1画像データと第2画像データにおける被写体の大きさの違いを補正するための機能を有していることが望ましい。
When the adjustment in the
ここで、図1に示す連続性判断部11における連続性の判断方法の具体例を説明する。 Here, a specific example of a continuity determination method in the continuity determination unit 11 shown in FIG. 1 will be described.
(第1の方法)
第1の方法は特徴量情報抽出部7が特徴量としてエッジ情報を抽出した場合に用いられる。図4は第1の方法の処理手順を示すフローチャートであり、図5は第1の方法による処理の模式を示す図である。以下図4および図5に基づいて第1の方法における連続性の判断方法を説明する。
(First method)
The first method is used when the feature amount information extraction unit 7 extracts edge information as a feature amount. FIG. 4 is a flowchart showing a processing procedure of the first method, and FIG. 5 is a diagram showing a model of processing by the first method. The continuity determination method in the first method will be described below with reference to FIGS. 4 and 5.
図4に示すとおり、特徴量情報抽出部7にてエッジ抽出処理が施された第1画像データおよび第2画像データに対しては、各画素のエッジ量が所定のしきい値以上かしきい値未満かを判定することで2値化が行われる。たとえば、しきい値未満のエッジ量を0(エッジなし)の画素データとし、しきい値以上のエッジ量を1(エッジあり)の画素データとして形成される(ステップP1)。 As shown in FIG. 4, for the first image data and the second image data that have been subjected to the edge extraction process by the feature amount information extraction unit 7, the edge amount of each pixel is greater than or equal to a predetermined threshold value. Binarization is performed by determining whether it is less than the value. For example, the amount of edge less than the threshold is formed as pixel data of 0 (no edge), and the amount of edge greater than the threshold is formed as pixel data of 1 (with edge) (step P1).
エッジ量を2値化した第1画像データおよび第2画像データからは、周辺領域形成部10において周辺領域とされた処理領域2dから周辺領域データが抽出される(ステップP2)。
From the first image data and the second image data obtained by binarizing the edge amount, the peripheral area data is extracted from the
周辺領域として抽出された処理領域2dのうち、一の処理領域が注目領域として形成される(ステップP3)。注目領域が形成されると、注目領域と注目領域に隣接する処理領域2dとにまたがって形成したエッジの連続性判断のための所定の範囲(以下「判定領域」と称する。)が形成される(ステップP4)。
Of the
図5に、ステップP3において形成された注目領域およびステップP4において形成された判定領域の模式を示す。注目領域2gと注目領域2gに隣接する一の処理領域2dとが共有する一辺2hにまたがって形成された所定の範囲が判定領域2iである。
FIG. 5 schematically shows the attention area formed in step P3 and the determination area formed in step P4. A predetermined range formed over one
図4に示すとおり、連続性判断部11は判定領域2i中に含まれる「エッジあり」を示す数値1のデータの数を計測し(ステップP5)、判定領域2i中に数値1のデータの数が所定量以上存在するか否かを判定する(ステップP6)。判定の結果、数値1のデータが所定量以上存在すると判定されれば注目領域2gと注目領域2gに隣接する処理領域2dとの間には含まれるデータにエッジ情報の連続性があるものと判断する(ステップP7)。
As shown in FIG. 4, the continuity determination unit 11 measures the number of data of
たとえば図5においては、判定領域2iが縦6画素データ×横6画素データ(うち注目領域2gに3画素データ、処理領域2dに3画素データ)の計36画素データの範囲であり、判定領域2iのうちエッジ量1の画素データが60パーセント(すなわち21個)以上の画素データがエッジ量1のデータであるか否かを判定する。判定の結果、21個以上の画素データがエッジ量1のデータであった場合には、注目領域2gと隣接する処理領域2dとの間にはデータ中に連続性のあるエッジを含むものと判断する。
For example, in FIG. 5, the determination area 2 i is a range of 36 pixel data in total of 6 vertical pixel data × 6 horizontal pixel data (including 3 pixel data in the
図4に示すとおり、ステップP7の処理を行ったのち、まだ隣接する処理領域2dとの間でエッジ情報の連続性の有無を判断していない処理領域2dが存在する場合には(ステップP8)注目領域2gの番地情報のうちxまたはyのうち少なくともいずれか一方を1繰上げて注目領域2gを1だけずらし(ステップP9)ステップP4以降の処理を繰り返す。ステップP6において数値1のデータが所定量以上存在しないと判定された場合には、判定領域2i中のデータには注目領域2gと注目領域2gに隣接する処理領域2dとの間にはエッジ情報の連続性がないものと判定する(ステップP10)。注目領域2gと注目領域2gに隣接する処理領域2dにおいてまだ判定を行っていない領域がある場合には(ステップP11)判定領域2iを1画素列共有する一辺に沿って移動させ(ステップP12)ステップP5以降の処理を繰り返す。すなわち、判定の結果ひとつでも数値1の画素データが所定量以上存在する箇所があった場合(たとえば図5において数値1の画素データが21個以上存在する判定領域2iがあった場合)には判定対象の注目領域2gと当該注目領域2gに隣接する判定対象の処理領域2dとの間には連続するエッジが存在し、注目領域2gと注目領域2gに隣接する処理領域2dとの間にはエッジ情報の連続性があるものと判断する。
As shown in FIG. 4, after performing the process of step P7, if there is a
ステップP11において注目領域2gと注目領域2gに隣接する処理領域2dにおいてすべての領域にわたって判定を行ったと判断された場合には、注目領域2gの番地情報のうちxまたはyのうち少なくともいずれか一方を1繰り上げて注目領域2gを1だけずらして新たな注目領域2gを形成し(ステップP9)、ステップP4以降の処理を繰り返す。
If it is determined in step P11 that the determination has been made for all the areas in the attention area 2g and the
ステップP8において、すべての処理領域2dが隣接する処理領域2dとのエッジ情報の連続性の判断を行ったと判断された場合には、含まれるデータに連続性があると判断された処理領域2dについて、ラベリング部9が形成したラベリングデータを抽出し、画像識別子「A」「B」の個数を対比して「A」「B」いずれの個数が多いかを計測する(ステップP13)。計測の結果、画像識別子「A」の方が多いと判定された場合には、エッジ情報の連続性があると判断された処理領域2dにはすべて画像識別子「A」を関連付け(ステップP15)、画像識別子「B」の方が多いと判定された場合には、エッジ情報の連続性があると判断された処理領域2dにはすべて画像識別子「B」を関連付ける(ステップP16)。ステップP15またはステップP16で画像識別子を関連付けられた処理領域2dは第2ラベリングデータを形成する(ステップP17)。
If it is determined in step P8 that all the
第1の方法によれば、判定領域2i中のエッジ情報の量によって連続性を判断することにより、隣接する処理領域2d同士に含まれるエッジ情報の連続性の判断を高い確実性をもって行うことができる。
According to the first method, by determining the continuity based on the amount of edge information in the determination area 2i, it is possible to determine the continuity of the edge information included in the
(第2の方法)
第2の方法は特徴量情報抽出部7が特徴量情報としてエッジ情報を抽出した場合に用いられる。図6は第2の方法の処理手順を示すフローチャートである。以下図6に基づいて第2の方法における連続性の判断方法を説明する。
(Second method)
The second method is used when the feature amount information extraction unit 7 extracts edge information as feature amount information. FIG. 6 is a flowchart showing the processing procedure of the second method. The continuity determination method in the second method will be described below with reference to FIG.
特徴量情報抽出部7にてエッジ抽出処理が施された第1画像データおよび第2画像データの各画素データのエッジ量に対し、2値よりも細分した量子化を行う。たとえば第1画像データおよび第2画像データ中のエッジ量の最大値255とし、最小値を0として256段階に変換(8ビット量子化)し、各画素データのエッジ量を0から255までとする(ステップP21)。 The feature amount information extraction unit 7 performs quantization that is subdivided into binary values for the edge amounts of the pixel data of the first image data and the second image data subjected to the edge extraction processing. For example, the maximum value 255 of the edge amount in the first image data and the second image data is set, the minimum value is set to 0, and 256 steps are converted (8-bit quantization), and the edge amount of each pixel data is set from 0 to 255. (Step P21).
エッジ量を量子化した各画素データは、値の大きさをパラメータとした複数の処理ブロックに区分する。たとえば8ビット量子化したエッジ量を4等分し、エッジ量0〜63の画素データの集合(第1ブロック)、エッジ量64〜127の画素データの集合(第2ブロック)、エッジ量128〜191の画素データの集合(第3ブロック)、エッジ量192〜255の画素データの集合(第4ブロック)という4つの処理ブロックを形成する(ステップP22)。 Each pixel data obtained by quantizing the edge amount is divided into a plurality of processing blocks using the value size as a parameter. For example, an 8-bit quantized edge amount is divided into four equal parts, a set of pixel data with an edge amount of 0 to 63 (first block), a set of pixel data with an edge amount of 64 to 127 (second block), and an edge amount of 128 to Four processing blocks are formed, a set of 191 pixel data (third block) and a set of pixel data with edge amounts 192 to 255 (fourth block) (step P22).
次に、処理ブロックごとに所定のしきい値を設け、しきい値を用いてブロックごとのエッジ量の値を2値化する(ステップP23)。たとえば上記の第1〜第4ブロックの中央値(第1ブロックの31、第2ブロックの95、第3ブロックの159、第4ブロックの223)をしきい値とし、第1〜第4ブロックごとにすべての画素データのエッジ量の値をしきい値と比較し、しきい値未満のエッジ量を0(エッジなし)、しきい値以上のエッジ量を1(エッジあり)とする。 Next, a predetermined threshold value is provided for each processing block, and the value of the edge amount for each block is binarized using the threshold value (step P23). For example, the median value of the first to fourth blocks (31 for the first block, 95 for the second block, 159 for the third block, 223 for the fourth block) is used as the threshold value, and for each of the first to fourth blocks The edge amount values of all the pixel data are compared with a threshold value, an edge amount less than the threshold value is 0 (no edge), and an edge amount equal to or greater than the threshold value is 1 (with edge).
そして、処理ブロックごとに「第1の方法」のステップP2〜P16と同じ処理を行い、注目領域2gと注目領域2gに隣接する処理領域2dとのエッジ情報の連続性の有無を判断する(ステップP24)。
Then, the same processing as Steps P2 to P16 of the “first method” is performed for each processing block, and it is determined whether or not there is continuity of the edge information between the attention area 2g and the
処理ブロックごとの連続性の有無の判断がすべて終了したら、判断結果をもとに各処理ブロックごとに仮ラベリングデータを形成する(ステップP25)。図6においては第1〜第4処理ブロックごとに合計4種類の仮ラベリングデータが形成される。 When all the determinations of the presence or absence of continuity for each processing block are completed, temporary labeling data is formed for each processing block based on the determination result (step P25). In FIG. 6, a total of four types of temporary labeling data are formed for each of the first to fourth processing blocks.
処理ブロックごとの仮ラベリングデータが形成されると、すべての仮ラベリングデータの対比が行われる(ステップP27)。対比は、たとえばすべての仮ラベリングデータにおいてエッジ情報の連続性ありと判断された処理領域2dについて、論理積の算出や、論理和の算出や、平均の算出などの方法が考えられる。
When provisional labeling data for each processing block is formed, all provisional labeling data are compared (step P27). For the comparison, for example, for the
仮ラベリングデータの対比の結果に基づいて、第2ラベリングデータが形成される(ステップP28)。 Based on the comparison result of the temporary labeling data, second labeling data is formed (step P28).
第2の方法によれば、画像データを複数の段階に区分した上で2値化を行い、段階ごとに行った判断の結果を総合して連続性の判断を行うことにより、第1の方法による連続性の判断よりも高い精度で処理領域2dごとの連続性の判断を行うことができる。
According to the second method, the image data is binarized after being divided into a plurality of stages, and the result of the determination made for each stage is comprehensively determined to determine the continuity. Therefore, it is possible to determine the continuity for each
(第3の方法)
第3の方法は特徴量情報抽出部7が特徴量情報としてエッジ情報を抽出した場合に用いられる。特徴量情報抽出部7にてエッジ抽出処理が施された第1画像データおよび第2画像データに対し、第1の方法と同様にエッジ量0、エッジ量1の2値化を行い、周辺領域形成部10において周辺領域データとされた処理領域2dを抽出する。
(Third method)
The third method is used when the feature amount information extraction unit 7 extracts edge information as feature amount information. Similar to the first method, the
処理領域2dのエッジ量1の任意の点を数点抽出し、ハフ変換(Hough変換)を利用して個々の直線を抽出してエッジ情報の連続性を判断する。
Several arbitrary points of
図7(a)(b)は第3の方法において用いるハフ変換の原理の説明図である。図7(a)に示すように、X−Y平面に任意の直線lが存在する場合、原点Oから直線lに下ろした垂線の足をHとし、OH=ρ,OHとX軸のなす角度をθ,Hの座標を(x,y)とすれば、直線lは下記式(1)であらわすことができる。
FIGS. 7A and 7B are explanatory diagrams of the principle of Hough transform used in the third method. As shown in FIG. 7 (a), when an arbitrary
ρ=xcosθ+ysinθ…(1) ρ = x cos θ + ysin θ (1)
式(1)はX−Y平面上のすべての直線に適用できる。そしてρ、θの値が定まれば、X−Y平面上の唯一本の直線を特定できる。 Equation (1) can be applied to all straight lines on the XY plane. If the values of ρ and θ are determined, only one straight line on the XY plane can be specified.
X−Y平面上の任意の点(xi,yi)は、ρ−θ平面上においては式(2)および図7(b)に示す正弦波に変換される。 An arbitrary point (xi, yi) on the XY plane is converted into a sine wave shown in Expression (2) and FIG. 7B on the ρ-θ plane.
ρ=Asin(θ+α)・・・(2)
ただしA=(xi 2+yi 2)1/2であり、α=cos(yi/A)である。
ρ = Asin (θ + α) (2)
However, A = (x i 2 + y i 2 ) 1/2 and α = cos (y i / A).
そして図7(b)に示すように、X−Y平面上で一の直線上にある点はρ−θ平面上唯一の通過点を必ず通過し、通過点Qの値(θ,ρ)は、X−Y平面上の直線が(1)式である場合の直線に一致する。 Then, as shown in FIG. 7B, a point on one straight line on the XY plane always passes through a unique passing point on the ρ-θ plane, and the value (θ, ρ) of the passing point Q is , The straight line on the XY plane coincides with the straight line in the case of the expression (1).
したがって、X−Y平面上の未知の任意の直線l0上に既知の複数の点(x1,y1)、(x2,y2)、・・・(xn,yn)が存在する場合、点(x1,y1)、(x2,y2)、・・・(xn,yn)の値を式(2)に代入して通過点Q0(ρ0,θ0)の値を求めることで、直線l0の値を求めることができる。 Accordingly, there are a plurality of known points (x 1 , y 1 ), (x 2 , y 2 ),... (X n , y n ) on an arbitrary arbitrary straight line l 0 on the XY plane. In this case, the values of the points (x 1 , y 1 ), (x 2 , y 2 ),... (X n , y n ) are substituted into the equation (2), and the passing point Q 0 (ρ 0 , θ by obtaining a value of 0), it is possible to determine the value of the linear l 0.
ここで、図7(a)のX−Y平面を画像空間とし、X−Y平面上に2値化の結果エッジ量1とされた複数の点101、点102、点103、点104、点105が分布しており、点101、点102、点103、点104、点105が未知の直線l上に存在する場合、上述の理論に従い、点101、点102、点103、点104、点105のx座標とy座標(すなわち画素の番地情報)を式(2)に代入すれば通過点Qj(ρj,θj)の値が求まり、直線lが求められる。検出された直線が存在する領域は、エッジ情報の連続性があるものと判断する。なお実際にはさまざまな要因の誤差が生ずることに鑑み、ρ−θ平面上の複数の曲線が最も多く交差する点を通過点Qj(ρj,θj)として選択することが望ましい。
Here, the XY plane of FIG. 7A is an image space, and a plurality of
ハフ変換によって画像データ中に複数のエッジ情報が抽出され、エッジ情報によって囲まれる領域を形成できた場合には、領域を囲むエッジ情報が連続しているものと判断できる。 When a plurality of edge information is extracted from the image data by the Hough transform and a region surrounded by the edge information can be formed, it can be determined that the edge information surrounding the region is continuous.
第3の方法に示す、ハフ変換を用いて連続性の判断をおこなうことにより、隣接する処理領域2dにわたって存在するエッジ情報の連続性を確実に判断できる。特に、輪郭が直線で形成された被写体を多く含む画像データにおいて、高い確実性をもってエッジ情報の連続性を判断できる。また、実際には連続した輪郭情報から取得されたエッジ情報でありながらエッジ成分が弱いためにところどころでエッジ情報が途切れてしまっている場合であっても、途切れた部分を補完して、元の輪郭情報に正しく対応した連続性を判断することができる。
By determining the continuity using the Hough transform shown in the third method, it is possible to reliably determine the continuity of the edge information existing over the
(第4の方法)
第4の方法は特徴量情報抽出部7が特徴量情報としてエッジ情報を抽出した場合に用いられる。
(Fourth method)
The fourth method is used when the feature amount information extraction unit 7 extracts edge information as feature amount information.
第4の方法は、図5に示すような注目領域2gと注目領域2gに隣接する処理領域2dとを判定領域2iを用いた判定により行う。
In the fourth method, the attention area 2g and the
第4の方法は、第1、第3の方法と同様に、特徴量情報抽出部7にてエッジ抽出処理が施された第1画像データおよび第2画像データに対し、エッジ量0、エッジ量1の2値化を行う。ただし、しきい値は十分に高い値に設定し、強いエッジのみがエッジ量1になる状態とする。
In the fourth method, as in the first and third methods, the
エッジ量を2値化した第1画像データおよび第2画像データについて、周辺領域形成部10において周辺領域データとされた処理領域2dを抽出する。
With respect to the first image data and the second image data in which the edge amount is binarized, the
抽出した処理領域2dのうち一の領域を注目領域2gとし、注目領域2gに隣接する処理領域2d中の特定のエッジ量1の隣接する処理領域2dにまたがる所定の領域(たとえば縦10画素データ×横10画素データの範囲)に判定領域2iを形成する。判定領域内2iの範囲内において、注目領域2gと処理領域2dとにそれぞれエッジ量1の画素データが存在すると判定されれば、注目領域2gと注目領域2gに隣接する処理領域2dには連続性があると判断する。
One of the extracted
第4の方法によれば、注目領域2i内にエッジ情報が存在するか否かを判定するだけで注目領域2gと注目領域2gに隣接する処理領域2dとに含まれるエッジ情報の連続性が判断できるので、連続性の判断を非常に少ない処理量で行うことができる。
According to the fourth method, the continuity of the edge information included in the attention area 2g and the
(第5の方法)
第5の方法は特徴量情報抽出部7が特徴量としてRGBなどの色情報を抽出した場合に用いられる。
(Fifth method)
The fifth method is used when the feature amount information extraction unit 7 extracts color information such as RGB as a feature amount.
第5の方法は、図5に示すような注目領域2gと注目領域2gに隣接する処理領域2dとの対比によって行う。ただし図5に示す判定領域2iは設けない。特徴量情報抽出部7にてRGBなどの色情報が抽出された第1画像データおよび第2画像データに対しては、注目領域2gと注目領域2gに隣接する処理領域2dとの間に注目する色情報がどの程度存在するかを用いて判断を行う。注目領域2gに含まれる画素データ中のうち注目する色情報と、注目領域2gに隣接する処理領域2dに含まれる画素データ中のうち注目する色情報とを対比した際の比率について、上限のしきい値と下限のしきい値とを設け、比率がしきい値以内であれば注目領域2gと注目領域2gに隣接する処理領域2dとの間には連続性があるものと判断する。
The fifth method is performed by comparing the attention area 2g as shown in FIG. 5 with the
第5の方法によれば、特徴量情報に色情報を用いたCPU処理に基づく連続性の判断を実現できる。また、特徴量情報にRGBなどの色情報を用いることにより、撮像部2から画像処理手段4に入力された画像データをそのまま特徴量情報の抽出に用いることができるため、特徴量抽出のために行われる処理を軽減することができる。
According to the fifth method, determination of continuity based on CPU processing using color information as feature amount information can be realized. In addition, by using color information such as RGB for the feature amount information, the image data input from the
なお上述した第1〜第5の方法以外であっても周辺領域として特定された箇所において特徴量の連続性を判断できる手法であればどのような方法を用いてもよい。 Note that any method other than the first to fifth methods described above may be used as long as it is a method that can determine the continuity of the feature amount at the location specified as the peripheral region.
図8は画像合成装置1において、特徴量情報として画像データに含まれるエッジ情報を用いた場合の画像合成処理のフローチャートであり、図9から図19までは図8に示す画像合成処理の過程において生成されるデータのイメージ図である。以下、図8に基づいて、特徴量情報として画像データに含まれるエッジ情報を用いた場合の撮像装置1Aによる画像データ取得処理および画像合成装置1による画像合成処理を説明する。なお、説明に際し、構成ならびにデータに付す番号および記号は図1、図2、図5、図9から図21において用いた番号および記号と同じものを使用する。
FIG. 8 is a flowchart of the image composition process when the edge information included in the image data is used as the feature amount information in the
図8において、まず撮像装置1Aの利用者は、撮像部2のシャッタのスイッチを押して被写体を撮影し、第1画像データを取得する(ステップS1)。第2画像データ取得部3のシャッタ検知部3aが利用者の操作に基づくシャッタの稼働を検知するとピント調節部2bはすぐにレンズ部2aを設定状態に調節する(ステップS2)。レンズ部2aが設定状態に調節されるとピント調節部3bはレンズ部2aの調節が終了すると調節が終了したことを通知する信号をシャッタ稼働部3cに送信し、シャッタ稼働部3cは撮像部2にシャッタの稼働信号を送り、撮像部2は第2画像データを取得する(ステップS3)。
In FIG. 8, first, the user of the imaging apparatus 1A presses the shutter switch of the
撮像部2が取得した第1画像データおよび第2画像データはAD変換部4でディジタル信号に変換されたのち画像合成装置1に送信される。
The first image data and the second image data acquired by the
画像合成装置1の特徴量情報抽出部7は第1画像データおよび第2画像データのそれぞれに対し畳み込みオペレータを用いたエッジ成分の抽出処理を行う。エッジ情報は、処理領域2dを単位として抽出される。(ステップS4)。
The feature amount information extraction unit 7 of the
特徴量情報抽出部7はステップS4において抽出されたエッジ成分について処理領域2dごとに具体的な数値としてエッジ量を算出する(ステップS5)。
The feature amount information extraction unit 7 calculates the edge amount as a specific numerical value for each
特徴量情報抽出部7が第1画像データおよび第2画像データについて算出したエッジ量はそれぞれ比較部8に送信される。比較部8は第1画像データと第2画像データとに含まれるエッジ成分の量を処理領域2dごとに比較し、エッジ成分が多く含まれている方の画像データを処理領域2dごとに選択した比較結果データを形成する(ステップS5)。
The edge amounts calculated by the feature amount information extraction unit 7 for the first image data and the second image data are respectively transmitted to the comparison unit 8. The comparison unit 8 compares the amount of edge components included in the first image data and the second image data for each
ステップS5における比較部8が形成した比較結果データ27は、ラベリング部9に送信される。ラベリング部9はすべての処理領域2dについて画像データ識別信号が第1画像データであれば「A」の文字を画像識別子とし、画像データ識別信号が第2画像データであれば「B」の文字を画像識別子としてラベリングを行い、第1ラベリングデータを形成する。
The
ステップS5においてラベリング部9が形成した第1ラベリングデータ30は記憶手段14に送信されて記録される(ステップS6)。また、ラベリング部9は第1ラベリングデータ30および比較結果データ27を周辺領域形成部10に送信する。
The
周辺領域形成部10は、ラベリング部9から受信した比較結果データ27において第1画像データ21を元に形成された処理領域2dと第2画像データ24を元に形成された処理領域2dとが隣接している境界の箇所を抽出し、境界の箇所に隣接する処理領域2dを周辺領域とし、周辺領域に存在する画像データに基づいて周辺領域データを形成する(ステップS8)。
In the peripheral
ステップS8において周辺領域形成部10が形成した周辺領域データ31は連続性判断部11に供給される。連続性判断部11はエッジ情報抽出部7が出力した第1画像データ21および第2画像データ24の供給を受け、第1画像データ21および第2画像データ24のうち周辺領域データの番地情報を含む処理領域2dのデータを抽出し、周辺領域データ31において隣接する処理領域2d同士に存在するエッジ情報同士の連続性の有無を判断する(ステップS9)。連続性の有無の判断には、上述の第1の方法から第4の方法までに示したような判断方法を用いる。
The
連続性判断部11は、連続性があると判断された領域32に対し、処理領域2dごとに判断結果に基づいた適切な画像識別子をラベリングし、第2ラベリングデータを形成する(ステップS10)。
The continuity determination unit 11 labels the
ステップS10にて連続性抽出部11が形成した第2ラベリングデータは修正部12に供給される。修正部にはさらに記憶手段14に記憶されたラベリング部9が形成した第1ラベリングデータが供給され、修正部12は第1および第2ラベリングデータを対比し、異なる画面識別子が関連付けられた処理領域2dがあるか否かを確認する(ステップS11)。異なる画面識別子が関連付けられた処理領域2dが存在する場合には、第1ラベリングデータにおける第2ラベリングデータと異なる画面識別子を第2ラベリングデータの画面識別子に置き換える(ステップS12)。なお、連続性判断部11が形成したラベリングデータの画像識別子とラベリング部9が形成したラベリングデータの画像識別子とが完全に一致する場合には、修正部12はステップS12の処理を行わない。第2判断部12による第1ラベリングデータと第2ラベリングデータとの対比の結果形成されるラベリングデータは画面識別子の置き換えの如何にかかわらず修正結果としての第3ラベリングデータとして出力される。
The second labeling data formed by the continuity extraction unit 11 in step S10 is supplied to the correction unit 12. The correction unit is further supplied with the first labeling data formed by the
修正部12は第3ラベリングデータ34を出力し、第3ラベリングデータ34は画像データ合成部13に供給される。画像データ供給部13はさらに記憶手段14から第1画像データおよび第2画像データの供給を受け、第3ラベリングデータ34の処理領域2dごとの番地情報と画像識別子情報とに基づいて第1画像データと第2画像データを処理領域2dごとに合成し、合成画像データを生成する(ステップS13)。
The correction unit 12 outputs the
なお、図8から図21に示す実施の形態おいては特徴量情報抽出部7において画像データに含まれるエッジ量を抽出することで合成画像データを形成したが、RGBなどの色情報を用いる場合においても同様のステップにより処理を行う。ただし特徴量情報抽出部7は色情報を抽出し、連続性判断部11は上記(第5の方法)に示すような方法を用いて隣接する処理領域2dごとの色情報が連続する可能性について判断する。
In the embodiment shown in FIGS. 8 to 21, the composite image data is formed by extracting the edge amount included in the image data in the feature amount information extraction unit 7. However, when color information such as RGB is used. The same processing is performed in step. However, the feature amount information extraction unit 7 extracts color information, and the continuity determination unit 11 uses the method as described above (fifth method) for the possibility that the color information for each
以上、本実施の形態に係る画像合成装置1においては、画像データを複数の処理領域2dに区分して処理領域2dごとに品質の高い画像データを選択して合成画像データ38を形成できるため、第1画像データ21および第2画像データ24という2つの画像データのみを用いて品質の高い合成画像データ38を取得することができる。
As described above, in the
本実施の形態に係る画像合成装置1においては、異なる画像データの対応する処理領域2dに含まれる特徴量情報の多少に基づく比較結果と、同一の画像データの隣接する処理領域2dに含まれる特徴量情報の連続性の判断結果の判断結果という異なるふたつの基準を用いて合成画像データ38を形成する処理領域2dを選択するため、より品質の高い合成画像データ38を形成できる。
In the
本実施の形態に係る画像合成装置1においては、比較結果のうち異なる画像データに基づいて形成された処理領域2dが隣接する箇所を周辺領域とし、周辺領域データ31のうち連続性があると判断された領域32を判断結果とすることにより、特徴量情報の比較結果を連続性の判断結果で補正する形で合成画像データを形成し、近景被写体22と遠景被写体23との境界領域を形成する画像データを第1画像データまたは第2画像データのうちいずれか一方に揃える事が出来るので、被写体の位置ずれや大きさのずれ等が生じにくいため、視覚上もほぼ違和感の無い合成画像データ38を形成できる。
In the
本実施の形態に係る画像合成装置1においては、比較部8における比較結果と、連続性判定部11における判定結果と、修正部12における修正結果を画像識別子によるラベリングデータとして形成することにより、比較結果と連続性の判断結果との対比や画像データ合成部13に対する対比結果の送信を簡素な処理によって確実に行うことができる。
In the
1A・・・撮像装置、1・・・画像合成装置、2・・・撮像部、2a・・・レンズ部、2d・・・処理領域、2i・・・判定領域、3・・・シャッタ駆動手段、3a・・・シャッタ検知部、3b・・・ピント調節部、3c・・・シャッタ稼働部、7・・・特徴量情報抽出部、8・・・比較部、9・・・ラベリング部、10・・・周辺領域形成部、11・・・連続性判断部、12・・・修正部、13・・・画像データ合成部、21・・・第1画像データ、24・・・第2画像データ、30・・・第1ラベリングデータ、33・・・第2ラベリングデータ、34・・・第3ラベリングデータ、38・・・合成画像データ
DESCRIPTION OF SYMBOLS 1A ... Imaging device, 1 ... Image composition apparatus, 2 ... Imaging part, 2a ... Lens part, 2d ... Processing area, 2i ... Determination area, 3 ... Shutter drive means 3a ... shutter detection unit, 3b ... focus adjustment unit, 3c ... shutter operating unit, 7 ... feature quantity information extraction unit, 8 ... comparison unit, 9 ... labeling unit, 10 ... peripheral area forming unit, 11 ... continuity determination unit, 12 ... correction unit, 13 ... image data synthesis unit, 21 ... first image data, 24 ...
Claims (9)
前記各画像データに含まれる特徴量情報を所定の画素群単位に形成した処理領域ごとに抽出する特徴量情報抽出手段と、
前記特徴量情報抽出手段が抽出した前記特徴量情報を前記複数の画像データそれぞれの対応する前記処理領域ごとに対比し、前記処理領域ごとの前記特徴量情報が最も多い画像データの処理領域データの集合を比較結果として抽出する比較手段と、
前記比較結果のうち、異なる画像データの処理領域同士が隣接する箇所を抽出して周辺領域として形成する周辺領域形成手段と、
前記周辺領域に相当する処理領域に存在する特徴量情報の連続性の有無を判断し、特徴量情報の連続性が有ると判断された処理領域については、当該処理領域において前記特徴量情報が最も多い画像データの対応する処理領域データの集合を判断結果として出力する連続性判断手段と、
前記比較結果と前記判断結果とを対比して前記比較結果を修正した修正結果を出力する修正手段と、
前記修正結果を用いて前記処理領域単位で前記複数の画像データの中の対応する画像データの処理領域データを合成して前記合成画像データを形成する画像データ合成手段と
を有することを特徴とする画像合成装置。 An image synthesizing apparatus for forming a one composite image data based on the plurality of images data that the imaging device is acquired continuously shooting by changing the focus of the same subject,
Feature amount information extracting means for extracting feature amount information included in each image data for each processing region formed in a predetermined pixel group unit;
It compared the feature amount information in which the feature amount information extraction means has extracted for each of the processing regions corresponding of the plurality image data of each of each of the processing region and the feature amount information of processing area data of the most common image data A comparison means for extracting a set as a comparison result;
Out of the comparison results, a peripheral region forming unit that extracts a portion where processing regions of different image data are adjacent to each other, and forms a peripheral region;
It is determined whether or not the feature amount information existing in the processing region corresponding to the peripheral region is continuous. For a processing region that is determined to have continuity of feature amount information, the feature amount information is the most in the processing region. Continuity determination means for outputting a set of processing area data corresponding to a large amount of image data as a determination result;
Correction means for outputting a correction result obtained by correcting the comparison result by comparing the comparison result and the determination result;
Image data synthesizing means for synthesizing processing area data of corresponding image data in the plurality of image data in the processing area unit using the correction result to form the synthesized image data. Image composition device.
前記連続性は、隣接する前記処理領域にそれぞれ含まれるエッジ成分情報が連続する可能性である
ことを特徴とする請求項1に記載の画像合成装置。 The feature amount information is an edge component information,
The image synthesizer according to claim 1 , wherein the continuity is a possibility that edge component information included in each of the adjacent processing regions is continuous.
前記連続性は、隣接する前記処理領域にそれぞれ含まれる色情報が連続する可能性である
ことを特徴とする請求項1に記載の画像合成装置。 The feature amount information is color information,
The image synthesizer according to claim 1 , wherein the continuity is a possibility that color information included in each of the adjacent processing regions is continuous.
前記判定領域中に前記特徴量情報が所定量以上存在するか否かによって隣接する前記処理領域同士の特徴量情報の連続性の判断を行う
ことを特徴とする請求項1に記載の画像合成装置。 The continuity determination unit forms a determination region for measuring feature amount information included in two adjacent processing regions included in a peripheral region in units of pixel data,
The image synthesizing apparatus according to claim 1 , wherein continuity of feature amount information between adjacent processing regions is determined based on whether or not the feature amount information is present in a predetermined amount or more in the determination region. .
ことを特徴とする請求項5に記載の画像合成装置。 The continuity determination means may be divided into a plurality of stages that depends feature amount information of each of the pixel data to the tone of the feature amount information, binarizing the feature amount information divided per the steps The image synthesizing device according to claim 5 .
ことを特徴とする請求項1に記載の画像合成装置。 The image synthesizer according to claim 1 , wherein the continuity determination unit determines continuity of feature amount information between two adjacent processing regions included in a peripheral region by using a Hough transform. .
撮像部と、
シャッタ駆動手段と
を備え、
前記シャッタ駆動手段は、
利用者による前記撮像部のシャッタボタンの操作によるシャッタの稼働を検知するシャッタ検知手段と、
前記シャッタ検知手段による前記シャッタの稼働の検知を受けて前記撮像部のレンズ部のピントを調節するピント調節手段bと、
前記ピント調節手段による前記レンズ部のピントの調節を受けて前記撮像部のシャッタを稼働させるシャッタ稼働手段と
を有し、
利用者による前記撮像部のシャッタボタンの操作を受けて、撮像部に同一の被写体を連続で撮影させ、ピントを変えた同一の被写体の複数の画像データを取得させる
ことを特徴とする請求項1に記載の画像合成装置。 The imaging device
An imaging unit;
Shutter driving means and
With
The shutter driving means includes
Shutter detection means for detecting the operation of the shutter by the operation of the shutter button of the imaging unit by the user;
A focus adjusting unit b that adjusts the focus of the lens unit of the imaging unit in response to detection of the operation of the shutter by the shutter detecting unit;
In response to adjustment of focus of the lens unit by said focusing means have a shutter operating means for operating the shutter of the imaging unit,
Receiving the operation of the shutter button of the imaging unit by a user, causing the imaging unit to continuously capture the same subject, and acquiring a plurality of image data of the same subject with the focus changed. The image composition device according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004327016A JP4271648B2 (en) | 2004-11-10 | 2004-11-10 | Image composition apparatus, imaging means, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004327016A JP4271648B2 (en) | 2004-11-10 | 2004-11-10 | Image composition apparatus, imaging means, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006140646A JP2006140646A (en) | 2006-06-01 |
JP4271648B2 true JP4271648B2 (en) | 2009-06-03 |
Family
ID=36621152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004327016A Expired - Fee Related JP4271648B2 (en) | 2004-11-10 | 2004-11-10 | Image composition apparatus, imaging means, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4271648B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5888899B2 (en) * | 2011-08-10 | 2016-03-22 | キヤノン株式会社 | Video processing apparatus, video processing method, and program |
JP5850365B2 (en) * | 2011-12-01 | 2016-02-03 | 国立大学法人電気通信大学 | Image processing program and image processing apparatus |
US10063774B2 (en) * | 2013-08-28 | 2018-08-28 | Ricoh Company, Ltd. | Image processing apparatus, image processing method, and imaging system |
JP6594039B2 (en) * | 2015-05-20 | 2019-10-23 | 株式会社東芝 | Image processing apparatus, method, and program |
-
2004
- 2004-11-10 JP JP2004327016A patent/JP4271648B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006140646A (en) | 2006-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102306283B1 (en) | Image processing method and device | |
KR101265358B1 (en) | Method of controlling an action, such as a sharpness modification, using a colour digital image | |
JP6347675B2 (en) | Image processing apparatus, imaging apparatus, image processing method, imaging method, and program | |
JP4898761B2 (en) | Apparatus and method for correcting image blur of digital image using object tracking | |
JP2022093341A (en) | Imaging apparatus | |
JP2005309559A (en) | Image processing method, device and program | |
JP2013005091A (en) | Imaging apparatus and distance information acquisition method | |
JP6755787B2 (en) | Image processing equipment, image processing methods and programs | |
JP5619124B2 (en) | Image processing apparatus, imaging apparatus, image processing program, and image processing method | |
JP2005309560A (en) | Image processing method, device and program | |
JP2018107526A (en) | Image processing device, imaging apparatus, image processing method and computer program | |
JP5272699B2 (en) | Image processing apparatus, imaging apparatus, program, and image processing method | |
US20090290041A1 (en) | Image processing device and method, and computer readable recording medium containing program | |
JP2017060010A (en) | Imaging device, method of controlling imaging device, and program | |
JP5387341B2 (en) | Imaging device | |
JP2019047365A (en) | Image processing apparatus, image processing apparatus control method, imaging apparatus, and program | |
JP4271648B2 (en) | Image composition apparatus, imaging means, and program | |
JP3643203B2 (en) | Digital camera | |
JPH10210360A (en) | Digital camera | |
JP6003974B2 (en) | Image processing apparatus, image processing method, and program | |
CN115086558B (en) | Focusing method, image pickup apparatus, terminal apparatus, and storage medium | |
JP2011147076A (en) | Image processing apparatus, image capturing apparatus and program | |
JP6833772B2 (en) | Image processing equipment, imaging equipment, image processing methods and programs | |
JP2012133492A (en) | Image processing device and program | |
JP3631577B2 (en) | Digital camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070302 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090210 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090225 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120306 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |