Nothing Special   »   [go: up one dir, main page]

JP2018148281A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2018148281A
JP2018148281A JP2017038725A JP2017038725A JP2018148281A JP 2018148281 A JP2018148281 A JP 2018148281A JP 2017038725 A JP2017038725 A JP 2017038725A JP 2017038725 A JP2017038725 A JP 2017038725A JP 2018148281 A JP2018148281 A JP 2018148281A
Authority
JP
Japan
Prior art keywords
light source
category
unit
data
optimum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017038725A
Other languages
Japanese (ja)
Other versions
JP6934240B2 (en
Inventor
賢嗣 木村
Masatsugu Kimura
賢嗣 木村
光浩 松尾
Mitsuhiro Matsuo
光浩 松尾
文杰 蔡
Wenjie Cai
文杰 蔡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brycen Co Ltd
Original Assignee
Brycen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brycen Co Ltd filed Critical Brycen Co Ltd
Priority to JP2017038725A priority Critical patent/JP6934240B2/en
Publication of JP2018148281A publication Critical patent/JP2018148281A/en
Priority to JP2021132352A priority patent/JP7152065B2/en
Application granted granted Critical
Publication of JP6934240B2 publication Critical patent/JP6934240B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Of Color Television Signals (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow an optimal white balance gain (WBGain) to be set by using a classification category obtained by machine learning.SOLUTION: A teaching data storage unit 641 has stored teaching data including plural pieces of image data and category numbers of light sources. A machine learning unit 642 performs machine learning of criteria for determining categories of the light sources, and stores the learned criteria (classifier) in a related parameter storage unit 643. A light source identifying unit 644 performs category classification of an initial estimation vector with the classifier stored in the related parameter storage unit 643, and outputs categories of one or more light sources at a scene photographing a frame and data such as distance between the categories of the light sources and the initial estimation vector on a feature space to a white balance correction unit 65.SELECTED DRAWING: Figure 7

Description

本発明は、画像処理装置に関する。   The present invention relates to an image processing apparatus.

従来より、撮像機器として分類されるデジタルカメラ、デジタルビデオカメラ、カメラ付き通信端末(携帯電話、スマートフォン、タブレット等)等においては、撮影された画像に対して色再現補正処理が施されている。
即ち、一般的には、CMOSイメージセンサ等の撮像素子で得られた画像データに、イメージシグナルプロセッサー(ISP)を含んだシステムオンチップ(SoC)等の半導体を用いて、自動露出補正、自動ホワイトバランス、自動フォーカス、シェーディング補正等の画像処理が行われる。
Conventionally, in a digital camera, digital video camera, camera-equipped communication terminal (mobile phone, smartphone, tablet, etc.) classified as an imaging device, color reproduction correction processing is performed on a captured image.
That is, in general, image data obtained by an image sensor such as a CMOS image sensor is used for automatic exposure correction and automatic whitening using a semiconductor such as a system-on-chip (SoC) including an image signal processor (ISP). Image processing such as balance, autofocus, and shading correction is performed.

ここで、イメージシグナルプロセッサーを含むシステムオンチップでは画像データに対して、色再現性を向上させるための色調整処理等の各種画像処理が行われる。このため、その前段である撮像素子で受光した画像データの補正は、色再現性を大きく左右され、画像処理装置および画像処理方法において重要な役割を果たすことになる。 Here, in a system-on-chip including an image signal processor, various types of image processing such as color adjustment processing for improving color reproducibility is performed on image data. For this reason, the correction of the image data received by the imaging device, which is the preceding stage, greatly affects the color reproducibility, and plays an important role in the image processing apparatus and the image processing method.

また、撮像素子が受ける光は様々な外的要因を受けて決定される。例えば、建物の外で撮影されるシーンでは、天候や時間、建物の影のような暗い状態等の様々な外的要因に影響される。また、例えば、建物の中で撮影されるシーンにおいては、照明器具の種類や明るさ等の様々な外的要因に影響される。そのため、CCDセンサやCMOSイメージセンサの撮像素子で得られた画像データから、撮影されているシーンにおいて、影響している外的要因の種類(例えば、環境光の種類)を特定し、特定された夫々の外的要因(例えば、環境光が太陽光か、蛍光灯か等)に対応した色補正を施すことが必要となる。 Further, the light received by the image sensor is determined by various external factors. For example, in a scene shot outside a building, it is affected by various external factors such as weather, time, and a dark state such as a building shadow. Further, for example, in a scene photographed in a building, it is affected by various external factors such as the type and brightness of a lighting fixture. For this reason, from the image data obtained by an image sensor such as a CCD sensor or a CMOS image sensor, the type of external factor (for example, the type of ambient light) that is affected in the scene being photographed is identified and identified. It is necessary to perform color correction corresponding to each external factor (for example, whether the ambient light is sunlight or fluorescent light).

この点、機械学習を用いて、撮影されているシーンにおける、環境光の種類を特定するための技術が提案されている(例えば、特許文献1、特許文献2参照)。 In this regard, a technique for specifying the type of ambient light in a scene being photographed using machine learning or the like has been proposed (see, for example, Patent Document 1 and Patent Document 2).

特開2012−134625号公報JP 2012-134625 A 特開2014−515587号公報JP 2014-515587 A

しかしながら、特許文献1および特許文献2を含む従来の技術では、機械学習を用いる具体的な手段などが明示されておらず、技術的に実現が困難な内容との指摘があった。
他方、従来、「所定の色」に基づいて環境光の種類を特定するための手法が知られている。撮影されたシーンの光源として、複数の環境光が存在していると仮定すると、当該「所定の色」は、各環境光から照射された光によって当該環境光に近似した色として存在していることになる。
また、例えば、物体に照射された光は、当該物体表面の状態、材質、光沢、反射等、あらゆる状況によって常に一定の色を保つことは困難である。そのため、撮影された画像データは、必ずしも特定の色の環境光のみで構成されている訳ではなく、所定の色から環境光の種類を特定することは困難である。
さらに、入力された画像データに合わせて画像処理の組み合わせや方法を変更すること可能とする技術も存在する。しかし、入力される画像データは無限に存在するものであり、現実的な使用が困難なことは容易に想像できる。
However, in the conventional techniques including Patent Document 1 and Patent Document 2, specific means using machine learning are not clearly described, and it has been pointed out that the contents are technically difficult to implement.
On the other hand, conventionally, a method for specifying the type of ambient light based on “predetermined color” is known. Assuming that a plurality of ambient lights exist as the light source of the photographed scene, the “predetermined color” exists as a color approximate to the ambient light by the light emitted from each ambient light. It will be.
In addition, for example, it is difficult to always maintain a constant color of light irradiated on an object depending on every situation such as the state of the object surface, material, gloss, reflection, and the like. For this reason, the captured image data is not necessarily composed only of a specific color of ambient light, and it is difficult to specify the type of ambient light from a predetermined color.
Furthermore, technology that makes it possible to change the combination and method of image processing according to the input image data is also present. However, the input image data is infinite, and it can be easily imagined that it is difficult to use realistically.

本発明は、このような状況に鑑みてなされたものであり、機械学習によって得られた分類カテゴリを用いて、より最適色補正係数(WBGain:White Balance Gain)を設定することを目的とする。   The present invention has been made in view of such a situation, and an object thereof is to set a more optimal color correction coefficient (WB Gain: White Balance Gain) using a classification category obtained by machine learning.

上記目的を達成するため、本発明の一態様の画像処理装置は、
所定の画像データから所定のパラメータを取得し、前記パラメータに基づく値を、所定の特徴空間上に写像することで、前記特徴空間上の所定の光源推定ベクトルを取得する第1取得手段と、
前記第1取得手段で取得された光源推定ベクトルを、予め機械学習された分類器によって、前記光源推定ベクトルの前記特徴空間上のカテゴリに分類する分類手段と、
前記光源推定ベクトルと前記分類手段により分類されたカテゴリに基づいて、前記画像データのうちの所定のフレームのデータから最適WBGainを取得する第2取得手段と、
を備える。
これにより、機械学習によって得られた分類カテゴリを用いて、より最適WBGainを設定することができる。
In order to achieve the above object, an image processing apparatus according to an aspect of the present invention includes:
First acquisition means for acquiring a predetermined light source estimation vector on the feature space by acquiring a predetermined parameter from the predetermined image data and mapping a value based on the parameter onto the predetermined feature space;
Classifying means for classifying the light source estimation vector acquired by the first acquisition means into a category on the feature space of the light source estimation vector by a classifier previously machine-learned;
Second acquisition means for acquiring an optimum WBGain from data of a predetermined frame of the image data based on the light source estimation vector and the category classified by the classification means;
Is provided.
Thereby, the optimal WBGain can be set using the classification category obtained by machine learning.

本発明によれば、機械学習によって得られた分類カテゴリを用いて、より最適WBGainを設定することができる。   According to the present invention, it is possible to set a more optimal WBGain using a classification category obtained by machine learning.

本発明の一実施形態に係る画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention. 図1の画像処理装置のうちホワイトバランス処理部の機能的構成の詳細を示す機能ブロック図である。FIG. 2 is a functional block diagram illustrating details of a functional configuration of a white balance processing unit in the image processing apparatus of FIG. 1. 図2の画像処理装置のホワイトバランス処理部により実行されるホワイトバランス処理の流れを説明するフローチャートである。3 is a flowchart illustrating a flow of white balance processing executed by a white balance processing unit of the image processing apparatus in FIG. 2. 所定の光源から取得された複数の教示データから写像して得られた初期推定ベクトルの分布イメージを示す図である。It is a figure which shows the distribution image of the initial estimation vector obtained by mapping from the some teaching data acquired from the predetermined light source. 機械学習で得られた分類器の出力イメージを示す図である。It is a figure which shows the output image of the classifier obtained by machine learning. フレームのデータから写像された初期推定ベクトルを示す図である。It is a figure which shows the initial estimation vector mapped from the data of the flame | frame. 各カテゴリの光源の最適WBGainを説明するためのイメージ図である。It is an image figure for demonstrating the optimal WBGain of the light source of each category. 特殊カテゴリが存在するイメージ図である。It is an image figure with a special category. 特殊カテゴリに対応した最適WBGainを説明するためのイメージ図である。It is an image figure for demonstrating the optimal WBGain corresponding to a special category. 初期推定ベクトルがB光源とC光源の重複分布範囲内にある場合を説明するためのイメージ図である。It is an image figure for demonstrating the case where an initial estimated vector exists in the overlapping distribution range of B light source and C light source.

以下、本発明の一実施形態について、図面を参照して説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る画像処理装置の構成を示すブロック図である。
画像処理装置1は、センサベイヤデータ取得部2と、イメージパイプ3と、出力画像データ出力部4とを備えている。
FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention.
The image processing apparatus 1 includes a sensor Bayer data acquisition unit 2, an image pipe 3, and an output image data output unit 4.

センサベイヤデータ取得部2は、図示せぬ撮像装置により撮像された動画像を構成する各フレームのデータの夫々を、センサベイヤデータの形態で順次取得して、イメージパイプ3に出力する。   The sensor Bayer data acquisition unit 2 sequentially acquires each frame of data constituting a moving image captured by an imaging device (not shown) in the form of sensor Bayer data and outputs it to the image pipe 3.

イメージパイプ3は、各フレームのデータに対して各種画像処理を施すべく、シェーディング補正処理部5と、ホワイトバランス処理部6と、色補間処理部7と、色再現ゲイン処理部8と、ガンマ処理部9と、色空間変換処理部10とを備えている。   The image pipe 3 includes a shading correction processing unit 5, a white balance processing unit 6, a color interpolation processing unit 7, a color reproduction gain processing unit 8, and a gamma processing so as to perform various image processing on the data of each frame. Unit 9 and a color space conversion processing unit 10.

シェーディング補正処理部5は、センサベイヤデータ取得部2から供給されたフレームのデータ(センサベイヤデータ)に対して、シェーディング補正処理を施す。シェーディング補正処理が施されたフレームのデータは、ホワイトバランス処理部6に供給される。   The shading correction processing unit 5 performs a shading correction process on the frame data (sensor Bayer data) supplied from the sensor Bayer data acquisition unit 2. The data of the frame subjected to the shading correction process is supplied to the white balance processing unit 6.

ホワイトバランス処理部6は、シェーディング補正処理部5から供給されたフレームのデータに対して、ホワイトバランス処理を施す。ホワイトバランス処理が施されたフレームのデータは、色補間処理部7に供給される。   The white balance processing unit 6 performs white balance processing on the frame data supplied from the shading correction processing unit 5. The data of the frame subjected to the white balance process is supplied to the color interpolation processing unit 7.

色補間処理部7は、ホワイトバランス処理部6から供給されたフレームのデータに対して、色補間処理を施す。色補間処理が施されたフレームのデータは、色再現ゲイン処理部8に供給される。   The color interpolation processing unit 7 performs color interpolation processing on the frame data supplied from the white balance processing unit 6. The data of the frame subjected to the color interpolation process is supplied to the color reproduction gain processing unit 8.

色再現ゲイン処理部8は、色補間処理部7から供給されたフレームのデータに対して、色再現ゲイン処理を施す。色再現ゲイン処理が施されたフレームのデータは、ガンマ処理部9に供給される。   The color reproduction gain processing unit 8 performs color reproduction gain processing on the frame data supplied from the color interpolation processing unit 7. The frame data subjected to the color reproduction gain processing is supplied to the gamma processing unit 9.

ガンマ処理部9は、色再現ゲイン処理部8から供給されたフレームのデータに対して、ガンマ処理を施す。ガンマ処理が施されたフレームのデータは、色空間変換処理部10に供給される。   The gamma processing unit 9 performs gamma processing on the frame data supplied from the color reproduction gain processing unit 8. The data of the frame subjected to the gamma processing is supplied to the color space conversion processing unit 10.

色空間変換処理部10は、ガンマ処理部9から供給されたフレームのデータに対して、色空間変換処理を施す。色空間変換処理が施されたフレームのデータは、出力画像データ出力部4に供給される。   The color space conversion processing unit 10 performs color space conversion processing on the frame data supplied from the gamma processing unit 9. The frame data subjected to the color space conversion process is supplied to the output image data output unit 4.

出力画像データ出力部4は、イメージパイプ3から順次出力される各フレームのデータの夫々を、出力画像のデータとして、後述する図示せぬ回路に出力する。   The output image data output unit 4 outputs each frame data sequentially output from the image pipe 3 to an unillustrated circuit, which will be described later, as output image data.

図2は、図1の画像処理装置1のうち、主にホワイトバランス処理部6の機能的構成の詳細を示す機能ブロック図である。   FIG. 2 is a functional block diagram mainly showing details of the functional configuration of the white balance processing unit 6 in the image processing apparatus 1 of FIG.

ホワイトバランス処理部6においては、RGB算出部61と、初期推定部62と、特徴空間写像部63と、光源判定部64と、ホワイトバランス補正部65と、補正データ出力部66とが機能する。
RGB算出部61乃至補正データ出力部66の各機能等の詳細については、図3以降のフローチャート等を参照して画像処理装置1の処理を説明する際に合わせて説明する。
In the white balance processing unit 6, an RGB calculation unit 61, an initial estimation unit 62, a feature space mapping unit 63, a light source determination unit 64, a white balance correction unit 65, and a correction data output unit 66 function.
Details of the functions and the like of the RGB calculation unit 61 to the correction data output unit 66 will be described together with the description of the processing of the image processing apparatus 1 with reference to the flowcharts in FIG.

光源判定部64においては、教示データ記憶部641と、機械学習部642と、関連パラメータ記憶部643と、光源識別部644とが機能する。
教示データ記憶部641は、複数の画像データと当該各画像の夫々を撮影したシーンの光源のカテゴリ番号とからなる教示データを記憶している。
機械学習部642は、教示データ記憶部641に記憶された教示データに基づいて、各画像データから抽出した特徴ベクトルから光源のカテゴリを判定するための基準を機械学習し、学習した判定基準(分類器)を関連パラメータ記憶部643に記憶する。なお、機械学習の方法としては、例えば、SVM(サポート・ベクター・マシーン)等を採用することができる。
光源識別部644は、後述のフレームのデータから特徴空間写像部63によって特徴空間上に写像され光源判定部64に供給された初期推定ベクトルを、関連パラメータ記憶部643に記憶された分類器を用いてカテゴリ分類し、当該フレームを撮影したシーンの一つ以上の光源のカテゴリ、及び当該一つ以上の光源のカテゴリと前記初期推定ベクトルとの特徴空間上での距離等のデータをホワイトバランス補正部65に出力する。
In the light source determination unit 64, a teaching data storage unit 641, a machine learning unit 642, a related parameter storage unit 643, and a light source identification unit 644 function.
The teaching data storage unit 641 stores teaching data including a plurality of image data and a category number of a light source of a scene in which each of the images is captured.
Based on the teaching data stored in the teaching data storage unit 641, the machine learning unit 642 performs machine learning on the basis for determining the category of the light source from the feature vector extracted from each image data, and learns the determination criterion (classification) Is stored in the related parameter storage unit 643. As a machine learning method, for example, SVM (support vector machine) can be employed.
The light source identification unit 644 uses the classifier stored in the related parameter storage unit 643 as the initial estimated vector mapped to the feature space by the feature space mapping unit 63 from the frame data described later and supplied to the light source determination unit 64. A white balance correction unit that classifies one or more light sources of a scene in which the frame is captured and data such as a distance in the feature space between the one or more light source categories and the initial estimated vector. Output to 65.

次に、図3を参照して、画像処理装置1のホワイトバランス処理部6が実行するホワイトバランス処理について説明する。
ここで、「ホワイトバランス処理」とは、各フレームが撮影されたシーンの光源を判定して、各フレームのデータに対してホワイトバランス補正を施していく一連の処理をいう。
Next, the white balance processing executed by the white balance processing unit 6 of the image processing apparatus 1 will be described with reference to FIG.
Here, “white balance processing” refers to a series of processing in which the light source of the scene in which each frame is photographed is determined and white balance correction is performed on the data of each frame.

図3は、画像処理装置1のホワイトバランス処理部6により実行されるホワイトバランス処理を説明するフローチャートである。   FIG. 3 is a flowchart illustrating white balance processing executed by the white balance processing unit 6 of the image processing apparatus 1.

ホワイトバランス処理は、シェーディング補正処理部5からホワイトバランス処理部6にシェーディング補正処理済のフレームの画素群のデータ(以下、「フレームのデータ」と呼ぶ)が供給される毎にその都度実行される。なお、Statisticsデータとは、フレームのデータと同一のデータである。   The white balance processing is executed each time the pixel group data (hereinafter referred to as “frame data”) of the frame subjected to the shading correction processing is supplied from the shading correction processing unit 5 to the white balance processing unit 6. . The statistic data is the same data as the frame data.

ステップS11において、RGB算出部61は、フレームのデータにおける(R値,G値,B値)を三つのチャンネルとして算出し、初期推定部62に供給する。   In step S <b> 11, the RGB calculation unit 61 calculates (R value, G value, B value) in the frame data as three channels, and supplies them to the initial estimation unit 62.

ステップS12において、初期推定部62は、ステップS11で算出された(R値,G値,B値)の夫々について最大値を抽出する。なお、この(R値,G値,B値)の夫々の最大値は、光源色の初期推定値(Rmax値,Gmax値,Bmax値)として特徴空間写像部63に供給される。   In step S12, the initial estimation unit 62 extracts the maximum value for each of (R value, G value, B value) calculated in step S11. The maximum values (R value, G value, B value) are supplied to the feature space mapping unit 63 as initial estimated values (Rmax value, Gmax value, Bmax value) of the light source color.

ステップS13において、特徴空間写像部63は、ステップS12で抽出された光源色の初期推定値(Rmax値,Gmax値,Bmax値)を特徴空間に写像して、得られた特徴ベクトルを光源判定部64に供給する。なお、本実施形態では、特徴空間は(R/G,B/G)の二次元空間として説明を行う。
前記特徴空間上の特徴ベクトル(R/G,B/G)とは、即ち、Gで正規化された光源色の値であるが、この逆数が所定光源の最適ホワイトバランスゲインとして用いられる場合には、以下では「最適WBGain」と省略表記する。また、ステップS12で抽出された初期推定値(Rmax,Gmax,Bmax)を特徴空間に写像した特徴ベクトル(Rmax/Gmax,Bmax/Gmax)を、以下では「初期推定ベクトル」と呼ぶ。
In step S13, the feature space mapping unit 63 maps the initial estimated value (Rmax value, Gmax value, Bmax value) of the light source color extracted in step S12 to the feature space, and uses the obtained feature vector as the light source determination unit. 64. In this embodiment, the feature space is described as a two-dimensional space of (R / G, B / G).
The feature vector (R / G, B / G) in the feature space is a light source color value normalized by G, and this reciprocal is used as the optimum white balance gain of a predetermined light source. Is abbreviated as “optimal WBGain” below. The feature vector (Rmax / Gmax, Bmax / Gmax) obtained by mapping the initial estimated value (Rmax, Gmax, Bmax) extracted in step S12 to the feature space is hereinafter referred to as “initial estimated vector”.

ステップS14において、光源判定部64は、ステップS13で特徴空間に写像された初期推定ベクトルの分類される光源の種類を判定する。
即ち、ステップS14において、光源判定部64は、初期推定ベクトルが分類される一つ以上の光源カテゴリを、分類器に基づいて判定する。なお、この分類器は、予め機械学習した関連パラメータが格納された各種関連パラメータと共に、関連パラメータ記憶部643に格納されている。
In step S14, the light source determination unit 64 determines the type of light source into which the initial estimated vector mapped in the feature space in step S13 is classified.
That is, in step S14, the light source determination unit 64 determines one or more light source categories into which the initial estimated vector is classified based on the classifier. This classifier is stored in the related parameter storage unit 643 together with various related parameters in which related parameters learned in advance are stored.

ステップS15において、ステップS15において、ホワイトバランス補正部65はステップS14で光源判定部64により判定された光源のカテゴリに基づいて、各光源のホワイトバランス補正のために予め準備された図示せぬLUT(LookUp Table)を用いて、フレームのデータに対して最適なホワイトバランス補正を行う。なお、複数の光源カテゴリに近いと判定された場合のホワイトバランス補正については、図10を参照して後述する。   In step S15, in step S15, the white balance correction unit 65, based on the light source category determined by the light source determination unit 64 in step S14, prepares a LUT (not shown) prepared in advance for white balance correction of each light source. Lookup Table) is used to perform optimal white balance correction on the frame data. Note that the white balance correction when it is determined to be close to a plurality of light source categories will be described later with reference to FIG.

ステップS16において、補正データ出力部66は、ステップS15で導出されたホワイトバランス補正された画像データを、画像処理装置1における後続段である色補間処理部7に供給する。   In step S <b> 16, the correction data output unit 66 supplies the white balance corrected image data derived in step S <b> 15 to the color interpolation processing unit 7 that is the subsequent stage in the image processing apparatus 1.

図4は、所定の光源から取得された複数の教示データから特徴空間上に写像して得られた初期推定ベクトルの分布イメージを示す図である。   FIG. 4 is a diagram showing a distribution image of initial estimated vectors obtained by mapping onto a feature space from a plurality of teaching data acquired from a predetermined light source.

図4において、A〜Eの記号は、複数の教示データから得られた初期推定ベクトルが分類されるカテゴリの番号を示している。
即ち、任意に選択したカテゴリの光源のもとで撮像した教示データが、夫々のカテゴリに分類されて、クラスタ化されているのである。
図4の例では、カテゴリAに分類される光源(以下、「A光源」と呼ぶ)は、太陽光であるとする。つまり、A光源に分類されるクラスタとは、太陽光のもとで撮像された教示データが分類されて、クラスタ化されたものである。
ここで、同様にカテゴリB〜Eに分類される光源については、A光源と同様に、B光源〜E光源と呼ぶ。
このようにして算出された分類器の出力イメージについて、引き続き、図5を用いて説明を行う。なお、本実施形態において撮像されたシーンの各フレームのデータは、上記A〜Eの単独あるいは複数の光源が含まれる可能性がある。
In FIG. 4, symbols A to E indicate category numbers into which initial estimation vectors obtained from a plurality of teaching data are classified.
That is, teaching data captured under a light source of an arbitrarily selected category is classified into each category and clustered.
In the example of FIG. 4, it is assumed that the light source classified into category A (hereinafter referred to as “A light source”) is sunlight. That is, the cluster classified as the A light source is obtained by classifying the teaching data imaged under sunlight into a cluster.
Here, light sources that are similarly classified into categories B to E are referred to as B light source to E light source, similarly to the A light source.
The output image of the classifier thus calculated will be described with reference to FIG. Note that the data of each frame of the scene captured in the present embodiment may include one or more of the light sources A to E.

図5は、本実施形態に係る特徴空間において、複数の教示データの機械学習によって得られた分類器の出力イメージを示す図である。
なお、A〜Eの記号は、図4と同様に、複数の教示データから得られた初期推定ベクトルが分類されるカテゴリの番号を示している。
FIG. 5 is a diagram illustrating an output image of the classifier obtained by machine learning of a plurality of teaching data in the feature space according to the present embodiment.
Note that symbols A to E indicate the category numbers into which the initial estimated vectors obtained from the plurality of teaching data are classified, as in FIG.

図5の例では、教示データの機械学習によって、A〜Eの光源を表す各クラスタの境界が画定されている。
即ち、前述の機械学習によって、A〜Eの光源を表す各クラスタの境界を確定することができ、各クラスタの分類を容易に実現することができる。
本実施形態における、分類器とは、このように機械学習によって、各種光源(A〜E)の光源を表す各クラスタの境界を確定する機能を有している。この分類器を用いることで、後述するように、容易に最適WBGainを算出することができるのである。
次に、このようにして算出された分類器を用いて、実際に入力された所定のフレームデータから算出された初期推定光源のWBGainの取得方法について、以降の図面を用いて説明していく。
In the example of FIG. 5, the boundaries of the clusters representing the light sources A to E are defined by machine learning of the teaching data.
That is, by the above-described machine learning, the boundaries of the clusters representing the light sources A to E can be determined, and the classification of the clusters can be easily realized.
In this embodiment, the classifier has a function of determining the boundaries of the clusters representing the light sources of various light sources (A to E) by machine learning as described above. By using this classifier, the optimum WBGain can be easily calculated as will be described later.
Next, a method for acquiring the WBGain of the initial estimated light source calculated from the actually input predetermined frame data using the classifier calculated in this way will be described with reference to the following drawings.

図6は、本実施形態に係る特徴空間において、所定のフレームのデータから算出された初期推定ベクトルを示す図である。   FIG. 6 is a diagram showing an initial estimated vector calculated from data of a predetermined frame in the feature space according to the present embodiment.

図6の例では、当該フレームのデータから算出された初期推定ベクトルHがA光源のカテゴリ範囲内に存在している。
この新たに算出された初期推定ベクトルHのWBGainの取得方法について、引き続き、図7を用いて説明していく。
In the example of FIG. 6, the initial estimated vector H calculated from the data of the frame exists within the category range of the A light source.
A method of acquiring the newly calculated initial estimated vector H WBGain will be described with reference to FIG.

即ち、図7は、本実施形態に係る特徴空間において、A〜Eの各カテゴリに分類された光源の最適WBGainを説明するためのイメージ図である。   That is, FIG. 7 is an image diagram for explaining the optimum WBGain of the light sources classified into the categories A to E in the feature space according to the present embodiment.

図7の例では、A光源に分類された初期推定ベクトルHについて、最適WBGainを設定する場合の例を示している。
ここで、分類器によって分けられた各カテゴリに区分された空間に分布する初期推定ベクトルは、前述の通り、様々な要因で各カテゴリの最適WBGainから外れている可能性がある。そのため、初期推定ベクトルHをそのまま用いてホワイトバランス補正を行うことは望ましくない。
したがって、図7の例では初期推定ベクトルHは、A光源に分類される特徴空間内に存在しているため、当該初期推定ベクトルの代わりに、前述の機械学習により設定されたA光源の最適WBGainを設定する。
In the example of FIG. 7, an example in which the optimum WBGain is set for the initial estimated vector H classified as the A light source is shown.
Here, as described above, there is a possibility that the initial estimated vector distributed in the space divided into each category divided by the classifier is out of the optimum WBGain of each category due to various factors. For this reason, it is not desirable to perform white balance correction using the initial estimated vector H as it is.
Therefore, in the example of FIG. 7, the initial estimated vector H exists in the feature space classified as the A light source. Therefore, instead of the initial estimated vector, the optimum WBGain of the A light source set by the machine learning described above. Set.

図8は、本実施形態に係る特徴空間において、特殊カテゴリが存在するイメージ図である。   FIG. 8 is an image diagram in which a special category exists in the feature space according to the present embodiment.

図8の例では、C光源のカテゴリの空間内に、新しく一定の分布を持つ特殊カテゴリが存在している場合が示されている。
即ち、複数のフレームのデータが入力されていくと、上述のA〜Eの何れのカテゴリにも分類が困難な特徴空間内の所定の領域に新たなクラスタを作る場合がある。
このような場合に、フレームのデータが蓄積された結果として生成された新たなクラスタを特殊カテゴリとして呼び、別の光源として識別することができる。そこで、初期推定ベクトルが、この特殊カテゴリに分類される場合について、図9を用いて、引き続き説明を行う。
In the example of FIG. 8, a case where a new special category having a certain distribution exists in the space of the C light source category is shown.
That is, when data of a plurality of frames are input, a new cluster may be created in a predetermined region in the feature space that is difficult to classify into any of the above categories A to E.
In such a case, a new cluster generated as a result of accumulating frame data can be referred to as a special category and identified as another light source. Therefore, the case where the initial estimation vector is classified into this special category will be described with reference to FIG.

図9は、本実施形態に係る特徴空間において、特殊カテゴリに対応した最適WBGainを説明するためのイメージ図である。   FIG. 9 is an image diagram for explaining the optimum WBGain corresponding to the special category in the feature space according to the present embodiment.

図9を見ると、初期推定ベクトルは、図8で新しく設定された特殊カテゴリに分類されている。このような特殊カテゴリが設定された場合、その特殊カテゴリに対して、前述の機械学習によって再び新たな分類器が算出される。そして、その特殊カテゴリに対応した最適WBGainが別途設定される。
即ち、図9の例では、初期推定ベクトルは、ここで別途設定された特殊カテゴリに対応した最適WBGainが、初期推定ベクトルの最適WBGainとして設定される。
Referring to FIG. 9, the initial estimated vectors are classified into special categories newly set in FIG. When such a special category is set, a new classifier is calculated again for the special category by the machine learning described above. Then, the optimum WBGain corresponding to the special category is set separately.
That is, in the example of FIG. 9, as the initial estimated vector, the optimum WBGain corresponding to the special category separately set here is set as the optimum WBGain of the initial estimated vector.

図10は、本実施形態に係る特徴空間において、初期推定ベクトルがB光源とC光源の重複分布範囲内にある場合を説明するためのイメージ図である。   FIG. 10 is an image diagram for explaining a case where the initial estimated vector is within the overlapping distribution range of the B light source and the C light source in the feature space according to the present embodiment.

図10を見ると、例えば、初期推定ベクトルは、B光源とC光源の重複分布範囲内に存在している。
このような場合、まず、光源識別部644は、初期推定ベクトルと各光源の最適WBGainとをアルゴリズムから類似度を算出する。そして、その類似度に基づいて、初期推定ベクトルがB光源に分類されるのか、あるいはC光源に分類されるのか、が選択される。
図10の例では、光源識別部644は、類似度の算出結果として、初期推定ベクトルをC光源の最適WBGainとして選択している。
Referring to FIG. 10, for example, the initial estimated vector exists in the overlapping distribution range of the B light source and the C light source.
In such a case, first, the light source identification unit 644 calculates a similarity degree from the algorithm using the initial estimated vector and the optimum WBGain of each light source. Then, based on the similarity, it is selected whether the initial estimated vector is classified as a B light source or a C light source.
In the example of FIG. 10, the light source identification unit 644 selects the initial estimated vector as the optimum WBGain of the C light source as the similarity calculation result.

以上本発明の画像処理装置の一実施形態について説明したが、本発明は上述した本実施形態に限るものではない。また、本実施形態に記載された効果は、本発明から生じる最も好適な効果の列挙に過ぎず、本発明による効果は、本実施形態に記載されたものに限定されるものではない。   Although one embodiment of the image processing apparatus of the present invention has been described above, the present invention is not limited to the above-described embodiment. In addition, the effects described in the present embodiment are merely a list of the most preferable effects resulting from the present invention, and the effects of the present invention are not limited to those described in the present embodiment.

例えば、上述の本実施形態では、機械学習の方法としては、SVMを用いると説明を行ったが、機械学習の方法は、これに特に限定されない。
さらに、例えば、この機械学習は、ホワイトバランス処理の実行前に完了することを前提として説明を行ったが、これに特に限定されない。即ち、ホワイトバランス処理を実行する際に、並列して機械学習を行うことも可能である。
For example, in the above-described embodiment, it has been described that the SVM is used as the machine learning method. However, the machine learning method is not particularly limited thereto.
Furthermore, for example, the machine learning has been described on the assumption that it is completed before the white balance process is executed, but the present invention is not particularly limited thereto. That is, when performing white balance processing, it is possible to perform machine learning in parallel.

例えば、上述の本実施形態では、初期推定部62が(R,G,B)の各チャンネルの最大値(Rmax値,Gmax値,Bmax値)を抽出すると記述したが、これに特に制限されない。
例えば、(R値,G値,B値)を(Y値,U値,V値)に変換して、その最大値を抽出してもよい。
さらに例えば、(Rmax値,Gmax値,Bmax値)を抽出せず、各チャンネルの平均値(Rave値,Gave値,Bave値)を抽出してもよい。
For example, in the above-described embodiment, it is described that the initial estimation unit 62 extracts the maximum value (Rmax value, Gmax value, Bmax value) of each channel of (R, G, B), but is not particularly limited thereto.
For example, (R value, G value, B value) may be converted into (Y value, U value, V value), and the maximum value may be extracted.
Further, for example, the average value (Rave value, Gave value, Bave value) of each channel may be extracted without extracting (Rmax value, Gmax value, Bmax value).

例えば、上述の本実施形態では、特徴空間写像部63が(R/G,B/G)二次元空間を特徴空間として写像すると記述したが、これに特に制限されない。例えば、さらに多くの特徴量を追加して、多次元の特徴空間として写像してもよい。   For example, in the above-described embodiment, the feature space mapping unit 63 is described as mapping the (R / G, B / G) two-dimensional space as the feature space. However, the present invention is not particularly limited thereto. For example, more feature quantities may be added and mapped as a multidimensional feature space.

例えば、図10の例では、光源識別部644は、類似度の概念を用いて、初期推定ベクトルの分類を選択するものとして説明を行ったが、類似度の概念をどのように定義するか、また、どのように初期推定ベクトルの分類を選択するのかは、自由に決定することができる。
例えば、算出した類似度によって重み付けしたB光源とC光源の最適WBGainの平均値を用いて、初期推定ベクトルの最適WBGainを選択してもよい。
For example, in the example of FIG. 10, the light source identification unit 644 has been described as selecting the initial estimated vector classification using the concept of similarity, but how to define the concept of similarity, Further, how to select the classification of the initial estimated vector can be freely determined.
For example, the optimum WBGain of the initial estimated vector may be selected using the average value of the optimum WBGain of the B light source and the C light source weighted by the calculated similarity.

また、図1に示すハードウェア構成は、本発明の目的を達成するための例示に過ぎず、特に限定されない。   The hardware configuration shown in FIG. 1 is merely an example for achieving the object of the present invention, and is not particularly limited.

また、図2に示すブロック図は、例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能がホワイトバランス処理部6に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは、特に図2の例に限定されない。
さらに、機能ブロックの存在場所も、図2に限定されず、任意でよい。
そして、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェアとの組み合わせで構成してもよい。
The block diagram shown in FIG. 2 is merely an example, and is not particularly limited. That is, it is sufficient if the white balance processing unit 6 has a function capable of executing the above-described series of processing as a whole, and what functional block is used to realize this function is particularly illustrated in the example of FIG. It is not limited.
Furthermore, the location of the functional block is not limited to that shown in FIG.
One functional block may be constituted by hardware alone or in combination with software.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.

以上まとめると、本発明が適用される画像処理装置は、次のような構成を取れば足り、各種各様な実施形態を取ることができる。
即ち、本発明が適用される画像処理装置(例えば図1の画像処理装置1)は、
所定の画像データから所定のパラメータを取得し、前記パラメータに基づく値を、所定の特徴空間上に写像することで、前記特徴空間上の所定の光源推定ベクトルを取得する取得手段(例えば図2の初期推定部62や特徴空間写像部63)と、
前記第1取得手段で取得された光源推定ベクトルを、予め機械学習された分類器によって、前記光源推定ベクトルの前記特徴空間上のカテゴリを分類する分類手段(例えば図2の光源識別部644)と、
前記光源推定ベクトルと前記分類手段により分類されたカテゴリに基づいて、前記画像データのうちの所定のフレームのデータから最適WBGainを取得し、WB補正を行う補正手段(例えば図2のホワイトバランス補正部65)と、
を備えていれば足りる。
In summary, the image processing apparatus to which the present invention is applied only needs to have the following configuration, and can take various embodiments.
That is, the image processing apparatus to which the present invention is applied (for example, the image processing apparatus 1 in FIG. 1)
Acquisition means for acquiring a predetermined light source estimation vector on the feature space by acquiring a predetermined parameter from the predetermined image data and mapping a value based on the parameter onto the predetermined feature space (for example, FIG. 2) An initial estimation unit 62 and a feature space mapping unit 63),
Classifying means (for example, a light source identification unit 644 in FIG. 2) for classifying the light source estimation vector acquired by the first acquisition means into a category in the feature space of the light source estimation vector by a classifier previously machine-learned. ,
Based on the light source estimation vector and the category classified by the classification unit, a correction unit (for example, a white balance correction unit in FIG. 2) that obtains an optimum WBGain from data of a predetermined frame of the image data and performs WB correction 65)
It is enough to have

これにより、撮影されたシーンの中に複数の光源が環境光として存在していた場合でも、予め機械学習して得られた分類器を用いて、フレームのデータから取得された特徴ベクトルをカテゴリ分類して光源を特定することで、より容易に最適WBGainを取得することができる。
そのため、フレームのデータから推定された光源色に基づいて、(直接)ホワイトバランス補正を行う従来の技術と比較して、より容易に最適ホワイトバランス補正を行うことが可能となる。
As a result, even if multiple light sources exist as ambient light in the photographed scene, the feature vector acquired from the frame data is categorized using the classifier obtained by machine learning in advance. By specifying the light source, the optimum WBGain can be acquired more easily.
Therefore, it is possible to perform the optimum white balance correction more easily as compared with the conventional technique that performs (direct) white balance correction based on the light source color estimated from the frame data.

1・・・画像処理装置
2・・・センサベイヤデータ取得部
3・・・イメージパイプ
4・・・出力画像データ出力部
5・・・シェーディング補正処理部
6・・・ホワイトバランス処理部
7・・・色補間処理部
8・・・色再現ゲイン処理部
9・・・ガンマ処理部
10・・・色空間変換処理部
61・・・RGB算出部
62・・・初期推定部
63・・・特徴空間写像部
64・・・光源判定部
65・・・ホワイトバランス補正部
66・・・補正データ出力部
641・・・教示データ記憶部
642・・・機械学習部
643・・・関連パラメータ記憶部
644・・・光源識別部



DESCRIPTION OF SYMBOLS 1 ... Image processing device 2 ... Sensor Bayer data acquisition part 3 ... Image pipe 4 ... Output image data output part 5 ... Shading correction process part 6 ... White balance process part 7. Color interpolation processing unit 8 ... Color reproduction gain processing unit 9 ... Gamma processing unit 10 ... Color space conversion processing unit 61 ... RGB calculation unit 62 ... Initial estimation unit 63 ... Feature space Mapping unit 64 ... Light source determination unit 65 ... White balance correction unit 66 ... Correction data output unit 641 ... Teaching data storage unit 642 ... Machine learning unit 643 ... Related parameter storage unit 644 ..Light source identification part



Claims (4)

所定の画像データから所定のパラメータを取得し、前記パラメータに基づく値を、所定の特徴空間上に写像することで、前記特徴空間上の所定の光源推定ベクトルを取得する第1取得手段と、
前記第1取得手段で取得された光源推定ベクトルを、予め機械学習された分類器によって、前記光源推定ベクトルの前記特徴空間上のカテゴリに分類する分類手段と、
前記光源推定ベクトルと前記分類手段により分類されたカテゴリに基づいて、前記画像データのうちの所定のフレームのデータから最適WBGainを取得する第2取得手段と、
を備える画像処理装置。
First acquisition means for acquiring a predetermined light source estimation vector on the feature space by acquiring a predetermined parameter from the predetermined image data and mapping a value based on the parameter onto the predetermined feature space;
Classifying means for classifying the light source estimation vector acquired by the first acquisition means into a category on the feature space of the light source estimation vector by a classifier previously machine-learned;
Second acquisition means for acquiring an optimum WBGain from data of a predetermined frame of the image data based on the light source estimation vector and the category classified by the classification means;
An image processing apparatus comprising:
前記第2取得手段は、前記分類手段により分類された前記カテゴリごとに予め設定されている最適ベクトルを最適WBGainとして取得する、
請求項1に記載の画像処理装置。
The second acquisition unit acquires an optimum vector set in advance for each category classified by the classification unit as an optimum WBGain.
The image processing apparatus according to claim 1.
前記分類手段は、分類されたカテゴリに対して、複数のカテゴリ空間が重複した場合、類似度を算出することによって、最適カテゴリを推定して、特定する、
請求項1又は2に記載の画像処理装置。
The classification means estimates and identifies an optimum category by calculating a similarity when a plurality of category spaces overlap with respect to the classified category.
The image processing apparatus according to claim 1.
前記第1取得手段により取得された前記光源推定ベクトルと前記分類手段の分類するカテゴリとを比較し、前記分類手段の分類するカテゴリとかけ離れている場合に、新しく発生した一定の分布を特殊カテゴリとして設定し、
当該特殊カテゴリに基づいて、前記第2取得手段が取得する最適WBGainとは異なる最適WBGainを、別途、取得する、
請求項1乃至3のうちいずれか1項に記載の画像処理装置。
The light source estimation vector acquired by the first acquisition unit is compared with the category classified by the classification unit, and when the classification is far from the category classified by the classification unit, a newly generated constant distribution is set as a special category. Set,
Based on the special category, an optimum WBGain different from the optimum WBGain obtained by the second obtaining unit is separately obtained.
The image processing apparatus according to claim 1.
JP2017038725A 2017-03-01 2017-03-01 Image processing device Active JP6934240B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017038725A JP6934240B2 (en) 2017-03-01 2017-03-01 Image processing device
JP2021132352A JP7152065B2 (en) 2017-03-01 2021-08-16 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017038725A JP6934240B2 (en) 2017-03-01 2017-03-01 Image processing device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021132352A Division JP7152065B2 (en) 2017-03-01 2021-08-16 Image processing device

Publications (2)

Publication Number Publication Date
JP2018148281A true JP2018148281A (en) 2018-09-20
JP6934240B2 JP6934240B2 (en) 2021-09-15

Family

ID=63590040

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017038725A Active JP6934240B2 (en) 2017-03-01 2017-03-01 Image processing device
JP2021132352A Active JP7152065B2 (en) 2017-03-01 2021-08-16 Image processing device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021132352A Active JP7152065B2 (en) 2017-03-01 2021-08-16 Image processing device

Country Status (1)

Country Link
JP (2) JP6934240B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020077950A (en) * 2018-11-07 2020-05-21 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Image processing device, imaging device, image processing method, and program
CN111670575A (en) * 2019-01-07 2020-09-15 华为技术有限公司 White balance processing method and device for image
WO2021199366A1 (en) * 2020-03-31 2021-10-07 ソニーグループ株式会社 Information processing device, method, program, and model
WO2022260252A1 (en) * 2021-06-10 2022-12-15 삼성전자 주식회사 Electronic device including camera module and operation method thereof
CN115529448A (en) * 2022-03-10 2022-12-27 荣耀终端有限公司 Image processing method and related device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000224608A (en) * 1999-02-02 2000-08-11 Fuji Photo Film Co Ltd Automatic white balance control method
JP2004328461A (en) * 2003-04-25 2004-11-18 Fuji Photo Film Co Ltd Automatic white balance adjustment method
JP2006254336A (en) * 2005-03-14 2006-09-21 Fuji Photo Film Co Ltd White balance correction method and apparatus
JP2009044255A (en) * 2007-08-06 2009-02-26 Nikon Corp Color imaging apparatus
JP2013168723A (en) * 2012-02-14 2013-08-29 Nikon Corp Image processing device, imaging device, image processing program, and image processing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7912279B2 (en) 2006-10-26 2011-03-22 Qualcomm Incorporated Automatic white balance statistics collection
JP5092612B2 (en) 2007-08-03 2012-12-05 株式会社ニコン Color imaging device
JP6561479B2 (en) 2015-01-28 2019-08-21 株式会社シグマ Imaging device capable of color shading correction

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000224608A (en) * 1999-02-02 2000-08-11 Fuji Photo Film Co Ltd Automatic white balance control method
JP2004328461A (en) * 2003-04-25 2004-11-18 Fuji Photo Film Co Ltd Automatic white balance adjustment method
JP2006254336A (en) * 2005-03-14 2006-09-21 Fuji Photo Film Co Ltd White balance correction method and apparatus
JP2009044255A (en) * 2007-08-06 2009-02-26 Nikon Corp Color imaging apparatus
JP2013168723A (en) * 2012-02-14 2013-08-29 Nikon Corp Image processing device, imaging device, image processing program, and image processing method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020077950A (en) * 2018-11-07 2020-05-21 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Image processing device, imaging device, image processing method, and program
CN111670575A (en) * 2019-01-07 2020-09-15 华为技术有限公司 White balance processing method and device for image
CN111670575B (en) * 2019-01-07 2021-09-21 华为技术有限公司 White balance processing method and device for image
WO2021199366A1 (en) * 2020-03-31 2021-10-07 ソニーグループ株式会社 Information processing device, method, program, and model
WO2022260252A1 (en) * 2021-06-10 2022-12-15 삼성전자 주식회사 Electronic device including camera module and operation method thereof
CN115529448A (en) * 2022-03-10 2022-12-27 荣耀终端有限公司 Image processing method and related device

Also Published As

Publication number Publication date
JP6934240B2 (en) 2021-09-15
JP2021180527A (en) 2021-11-18
JP7152065B2 (en) 2022-10-12

Similar Documents

Publication Publication Date Title
JP7152065B2 (en) Image processing device
CN110022469B (en) Image processing method, image processing device, storage medium and electronic equipment
US8675091B2 (en) Image data processing with multiple cameras
US10325354B2 (en) Depth assisted auto white balance
US11508038B2 (en) Image processing method, storage medium, image processing apparatus, learned model manufacturing method, and image processing system
US11503262B2 (en) Image processing method and device for auto white balance
US20110075924A1 (en) Color adjustment
US20220198625A1 (en) High-dynamic-range image generation with pre-combination denoising
JP2016540440A (en) Picture processing method and apparatus
KR101756548B1 (en) Methods for awb(automatic white balance) compensation and apparatuses using the same
JP5740147B2 (en) Light source estimation apparatus and light source estimation method
US9736394B2 (en) Image processing apparatus, imaging apparatus, image processing method, and computer-readable recording medium
US7885458B1 (en) Illuminant estimation using gamut mapping and scene classification
WO2013114803A1 (en) Image processing device, image processing method therefor, computer program, and image processing system
US20150312487A1 (en) Image processor and method for controlling the same
JP6632724B2 (en) Device and method for reducing exposure time set for high dynamic range video / imaging
KR102136716B1 (en) Apparatus for Improving Image Quality and Computer-Readable Recording Medium with Program Therefor
JP2019083445A (en) Image processing apparatus, image processing method, image processing system, and program
JP5956844B2 (en) Image processing apparatus and control method thereof
JP7005215B2 (en) Image processing equipment, image processing method, computer program
EP4090006A2 (en) Image signal processing based on virtual superimposition
US20190052803A1 (en) Image processing system, imaging apparatus, image processing apparatus, control method, and storage medium
WO2013114802A1 (en) Image processing device, image processing method therefor, computer program, and image processing system
JP2016127505A (en) Image processing apparatus and image processing method
CN112995634B (en) Image white balance processing method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210720

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210816

R150 Certificate of patent or registration of utility model

Ref document number: 6934240

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250