JP2000152263A - Solid-state image pickup device and image data generating method - Google Patents
Solid-state image pickup device and image data generating methodInfo
- Publication number
- JP2000152263A JP2000152263A JP10326571A JP32657198A JP2000152263A JP 2000152263 A JP2000152263 A JP 2000152263A JP 10326571 A JP10326571 A JP 10326571A JP 32657198 A JP32657198 A JP 32657198A JP 2000152263 A JP2000152263 A JP 2000152263A
- Authority
- JP
- Japan
- Prior art keywords
- data
- color
- image
- light receiving
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 98
- 238000012545 processing Methods 0.000 claims abstract description 218
- 239000011159 matrix material Substances 0.000 claims abstract description 32
- 238000000926 separation method Methods 0.000 claims abstract description 31
- 238000003384 imaging method Methods 0.000 claims description 97
- 239000003086 colorant Substances 0.000 claims description 70
- 230000008569 process Effects 0.000 claims description 57
- 238000003860 storage Methods 0.000 claims description 41
- 238000004364 calculation method Methods 0.000 claims description 35
- 238000006243 chemical reaction Methods 0.000 claims description 31
- 230000003287 optical effect Effects 0.000 claims description 26
- 238000005070 sampling Methods 0.000 claims description 25
- 238000012935 Averaging Methods 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 10
- 230000033001 locomotion Effects 0.000 claims description 9
- 230000003595 spectral effect Effects 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 abstract description 2
- 230000003247 decreasing effect Effects 0.000 abstract 1
- 230000000875 corresponding effect Effects 0.000 description 56
- 238000010586 diagram Methods 0.000 description 23
- 239000011295 pitch Substances 0.000 description 14
- 101150029328 SUB6 gene Proteins 0.000 description 11
- 101150086029 SUB5 gene Proteins 0.000 description 10
- 229910004438 SUB2 Inorganic materials 0.000 description 8
- 101100311330 Schizosaccharomyces pombe (strain 972 / ATCC 24843) uap56 gene Proteins 0.000 description 8
- 230000006835 compression Effects 0.000 description 8
- 238000007906 compression Methods 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 8
- 101150018444 sub2 gene Proteins 0.000 description 8
- 101150080287 SUB3 gene Proteins 0.000 description 7
- 238000009826 distribution Methods 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 7
- 102100036464 Activated RNA polymerase II transcriptional coactivator p15 Human genes 0.000 description 6
- 101000713904 Homo sapiens Activated RNA polymerase II transcriptional coactivator p15 Proteins 0.000 description 6
- 229910004444 SUB1 Inorganic materials 0.000 description 6
- 101150023658 SUB4 gene Proteins 0.000 description 6
- 230000003044 adaptive effect Effects 0.000 description 6
- 239000003795 chemical substances by application Substances 0.000 description 6
- 238000011161 development Methods 0.000 description 6
- 230000001276 controlling effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 102100035586 Protein SSXT Human genes 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 101100366707 Arabidopsis thaliana SSL11 gene Proteins 0.000 description 1
- 101100366562 Panax ginseng SS12 gene Proteins 0.000 description 1
- 101000662518 Solanum tuberosum Sucrose synthase Proteins 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Landscapes
- Facsimile Heads (AREA)
- Color Television Image Signal Generators (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、隣接する互いの受
光素子に対して、各受光素子の幾何学的な形状の中心が
互いに行方向および/または列方向にこの受光素子のピ
ッチの半分に相当する距離だけずれて配列され、色分解
された入射光を受光して、この入射光に応じた信号電荷
を生成する複数の受光素子からの信号を基に信号処理を
施して画像データを作成する固体撮像装置および画像デ
ータ作成方法に関し、特に、原色の色フィルタ配列の信
号から画像作成に用いる画素の配置が正方格子状と異な
る配置を正方格子状の配置から得られる画像を出力する
固体撮像装置を、たとえば、ディジタルスチルカメラや
画像入力装置等に適用して好適なものである。BACKGROUND OF THE INVENTION The present invention relates to a light-receiving element which is arranged such that the center of the geometrical shape of each light-receiving element is half the pitch of the light-receiving elements in the row direction and / or the column direction with respect to each other. Image data is created by performing signal processing based on signals from a plurality of light receiving elements that receive the color-separated incident light that is arranged and shifted by a corresponding distance and generate signal charges corresponding to this incident light. Solid-state imaging device and an image data generation method, and in particular, a solid-state imaging device that outputs an image obtained from a square lattice-like arrangement in which the arrangement of pixels used for image formation differs from a square lattice-like arrangement from a signal of a primary color filter array The apparatus is suitably applied to, for example, a digital still camera or an image input apparatus.
【0002】[0002]
【従来の技術】画像の高品質化が望まれている。画像の
垂直解像度を向上させる方法には、一般に、全画素読出
し方法が一手法として適用される。さらに、カラー化で
は、色フィルタの配置も考慮して高画質化する方式が評
価・検討され、提案されてきている。この提案の一つ
に、特開平8-340455号公報がある。2. Description of the Related Art There is a demand for high quality images. As a method for improving the vertical resolution of an image, an all-pixel reading method is generally applied as one method. Furthermore, in colorization, a method of improving image quality in consideration of the arrangement of color filters has been evaluated and examined, and proposed. One of these proposals is disclosed in Japanese Patent Application Laid-Open No. 8-340455.
【0003】この方式は、色フィルタがRGB ストライプ
配置に配された、単板の色分解フィルタを用いた場合を
想定している。したがって、総画素に占めるRGB の各画
素は、1/3 の割合になる。列方向に繰り返されるパター
ンの各色を行方向に見た際に受光素子、すなわち画素
が、互いに画素間隔(ピッチ)の半分ずれた位置関係に
配されている。この配置の中で互いに近傍に位置する色
RGB すべてを含むΔ(デルタ)型のパターンが1画素と
して扱われ、このパターン内の各色RGB の値を画素にお
ける三原色の値にしている。このように画素を扱うこと
により、撮像に寄与する画素数は、配設された全画素に
対して1/3 になる。[0003] This method assumes a case where a single-plate color separation filter in which color filters are arranged in an RGB stripe arrangement is used. Therefore, each pixel of RGB occupies 1/3 of the total pixels. When each color of the pattern repeated in the column direction is viewed in the row direction, the light receiving elements, that is, the pixels are arranged in a positional relationship shifted from each other by half the pixel interval (pitch). Colors that are close to each other in this arrangement
A Δ (delta) pattern including all RGB is treated as one pixel, and the RGB values of each color in this pattern are used as the values of the three primary colors of the pixel. By handling pixels in this way, the number of pixels contributing to imaging is reduced to 1/3 of all the arranged pixels.
【0004】[0004]
【発明が解決しようとする課題】ところで、前述したよ
うに撮像した画像の画質は、高ければ高いほどよいとい
う要求がある一方、この画質をなるべく保ちながら、モ
ニタ上に画像を表示させたいという要求がある。この前
者の要求は、高画質化に伴う画素数の増加により全画素
を有効に読み出す場合、読出し時間がこれまで以上に要
する虞れがある。そして、後者の要求は、画像表示の高
速化に伴う撮像信号の読出し速度および処理速度の向上
という読出し時間の短縮を意味している。したがって。
これらの要求は、互いに相反する関係にある。As described above, there is a demand that the higher the image quality of a captured image is, the better the image quality is. There is. The former requirement is that, when all pixels are effectively read due to an increase in the number of pixels accompanying higher image quality, there is a possibility that the read time may be longer than before. The latter requirement means that the reading time and the processing speed of the image pickup signal are improved as the image display speed is increased, and the reading time is shortened. Therefore.
These requirements are in conflict with each other.
【0005】また、後者の要求を満足させようとした際
に、生成された画像には、偽信号が生じることがある。
この偽信号の発生は、せっかく、画素数の増加を図って
も画質を低下させてしまうことになる。Further, when the latter requirement is to be satisfied, a false signal may be generated in the generated image.
The generation of the false signal degrades the image quality even if the number of pixels is increased.
【0006】本発明はこのような従来技術の欠点を解消
し、画質の向上と画像表示の高速化という相反する要求
を満足させることのできる固体撮像装置および画素デー
タ作成方法を提供することを目的とする。SUMMARY OF THE INVENTION It is an object of the present invention to provide a solid-state imaging device and a pixel data generating method capable of solving the above-mentioned drawbacks of the prior art and satisfying the conflicting demands of improved image quality and faster image display. And
【0007】[0007]
【課題を解決するための手段】本発明は上述の課題を解
決するために、被写界からの入射光を集光させる集光手
段と、この集光手段を介して入射する入射光を三原色RG
B 色分解する色フィルタが色G 正方格子状に配され、色
G を挟んで対角位置に同色R,またはB が配される完全市
松パターンに配された色分解手段と、行および列方向に
配列され、この色分解手段で色分解された入射光を受光
して、この入射光に応じた信号電荷を生成する複数の受
光素子とを含む撮像手段を有し、複数の受光素子のそれ
ぞれは、隣接する互いの受光素子に対して、各受光素子
の幾何学的な形状の中心が互いに行方向および/または
列方向に該受光素子のピッチの半分に相当する距離だけ
ずれて配され、複数の受光素子からの撮像出力をディジ
タル信号のデータに変換するディジタル変換手段と、こ
のディジタル変換手段からデータを複数の画像分記憶す
る記憶手段と、この記憶手段からの撮像した画像に対し
て設定される複数のモードのうち、画像の解像度または
画像の読出し速度の設定に応じてモードの設定を行うモ
ード設定手段と、記憶手段からの画像を読み出す際の画
像を選択する画像選択手段と、この画像選択手段で選択
した画像に設定したモードに応じた信号処理を施す信号
処理手段と、撮像手段およびディジタル変換手段を制御
するとともに、モード設定手段および画像選択手段から
それぞれ供給される情報に応じて信号処理手段を制御す
る制御手段とを含むことを特徴とする。SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, the present invention provides a light-collecting means for condensing incident light from an object scene, and a device for converging incident light incident through the light-condensing means into three primary colors. RG
B Color filters for color separation are arranged in a square grid.
Color separation means arranged in a complete checkerboard pattern in which the same color R or B is arranged diagonally across G, and arranged in the row and column directions to receive incident light color-separated by this color separation means And a plurality of light receiving elements for generating signal charges according to the incident light. Digital centers which are arranged such that the centers of the geometric shapes are shifted from each other in the row direction and / or the column direction by a distance corresponding to a half of the pitch of the light receiving elements, and convert the imaging outputs from the plurality of light receiving elements into digital signal data. Conversion means; storage means for storing data from the digital conversion means for a plurality of images; and image resolution or image reading speed among a plurality of modes set for images taken from the storage means. Mode setting means for setting a mode in accordance with the setting, image selection means for selecting an image when reading an image from the storage means, and signal processing according to the mode set for the image selected by the image selection means. It is characterized by including signal processing means to be applied, and control means for controlling the image processing means and the digital conversion means and for controlling the signal processing means in accordance with information supplied from the mode setting means and the image selection means, respectively.
【0008】ここで、モード設定手段は、信号処理手段
に対して、記憶手段からの出力を瞬間的に表示する第1
のモードと、この第1のモードに比して記憶手段からの
出力を解像度の高い表示あるいは画像を記録する記録媒
体への記録のいずれかに用いる第2のモードの設定が行
われることが好ましい。このようにモードとしてユーザ
の要求を分けて対応することが可能になる。Here, the mode setting means instantaneously displays the output from the storage means to the signal processing means.
And a second mode in which the output from the storage means is used for either high-resolution display or recording on a recording medium for recording an image as compared with the first mode. . In this way, it is possible to respond to a user request separately as a mode.
【0009】信号処理手段は、第1のモードで記憶手段
から撮像した画像を読み出す際のサンプリングにより信
号処理を施す第1の信号処理手段と、第2のモードで記
憶手段からの出力を用いて周波数的に高い輝度データを
生成するとともに、この輝度データと記憶手段を介して
供給されるデータとを用いて受光素子間のデータも補間
した信号処理を施す第2の信号処理手段と、記憶手段の
出力を制御手段の制御により第2の信号処理手段に切り
換えて供給する出力先選択手段と、第1の信号処理手段
または第2の信号処理手段からの出力を用いて輝度デー
タ、色差データを生成するマトリクス手段と、このマト
リクス手段からの出力のうちで、輝度データに対して輪
郭強調処理を施すアパーチャ調整手段と、このアパーチ
ャ調整手段からの出力およびマトリクス手段からの色差
データにそれぞれ帯域制限を施すフィルタ処理手段とを
含むことが好ましい。これにより、第1の信号処理手段
は、第2の信号処理手段のように補間処理を行っておら
ず、単にサンプリングだけの信号処理なので、第2の信
号処理手段よりも信号処理した結果をマトリクス手段に
出力することができる。The signal processing means uses the first signal processing means for performing signal processing by sampling when reading an image taken from the storage means in the first mode, and the output from the storage means in the second mode. A second signal processing means for generating high-frequency luminance data and performing signal processing by interpolating data between light receiving elements using the luminance data and data supplied via the storage means; And an output destination selecting means for switching and outputting the output of the first signal processing means to the second signal processing means under the control of the control means. Matrix means for generating, an aperture adjusting means for performing an outline emphasizing process on the luminance data among outputs from the matrix means, and an output from the aperture adjusting means. Preferably includes a filtering means for applying respective band-limited color difference data from the force and matrix means. As a result, the first signal processing means does not perform the interpolation processing as in the second signal processing means, and is a signal processing only for sampling. Therefore, the result of the signal processing performed by the second signal processing means is represented by a matrix. Output to the means.
【0010】第1の信号処理手段は、記憶手段に記憶さ
れている色G に対して斜め方向に配されるとともに、同
一の行方向に配される色R, Gをこの色G の位置における
三原色の組合せデータとしてサンプリングを行う第1抽
出手段を含み、第1の抽出手段は、組合せデータの色R,
Gの少なくとも一つが隣接する組合せデータを重複して
サンプリングが行われることが好ましい。これにより、
単に三原色RGB に対応する受光素子(画素)のデータを
3つずつまとめて1つのデータとする場合とほぼ同様の
信号処理でありながら、出力される画素数を従来のサン
プリングに比べて1.5 倍に増やすことができる。たとえ
ば、まとめて2つのデータを作成する受光素子から3つ
のデータを作成する。したがって、第1の信号処理手段
は、速度の要求を満たしながら、総画素数の半分のデー
タを出力する。換言すると、本来撮像手段における色G
に対応する画素数だけ得られることになる。The first signal processing means is disposed obliquely with respect to the color G stored in the storage means, and converts the colors R, G disposed in the same row direction at the position of this color G. A first extraction unit that performs sampling as combination data of three primary colors, wherein the first extraction unit includes a color R,
It is preferable that sampling is performed by overlapping combination data in which at least one of Gs is adjacent. This allows
The signal processing is almost the same as the case where the data of the light receiving elements (pixels) corresponding to the three primary colors RGB are combined into one data, but the number of output pixels is 1.5 times that of the conventional sampling. Can be increased. For example, three data are created from light receiving elements that create two data at a time. Therefore, the first signal processing means outputs data of half the total number of pixels while satisfying the speed requirement. In other words, the color G originally in the imaging means
Is obtained by the number of pixels corresponding to
【0011】また、第1の信号処理手段は、記憶手段に
記憶されている色G に対して斜めに配される同一色R ま
たは Bのデータをこの色G の位置におけるデータとして
サンプリングを行う第2抽出手段と、この第2抽出手段
により抽出されたデータを用いて、このデータの加算平
均で色R, Bがそれぞれ算出されるRB演算手段とを含み、
RB演算手段での算出値をこの色G の位置における三原色
を表す組合せデータとされることが望ましい。これによ
り、上述した第1の信号処理手段に比べて若干速度が遅
くるが、単純な加算平均という演算により偽色の抑制さ
れたデータを提供する。したがって、上述した第1の信
号処理手段の出力に比べて画質を向上させることができ
る。The first signal processing means samples data of the same color R or B, which is obliquely arranged with respect to the color G stored in the storage means, as data at the position of the color G. 2 extracting means, and RB calculating means for calculating the colors R and B by the averaging of the data using the data extracted by the second extracting means,
It is desirable that the value calculated by the RB calculation means be combined data representing the three primary colors at the position of the color G. Thereby, although the speed is slightly lower than that of the above-described first signal processing means, data in which false colors are suppressed is provided by a simple arithmetic operation of averaging. Therefore, the image quality can be improved as compared with the output of the above-mentioned first signal processing means.
【0012】第2の信号処理手段は、第2のモードでの
受光素子からの信号のサンプリングにおいて、受光素子
からの撮像信号に基づいて受光素子の空隙位置に対応す
る画素データを補間する信号処理を施すとともに、補間
された画素データを含む画素データから輝度データおよ
び色データを生成する際に、記憶手段手段からの出力に
基づいて受光素子の存在する位置における輝度データを
作成する第1の輝度演算手段と、この第1の輝度演算手
段からの水平および/または垂直方向に位置する輝度デ
ータに基づいて受光素子の空領域を仮想受光素子とした
際にこの仮想受光素子における輝度データを作成する第
2の輝度演算手段と、この第2の輝度演算手段で作成さ
れた輝度データと受光素子から得られたRGB の各色デー
タを用いて各色における画面全体のプレーンデータを作
成するプレーン演算手段とを含むことが有利である。こ
れにより、ユーザの要求が画質優先の場合に対応するこ
とができる。A second signal processing means for interpolating pixel data corresponding to a gap position of the light receiving element based on an imaging signal from the light receiving element in sampling the signal from the light receiving element in the second mode; And generating luminance data at a position where a light receiving element is present based on an output from the storage means when generating luminance data and color data from pixel data including the interpolated pixel data. Calculating brightness data in the virtual light receiving element when an empty region of the light receiving element is used as a virtual light receiving element based on the calculating means and the brightness data located in the horizontal and / or vertical direction from the first brightness calculating means; Second luminance calculating means, and each color using the luminance data created by the second luminance calculating means and each color data of RGB obtained from the light receiving element. And plane calculation means for generating plane data of the entire screen. Accordingly, it is possible to cope with a case where the user's request gives priority to image quality.
【0013】固体撮像装置は、上述した構成に加えて、
さらに、光学系に入射光の光路を複数に分ける分光手段
と、この分光手段からの分光をそれぞれ色分解して受光
する複数の撮像手段とを含み、撮像手段に対応して色分
解手段を単独の色毎の色フィルタあるいは複数の色を組
合せた色フィルタにして用い、空間的に重ね合わせた色
パターンがG 正方格子状に配され、色G を挟んで対角位
置に同色R,またはB がが配される完全市松パターンにさ
れることが好ましい。これにより、多板の色フィルタで
構成しても画像データの高速読出し優先と画質優先とに
それぞれ対応させることができる。[0013] In addition to the above-described configuration, the solid-state imaging device includes:
Further, the optical system includes a spectral unit that divides the optical path of the incident light into a plurality of light paths, and a plurality of image capturing units that color-separate and receive the spectral light from the spectral unit, respectively. Are used as a color filter for each color or a color filter combining a plurality of colors, and a spatially superimposed color pattern is arranged in a G square grid, and the same color R or B is positioned diagonally across the color G. Are preferably arranged in a complete checkered pattern. Thus, even when the image data is constituted by a multi-plate color filter, it is possible to correspond to the high-speed reading priority of image data and the image quality priority.
【0014】また、固体撮像装置は、上述した構成に加
えて、さらに、光学系と2次元配列された受光素子との
間に挿入される色フィルタ手段を切り換える色フィルタ
切換手段と、受光素子が形成する撮像面に平行な2次元
平面内で前記受光素子の2次元配列された受光部を移動
させる移動手段と、この移動手段により受光部を複数回
にわたって移動させながら、この移動の都度、撮影した
画像を面順次に記録する記録手段とを含み、移動の都
度、撮影した画像が一つ前に撮影した画像に対して幾何
学的な撮像面形状の中心を行方向および列方向に半ピッ
チずつずらした関係が得られ、かつ空間的に重ね合わせ
た色パターンがG 正方格子状に配され、色G を挟んで対
角位置に同色R,またはB が配される完全市松パターンに
されることが好ましい。これにより、面順次方式の撮像
においても画像データの高速読出し優先と画質優先とに
それぞれ対応させることができる。Further, in addition to the above-described configuration, the solid-state imaging device further includes a color filter switching means for switching a color filter means inserted between the optical system and the two-dimensionally arranged light receiving elements; Moving means for moving the light-receiving elements of the light-receiving elements arranged two-dimensionally in a two-dimensional plane parallel to the imaging surface to be formed; Recording means for recording the captured image in a frame-sequential manner, and each time the image is moved, the center of the geometric imaging surface shape is shifted by half pitch in the row direction and the column direction with respect to the image captured immediately before. A color pattern that is shifted each time and is spatially superimposed is arranged in a G square grid pattern, and the same color R or B is arranged diagonally across the color G to form a complete checkered pattern Preferably This makes it possible to cope with the high-speed reading priority of image data and the priority of image quality, respectively, even in the imaging of the frame sequential method.
【0015】本発明の固体撮像装置は、色分解手段に対
応して配設されている、撮像手段の受光素子で受光し、
得られた撮像出力をディジタル変換手段でディジタル信
号のデータに変換し、記憶手段に画像データを記憶す
る。この後、記憶手段には、画像選択手段により読み出
す画像の選択が行われる。記憶手段は、選択した信号を
信号処理手段に出力する。信号処理手段では、画像の解
像度または画像の読出し速度の設定のうち、優先するモ
ードに応じた信号処理が制御手段により行われることに
より、ユーザがより優先する方の要求に応じた信号処理
を施して出力させて、速度優先ではグループ化した画像
データ数の低下を抑えることができる。The solid-state imaging device according to the present invention receives light by a light-receiving element of the imaging means provided corresponding to the color separation means,
The obtained imaging output is converted into digital signal data by digital conversion means, and the image data is stored in the storage means. Thereafter, an image to be read is selected in the storage unit by the image selection unit. The storage unit outputs the selected signal to the signal processing unit. In the signal processing means, of the setting of the image resolution or the image reading speed, the signal processing according to the priority mode is performed by the control means, so that the user performs the signal processing according to the request of the user who has higher priority. In the case of speed priority, a decrease in the number of grouped image data can be suppressed.
【0016】また、本発明は、被写界からの入射光を集
光させ、この入射光を三原色RGB に色分解する色フィル
タを介し、さらに、この入射光を光電変換する、用意し
た複数の受光素子のそれぞれが、隣接する互いの受光素
子に対して、各受光素子の幾何学的な形状の中心が互い
に行方向および/または列方向にこの受光素子のピッチ
の半分に相当する距離だけずれて配された、受光素子に
よって得られた信号電荷に基づいて前記被写界の画像デ
ータを生成する画像データ生成方法において、撮像した
画像に対して設定する複数のモードのうち、最終的な画
像の解像度または画像の読出し速度を考慮して一のモー
ドを設定するモード設定工程と、色フィルタが一方の色
G を正方格子状に配され、この色フィルタの色G を挟ん
で対角位置に同色R,またはB が配される完全市松パター
ンにより色分解され、前記受光素子で得られた信号電荷
をレベル電圧で表される信号に変換して読み出す撮像工
程と、この撮像工程により得られた出力をディジタル信
号のデータに変換するディジタル変換工程と、このディ
ジタル変換工程で得られたデータを複数の画像分、記憶
させる画像記憶工程と、この画像記憶工程で記憶されて
いる撮像した画像を選択する画像選択工程と、この画像
選択工程で選択した画像に、設定したモードに応じた信
号処理を施して画像データを生成する信号処理工程とを
含むことを特徴とする。Further, the present invention provides a plurality of prepared light sources for condensing incident light from an object scene, passing through a color filter for separating the incident light into three primary colors RGB, and further performing photoelectric conversion of the incident light. Each of the light receiving elements is shifted relative to the adjacent light receiving elements by a distance corresponding to a half of the pitch of the light receiving elements in the row direction and / or the column direction with respect to each other. The image data generating method for generating the image data of the object scene based on the signal charges obtained by the light receiving elements arranged in the image data generating method includes: A mode setting step of setting one mode in consideration of the resolution of the image or the reading speed of the image;
G are arranged in a square lattice, and the same color R or B is arranged diagonally across the color G of this color filter. An imaging step of converting and reading out to a signal represented by a voltage, a digital conversion step of converting an output obtained by the imaging step into digital signal data, and a process of converting the data obtained in the digital conversion step into a plurality of image data. An image storing step of storing, an image selecting step of selecting a captured image stored in the image storing step, and performing an image processing by performing signal processing according to a set mode on the image selected in the image selecting step. And a signal processing step of generating data.
【0017】ここで、モード設定工程は、撮像した画像
を瞬間的に表示する第1のモードと、この第1のモード
に比して記憶手段からの出力を解像度の高い表示あるい
は画像を記録する記録媒体への記録のいずれかに用いる
第2のモードの設定を行うことが好ましい。これによ
り、複数の要求を満たすことはできないが、優先する要
求をそれぞれ的確に満足させる処理を施すことができる
ようになる。Here, in the mode setting step, a first mode in which a captured image is instantaneously displayed and an output from the storage means having a higher resolution than the first mode are recorded or an image is recorded. It is preferable to set the second mode used for any of recording on a recording medium. As a result, although it is not possible to satisfy a plurality of requests, it is possible to perform a process for accurately satisfying each of the prioritized requests.
【0018】信号処理工程は、第1のモードと第2のモ
ードとに対応して画像記憶工程で記憶したデータの読出
し先を切り換える出力先切り換え工程と、第1のモード
において前記画像記憶工程で撮像した画像を読み出す際
にサンプリングを行う第1の信号処理工程と、第2のモ
ードにおいてディジタル変換工程により得られた出力を
用いて周波数的に高い輝度信号を生成するとともに、こ
の輝度信号と画像記憶工程から供給されたデータとを用
いて受光素子間のデータも補間した信号処理を施す第2
の信号処理工程と、第1の信号処理工程または第2の信
号処理工程により得られた出力を用いて輝度データ、色
差データを生成するマトリクス工程と、このマトリクス
手段からの出力のうちで、輝度データに対して輪郭強調
処理を施すアパーチャ調整工程と、このアパーチャ調整
工程からの出力およびマトリクス手段からの色差データ
にそれぞれ帯域制限を施すフィルタ処理工程とを含むこ
とが好ましい。これにより、設定したモードに応じて読
出し優先と画質優先の信号処理がそれぞれ行われる。The signal processing step includes an output destination switching step of switching a reading destination of data stored in the image storage step corresponding to the first mode and the second mode, and an output destination switching step in the first mode. A first signal processing step of performing sampling when reading a captured image, and a high-frequency luminance signal using the output obtained by the digital conversion step in the second mode. A second signal processing for interpolating the data between the light receiving elements using the data supplied from the storage step;
A signal processing step, a matrix step of generating luminance data and chrominance data using the output obtained in the first signal processing step or the second signal processing step, It is preferable to include an aperture adjustment step of performing contour enhancement processing on the data, and a filter processing step of performing band limitation on the output from the aperture adjustment step and the color difference data from the matrix unit. As a result, signal processing of read priority and image quality priority is performed according to the set mode.
【0019】第1の信号処理工程は、画像記憶工程にお
いて記憶されている色G に対して斜め方向に配されると
ともに、同一の行方向に配される色R, Gを該色G の位置
における三原色の組合せデータとしてサンプリングを行
う第1抽出工程を含み、第1の抽出工程は、組合せデー
タの色R, Gの少なくとも一つが隣接する組合せデータを
重複してサンプリングを行うことが望ましい。これによ
り、単に三原色RGB に対応する受光素子(画素)のデー
タを3つずつまとめて1つのデータとする場合とほぼ同
様の信号処理でありながら、出力される画素数を従来の
サンプリングに比べて1.5 倍に増やすことができる。た
とえば、まとめて2つのデータを作成する受光素子から
3つのデータを作成する。したがって、第1の信号処理
手段は、速度の要求を満たしながら、総画素数の半分の
データを出力する。In the first signal processing step, the colors R and G arranged in the same row direction are arranged obliquely with respect to the color G stored in the image storing step, and the positions of the colors G are determined. It is preferable that the first extraction step includes sampling the combination data in which at least one of the colors R and G of the combination data is adjacent to the combination data. Thus, although the signal processing is almost the same as the case where the data of the light receiving elements (pixels) corresponding to the three primary colors RGB are simply combined into one data, the number of output pixels is smaller than that of the conventional sampling. Can be increased 1.5 times. For example, three data are created from light receiving elements that create two data at a time. Therefore, the first signal processing means outputs data of half the total number of pixels while satisfying the speed requirement.
【0020】また、第1の信号処理工程は、画像記憶工
程において記憶されている色G に対して斜めに配される
同一色R または Bのデータをこの色G の位置におけるデ
ータとしてサンプリングを行う第2抽出工程と、この第
2抽出工程により抽出されたデータを用いて、このデー
タの加算平均で色R, Bをそれぞれ算出するRB演算工程と
を含み、RB演算工程での算出値をこの色G の位置におけ
る三原色を表す組合せデータとすることが好ましい。こ
れにより、上述した第1の信号処理工程の場合より多少
処理時間を要するが、画質、特に偽色の抑制された画像
データを作成し、出力することができる。In the first signal processing step, data of the same color R or B, which is obliquely arranged with respect to the color G stored in the image storing step, is sampled as data at the position of the color G. A second extraction step, and an RB operation step of calculating the colors R and B by averaging the data using the data extracted in the second extraction step, and calculating the calculated value in the RB operation step. It is preferable to use combination data representing the three primary colors at the position of the color G. As a result, although a little longer processing time is required than in the case of the above-described first signal processing step, it is possible to create and output image data in which image quality, particularly, false color is suppressed.
【0021】第2の信号処理工程は、第2のモードでの
受光素子からの信号のサンプリングにおいて、受光素子
からの撮像信号に基づいて受光素子の空隙位置に対応す
る画素データを補間する信号処理を施すとともに、補間
された画素データを含む画素データから輝度データおよ
び色データを生成する際に、画像記憶工程からの出力に
基づいて受光素子の存在する位置における輝度データを
作成する第1の輝度演算工程と、この第1の輝度演算工
程からの水平および/または垂直方向に位置する輝度デ
ータに基づいて受光素子の空領域を仮想受光素子とした
際にこの仮想受光素子における輝度データを作成する第
2の輝度演算工程と、この第2の輝度演算工程で作成さ
れた輝度データと受光素子から得られたRGB の各色デー
タを用いて各色における画面全体のプレーンデータを作
成するプレーン演算工程とを含むことが有利である。こ
れにより、ユーザの要求が画質優先の場合に対応するこ
とができる。The second signal processing step is a signal processing for interpolating pixel data corresponding to a gap position of the light receiving element based on an image pickup signal from the light receiving element in sampling a signal from the light receiving element in the second mode. And when generating luminance data and color data from pixel data including the interpolated pixel data, generating first luminance data at a position where the light receiving element exists based on an output from the image storage step. When the empty region of the light receiving element is set as a virtual light receiving element based on the calculating step and the luminance data located in the horizontal and / or vertical directions from the first luminance calculating step, the luminance data in the virtual light receiving element is created. A second luminance calculation step, and using the luminance data created in the second luminance calculation step and each of the RGB color data obtained from the light receiving elements, for each color. And a plane operation step of creating plane data of the entire screen. Accordingly, it is possible to cope with a case where the user's request gives priority to image quality.
【0022】画像データ作成方法は、前述した工程に加
えて、被写界からの入射光の光路を複数に分ける分光工
程と、この分光工程の分光により供給される入射光をそ
れぞれ色分解して受光する複数の撮像工程とを含み、撮
像工程で行う色分解処理に対応した単独の色毎の色フィ
ルタあるいは複数の色を組合せた色フィルタを用い、空
間的に重ね合わせた色パターンがG 正方格子状に配さ
れ、色G を挟んで対角位置に同色R,またはB が配される
完全市松パターンになること好ましい。これにより、多
板の色フィルタを介してそれぞれ得られた画像データに
対する、たとえば、高速読出し優先と画質優先とに対応
させることができる。In the image data creating method, in addition to the above-described steps, a spectral step of dividing an optical path of incident light from the object field into a plurality of parts, and an incident light supplied by the spectral separation in the spectral step are color-separated. A plurality of imaging steps for receiving light, and using a color filter for each color or a color filter combining a plurality of colors corresponding to the color separation processing performed in the imaging step, a color pattern superimposed spatially is a square G It is preferable to form a complete checkered pattern in which the same color R or B is arranged diagonally with the color G interposed therebetween in a lattice shape. Thus, for example, high-speed reading priority and image quality priority can be made to correspond to the image data obtained through the multi-plate color filters.
【0023】また、画像データ作成方法も、前述した工
程に加えて、被写界からの入射光を集光させる光学系を
用い、この光学系と2次元配列された受光素子との間に
挿入して色分解する色フィルタを切り換える色フィルタ
切換工程と、受光素子が形成する撮像面に平行な2次元
平面内で受光素子の2次元配列された受光部を移動させ
る移動工程と、この移動工程により受光部を複数回にわ
たって移動させながら、この移動の都度、撮影した画像
を面順次に記録する記録工程とを含み、移動の都度、撮
影した画像が一つ前に撮影した画像に対して幾何学的な
撮像面形状の中心を行方向および列方向に半ピッチずつ
ずらした関係が得られ、かつ空間的に重ね合わせた色パ
ターンがG 正方格子状に配され、色G を挟んで対角位置
に同色R,またはB が配される完全市松パターンとなるこ
とが望ましい。これにより、面順次方式の撮像において
も画像データの高速読出し優先と画質優先とにそれぞれ
対応させることができる。In addition, in addition to the above-described steps, the image data creating method uses an optical system for condensing incident light from the object scene and inserts the optical system between the optical system and the two-dimensionally arranged light receiving elements. A color filter switching step of switching a color filter to be subjected to color separation, a moving step of moving a two-dimensionally arranged light receiving section of the light receiving elements in a two-dimensional plane parallel to an imaging surface formed by the light receiving elements, and a moving step And moving the light-receiving unit a plurality of times, each time the movement is performed, and recording a captured image in a frame-sequential manner. Are obtained by shifting the center of the geometric imaging plane shape by half a pitch in the row direction and the column direction, and the spatially superimposed color patterns are arranged in a G square lattice, and the diagonal across the color G Same color R or B at position It is desirable to be completely checkered pattern. This makes it possible to cope with the high-speed reading priority of image data and the priority of image quality, respectively, even in the imaging of the frame sequential method.
【0024】プレーン演算工程は、ディジタル変換工程
によりG 正方格子とこのG 正方格子に対してピッチの半
分の距離だけずらしたRB完全市松パターンにおける実在
の受光素子に対応して得られた各色の画素データと、第
2の工程により作成された輝度データを用い、画素デー
タのG のプレーン補間には、補間対象画素に対して水平
方向および/または垂直方向に隣接して存在する実際に
得られた画素データGの平均と補間対象画素に対して水
平方向および/または垂直方向に隣接している輝度デー
タの加算平均との差に補間対象画素の位置に対応する輝
度データを加算して得られる工程と、画素データのR の
プレーン補間には、補間対象画素に対して斜め方向に隣
接して存在する実際に得られた画素データR の平均と補
間対象画素に対して斜め方向と同方向に隣接している輝
度データの加算平均との差に補間対象画素の位置に対応
する輝度データを加算して得られる第1のR 工程と、補
間対象画素の残る色R に対する画素データR をこの第1
のR 工程により得られた、等距離に位置する画素データ
の加算平均とこの等距離に位置する輝度データの加算平
均との差に補間対象画素の残る色R に対する輝度データ
を加算して得られる第2のR 工程と、さらに補間対象画
素の残る色R に対する画素データR を最近傍に位置する
第1、前記第2のR 工程および実際に得られた画素デー
タR の加算平均とこの加算平均に用いた画素に対応する
輝度データの加算平均との差に補間対象画素の位置に対
応する輝度データを加算して得られる第3のR 工程とを
含み、さらに、画素データのB のプレーン補間には、補
間対象画素に対して斜め方向に隣接して存在する実際に
得られた画素データB の加算平均と補間対象画素に対し
て斜め方向と同方向に隣接している輝度データの加算平
均との差に補間対象画素の位置に対応する輝度データを
加算して得られる第1のB 工程と、補間対象画素の残る
色B に対する画素データB をこの第1のB 工程により得
られた、等距離に位置する画素データの加算平均とこの
等距離に位置する輝度データの加算平均との差に補間対
象画素の残る色B に対する輝度データを加算して得られ
る第2のB工程と、さらに補間対象画素の残る色B に対
する画素データB を最近傍に位置する第1、第2のB 工
程および実際に得られた画素データB の加算平均とこの
加算平均に用いた画素に対応する輝度データの加算平均
との差に補間対象画素の位置に対応する輝度データを加
算して得られる第3のB 工程とを含むことが好ましい。The plane calculation step includes, in the digital conversion step, a pixel of each color obtained corresponding to an actual light receiving element in an RB complete checkerboard pattern shifted by a distance of half a pitch with respect to the G square lattice. Using the data and the luminance data created in the second step, the G plane interpolation of the pixel data is performed in the horizontal and / or vertical directions adjacent to the pixel to be interpolated. A step obtained by adding the luminance data corresponding to the position of the interpolation target pixel to the difference between the average of the pixel data G and the average of the luminance data adjacent to the interpolation target pixel in the horizontal direction and / or the vertical direction. In the plane interpolation of pixel data R, the average of the actually obtained pixel data R adjacent to the pixel to be interpolated in the oblique direction and the A first R step obtained by adding the luminance data corresponding to the position of the pixel to be interpolated to the difference between the average of the luminance data adjacent in the same direction as the direction and the pixel for the remaining color R of the pixel to be interpolated Data R
Is obtained by adding the luminance data for the remaining color R of the pixel to be interpolated to the difference between the averaging of the pixel data located at the same distance and the averaging of the luminance data located at the same distance obtained in the R step. A second R step, an average of the first and second R steps that locate the pixel data R with respect to the remaining color R of the pixel to be interpolated, and the average of the actually obtained pixel data R 2 A third R step obtained by adding the luminance data corresponding to the position of the pixel to be interpolated to the difference between the average of the luminance data corresponding to the pixels used for the pixel data and the pixel data. Is the average of the pixel data B actually obtained adjacent to the interpolation target pixel in the oblique direction and the average of the luminance data adjacent to the interpolation target pixel in the same direction as the oblique direction. Pixel to be interpolated to the difference from The first B step obtained by adding the luminance data corresponding to the position and the pixel data B for the remaining color B of the pixel to be interpolated are obtained by dividing the pixel data of the equidistant pixel data obtained in the first B step. A second B step obtained by adding the luminance data for the remaining color B of the pixel to be interpolated to the difference between the averaging and the averaging of the luminance data located at the same distance; The pixel data B is interpolated by the difference between the first and second B steps located closest to each other and the average of the actually obtained pixel data B and the luminance data corresponding to the pixels used for the average. It is preferable to include a third B step obtained by adding luminance data corresponding to the position of the target pixel.
【0025】本発明の画像データ作成方法は、最終的な
画像の解像度または画像の読出し速度を考慮してモード
を設定し、色分解され、得られた撮像信号をディジタル
のデータに変換した後、撮像した複数の画像を記憶し、
画像データの読出しに際しては記憶されている撮像した
画像を選択する。選択した画像には、設定したモードに
応じた信号処理が施されるので、ユーザの優先要求に応
じた信号処理を画像データに施し、特に、速度優先では
グループ化した画像データ数の低下を抑えることができ
る。According to the image data generating method of the present invention, a mode is set in consideration of the resolution of the final image or the reading speed of the image, color separation is performed, and the obtained image pickup signal is converted into digital data. Storing a plurality of captured images,
When reading out image data, a stored captured image is selected. Since the selected image is subjected to signal processing according to the set mode, the image data is subjected to signal processing according to the user's priority request, and in particular, speed reduction suppresses a decrease in the number of grouped image data. be able to.
【0026】[0026]
【発明の実施の形態】次に添付図面を参照して本発明に
よる固体撮像装置および画像データ作成方法の一実施例
を詳細に説明する。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing an embodiment of a solid-state imaging device and a method for creating image data according to the present invention;
【0027】本発明の固体撮像装置は、ユーザが優先す
る項目に対応するモードを設け、その中から一つモード
を設定し、ハニカム型の受光素子が2次元に配された、
撮像手段から得られる撮像信号を設定したモードに応じ
た信号処理を信号処理手段で行うことにより、従来の高
速表示と同程度の所要時間でありながら、解像度の低下
を抑制することに特徴がある。そして、画質を重視する
場合には、たとえば、ユーザが選択した画像だけを記録
させることもできる。The solid-state imaging device according to the present invention is provided with a mode corresponding to an item which the user gives priority to, one of the modes is set, and a honeycomb type light receiving element is two-dimensionally arranged.
The signal processing unit performs signal processing in accordance with a mode in which an imaging signal obtained from the imaging unit is set, so that a reduction in resolution is suppressed while the required time is approximately the same as that of a conventional high-speed display. . When importance is placed on the image quality, for example, only the image selected by the user can be recorded.
【0028】本実施例は、本発明の固体撮像装置を、た
とえば、ディジタルスチルカメラ10に適用した場合につ
いて図1〜図27を参照しながら説明する。ディジタルス
チルカメラ10には、光学系12、レリーズシャッタ14、シ
ステム制御部16、色分解フィルタCFを含めた撮像部18、
A/D 変換部20、バッファメモリ22、信号処理部24、モー
ド設定部26および画像選択部28が備えられている。In this embodiment, a case where the solid-state imaging device of the present invention is applied to, for example, a digital still camera 10 will be described with reference to FIGS. The digital still camera 10 includes an optical system 12, a release shutter 14, a system control unit 16, an imaging unit 18 including a color separation filter CF,
An A / D conversion unit 20, a buffer memory 22, a signal processing unit 24, a mode setting unit 26, and an image selection unit 28 are provided.
【0029】光学系12は、複数の光学レンズを有してい
る。光学系12は、たとえば、レリーズシャッタ14の第1
段の押圧操作によりこれらの光学レンズの透過光を基に
被写体との焦点距離や入射光量を測光が行われる。この
測光値に基づいてシステム制御部16により図示しないが
自動的に焦点距離を合わせたり露光制御が行われる。The optical system 12 has a plurality of optical lenses. The optical system 12 is, for example, a first shutter of the release shutter 14.
The focal length of the subject and the amount of incident light are measured based on the transmitted light of these optical lenses by the pressing operation of the step. Although not shown, the system controller 16 automatically adjusts the focal length and performs exposure control based on the photometric value.
【0030】レリーズシャッタ14は、上述したように撮
像をする上に必要な情報を取り込む選択キーであり、第
1段の押圧操作により深い押圧操作を行うとユーザが所
望する撮像タイミングをシステム制御部16に供給するタ
イミングスイッチの役割を有している。The release shutter 14 is a selection key for taking in information necessary for taking an image as described above. When a deep pressing operation is performed by the first-stage pressing operation, the system control unit controls the imaging timing desired by the user. It has the role of a timing switch to supply to 16.
【0031】システム制御部16は、光学系12(測距・露
出制御を含む)、撮像部18、A/D 変変換部20、バッファ
メモリ22および信号処理部24を制御するように中央演算
処理装置が含まれている。また、システム制御部16に
は、レリーズシャッタ14、モード設定部26、画像選択部
28からタイミング、設定・選択結果が動作制御を行う上
で必要な情報として供給されている。The system control unit 16 is a central processing unit that controls the optical system 12 (including distance measurement and exposure control), the imaging unit 18, the A / D conversion unit 20, the buffer memory 22, and the signal processing unit 24. Equipment included. The system control unit 16 includes a release shutter 14, a mode setting unit 26, and an image selection unit.
From 28, the timing and the setting / selection result are supplied as information necessary for performing operation control.
【0032】撮像部18には、色分解フィルタCFが入射光
の側に配され、色分解フィルタCFを透過した光を光電変
換する受光素子が2次元に配されている。色分解フィル
タCFは、単板である。したがって、色分解フィルタCFの
色フィルタと受光素子とは、一対一の対応関係にある。
色分解フィルタCFは、たとえば、図2に示すような三原
色RGB の色フィルタが配置されている。この色パターン
は、色G が正方格子状に配され、さらに色G を挟んで対
角位置に同色R,または Bが配される完全市松に配するパ
ターンである。上述した色G の正方格子状とは、画素の
形状を示すものでなく、画素の配置形状を示している。
しかも、色フィルタ(および受光素子)は、隣接する互
いの配置位置に対して、各色フィルタ(および受光素
子)の幾何学的な形状の中心が互いに行方向および列方
向にこの色フィルタ(および受光素子)のピッチの半分
に相当する距離だけずれて配されている。この色パター
ンは、以後、ハニカム型G 正方格子RB完全市松パターン
という。図2に示した画素数は、14個のうち、本来の色
G が6個、色R, Bがそれぞれ4個ずつである。後段の信
号処理によりまとめて作られる画素は、この場合、色G
の個数に相当する数(6個)になる。In the imaging section 18, a color separation filter CF is arranged on the side of the incident light, and a light receiving element for photoelectrically converting the light transmitted through the color separation filter CF is two-dimensionally arranged. The color separation filter CF is a single plate. Therefore, there is a one-to-one correspondence between the color filters of the color separation filter CF and the light receiving elements.
As the color separation filter CF, for example, a color filter of three primary colors RGB as shown in FIG. 2 is arranged. This color pattern is a pattern in which the colors G are arranged in a square lattice, and the same color R or B is arranged diagonally across the color G 1 on a complete checkered pattern. The square lattice shape of the color G described above does not indicate the shape of the pixel but indicates the arrangement shape of the pixel.
In addition, the color filters (and light receiving elements) are arranged such that the centers of the geometrical shapes of the color filters (and light receiving elements) are aligned with each other in the row direction and the column direction with respect to each other. Are shifted by a distance corresponding to half the pitch of the elements. This color pattern is hereinafter referred to as a honeycomb type G square lattice RB perfect checkered pattern. The number of pixels shown in FIG.
G is six, and colors R and B are four each. In this case, the pixels formed collectively by the subsequent signal processing are the color G
(6) corresponding to the number of.
【0033】受光素子は、たとえば、電荷結合素子(CC
D )や金属酸化膜型半導体(MOS )等のいずれでもよ
い。撮像部18は、この受光素子を2次元に上述した間隔
(ピッチ)での配置となるように形成してイメージセン
サを構成する。撮像部18は、受光素子により得られた信
号電荷をI/V 変換することにより、電圧レベルのアナロ
グ信号にしてA/D 変換部20に出力する。この撮像部18と
A/D 変換部20との間に相関二重サンプリング部を設けて
ノイズ除去を行ってもよい。また、ここで、ガンマ変換
を行ってもよい。The light receiving element is, for example, a charge-coupled device (CC
D) or a metal oxide film type semiconductor (MOS). The imaging unit 18 forms the light receiving elements two-dimensionally so as to be arranged at the above-mentioned interval (pitch) to constitute an image sensor. The imaging unit 18 converts the signal charge obtained by the light receiving element into an analog signal of a voltage level by I / V conversion and outputs the analog signal to the A / D conversion unit 20. This imaging unit 18
A noise removal may be performed by providing a correlated double sampling unit between the A / D conversion unit 20 and the A / D conversion unit 20. Here, gamma conversion may be performed.
【0034】A/D 変換部20は、撮像部18で得られた撮像
信号(アナログ信号)をディジタル信号に変換する。A/
D 変換部20は、撮像信号の信号レベルを情報の単位であ
るビットで表すため、たとえば、量子化レベルでスライ
スして得られるビット数に変換する。これにより、撮像
信号がビットで表されるディジタル信号に変換される。The A / D conversion section 20 converts the image signal (analog signal) obtained by the image section 18 into a digital signal. A /
The D conversion unit 20 converts the signal level of the image pickup signal into the number of bits obtained by slicing at the quantization level, for example, in order to represent the signal level of the image signal by bits, which are information units. Thereby, the imaging signal is converted into a digital signal represented by bits.
【0035】バッファメモリ22は、ディジタルデータを
一時的に記憶する機能を有するメモリである。バッファ
メモリ22は、複数枚の画像を記憶する容量を有してい
る。A/D 変換部20によりディジタル信号に変換された画
像データがバッファメモリ22にシステム制御部16の制御
により各画像毎に格納される。このように画像データを
格納しているので、バッファメモリ22は、画像データ単
位に画像データを読み出させることもできる。このバッ
ファメモリ22からの画像データ読出しもシステム制御部
24により制御される。バッファメモリ22は、このように
システム制御部22により、後述するアドレス制御部2420
を制御してメモリの書込み/読出し位置が制御されてい
る。特に、撮像した画像を読み出す場合、システム制御
部22は、画像選択部28の指定に応じて制御を行ってい
る。The buffer memory 22 has a function of temporarily storing digital data. The buffer memory 22 has a capacity to store a plurality of images. The image data converted into a digital signal by the A / D converter 20 is stored in the buffer memory 22 for each image under the control of the system controller 16. Since the image data is stored in this manner, the buffer memory 22 can also read out the image data in image data units. Reading of image data from the buffer memory 22 is also performed by the system control unit.
Controlled by 24. The buffer memory 22 is stored in the address control unit 2420 described later by the system control unit 22.
To control the write / read position of the memory. In particular, when reading a captured image, the system control unit 22 performs control according to the designation of the image selection unit 28.
【0036】信号処理部24には、モード対応処理部24a
、マトリクス部24b 、アパーチャ調整部24c およびフ
ィルタ部24d が備えられている。モード対応処理部24a
は、バッファメモリ22から供給される画像データを指定
されたモードの処理を行う。この処理を行う上でモード
対応処理部24a には、出力先切換部240a、表示信号処理
部242aおよび記録信号処理部244aが備えられている。The signal processing unit 24 includes a mode corresponding processing unit 24a
, A matrix unit 24b, an aperture adjusting unit 24c, and a filter unit 24d. Mode support processing unit 24a
Performs the processing of the image data supplied from the buffer memory 22 in the designated mode. In performing this processing, the mode corresponding processing unit 24a includes an output destination switching unit 240a, a display signal processing unit 242a, and a recording signal processing unit 244a.
【0037】出力先切換部240aは、システム制御部16が
受けた設定モードに対応した制御信号PC1 が供給されて
いる。この制御信号PC1 により出力先切換部240aは、バ
ッファメモリ22からの出力をマトリクス部24b または記
録信号処理部244aに供給する。The output destination switching section 240a is supplied with a control signal PC1 corresponding to the setting mode received by the system control section 16. In response to the control signal PC1, the output destination switching unit 240a supplies the output from the buffer memory 22 to the matrix unit 24b or the recording signal processing unit 244a.
【0038】表示信号処理部242aには、アドレス制御部
2420が備えられている。アドレス制御部2420は、システ
ム制御部16からの制御信号PC2 により高速表示処理を行
う。アドレス制御部2420が、この高速表示処理を行うこ
とを強調するため、図1のようなブロック図で表してい
る。なぜなら、アドレス制御部2420は、バッファメモリ
22に対する画像データの読出しを表示信号処理部242aだ
けに限定して動作するものでなく、制御信号PC2 により
記録信号処理部244aに対する画像データの読出しも制御
しているからである。表示信号処理については後段で詳
述する。The display signal processing unit 242a includes an address control unit.
2420 is provided. The address control unit 2420 performs high-speed display processing based on a control signal PC2 from the system control unit 16. In order to emphasize that the address control unit 2420 performs the high-speed display processing, the address control unit 2420 is shown in a block diagram as in FIG. Because the address control unit 2420
This is because the operation of reading the image data from the storage 22 is not limited to the display signal processing unit 242a, and the operation of reading the image data from the recording signal processing unit 244a is also controlled by the control signal PC2. The display signal processing will be described later in detail.
【0039】記録信号処理部244aには、図3に示すよう
に、輝度データ作成部2440、高域輝度データ作成部2442
およびプレーン補間展開部2444が備えられている。バッ
ファメモリ22からの画像データ(RGB )が出力先選択部
240aを介してそれぞれ輝度データ作成部320bおよびプレ
ーン補間展開部320dに供給されている。輝度データ作成
部220bは、色R, Bが市松状に配されていることから、こ
の市松パターンの各対象位置での輝度データY を演算処
理によって作成する。輝度データ作成部220bでは、実際
に受光素子の存在する位置に対応して輝度データY が作
成されることになる。As shown in FIG. 3, the recording signal processor 244a includes a luminance data generator 2440 and a high-frequency luminance data generator 2442.
And a plane interpolation developing unit 2444. The image data (RGB) from the buffer memory 22 is output destination selection unit
The luminance data is supplied to a luminance data creation section 320b and a plane interpolation development section 320d via a 240a. Since the colors R and B are arranged in a checkered pattern, the brightness data creation unit 220b creates the brightness data Y at each target position of the checkered pattern by arithmetic processing. In the luminance data creation section 220b, the luminance data Y is created corresponding to the position where the light receiving element actually exists.
【0040】高域輝度データ作成部2442は、輝度データ
作成部2440で作成された輝度データY を用いてフィルタ
処理を行うディジタルフィルタである。このディジタル
フィルタはローパスフィルタで、実際に受光素子が対応
しない位置、すなわち仮想画素に対して補間を行うとと
もに、得られる輝度データの周波数帯域を高域にする。
この結果、高域輝度データ作成部2442は、高域輝度デー
タYhをプレーン補間展開部2444に出力する。The high-frequency luminance data generator 2442 is a digital filter that performs a filtering process using the luminance data Y generated by the luminance data generator 2440. This digital filter is a low-pass filter that performs interpolation on a position to which the light-receiving element does not actually correspond, that is, on a virtual pixel, and makes the frequency band of the obtained luminance data high.
As a result, high-frequency luminance data generating unit 2442 outputs the high-frequency luminance data Y h the plane interpolation expansion unit 2444.
【0041】プレーン補間展開部2444には、図4に示す
ようにR 補間展開部44a 、G 補間展開部44b およびB 補
間展開部44c が備えられている。これら各部は、演算部
である。R 補間展開部44a 、G 補間展開部44b およびB
補間展開部44c には、それぞれ一端側に高域輝度データ
Yhが供給され、もう一つの端子側から補間する色に対応
する画素データ、すなわちR データ、G データ、B デー
タが供給されている。このプレーン補間展開を行う際
に、演算処理により得られた画素データを用いてさらに
周辺に位置する対象の色に対する仮想画素を求めてい
る。この算出の手順は、後段で詳述する。The plane interpolation section 2444 includes an R interpolation section 44a, a G interpolation section 44b, and a B interpolation section 44c as shown in FIG. These units are operation units. R interpolation expansion section 44a, G interpolation expansion section 44b and B
The interpolation developing unit 44c has high-frequency luminance data at one end.
Y h are supplied, the pixel data corresponding to a color to be interpolated from another terminal side, i.e. R data, G data and B data are supplied. When performing this plane interpolation development, a virtual pixel for a target color located further around is obtained using pixel data obtained by the arithmetic processing. The procedure of this calculation will be described in detail later.
【0042】なお、記録信号処理部244aは、高解像度の
画像データを記録することを主に検討してこのような構
成にしているが、高解像度の画像データを高解像度のモ
ニタ等に表示させる場合もこの信号処理を用いる。この
ため、図1の記録信号処理部244aには、このような場合
を想定して(表示)と描いている。The recording signal processing section 244a has such a configuration mainly considering recording of high-resolution image data, but displays the high-resolution image data on a high-resolution monitor or the like. In this case, this signal processing is used. Therefore, in the recording signal processing unit 244a of FIG. 1, such a case is assumed (display).
【0043】マトリクス部24b は、供給される画像デー
タに基づいて輝度データY と色差データCr, Cbを生成す
る。マトリクス部24b には、図1に示すように出力先切
換部240aからの画像データと記録信号処理部244aで各RG
B の補間展開された画像データとのいずれか一方がモー
ドに対応して供給されている。からマトリクス部322に
は、これらのデータを生成するように演算部(図示せ
ず)が含まれている。マトリクス部24b は、演算処理に
より輝度データY と色差データCr=R-Yh, Cb=B-Yhを生成
する。The matrix portion 24b are luminance data Y and color difference data C r on the basis of the image data supplied, and generates a C b. As shown in FIG. 1, the matrix unit 24b stores the image data from the output destination switching unit 240a and the RG signals by the recording signal processing unit 244a.
Either one of the B and the interpolated image data is supplied according to the mode. The matrix unit 322 includes an arithmetic unit (not shown) so as to generate these data. Matrix unit 24b, the luminance data Y and color difference data C r = RY h by the arithmetic processor, to generate a C b = BY h.
【0044】アパーチャ調整部24c には、輝度データY
に対してアパーチャ効果、たとえば輪郭強調等を従来の
構成を用いる。すなわち、アパーチャ調整部24c は、周
波数的に帯域制限周波数の近傍での信号レベルの低下を
抑制するようにこの高周波領域の信号レベルをアップさ
せるように調整する。The aperture adjustment unit 24c has the luminance data Y
A conventional configuration is used for an aperture effect, for example, contour enhancement. That is, the aperture adjuster 24c adjusts the signal level in the high frequency region so as to increase the signal level in the vicinity of the band-limited frequency in terms of frequency.
【0045】また、フィルタ部24d は、輝度データY の
高域成分を含むように調整されたアンチエリアシング用
のローパスフィルタ240d, 242d, 244dである。これらロ
ーパスフィルタ240d, 242d, 244dは、すべてディジタル
フィルタで構成されている。モード設定部26は、複数の
モードの中から一つのモードを選択する選択スイッチで
ある。図示しないがディジタルスチルカメラ10には、表
示部が設けられている。この表示部にモード選択の項目
を表示させ、この項目の表示領域をクリックして選択す
るようにしてもよい。この場合、表示部の画面は選択キ
ーとしてのセンサ機能も持たせる。The filter section 24d is a low-pass filter 240d, 242d, 244d for anti-aliasing adjusted to include the high frequency component of the luminance data Y. These low-pass filters 240d, 242d, 244d are all constituted by digital filters. The mode setting unit 26 is a selection switch for selecting one mode from a plurality of modes. Although not shown, the digital still camera 10 is provided with a display unit. A mode selection item may be displayed on this display unit, and the display area of this item may be clicked and selected. In this case, the screen of the display unit also has a sensor function as a selection key.
【0046】画像選択部28は、表示部に、たとえば、サ
ムネイル表示した画像を見て記録、表示、さらには印刷
する画像の選択を行う選択キーである。画像選択部28は
4方向にカーソルを移動させ、かつ選択可能なように構
成されている。The image selection section 28 is a selection key for selecting, for example, an image to be recorded, displayed, and further printed on the display section while viewing the thumbnail-displayed image. The image selection unit 28 is configured to move the cursor in four directions and to allow selection.
【0047】なお、ディジタルスチルカメラ10は、図1
に図示していない圧縮/伸張処理部で、このようにして
得られた画像データに圧縮処理をシステム制御16の制御
により施す。圧縮された画像データは、システム制御16
の制御を受ける内蔵あるいは一体的に装着された記録再
生装置を介して記録媒体に記録される。逆に、記録媒体
に記録した圧縮された画像データを再生するとき、記録
時と同様に制御を受けて記録再生装置から画像データを
再生する。再生した画像データには、圧縮処理が施され
ているので、圧縮/伸張処理部で伸張処理を施して表示
部に供給し、表示させる。Note that the digital still camera 10 is the same as that shown in FIG.
A compression / decompression processing unit (not shown) performs compression processing on the image data obtained in this way under the control of the system control 16. The compressed image data is transferred to the system control 16
Is recorded on a recording medium via a built-in or integrally mounted recording / reproducing device under the control of. Conversely, when reproducing the compressed image data recorded on the recording medium, the image data is reproduced from the recording / reproducing apparatus under the same control as during recording. Since the reproduced image data has been subjected to compression processing, it is subjected to expansion processing by a compression / expansion processing unit, supplied to a display unit, and displayed.
【0048】次にディジタルスチルカメラ10の動作につ
いて説明する。必要に応じて前述の構成で用いた図面も
参照する。ディジタルスチルカメラ10は、図5に示す撮
影におけるメインフローチャートに従って動作する。ス
テップS10 では、ディジタルスチルカメラ10での動作を
どのようなモードにするかオペレータであるユーザ自身
が設定する。モードには、複数あり、たとえば、静止画
撮影モード、ムービーモード、インデックス表示モー
ド、高画質表示モード等がある。このいずれかをオペレ
ータは設定して選択した設定モードがモード設定部26か
らシステム制御部16に供給される。システム制御部16
は、この設定モードや他の条件を踏まえて、ディジタル
スチルカメラ10を撮影可能状態にする。この後、ステッ
プS12 に進む。Next, the operation of the digital still camera 10 will be described. Reference is made to the drawings used in the above-described configuration as necessary. The digital still camera 10 operates according to the main flowchart in the photographing shown in FIG. In step S10, the user himself / herself as an operator sets what mode the operation of the digital still camera 10 should be. There are a plurality of modes, for example, a still image shooting mode, a movie mode, an index display mode, a high image quality display mode, and the like. The setting mode selected by the operator and selected is supplied from the mode setting unit 26 to the system control unit 16. System control unit 16
Sets the digital still camera 10 in a photographable state based on the setting mode and other conditions. Thereafter, the process proceeds to step S12.
【0049】ステップS12 では、被写界の撮影を行う。
この段階の直前には、レリーズシャッタ14を半押しして
露光・測距を行って適正な露光およびピント調節が行わ
れている。この後、オペレータは、所望のタイミングで
レリーズシャッタ14を完全に押圧して撮像する。撮像部
18では、光学系12を介して供給される入射光が単板の色
分解フィルタCFにより色分解される。この色分解された
光が撮像部18のハニカム型に2次元配列された受光素子
に供給される。色分解フィルタCFは、図2に示したハニ
カム型G 正方格子RB完全市松パターンである。受光素子
は、それぞれ色分解フィルタCFを透過した光を受光し、
光電変換している。光電変換された信号電荷は、撮像部
18の垂直転送路、水平転送路(ともに図示せず)を介し
て各受光素子で検出した画素データとして出力する。撮
像部18では、電流形態の検出した信号電荷を電圧で表す
ことができるようにI/V 変換が行われ、A/D 変換部20に
出力される。In step S12, the photographing of the scene is performed.
Immediately before this stage, the release shutter 14 is pressed halfway, exposure and distance measurement are performed, and proper exposure and focus adjustment are performed. Thereafter, the operator completely presses the release shutter 14 at a desired timing to take an image. Imaging unit
In 18, the incident light supplied via the optical system 12 is color-separated by a single-plate color separation filter CF. The color-separated light is supplied to the light receiving elements of the imaging unit 18 which are two-dimensionally arranged in a honeycomb shape. The color separation filter CF is the honeycomb type G square lattice RB perfect checkerboard pattern shown in FIG. The light receiving elements respectively receive the light transmitted through the color separation filter CF,
Photoelectric conversion. The photoelectrically converted signal charges are transferred to the imaging unit.
The light is output as pixel data detected by each light receiving element via 18 vertical transfer paths and horizontal transfer paths (both not shown). The imaging unit 18 performs I / V conversion so that the signal charge detected in the current form can be represented by a voltage, and outputs the signal charge to the A / D conversion unit 20.
【0050】次にステップS14 では、撮像部18から供給
された信号レベルを量子化してビット情報として扱える
ディジタル信号、すなわち画像データに変換する。この
変換処理の後、ただちに画像データは、バッファメモリ
22に供給される。Next, in step S14, the signal level supplied from the imaging unit 18 is quantized and converted into a digital signal that can be handled as bit information, that is, image data. Immediately after this conversion process, the image data is stored in the buffer memory.
Supplied to 22.
【0051】ステップS16 では、バッファメモリ22に画
像データを一時記憶させる。この画像データの供給にお
いて、システム制御部16の制御およびアドレス制御部24
20の制御により所定のアドレスに、たとえば、画像単位
で画像データが書き込まれる。アドレス制御部2120は、
システム制御部16により制御されている。バッファメモ
リ22には、複数の撮像された画像データを格納すること
ができる。この撮影の前にすでに撮影された画像が記憶
されていてもよい。In step S16, the image data is temporarily stored in the buffer memory 22. In supplying this image data, the control of the system control unit 16 and the address control unit 24
Under the control of 20, image data is written to a predetermined address, for example, in image units. The address control unit 2120
It is controlled by the system control unit 16. The buffer memory 22 can store a plurality of captured image data. An image that has been shot before this shooting may be stored.
【0052】次にステップS18 に進んで、ステップS18
では、予め設定したモードが画像データの高速表示に対
応するモードかどうかを判定している。高速表示させる
モードが設定されている場合(Yes )、サブルーチンSU
B1に進む。また、高速表示させるモードが設定されてい
ない場合(No)、サブルーチンSUB2に進む。このモード
の設定は、ステップS10 で行ったモードをシステム制御
部16で検出・判定することにとって行われる。バッファ
メモリ16からの画像データの読出しは、このシステム制
御部16の判定結果に応じて読み出される。さらに、読み
出された画像データは出力先選択部240aに供給される。
この際、出力先選択部240aは、システム制御部16の制御
に応じて画像データの供給先が切り換えられる。Next, the process proceeds to step S18, and the process proceeds to step S18.
In, it is determined whether or not the preset mode is a mode corresponding to high-speed display of image data. When the high-speed display mode is set (Yes), the subroutine SU
Proceed to B1. If the high-speed display mode is not set (No), the process proceeds to the subroutine SUB2. The setting of this mode is performed by the system controller 16 detecting and determining the mode performed in step S10. The image data is read from the buffer memory 16 in accordance with the determination result of the system control unit 16. Further, the read image data is supplied to the output destination selection unit 240a.
At this time, the output destination selection unit 240a switches the image data supply destination under the control of the system control unit 16.
【0053】サブルーチンSUB1では、画像データに表示
速度の優先処理が施される。この場合、表示信号処理部
2420では、演算処理のような時間を要する処理を行わず
にバッファメモリ22から画像データを読み出してマトリ
クス部24b に出力する。この処理については後段で詳述
する。In the subroutine SUB1, priority processing of the display speed is performed on the image data. In this case, the display signal processing unit
At 2420, the image data is read from the buffer memory 22 and output to the matrix unit 24b without performing a time-consuming process such as an arithmetic process. This processing will be described later in detail.
【0054】また、サブルーチンSUB2では、バッファメ
モリ22から読み出した画像データに画質の優先、特に、
ハニカム型G 正方格子RB完全市松パターンにおいて効果
的な解像度を高める処理が施される。この処理を行うに
あたり、画像データが出力先選択部240aを介して記録信
号処理部244aに供給される。この処理についても後段で
詳述する。サブルーチンSUB1, SUB2では、それぞれの信
号処理により全く異なる処理を受けたRGB データがマト
リクス部24b に出力される。この後、サブルーチンSUB3
に進む。In the subroutine SUB2, image data read from the buffer memory 22 is given priority over image quality,
Processing to increase the effective resolution is performed on the honeycomb type G square lattice RB perfect checkerboard pattern. In performing this processing, the image data is supplied to the recording signal processing unit 244a via the output destination selection unit 240a. This processing will be described later in detail. In the subroutines SUB1 and SUB2, RGB data subjected to completely different processes by the respective signal processes is output to the matrix unit 24b. After this, the subroutine SUB3
Proceed to.
【0055】サブルーチンSUB3では、輝度データY 、色
差データ(B-Y ), (R-Y )を生成し、輝度データY に
対してアパーチャ調整を施し、さらにこれら3つの信号
にフィルタ処理を施して信号処理が行われる。このよう
にして得られた画像データは、図示していないが設定モ
ードが表示速度優先(高速表示)のとき表示部にそのま
ま供給され、表示部に表示させた後には、ステップS22
に進む。また、画質の優先のとき圧縮処理部(図示せ
ず)に供給され、ステップS20 に進む。In the subroutine SUB3, the luminance data Y and the color difference data (BY), (RY) are generated, the aperture adjustment is performed on the luminance data Y, and the three signals are subjected to the filter processing to perform the signal processing. Will be Although not shown, the image data obtained in this manner is supplied to the display unit as it is when the setting mode is the display speed priority (high-speed display).
Proceed to. When priority is given to image quality, the image data is supplied to a compression processing unit (not shown), and the process proceeds to step S20.
【0056】次にステップS20 では、サブルーチンSUB3
で信号処理された画像データに対して記録媒体に記録す
るとき圧縮処理を施す。圧縮処理の例には、たとえば、
JPEG(Joint Photographic coding Experts Group )あ
るいはMPEG(Moving Picturecoding Experts Group )-
1などに用いられる信号処理がある。この圧縮処理が施
された画像データは、記録再生装置に装着された記録媒
体に記録保存される。Next, in step S20, subroutine SUB3
Compression processing is performed when the image data subjected to the signal processing is recorded on the recording medium. Examples of compression processing include, for example,
JPEG (Joint Photographic coding Experts Group) or MPEG (Moving Picturecoding Experts Group)-
There is signal processing used for 1 etc. The image data that has been subjected to the compression processing is recorded and stored on a recording medium mounted on a recording and reproducing apparatus.
【0057】ステップS22 では、画像選択を行うかどう
かを判定する。この場合、オペレータにより別な画像デ
ータを表示させるか記録させるかの判定が行われる。こ
の判定が終了するまでディジタルスチルカメラ10は、動
作を待機状態にさせておく。画像選択を行うとき(Yes
)、ステップS18 に進む。画像選択を行わないとき(N
o),ステップS24 に進む。In step S22, it is determined whether or not to select an image. In this case, the operator determines whether to display or record another image data. Until this determination is completed, the digital still camera 10 keeps its operation in a standby state. When selecting an image (Yes
), And proceed to step S18. When not selecting an image (N
o), proceed to step S24.
【0058】ステップS24 では、撮影を終了するか判定
する。まだ撮影を継続するとき(No)、ステップS12 に
戻って一連の処理を継続する。また、撮影を終了すると
き(Yes )、ディジタルスチルカメラ10を動作させるの
に用いる電源をオフにする。受光素子がハニカム型に配
置された撮像部を有するディジタルスチルカメラ10に
は、これまで画質優先の信号処理が施されるので、良好
な画質を提供することはできるが表示するまで時間をか
なり要してきている。しかしながら、このように動作さ
せると、高速表示が可能になり、ユーザの要求を満足さ
せることができるようになる。In step S24, it is determined whether the photographing is to be ended. If shooting is still to be continued (No), the process returns to step S12 to continue a series of processes. When the photographing is completed (Yes), the power supply used to operate the digital still camera 10 is turned off. The digital still camera 10, which has an imaging unit in which the light-receiving elements are arranged in a honeycomb shape, can perform high-quality signal processing so far, so that good image quality can be provided, but it takes much time to display. Have been. However, such an operation enables high-speed display and satisfies the user's request.
【0059】さらに、高速表示させる手法についてサブ
ルーチンSUB1を説明する。3つの色RGB において、色G
の位置の色として用いる色R, Bで形成される三角形の頂
点の向きに基づいてサンプリングにおけるデータの組合
せの形態を選択する。この組合せの形態には、ひとまと
めにみなす三角形の形状が4通りある。予めこの組合せ
の形態の設定は、たとえば、4つのうち、一つの組合せ
をデフォルトで設定しており、その他の3つの組合せ
は、たとえば、モード設定の段階で設定できるようにし
ておく。サブルーチンSUB1では、最初にどの組合せが設
定されているか判定していく。Further, a subroutine SUB1 will be described as a method for performing high-speed display. In three colors RGB, color G
Based on the direction of the vertices of the triangle formed by the colors R and B used as the color of the position, the form of the data combination in the sampling is selected. In the form of this combination, there are four types of triangular shapes to be regarded collectively. As for the setting of the form of this combination, for example, one of four combinations is set by default, and the other three combinations can be set at the mode setting stage, for example. In the subroutine SUB1, it is first determined which combination is set.
【0060】まず、サブステップSS10では、三角形の頂
点に位置する色G が下側にあるか判定する。下側にある
とき(Yes )、サブステップSS12に進む。また、この状
態にないと判定されたとき(No)、サブステップSS14に
進む。First, in sub-step SS10, it is determined whether or not the color G located at the vertex of the triangle is on the lower side. If it is on the lower side (Yes), proceed to sub-step SS12. When it is determined that the state is not in this state (No), the process proceeds to sub-step SS14.
【0061】サブステップSS12では、色R, Bの受光素子
(以後、画素という)が色G の画素の上側に横並びにな
っている。この色G の画素位置における色R, Bに対応す
る画素は実際に存在しないが、上述した位置の色R, Bの
値を代わりに用いるサンプリングを可能にするようアド
レス制御部2420がバッファメモリ22の読出しを制御す
る。たとえば、図7(a) のハニカム型G 正方格子RB完全
市松パターンにおいて、この読出しが行われると、図7
(b) のように組合せでまとめられたパターンが形成され
る。すなわち、色G11 に対して色R00, B02をグループと
する画素データとみなす。次の隣接するグループは、色
G13 に対して色B02, R04をグループとする画素データで
ある。このように色R, Bについては、少なくとも一つの
色が含まれるようにしてグループ化されている。In the sub-step SS12, the light receiving elements (hereinafter referred to as pixels) of the colors R and B are arranged side by side above the pixels of the color G. Although the pixel corresponding to the color R, B at the pixel position of this color G does not actually exist, the address control unit 2420 operates the buffer memory 22 so as to enable sampling using the values of the color R, B at the above-mentioned position instead. Control the reading of the data. For example, when this reading is performed in the honeycomb type G square lattice RB complete checkerboard pattern of FIG.
As shown in (b), a combined pattern is formed. That is, it is regarded as pixel data in which colors R 00 and B 02 are grouped with respect to color G 11 . The next adjacent group is the color
A pixel data color B 02, R 04 and group for G 13. As described above, the colors R and B are grouped so as to include at least one color.
【0062】サブステップSS14では、三角形の頂点に位
置する色G が上側にあるか判定する。上側にあるとき
(Yes )、サブステップSS16に進む。また、この状態に
ないと判定されたとき(No)、サブステップSS18に進
む。In sub-step SS14, it is determined whether the color G located at the vertex of the triangle is on the upper side. When it is on the upper side (Yes), the process proceeds to sub-step SS16. When it is determined that the state is not in this state (No), the process proceeds to sub-step SS18.
【0063】サブステップSS16では、色R, Bの画素が色
G の画素の下側に横並びになっている。この場合も、こ
の色G の画素位置における色R, Bに対応する画素は実際
に存在しないが、上述した位置の色R, Bの値を代わりに
用いるサンプリングを可能にするようアドレス制御部24
20がバッファメモリ22の読出しを制御する。たとえば、
図7(a) のハニカム型G 正方格子RB完全市松パターンに
おいて、この読出しが行われると、色G11 に対して色B
20, R22をグループとする画素データとみなす。次の隣
接するグループは、色G13 に対して色R22, B24をグルー
プとする画素データである。このように色R, Bについて
は、少なくとも一つの色が含まれるようにしてグループ
化されている。In sub-step SS16, pixels of colors R and B are
It lies side by side below the G pixel. In this case as well, the pixel corresponding to the color R, B at the pixel position of this color G does not actually exist, but the address control unit 24 enables sampling using the value of the color R, B at the above-mentioned position instead.
20 controls the reading of the buffer memory 22. For example,
In the honeycomb-type G square lattice RB completely checkered pattern of FIG. 7 (a), when the reading is performed, the color for the color G 11 B
20 and R 22 are regarded as pixel data. The next adjacent group, a pixel data color R 22, B 24 and groups the color G 13. As described above, the colors R and B are grouped so as to include at least one color.
【0064】サブステップSS18では、三角形の頂点に位
置する色G が右側にあるか判定する。右側にあるとき
(Yes )、サブステップSS20に進む。また、この状態に
ないと判定されたとき(No)、サブステップSS22に進
む。In sub-step SS18, it is determined whether the color G located at the vertex of the triangle is on the right side. When it is on the right side (Yes), proceed to sub-step SS20. When it is determined that the state is not in this state (No), the process proceeds to sub-step SS22.
【0065】サブステップSS20では、色R, Bの画素が色
G の画素の左側に縦並びになっている。この場合も、こ
の色G の画素位置における色R, Bに対応する画素は実際
に存在しないが、上述した位置の色R, Bの値を代わりに
用いるサンプリングを可能にするようアドレス制御部24
20がバッファメモリ22の読出しを制御する。たとえば、
図7(a) のハニカム型G 正方格子RB完全市松パターンに
おいて、この読出しが行われると、色G11 に対して色R
00, B20をグループとする画素データとみなす。次の隣
接するグループは、色G13 に対して色B02, R22をグルー
プとする画素データである。このように色R, Bについて
は、少なくとも一つの色が含まれるようにしてグループ
化されている。In sub-step SS20, pixels of colors R and B are
It is arranged vertically on the left side of the G pixel. In this case as well, the pixel corresponding to the color R, B at the pixel position of this color G does not actually exist, but the address control unit 24 enables sampling using the value of the color R, B at the above-mentioned position instead.
20 controls the reading of the buffer memory 22. For example,
In the honeycomb-type G square lattice RB completely checkered pattern of FIG. 7 (a), when the reading is performed, the color relative to the color G 11 R
00, regarded as the pixel data for the B 20 and group. The next adjacent group is pixel data in which colors B 02 and R 22 are grouped with respect to color G 13 . As described above, the colors R and B are grouped so as to include at least one color.
【0066】さらに、サブステップSS22では、三角形の
頂点に位置する色G が左側にあるか判定する。左側にあ
るとき(Yes )、サブステップSS24に進む。また、この
状態にないと判定されたとき(No)、該当する設定でな
いとしてリターンに移行する。Further, in sub-step SS22, it is determined whether or not the color G located at the vertex of the triangle is on the left side. If it is on the left (Yes), proceed to sub-step SS24. When it is determined that the state is not in this state (No), it is determined that the corresponding setting is not made, and the process returns to the return.
【0067】サブステップSS24では、色R, Bの画素が色
G の画素の右側に縦並びになっている。この場合も、こ
の色G の画素位置における色R, Bに対応する画素は実際
に存在しないが、上述した位置の色R, Bの値を代わりに
用いるサンプリングを可能にするようアドレス制御部24
20がバッファメモリ22の読出しを制御する。たとえば、
図7(a) のハニカム型G 正方格子RB完全市松パターンに
おいて、この読出しが行われると、色G11 に対して色B
02, R22をグループとする画素データとみなす。次の隣
接するグループは、色G13 に対して色R04, B24をグルー
プとする画素データである。このように色R, Bについて
は、少なくとも一つの色が含まれるようにしてグループ
化されている。In sub-step SS24, pixels of colors R and B are
It is arranged vertically to the right of the G pixel. In this case as well, the pixel corresponding to the color R, B at the pixel position of this color G does not actually exist, but the address control unit 24 enables sampling using the value of the color R, B at the above-mentioned position instead.
20 controls the reading of the buffer memory 22. For example,
In the honeycomb-type G square lattice RB completely checkered pattern of FIG. 7 (a), when the reading is performed, the color for the color G 11 B
02, regarded as pixel data to the R 22 group. The next adjacent group is pixel data in which colors R 04 and B 24 are grouped with respect to color G 13 . As described above, the colors R and B are grouped so as to include at least one color.
【0068】このようにしてバッファメモリ22から画像
データを読み出すパターンの関係が判ったとき、各設定
で画像の読出しが完了したかどうかの判定を行う(各サ
ブステップSS26, SS28, SS30, SS32)。まだ読出し完了
していない場合(No)、それぞれ1ステップ前のサブス
テップSS12, SS16, SS20, SS24に戻って画像データの読
出しを継続する。一方、読出しがすべて完了している場
合(Yes )、リターンに移行する。この処理によって画
像データは、総画素数の半分の画素データとして読み出
される。このパターンでは、読出し画素数が色G の配設
されている画素数に同じになる。本実施例では、本来得
られた画像データに何等演算を施すことなく画像データ
の読出しが行われる。この結果、読み出す速度は、前述
した3画素(RGB )をひとまとめとして高速に読み出す
場合と同程度の読出し速度を維持しながら、総画素数に
対する読出し画素数を半分の減少に抑えて読み出すこと
ができる。これにより、解像度の面で従来の総画素数の
1/3 しか読み出せなかった場合よりも向上させることが
できる。When the relationship between the patterns for reading the image data from the buffer memory 22 is thus determined, it is determined whether or not the image reading has been completed in each setting (sub-steps SS26, SS28, SS30, SS32). . If the reading has not been completed yet (No), the process returns to the previous sub-steps SS12, SS16, SS20 and SS24, respectively, to continue reading the image data. On the other hand, if all the readings have been completed (Yes), the process proceeds to return. By this processing, the image data is read out as pixel data of half the total number of pixels. In this pattern, the number of pixels read out is the same as the number of pixels provided with the color G. In this embodiment, the image data is read out without performing any operation on the originally obtained image data. As a result, the reading speed can be read while keeping the reading speed at about half the total number of pixels while maintaining the same reading speed as the case of reading the three pixels (RGB) at a high speed. . As a result, in terms of resolution,
This can be improved compared to the case where only 1/3 could be read.
【0069】ところで、色分解フィルタCFのハニカム型
G 正方格子RB完全市松パターンで撮像した信号を空間周
波数で表すと、図8に示すように各色は分布している。
すなわち、色R, Bの周波数分布は、正方形を45°回転さ
せた分布になる。この分布は、斜め方向のサンプル周波
数が低いことを示している。このため、この画像データ
を用いて得られる画像には、斜め方法での折り返し歪み
による偽信号が発生し易い。なお、色G の空間周波数の
分布は、正方格子状に配設されていることから、色R, B
の周波数分布を内包する正方形の分布になる。Incidentally, a honeycomb type color separation filter CF is used.
When a signal captured by a G square lattice RB perfect checkerboard pattern is represented by a spatial frequency, each color is distributed as shown in FIG.
That is, the frequency distribution of the colors R and B is a distribution obtained by rotating the square by 45 °. This distribution indicates that the sample frequency in the oblique direction is low. For this reason, in an image obtained using this image data, a false signal due to aliasing in an oblique manner is likely to occur. Since the spatial frequency distribution of the color G is arranged in a square lattice, the colors R, B
Becomes a square distribution including the frequency distribution of
【0070】このような偽信号の発生に対処しながら、
高速に画像データを読み出す構成を前述した実施例の変
形例として説明する。この場合、表示信号処理部242aに
は、アドレス制御部2420だけでなく、RB演算部2422も設
ける(図9を参照)。RB演算部2422は、色G の周囲に位
置する色R, Bの画素データを用い、これらの画素データ
に演算を施す演算部である。したがって、図9に示すよ
うにRB演算部2422は、出力先切換部240aからの色G の画
素データをそのままマトリクス部24b にスルーさせ、色
R, Bの画素データだけをそれぞれ入力させている。While coping with the occurrence of such a false signal,
A configuration for reading image data at high speed will be described as a modification of the above-described embodiment. In this case, the display signal processing unit 242a includes not only the address control unit 2420 but also an RB calculation unit 2422 (see FIG. 9). The RB operation unit 2422 is an operation unit that uses pixel data of the colors R and B located around the color G and performs an operation on the pixel data. Therefore, as shown in FIG. 9, the RB calculation unit 2422 passes the pixel data of the color G from the output destination switching unit 240a to the matrix unit 24b as it is,
Only the R and B pixel data are input.
【0071】この演算は、色G を挟んで対角に位置する
画素データ(この場合同色同士)を加算し、その平均を
とる、いわゆる加算平均処理を行っている。このとき、
この加算平均によって得られる画素は、それぞれ色G と
ともに、ひとまとめのグループとして扱う色R, Bの画素
データである。結果として色G 画素における色R, B画素
と同じことを意味する。具体的に例示すると、図10に示
す関係になる。すなわち、色G11 を挟んで位置する色R
00, R22と色B02, B20および色G13 を挟んで位置する色B
02, B24と色R04, R22を用いて演算する。最終的に、色G
の位置の色R, Bの画素データとなることから、これを
識別するため、得られた画素データを小文字r, bで表す
とともに、添字を色G の数値と同じにする。したがっ
て、演算は、In this operation, so-called averaging processing is performed in which pixel data (in this case, same colors) positioned diagonally across the color G is added and the average is calculated. At this time,
The pixels obtained by the averaging are the pixel data of the colors R and B to be treated as a group together with the color G. As a result, it means the same as the color R and B pixels in the color G pixel. Specifically, the relationship is as shown in FIG. That is, the color located across the color G 11 R
00 , R 22 and the color B located between the colors B 02 , B 20 and the color G 13
02, B 24 and the color R 04, is calculated using the R 22. Finally, the color G
In order to identify the pixel data of the color R and B at the position of, the obtained pixel data is represented by small letters r and b, and the suffix is made the same as the numerical value of the color G. Therefore, the operation is
【0072】[0072]
【数1】 r11=(R00+R22)/2 b11=(B02+B20)/2 ・・・(1) r13=(R04+R22)/2 b13=(B02+B24)/2 ・・・(2) と表される。換言すると、画素データr11 は、新たに算
出された色R00 と言える。同様に、画素データb11,
b13, r13 は、算出された色B02, B02, R04 とそれぞれ
言える。ここで特徴的な点は、色B02, B02と同じ位置に
ついての算出でありながら、扱うグループが異なってい
る点である。このように一つのグループには、隣接する
画素が少なくとも1つないし2つの重なりが含まれてい
る。1つの重なりは、境界近傍の値の場合であり、2つ
の重なりは、その境界として扱う画素よりも内側に位置
する場合である。このように算出した画素データをマト
リクス部24b に出力する。[Number 1] r 11 = (R 00 + R 22) / 2 b 11 = (B 02 + B 20) / 2 ··· (1) r 13 = (R 04 + R 22) / 2 b 13 = ( B 02 + B 24 ) / 2... (2) In other words, the pixel data r 11 can be said to have been newly calculated color R 00. Similarly, pixel data b 11 ,
b 13 and r 13 can be said to be the calculated colors B 02 , B 02 and R 04 , respectively. The characteristic point is that the calculation is performed for the same position as the colors B 02 and B 02 , but the group handled is different. As described above, one group includes at least one or two adjacent pixels. One overlap corresponds to a value near the boundary, and two overlaps correspond to a case that is located inside a pixel to be handled as the boundary. The pixel data thus calculated is output to the matrix unit 24b.
【0073】これらの算出された色R, Bの画素データを
用いると、原信号に対してローパス効果が発揮され、色
R, Bの信号のS/N も改善されることになる。これによ
り、ハニカム型G 正方格子RB完全市松パターンでの偽信
号の発生が抑制される。また、ここでの演算は単純な加
算平均だけなので、図示しないが加算器とビットシフト
させるハードウェア構成で容易に実現させることができ
る。ハードウェアによる演算であるので、ソフトウェア
的な演算に比べて高速な処理が可能になる。さらに、前
述の構成でも述べたように、輝度信号の生成に用いる最
も重要な色G をそのままスルーさせて、何等変更を加え
ないことから、輝度データY の生成における忠実度を維
持し、かつ最終的に扱える画素数も色G の数だけ確保す
ることができる。これにより。偽色改善と輝度信号の向
上が図れるので、先の実施例に比べて画質を向上させる
ことができる。When the calculated pixel data of the colors R and B is used, a low-pass effect is exerted on the original signal,
The S / N of the R and B signals will also be improved. As a result, generation of a false signal in the honeycomb type G square lattice RB perfect checkerboard pattern is suppressed. Also, since the calculation here is only a simple averaging, it can be easily realized by a hardware configuration (not shown) that performs bit shifting with an adder. Since the calculation is performed by hardware, high-speed processing can be performed as compared with the calculation performed by software. Further, as described in the above configuration, since the most important color G used for generating the luminance signal is passed through without any change, the fidelity in the generation of the luminance data Y is maintained and the final The number of pixels that can be handled as many as the number of colors G can be secured. By this. Since the false color can be improved and the luminance signal can be improved, the image quality can be improved as compared with the previous embodiment.
【0074】次にサブルーチンSUB2により記録信号処理
部244aの動作を説明する。すなわち、サブルーチンSUB
4、SUB5およびSUB6の順に動作する。サブルーチンSUB4
では実在する受光素子の位置に対応して得られる色を考
慮した市松状の輝度データY を作成する。サブルーチン
SUB4では、予め設定されたモードに従って後述するよう
に輝度データY を算出する。サブルーチンSUB5では、得
られた輝度データY に基づいて対応する受光素子のな
い、仮想画素での輝度データを生成するとともに、輝度
データを周波数帯域で見た際にこの輝度データを高域化
する。この高域化された輝度信号をYhで表す。また、サ
ブルーチンSUB6は、輝度データYhおよび供給されるG,
R, B をそれぞれ用いて補間することによりRGB のプレ
ーン展開を行っている。Next, the operation of the recording signal processing section 244a will be described with reference to a subroutine SUB2. That is, subroutine SUB
4. Operate in the order of SUB5 and SUB6. Subroutine SUB4
Then, checkerboard-like luminance data Y is created in consideration of a color obtained corresponding to the position of an existing light receiving element. subroutine
In SUB4, luminance data Y is calculated according to a preset mode as described later. In the subroutine SUB5, based on the obtained luminance data Y, luminance data at a virtual pixel without a corresponding light receiving element is generated, and when the luminance data is viewed in a frequency band, the luminance data is raised. The high Ikika luminance signal represented by Y h. Further, the subroutine SUB6 the luminance data Y h and the supplied G,
RGB plane development is performed by interpolating using R and B, respectively.
【0075】各サブルーチンSUB4、SUB5およびSUB6の動
作を説明する。図12に示すサブルーチンSUB4においてサ
ブステップSS400 では、まず、モードが適応処理モード
かどうか判別する。モードが適応処理モードでなかった
場合(No)、接続子B を介して図13のサブステップSS40
2 に進む。また、適応処理モードの場合(Yes )、サブ
ステップSS401 に進む。サブステップSS401 では、斜め
相関処理を行うかどうか選択を行う。斜め相関処理を行
う場合(Yes )、サブステップSS404 に進む。また、斜
め相関処理を行わない場合(No)、サブステップSS410
に進む。The operation of each subroutine SUB4, SUB5 and SUB6 will be described. In sub-step SS400 of subroutine SUB4 shown in FIG. 12, first, it is determined whether or not the mode is the adaptive processing mode. If the mode is not the adaptive processing mode (No), the sub-step SS40 of FIG.
Proceed to 2. In the case of the adaptive processing mode (Yes), the process proceeds to sub-step SS401. In sub-step SS401, a selection is made as to whether to perform diagonal correlation processing. When performing the diagonal correlation processing (Yes), the process proceeds to sub-step SS404. When the diagonal correlation processing is not performed (No), sub-step SS410
Proceed to.
【0076】上述したサブステップSS402 では、適応処
理モードと関係なく輝度データの算出が行われる。この
処理を行うにあたり撮像部31のCCD イメージセンサが本
来図14(a) に示すように2次元配列されている。ここ
で、添字は、各受光素子の画素としての位置を行列表現
で表した際の位置である。また、実在する受光素子の画
素は、実線で仮想受光素子に対応する画素は、破線で表
している。基本的に輝度データY は、画素データG と画
素データR, Bを用いて(0.5*R+0.5B)で算出できること
が知られている。この場合も画素データG は、そのまま
輝度データとみなして扱われる(画素データG=輝度デー
タ)。また、画素データR, Bによる輝度データは、実在
する受光素子の位置に対応する色がG でなくR/B の場合
に、たとえば図14(a) の画素データR22 の位置に対する
輝度データY22 は、画素データR22とその周囲に位置す
る画素データB の4画素、すなわち画素データB02,
B20, B24, B42を用いてIn the above-described sub-step SS402, the calculation of the luminance data is performed irrespective of the adaptive processing mode. In performing this processing, the CCD image sensors of the imaging unit 31 are originally two-dimensionally arranged as shown in FIG. Here, the suffix is a position when the position of each light receiving element as a pixel is represented by a matrix expression. The pixels of the actual light receiving element are indicated by solid lines, and the pixels corresponding to the virtual light receiving elements are indicated by broken lines. Basically, it is known that the luminance data Y can be calculated as (0.5 * R + 0.5B) using the pixel data G and the pixel data R and B. Also in this case, the pixel data G is treated as it is as luminance data (pixel data G = luminance data). The luminance data by the pixel data R, B, if the color corresponding to the position of the real light receiving elements of the R / B rather than G, for example, luminance data Y with respect to the position of the pixel data R 22 shown in FIG. 14 (a) Reference numeral 22 denotes four pixels of pixel data R 22 and pixel data B located around the pixel data R 22 , that is, pixel data B 02 ,
Using B 20 , B 24 , B 42
【0077】[0077]
【数2】 Y22=R22/2+(B02+B20+B24+B42)/8 ・・・(3) から得られる。また、画素データB24 の位置に対応する
輝度データY24 は、画素データB24 とその周囲に位置す
る画素データR の4画素、すなわち画素データR04,
R22, R26, R44を用いて[Number 2] obtained from Y 22 = R 22/2 + (B 02 + B 20 + B 24 + B 42) / 8 ··· (3). The luminance data Y 24 corresponding to the position of the pixel data B 24 is four pixels of the pixel data R which is located around the pixel data B 24, i.e. pixel data R 04,
Using R 22 , R 26 , R 44
【0078】[0078]
【数3】 Y24=B24/2+(R04+R22+R26+R44)/8 ・・・(4) から得られる。各画素に対してこの演算を行って輝度デ
ータY を求めている。このようにして得られた結果、図
14(b) に示す輝度データの市松状のパターンが得られ
る。なお、このような演算は、斜め方向、垂直方向およ
び水平方向のに相関がないときにも行われる。この処理
の後、サブステップSS430 に進む。Equation 3] obtained from the Y 24 = B 24/2 + (R 04 + R 22 + R 26 + R 44) / 8 ··· (4). This calculation is performed for each pixel to obtain the luminance data Y. The result obtained in this way is
A checkerboard pattern of the luminance data shown in FIG. 14 (b) is obtained. Note that such calculation is also performed when there is no correlation between the oblique direction, the vertical direction, and the horizontal direction. After this processing, the flow advances to sub-step SS430.
【0079】ところで、サブステップSS404 では、比較
データの算出を行う。比較データは、たとえば適応処理
を施す対象の画素データを中心にしてその周囲の画素デ
ータがどの方向に相関しているかの判別に用いる。たと
えば、その対象の画素データがR22 の場合、比較データ
AGは、周囲の画素データG11, G13, G31, G33を用いて、In the sub-step SS404, comparison data is calculated. The comparison data is used to determine, for example, in which direction the pixel data around the pixel data to be subjected to the adaptive processing are correlated. For example, if the object pixel data of R 22, comparison data
AG uses the surrounding pixel data G 11 , G 13 , G 31 , G 33
【0080】[0080]
【数4】 AG= |G11+G33-(G13+G31) | ・・・(5) から得られる。画素データがB の場合も周囲の画素デー
タG から算出する。この算出により、左右のいずれか一
方に傾きを有する大きい方の値が比較データAGとして得
られることになる。この演算の後、サブステップSS406
に進む。AG = | G 11 + G 33- (G 13 + G 31 ) | (5) Also when the pixel data is B, it is calculated from the surrounding pixel data G. By this calculation, a larger value having a slope on one of the left and right sides is obtained as the comparison data AG. After this operation, sub-step SS406
Proceed to.
【0081】サブステップSS406 では、対象の画素デー
タを挟んで斜めに位置する画素データに相関(すなわ
ち、斜め相関)があるかどうか判定を行う。この判定に
は、判定基準値としてJ1が設定されている。比較データ
AGが判定基準値J1以上に大きいとき(Yes )、サブステ
ップSS408 に進む。また、比較データAGが判定基準値J1
よりも小さいとき(No)、サブステップSS410 に進む。In sub-step SS406, it is determined whether or not there is a correlation (ie, a diagonal correlation) between the pixel data positioned diagonally across the target pixel data. In this determination, J1 is set as a determination reference value. comparison data
When AG is larger than the judgment reference value J1 (Yes), the process proceeds to sub-step SS408. Further, the comparison data AG is the judgment reference value J1.
If smaller than (No), proceed to sub-step SS410.
【0082】サブステップSS408 では、比較データAGの
算出に用いた4つの画素データG を平均して輝度データ
Y を算出する。この斜め相関により少なくとも図示しな
いが6パターンが画素データR=R22 に対して判別される
ことになる。ところで、この場合でも、偽色を発生させ
てしまう虞れがある。そこで、この虞れのある画素の境
界近傍に位置する画素データR における輝度データY を
上述した演算により算出すると、画像全体として見た際
に色境界での偽色の発生を良好に抑圧することができ
る。具体的な説明を省略するが画素データB=B24 に対し
てもサブステップSS406, SS408と同様に比較データを算
出し斜め相関の有無に基づいた適応的な輝度データY を
作成することができる。この処理の後、接続子C を介し
て図13のサブステップSS430 に進む。In sub-step SS408, the four pixel data G used to calculate the comparison data AG are averaged to obtain the luminance data
Calculate Y. Although not least shown by oblique correlation so that six patterns is determined for the pixel data R = R 22. By the way, even in this case, there is a possibility that a false color is generated. Therefore, when the luminance data Y in the pixel data R located near the boundary of the pixel having the possibility of being calculated by the above-described calculation, it is possible to satisfactorily suppress the occurrence of the false color at the color boundary when the entire image is viewed. Can be. It is possible to create an adaptive luminance data Y on the basis of whether the calculated oblique correlation similar comparison data sub-steps SS406, SS408 even for specific explanation pixel data B = B 24 is omitted . After this process, the flow advances to sub-step SS430 in FIG. 13 via connector C.
【0083】前述したようにサブステップSS410 では、
画素データR=R22 に対する垂直方向の比較データABRVと
水平方向の比較データABRHを周囲に配置されているもう
一方の色の画素データ、すなわち画素データB を用いてAs described above, in sub-step SS410,
The vertical direction comparison data ABR V and the horizontal direction comparison data ABR H for the pixel data R = R 22 are obtained by using pixel data of the other color arranged around, that is, pixel data B.
【0084】[0084]
【数5】 ABRV= |B02-B42 | ・・・(6) ABRH= |B20-B24 | ・・・(7) を算出する。この処理の後、サブステップSS411 に進
む。ABR V = | B 02 -B 42 | (6) ABR H = | B 20 -B 24 | (7) is calculated. After this processing, the flow advances to sub-step SS411.
【0085】サブステップSS411 では、算出した比較デ
ータABRV, ABRHの値を用いてさらに相関値(ABRH-ABR
V ), (ABRV-ABRH )が算出された際に、新たに設けら
れた所定の判定基準値J2よりもこれら相関値のそれぞれ
がともに小さいとき(Yes )、水平および垂直方向に相
関がないと判断して接続子B を介してサブステップSS40
2 に進む。また、上述した条件が満たされないとき(N
o) 、何らかの相関があるとしてサブステップSS412 に
進む。また、この段階で処理を終了する場合、図示しな
いが接続子C を介してサブステップSS430 に進んでもよ
い。At sub-step SS411, the calculated comparison data ABR V and ABR H are used to further calculate the correlation value (ABR H -ABR
V ) and (ABR V -ABR H ), when each of these correlation values is smaller than the newly provided predetermined criterion value J2 (Yes), the correlation in the horizontal and vertical directions is Substep SS40 via connector B
Proceed to 2. When the above conditions are not satisfied (N
o) If there is some correlation, proceed to sub-step SS412. When the process is terminated at this stage, the process may proceed to sub-step SS430 via a connector C (not shown).
【0086】サブステップSS412 では、対象の画素デー
タを挟んで垂直に位置する画素データに相関(すなわ
ち、垂直相関)があるかどうか判定を行う。この判定に
は、判定基準値としてJ2a が設定されている。比較デー
タABRHと比較データABRVの差が判定基準値J2a 以上に大
きいとき(Yes )、垂直相関があると判定してサブステ
ップSS414 に進む。また、比較データの差(ABRH-ABRV)
が判定基準値J2a よりも小さいとき(No)、垂直相関が
ないものとみなしサブステップSS416 に進む。In sub-step SS412, it is determined whether or not there is a correlation (that is, a vertical correlation) between pixel data positioned vertically across the target pixel data. In this judgment, J2a is set as a judgment reference value. When the difference between the comparison data ABR H and the comparison data ABR V is larger than the determination reference value J2a (Yes), it is determined that there is a vertical correlation, and the flow advances to sub-step SS414. Also, the difference of the comparison data (ABR H -ABR V )
Is smaller than the determination reference value J2a (No), it is considered that there is no vertical correlation, and the flow advances to sub-step SS416.
【0087】サブステップSS414 では、相関のあるとは
画素データ同士の値が近いことを意味するから、画素デ
ータB02, B42を用いて輝度データY を算出する。この場
合、輝度データY22 は、In the sub-step SS414, since there is a correlation between the pixel data, it means that the luminance data Y is calculated using the pixel data B 02 and B 42 . In this case, the luminance data Y 22 is
【0088】[0088]
【数6】 Y22=R22/2+(B02+B42)/4 ・・・(8) により得られる。この後、この画素データにおける輝度
データY の算出を終了したものとみなして接続子C を介
してサブステップSS430 に進む。[6] Y 22 = R 22/2 + (B 02 + B 42) / 4 is obtained by (8). Thereafter, it is considered that the calculation of the luminance data Y in the pixel data has been completed, and the process proceeds to the sub-step SS430 via the connector C.
【0089】次にサブステップSS416 では、対象の画素
データを挟んで水平に位置する画素データに相関(すな
わち、水平相関)があるかどうか判定を行う。この判定
には、判定基準値として前述したJ2b を用いる。比較デ
ータABRVと比較データABRHの差が判定基準値J2b 以上に
大きいとき(Yes )、水平相関があると判定してサブス
テップSS418 に進む。また、比較データの差(ABRV-AB
RH) が判定基準値J2b よりも小さいとき(No)、水平相
関がないと判定し、接続子D を介してサブステップSS41
9 に進む。Next, in sub-step SS416, it is determined whether or not there is a correlation (that is, a horizontal correlation) between pixel data positioned horizontally across the target pixel data. In this determination, J2b described above is used as a determination reference value. When the difference between the comparison data ABR V and the comparison data ABR H is larger than the determination reference value J2b (Yes), it is determined that there is a horizontal correlation, and the flow advances to sub-step SS418. In addition, the difference (ABR V -AB
When R H ) is smaller than the determination reference value J2b (No), it is determined that there is no horizontal correlation, and the sub-step SS41 is performed via the connector D.
Go to 9.
【0090】サブステップSS418 では、相関のあるとし
て画素データB20, B24を用いて輝度データY を算出す
る。この場合、輝度データY22 は、In the sub-step SS418, the luminance data Y is calculated by using the pixel data B 20 and B 24 as having a correlation. In this case, the luminance data Y 22 is
【0091】[0091]
【数7】 Y22=R22/2+(B20+B24)/4 ・・・(9) により得られる。この後、この画素データにおける輝度
データY の算出を終了したものとみなして接続子C を介
してサブステップSS430 に進む。Y 22 = R 22/2 + (B 20 + B 24 ) / 4 (9) Thereafter, it is considered that the calculation of the luminance data Y in the pixel data has been completed, and the process proceeds to the sub-step SS430 via the connector C.
【0092】次に接続子D を介してサブステップSS419
では、たとえば、色R の画素に対する周囲の色B の画素
の相関判定を行うかどうかを選択する。色R の画素が周
囲の色B の画素の中央位置に配されているので、サブス
テップSS412, SS416における画素間の距離が短い。した
がって、より狭い範囲に対して相関があるかどうかの判
定を以後の処理で行うことになる。この相関判定を行う
場合(Yes )、サブステップSS420 に進む。また、この
相関判定を行わない場合(No)、サブステップSS402 に
進む。この場合、判定基準値J2と異なる判定基準値J2a,
J2bのいずれの基準を満たさなかったものと判定され
る。なお、以後の処理を行わない処理手順にしてもよ
い。この場合、単に接続子D を介してサブステップSS40
2 に進む。Next, through the connector D, the sub-step SS419
Then, for example, it is selected whether or not to perform the correlation judgment of the surrounding color B pixel with the color R pixel. Since the pixel of the color R is arranged at the center position of the surrounding pixels of the color B, the distance between the pixels in the sub-steps SS412 and SS416 is short. Therefore, it is determined in a subsequent process whether or not there is a correlation in a narrower range. If this correlation is to be determined (Yes), the flow proceeds to sub-step SS420. When the correlation determination is not performed (No), the process proceeds to sub-step SS402. In this case, a criterion value J2a different from the criterion value J2,
It is determined that none of the criteria of J2b was satisfied. Note that a processing procedure that does not perform the subsequent processing may be used. In this case, simply via connector D
Proceed to 2.
【0093】サブステップSS420 では、再び比較データ
を算出する。この場合の比較データは、対象の画素デー
タと周囲の画素データの各相関を求め、得られた各相関
値を加算することにより垂直方向および水平方向に対す
る算出がされる。前述の場合と同様に画素データR22 に
対する輝度データY の算出は、垂直方向の比較データAC
RVと水平方向の比較データACRHを周囲に配置されている
もう一方の色の画素データ、すなわち画素データB を用
いてIn sub-step SS420, comparison data is calculated again. In this case, the comparison data is calculated in the vertical and horizontal directions by calculating each correlation between the target pixel data and the surrounding pixel data, and adding the obtained correlation values. Calculation of the luminance data Y for the case as well as the pixel data R 22 described above, the vertical direction of the comparison data AC
RV and the comparison data ACR H in the horizontal direction are obtained by using the pixel data of the other color arranged around, that is, the pixel data B.
【0094】[0094]
【数8】 ACRV= |B02-R |+ |B42-R | ・・・(10) ACRH= |B20-R |+ |B24-R | ・・・(11) を算出する。この処理の後、サブステップSS412 に進
む。この比較データを用いることにより、より一層画素
データの距離を画素データと近づけて相関値が求められ
ることになるので、先のサブステップSS412 〜SS418 の
手順での相関値の算出に定義した範囲よりも狭い範囲に
関して相関の有無を調べることができる。この算出後、
サブステップSS422 に進む。ACR V = │B 02 -R │ + │B 42 -R │ ・ ・ ・ (10) ACR H = │B 20 -R │ + │B 24 -R │ ・ ・ ・ (11) I do. After this processing, the flow advances to sub-step SS412. By using the comparison data, the correlation value can be obtained by further reducing the distance of the pixel data to the pixel data, so that the range defined in the calculation of the correlation value in the procedure of the previous sub-steps SS412 to SS418 can be obtained. Can also be checked for a narrow range. After this calculation,
Proceed to sub-step SS422.
【0095】サブステップSS422 では、対象の画素デー
タを挟んで垂直に位置する画素データに相関(すなわ
ち、垂直相関)があるかどうか判定を行う。この判定に
は、判定基準値としてJ3が設定されている(ここで、判
定基準値J3は、水平と垂直用にJ3a, J3bと分けてもよ
い)。比較データACRHと比較データACRVの差が判定基準
値J3以上に大きいとき(Yes )、垂直相関があると判定
してサブステップSS424 に進む。また、比較データの差
(ACRH-ACRV) が判定基準値J3よりも小さいとき(No)、
垂直相関がないと判定してサブステップSS426 に進む。In sub-step SS422, it is determined whether or not there is a correlation (ie, a vertical correlation) between pixel data positioned vertically across the target pixel data. In this determination, J3 is set as a determination reference value (here, the determination reference value J3 may be divided into J3a and J3b for horizontal and vertical use). When the difference between the comparison data ACR H and the comparison data ACR V is larger than the determination reference value J3 (Yes), it is determined that there is a vertical correlation, and the flow advances to substep SS424. In addition, the difference
When (ACR H -ACR V ) is smaller than the judgment reference value J3 (No),
It is determined that there is no vertical correlation, and the flow advances to substep SS426.
【0096】サブステップSS424 では、前述したサブス
テップSS414 での処理と同じ処理を行う。したがって、
演算には式(9) が用いられる。また、サブステップSS42
6 では、対象の画素データを挟んで水平に位置する画素
データに相関(すなわち、水平相関)があるかどうかの
判定を行う。この判定にも判定基準値J3が用いられる。In sub-step SS424, the same processing as in the above-described sub-step SS414 is performed. Therefore,
Equation (9) is used for the calculation. Also, sub-step SS42
In step 6, it is determined whether or not there is a correlation (that is, a horizontal correlation) between pixel data positioned horizontally across the target pixel data. The determination reference value J3 is also used for this determination.
【0097】サブステップSS426 において、比較データ
の差(ACRV-ACRH) が判定基準値J3以上のとき(Yes )、
水平相関があると判定してサブステップSS428 に進む。
この場合、サブステップSS428 での輝度データY はサブ
ステップSS418 で前述したように画素データを用い、式
(10)に基づいて算出される。この後、サブステップSS43
0 に進む。また、サブステップSS426 で比較データの差
(ACRV-ACRH) が判定基準値J3より小さいとき(No)、水
平相関がないと判定してサブステップSS402 に進む。サ
ブステップSS402 では、式(3) により対象の画素データ
と周囲のもう一方の色の画素データ(この場合、画素デ
ータB )を加算平均し0.5 の係数を乗算して輝度データ
Y を算出している。この算出後、サブステップSS430 に
進む。In sub-step SS426, when the difference (ACR V -ACR H ) of the comparison data is equal to or larger than the judgment reference value J3 (Yes),
It is determined that there is a horizontal correlation, and the flow advances to substep SS428.
In this case, the luminance data Y in sub-step SS428 uses pixel data as described above in sub-step SS418,
It is calculated based on (10). After this, sub-step SS43
Go to 0. In sub-step SS426, the difference
When (ACR V -ACR H ) is smaller than the determination reference value J3 (No), it is determined that there is no horizontal correlation, and the flow advances to substep SS402. In sub-step SS402, the target pixel data and the surrounding pixel data (in this case, pixel data B) are averaged and multiplied by a coefficient of 0.5 by equation (3) to obtain luminance data.
Y is calculated. After this calculation, the process proceeds to sub-step SS430.
【0098】サブステップSS430 では、市松状の輝度デ
ータのデータ作成が1フレーム分、完了したかどうかの
判定を行っている。この判定は、たとえば算出した輝度
データY の個数をカウントし、このカウント値と受光素
子の数とが一致するかどうかで容易に行うことができ
る。カウント値が受光素子の数より小さい値のとき(N
o)、まだ処理が完了していないと判定する。この結
果、輝度データY の算出処理を接続子E を介して図12の
サブステップSS400 にまで戻して、これまでの一連の処
理を繰り返す。また、カウント値が受光素子の数に一致
したとき(Yes )、処理をリターンに移行させる。この
リターンを経て処理をサブルーチンSUB5に移行させる。
このようにして輝度データY を算出することにより、図
14(b) のように市松状の受光素子が実在する位置にデー
タが作成される。In sub-step SS430, it is determined whether the creation of the checkered luminance data has been completed for one frame. This determination can be easily made, for example, by counting the calculated number of pieces of luminance data Y and determining whether or not this count value matches the number of light receiving elements. When the count value is smaller than the number of light receiving elements (N
o), it is determined that the processing has not been completed yet. As a result, the process of calculating the luminance data Y is returned to the sub-step SS400 in FIG. When the count value matches the number of light receiving elements (Yes), the process shifts to return. After this return, the process is shifted to subroutine SUB5.
By calculating the luminance data Y in this way,
As shown in FIG. 14 (b), data is created at a position where a checkered light receiving element actually exists.
【0099】次にサブルーチンSUB5の動作を説明する。
サブルーチンSUB5の動作は、前述したように高域輝度デ
ータ作成部2442(図3を参照)のディジタルフィルタの
構成に基づいて行われる。Next, the operation of the subroutine SUB5 will be described.
The operation of the subroutine SUB5 is performed based on the configuration of the digital filter of the high-frequency luminance data creation unit 2442 (see FIG. 3) as described above.
【0100】サブステップSS50では、図15に示すよう
に、このディジタルフィルタの特徴であるローパスフィ
ルタ処理を施すとともに、仮想受光素子の位置における
画素データを生成してデータ補間を行う。この関係を簡
単に図16に示す。図16でも実在する受光素子に対応する
画素d(-3), d(-1), d(1), d(3)は実線で示し、仮想受光
素子に対応する画素は破線で示し、実在する4つの受光
素子(既存の画素)の間に配した関係になっている。仮
想受光素子に対応する画素dn(-4), dn(-2), dn(0), d
n(2), dn(4) には、実在する受光素子との対応を考慮す
ると、何もデータが入っていない状態と同じ関係として
扱う。すなわち、これらの画素には、ゼロが予め設定さ
れている。たとえば図16(a) に示すように画素dn(0) を
水平方向に補間するとき、ディジタルフィルタのタップ
係数をk0, k1, k2, k3, k4,・・・,kn として整理すると、
高域成分を含む輝度データYh(0) が式(12)In sub-step SS50, as shown in FIG. 15, low-pass filter processing which is a characteristic of the digital filter is performed, and pixel data at the position of the virtual light receiving element is generated to perform data interpolation. This relationship is briefly shown in FIG. In FIG. 16 as well, pixels d (-3) , d (-1) , d (1) , and d (3) corresponding to a real light receiving element are indicated by solid lines, and pixels corresponding to virtual light receiving elements are indicated by broken lines. Are arranged between the four light receiving elements (existing pixels). Pixels d n (-4) , d n (-2) , d n (0) , d corresponding to the virtual light receiving element
n (2) and dn (4) are treated as having the same relationship as the state in which no data is contained, in consideration of the correspondence with the existing light receiving element. That is, zero is set in advance for these pixels. For example, when horizontally interpolating the pixel dn (0) as shown in FIG. 16 (a), the tap coefficients of the digital filter are k 0 , k 1 , k 2 , k 3 , k 4 ,..., K When arranged as n ,
The luminance data Yh (0) including the high-frequency component is expressed by equation (12).
【0101】[0101]
【数9】 Yh(0)=k0*dn(0)+k1*(d(1)+ d(-1))+k2*(dn(-2)+dn(2))+k3*(d(-3)+d(3)) +k4*(dn(-4)+dn(4))+・・・kn*(dn(-n)+dn(n)) ・・・(12) で表されるように得られる。ただし、この場合、図16
(a) から明らかなように、ゼロのデータが交互に入るの
で、係数が2倍になる。この関係は、図16(a) における
この他の補間対象の画素dn(-4), dn(-2), dn(2), dn(4)
に対しても当てはめる。これらの補間処理が施されるこ
とにより、高域成分を含む輝度データYh(-4), Yh(-2),
Yh(2), Yh(4)が得られる(図16(b) を参照)。Equation 9] Y h (0) = k 0 * d n (0) + k 1 * (d (1) + d (-1)) + k 2 * (d n (-2) + d n (2 )) + k 3 * (d (-3) + d (3)) + k 4 * (d n (-4) + d n (4)) + ··· k n * (d n (-n) + d n (n) )... (12) However, in this case, FIG.
As can be seen from (a), the coefficient is doubled because zero data is alternately entered. This relationship is based on the other pixels dn (-4) , dn (-2) , dn (2) , dn (4) to be interpolated in FIG.
Also apply to By performing these interpolation processes, the luminance data Yh (-4) , Yh (-2) ,
Yh (2) and Yh (4) are obtained (see FIG. 16 (b)).
【0102】また、垂直方向に対してもローパスフィル
タ処理を高域輝度データ作成部2442でディジタルフィル
タにより行う。この場合、既に水平方向の補間処理によ
って仮想受光素子に対応する画素のデータが補間されて
いるので、画素データは密に入っている。したがって、
ローパスフィルタの係数は通常と同じにして済ませるこ
とができる。このようにして得られた高域成分を含む輝
度データを図14(b) に示したように行列表現で表すと、
図17に示すように高域成分を含む輝度データYhが作成さ
れる。高域成分を含む輝度データYhは、以下の記載にお
いて高域輝度データと呼ぶ。In the vertical direction, low-pass filter processing is also performed by the high-frequency luminance data creating section 2442 using a digital filter. In this case, the pixel data corresponding to the virtual light receiving element has already been interpolated by the horizontal interpolation process, so that the pixel data is dense. Therefore,
The coefficients of the low-pass filter can be made the same as usual. When the luminance data including the high frequency component obtained in this way is represented by a matrix expression as shown in FIG.
Luminance data Y h including high-frequency component is generated as shown in FIG. 17. Luminance data Y h including high-frequency component is referred to as the high-frequency luminance data in the following description.
【0103】次にサブルーチンSUB6の動作について説明
する。サブルーチンSUB6は、図3に示すようにプレーン
補間展開部2444で行われる。プレーン補間展開部2444に
は、サブルーチンSUB5で作成された高域輝度データYhと
この高域輝度データYhに対応した補間対象の色の画素デ
ータがそれぞれの演算処理部に供給されている。高域輝
度データYhは、図4から明らかなようにR 補間展開部44
a, G補間展開部44b,およびB 補間展開部44c に共通して
供給されている。これらの供給される画素データを用い
て色毎にそれぞれの仮想受光素子の画素における画素デ
ータを図18に示すフローチャートに従って補間する。こ
の場合、画素データG の補間処理をサブステップSS60で
最初に行う。このとき、図19に示すようにハニカム型G
正方格子RB完全市松のパターンを用いていることから、
既存の画素データG を有する画素は、実線の正方格子で
表す。また、画素データG を持たない画素、すなわち仮
想受光素子の対応する画素および既存の画素データを有
していながら、色G と異なる色の画素は、破線の正方格
子で表す。この画素データG を持たない画素を仮想画素
と呼ぶ。補間処理には、4つずつ既存の画素データを用
いる。Next, the operation of the subroutine SUB6 will be described. The subroutine SUB6 is performed by the plane interpolation developing unit 2444 as shown in FIG. The plane interpolation expansion unit 2444, the high frequency luminance data Y h Toko of high-frequency luminance data Y color interpolated corresponding to h of the pixel data generated by the subroutine SUB5 is supplied to each of the arithmetic processing unit. High frequency luminance data Y h is, R interpolation expansion unit 44, as is apparent from FIG. 4
a, the G interpolation developing section 44b, and the B interpolation developing section 44c are commonly supplied. Using these supplied pixel data, the pixel data of the pixel of each virtual light receiving element is interpolated for each color according to the flowchart shown in FIG. In this case, the interpolation processing of the pixel data G is first performed in sub-step SS60. At this time, as shown in FIG.
Since the square lattice RB perfect checkerboard pattern is used,
A pixel having existing pixel data G is represented by a solid square grid. Pixels having no pixel data G, that is, pixels having a color different from the color G while having corresponding pixels of the virtual light receiving element and existing pixel data, are represented by a square grid indicated by broken lines. A pixel having no pixel data G is called a virtual pixel. For the interpolation processing, existing pixel data is used four by four.
【0104】この関係を具体的に図19に示す。図19のパ
ターンが示すように、仮想画素G12,G14, G16, G21〜 G
26の一行, G32, G34, G36 を補間する場合、補間処理は
隣接する4つずつの画素データG11, G13, G31, G33や画
素データG13, G15, G33, G35等を用いる。また、補間に
用いる画素データG に対応する図17の高域輝度データも
用いて演算する。たとえば、補間対象である仮想画素の
画素データG21 の補間は、同一の列方向の2つの画素に
対応する既存データおよび高域輝度データならびに補間
対象位置の高域輝度データを用いてFIG. 19 shows this relationship specifically. As shown in the pattern of FIG. 19, the virtual pixels G 12 , G 14 , G 16 , G 21 to G 21
In the case of interpolating one line of 26 , G 32 , G 34 , G 36 , the interpolation processing is performed by four adjacent pixel data G 11 , G 13 , G 31 , G 33 and pixel data G 13 , G 15 , G 33 , G 35, etc. are used. The calculation is also performed using the high-frequency luminance data in FIG. 17 corresponding to the pixel data G used for the interpolation. For example, interpolated pixel data G 21 virtual pixel is interpolated using the high-frequency luminance data of existing data and high-luminance data and the position to be interpolated corresponding to two pixels of the same column
【0105】[0105]
【数10】 G21=(G11+G31)/2-(Yh11+Yh31)/2+Yh21 ・・・(13) から得られる。式(26)の計算式を用いると、仮想画素G
23 を補間することができる。また、仮想画素G12 の補
間は、同一の行方向の2つの画素に対応する既存データ
および高域輝度データならびに補間対象位置の高域輝度
データを用いてG 21 = (G 11 + G 31 ) / 2− (Y h11 + Y h31 ) / 2 + Y h21 (13) Using the equation of Equation (26), the virtual pixel G
23 can be interpolated. Also, the interpolation of the virtual pixel G 12, using the high-frequency luminance data of existing data and high-luminance data and the position to be interpolated corresponding to two pixels of the same row
【0106】[0106]
【数11】 G12=(G11+G13)/2-(Yh11+Yh13)/2+Yh12 ・・・(14) から得られる。式(27)の計算式を用いると、仮想画素G
32 を補間することができる。そして、4つずつの画素
データG11, G13, G31, G33の中心に位置する画素データ
G22 は、これら4つの位置の画素データおよび高域輝度
データを用いてG 12 = (G 11 + G 13 ) / 2− (Y h11 + Y h13 ) / 2 + Y h12 (14) Using the calculation formula of Expression (27), the virtual pixel G
32 can be interpolated. And pixel data located at the center of each of the four pixel data G 11 , G 13 , G 31 , G 33
G 22, using the pixel data and the high luminance data of these four positions
【0107】[0107]
【数12】 G22=(G11+G13+G31+G33)/4-(Yh11+Yh13+Yh31+Yh33)/4+Yh22 ・・・(15) から得られる。式(28)の計算式を用いると、仮想画素G
23 を補間することができる。画素データG13, G15,
G33, G35を4つを一組のデータとみなして補間する場
合、すでに画素データG23 は算出されているので、残る
画素データG14, G34, G25, G25を算出すればよい。この
処理を繰り返し行うことにより、画素データG のプレー
ン画像を作成する。ただし、プレーン画像の最外縁は、
このような関係にならないので、厳密に補間を行う場
合、境界値として設定しておくとよい。また、有効画面
を考慮すると、この周辺部のデータは有効画面の範囲外
にあるので算出しなくても構わない。Obtained from Equation 12] G 22 = (G 11 + G 13 + G 31 + G 33) / 4- (Y h11 + Y h13 + Y h31 + Y h33) / 4 + Y h22 ··· (15) . Using the calculation formula of Expression (28), the virtual pixel G
23 can be interpolated. Pixel data G 13 , G 15 ,
G 33, when the G 35 the four regarded as a set of data interpolation, already because the pixel data G 23 are calculated, by calculating the pixel data G 14, G 34, G 25 , G 25 remaining Good. By repeating this process, a plane image of the pixel data G is created. However, the outermost edge of the plain image is
Since such a relationship does not occur, it is preferable to set a boundary value when performing strict interpolation. In consideration of the effective screen, the data in the peripheral portion is out of the range of the effective screen, and thus need not be calculated.
【0108】次に画素データR の算出をサブステップSS
62で行う。この場合も既存データおよび演算によって算
出された画素データに対応する画素は、実線の正方格子
で表し、仮想画素は破線の正方格子で表す。画素データ
R における既存の画素データは、図20に示すようにR00,
R04, R22, R26, R40, R44しかない。この場合、サブス
テップSS62では、補間対象の仮想画素に対して斜めに隣
接している画素データとこの位置に対応する図17の高域
輝度データを用いる。たとえば、画素データR11 は、画
素データR00, R22および高域輝度データYh00, Yh22を用
いて、Next, the calculation of the pixel data R is performed in the sub-step SS.
Perform at 62. Also in this case, the pixels corresponding to the existing data and the pixel data calculated by the calculation are represented by a solid square grid, and the virtual pixels are represented by a broken square grid. Pixel data
Existing pixel data in R 1 is represented by R 00 ,
R 04, R 22, R 26 , R 40, R 44 only. In this case, in the sub-step SS62, the pixel data obliquely adjacent to the virtual pixel to be interpolated and the high-frequency luminance data of FIG. 17 corresponding to this position are used. For example, the pixel data R 11, using the pixel data R 00, R 22 and high-luminance data Y h00, Y h22,
【0109】[0109]
【数13】 R11=(R00+R22)/2-(Yh00+Yh22)/2+Yh11 ・・・(16) によって算出される。同様に、仮想画素R11, R31, R33
は、式(16)と同じ関係にそれぞれ画素データR04, R22、
画素データR40, R22および画素データR44, R22を適用し
て算出する。既存の画素データR26 も考慮して算出する
と、隣接斜め補間処理により仮想画素R15, R35も作成す
ることができる。この結果が図51に示されている。R 11 = (R 00 + R 22 ) / 2− (Y h00 + Y h22 ) / 2 + Y h11 (16) Similarly, virtual pixels R 11 , R 31 , R 33
Are the same as the pixel data R 04 , R 22 ,
It is calculated by applying the pixel data R 40 and R 22 and the pixel data R 44 and R 22 . If an existing pixel data R 26 is also calculated in consideration, it is possible to also create the virtual pixel R 15, R 35 by the adjacent diagonal interpolation process. The result is shown in FIG.
【0110】次にサブステップSS64では、一つ前のサブ
ステップSS62で算出された画素によって囲まれた画素を
補間対象の画素とし、補間に際して算出されたこれら4
つの画素データおよびその位置の高域輝度データを用い
て補間処理を行う。たとえば、画素データR24 を中心に
図21から判るように、その周囲の画素データR13, R15,
R33, R35の位置のデータを用いて、Next, in sub-step SS64, the pixel surrounded by the pixel calculated in the immediately preceding sub-step SS62 is set as the pixel to be interpolated, and the four pixels calculated in the interpolation are calculated.
Interpolation processing is performed using the two pixel data and the high-frequency luminance data at that position. For example, as can be seen from FIG. 21 around the pixel data R 24 , the surrounding pixel data R 13 , R 15 ,
Using the data of the positions of R 33 and R 35 ,
【0111】[0111]
【数14】 R24=(R13+R15+R33+R35)/4-(Yh13+Yh15+Yh33+Yh35)/4+Yh24 ・・・(17) によって算出される。式(29)と同等の関係が周辺の画素
から得られるとき、補間を施すことによって、図22に示
すように画素データR02, R20, R42 が得られる。換言す
ると、補間対象の画素にから見れば、補間に使用する画
素データはすべて斜めに位置している。Equation 14] R 24 = (R 13 + R 15 + R 33 + R 35) / 4- calculated by (Y h13 + Y h15 + Y h33 + Y h35) / 4 + Y h24 ··· (17) You. When a relationship equivalent to Expression (29) is obtained from peripheral pixels, pixel data R 02, R 20 , and R 42 are obtained by performing interpolation, as shown in FIG. In other words, from the viewpoint of the pixel to be interpolated, all the pixel data used for the interpolation are positioned obliquely.
【0112】次にサブステップSS66では、これまでに得
られた画素データを用いるとともに、これらの画素の
内、補間対象の画素に対して上下左右に位置する画素デ
ータから補間を行う。たとえば、画素データR12 を中心
に上下左右の4つの画素データおよびその位置の高域輝
度データを用いてNext, in sub-step SS66, pixel data obtained so far is used, and among these pixels, interpolation is performed from pixel data located at the top, bottom, left, and right with respect to the interpolation target pixel. For example, using a high-frequency luminance data of four pixel data and its vertical and horizontal positions around the pixel data R 12
【0113】[0113]
【数15】 R12=(R02+R11+R13+R22)/4-(Yh02+Yh11+Yh13+Yh22)/4+Yh12 ・・・(18) によって算出される。同様の位置関係にある画素データ
R14, R32, R14, R34は、式(17)に対応するデータを代入
すると算出できる。さらに、図22の右側に画素が継続し
ていると、画素データR16, R36も算出することができ
る。Equation 15] R 12 = (R 02 + R 11 + R 13 + R 22) / 4- calculated by (Y h02 + Y h11 + Y h13 + Y h22) / 4 + Y h12 ··· (18) You. Pixel data with similar positional relationship
R 14 , R 32 , R 14 , and R 34 can be calculated by substituting the data corresponding to Expression (17). Further, if pixels continue on the right side of FIG. 22, pixel data R 16 and R 36 can be calculated.
【0114】なお、図23に示すように周辺部には未補間
の仮想画素が残ってしまうので、この仮想画素に対して
周囲を囲む、たとえば3つの画素から補間するようにし
てもよい。この補間の場合も前述した補間の手法を用い
ると、仮想画素の画素データR01 は、Note that, as shown in FIG. 23, uninterpolated virtual pixels remain in the peripheral portion, so that the virtual pixels may be surrounded by, for example, three pixels. Also in the case of this interpolation, if the above-described interpolation method is used, the pixel data R 01 of the virtual pixel becomes
【0115】[0115]
【数16】 R01=(R00+R02+R11)/3-(Yh00+Yh02+Yh11)/3+Yh02 ・・・(19) によって算出される。このようにしてこの他、画素デー
タR03, R05, R10, R30,R41, R43, R45 が補間される。
最終的に画素データR に関するプレーン画面全体が補間
される。Equation 16] R 01 = (R 00 + R 02 + R 11) / calculated by 3- (Y h00 + Y h02 + Y h11) / 3 + Y h02 ··· (19). In this way, the pixel data R 03 , R 05 , R 10 , R 30 , R 41 , R 43 , and R 45 are interpolated.
Finally, the entire plane screen for the pixel data R is interpolated.
【0116】次に画素データB に対する補間処理がサブ
ステップSS68, SS70, SS72で行われる。サブステップSS
68, SS70, SS72は、それぞれ、画素データB における隣
接斜め補間処理、4つの補間データによる中央補間処理
および上下左右の4画素による中央補間処理である。こ
れらの補間処理は、前述した画素データR の補間処理
(すなわち、サブステップSS62, SS64, SS66)に準拠し
ている。これは、図20の画素データR と図24の画素デー
タB の画素配置の関係から判る。すなわち、図24の画素
データB の画素配置は、各色の添字に表される行列表示
から、図20の画素データR を水平(すなわち、行)方向
に2列ずつ全体にシフトした配置になっている。このこ
とから、これまで式(16)〜式(19)までの式を適用して仮
想画素を補間する場合、行列表示で列の数字が2以上の
右側で各画素データの添字の列の数字に+2だけ加算した
関係で算出を行うとよい。たとえば、画素データB13 や
画素データB33 は、式(29)の色R を色B に置換し、画素
データR00, R31の位置関係を画素データB02, B33にしてNext, an interpolation process for the pixel data B is performed in sub-steps SS68, SS70 and SS72. Sub-step SS
68, SS70, and SS72 are adjacent oblique interpolation processing on pixel data B, central interpolation processing using four pieces of interpolation data, and central interpolation processing using four pixels (up, down, left, and right). These interpolation processes are based on the above-described interpolation process of the pixel data R (that is, sub-steps SS62, SS64, and SS66). This can be seen from the relationship between the pixel arrangement of the pixel data R in FIG. 20 and the pixel data B in FIG. That is, the pixel arrangement of the pixel data B in FIG. 24 is such that the pixel data R in FIG. 20 is shifted by two columns in the horizontal (that is, row) direction as a whole from the matrix display represented by the subscript of each color. I have. From this, when the virtual pixels are interpolated by applying the expressions (16) to (19) so far, the number of the subscript column of each pixel data on the right side of two or more columns in the matrix display It is good to calculate by the relation which added +2 to. For example, the pixel data B 13 and the pixel data B 33 are obtained by replacing the color R in the equation (29) with the color B and setting the positional relationship between the pixel data R 00 and R 31 to pixel data B 02 and B 33.
【0117】[0117]
【数17】 B11+2=(B00+2+B22+2)/2-(Yh00+2+Yh22+2)/2+Yh11+2 B13=(B02+B24)/2-(Yh02+Yh24)/4+Yh13 ・・・(20) B31+2=(B22+2+B40+2)/2-(Yh22+2+Yh40+2)/4+Yh31+2 B33=(B24+B42)/2-(Yh24+Yh42)/4+Yh33 ・・・(21) のように演算処理することにより算出される。また、画
素データの行列表示における列の数字が2より小さい左
側で各画素データの補間処理を行う場合には、画素デー
タR04, R22を用いて画素データR13 を算出する関係を用
い、添字の数字から-2だけ減算させて算出するとよい。
たとえば、画素データB11 は、## EQU17 ## B 11 + 2 = (B 00 + 2 + B 22 + 2 ) / 2- (Y h00 + 2 + Y h22 + 2 ) / 2 + Y h11 + 2 B 13 = (B 02 + B 24 ) / 2- (Y h02 + Y h24 ) / 4 + Y h13・ ・ ・ (20) B 31 + 2 = (B 22 + 2 + B 40 + 2 ) / 2- (Y h22 + 2 + Y h40 + 2 ) / 4 + Y h31 + 2 B 33 = (B 24 + B 42 ) / 2- (Y h24 + Y h42 ) / 4 + Y h33・ ・ ・ (21) You. Further, when the number of columns in the matrix display of the pixel data to perform interpolation processing of each pixel data in less than 2 left, using the relation for calculating the pixel data R 13 by using the pixel data R 04, R 22, It is better to subtract -2 from the subscript number.
For example, pixel data B 11 is
【0118】[0118]
【数18】 B13-2=(B04-2+B22-2)/2-(Yh04-2+Yh22-2)/2+Yh13-2 B11=(B02+B20)/2-(Yh02+Yh20)/4+Yh11 ・・・(22) から得られる。他の式(17)〜式(19)においても同様の関
係が成立している。この関係に注意してサブステップSS
70, SS72で補間処理を行うと、画素データB に関するプ
レーン補間展開を行うことができる。この処理の後、サ
ブステップSS74に進む。( Equation 18) B 13-2 = (B 04-2 + B 22-2 ) / 2- (Y h04-2 + Y h22-2 ) / 2 + Y h13-2 B 11 = (B 02 + B 20 ) / 2- (Y h02 + Y h20 ) / 4 + Y h11 (22) A similar relationship holds in other equations (17) to (19). Be aware of this relationship
When the interpolation processing is performed in 70 and SS72, plane interpolation development for the pixel data B can be performed. After this processing, the flow advances to sub-step SS74.
【0119】サブステップSS74では、プレーン補間展開
が各色毎にすべて終了したかどうかの判定を行う。一連
の処理がまだ終了していないとき(No)、サブステップ
SS60に戻って処理を繰り返す。なお、各色毎にこの確認
処理を行ってもよい。また、一連の処理が終了したとき
(Yes )、リターンに移行する。この移行後、サブルー
チンSUB6の処理が終了し、サブルーチンSUB3に進む。In sub-step SS74, it is determined whether or not all the plane interpolation development has been completed for each color. When a series of processing is not completed yet (No), sub-step
Return to SS60 and repeat the process. Note that this confirmation processing may be performed for each color. When a series of processing is completed (Yes), the process returns to the return. After this transition, the processing of the subroutine SUB6 ends, and the process proceeds to the subroutine SUB3.
【0120】ここで、サブルーチンSUB6の処理により得
られた各データ等を信号が持つ周波数帯域を前出した図
8を用いて表し再び各信号について説明する。横軸は水
平方向の周波数軸(fh)で縦軸は垂直方向の周波数軸
(fV)である。図8のハニカム配置における空間周波数
表示から、市松状で完全に交互にR/B が入れ換わる2画
素ずつのパターンで配される関係により実線RBの分布で
表される。これに対して、画素G は、画素ずらしを含ん
だ4画素でストライプパターンに配されたことにより周
波数が高く、画素R/B の周波数が範囲内に含まれる。画
素G の空間周波数は、ほぼfs/4で水平方向および垂直方
向の周波数軸を通っている。補間処理により得られた高
域輝度信号Yhは、画素G, R/Bを含み、帯域をfs/2まで延
ばしている。このように記録信号処理部244aは、周波数
を高域に高めてこの信号を用いることにより、表示信号
処理部242aの信号で表示させる画像に比べて画質が一層
向上するRGB のプレーンデータを生成してマトリクス部
24b に出力する。Here, the data and the like obtained by the processing of the subroutine SUB6 will be described with reference to FIG. 8 showing the frequency band of the signal, and the signal will be described again. The horizontal axis is the horizontal frequency axis (f h ), and the vertical axis is the vertical frequency axis (f V ). From the spatial frequency display in the honeycomb arrangement of FIG. 8, it is represented by a solid line RB distribution according to a relationship arranged in a two-pixel pattern in which R / Bs are completely alternately switched in a checkered pattern. On the other hand, the frequency of the pixel G is high because the pixel G is arranged in a stripe pattern with four pixels including pixel shift, and the frequency of the pixel R / B is included in the range. The spatial frequency of pixel G passes through the horizontal and vertical frequency axes at approximately f s / 4. High frequency luminance signal Y h obtained by the interpolation process, pixel G, include R / B, and extend the bandwidth to f s / 2. As described above, the recording signal processing unit 244a raises the frequency to a higher frequency and uses this signal to generate RGB plane data whose image quality is further improved as compared with the image displayed by the signal of the display signal processing unit 242a. Matrix part
Output to 24b.
【0121】次にサブルーチンSUB3の動作を図25を用い
て説明する。サブステップSS30では、モード対応処理部
24a3から出力されたRGB データを用いてマトリクス処理
をマトリクス部24b で行う。このマトリクス処理により
輝度データY 、色差データ(R-Y), (B-Y)が生成される。
この処理後、サブステップSS32に進む。サブステップSS
32では、アパーチャ調整を施す。この処理はサブステッ
プSS72で行われる。アパーチャ調整は、図1のアパーチ
ャ調整部24c で行われている。このように処理されてア
パーチャ調整の施された輝度データY が得られる。この
処理後、サブステップSS34に進む。Next, the operation of the subroutine SUB3 will be described with reference to FIG. In sub-step SS30, the mode corresponding processing unit
Matrix processing is performed in the matrix unit 24b using the RGB data output from 24a3. By this matrix processing, luminance data Y and color difference data (RY) and (BY) are generated.
After this processing, the flow advances to sub-step SS32. Sub-step SS
At 32, the aperture is adjusted. This processing is performed in sub-step SS72. The aperture adjustment is performed by the aperture adjustment unit 24c in FIG. In this way, the luminance data Y 2 with the aperture adjustment is obtained. After this processing, the flow advances to sub-step SS34.
【0122】サブステップSS34では、供給される輝度デ
ータY 、色差データ(R-Y), (B-Y)に対して広帯域にわた
るLPF 処理(アンチエリアシングフィルタ処理)を施
す。この処理によって折り返し歪みの発生を抑制してい
る。この処理は、LPF 240d, 242d, 244dで行う。この処
理を経て輝度データY および色差データ信号(R-Y)=Cr,
(B-Y)=Cb が得られる。この処理の後、リターンに進
み、サブルーチンSUB3を終了して固体撮像装置10のメイ
ンルーチンに戻る。In the sub-step SS34, the supplied luminance data Y and color difference data (RY) and (BY) are subjected to LPF processing (anti-aliasing filter processing) over a wide band. By this processing, generation of aliasing distortion is suppressed. This process is performed by the LPFs 240d, 242d, and 244d. Through this processing, the luminance data Y and the color difference data signal (RY) = C r ,
(BY) = C b is obtained. After this processing, the process proceeds to the return, ends the subroutine SUB3, and returns to the main routine of the solid-state imaging device 10.
【0123】このように前述した処理を行うことによっ
て、得られた撮像信号を本来の解像度に比べて高解像度
の信号(データ)にすることができるとともに、たとえ
ば、色境界で生じていた偽信号を良好に抑圧することが
できる。これにより、得られる画像の画質をよりよい画
質にすることができる。By performing the above-described processing as described above, the obtained image pickup signal can be converted into a signal (data) having a higher resolution than the original resolution. Can be satisfactorily suppressed. Thereby, the image quality of the obtained image can be improved.
【0124】この固体撮像装置10は、多板方式にも適用
することができる。たとえば、光学系によって被写界像
が少なくとも、2つの撮像面にそれぞれ投影させる2板
式の場合について説明する。ここで、撮像面を形成する
受光素子を行方向と列方向で2次元配列されるととも
に、撮像面に投影された同一の被写界像を空間的に重ね
合わせた際に一方の2次元配列された受光素子と他方の
2次元配列された受光素子の対応する幾何学的な撮像面
形状の中心が行方向および列方向に半ピッチずつずれた
関係に配設されている。The solid-state imaging device 10 can be applied to a multi-plate system. For example, a description will be given of a case of a two-plate system in which an object image is projected onto at least two imaging surfaces by an optical system. Here, the light receiving elements forming the imaging surface are two-dimensionally arrayed in the row direction and the column direction, and one two-dimensional array is formed when the same object image projected on the imaging surface is spatially superimposed. The center of the corresponding geometric imaging surface shape of the arranged light receiving element and the other two-dimensionally arranged light receiving element is arranged so as to be shifted by a half pitch in the row direction and the column direction.
【0125】ここで、ハニカム配置を用いた複数組み合
わせた多板の色フィルタについて具体例を挙げて説明す
る。まず、光学系には分光手段として複数のプリズム
(図示せず)を接合してレンズからの透過光が撮像部18
に設けられた各光路上の受光部に送られる。この各受光
部の前には色フィルタCFが配設されている。ここで、受
光部が2つの2板式の場合、色フィルタCFは、色フィル
タCF1 および色フィルタCF2 を用いる。Here, a description will be given of a specific example of a multi-plate color filter in which a plurality of combinations using a honeycomb arrangement are used. First, a plurality of prisms (not shown) are joined to the optical system as spectral means, and light transmitted from the lens is transmitted to the imaging unit 18.
The light is sent to a light receiving unit on each optical path provided in the optical path. A color filter CF is provided in front of each light receiving unit. Here, when the light receiving section is a two-plate type, the color filter CF uses a color filter CF1 and a color filter CF2.
【0126】第1の色フィルタCFの場合、図26(a) に示
す色フィルタCF1 の色の空間配置は、G1とR の色を1行
毎に交互に配したハニカム配置にする。図26(b) に示す
色フィルタCF2 の色の空間配置は、G2とB の色を1行毎
に交互に用い、かつ色フィルタCF1 のG1の色の行にB の
色を配したハニカム配置にする。たとえば色フィルタCF
1 に対して色フィルタCF2 を行方向に1画素ピッチ分ず
らして貼り合わせると、図26(c) に示す色フィルタCFを
容易にハニカム型G 正方格子RB完全市松パターンにする
ことができる。図26(c) では、便宜上、G ストライプRB
完全市松パターンで表している。In the case of the first color filter CF, the spatial arrangement of the colors of the color filter CF1 shown in FIG. 26A is a honeycomb arrangement in which the colors of G 1 and R are alternately arranged for each row. Spatial arrangement of colors of color filters CF2 shown in FIG. 26 (b) using alternately the color of G 2 and B in each row, and we arranged color B to color line in G 1 of the color filter CF1 Use honeycomb arrangement. For example, color filter CF
When the color filter CF2 is attached to the color filter CF1 by shifting it by one pixel pitch in the row direction, the color filter CF shown in FIG. 26 (c) can be easily formed into a honeycomb type G square lattice RB complete checkerboard pattern. In FIG. 26 (c), for convenience, the G stripe RB
Expressed in a complete checkered pattern.
【0127】また、第2の色フィルタCFの場合、図26
(d) に示すようにハニカム配置の色フィルタCF1 をG の
色だけで構成し、色フィルタCF2 の色の空間配置は、図
26(e)に示すようにR とB の色を1行毎に交互に配した
ハニカム配置にする。この場合も、たとえば色フィルタ
CF1 に対して色フィルタCF2 を行方向に1画素ピッチ分
ずらして貼り合わせる。この貼り合わせにより、第2の
色フィルタCFを容易にベイヤパターンにすることができ
る(図26(f) を参照)。In the case of the second color filter CF, FIG.
As shown in (d), the honeycomb-arranged color filter CF1 is composed of only G colors, and the spatial arrangement of the color
As shown in FIG. 26 (e), a honeycomb arrangement is adopted in which the colors R and B are alternately arranged for each row. Again, for example, color filters
The color filter CF2 is attached to CF1 with a shift of one pixel pitch in the row direction. By this bonding, the second color filter CF can be easily formed into a Bayer pattern (see FIG. 26 (f)).
【0128】そして、第3の色フィルタCFは、前述した
第1の色フィルタの色フィルタCF1,CF2を用いる(図27
(a), (b)を参照)。第3の色フィルタCFは色フィルタCF
1, CF2の画素位置を完全に一致させて貼り合わせること
により、図27(c) に示すハニカム配置のパターンを形成
する。このように使用されている色フィルタCFは、受光
素子に対応してこの受光素子の前面に配置され、空間的
に重ね合わせた際に三原色RGB の色フィルタとなる色配
列となっている。このような関係にある撮像信号に前述
した信号処理を施すと、同様の効果、すなわち高画質、
かつ偽色の抑制された画像が得られる。As the third color filter CF, the above-described color filters CF1 and CF2 of the first color filter are used (FIG. 27).
(See (a), (b)). The third color filter CF is a color filter CF
By bonding the pixel positions of 1, CF2 so as to be completely coincident with each other, a pattern of a honeycomb arrangement shown in FIG. 27 (c) is formed. The color filter CF used in this manner is arranged on the front surface of the light receiving element corresponding to the light receiving element, and has a color arrangement that becomes a color filter of three primary colors RGB when spatially superimposed. When the above-described signal processing is performed on the imaging signal having such a relationship, a similar effect, that is, high image quality,
In addition, an image in which false colors are suppressed is obtained.
【0129】また、固体撮像装置10は面順次方式に用い
てもよい。この方式の固体撮像装置10は、受光素子が2
次元的に並べられた撮像部18と、撮像部18の撮像面に平
行な2次元平面内をたとえば横(X) 方向と縦(Y) 方向と
に移動させる移動機構31と、被写体と撮像部18との光路
間、たとえば撮像部18の直前に配されるハニカム配置の
複数の色フィルタCFと、複数の色フィルタCFから1枚の
色フィルタを選択して光路間への挿入を切り換える色フ
ィルタ切換機構32と、撮像部18からの出力を記録する記
録再生部33と、撮像部18および記録再生部33の出力に信
号処理を施すカラー信号処理部32とを備えている。Further, the solid-state imaging device 10 may be used in a frame sequential system. This type of solid-state imaging device 10 has two light receiving elements.
An imaging unit 18 arranged in a three-dimensional manner, a moving mechanism 31 for moving, for example, in a horizontal (X) direction and a vertical (Y) direction in a two-dimensional plane parallel to the imaging surface of the imaging unit 18, a subject and an imaging unit A plurality of color filters CF arranged in a honeycomb arrangement disposed between the optical paths with, for example, immediately before the imaging unit 18, and a color filter for selecting one color filter from the plurality of color filters CF and switching the insertion between the optical paths. A switching mechanism 32, a recording / reproducing unit 33 for recording the output from the imaging unit 18, and a color signal processing unit 32 for performing signal processing on the outputs of the imaging unit 18 and the recording / reproducing unit 33 are provided.
【0130】ここで、撮像部18、複数の色フィルタCFお
よびカラー信号処理部32は、前述した実施例で説明した
構成と同じように構成されている。特に、色フィルタCF
は、移動機構により撮像部18が移動させられるので、こ
の移動にしても撮像面がカバーされるように撮像面積よ
り大きく形成されている。Here, the imaging unit 18, the plurality of color filters CF, and the color signal processing unit 32 are configured in the same manner as the configuration described in the above embodiment. In particular, the color filter CF
Since the image capturing unit 18 is moved by the moving mechanism, the image capturing area is formed larger than the image capturing area so that the image capturing surface is covered even when the image capturing unit 18 is moved.
【0131】移動機構31は、撮像部18の微小な移動を使
用する色フィルタCFの種類に応じて行う。すなわち、移
動は色フィルタCFの画素ずらし分に対応して行う。微小
な制御が難しい場合、ずらす画素ピッチの関係には周期
性があるので適当な移動量に設定して調整するようにし
てもよい。この移動機構31としては、X-Y 方向にそれぞ
れ精度よく撮像部11を移動させるため、たとえばステッ
ピングモータ等の駆動部31a と、この駆動部31a からの
駆動力を伝達する歯車31b と、この歯車31b と噛合させ
て歯車31b の回転運動を並進運動に変換するラック31c
と、ステッピングモータの駆動部31a の動作を制御する
並進制御部31d とを用い、このラック31c 上に撮像部18
を載置する。撮像部18は、移動させても信号の入出力が
可能になるようにフレキシブル基板等を介して並進制御
部31d 、記録再生部33およびカラー信号処理部32と接続
している。このように構成することにより、色フィルタ
CFの種類に応じた移動を撮像部18にさせることができ
る。The moving mechanism 31 performs the minute movement of the image pickup section 18 according to the type of the color filter CF to be used. That is, the movement is performed in accordance with the pixel shift of the color filter CF. When minute control is difficult, the relationship between the pixel pitches to be shifted has periodicity, so that the adjustment may be performed by setting an appropriate movement amount. The moving mechanism 31 includes, for example, a driving unit 31a such as a stepping motor, a gear 31b transmitting a driving force from the driving unit 31a, and a gear 31b in order to move the imaging unit 11 with high accuracy in the XY directions. A rack 31c that meshes and converts the rotational motion of the gear 31b into a translational motion
And a translation control unit 31d for controlling the operation of the driving unit 31a of the stepping motor, and the imaging unit 18 is mounted on the rack 31c.
Is placed. The imaging unit 18 is connected to a translation control unit 31d, a recording / reproducing unit 33, and a color signal processing unit 32 via a flexible substrate or the like so that signals can be input and output even when the imaging unit 18 is moved. With this configuration, the color filter
The imaging section 18 can be moved according to the type of CF.
【0132】色フィルタ切換機構32は、複数の色フィル
タCFをフィルタ枚数を考慮して一定の角度毎に、かつ透
過可能なようにフィルタ開口部を円盤の同一半径位置に
設けた色フィルタ設置部32a と、円盤を回転中心の回り
に回転させる回転駆動部としてのモータ32b と、モータ
32b の動作を制御する回転制御部32c とを用いる。色フ
ィルタ設置部32a のフィルタ開口面は、撮像面と平行状
態を保つように配設させるとよい。また、モータに取り
付けられている回転軸32d は色フィルタ設置部32a の円
盤中心に開けられた貫通口に挿通する。回転軸32d はた
とえば接着剤等を貫通口に塗布して円盤と固着させてい
る。回転制御部32c は、一定の角度毎の回転駆動を行う
ように回転開始および回転終了を制御する。このように
制御することにより、色フィルタCFを要求に応じて切り
換えることができるようになる。The color filter switching mechanism 32 includes a color filter installation section in which a plurality of color filters CF are provided at regular intervals on a disk at regular angles in consideration of the number of filters and at the same radial position so as to allow transmission. 32a, a motor 32b as a rotation drive unit for rotating the disk around the center of rotation, and a motor
A rotation control unit 32c for controlling the operation of 32b is used. The filter opening surface of the color filter installation section 32a may be disposed so as to be kept parallel to the imaging surface. The rotating shaft 32d attached to the motor is inserted through a through hole formed at the center of the disk of the color filter installation portion 32a. The rotating shaft 32d is fixed to the disk by, for example, applying an adhesive or the like to the through hole. The rotation control unit 32c controls the rotation start and the rotation end so as to perform the rotation drive at a certain angle. By performing such control, the color filter CF can be switched as required.
【0133】記録再生部33には、たとえばSCSIインター
フェース等を介して画素データが供給される。記録再生
部33は色フィルタ切換機構および移動機構の動作の組合
せに応じてその都度、撮像部18から得られる信号が画素
データにされて記録される。したがって、一枚の画像を
作成するために撮像が複数回行われる。このように得ら
れた画素データが記録再生部23に記録されこの記録再生
部33から再生した画素データがカラー信号処理部12に供
給されると、前述した実施例のいずれかを行って色再現
・解像度が重視された高品質な画像が得られる。このよ
うに固体撮像装置10がカラー撮像対応の場合、ハニカム
配置の色フィルタCFおよび撮像部18が用いられるので、
製造工程での複雑な配置および調整を回避することがで
き、撮像素子(受光素子)上に配設していたオンチップ
カラーフィルタを設ける必要性をなくすことができる。The pixel data is supplied to the recording / reproducing section 33 via, for example, a SCSI interface or the like. The recording / reproducing unit 33 records a signal obtained from the imaging unit 18 as pixel data each time according to a combination of operations of the color filter switching mechanism and the moving mechanism. Therefore, imaging is performed a plurality of times to create one image. The pixel data thus obtained is recorded in the recording / reproducing unit 23, and when the pixel data reproduced from the recording / reproducing unit 33 is supplied to the color signal processing unit 12, color reproduction is performed by performing any of the above-described embodiments. -A high-quality image with an emphasis on resolution can be obtained. As described above, when the solid-state imaging device 10 is compatible with color imaging, since the color filter CF and the imaging unit 18 in the honeycomb arrangement are used,
The complicated arrangement and adjustment in the manufacturing process can be avoided, and the necessity of providing an on-chip color filter provided on the imaging device (light receiving device) can be eliminated.
【0134】また、単板式に限定されることなく、カラ
ー撮像装置は、ハニカム配置の色フィルタおよび撮像部
を2セット用いた2板式でもよく、このとき撮像部を白
黒の正方格子配置の高解像度撮像部とする面順次方式の
カラー撮像装置とみなすことができる。そして、移動の
都度、撮影した画像が一つ前に撮影した画像に対して幾
何学的な撮像面形状の中心を行方向および列方向に半ピ
ッチずつずらした関係が得られるようにしている。この
場合も供給される撮像信号に前述の信号処理を施して高
画質、かつ偽色(偽信号の発生)の抑制された画像を生
成することができる。The color imaging apparatus is not limited to the single-panel type, but may be a two-panel type using two sets of color filters and image pickup units arranged in a honeycomb configuration. It can be regarded as a color image pickup apparatus of a frame sequential type as an image pickup unit. Each time the image is moved, a relationship is obtained in which the center of the geometric imaging surface shape is shifted by a half pitch in the row direction and the column direction with respect to the image captured immediately before. In this case as well, the above-described signal processing is performed on the supplied imaging signal to generate an image with high image quality and suppressed false colors (generation of false signals).
【0135】このように構成することにより、ハニカム
型G 正方格子RB完全市松パターンのような場合におい
て、従来の高速読出しに比べてこの読出し処理による画
素数の減少を抑えて本来、配設されている色G の画素数
程度にするように画像データの生成を行い、読出し速度
の低下を招かないので、画像表示を高速でありながら、
提供する画像の画質を従来よりも向上させることができ
る。また、高速読出し、かつ画質の向上を図りながら、
色分解フィルタのパターンに由来する偽信号の発生を考
慮して読出し速度を低下させることなく、画像データを
読み出すことができる。これにより、画像データの高速
読出しと画質の向上との両方を満足させることができ
る。With such a configuration, in the case of a honeycomb type G square lattice RB complete checkerboard pattern, a reduction in the number of pixels due to this readout processing is suppressed as compared with the conventional high-speed readout, so that the arrangement is originally performed. The image data is generated so that the number of pixels of the color G is about the same, and the reading speed is not reduced.
The image quality of the provided image can be improved as compared with the related art. In addition, while trying to read at high speed and improve the image quality,
Image data can be read without reducing the reading speed in consideration of the generation of a false signal derived from the pattern of the color separation filter. As a result, both high-speed reading of image data and improvement of image quality can be satisfied.
【0136】さらに、この高速読出しと高画質対応との
いずれを優先させるかに応じて区別して動作させること
により、ユーザの要求に対応した処理を行うこともでき
る。Further, by performing the operation in accordance with which one of the high-speed readout and the high-quality readout is prioritized, it is possible to perform a process corresponding to the user's request.
【0137】この他、色分解フィルタを単板だけでな
く、複数の多板で構成したり、面順次方式の固体撮像装
置でも、高速読出しおよび高画質対応の処理が前述と同
様に行うことができる。In addition, the color separation filter can be constituted not only by a single plate but also by a plurality of plates, and even in a solid-state image pickup device of a plane sequential system, processing for high-speed reading and high image quality can be performed in the same manner as described above. it can.
【0138】[0138]
【発明の効果】このように本発明の固体撮像装置によれ
ば、色分解手段に対応して配設されている、撮像手段の
受光素子で受光し、得られた撮像出力をディジタル変換
手段でディジタル信号のデータに変換し、記憶手段に画
像データを記憶する。この後、記憶手段には、画像選択
手段により読み出す画像の選択が行われる。記憶手段
は、選択した信号を信号処理手段に出力する。信号処理
手段では、画像の解像度または画像の読出し速度の設定
のうち、優先するモードに応じた信号処理が制御手段に
より行われることにより、ユーザがより優先する方の要
求に応じた信号処理を施して出力させることができる。
特に、従来の高速読出しに比べてこの読出し処理による
画素数の減少を抑えて本来、配設されている色G の画素
数程度にするように画像データの生成を行い、画像の生
成を行いながら、読出し速度の低下を招かないので、画
像表示を高速でありながら、提供する画像の画質を従来
よりも向上させることができる。As described above, according to the solid-state imaging device of the present invention, light is received by the light receiving element of the imaging means provided corresponding to the color separation means, and the obtained imaging output is converted by the digital conversion means. The image data is converted into digital signal data and stored in the storage means. Thereafter, an image to be read is selected in the storage unit by the image selection unit. The storage unit outputs the selected signal to the signal processing unit. In the signal processing means, of the setting of the image resolution or the image reading speed, the signal processing according to the priority mode is performed by the control means, so that the user performs the signal processing according to the request of the user who has higher priority. Output.
In particular, image data is generated such that the number of pixels due to this readout process is suppressed from being reduced as compared with the conventional high-speed readout so that the number of pixels is originally about the number of pixels of the color G, and image generation is performed. Since the reading speed does not decrease, the image quality of the provided image can be improved as compared with the related art while the image display speed is high.
【0139】また、本発明の画像データ作成方法によれ
ば、最終的な画像の解像度または画像の読出し速度を考
慮してモードを設定し、色分解され、得られた信号電荷
をレベル電圧で表される信号に変換して読み出す。この
信号をディジタルのデータに変換した後、複数の画像を
記憶し、読出しに際しては記憶されている撮像した画像
を選択する。選択した画像には、設定したモードに応じ
た信号処理が施されるので、ユーザがより優先する方の
要求に応じた信号処理を施して出力させることができ
る。特に、従来の高速読出しに比べてこの読出し処理に
よる画素数の減少を抑えて画像の生成を行いながら、読
出しの制御により原色RGB を読み出してるので、読出し
速度の低下を招かず、画像表示を高速でありながら、提
供する画像の画質を従来よりも向上させることができ
る。Further, according to the image data generating method of the present invention, a mode is set in consideration of the resolution of the final image or the image reading speed, the color separation is performed, and the obtained signal charges are represented by the level voltage. And read it out. After converting this signal into digital data, a plurality of images are stored, and the stored captured image is selected for reading. Since the selected image is subjected to the signal processing according to the set mode, the user can perform the signal processing according to the request that the user has higher priority and output the processed image. In particular, since the primary color RGB is read by reading control while generating an image while suppressing the decrease in the number of pixels due to this reading process as compared with the conventional high-speed reading, the reading speed is not reduced and the image display is performed at high speed. However, the image quality of the provided image can be improved as compared with the related art.
【図1】本発明に係る固体撮像装置をディジタルスチル
カメラに適用した際の概略的な構成を示すブロック図で
ある。FIG. 1 is a block diagram showing a schematic configuration when a solid-state imaging device according to the present invention is applied to a digital still camera.
【図2】図1の色分解フィルタに用いるハニカム型 G
正方格子RB完全市松パターンの配置を示す模式図であ
る。FIG. 2 shows a honeycomb type G used for the color separation filter of FIG.
FIG. 3 is a schematic diagram showing an arrangement of a square lattice RB perfect checkerboard pattern.
【図3】図1の記録信号処理部の概略的な構成を示すブ
ロック図である。FIG. 3 is a block diagram illustrating a schematic configuration of a recording signal processing unit in FIG. 1;
【図4】図3のプレーン補間展開部の概略的な構成を示
すブロック図である。FIG. 4 is a block diagram illustrating a schematic configuration of a plane interpolation developing unit in FIG. 3;
【図5】図1のディジタルスチルカメラの動作を説明す
るメインフローチャートである。FIG. 5 is a main flowchart for explaining the operation of the digital still camera in FIG. 1;
【図6】図5のメインフローチャートにおけるサブルー
チンSUB1の動作を説明するフローチャートである。FIG. 6 is a flowchart illustrating an operation of a subroutine SUB1 in the main flowchart of FIG.
【図7】図6のサブルーチンSUB1の画素データの読出し
処理を説明する模式図で、(a)撮像部の色の属性を含め
た画素配置と、(b) この画素配置でグループ化して読み
出す画素の関係を示す模式図である。7A and 7B are schematic diagrams illustrating pixel data reading processing of a subroutine SUB1 in FIG. 6; FIG. 7A illustrates a pixel arrangement including a color attribute of an imaging unit; and FIG. It is a schematic diagram which shows the relationship of.
【図8】図1のディジタルスチルカメラで生成される色
毎の画像データが有する空間周波数の関係を示すグラフ
である。FIG. 8 is a graph showing a relationship between spatial frequencies of image data for each color generated by the digital still camera of FIG. 1;
【図9】図1の表示信号処理部の変形例の概略的な構成
を示すブロック図である。FIG. 9 is a block diagram illustrating a schematic configuration of a modification of the display signal processing unit in FIG. 1;
【図10】図9の表示信号処理部で行われる色R, Bの演
算において、(a) 用いる画素データの関係を示す模式図
と、(b) 色G に対応して算出された画素データとの関係
を説明する模式図である。10A and 10B are schematic diagrams showing a relationship between pixel data used in calculation of colors R and B performed in the display signal processing unit in FIG. 9; FIG. 4 is a schematic diagram illustrating the relationship between
【図11】図6のメインフローチャートにおけるサブル
ーチンSUB2の動作を説明するフローチャートである。FIG. 11 is a flowchart illustrating an operation of a subroutine SUB2 in the main flowchart of FIG.
【図12】図11のサブルーチンSUB2で用いるサブルーチ
ンSUB4の動作を説明するフローチャートである。FIG. 12 is a flowchart illustrating an operation of a subroutine SUB4 used in the subroutine SUB2 of FIG.
【図13】図12のサブルーチンSUB4において各接続子以
降の動作を説明するフローチャートである。FIG. 13 is a flowchart illustrating an operation after each connector in a subroutine SUB4 of FIG. 12;
【図14】図7(a) の画素配置をより具体的に、(a) は
実在する画素と仮想画素との関係を説明する模式図で、
(b) は輝度データY の作成される画素を示す模式図であ
る。14A is a schematic diagram illustrating the relationship between a real pixel and a virtual pixel, more specifically, the pixel arrangement of FIG. 7A; FIG.
(b) is a schematic diagram showing pixels for which luminance data Y is created.
【図15】図11のサブルーチンSUB2で用いるサブルーチ
ンSUB5の動作を説明するフローチャートである。FIG. 15 is a flowchart illustrating an operation of a subroutine SUB5 used in the subroutine SUB2 of FIG. 11;
【図16】図15のサブルーチンSUB5において行われるLP
F 処理を説明する模式図である。FIG. 16 shows an LP performed in subroutine SUB5 of FIG.
It is a schematic diagram explaining F process.
【図17】図15のサブルーチンSUB5において生成された
高域輝度データYhの関係を説明する模式図である。17 is a schematic diagram illustrating the relationship between the high-frequency luminance data Y h generated in the subroutine SUB5 in Figure 15.
【図18】図11のサブルーチンSUB2で用いるサブルーチ
ンSUB6の動作を説明するフローチャートである。FIG. 18 is a flowchart illustrating an operation of a subroutine SUB6 used in the subroutine SUB2 of FIG.
【図19】図11のサブルーチンSUB6での画素データG に
関する補間対象の画素と既存の画素の位置関係を示す模
式図である。19 is a schematic diagram showing a positional relationship between a pixel to be interpolated with respect to pixel data G in a subroutine SUB6 of FIG. 11 and an existing pixel.
【図20】図11のサブルーチンSUB6での画素データR に
関する補間対象の画素と既存の画素の位置関係を示す模
式図である。20 is a schematic diagram showing a positional relationship between a pixel to be interpolated with respect to pixel data R in a subroutine SUB6 of FIG. 11 and an existing pixel.
【図21】図20の位置関係に隣接斜め補間処理した結果
を加えた際の位置関係を示す模式図である。21 is a schematic diagram showing a positional relationship when the result of the adjacent oblique interpolation processing is added to the positional relationship of FIG. 20;
【図22】図21の位置関係に隣接斜め補間処理により得
られた4つの画素データを用いて補間処理した結果を加
えた際の位置関係を示す模式図である。22 is a schematic diagram illustrating a positional relationship when the result of the interpolation process using four pixel data obtained by the adjacent oblique interpolation process is added to the positional relationship of FIG. 21;
【図23】図21の位置関係に補間対象の画素に対して上
下左右に位置する画素データを用いて補間処理した結果
を加えた際の位置関係を示す模式図である。FIG. 23 is a schematic diagram showing a positional relationship when a result of performing interpolation processing using pixel data positioned vertically, horizontally, and horizontally with respect to a pixel to be interpolated is added to the positional relationship of FIG. 21;
【図24】図11のサブルーチンSUB6での画素データB に
関する補間対象の画素と既存の画素の位置関係を示す模
式図である。24 is a schematic diagram showing a positional relationship between a pixel to be interpolated and an existing pixel regarding pixel data B in a subroutine SUB6 of FIG. 11;
【図25】図5のメインフローチャートにおけるサブル
ーチンSUB3の動作を説明するフローチャートである。FIG. 25 is a flowchart illustrating an operation of a subroutine SUB3 in the main flowchart of FIG. 5;
【図26】本発明の固体撮像装置に適用する色フィルタ
を2板構成にした際に用いる色のパターン配置とこれら
のパターン配置を合成して得られる空間配置の関係を示
す模式図である。FIG. 26 is a schematic diagram showing a relationship between color pattern arrangements used when a color filter applied to the solid-state imaging device of the present invention has a two-plate configuration and spatial arrangements obtained by combining these pattern arrangements.
【図27】図26と同じく固体撮像装置に適用する色フィ
ルタを2板構成にした際に用いる色のパターン配置とこ
れらのパターン配置を合成して得られる空間配置の関係
を示す模式図である。FIG. 27 is a schematic diagram showing a relationship between color pattern arrangements used when a color filter applied to a solid-state imaging device has a two-plate configuration and spatial arrangements obtained by combining these pattern arrangements, similarly to FIG. 26; .
10 ディジタルスチルカメラ 12 光学系 14 レリーズシャッタ 16 システム制御部 18 撮像部 20 A/D 変換部 22 バッファメモリ 24 信号処理部 26 モード設定部 28 画像選択部 24a モード対応処理部 24b マトリクス部 24c アパーチャ調整部 24d フィルタ部 240a 出力先切換部 242a 表示信号処理部 244a 記録信号処理部 2420 アドレス制御部 2440 輝度データ作成部 2442 高域輝度データ作成部 2444 プレーン補間展開部 10 Digital still camera 12 Optical system 14 Release shutter 16 System control unit 18 Imaging unit 20 A / D conversion unit 22 Buffer memory 24 Signal processing unit 26 Mode setting unit 28 Image selection unit 24a Mode-compatible processing unit 24b Matrix unit 24c Aperture adjustment unit 24d filter unit 240a output destination switching unit 242a display signal processing unit 244a recording signal processing unit 2420 address control unit 2440 luminance data generation unit 2442 high-frequency luminance data generation unit 2444 plane interpolation development unit
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C051 AA01 BA03 DA06 DB01 DB23 DC02 DC04 DE11 EA01 5C065 AA03 BB10 BB48 CC01 CC02 CC03 DD02 DD15 EE06 GG03 GG13 GG18 GG21 ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5C051 AA01 BA03 DA06 DB01 DB23 DC02 DC04 DE11 EA01 5C065 AA03 BB10 BB48 CC01 CC02 CC03 DD02 DD15 EE06 GG03 GG13 GG18 GG21
Claims (17)
段と、 該集光手段を介して入射する入射光を三原色RGB 色分解
する色フィルタが色G正方格子状に配され、色G を挟ん
で対角位置に同色R,またはB が配される完全市松パター
ンに配された色分解手段と、 行および列方向に配列され、該色分解手段で色分解され
た入射光を受光して、該入射光に応じた信号電荷を生成
する複数の受光素子とを含む撮像手段を有し、 前記複数の受光素子のそれぞれは、隣接する互いの受光
素子に対して、各受光素子の幾何学的な形状の中心が互
いに行方向および/または列方向に該受光素子のピッチ
の半分に相当する距離だけずれて配され、 前記複数の受光素子からの撮像出力をディジタル信号の
データに変換するディジタル変換手段と、 該ディジタル変換手段から前記データを複数の画像分記
憶する記憶手段と、 該記憶手段からの撮像した画像に対して設定される複数
のモードのうち、前記画像の解像度または画像の読出し
速度の設定に応じてモードの設定を行うモード設定手段
と、 前記記憶手段からの前記画像を読み出す際の画像を選択
する画像選択手段と、 該画像選択手段で選択した画像に設定したモードに応じ
た信号処理を施す信号処理手段と、 前記撮像手段および前記ディジタル変換手段を制御する
とともに、前記モード設定手段および画像選択手段から
それぞれ供給される情報に応じて前記信号処理手段を制
御する制御手段とを含むことを特徴とする固体撮像装
置。1. A light condensing means for condensing incident light from an object scene, and a color filter for separating RGB light into three primary colors, which are incident through the light condensing means, are arranged in a color G square lattice. Color separation means arranged in a complete checkered pattern in which the same color R or B is arranged at diagonal positions across the color G; and the incident light which is arranged in the row and column directions and color separated by the color separation means. A plurality of light receiving elements that receive light and generate signal charges corresponding to the incident light, wherein each of the plurality of light receiving elements is a light receiving element with respect to an adjacent light receiving element. The centers of the geometric shapes of the light receiving elements are arranged in the row direction and / or the column direction so as to be shifted from each other by a distance corresponding to a half of the pitch of the light receiving elements. Digital conversion means for converting, and the digital conversion means And a storage unit for storing the data for a plurality of images from among the plurality of modes set for the captured images from the storage unit, according to the setting of the resolution of the image or the reading speed of the image. Mode setting means for performing setting, image selecting means for selecting an image when reading the image from the storage means, signal processing means for performing signal processing according to the mode set for the image selected by the image selecting means And a control means for controlling the image processing means and the digital conversion means, and controlling the signal processing means in accordance with information supplied from the mode setting means and the image selection means, respectively. Imaging device.
ード設定手段は、前記信号処理手段に対して、前記記憶
手段からの出力を瞬間的に表示する第1のモードと、該
第1のモードに比して前記記憶手段からの出力を解像度
の高い表示あるいは前記画像を記録する記録媒体への記
録のいずれかに用いる第2のモードの設定が行われるこ
とを特徴とする固体撮像装置。2. The apparatus according to claim 1, wherein said mode setting means includes: a first mode for displaying an output from said storage means to said signal processing means instantaneously; A solid-state imaging device, wherein a second mode is set in which an output from the storage unit is used for either display with a high resolution or recording on a recording medium for recording the image as compared with the mode.
号処理手段は、前記第1のモードで前記記憶手段から撮
像した画像を読み出す際のサンプリングにより信号処理
を施す第1の信号処理手段と、 前記第2のモードで前記記憶手段からの出力を用いて周
波数的に高い輝度データを生成するとともに、該輝度デ
ータと前記ディジタル変換手段を介して供給されるデー
タとを用いて受光素子間のデータも補間した信号処理を
施す第2の信号処理手段と、 前記記憶手段の出力を前記制御手段の制御により切り換
えて前記第2の信号処理手段に供給する出力先選択手段
と、 前記第1の信号処理手段または前記第2の信号処理手段
からの出力を用いて輝度データ、色差データを生成する
マトリクス手段と、 該マトリクス手段からの出力のうちで、前記輝度データ
に対して輪郭強調処理を施すアパーチャ調整手段と、 該アパーチャ調整手段からの出力および前記マトリクス
手段からの色差データにそれぞれ帯域制限を施すフィル
タ処理手段とを含むことを特徴とする固体撮像装置。3. The apparatus according to claim 1, wherein the signal processing means performs signal processing by sampling when reading an image captured from the storage means in the first mode. Generating high-frequency luminance data using the output from the storage means in the second mode, and using the luminance data and data supplied via the digital conversion means to generate a luminance signal between light receiving elements. A second signal processing unit that performs signal processing that also interpolates data; an output destination selection unit that switches an output of the storage unit under the control of the control unit and supplies the output to the second signal processing unit; Matrix means for generating luminance data and chrominance data using the output from the signal processing means or the second signal processing means; and among the outputs from the matrix means, A solid-state imaging device comprising: aperture adjustment means for performing contour enhancement processing on luminance data; and filter processing means for band-limiting each of the output from the aperture adjustment means and the color difference data from the matrix means. .
1の信号処理手段は、前記記憶手段に記憶されている色
G に対して斜め方向に配されるとともに、同一の行方向
に配される色R, Gを該色G の位置における三原色の組合
せデータとしてサンプリングを行う第1抽出手段を含
み、 前記第1の抽出手段は、前記組合せデータの色R, Gの少
なくとも一つが隣接する組合せデータを重複してサンプ
リングが行われることを特徴とする固体撮像装置。4. The apparatus according to claim 3, wherein said first signal processing means includes a color signal stored in said storage means.
A first extracting unit that is arranged obliquely with respect to G and samples the colors R and G arranged in the same row direction as combination data of three primary colors at the position of the color G; The solid-state imaging device, wherein the extraction unit performs sampling by overlapping the combination data in which at least one of the colors R and G of the combination data is adjacent.
1の信号処理手段は、前記記憶手段に記憶されている色
G に対して斜めに配される同一色R または Bのデータを
該色G の位置におけるデータとしてサンプリングを行う
第2抽出手段と、 該第2抽出手段により抽出されたデータを用いて、該デ
ータの加算平均で色R,Bがそれぞれ算出されるRB演算手
段とを含み、 前記RB演算手段での算出値を該色G の位置における三原
色を表す組合せデータとされることを特徴とする固体撮
像装置。5. The apparatus according to claim 3, wherein said first signal processing means includes a color storage means for storing a color stored in said storage means.
Second extracting means for sampling data of the same color R or B arranged obliquely with respect to G as data at the position of the color G, and using the data extracted by the second extracting means, RB calculation means for calculating the colors R and B respectively by the addition and averaging of the solid-state imaging device, wherein the value calculated by the RB calculation means is combined data representing the three primary colors at the position of the color G. apparatus.
2の信号処理手段は、前記第2のモードでの受光素子か
らの信号のサンプリングにおいて、前記受光素子からの
撮像信号に基づいて前記受光素子の空隙位置に対応する
画素データを補間する信号処理を施すとともに、補間さ
れた画素データを含む画素データから輝度データおよび
色データを生成する際に、 前記記憶手段からの出力に基づいて前記受光素子の存在
する位置における輝度データを作成する第1の輝度演算
手段と、 該第1の輝度演算手段からの水平および/または垂直方
向に位置する輝度データに基づいて前記受光素子の空領
域を仮想受光素子とした際に該仮想受光素子における輝
度データを作成する第2の輝度演算手段と、 該第2の輝度演算手段で作成された輝度データと前記受
光素子から得られたRGB の各色データを用いて各色にお
ける画面全体のプレーンデータを作成するプレーン演算
手段とを含むことを特徴とする固体撮像装置。6. The apparatus according to claim 3, wherein the second signal processing means is configured to perform the sampling of a signal from the light receiving element in the second mode based on an image signal from the light receiving element. While performing signal processing to interpolate pixel data corresponding to the gap position of the light receiving element, when generating luminance data and color data from pixel data including the interpolated pixel data, based on the output from the storage means First brightness calculating means for creating brightness data at a position where the light receiving element is present; and empty space of the light receiving element based on the horizontal and / or vertical brightness data from the first brightness calculating means. A second brightness calculating means for creating brightness data in the virtual light receiving element when the virtual light receiving element is used; and a brightness data created by the second brightness calculating means. A solid-state imaging device, comprising: plane calculation means for creating plane data of the entire screen in each color using each color data of RGB obtained from the light receiving element.
の装置において、前記光学系に前記入射光の光路を複数
に分ける分光手段と、 該分光手段からの分光をそれぞれ色分解して受光する複
数の撮像手段とを含み、 前記撮像手段に対応して色分解手段を単独の色毎の色フ
ィルタあるいは複数の色を組合せた色フィルタにして用
い、空間的に重ね合わせた色パターンがG 正方格子状に
配され、色G を挟んで対角位置に同色R,またはB が配さ
れる完全市松パターンにされることを特徴とする固体撮
像装置。7. The apparatus according to claim 1, wherein the optical system splits the optical path of the incident light into a plurality of light paths, and separates the spectral light from the spectral means into colors. A plurality of image pickup means for receiving light; a color separation means corresponding to the image pickup means is used as a color filter for each single color or a color filter combining a plurality of colors; G A solid-state imaging device which is arranged in a square lattice pattern and has a complete checkerboard pattern in which the same color R or B is arranged diagonally across the color G 1.
の装置において、前記光学系と2次元配列された受光素
子との間に挿入される色フィルタ手段を切り換える色フ
ィルタ切換手段と、 前記受光素子が形成する撮像面に平行な2次元平面内で
前記受光素子の2次元配列された受光部を移動させる移
動手段と、 該移動手段により前記受光部を複数回にわたって移動さ
せながら、該移動の都度、撮影した画像を面順次に記録
する記録手段とを含み、 前記移動の都度、撮影した画像が一つ前に撮影した画像
に対して幾何学的な撮像面形状の中心を行方向および列
方向に半ピッチずつずらした関係が得られ、かつ空間的
に重ね合わせた色パターンがG 正方格子状に配され、色
G の間で対角位置に色RBが配される完全市松パターンに
されることを特徴とする固体撮像装置。8. The apparatus according to claim 1, wherein a color filter switching means for switching a color filter means inserted between the optical system and the two-dimensionally arranged light receiving elements; A moving means for moving a light receiving unit two-dimensionally arrayed in the light receiving element within a two-dimensional plane parallel to an imaging surface formed by the light receiving element; and Recording means for recording a photographed image in a frame-sequential manner each time the image is moved; and And a relationship shifted by a half pitch in the column direction is obtained, and the spatially superimposed color patterns are arranged in a G square
A solid-state image pickup device characterized by a complete checkerboard pattern in which colors RB are arranged diagonally between G 1.
光を三原色RGB に色分解する色フィルタを介し、さら
に、該入射光を光電変換する、用意した複数の受光素子
のそれぞれが、隣接する互いの受光素子に対して、各受
光素子の幾何学的な形状の中心が互いに行方向および/
または列方向に該受光素子のピッチの半分に相当する距
離だけずれて配された、受光素子によって得られた信号
電荷に基づいて前記被写界の画像データを生成する画像
データ生成方法において、該方法は、 前記撮像した画像に対して設定する複数のモードのう
ち、最終的な画像の解像度または画像の読出し速度を考
慮して一のモードを設定するモード設定工程と、 前記色フィルタが一方の色G を正方格子状に配され、該
色フィルタの色G を挟んで対角位置に同色R,またはB が
配される完全市松パターンにより色分解され、前記受光
素子で得られた信号電荷をレベル電圧で表される信号に
変換して読み出す撮像工程と、 該撮像工程により得られた出力をディジタル信号のデー
タに変換するディジタル変換工程と、 該ディジタル変換工程で得られたデータを複数の画像
分、記憶させる画像記憶工程と、 該画像記憶工程で記憶されている撮像した画像を選択す
る画像選択工程と、 該画像選択工程で選択した画像に、設定したモードに応
じた信号処理を施して画像データを生成する信号処理工
程とを含むことを特徴とする画像データ作成方法。9. Each of a plurality of light-receiving elements prepared for converging incident light from an object scene, passing through a color filter that separates the incident light into three primary colors RGB, and further photoelectrically converting the incident light. However, with respect to adjacent light receiving elements, the center of the geometrical shape of each light receiving element is shifted in the row direction and / or
Or an image data generating method for generating image data of the object scene based on signal charges obtained by a light receiving element, which is arranged by being shifted by a distance corresponding to a half of a pitch of the light receiving element in a column direction. The method includes: a mode setting step of setting one mode in consideration of a final image resolution or an image reading speed among a plurality of modes to be set for the captured image; and The color G is arranged in a square lattice, and the color G is separated by a complete checkerboard pattern in which the same color R or B is arranged diagonally across the color G of the color filter, and the signal charge obtained by the light receiving element is An imaging step of converting and reading out a signal represented by a level voltage; a digital conversion step of converting an output obtained in the imaging step into digital signal data; An image storage step of storing data for a plurality of images; an image selection step of selecting a captured image stored in the image storage step; and an image corresponding to a mode set in the image selected in the image selection step. A signal processing step of performing signal processing to generate image data.
モード設定工程は、前記撮像した画像を瞬間的に表示す
る第1のモードと、該第1のモードに比して前記記憶手
段からの出力を解像度の高い表示あるいは前記画像を記
録する記録媒体への記録のいずれかに用いる第2のモー
ドの設定を行うことを特徴とする画像データ作成方法。10. The method according to claim 9, wherein the mode setting step includes: a first mode for displaying the captured image instantaneously; and a mode from the storage means as compared to the first mode. An image data creation method, comprising setting a second mode in which output is used for either display with high resolution or recording on a recording medium for recording the image.
信号処理工程は、前記第1のモードと前記第2のモード
とに対応して前記画像記憶工程で記憶したデータの読出
し先を切り換える出力先切り換え工程と、 前記第1のモードにおいて前記画像記憶工程で撮像した
画像を読み出す際にサンプリングを行う第1の信号処理
工程と、 前記第2のモードにおいて前記画像記憶工程により得ら
れた出力を用いて周波数的に高い輝度信号を生成すると
ともに、該輝度信号と前記画像記憶工程から供給された
データとを用いて受光素子間のデータも補間した信号処
理を施す第2の信号処理工程と、 前記第1の信号処理工程または前記第2の信号処理工程
により得られた出力を用いて輝度データ、色差データを
生成するマトリクス工程と、 該マトリクス手段からの出力のうちで、前記輝度データ
に対して輪郭強調処理を施すアパーチャ調整工程と、 該アパーチャ調整工程からの出力および前記マトリクス
手段からの色差データにそれぞれ帯域制限を施すフィル
タ処理工程とを含むことを特徴とする画像データ作成方
法。11. The method according to claim 9, wherein said signal processing step switches an output destination of data stored in said image storage step in accordance with said first mode and said second mode. A first switching step; a first signal processing step of performing sampling when reading an image captured in the image storage step in the first mode; and an output obtained by the image storage step in the second mode. A second signal processing step of generating a high-frequency luminance signal by using the luminance signal and data supplied from the image storage step, and performing signal processing in which data between light-receiving elements is also interpolated, A matrix step of generating luminance data and color difference data using an output obtained in the first signal processing step or the second signal processing step; An aperture adjusting step of performing an outline emphasizing process on the luminance data among the outputs from the stages; and a filtering step of performing band limiting on the output from the aperture adjusting step and the color difference data from the matrix means. A method for creating image data, comprising:
記第1の信号処理工程は、前記画像記憶工程において記
憶されている色G に対して斜め方向に配されるととも
に、同一の行方向に配される色R, Gを該色G の位置にお
ける三原色の組合せデータとしてサンプリングを行う第
1抽出工程を含み、 前記第1の抽出工程は、前記組合せデータの色R, Gの少
なくとも一つが隣接する組合せデータを重複してサンプ
リングを行うことを特徴とする画像データ作成方法。12. The method according to claim 11, wherein the first signal processing step is arranged obliquely with respect to the color G stored in the image storing step and in the same row direction. A first extraction step of sampling the arranged colors R and G as combination data of the three primary colors at the position of the color G, wherein the first extraction step is such that at least one of the colors R and G of the combination data is adjacent An image data creation method characterized by performing sampling by duplicating combination data to be processed.
記第1の信号処理工程は、前記画像記憶工程において記
憶されている色G に対して斜めに配される同一色R また
は Bのデータを該色G の位置におけるデータとしてサン
プリングを行う第2抽出工程と、 該第2抽出工程により抽出されたデータを用いて、該デ
ータの加算平均で色R,Bをそれぞれ算出するRB演算工程
とを含み、 前記RB演算工程での算出値を該色G の位置における三原
色を表す組合せデータとすることを特徴とする画像デー
タ作成方法。13. The method according to claim 11, wherein the first signal processing step includes the processing of the same color R or B data obliquely arranged with respect to the color G stored in the image storing step. A second extraction step of performing sampling as data at the position of the color G; and an RB calculation step of calculating colors R and B by an averaging of the data using the data extracted in the second extraction step. An image data creation method, wherein the value calculated in the RB calculation step is combination data representing three primary colors at the position of the color G.
記第2の信号処理工程は、前記第2のモードでの受光素
子からの信号のサンプリングにおいて、前記受光素子か
らの撮像信号に基づいて前記受光素子の空隙位置に対応
する画素データを補間する信号処理を施すとともに、補
間された画素データを含む画素データから輝度データお
よび色データを生成する際に、前記ディジタル変換工程
からの出力に基づいて前記受光素子の存在する位置にお
ける輝度データを作成する第1の輝度演算工程と、 該第1の輝度演算工程からの水平および/または垂直方
向に位置する輝度データに基づいて前記受光素子の空領
域を仮想受光素子とした際に該仮想受光素子における輝
度データを作成する第2の輝度演算工程と、 該第2の輝度演算工程で作成された輝度データと前記受
光素子から得られたRGB の各色データを用いて各色にお
ける画面全体のプレーンデータを作成するプレーン演算
工程とを含むことを特徴とする画像データ作成方法。14. The method according to claim 11, wherein the second signal processing step includes the step of sampling the signal from the light receiving element in the second mode based on an image signal from the light receiving element. While performing signal processing to interpolate pixel data corresponding to the gap position of the light receiving element, when generating luminance data and color data from pixel data including the interpolated pixel data, based on the output from the digital conversion step A first luminance calculating step of creating luminance data at a position where the light receiving element is present; and a vacant area of the light receiving element based on the horizontal and / or vertical luminance data from the first luminance calculating step. Is a virtual light receiving element, a second luminance calculating step of creating luminance data in the virtual light receiving element; Image data generating method characterized by comprising a plane calculating step of creating a plain data of the entire screen in each color by using respective color data of RGB obtained from the light receiving element and the luminance data.
記載の方法において、前記被写界からの前記入射光の光
路を複数に分ける分光工程と、 該分光工程の分光により供給される入射光をそれぞれ色
分解して受光する複数の撮像工程とを含み、 前記撮像工程で行う色分解処理に対応した単独の色毎の
色フィルタあるいは複数の色を組合せた色フィルタを用
い、空間的に重ね合わせた色パターンがG 正方格子状に
配され、色G を挟んで対角位置に同色R,またはB が配さ
れる完全市松パターンになることを特徴とする画像デー
タ作成方法。15. The method according to claim 9, wherein the light path of the incident light from the object scene is divided into a plurality of light paths, and the incident light is supplied by the light separation of the light separating step. Including a plurality of imaging steps for receiving color-separated light, respectively, using a color filter for each single color or a color filter combining a plurality of colors corresponding to the color separation processing performed in the imaging step, spatially A method of producing image data, characterized in that a superimposed color pattern is arranged in a G square lattice pattern, and a complete checkered pattern is formed in which the same color R or B is arranged diagonally across the color G.
記載の方法において、前記被写界からの入射光を集光さ
せる光学系を用い、該光学系と2次元配列された受光素
子との間に挿入して色分解する色フィルタを切り換える
色フィルタ切換工程と、 前記受光素子が形成する撮像面に平行な2次元平面内で
前記受光素子の2次元配列された受光部を移動させる移
動工程と、 該移動工程により前記受光部を複数回にわたって移動さ
せながら、該移動の都度、撮影した画像を面順次に記録
する記録工程とを含み、 前記移動の都度、撮影した画像が一つ前に撮影した画像
に対して幾何学的な撮像面形状の中心を行方向および列
方向に半ピッチずつずらした関係が得られ、かつ空間的
に重ね合わせた色パターンがG 正方格子状に配され、色
G を挟んで対角位置に同色R,またはB が配される完全市
松パターンとなることを特徴とする画像データ作成方
法。16. The method according to claim 9, wherein an optical system for condensing incident light from the object scene is used, and a light receiving element arranged two-dimensionally with the optical system. A color filter switching step of switching a color filter to be subjected to color separation by inserting between the two, and a movement of moving a light receiving unit in which the light receiving elements are two-dimensionally arranged in a two-dimensional plane parallel to an imaging surface formed by the light receiving elements. And a recording step of recording a captured image in a frame-sequential manner each time the movement is performed while moving the light receiving unit a plurality of times in the moving step, and each time the movement is performed, the captured image is moved forward by one. The relationship obtained by shifting the center of the geometrical imaging surface shape by half a pitch in the row direction and the column direction with respect to the image captured at a time is obtained, and spatially superimposed color patterns are arranged in a G square lattice shape. ,color
A method of creating image data, wherein a complete checkered pattern in which the same color R or B is arranged diagonally across G.
記プレーン演算工程は、前記ディジタル変換工程により
前記G 正方格子と該G 正方格子に対して前記ピッチの半
分の距離だけずらしたRB完全市松パターンにおける実在
の受光素子に対応して得られた各色の画素データと、前
記第2の工程により作成された輝度データを用い、 前記画素データのG のプレーン補間には、補間対象画素
に対して水平方向および/または垂直方向に隣接して存
在する実際に得られた画素データG の平均と前記補間対
象画素に対して水平方向および/または垂直方向に隣接
している輝度データの加算平均との差に前記補間対象画
素の位置に対応する輝度データを加算して得られる工程
と、 前記画素データのR のプレーン補間には、補間対象画素
に対して斜め方向に隣接して存在する実際に得られた画
素データR の平均と前記補間対象画素に対して前記斜め
方向と同方向に隣接している輝度データの加算平均との
差に前記補間対象画素の位置に対応する輝度データを加
算して得られる第1のR 工程と、 前記補間対象画素の残る色R に対する画素データR を該
第1のR 工程により得られた、等距離に位置する画素デ
ータの加算平均と該等距離に位置する輝度データの加算
平均との差に前記補間対象画素の残る色R に対する輝度
データを加算して得られる第2のR 工程と、 さらに補間対象画素の残る色R に対する画素データR を
最近傍に位置する前記第1、前記第2のR 工程および実
際に得られた画素データR の加算平均と該加算平均に用
いた画素に対応する輝度データの加算平均との差に前記
補間対象画素の位置に対応する輝度データを加算して得
られる第3のR 工程とを含み、 さらに該方法は、 前記画素データのB のプレーン補間には、補間対象画素
に対して斜め方向に隣接して存在する実際に得られた画
素データB の加算平均と前記補間対象画素に対して前記
斜め方向と同方向に隣接している輝度データの加算平均
との差に前記補間対象画素の位置に対応する輝度データ
を加算して得られる第1のB 工程と、 前記補間対象画素の残る色B に対する画素データB を該
第1のB 工程により得られた、等距離に位置する画素デ
ータの加算平均と該等距離に位置する輝度データの加算
平均との差に前記補間対象画素の残る色B に対する輝度
データを加算して得られる第2のB 工程と、 さらに補間対象画素の残る色B に対する画素データB を
最近傍に位置する前記第1、前記第2のB 工程および実
際に得られた画素データB の加算平均と該加算平均に用
いた画素に対応する輝度データの加算平均との差に前記
補間対象画素の位置に対応する輝度データを加算して得
られる第3のB 工程とを含むことを特徴とする画像デー
タ作成方法。17. The method according to claim 14, wherein the plane operation step includes the step of converting the G square grid and the RB perfect checker pattern shifted by half the pitch with respect to the G square grid by the digital conversion step. Using the pixel data of each color obtained corresponding to the actual light receiving element and the luminance data created in the second step, the plane interpolation of G of the pixel data is performed horizontally with respect to the interpolation target pixel. The difference between the average of the actually obtained pixel data G adjacent in the direction and / or the vertical direction and the average of the luminance data adjacent in the horizontal and / or the vertical direction to the interpolation target pixel And a step obtained by adding luminance data corresponding to the position of the pixel to be interpolated. The difference between the average of the actually obtained pixel data R and the average of the luminance data adjacent to the interpolation target pixel in the same direction as the oblique direction corresponds to the position of the interpolation target pixel. A first R step obtained by adding the luminance data to be processed, and an averaging of pixel data R 1 for the remaining color R of the pixel to be interpolated obtained by the first R step, A second R step obtained by adding the luminance data for the remaining color R of the interpolation target pixel to the difference between the average of the luminance data located at the same distance and the pixel data for the remaining color R of the interpolation target pixel. The difference between the first and second R steps located closest to the data R and the averaging of the actually obtained pixel data R and the averaging of the luminance data corresponding to the pixel used for the averaging is calculated as The position of the pixel to be interpolated is A third R step obtained by adding luminance data to the pixel data. The method further comprises: Add the luminance data corresponding to the position of the interpolation target pixel to the difference between the obtained average of the pixel data B and the average of the luminance data adjacent to the interpolation target pixel in the same direction as the oblique direction. And the pixel data B for the remaining color B of the pixel to be interpolated is obtained by adding the pixel data B at the same distance obtained by the first A second B step obtained by adding the luminance data for the remaining color B of the pixel to be interpolated to the difference between the average of the luminance data located and the pixel data B for the remaining color B of the pixel to be interpolated; The first, located at In the second step B, the difference between the average of the pixel data B actually obtained and the average of the luminance data corresponding to the pixels used for the average is calculated by adding the luminance data corresponding to the position of the pixel to be interpolated. A third B step obtained by the addition.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10326571A JP2000152263A (en) | 1998-11-17 | 1998-11-17 | Solid-state image pickup device and image data generating method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10326571A JP2000152263A (en) | 1998-11-17 | 1998-11-17 | Solid-state image pickup device and image data generating method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2000152263A true JP2000152263A (en) | 2000-05-30 |
Family
ID=18189311
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10326571A Withdrawn JP2000152263A (en) | 1998-11-17 | 1998-11-17 | Solid-state image pickup device and image data generating method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2000152263A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002191053A (en) * | 2000-12-22 | 2002-07-05 | Fuji Photo Film Co Ltd | Image signal processing method |
US7019774B2 (en) | 2001-10-30 | 2006-03-28 | Mitsubishi Denki Kabushiki Kaisha | Imaging apparatus and mobile terminal incorporating same |
JP2010016883A (en) * | 2009-10-13 | 2010-01-21 | Fujifilm Corp | Image signal processing method |
CN114331836A (en) * | 2021-12-15 | 2022-04-12 | 锐芯微电子股份有限公司 | Image processing method and device and readable storage medium |
JP7299398B1 (en) | 2022-10-14 | 2023-06-27 | 株式会社 日立産業制御ソリューションズ | Image processing device and image processing method |
-
1998
- 1998-11-17 JP JP10326571A patent/JP2000152263A/en not_active Withdrawn
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002191053A (en) * | 2000-12-22 | 2002-07-05 | Fuji Photo Film Co Ltd | Image signal processing method |
JP4503823B2 (en) * | 2000-12-22 | 2010-07-14 | 富士フイルム株式会社 | Image signal processing method |
US7019774B2 (en) | 2001-10-30 | 2006-03-28 | Mitsubishi Denki Kabushiki Kaisha | Imaging apparatus and mobile terminal incorporating same |
JP2010016883A (en) * | 2009-10-13 | 2010-01-21 | Fujifilm Corp | Image signal processing method |
CN114331836A (en) * | 2021-12-15 | 2022-04-12 | 锐芯微电子股份有限公司 | Image processing method and device and readable storage medium |
JP7299398B1 (en) | 2022-10-14 | 2023-06-27 | 株式会社 日立産業制御ソリューションズ | Image processing device and image processing method |
JP2024058362A (en) * | 2022-10-14 | 2024-04-25 | 株式会社 日立産業制御ソリューションズ | Image processing device and image processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4077120B2 (en) | Solid-state imaging device and signal processing method | |
US6897425B2 (en) | Method of processing an image signal with the result from decision on a correlation corrected | |
JP4882956B2 (en) | Image processing apparatus and image processing method | |
US7148925B2 (en) | Solid-state honeycomb type image pickup apparatus using a complementary color filter and signal processing method therefor | |
JP5371331B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM | |
KR100995468B1 (en) | Image pickup apparatus, image processing apparatus and method of correcting chromatic aberration of lens | |
JPH09116911A (en) | Image pickup system | |
JP5043730B2 (en) | Imaging apparatus, control method therefor, image processing apparatus, and image processing method | |
TW201334506A (en) | Image capturing apparatus provided with a function of combining a plurality of captured images | |
JP4607265B2 (en) | Solid-state imaging device and signal processing method | |
JP2000152263A (en) | Solid-state image pickup device and image data generating method | |
JP2000197067A (en) | Solid-state image pickup device and image data generating method | |
JP2001054127A (en) | Solid-state image pickup device and pixel defect compensation method | |
JP4225795B2 (en) | Imaging system, image processing program | |
JP4243412B2 (en) | Solid-state imaging device and signal processing method | |
JP2001036809A (en) | Solid-state image pickup device and image processing method | |
JP4934183B2 (en) | Image signal processing method | |
JPH11168688A (en) | Digital camera apparatus and recording and/or reproducing processing method therefor | |
JP2005051393A (en) | Imaging apparatus | |
JP2004172859A (en) | Imaging unit and imaging method | |
JP2001016599A (en) | Pixel defect correction device, pixel defect detector and pixel defect detecting method | |
JP4133179B2 (en) | Image signal processing device | |
JP4434556B2 (en) | Solid-state imaging device and solid-state imaging device | |
JP2002209100A (en) | Image processor and image processing method | |
JP3965556B2 (en) | Image processing apparatus and method, recording medium, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060207 |