JP2008078959A - Image processor, and imaging type image display apparatus - Google Patents
Image processor, and imaging type image display apparatus Download PDFInfo
- Publication number
- JP2008078959A JP2008078959A JP2006255261A JP2006255261A JP2008078959A JP 2008078959 A JP2008078959 A JP 2008078959A JP 2006255261 A JP2006255261 A JP 2006255261A JP 2006255261 A JP2006255261 A JP 2006255261A JP 2008078959 A JP2008078959 A JP 2008078959A
- Authority
- JP
- Japan
- Prior art keywords
- image
- processing
- pass filter
- video
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
- Studio Circuits (AREA)
Abstract
Description
本発明は、撮像により得られた画像とコンピュータグラフィックス(CG)等により生成された画像とを合成する画像処理装置、及びこれを備えたヘッドマウントタイプ又はハントヘルドタイプの画像表示装置に関する。 The present invention relates to an image processing apparatus that synthesizes an image obtained by imaging and an image generated by computer graphics (CG) or the like, and a head mount type or hunt-held type image display apparatus including the same.
観察者の眼に対応する位置にて撮像した画像とCG画像との合成画像を表示素子に表示して観察者に観察させる、いわゆるビデオシースルータイプのヘッドマウントディスプレイやハンドヘルドディスプレイ等の画像表示装置が種々提案されている(特許文献1参照)。 There is an image display device such as a so-called video see-through type head-mounted display or hand-held display that displays a composite image of an image captured at a position corresponding to an observer's eye and a CG image on a display element to allow the observer to observe the image. Various proposals have been made (see Patent Document 1).
このようなビデオシースルータイプの画像表示装置では、CCDセンサやCMOSセンサ等の撮像素子を用いて生成した撮像画像をパーソナルコンピュータ等の処理装置に出力する。処理装置では、CG等により製作された画像(以下、CG画像という)を撮像画像に合成して再び画像表示装置に出力する。画像表示装置では、入力された合成画像に対して、解像度変換やフレーム周波数変換処理等を行った後、さらに観察される画像のモアレを低減するために、ローパスフィルタ処理を行う。
しかしながら、従来のビデオシースルータイプの画像表示装置においては、合成画像に対するローパスフィルタ処理のカットオフ周波数を、画面全体で一様にしていた。 However, in the conventional video see-through type image display device, the cut-off frequency of the low-pass filter processing for the composite image is made uniform over the entire screen.
この場合において、カットオフ周波数を高めに設定すると、一般に画面の多くの部分を占める撮像画像の領域でモアレが発生してしまうことが多い。また、カットオフ周波数を低めに設定すると、高精細に描画したCG画像や文字等のエッジ部がぼけて、見づらい画像となってしまうという問題がある。 In this case, if the cut-off frequency is set high, moire often occurs in a captured image region that generally occupies a large portion of the screen. In addition, when the cut-off frequency is set to a low value, there is a problem that an edge portion of a CG image or a character drawn with high definition is blurred and the image becomes difficult to see.
本発明は、撮像画像と撮像画像以外の画像(CG画像等)との合成画像を表示する場合において、モアレの発生を効果的に抑制し、かつCG画像等も鮮明に表示できるようにした画像処理装置及び撮像型画像表示装置を提供することを目的としている。 The present invention effectively suppresses the occurrence of moiré when displaying a composite image of a captured image and an image other than the captured image (such as a CG image), and enables the display of a CG image or the like clearly. An object of the present invention is to provide a processing device and an imaging type image display device.
本発明の一側面としての画像処理装置は、撮像により生成された第1の画像と撮像以外の方法で生成された第2の画像とが合成された合成画像に対してローパスフィルタ処理を行う処理手段を有する。そして、処理手段は、合成画像のうち第1の画像の領域と第2の画像の領域に対して互いに異なるカットオフ周波数のローパスフィルタ処理を行うことを特徴とする。 An image processing apparatus according to an aspect of the present invention performs low-pass filter processing on a composite image obtained by combining a first image generated by imaging and a second image generated by a method other than imaging. Have means. The processing means performs low-pass filter processing with different cutoff frequencies on the first image region and the second image region of the composite image.
また、本発明の他の側面としての画像処理装置は、撮像により生成された第1の画像と撮像以外の方法で生成された第2の画像とを合成する合成手段と、画像に対してローパスフィルタ処理を行う処理手段とを有する。そして、該処理手段は、第1の画像と第2の画像に対して互いに異なるカットオフ周波数のローパスフィルタ処理を行い、合成手段は、それぞれ処理手段によるローパスフィルタ処理が行われた第1の画像と第2の画像を合成することを特徴とする。 An image processing apparatus according to another aspect of the present invention includes a combining unit that combines a first image generated by imaging and a second image generated by a method other than imaging, and a low pass for the image. Processing means for performing filter processing. The processing means performs low-pass filter processing with different cutoff frequencies on the first image and the second image, and the synthesizing means is a first image that has been subjected to low-pass filter processing by the processing means. And the second image.
また、本発明の他の側面としての画像処理装置は、撮像により生成された第1の画像と撮像以外の方法で生成された第2の画像とが合成された合成画像に対してローパスフィルタ処理を行う処理手段を有する。そして、処理手段は、合成画像のうち第2の画像の領域に対してローパスフィルタ処理を行わず、第1の画像の領域に対してローパスフィルタ処理を行うことを特徴とする。 An image processing apparatus according to another aspect of the present invention is a low-pass filter process for a synthesized image obtained by synthesizing a first image generated by imaging and a second image generated by a method other than imaging. The processing means for performing The processing means is characterized in that the low-pass filter processing is not performed on the region of the second image in the composite image, but the low-pass filter processing is performed on the region of the first image.
また、本発明の他の側面としての画像処理装置は、撮像により生成された第1の画像と撮像以外の方法で生成された第2の画像とを合成する合成手段と、画像に対してローパスフィルタ処理を行う処理手段とを有する。そして、該処理手段は、第1の画像に対してローパスフィルタ処理を行い、かつ第2の画像に対してはローパスフィルタ処理を行わず、合成手段は、処理手段によるローパスフィルタ処理が行われた第1の画像と該ローパスフィルタ処理が行われていない第2の画像を合成することを特徴とする。 An image processing apparatus according to another aspect of the present invention includes a combining unit that combines a first image generated by imaging and a second image generated by a method other than imaging, and a low pass for the image. Processing means for performing filter processing. The processing means performs low-pass filter processing on the first image and does not perform low-pass filter processing on the second image, and the synthesizing means performs low-pass filter processing by the processing means. The first image and the second image not subjected to the low-pass filter processing are synthesized.
さらに、被写体を撮像して第1の画像を生成する撮像系と、上記画像処理装置と、処理手段にてローパスフィルタ処理が行われた合成画像を表示する表示素子とを有する撮像型画像表示装置も本発明の他の側面を構成する。 Further, an image pickup type image display device having an image pickup system for picking up a subject to generate a first image, the image processing device, and a display element for displaying a composite image subjected to low-pass filter processing by the processing means. Constitutes another aspect of the present invention.
本発明によれば、合成画像のうち撮像画像の領域とCG等で生成された画像の領域とのそれぞれに又は撮像画像の領域のみに最適なローパスフィルタ処理のカットオフ周波数を設定することができる。したがって、撮像画像領域でのモアレの発生を抑制することができるとともに、CG画像等の領域を鮮明に表示することが可能となる。 According to the present invention, it is possible to set an optimum low-pass filter processing cutoff frequency for each of a captured image region and a region of an image generated by CG or the like in a composite image or only for a captured image region. . Therefore, it is possible to suppress the occurrence of moire in the captured image area and to clearly display an area such as a CG image.
以下、本発明の実施例について図面を参照しながら説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図5には、本発明の実施例1であるビデオシースルータイプのヘッドマウントディスプレイ本体(以下、HMD本体という)1000の構成を示している。 FIG. 5 shows a configuration of a video see-through type head mounted display main body (hereinafter referred to as an HMD main body) 1000 that is Embodiment 1 of the present invention.
図5において、110はCCDセンサやCMOSセンサ等により構成される撮像素子である。611は撮像プリズムであり、撮像素子110の位置を観察者の眼球622の位置に可能な限り近づけるよう外界(被写体)からの光束610を複数回の反射を利用して折り畳み、コンパクトでありながらも必要な光路長を確保している。612は撮像プリズム611からの光束を撮像素子110上に結像させるための結像レンズである。撮像プリズム及び結像レンズ612により撮像光学系が構成され、さらに該撮像光学系と撮像素子110により撮像部(撮像系)が構成される。 In FIG. 5, reference numeral 110 denotes an image pickup element constituted by a CCD sensor, a CMOS sensor, or the like. Reference numeral 611 denotes an imaging prism, which folds the light beam 610 from the outside (subject) using multiple reflections so that the position of the imaging element 110 is as close as possible to the position of the eyeball 622 of the observer, and is compact. The necessary optical path length is secured. Reference numeral 612 denotes an imaging lens for imaging the light flux from the imaging prism 611 on the imaging device 110. An imaging optical system is configured by the imaging prism and the imaging lens 612, and an imaging unit (imaging system) is configured by the imaging optical system and the imaging element 110.
125はLCDやCRT,EL素子等により構成される表示素子である。620は表示素子125から射出された光束621を拡大しつつ観察者の眼球622に導くため観察プリズム(表示光学系)である。観察者は、観察プリズム620を覗くことにより、表示素子125に表示された映像の虚像を観察することが可能となる。表示素子125及び観察プリズム620により、表示部が構成される。 A display element 125 includes an LCD, a CRT, an EL element, or the like. Reference numeral 620 denotes an observation prism (display optical system) for guiding the light beam 621 emitted from the display element 125 to the eyeball 622 of the observer while expanding. The observer can observe the virtual image of the image displayed on the display element 125 by looking into the observation prism 620. The display element 125 and the observation prism 620 constitute a display unit.
本実施例のHMD本体1000は、上記撮像部と表示部とを内蔵した撮像表示ユニットを左右一対有する。これにより、観察者は、左右の眼で左右の撮像ユニットにより取得された撮像画像(及び後述する合成画像)を左右の表示ユニットを介して観察することができる。 The HMD main body 1000 of this embodiment has a pair of left and right imaging display units that incorporate the imaging unit and the display unit. Thereby, the observer can observe the picked-up image (and the synthesized image mentioned later) acquired by the left and right imaging units with the left and right eyes via the left and right display units.
図6には、本実施例のHMD本体100及びこれに接続される制御ユニット(画像処理装置)の外観を示している。図6において、701は観察者の頭部である。101L,101Rは左右の撮像表示ユニットである。これら撮像表示ユニット101L,101Rは、頭部装着装置103に固定されており、頭部装着装置103を観察者の頭部701に装着することで、撮像表示ユニット101L,101Rを観察者の眼前に配置することができる。これにより、観察者が実際に眼で見るのとほぼ一致する映像を観察することが可能となる。ただし、本実施例では、撮像映像に、CG映像や文字映像等の撮像以外の方法で生成された映像が合成された合成映像を観察する。 FIG. 6 shows the appearance of the HMD main body 100 of this embodiment and the control unit (image processing apparatus) connected thereto. In FIG. 6, reference numeral 701 denotes an observer's head. 101L and 101R are left and right imaging display units. These imaging display units 101L and 101R are fixed to the head-mounted device 103. By mounting the head-mounted device 103 on the observer's head 701, the imaging display units 101L and 101R are placed in front of the observer's eyes. Can be arranged. As a result, it is possible to observe an image that is substantially the same as the observer actually sees with the eyes. However, in the present embodiment, a synthesized video in which a video generated by a method other than imaging such as a CG video or a character video is synthesized with the captured video is observed.
また、100はHMD本体1000を制御する制御ユニットであり、102はHMD本体1000と制御ユニット100を接続するためのケーブルである。HMD本体1000と制御ユニット100とは使用上一体不可分の関係にあり、本発明にいう画像表示装置とは、HMD本体1000と制御ユニット100を含む意味である。 Reference numeral 100 denotes a control unit for controlling the HMD main body 1000, and reference numeral 102 denotes a cable for connecting the HMD main body 1000 and the control unit 100. The HMD main body 1000 and the control unit 100 are inseparable from each other in use, and the image display device referred to in the present invention means that the HMD main body 1000 and the control unit 100 are included.
200は制御ユニット100にケーブルや無線等を介して接続されたパーソナルコンピュータやワークステーション等のコンピュータである。コンピュータ200は、CG映像の作成が可能であるとともに、後述するように制御ユニット100から入力された撮像映像とCG映像とを合成した合成映像も作成する。作成された合成映像は、制御ユニット100に出力される。 Reference numeral 200 denotes a computer such as a personal computer or a workstation connected to the control unit 100 via a cable or wireless. The computer 200 can create a CG video, and also creates a composite video obtained by synthesizing a captured video and a CG video input from the control unit 100 as will be described later. The created composite video is output to the control unit 100.
図1には、本実施例のHMD本体1000及び制御ユニット100の電気回路の構成を示す。なお、図1において、各符号(数字)の後に付けられたR,Lの文字は、右眼用,左眼用を意味している。ただし、右眼用と左眼用の回路構成は共通であるので、以下の説明では、R,Lを省く。また、図1において、図5及び図6に示した構成要素と同じものには、同符号を付している。 In FIG. 1, the structure of the electric circuit of the HMD main body 1000 and the control unit 100 of a present Example is shown. In FIG. 1, the letters R and L attached after each symbol (number) mean for the right eye and for the left eye. However, since the circuit configurations for the right eye and the left eye are common, R and L are omitted in the following description. In FIG. 1, the same components as those shown in FIGS. 5 and 6 are denoted by the same reference numerals.
図1において、111は撮像素子110から出力されたアナログ信号に対してAGC(自動利得制御)、CDS(相関2重サンプリング)及びADC(アナログ−ディジタル変換)等を行うアナログ画像処理部である。 In FIG. 1, reference numeral 111 denotes an analog image processing unit that performs AGC (automatic gain control), CDS (correlated double sampling), ADC (analog-digital conversion), and the like on an analog signal output from the image sensor 110.
112はアナログ画像処理部111から出力されたデジタル信号に対してγ(ガンマ)補正、色相補正、輪郭補正、撮像光学系に対する歪補正等の画像処理を行うデジタル画像処理部である。 A digital image processing unit 112 performs image processing such as γ (gamma) correction, hue correction, contour correction, and distortion correction for the imaging optical system on the digital signal output from the analog image processing unit 111.
113はデジタル画像処理部112で画像処理された信号を、所定のビデオフォーマットに変換して出力するIEEE1394インタフェース等の映像出力部である。映像出力部113から出力された撮像映像は、前述したコンピュータ200に入力される。 Reference numeral 113 denotes a video output unit such as an IEEE1394 interface that converts the signal processed by the digital image processing unit 112 into a predetermined video format and outputs the converted video signal. The captured video output from the video output unit 113 is input to the computer 200 described above.
114はデジタル画像処理部112で画像処理された撮像映像を所定の複数フレーム画像ずつ蓄積する撮像映像用フレームメモリである。 Reference numeral 114 denotes a captured video frame memory that stores the captured video image-processed by the digital image processing unit 112 for each of a plurality of predetermined frame images.
120はコンピュータ200で作成された、撮像映像と撮像映像以外の映像であるCG映像との合成映像を取り込むDVI(ディジタル・ビデオ・インタフェース)レシーバ等の映像入力部である。 Reference numeral 120 denotes a video input unit such as a DVI (digital video interface) receiver that captures a composite video of a captured video and a CG video that is a video other than the captured video, created by the computer 200.
121は映像入力部120から入力された合成映像と撮像映像用フレームメモリ114に蓄積されたフレーム画像を比較して、撮像画像とCG画像とを分離する映像分離部である。 Reference numeral 121 denotes a video separation unit that compares the composite video input from the video input unit 120 and the frame image stored in the captured video frame memory 114 to separate the captured image and the CG image.
122は映像分離部121で分離された撮像画像とCG画像の各々に対して、解像度やフレーム周波数を表示素子125に合わせて変換し、さらに表示光学系に対する歪の補正処理を行う映像変換部である。この映像変換部122では、さらにモアレ除去等を目的とするローパスフィルタ処理を行う。このローパスフィルタ処理については、後に詳しく説明する。 A video conversion unit 122 converts the resolution and frame frequency of the captured image and CG image separated by the video separation unit 121 according to the display element 125, and further performs distortion correction processing on the display optical system. is there. The video conversion unit 122 further performs low-pass filter processing for the purpose of removing moire and the like. This low-pass filter process will be described in detail later.
123は映像変換部122で各処理が行われた撮像画像とCG画像とを再び合成する映像再合成部である。 Reference numeral 123 denotes a video re-synthesizing unit that re-synthesizes the captured image and the CG image that have undergone each process in the video converting unit 122.
124は映像再合成部123から再合成映像の入力を受けて、表示素子125を駆動する表示素子駆動部である。これにより、映像再合成部123で再合成された映像(合成画像)が表示素子125に表示され、観察者は合成映像を観察することができる。 A display element driving unit 124 receives the input of the recombined video from the video recombining unit 123 and drives the display element 125. Thereby, the video (synthesized image) re-synthesized by the video re-synthesis unit 123 is displayed on the display element 125, and the observer can observe the synthesized video.
130は制御ユニット100及びHMD本体1000の動作の制御を司るCPU等の制御部である。 Reference numeral 130 denotes a control unit such as a CPU that controls operation of the control unit 100 and the HMD main body 1000.
131は撮像光学系に対する歪み補正データを記憶した歪補正テーブル部、132は表示光学系に対する歪補正データを記憶した歪補正テーブル部である。なお、光学系で発生する画像の歪は、光学部品の個体差や組立公差等の影響により異なる。したがって、撮像光学系に対する歪補正テーブル部131および表示光学系に対する歪補正テーブル部132は、個々のHMD本体における撮像部及び表示部ごとに歪データを測定して、それぞれの補正データを書き込む。 Reference numeral 131 denotes a distortion correction table unit that stores distortion correction data for the imaging optical system, and reference numeral 132 denotes a distortion correction table unit that stores distortion correction data for the display optical system. Note that the distortion of the image generated in the optical system differs due to the influence of individual differences of optical parts, assembly tolerances, and the like. Therefore, the distortion correction table unit 131 for the imaging optical system and the distortion correction table unit 132 for the display optical system measure the distortion data for each imaging unit and display unit in each HMD main body, and write the respective correction data.
図2Aには、撮像映像(撮像フレーム画像)を示している。また、図2Bには、コンピュータ200から入力された撮像映像とCG映像(CGフレーム画像)との合成映像(合成フレーム画像)を示す。さらに、図2C及び図2Dにはそれぞれ、合成映像から分離された撮像フレーム画像領域とCGフレーム画像領域を示す。 FIG. 2A shows a captured video (captured frame image). FIG. 2B shows a synthesized video (synthesized frame image) of a captured video and a CG video (CG frame image) input from the computer 200. Further, FIGS. 2C and 2D respectively show a captured frame image region and a CG frame image region separated from the synthesized video.
前述したように、HMD本体1000の撮像部にて撮像され、制御ユニット100内で各種画像処理が施された撮像映像(図2A)は、コンピュータ200に送られる。コンピュータ200では、入力された撮像映像に対して、図2Dに示すCG映像を重畳(合成)した合成映像(図2B)を生成する。生成された合成映像は、コンピュータ200の標準映像出力端子からDVI等の所定のフォーマットで出力される。コンピュータ200からの合成映像は、制御ユニット100の映像入力部120においてDVIレシーバ等で受信され、その後段の処理回路で使用可能なデジタルビデオ信号へと変換される。 As described above, the captured video (FIG. 2A) captured by the imaging unit of the HMD main body 1000 and subjected to various types of image processing in the control unit 100 is sent to the computer 200. The computer 200 generates a composite video (FIG. 2B) obtained by superimposing (combining) the CG video shown in FIG. 2D on the input captured video. The generated composite video is output from the standard video output terminal of the computer 200 in a predetermined format such as DVI. The composite video from the computer 200 is received by the DVI receiver or the like in the video input unit 120 of the control unit 100 and converted into a digital video signal that can be used in the processing circuit at the subsequent stage.
映像分離部121では、映像入力部120からの合成映像(合成フレーム画像)と、撮像映像用フレームメモリ114に合成処理時間分だけ前に蓄積された撮像映像(撮像フレーム画像)とを比較する。これにより、合成フレーム画像内での撮像フレーム画像領域(図2C)とCGフレーム画像領域(図2D)とを判別する。 The video separation unit 121 compares the synthesized video (synthesized frame image) from the video input unit 120 with the captured video (captured frame image) stored in the captured video frame memory 114 by the time of the synthesis process. Thereby, the imaging frame image region (FIG. 2C) and the CG frame image region (FIG. 2D) in the composite frame image are discriminated.
ここで、合成処理時間とは、制御ユニット100において撮像フレーム画像が生成されてから、コンピュータ200に送られ、CG画像と合成されて合成画像として制御ユニット100に再入力されるまでの時間である。このため、合成フレーム画像と比較する撮像フレーム画像(フレームメモリ114に蓄積された画像)は、該合成フレーム画像の生成に用いられた撮像フレーム画像に一致する。これにより、合成フレーム画像内での撮像フレーム画像領域とCGフレーム画像領域とを正確に特定することができる。 Here, the synthesis processing time is the time from when the captured frame image is generated in the control unit 100 to when it is sent to the computer 200, synthesized with the CG image, and re-input to the control unit 100 as a synthesized image. . Therefore, the captured frame image to be compared with the synthesized frame image (image stored in the frame memory 114) matches the captured frame image used for generating the synthesized frame image. Thereby, the captured frame image region and the CG frame image region in the composite frame image can be accurately specified.
映像分離部121では、合成フレーム画像から撮像フレーム画像領域とCGフレーム画像領域とを分離する。そして、撮像フレーム画像領域のみの画像である分離撮像フレーム画像とCGフレーム画像領域のみの画像である分離CGフレーム画像とを映像変換部122に入力する。 The video separation unit 121 separates the captured frame image area and the CG frame image area from the synthesized frame image. Then, a separated captured frame image that is an image of only the captured frame image region and a separated CG frame image that is an image of only the CG frame image region are input to the video conversion unit 122.
映像変換部122では、分離撮像フレーム画像と分離CGフレーム画像のそれぞれに対して、表示素子125に合わせた解像度変換やフレーム周波数変換を行う。また、表示光学系に対応する歪補正テーブル部132に格納されたデータに基づいて、表示光学系で発生する画像の歪とは逆方向の歪みを表示画像に与える処理が行われる。 The video conversion unit 122 performs resolution conversion and frame frequency conversion according to the display element 125 for each of the separated captured frame image and the separated CG frame image. Further, based on the data stored in the distortion correction table unit 132 corresponding to the display optical system, a process for giving the display image a distortion in a direction opposite to the image distortion generated in the display optical system is performed.
さらに、映像変換部122では、これらの画像処理が行われた分離撮像フレーム画像と分離CGフレーム画像のそれぞれに対してローパスフィルタ処理を行う。このとき、分離撮像フレーム画像に対しては、例えば通常、撮像映像でのモアレ除去用に設定される第1のカットオフ周波数でローパスフィルタ処理を行う。一方、分離CGフレーム画像に対しては、第1のカットオフ周波数よりも高く設定された第2のカットオフ周波数でローパスフィルタ処理を行う。すなわち、分離撮像フレーム画像と分離CGフレーム画像のそれぞれに対して、互いに異なるカットオフ周波数でローパスフィルタ処理を行っている。 Further, the video conversion unit 122 performs low-pass filter processing on each of the separated captured frame image and the separated CG frame image on which the image processing has been performed. At this time, for the separated captured frame image, for example, low-pass filter processing is normally performed at a first cutoff frequency set for removing moire in the captured image. On the other hand, for the separated CG frame image, low-pass filter processing is performed at a second cutoff frequency set higher than the first cutoff frequency. That is, the low-pass filter process is performed on each of the separated captured frame image and the separated CG frame image at different cutoff frequencies.
これにより、映像再合成部123にて再合成された合成映像が表示素子125に表示されたときに、撮像映像の領域において現れることが多いモアレの発生を抑制することができるとともに、CG映像の領域を鮮明に表示することができる。 Thereby, when the synthesized video re-synthesized by the video re-synthesizing unit 123 is displayed on the display element 125, it is possible to suppress the occurrence of moiré that often appears in the area of the captured video, and the CG video. The area can be clearly displayed.
ローパスフィルタ処理を含む各種画像処理が施された分離撮像フレーム画像と分離CGフレーム画像は、映像再合成部123に送られ、ここで合成されて再び1つの合成フレーム画像が生成される。合成フレーム画像は順次、表示素子駆動部124において表示素子125を駆動するのに適した信号に加工され、表示素子125に出力される。これにより、合成映像が表示され、観察者による観察が可能となる。 The separated captured frame image and the separated CG frame image that have been subjected to various types of image processing including low-pass filter processing are sent to the video re-synthesizing unit 123, where they are combined to generate one combined frame image again. The composite frame image is sequentially processed into a signal suitable for driving the display element 125 in the display element driving unit 124 and output to the display element 125. As a result, a composite image is displayed and can be observed by an observer.
図3A,3B及び図4A,4Bには、上述した合成処理時間が分からなかったり、変動したりするような場合における映像分離部121での画像分離の方法について示している。 3A and 3B and FIGS. 4A and 4B show an image separation method in the video separation unit 121 when the above-described synthesis processing time is unknown or fluctuates.
図3A及び図3Bには、撮像フレーム画像の画像データ列にフレーム番号データを書き込む場合の例を示している。図3Aには、デジタル画像処理部112において、画像処理を施された撮像フレーム画像の画像データ列を示している。ここでは、分かり易いように、画像データ列の先頭部のみを示している。 3A and 3B show an example in which frame number data is written in an image data string of a captured frame image. FIG. 3A shows an image data string of a captured frame image subjected to image processing in the digital image processing unit 112. Here, only the top part of the image data string is shown for easy understanding.
図3Bには、図3Aに示した画像データ列の先頭部を、フレーム番号データ(F.No)に置き換えた例を示している。 FIG. 3B shows an example in which the head of the image data sequence shown in FIG. 3A is replaced with frame number data (F.No).
また、図4A及び図4Bには、合成フレーム画像の画像データ列にフレーム番号データを書き込む場合の例を示している。図4Aには、コンピュータ200から入力される合成フレーム画像の画像データ列を示している。ここでは、分かり易いように、画像データ列の先頭部のみを示している。 4A and 4B show an example in which frame number data is written in the image data string of the composite frame image. FIG. 4A shows an image data string of a composite frame image input from the computer 200. Here, only the top part of the image data string is shown for easy understanding.
図4Bは、図4Aに示した映像データ列からフレーム番号データを除去した状態の画像データ列を示している。 FIG. 4B shows an image data sequence in a state where frame number data is removed from the video data sequence shown in FIG. 4A.
図3A,3B及び図4A,4Bに示すフレーム番号データを用いる場合における実施例1との動作上の違いについて説明する。 An operational difference from the first embodiment when using the frame number data shown in FIGS. 3A and 3B and FIGS. 4A and 4B will be described.
まず、撮像映像の生成に関しては、デジタル画像処理部112までの動作は実施例1と同じである。デジタル画像処理部112において画像処理を施された図3Aで示される撮像フレーム画像の画像データ列に対して、映像出力部113において以下の処理を行う。まず、図3Bで示したように、画像データ列の先頭部である最初の1バイトのデータ、すなわち、図3Aにおいては「U0.5」データをフレーム番号データ(F.No)に書き換える。なお、撮像映像用フレームメモリ114には、図3Aで示される撮像フレーム画像(画像データ列)を蓄積し、フレーム番号データに対応付けて管理する。 First, regarding the generation of the captured image, the operations up to the digital image processing unit 112 are the same as those in the first embodiment. The video output unit 113 performs the following processing on the image data sequence of the captured frame image shown in FIG. 3A that has been subjected to image processing by the digital image processing unit 112. First, as shown in FIG. 3B, the first 1-byte data at the head of the image data sequence, that is, “U 0.5 ” data in FIG. 3A is rewritten to frame number data (F.No.). The captured image frame memory 114 stores the captured frame image (image data string) shown in FIG. 3A and manages it in association with the frame number data.
次に、映像出力部113から出力された図3Bで示されるフレーム番号データ付きの撮像フレーム画像(画像データ列)は、コンピュータ200に送られる。コンピュータ200は、フレーム番号データを取り除いた状態で画像データ列をRGBデータに変換し、CGフレーム画像と合成する。 Next, the captured frame image (image data string) with frame number data shown in FIG. 3B output from the video output unit 113 is sent to the computer 200. The computer 200 converts the image data string into RGB data with the frame number data removed, and synthesizes it with the CG frame image.
合成フレーム画像を生成した後、コンピュータ200は、図4Aに示したように、合成フレーム画像におけるR(レッド)データの最初の1バイトのデータ、すなわち「R0」を先に取り除いたフレーム番号データに書き換える。そして、このフレーム番号データ付きの合成フレーム画像を制御ユニット100の映像入力部120に送る。 After the composite frame image is generated, the computer 200, as shown in FIG. 4A, uses the frame number data obtained by removing the first byte of R (red) data in the composite frame image, that is, “R 0 ” first. Rewrite to Then, the composite frame image with the frame number data is sent to the video input unit 120 of the control unit 100.
コンピュータ200から映像入力部120に入力された図4Aに示すフレーム番号データ付きの合成フレーム画像は、映像分離部121に送られる。映像分離部121は、Rデータの最初の1バイトに書き込まれているフレーム番号データを読み出し、撮像映像用フレームメモリ114に蓄積された複数の撮像フレーム画像のうち、読み出したフレーム番号データに対応する撮像フレーム画像を読み出す。そして、読み出した撮像フレーム画像と合成フレーム画像とを比較して、撮像フレーム画像領域とCGフレーム画像領域とを分離する。 The composite frame image with frame number data shown in FIG. 4A input to the video input unit 120 from the computer 200 is sent to the video separation unit 121. The video separation unit 121 reads the frame number data written in the first byte of the R data, and corresponds to the read frame number data among the plurality of captured frame images stored in the captured video frame memory 114. A captured frame image is read out. Then, the captured frame image and the synthesized frame image are compared, and the captured frame image region and the CG frame image region are separated.
この際、Rデータの最初の1バイト目を「R0」データに戻す処理を行い、図4Bに示した合成フレーム画像(画像データ列)に変換する。 At this time, a process of returning the first byte of the R data to “R 0 ” data is performed, and converted to the composite frame image (image data string) shown in FIG. 4B.
この変換方法は、以下の通りである。まず、撮像映像用フレームメモリ114に蓄積されている、フレーム番号データに対応する撮像フレーム画像における画像データ列のうち、最初の2画素のデータを算出する。すなわち、図3A中の「U0.5」,「Y0」,「V0.5」,「Y1」から「R0」,「R1」,「G0」,「G1」,「B0」,「B1」を算出する。 This conversion method is as follows. First, data of the first two pixels in the image data sequence in the captured frame image corresponding to the frame number data stored in the captured video frame memory 114 is calculated. That is, “U 0.5 ”, “Y 0 ”, “V 0.5 ”, “Y 1 ” to “R 0 ”, “R 1 ”, “G 0 ”, “G 1 ” in FIG. “B 0 ” and “B 1 ” are calculated.
次に、算出した最初の2画素のデータのうち、「R0」を除いた他の5色のデータ値と、コンピュータ200から入力された合成フレーム画像の画像データ列のうち、「R0」を除いた他の5色のデータ値とを比較する。これら5色のデータ値の全てが等しい(又は差が所定範囲内に収まっている)場合は、1画素目は撮像フレーム画像のデータであると判断し、上記算出した「R0」値をそのまま本来の「R0」の位置に書き込まれている「F.No」と置き換える。 Next, among the calculated data of the first two pixels, the data values of the other five colors excluding “R 0 ” and the image data string of the composite frame image input from the computer 200 are “R 0 ”. The data values of the other five colors except for are compared. If all the data values of these five colors are equal (or the difference is within a predetermined range), it is determined that the first pixel is data of the captured frame image, and the calculated “R 0 ” value is used as it is. Replace “F.No” written at the original “R 0 ” position.
一方、上記5色のデータ値のうち少なくとも1つが等しくない場合は、1画素目はCGフレーム画像のデータであると判断し、コンピュータ200から入力された画像データ列の「R1」値を本来の「R0」位置に書き込まれている「F.No」と置き換える。なお、映像分離部121以降は、実施例1と同じ動作を行う。 On the other hand, when at least one of the data values of the five colors is not equal, it is determined that the first pixel is CG frame image data, and the “R 1 ” value of the image data string input from the computer 200 is originally set. This is replaced with “F.No” written at the “R 0 ” position. Note that the video separation unit 121 and later perform the same operation as in the first embodiment.
すなわち本実施例では、少なくとも1つの撮像フレーム画像(第1の画像)を記憶するメモリと、撮像フレーム画像にフレーム番号データを書き込む手段とを有する。さらに、合成フレーム画像を生成するときに該合成フレーム画像に該フレーム番号データを書き込む手段を有する。そして、合成フレーム画像に書き込まれたフレーム番号データに基づいて、メモリから該合成フレーム画像と比較する撮像フレーム画像を選択する。 That is, this embodiment includes a memory that stores at least one captured frame image (first image) and means for writing frame number data to the captured frame image. Furthermore, it has means for writing the frame number data into the composite frame image when generating the composite frame image. Then, based on the frame number data written in the composite frame image, an imaging frame image to be compared with the composite frame image is selected from the memory.
また、本実施例では、合成フレーム画像へのフレーム番号データの書き込みにより消去された該合成フレーム画像の画像データに対し、該画像データが撮像フレーム画像の画像データか合成フレーム画像の画像データかを判断する手段を有する。撮像フレーム画像の画像データと判断した場合は、上記選択された撮像フレーム画像に基づいて、該消去された画像データを生成する。また、合成フレーム画像の画像データと判断した場合は、該画像データが消去された画素に隣接する画素の画像データを該消去された画像データに代えて用いる。 In the present embodiment, whether the image data is image data of a captured frame image or image data of a composite frame image with respect to the image data of the composite frame image erased by writing the frame number data to the composite frame image. It has a means to judge. If it is determined that the image data is a captured frame image, the erased image data is generated based on the selected captured frame image. If it is determined that the image data is a composite frame image, the image data of the pixel adjacent to the pixel from which the image data has been deleted is used instead of the deleted image data.
なお、本実施例では、フレーム番号データを画像データ列の1バイト目又はRデータの最初の1バイト目に書き込む場合について説明したが、必ずしもこれに限るものでない。例えば、最後の1バイトや途中の1バイト、或いはG(グリーン)データやB(ブルー)データ中にフレーム番号データを書き込んでもよい。 In this embodiment, the frame number data is written in the first byte of the image data string or the first byte of the R data. However, the present invention is not limited to this. For example, the frame number data may be written in the last byte, the middle byte, or G (green) data or B (blue) data.
また、本実施例では、撮像フレーム画像をYUV422データとして、また合成フレーム画像をRGBパラレルデータとして説明しているが、必ずしもこれに限るものではなく、他の画像データフォーマットでもよい。 In the present embodiment, the captured frame image is described as YUV422 data, and the synthesized frame image is described as RGB parallel data. However, the present invention is not limited to this, and other image data formats may be used.
また、本実施例では、「R0」のデータ再生の際に、5色のデータの全てで比較する場合について説明したが、必ずしもこれに限るものでなく、例えば、「G0」,「B0」の2色やそれ以外の色数で比較してもよい。 In the present embodiment, the case of comparing all the data of the five colors when reproducing the data of “R 0 ” has been described. However, the present invention is not limited to this, and for example, “G 0 ”, “B” The comparison may be made using two colors of “ 0 ” or other colors.
さらに、上記実施例1,2では、コンピュータ200への映像出力信号をIEEE1394により、またコンピュータ200からの映像入力信号をDVIにより行う場合について説明したが、必ずしもこれに限るものではない。例えば、デジタルインタフェースであるUSBや、他の信号でもよい。 In the first and second embodiments, the case where the video output signal to the computer 200 is performed by IEEE 1394 and the video input signal from the computer 200 is performed by DVI has been described. However, the present invention is not limited to this. For example, a digital interface USB or other signals may be used.
また、上記実施例1,2では、右眼用の撮像表示ユニット及び左眼用の撮像表示ユニットを備えた両眼用のHMDについて説明したが、本発明は、片眼用のHMDやハンドヘルドタイプの画像表示装置にも適用することができる。 In the first and second embodiments, the binocular HMD provided with the imaging display unit for the right eye and the imaging display unit for the left eye has been described. However, the present invention is a single-eye HMD or handheld type. The present invention can also be applied to other image display devices.
図7には、本発明の実施例3の制御ユニット100′の一部を示す。上記実施例1,2では、制御ユニット100から撮像映像は一旦コンピュータ200に送られ、コンピュータ200で撮像映像とCG映像とが合成され、該合成画像が制御ユニット100に入力される場合について説明した。 FIG. 7 shows a part of the control unit 100 ′ according to the third embodiment of the present invention. In the first and second embodiments, the case where the captured image is once sent from the control unit 100 to the computer 200, the captured image and the CG image are combined by the computer 200, and the combined image is input to the control unit 100 has been described. .
これに対し、本実施例は、コンピュータ200からCG映像のみが制御ユニット100′に入力される場合の例である。この場合、制御ユニット100′は、撮像映像をコンピュータ200に出力する必要はなく、撮像フレーム画像をそのまま撮像映像用フレームメモリ114に蓄積する。また、本実施例では、実施例1,2で説明した映像分離部121も不要である。 On the other hand, the present embodiment is an example where only a CG image is input from the computer 200 to the control unit 100 '. In this case, the control unit 100 ′ does not need to output the captured image to the computer 200, and stores the captured frame image in the captured image frame memory 114 as it is. In the present embodiment, the video separation unit 121 described in the first and second embodiments is not necessary.
コンピュータ200から映像入力部120に入力されたCG映像(CGフレーム画像)と、撮像映像用フレームメモリ114に蓄積された撮像フレーム画像には、映像変換部122で、表示素子125に合わせた解像度変換やフレーム周波数変換が行われる。また、実施例1と同様に、表示光学系に対応する歪補正テーブル部132に格納されたデータに基づいて、表示光学系で発生する画像の歪とは逆方向の歪みを表示画像に与える処理が行われる。 The video conversion unit 122 converts the resolution of the CG video (CG frame image) input from the computer 200 to the video input unit 120 and the captured frame image stored in the captured video frame memory 114 according to the display element 125. And frame frequency conversion is performed. Further, as in the first embodiment, based on the data stored in the distortion correction table unit 132 corresponding to the display optical system, a process for giving the display image distortion in a direction opposite to the image distortion generated in the display optical system. Is done.
さらに、映像変換部122では、これらの画像処理が行われた撮像フレーム画像とCGフレーム画像のそれぞれに対してローパスフィルタ処理を行う。これら各フレーム画像に対するローパスフィルタ処理でのカットオフ周波数は、実施例1と同じである。 Further, the video conversion unit 122 performs low-pass filter processing on each of the captured frame image and CG frame image on which the image processing has been performed. The cut-off frequency in the low-pass filter processing for each frame image is the same as in the first embodiment.
ローパスフィルタ処理を含む各種画像処理が施された撮像フレーム画像とCGフレーム画像は、映像合成部143に送られ、ここで合成されて合成フレーム画像が生成される。合成フレーム画像は順次、図1に示す表示素子駆動部124において表示素子125を駆動するのに適した信号に加工され、表示素子125に出力される。これにより、合成映像が表示され、観察者による観察が可能となる。 The captured frame image and the CG frame image that have been subjected to various types of image processing including low-pass filter processing are sent to the video synthesis unit 143, where they are synthesized to generate a synthesized frame image. The composite frame image is sequentially processed into a signal suitable for driving the display element 125 in the display element driving unit 124 shown in FIG. As a result, a composite image is displayed and can be observed by an observer.
本実施例においても、映像合成部143にて合成された合成映像が表示素子125に表示されたときに、撮像映像の領域において現れることが多いモアレの発生を抑制することができるとともに、CG映像の領域を鮮明に表示することができる。 Also in the present embodiment, when the synthesized video synthesized by the video synthesizing unit 143 is displayed on the display element 125, it is possible to suppress the occurrence of moiré that often appears in the area of the captured video, and the CG video. This area can be clearly displayed.
実施例1〜3では、撮像フレーム画像に対して第1のカットオフ周波数でローパスフィルタ処理を行うとともに、CGフレーム画像に対しても、第1のカットオフ周波数より高い第2のカットオフ周波数でローパスフィルタ処理を行う場合について説明した。しかし、CGフレーム画像に対しては、ローパスフィルタ処理を行わなくてもよい。 In the first to third embodiments, the captured frame image is subjected to the low-pass filter processing at the first cutoff frequency, and the CG frame image is also processed at the second cutoff frequency higher than the first cutoff frequency. The case where the low-pass filter process is performed has been described. However, the low-pass filter process may not be performed on the CG frame image.
この場合の制御ユニット100の構成は、実施例1(図1)と同じであるので、図1を用いて本実施例を説明する。 Since the configuration of the control unit 100 in this case is the same as that of the first embodiment (FIG. 1), this embodiment will be described with reference to FIG.
本実施例では、映像分離部121で分離された分離撮像フレーム画像と分離CGフレーム画像は映像変換部122に入力される。 In the present embodiment, the separated captured frame image and the separated CG frame image separated by the video separation unit 121 are input to the video conversion unit 122.
映像変換部122では、分離撮像フレーム画像と分離CGフレーム画像のそれぞれに対して、表示素子125に合わせた解像度変換やフレーム周波数変換を行う。また、表示光学系に対応する歪補正テーブル部132に格納されたデータに基づいて、表示光学系で発生する画像の歪とは逆方向の歪みを表示画像に与える処理が行われる。 The video conversion unit 122 performs resolution conversion and frame frequency conversion according to the display element 125 for each of the separated captured frame image and the separated CG frame image. Further, based on the data stored in the distortion correction table unit 132 corresponding to the display optical system, a process for giving the display image a distortion in a direction opposite to the image distortion generated in the display optical system is performed.
さらに、映像変換部122では、これらの画像処理が行われた分離撮像フレーム画像と分離CGフレーム画像のうち分離撮像フレーム画像に対しては、実施例1で説明した第1のカットオフ周波数でローパスフィルタ処理を行う。そして、ローパスフィルタ処理後の分離撮像フレーム画像は、映像再合成部123に出力される。一方、分離CGフレーム画像には、ローパスフィルタ処理が行われずに、映像再合成部123に出力される。 Further, in the video conversion unit 122, the separated imaging frame image out of the separated imaging frame image and the separated CG frame image subjected to these image processes is low-passed at the first cutoff frequency described in the first embodiment. Perform filtering. Then, the separated captured frame image after the low-pass filter processing is output to the video re-synthesis unit 123. On the other hand, the separated CG frame image is output to the video re-synthesis unit 123 without being subjected to low-pass filter processing.
映像再合成部123では、ローパスフィルタ処理が行われてモアレの発生が抑えられた分離撮像フレーム画像と、ローパスフィルタ処理が行われずに鮮明なままの分離CGフレーム画像とが再合成され、該合成画像が表示素子125に表示される。 The video re-synthesizing unit 123 re-synthesizes the separated captured frame image in which the generation of moire is suppressed by performing low-pass filter processing, and the separated CG frame image that remains clear without performing low-pass filter processing. An image is displayed on the display element 125.
本実施例でも、撮像映像の領域において現れることが多いモアレの発生を抑制することができるとともに、CG映像の領域を鮮明に表示することができる。 Also in this embodiment, it is possible to suppress the occurrence of moire that often appears in the captured video region, and to display the CG video region clearly.
実施例3で説明したように、コンピュータからCG映像のみが制御ユニットに入力される場合でも、実施例4で説明したように、撮像映像に対してはローパスフィルタ処理を行い、CG映像に対してはローパスフィルタ処理を行わないとすることもできる。 As described in the third embodiment, even when only the CG video is input from the computer to the control unit, as described in the fourth embodiment, the low-pass filter process is performed on the captured video and the CG video is processed. May not perform low-pass filtering.
この場合の制御ユニット100′の構成は、実施例3(図7)と同じであるので、図7を用いて本実施例を説明する。 Since the configuration of the control unit 100 ′ in this case is the same as that of the third embodiment (FIG. 7), this embodiment will be described with reference to FIG.
コンピュータ200から映像入力部120に入力されたCG映像(CGフレーム画像)と、撮像映像用フレームメモリ114に蓄積された撮像フレーム画像には、映像変換部122で、表示素子125に合わせた解像度変換やフレーム周波数変換が行われる。また、実施例1と同様に、表示光学系に対応する歪補正テーブル部132に格納されたデータに基づいて、表示光学系で発生する画像の歪とは逆方向の歪みを表示画像に与える処理が行われる。 The video conversion unit 122 converts the resolution of the CG video (CG frame image) input from the computer 200 to the video input unit 120 and the captured frame image stored in the captured video frame memory 114 according to the display element 125. And frame frequency conversion is performed. Further, as in the first embodiment, based on the data stored in the distortion correction table unit 132 corresponding to the display optical system, a process for giving the display image distortion in a direction opposite to the image distortion generated in the display optical system. Is done.
さらに、映像変換部122では、撮像フレーム画像のみに対してローパスフィルタ処理を行う。すなわち、CGフレーム画像に対してはローパスフィルタ処理を行わない。 Further, the video conversion unit 122 performs low-pass filter processing only on the captured frame image. That is, the low-pass filter process is not performed on the CG frame image.
そして、ローパスフィルタ処理を含む各種画像処理が施された撮像フレーム画像と、ローパスフィルタ処理を除いた各種画像処理が施されたCGフレーム画像は、映像合成部143に送られ、ここで合成されて合成フレーム画像が生成される。 The captured frame image subjected to various image processing including low-pass filter processing and the CG frame image subjected to various image processing excluding low-pass filter processing are sent to the video synthesis unit 143 and synthesized there. A composite frame image is generated.
合成フレーム画像は順次、図1に示す表示素子駆動部124において表示素子125を駆動するのに適した信号に加工され、表示素子125に出力される。これにより、合成映像が表示され、観察者による観察が可能となる。 The composite frame image is sequentially processed into a signal suitable for driving the display element 125 in the display element driving unit 124 shown in FIG. As a result, a composite image is displayed and can be observed by an observer.
本実施例においても、映像合成部143にて合成された合成映像が表示素子125に表示されたときに、撮像映像の領域において現れることが多いモアレの発生を抑制することができるとともに、CG映像の領域を鮮明に表示することができる。 Also in the present embodiment, when the synthesized video synthesized by the video synthesizing unit 143 is displayed on the display element 125, it is possible to suppress the occurrence of moiré that often appears in the area of the captured video, and the CG video. This area can be clearly displayed.
100 制御ユニット
1000 HMD本体
101R 右眼用撮像表示ユニット
101L 左眼用撮像表示ユニット
110R,110L 撮像素子
111R,111L アナログ画像処理部
112R,112L デジタル画像処理部
113R,113L 映像出力部
114R,114L 撮像映像用フレームメモリ
120R,120L 映像入力部
121R,121L 映像分離部
122R,122L 映像変換部
123R,123L 映像再合成部
124R,124L 表示素子駆動部
125R,125L 表示素子
130 制御部
131R,131L,132R、132L 歪補正テーブル部
143L 映像合成部
DESCRIPTION OF SYMBOLS 100 Control unit 1000 HMD main body 101R Right-eye imaging display unit 101L Left-eye imaging display unit 110R, 110L Image sensor 111R, 111L Analog image processing part 112R, 112L Digital image processing part 113R, 113L Video output part 114R, 114L Frame memory 120R, 120L video input unit 121R, 121L video separation unit 122R, 122L video conversion unit 123R, 123L video recombination unit 124R, 124L display element driving unit 125R, 125L display element 130 control unit 131R, 131L, 132R, 132L Distortion correction table unit 143L Video composition unit
Claims (9)
該処理手段は、前記合成画像のうち前記第1の画像の領域と前記第2の画像の領域に対して互いに異なるカットオフ周波数のローパスフィルタ処理を行うことを特徴とする画像処理装置。 Processing means for performing low-pass filter processing on a composite image obtained by combining the first image generated by imaging and the second image generated by a method other than imaging;
The processing means performs low-pass filter processing with mutually different cutoff frequencies on the first image region and the second image region of the composite image.
画像に対してローパスフィルタ処理を行う処理手段とを有し、
該処理手段は、前記第1の画像と前記第2の画像に対して互いに異なるカットオフ周波数のローパスフィルタ処理を行い、
前記合成手段は、それぞれ前記処理手段によるローパスフィルタ処理が行われた前記第1の画像と前記第2の画像を合成することを特徴とする画像処理装置。 Combining means for combining the first image generated by imaging and the second image generated by a method other than imaging;
Processing means for performing low-pass filter processing on the image,
The processing means performs low-pass filter processing with different cutoff frequencies on the first image and the second image,
The image synthesizing device synthesizes the first image and the second image, each of which has been subjected to low-pass filter processing by the processing means.
前記処理手段によりローパスフィルタ処理が行われた前記第1及び第2の画像の領域を再合成して合成画像を生成する再合成手段とを有することを特徴とする請求項1に記載の画像処理装置。 Separating means for separating the region of the first image and the region of the second image from the composite image;
2. The image processing according to claim 1, further comprising: a recombining unit that recombines the regions of the first and second images subjected to the low-pass filter processing by the processing unit to generate a composite image. apparatus.
該処理手段は、前記合成画像のうち前記第2の画像の領域に対してローパスフィルタ処理を行わず、前記第1の画像の領域に対してローパスフィルタ処理を行うことを特徴とする画像処理装置。 Processing means for performing low-pass filter processing on a composite image obtained by combining the first image generated by imaging and the second image generated by a method other than imaging;
The processing means does not perform low-pass filter processing on the region of the second image in the composite image, and performs low-pass filter processing on the region of the first image. .
前記処理手段によりローパスフィルタ処理が行われた前記第1の画像の領域と前記分離された第2の画像の領域とを再合成して合成画像を生成する再合成手段とを有することを特徴とする請求項5に記載の画像処理装置。 Separating means for separating the region of the first image and the region of the second image from the composite image;
Recombining means for generating a composite image by recombining the region of the first image and the region of the separated second image subjected to low-pass filter processing by the processing unit. The image processing apparatus according to claim 5.
画像に対してローパスフィルタ処理を行う処理手段とを有し、
該処理手段は、前記第1の画像に対してローパスフィルタ処理を行い、かつ前記第2の画像に対してはローパスフィルタ処理を行わず、
前記合成手段は、前記処理手段による前記ローパスフィルタ処理が行われた前記第1の画像と前記ローパスフィルタ処理が行われていない前記第2の画像を合成することを特徴とする画像処理装置。 Combining means for combining the first image generated by imaging and the second image generated by a method other than imaging;
Processing means for performing low-pass filter processing on the image,
The processing means performs low-pass filter processing on the first image and does not perform low-pass filter processing on the second image.
The image processing apparatus, wherein the synthesizing unit synthesizes the first image that has been subjected to the low-pass filter processing by the processing unit and the second image that has not been subjected to the low-pass filter processing.
前記分離手段は、該メモリに記憶された前記第1の画像と前記合成画像とを比較して前記第1の画像の領域と前記第2の画像の領域とを分離することを特徴とする請求項4又は6に記載の画像処理装置。 A memory for storing the first image;
The separation means separates the first image region and the second image region by comparing the first image stored in the memory with the composite image. Item 7. The image processing apparatus according to Item 4 or 6.
前記第1の画像を生成するための撮像を行う撮像系と、
前記合成画像を表示する表示素子とを有することを特徴とする画像表示装置。
An image processing device according to any one of claims 1 to 8,
An imaging system for performing imaging for generating the first image;
An image display device comprising: a display element that displays the composite image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006255261A JP5053603B2 (en) | 2006-09-21 | 2006-09-21 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006255261A JP5053603B2 (en) | 2006-09-21 | 2006-09-21 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008078959A true JP2008078959A (en) | 2008-04-03 |
JP5053603B2 JP5053603B2 (en) | 2012-10-17 |
Family
ID=39350559
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006255261A Expired - Fee Related JP5053603B2 (en) | 2006-09-21 | 2006-09-21 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5053603B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090232416A1 (en) * | 2006-09-14 | 2009-09-17 | Fujitsu Limited | Image processing device |
JP2010016669A (en) * | 2008-07-04 | 2010-01-21 | Olympus Imaging Corp | Image display device and imaging apparatus |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001346072A (en) * | 2000-06-06 | 2001-12-14 | Casio Comput Co Ltd | Device and method for processing video signal |
JP2003044851A (en) * | 2001-07-27 | 2003-02-14 | Sony Corp | Device and method for photographing, and photographing control program |
JP2004118717A (en) * | 2002-09-27 | 2004-04-15 | Fuji Photo Film Co Ltd | Image processing method and apparatus, as well as program therefor |
-
2006
- 2006-09-21 JP JP2006255261A patent/JP5053603B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001346072A (en) * | 2000-06-06 | 2001-12-14 | Casio Comput Co Ltd | Device and method for processing video signal |
JP2003044851A (en) * | 2001-07-27 | 2003-02-14 | Sony Corp | Device and method for photographing, and photographing control program |
JP2004118717A (en) * | 2002-09-27 | 2004-04-15 | Fuji Photo Film Co Ltd | Image processing method and apparatus, as well as program therefor |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090232416A1 (en) * | 2006-09-14 | 2009-09-17 | Fujitsu Limited | Image processing device |
US8311367B2 (en) * | 2006-09-14 | 2012-11-13 | Fujitsu Limited | Image processing device |
JP2010016669A (en) * | 2008-07-04 | 2010-01-21 | Olympus Imaging Corp | Image display device and imaging apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP5053603B2 (en) | 2012-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2014175044A1 (en) | Imaging device and imaging system | |
JP5816015B2 (en) | Solid-state imaging device and camera module | |
US8797462B2 (en) | Image processing apparatus and image processing method | |
US20180270448A1 (en) | Image processing system | |
JP4989788B2 (en) | Stereoscopic image display control apparatus and operation control method thereof | |
JP2021141446A (en) | Imaging apparatus and control method thereof | |
JP5053603B2 (en) | Image processing device | |
JP7261642B2 (en) | Image processing method, image processing device, and head mounted display | |
JP4810807B2 (en) | Moving picture conversion apparatus, moving picture restoration apparatus and method, and computer program | |
JP2020167659A (en) | Image processing apparatus, head-mounted display, and image display method | |
US20190349513A1 (en) | Image capture apparatus and control method thereof | |
KR101194038B1 (en) | System eliminating grid in images of optics endoscope | |
JP2010147774A (en) | Imaging apparatus | |
JP2006295506A (en) | Image display device and controlling method thereof | |
JP4922545B2 (en) | Material presentation apparatus and image processing method thereof | |
US10825136B2 (en) | Image processing apparatus and method, and image capturing apparatus | |
US11323654B2 (en) | Electronic device and method capable of compressing image on basis of attributes of image data | |
JP2005229280A (en) | Image processing apparatus and method, and program | |
JP6091216B2 (en) | Image signal processing apparatus, control method therefor, and imaging apparatus | |
JP6161307B2 (en) | Imaging apparatus and control method thereof | |
JP2006171637A (en) | Head-mounted video display apparatus | |
WO2017122553A1 (en) | Image processing device, image processing method and image capturing device | |
US20180376031A1 (en) | Projection apparatus that improves dynamic range of luminance of printed material, control method therefor, and storage medium | |
JP2015091072A (en) | Imaging apparatus, imaging system with the imaging apparatus, and false color removal method | |
US20150373275A1 (en) | Image display apparatus and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090918 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120501 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120629 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120724 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120726 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150803 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |