Nothing Special   »   [go: up one dir, main page]

JP2006270160A - Image data processing apparatus - Google Patents

Image data processing apparatus Download PDF

Info

Publication number
JP2006270160A
JP2006270160A JP2005081197A JP2005081197A JP2006270160A JP 2006270160 A JP2006270160 A JP 2006270160A JP 2005081197 A JP2005081197 A JP 2005081197A JP 2005081197 A JP2005081197 A JP 2005081197A JP 2006270160 A JP2006270160 A JP 2006270160A
Authority
JP
Japan
Prior art keywords
image data
imaging
image
frame
data processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005081197A
Other languages
Japanese (ja)
Inventor
Masanobu Nishitani
正信 西谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2005081197A priority Critical patent/JP2006270160A/en
Publication of JP2006270160A publication Critical patent/JP2006270160A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image data processing apparatus, capable of outputting image data having high image quality on a time axis, using a general-purpose camera capable of imaging moving images. <P>SOLUTION: The apparatus has an image data compositing processing means 12, having a means for inputting a plurality of image data having different frame rates, obtained by picking up the same object by a plurality of image pickup means within the same image pickup range, without taking synchronization between the plurality of imaging means into consideration; and a means of compositing the plurality of input image data so that the image data are temporally continuous to generate a plurality of composite image data. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、複数の撮像手段を用いて同じ被写体の撮像を行なうに好適な画像データ処理装置、画像データ処理方法、画像データ処理プログラムに関し、さらに、画像データ処理装置とこの画像データ処理装置から出力された画像データの表示が可能な画像表示装置とを有した画像表示システムに関する。   The present invention relates to an image data processing device, an image data processing method, and an image data processing program suitable for imaging the same subject using a plurality of imaging means. Further, the present invention relates to an image data processing device and an output from the image data processing device. The present invention relates to an image display system having an image display device capable of displaying the image data.

画像をデジタルデータとして取り込み可能なデジタルカメラやデジタルビデオカメラ、さらには、携帯電話機、テレビ電話、Webカメラなどのデジタル撮像機器が広く使用されるようになってきている。これらのデジタル撮像機器は普及が進むにつれ、より一層の高画質化が要求されるようになってきている。   Digital cameras and digital video cameras that can capture images as digital data, and digital imaging devices such as mobile phones, videophones, and Web cameras are becoming widely used. As these digital imaging devices become more widespread, higher image quality is required.

静止画については、撮像可能な画像の画素数が増加してきており、空間軸上における高画質化は高いレベルに達しつつある。これに対して、動画は静止画に比べると、画質という点でまだまだ及ばないのが現状である。たとえば、ハイビジョン画像は、画素数でみれば高々200万画素であり、一世代あるいは二世代前のデジタルカメラと同程度かそれ以下である。さらに、動画において最も重要な時間軸上における高画質化については、より一層の改善が要求されている。   As for still images, the number of pixels of images that can be captured is increasing, and the improvement in image quality on the spatial axis is reaching a high level. On the other hand, the current situation is that the moving image is still less than the still image in terms of image quality. For example, a high-definition image is 2 million pixels at most in terms of the number of pixels, and is about the same as or lower than that of a digital camera one or two generations before. Furthermore, further improvement is demanded for improving the image quality on the most important time axis in moving images.

気軽に入手できるデジタル撮像機器としては、たとえば、携帯電話機やWebカメラなどがあるが、いずれも動画の品質は高いとはいえない。一般に、画素数(解像度)を優先すればフレームレートを犠牲にすることになり、逆にフレームレートを優先すれば画素数(解像度)を犠牲することになる。なお、フレームレートは時間軸上での画質の高さを示すものであり、高フレームレートであれば、時間軸上において高画質であるともいえる。   As digital imaging devices that can be easily obtained, there are, for example, a mobile phone and a Web camera, but none of them has high quality of moving images. In general, if priority is given to the number of pixels (resolution), the frame rate is sacrificed. Conversely, if priority is given to the frame rate, the number of pixels (resolution) is sacrificed. Note that the frame rate indicates the height of image quality on the time axis. If the frame rate is high, it can be said that the image quality is high on the time axis.

動画において時間軸上の高画質化を実現する技術の一例として、特許文献1が挙げられる。
特許文献1に開示された技術は、デジタルカメラまたはフィルムカメラの持つ連写機能を複数のカメラ間でクロックやタイマなどを用いて連携させることで、高速な撮像を実現することを目的としている。
Patent Document 1 is an example of a technique for realizing high image quality on a time axis in moving images.
The technique disclosed in Patent Document 1 is intended to realize high-speed imaging by linking a continuous shooting function of a digital camera or a film camera using a clock or a timer between a plurality of cameras.

特開2001−166374号公報JP 2001-166374 A

しかし、特許文献1に開示された技術は、(i)連写機能を有するカメラが複数台必要、(ii)複数のカメラの連携をとるための複雑な仕組みが必要、(iii)複数のカメラの状態を監視するための仕組みが必要といった問題がある。   However, the technology disclosed in Patent Document 1 requires (i) a plurality of cameras having a continuous shooting function, (ii) a complicated mechanism for coordinating a plurality of cameras, and (iii) a plurality of cameras. There is a problem that a mechanism for monitoring the state of the device is necessary.

(i)については、連写機能を有するカメラは一般的には高価であるということが問題となる。連写枚数が1秒間に数枚程度の比較的安価なカメラもあるが、特許文献1に開示された技術により、一般的な動画のフレームレートを実現するためには、多くの台数のカメラが必要となる。すなわち、30フレーム/秒(以下では、フレーム/秒をfpsと表記する)を実現するには、3枚/秒のカメラでは10台のカメラが必要となり、5枚/秒のカメラでも5台のカメラが必要となる。したがって、たとえば、60fpsの高画質な画像データを実現するには、さらに多くのカメラが必要となり、現実的ではない。   Regarding (i), a problem is that a camera having a continuous shooting function is generally expensive. There are some relatively inexpensive cameras that take several shots per second, but with the technology disclosed in Patent Document 1, a large number of cameras are required to achieve a general video frame rate. Necessary. That is, in order to realize 30 frames / second (hereinafter, frames / second is expressed as fps), 10 cameras are required for a 3 frames / second camera, and 5 frames for a 5 frames / second camera. A camera is required. Therefore, for example, more cameras are required to realize high-quality image data of 60 fps, which is not realistic.

また、(ii)については、特許文献1に開示された技術の場合、静止画用のカメラを用いるため、シャッタの制御や、それに合わせたカメラ間の同期の考慮など、システムの制御が複雑化し、かつ、高精度な制御が要求される。これにより、システムそのものが高価なものとなるという問題もある。   As for (ii), in the case of the technique disclosed in Patent Document 1, since a still image camera is used, control of the system becomes complicated, such as shutter control and consideration of synchronization between cameras corresponding thereto. In addition, high-precision control is required. As a result, there is also a problem that the system itself becomes expensive.

さらに、(iii)については、これも(ii)と同様の静止画用のカメラを用いることによる問題である。一般に、連写機能は、撮像は高速に行なわれるものの、カメラに内蔵されている記録媒体への記録に時間を要する。連続した撮像のためには、各カメラの状態を監視し、連写機能の終了後に次の連写撮像が可能であるか否かを常に監視していなければならない。これは、システムを複雑化する要因にもなる。   Further, regarding (iii), this is also a problem due to the use of a still image camera similar to (ii). In general, the continuous shooting function takes time to record on a recording medium built in the camera although imaging is performed at high speed. For continuous imaging, it is necessary to monitor the status of each camera and always monitor whether or not the next continuous shooting is possible after the continuous shooting function ends. This also becomes a factor that complicates the system.

そこで本発明は、動画の撮像が可能な汎用のデジタル撮像機器を複数台用いることにより、時間軸上において高画質な画像データを生成可能で、かつ、システムを複雑化することのない画像データ処理装置、画像データ処理方法、画像データ処理プログラムを提供することを目的とするとともに、さらに、画像データ処理装置とこの画像データ処理装置から出力された画像データの表示が可能な画像表示装置とを有した画像表示システムを提供することを目的とする。   Therefore, the present invention can generate high-quality image data on the time axis by using a plurality of general-purpose digital imaging devices capable of capturing moving images, and does not complicate the system. An image data processing device and an image display device capable of displaying image data output from the image data processing device are provided. An object of the present invention is to provide an image display system.

(1)本発明の画像データ処理装置は、複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力する手段と、前記入力した複数の画像データを時間的に連続するように合成して合成画像データを生成する手段とを有することを特徴とする。   (1) In the image data processing apparatus of the present invention, different frame rates obtained by a plurality of imaging units imaging the same subject in the same imaging range and without considering synchronization between the plurality of imaging units. And a means for synthesizing the plurality of input image data so as to be temporally continuous to generate combined image data.

これにより、解像度を犠牲にすることなく高フレームレートが実現でき、時間軸上において高画質な画像データを生成することができる。すなわち、本発明によって生成された合成画像データは、動きの滑らかな動画の再現が可能な画像データとなる。また、本発明では複数の撮像手段からそれぞれ入力した異なったフレームレートの画像データに対しても合成画像データを生成することができる。
なお、撮像手段としては、本発明用として特別に用意されたものではなく、動画の撮像が可能な汎用の撮像機器(デジタルビデオカメラなど)を用いることができ、しかも、各撮像手段が異なったフレームレートを有するものであってもよい。
As a result, a high frame rate can be realized without sacrificing resolution, and high-quality image data can be generated on the time axis. That is, the composite image data generated by the present invention is image data that can reproduce a moving image with smooth motion. In the present invention, it is also possible to generate composite image data for image data with different frame rates respectively input from a plurality of imaging means.
Note that the imaging means is not specially prepared for the present invention, and general-purpose imaging equipment (such as a digital video camera) capable of capturing moving images can be used, and each imaging means is different. It may have a frame rate.

(2)前記(1)に記載の画像データ処理装置においては、前記合成画像データを生成する手段は、前記複数の撮像手段のうち最も高いフレームレートを有する撮像手段のフレームレートと該最も高いフレームレートを有する撮像手段以外の他の撮像手段のフレームレートとの比に基づいて、前記最も高いフレームレートを有する撮像手段の画像データに対する前記他の撮像手段の画像データの挿入位置を設定し、該挿入位置で各画像データにおける各フレーム画像を時間的に連続するように合成することで合成画像データを生成することが好ましい。
このような画像データの合成処理を行うことにより、複数の撮像手段からそれぞれ入力した異なったフレームレートの画像データに対しても適切に合成画像データを生成することが可能となる。なお、本発明の各実施形態では、各フレームに対応する画像データをフレーム画像と呼ぶことにする。
(2) In the image data processing device according to (1), the means for generating the composite image data includes a frame rate of the imaging means having the highest frame rate and the highest frame among the plurality of imaging means. Based on the ratio with the frame rate of the other imaging means other than the imaging means having the rate, the insertion position of the image data of the other imaging means with respect to the image data of the imaging means having the highest frame rate is set, It is preferable to generate the composite image data by combining the frame images in the image data at the insertion position so as to be temporally continuous.
By performing such image data combining processing, it is possible to appropriately generate combined image data for image data of different frame rates respectively input from a plurality of imaging means. In each embodiment of the present invention, image data corresponding to each frame is referred to as a frame image.

(3)前記(1)または(2)に記載の画像データ処理装置においては、前記複数の撮像手段のうち少なくとも1つの撮像手段に対し、撮像開始時間の設定が可能な撮像手段制御手段を有することが好ましい。
このような撮像手段制御手段を設けることによって、撮像開始時間の設定をユーザなどにより所定範囲内で任意に行なえるようにすることができる。たとえば、各撮像手段に対して個別に撮像開始時間の設定を行うこともできるし、また、基準となる撮像手段を設定して該撮像手段に対する時間差の設定も可能である。
(3) The image data processing apparatus according to (1) or (2) further includes an imaging unit control unit capable of setting an imaging start time for at least one of the plurality of imaging units. It is preferable.
By providing such an imaging means control means, the setting of the imaging start time can be arbitrarily performed within a predetermined range by the user or the like. For example, the imaging start time can be set individually for each imaging means, or the time difference with respect to the imaging means can be set by setting a reference imaging means.

(4)前記(1)〜(3)のいずれかに記載の画像データ処理装置においては、前記入力した複数の画像データに対し、位置ずれ補正、色補正、輝度補正のうち少なくとも1つの補正を行う手段を有することが好ましい。
これにより、複数の撮像手段から得られる画像データを時間的に連続した合成画像データとしたとき、その合成画像データは各フレーム画像間で整合性の取れた高品質な画像データとすることができる。
(4) In the image data processing device according to any one of (1) to (3), at least one of misalignment correction, color correction, and luminance correction is performed on the plurality of input image data. It is preferred to have a means to do.
As a result, when image data obtained from a plurality of imaging means is combined temporally continuous composite image data, the composite image data can be high-quality image data with consistency between the frame images. .

(5)前記(1)〜(4)のいずれかに記載の画像データ処理装置においては、前記複数の撮像手段から入力した各画像データを記憶する画像データ記録装置を有し、前記合成画像データを生成する手段は、前記画像データ記録装置に記録された前記各画像データを用いて合成画像データを生成することが好ましい。
このように、各撮像手段で撮像された画像データを記録する画像データ記録装置を設け、この画像データ記録装置に画像データを一時的に記録することで、画像データ合成処理部が行う合成画像データ生成処理などの処理を時間的な余裕を持って行うことができ、画像データ合成処理部の処理能力をそれほど高いものとする必要がなくなる。また、画像データ記録装置からユーザが任意の時点の画像データを取得することも可能となる。
(5) The image data processing device according to any one of (1) to (4), further including an image data recording device that stores each image data input from the plurality of imaging units, and the composite image data Preferably, the generating unit generates composite image data using each of the image data recorded in the image data recording device.
As described above, the image data recording device that records the image data captured by each imaging unit is provided, and the image data is temporarily recorded in the image data recording device, so that the composite image data performed by the image data composition processing unit Processing such as generation processing can be performed with sufficient time, and it is not necessary to increase the processing capability of the image data synthesis processing unit. In addition, the user can acquire image data at an arbitrary time from the image data recording apparatus.

(6)本発明の画像データ処理方法は、複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力するステップと、前記入力した複数の画像データを時間的に連続するように合成して合成画像データを生成するステップとを有することを特徴とする。
この画像データ処理方法によっても前記(1)に記載の画像データ処理装置と同様の効果が得られる。なお、この画像データ処理方法においても、前記(2)〜(5)の画像データ処理装置と同様の特徴を有することが好ましい。
(6) In the image data processing method according to the present invention, different frame rates obtained by a plurality of imaging units imaging the same subject in the same imaging range and without considering synchronization between the plurality of imaging units. And a step of generating a composite image data by synthesizing the input image data so as to be temporally continuous.
This image data processing method can provide the same effects as those of the image data processing apparatus described in (1). Note that this image data processing method preferably has the same characteristics as those of the image data processing apparatuses (2) to (5).

(7)本発明の画像データ処理プログラムは、複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力するステップと、前記入力した複数の画像データを時間的に連続するように合成して合成画像データを生成するステップとを実行可能であることを特徴とする。
この画像データ処理方プログラムによっても前記(1)に記載の画像データ処理装置と同様の効果が得られる。なお、この画像データ処理方法においても、前記(2)〜(5)の画像データ処理装置と同様の特徴を有することが好ましい。
(7) The image data processing program according to the present invention is configured such that a plurality of imaging units captures the same subject in the same imaging range and images without considering synchronization between the plurality of imaging units. A step of inputting a plurality of image data having the above and a step of generating the combined image data by combining the plurality of input image data so as to be temporally continuous can be executed.
This image data processing method program can provide the same effects as those of the image data processing apparatus described in (1). Note that this image data processing method preferably has the same characteristics as those of the image data processing apparatuses (2) to (5).

(8)本発明の画像データ表示システムは、複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力する手段及び前記入力した複数の画像データを時間的に連続するように合成して合成画像データを生成する手段を有する画像データ処理装置と、前記画像データ処理装置から出力される合成画像データを表示する画像表示装置とを有することを特徴とする。   (8) In the image data display system of the present invention, different frame rates obtained by a plurality of imaging units imaging the same subject in the same imaging range and without considering synchronization between the plurality of imaging units. An image data processing apparatus having means for inputting a plurality of image data, and a means for generating composite image data by synthesizing the plurality of input image data so as to be temporally continuous, and from the image data processing apparatus And an image display device that displays the output composite image data.

このような画像表示システムによれば、解像度を犠牲にすることなく高フレームレートが実現でき、時間軸上において高画質な画像データを生成することができる。すなわち、本発明によって生成された合成画像データは、動きの滑らかな動画の再現が可能な画像データとなり、画像表示装置では時間軸上において高画質な画像データを表示することができる。
なお、前記撮像手段としては、本発明用として特別に用意されたものではなく、動画の撮像が可能な汎用の撮像手段(デジタルビデオカメラなど)を用いることができるので、高画質の画像データ表示システムを安価に構成することができる。また、本発明では、各撮像手段が異なったフレームレートを有するものであってもよい。なお、この画像表示システムにおいても、前記(2)〜(5)の画像データ処理装置と同様の特徴を有することが好ましい。
According to such an image display system, a high frame rate can be realized without sacrificing resolution, and high-quality image data can be generated on the time axis. That is, the composite image data generated by the present invention is image data that can reproduce a moving image with smooth motion, and the image display device can display high-quality image data on the time axis.
The imaging means is not specially prepared for the present invention, and general-purpose imaging means (such as a digital video camera) capable of capturing moving images can be used. The system can be configured at low cost. In the present invention, each imaging means may have a different frame rate. Note that this image display system also preferably has the same characteristics as the image data processing apparatuses (2) to (5).

(9)本発明の画像データ処理装置は、複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力する手段と、前記入力した複数の画像データを用いてコンテンツ解析を行う手段と、前記コンテンツ解析の結果に基づいて遅延時間を設定する手段と、前記遅延時間に基づいて中間画像データを生成する手段と、前記生成された中間画像データと前記入力した複数の画像データのうち少なくとも1つの画像データとを時間的に連続するように合成して合成画像データを生成する手段とを有することを特徴とする。   (9) In the image data processing apparatus of the present invention, different frame rates obtained by a plurality of imaging units imaging the same subject in the same imaging range and without considering synchronization between the plurality of imaging units. Means for inputting a plurality of image data, means for performing content analysis using the plurality of input image data, means for setting a delay time based on the result of the content analysis, and based on the delay time Then, the intermediate image data is generated, and the generated intermediate image data and at least one of the input plurality of image data are combined so as to be temporally continuous to generate combined image data. Means.

これにより、前記(1)の画像データ処理装置と同様の効果が得られるほか、この(9)に記載の画像データ処理装置では、コンテンツの内容に応じて設定された遅延時間に基づく中間画像データを生成し、生成された中間画像データと複数の撮像手段のある撮像手段から入力した画像データとを時間的に連続させるようにしているので、より動きの滑らかな動画の再現が可能な合成画像データを生成することができる。   As a result, the same effect as that of the image data processing apparatus of (1) can be obtained, and in the image data processing apparatus of (9), intermediate image data based on a delay time set according to the content content And the generated intermediate image data and the image data input from the imaging means having a plurality of imaging means are temporally continuous, so that a composite image capable of reproducing a smoother moving image is obtained. Data can be generated.

(10)前記(9)に記載の画像データ処理装置においては、前記コンテンツ解析は、前記入力した複数の画像データに基づいて画像の動きの変化及び/又は明るさの変化を検出することにより行うことが好ましい。
これによれば、動きの変化及び/又は明るさの変化に応じた遅延時間を設定することができる。たとえば、動きの激しい場面や明るさの変化の激しい場面では遅延時間を短くし、逆に、動きの緩やかな場面や明るさの変化の緩やかな場面では遅延時間を長くするというような遅延時間設定を行う。これによって、コンテンツの内容の変化に追従した最適な遅延時間の設定が可能となり、その遅延時間を用いることによりコンテンツの内容に応じた中間画像データを生成することができる。
(10) In the image data processing apparatus according to (9), the content analysis is performed by detecting a change in image motion and / or a change in brightness based on the plurality of input image data. It is preferable.
According to this, it is possible to set a delay time according to a change in motion and / or a change in brightness. For example, a delay time setting that shortens the delay time in scenes with a lot of movement or changes in brightness, and conversely increases the delay time in scenes with a slow movement or changes in brightness. I do. Accordingly, it is possible to set an optimal delay time following the change in the content content, and it is possible to generate intermediate image data corresponding to the content content by using the delay time.

(11)前記(9)または(10)に記載の画像データ処理装置においては、前記コンテンツ解析を行う手段は、前記複数の撮像手段のうち最も高いフレームレートを有する撮像手段のフレームレートと前記最も高いフレームレートを有する撮像手段以外の他の撮像手段のフレームレートとの比に基づいて、前記コンテンツ解析を行う際の前記最も高いフレームレートを有する撮像手段のフレーム画像と前記他の撮像手段のフレーム画像との対応付けを行い、該対応付けられたフレーム画像間でコンテンツ解析を行うことが好ましい。
これにより、各撮像手段の撮像タイミングの違いに対応した適切な中間画像データを生成することができ、このような中間画像データを用いて生成された合成画像データは、より自然な動画の再現が可能な画像データとすることができる。
(11) In the image data processing device according to (9) or (10), the means for performing the content analysis includes a frame rate of the imaging means having the highest frame rate among the plurality of imaging means and the highest Based on the ratio with the frame rate of other imaging means other than the imaging means having a high frame rate, the frame image of the imaging means having the highest frame rate and the frame of the other imaging means when performing the content analysis It is preferable to perform association with images and perform content analysis between the associated frame images.
Accordingly, it is possible to generate appropriate intermediate image data corresponding to the difference in imaging timing of each imaging unit, and the composite image data generated using such intermediate image data can reproduce a more natural moving image. Possible image data can be obtained.

(12)前記(11)に記載の画像データ処理装置においては、前記合成画像データを生成する手段は、前記応付けられたフレーム画像間でコンテンツ解析を行うことによって生成された中間画像データと前記最も高いフレームレートを有する撮像手段から入力した画像データとを、前記対応付けられたフレーム画像の時間的な位置関係を考慮して時間的に連続させるように合成することが好ましい。
このようにして生成された合成画像データは、各撮像手段での撮像順番に沿った画像データとすることができ、自然な動きの再現が可能となる画像データとすることができる。
(12) In the image data processing device according to (11), the means for generating the composite image data includes the intermediate image data generated by performing content analysis between the attached frame images, and the It is preferable that the image data input from the imaging means having the highest frame rate is combined so as to be temporally continuous in consideration of the temporal positional relationship of the associated frame images.
The composite image data generated in this way can be image data in accordance with the imaging order of each imaging means, and can be image data that can reproduce natural motion.

(13)前記(9)〜(12)のいずれかに記載の画像データ処理装置においては、前記合成画像データを、該合成画像データにおける各フレーム画像の時間長を示す情報を付加したデータフォーマットのデータとして出力する手段を有することが好ましい。
これにより、合成画像データを表示する画像表示装置側で合成画像データの表示を行なう際に適切な表示が行える。
(13) In the image data processing device according to any one of (9) to (12), the composite image data has a data format in which information indicating a time length of each frame image in the composite image data is added. It is preferable to have means for outputting as data.
As a result, appropriate display can be performed when the composite image data is displayed on the image display device that displays the composite image data.

(14)前記(9)〜(12)のいずれかに記載の画像データ処理装置においては、前記合成画像データを、該合成画像データにおける各フレーム画像の時間長を示す情報を、前記合成画像データとは別のデータとして出力する手段を有することが好ましい。
これにより、本発明に対応する画像表示装置においては、合成画像データのデータと各フレーム画像の時間長を示す情報のデータの両方を読み込んで、その内容に応じた処理を行うことが可能であり、また、本発明に対応しない画像表示装置においては、合成画像データのデータのみを読み込んで、その内容に応じた処理を行うことが可能となる。
(14) In the image data processing device according to any one of (9) to (12), the composite image data includes information indicating a time length of each frame image in the composite image data. It is preferable to have a means for outputting as separate data.
Thereby, in the image display device corresponding to the present invention, it is possible to read both the data of the composite image data and the data of the information indicating the time length of each frame image, and perform the processing according to the contents. In addition, in an image display device that does not correspond to the present invention, it is possible to read only the composite image data and perform processing according to the contents.

(15)本発明の画像データ処理方法は、複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力するステップと、前記入力した複数の画像データを用いてコンテンツ解析を行うステップと、前記コンテンツ解析の結果に基づいて遅延時間を設定するステップと、前記遅延時間に基づいて中間画像データを生成するステップと、前記生成された中間画像データと前記入力した複数の画像データのうち少なくとも1つの画像データとを時間的に連続するように合成して合成画像データを生成するステップとを有することを特徴とする。
この画像データ処理方法によっても前記(9)に記載の画像データ処理装置と同様の効果が得られる。なお、この(15)に記載の画像データ処理方法においても、前記(3)〜(5)、(10)〜(14)の画像データ処理装置と同様の特徴を有することが好ましい。
(15) In the image data processing method of the present invention, a plurality of imaging units have different frame rates obtained by imaging the same subject in the same imaging range and without considering synchronization between the plurality of imaging units. A step of inputting a plurality of image data, a step of performing content analysis using the plurality of input image data, a step of setting a delay time based on a result of the content analysis, and a step of based on the delay time Generating intermediate image data, and generating the combined image data by combining the generated intermediate image data and at least one of the input plurality of image data so as to be temporally continuous. And a step.
This image data processing method can provide the same effects as those of the image data processing apparatus described in (9). Note that the image data processing method described in (15) also preferably has the same characteristics as the image data processing devices of (3) to (5) and (10) to (14).

(16)本発明の画像データ処理プログラムは、複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力するステップと、前記入力した複数の画像データを用いてコンテンツ解析を行うステップと、前記コンテンツ解析の結果に基づいて遅延時間を設定するステップと、前記遅延時間に基づいて中間画像データを生成するステップと、前記生成された中間画像データと前記入力した複数の画像データのうち少なくとも1つの画像データとを時間的に連続するように合成して合成画像データを生成するステップとを実行可能であることを特徴とする。
この画像データ処理プログラムによっても前記(9)に記載の画像データ処理装置と同様の効果が得られる。なお、この(15)に記載の画像データ処理方法においても、前記(3)〜(5)、(10)〜(14)の画像データ処理装置と同様の特徴を有することが好ましい。
(16) According to the image data processing program of the present invention, different frame rates obtained by a plurality of imaging units imaging the same subject in the same imaging range and without considering synchronization between the plurality of imaging units. A step of inputting a plurality of image data, a step of performing content analysis using the plurality of input image data, a step of setting a delay time based on a result of the content analysis, and a step of based on the delay time Generating intermediate image data, and generating the combined image data by combining the generated intermediate image data and at least one of the input plurality of image data so as to be temporally continuous. Steps can be executed.
This image data processing program can provide the same effects as those of the image data processing apparatus described in (9). Note that the image data processing method described in (15) also preferably has the same characteristics as the image data processing devices of (3) to (5) and (10) to (14).

(17)本発明の画像データ表示システムは、複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力する手段、前記入力した複数の画像データを用いてコンテンツ解析を行う手段、前記コンテンツ解析の結果に基づいて遅延時間を設定する手段、前記遅延時間に基づいて中間画像データを生成する手段及び前記生成された中間画像データと前記入力した複数の画像データのうち少なくとも1つの画像データとを時間的に連続するように合成して合成画像データを生成する手段を有する画像データ処理装置と、前記画像データ処理装置から出力される合成画像データを表示する画像表示装置とを有することを特徴とする。   (17) In the image data display system of the present invention, different frame rates obtained by a plurality of imaging units imaging the same subject in the same imaging range and without considering synchronization between the plurality of imaging units. Means for inputting a plurality of image data, means for performing content analysis using the plurality of input image data, means for setting a delay time based on the result of the content analysis, an intermediate image based on the delay time An image having means for generating data and means for generating synthesized image data by synthesizing the generated intermediate image data and at least one of the input plurality of image data so as to be temporally continuous A data processing device, and an image display device for displaying the composite image data output from the image data processing device And it features.

この(17)に記載の画像表示システムによっても前記(8)に記載の画像表示システムと同様の効果が得られるほか、この(17)に記載の画像表示システムでは、コンテンツの内容に応じて設定された遅延時間に基づく中間画像データを生成し、生成された中間画像データと複数の撮像手段のある撮像手段から入力した画像データとを時間的に連続させるようにしているので、より動きの滑らかな動画の再現が可能な合成画像データを生成することができる。なお、この(17)に記載の画像表示システムにおいても、前記(3)〜(5)、(10)〜(14)の画像データ処理装置と同様の特徴を有することが好ましい。   The image display system described in (17) can obtain the same effect as the image display system described in (8), and the image display system described in (17) can be set according to the contents. The intermediate image data based on the generated delay time is generated, and the generated intermediate image data and the image data input from the imaging unit having a plurality of imaging units are temporally continuous, so that the movement is smoother. It is possible to generate composite image data that can reproduce a moving image. Note that the image display system described in (17) preferably has the same characteristics as the image data processing devices described in (3) to (5) and (10) to (14).

以下、本発明の実施の形態について説明する。
[実施形態1]
図1は実施形態1に係る画像データ処理装置の構成を示す図である。実施形態1に係る画像データ処理装置10Aは、同じ被写体を同一の撮像範囲で所定の時間差を有して撮像した画像データを異なるフレームレートで出力可能な複数の撮像手段(実施形態1では2台のカメラ1,2とする)を撮像制御する撮像手段制御部11と、カメラ1,2で撮像されたそれぞれの画像データを記憶する画像データ記録装置13と、画像データ記録装置13に記録されたカメラ1,2の各画像データを入力する手段、入力された各画像データを時間的に連続するように合成した合成画像データを生成する手段及び生成された合成画像データを出力する手段を有する画像データ合成処理部12とを有している。なお、画像データ記録装置13は、図1ではカメラ1,2で共用としたが、各カメラ1,2ごとに設けるようにしてもよい。
Embodiments of the present invention will be described below.
[Embodiment 1]
FIG. 1 is a diagram illustrating a configuration of an image data processing apparatus according to the first embodiment. The image data processing apparatus 10A according to the first embodiment includes a plurality of imaging units (two in the first embodiment) that can output image data obtained by imaging the same subject with a predetermined time difference in the same imaging range at different frame rates. The image pickup means control unit 11 controls the image pickup of the cameras 1 and 2, the image data recording device 13 that stores the respective image data picked up by the cameras 1 and 2, and the image data recording device 13. Image having means for inputting image data of cameras 1 and 2, means for generating combined image data obtained by combining the input image data so as to be temporally continuous, and means for outputting the generated combined image data And a data composition processing unit 12. Although the image data recording device 13 is shared by the cameras 1 and 2 in FIG. 1, it may be provided for each of the cameras 1 and 2.

また、カメラ1,2は動画をデジタルデータとして取り込み可能なカメラであって、たとえば、デジタルビデオカメラなどを用いることができる。これらカメラ1,2は本発明用として用意された専用のカメラである必要はなく、汎用のカメラの使用が可能である。また、性能的にも特に高性能である必要はなく、たとえば、性能の高さをフレームレートで表すとすれば、30fps程度のフレームレートであればよい。   The cameras 1 and 2 are cameras that can capture moving images as digital data. For example, digital video cameras can be used. These cameras 1 and 2 do not have to be dedicated cameras prepared for the present invention, and general-purpose cameras can be used. In terms of performance, it is not necessary to have a particularly high performance. For example, if the high performance is expressed by a frame rate, it may be a frame rate of about 30 fps.

これらカメラ1,2は、同じ被写体3を撮像可能で、かつ、カメラ1,2の視差が小さくなるように(望ましくは視差が無いように)、すなわち、同一の撮像範囲での撮像が可能となるように設置することが望ましい。また、光軸及び走査線が平行となるように設置されることもまた望ましい。このように、カメラ1,2は被写体3を静止画として同時に撮像した際に同一の画像が得られるように設置することが望ましい。また、カメラ1,2は本発明においては、各カメラから出力される画像データのフレームレートが各カメラ間で異なるものとする。   These cameras 1 and 2 can image the same subject 3 and can reduce the parallax of the cameras 1 and 2 (preferably without parallax), that is, imaging within the same imaging range. It is desirable to install so that it becomes. It is also desirable that the optical axis and the scanning line are installed in parallel. Thus, it is desirable that the cameras 1 and 2 be installed so that the same image can be obtained when the subject 3 is simultaneously captured as a still image. In the present invention, the cameras 1 and 2 are assumed to have different frame rates of image data output from the cameras.

なお、実施形態1では、撮像開始時すなわち初回の撮像(第1番目のフレーム画像として出力される画像データを得るための撮像)においては、カメラ2はカメラ1に対し、ユーザなどにより設定された遅延時間に対応する時間差を有して被写体3を撮像するものとする。この撮像開始時における撮像(以下では初回の撮像という)における時間差の設定は、撮像手段制御部11により設定を可能とする。また、設定する時間差はユーザによって所定範囲内で任意に設定可能である。   In the first embodiment, the camera 2 is set with respect to the camera 1 by the user or the like at the start of imaging, that is, at the first imaging (imaging for obtaining image data output as the first frame image). Assume that the subject 3 is imaged with a time difference corresponding to the delay time. The setting of the time difference in the imaging at the start of imaging (hereinafter referred to as the first imaging) can be set by the imaging means control unit 11. The time difference to be set can be arbitrarily set within a predetermined range by the user.

図2は画像データ処理装置10Aに用いられる撮像手段制御部11の構成を示す図である。
図2に示すように、撮像手段制御部11は、ユーザにより設定された遅延時間及び制御コマンド(撮像開始・終了コマンドなど)を入力するユーザ設定情報入力部111と、ユーザ設定情報入力部111に入力された遅延時間に基づいて遅延時間設定を行なうとともにその遅延時間を記憶可能な遅延時間設定部112と、遅延時間設定部112により設定された遅延時間及びユーザ設定情報入力部111に入力された制御コマンドをカメラ1,2に送信する送信部113を有している。なお、実施形態1では、前述したように、初回の撮像においては、カメラ2がカメラ1に対してユーザの設定した遅延時間に対応する時間差を有して撮像を開始する。
FIG. 2 is a diagram showing the configuration of the imaging means control unit 11 used in the image data processing apparatus 10A.
As shown in FIG. 2, the imaging means control unit 11 includes a user setting information input unit 111 for inputting a delay time and a control command (such as an imaging start / end command) set by the user, and a user setting information input unit 111. Based on the input delay time, the delay time is set and the delay time can be stored, and the delay time set by the delay time setting unit 112 and the user setting information input unit 111 are input. A transmission unit 113 that transmits a control command to the cameras 1 and 2 is provided. In the first embodiment, as described above, in the first imaging, the camera 2 starts imaging with a time difference corresponding to the delay time set by the user with respect to the camera 1.

また、遅延時間及び制御コマンドは、たとえば、設定値入力ボタンなどによって入力することも可能であり、また、リモートコントローラやパーソナルコンピュータ(PCという)などからネットワークやUSBを介して入力することも可能である。   Further, the delay time and the control command can be input by, for example, a set value input button or the like, or can be input from a remote controller or a personal computer (referred to as a PC) via a network or USB. is there.

なお、本発明の各実施形態では、遅延時間はフレーム数で表すものとする。すなわち、フレームレートが30fpsであるとすれば、遅延時間が1/30秒である場合は、それをフレーム数で表すと1フレームとなり、遅延時間が1/60秒である場合は、それをフレーム数で表すと0.5フレームとなる。   In each embodiment of the present invention, the delay time is represented by the number of frames. That is, if the frame rate is 30 fps, if the delay time is 1/30 seconds, it is 1 frame in terms of the number of frames, and if the delay time is 1/60 seconds, it is framed. In terms of numbers, this is 0.5 frames.

したがって、遅延時間として1フレームが設定されたとすれば、遅延時間としては1/30秒が設定されたことになり、また、遅延時間として0.5フレームが設定されたとすれば、遅延時間としては1/60秒が設定されたことになる。   Therefore, if 1 frame is set as the delay time, 1/30 second is set as the delay time, and if 0.5 frame is set as the delay time, the delay time is 1/60 second is set.

図3は画像データ処理装置10Aに用いられる画像データ合成処理部12の構成を示す図である。図3に示すように、画像データ合成処理部12は、画像データ記録装置13に記録されたカメラ1,2から出力される各画像データを入力する入力部121、この入力部121に入力された各画像データ、すなわち、画像データ記録装置13から出力されるカメラ1,2で撮像された各画像データの各フレーム画像を時間的に連続した合成画像データとする合成画像データ生成部123、合成画像データ生成部123で生成された合成画像データを出力する出力部124を有している。なお、入力部121はバッファ121aを有している。   FIG. 3 is a diagram showing the configuration of the image data composition processing unit 12 used in the image data processing apparatus 10A. As shown in FIG. 3, the image data composition processing unit 12 is input to the input unit 121 that inputs each image data output from the cameras 1 and 2 recorded in the image data recording device 13, and is input to the input unit 121. Each image data, that is, a composite image data generating unit 123 that uses each frame image of each image data captured by the cameras 1 and 2 output from the image data recording device 13 as temporally continuous composite image data, An output unit 124 that outputs the composite image data generated by the data generation unit 123 is provided. The input unit 121 includes a buffer 121a.

図4は画像データ処理装置10Aにおける画像データ処理手順を説明するフローチャートである。この画像データ処理装置10Aの動作に先立って、まず、ユーザによって遅延時間及び制御コマンドの入力がなされる。そして、撮像手段制御部11が撮像開始コマンドを各カメラ1,2に送る(ステップS1)。   FIG. 4 is a flowchart for explaining an image data processing procedure in the image data processing apparatus 10A. Prior to the operation of the image data processing apparatus 10A, first, the user inputs a delay time and a control command. Then, the imaging means control unit 11 sends an imaging start command to each of the cameras 1 and 2 (step S1).

カメラ1は撮像開始コマンドにより撮像を開始し(ステップS2)、撮像された画像データを画像データ記録装置13に送る(ステップS3)。一方、カメラ2は、まず、初回の撮像か否かが判定され(ステップS4)、初回の撮像であれば、遅延時間設定部112で設定された遅延時間が経過したか否かを判定し(ステップS5)、遅延時間が経過すると、撮像を開始する(ステップS6)。また、ステップS4において、初回の撮像でないと判定された場合は、直接、ステップS6の動作を行なう。カメラ2で撮像された画像データも画像データ記録装置13に送られる(ステップS3)。なお、遅延時間は初回の撮像においてのみ、カメラ1,2の同期信号として機能する。   The camera 1 starts imaging by an imaging start command (step S2), and sends the captured image data to the image data recording device 13 (step S3). On the other hand, the camera 2 first determines whether or not it is the first imaging (step S4), and if it is the first imaging, determines whether or not the delay time set by the delay time setting unit 112 has passed ( Step S5) When the delay time elapses, imaging is started (step S6). If it is determined in step S4 that the first imaging is not performed, the operation in step S6 is performed directly. Image data captured by the camera 2 is also sent to the image data recording device 13 (step S3). Note that the delay time functions as a synchronization signal for the cameras 1 and 2 only in the first imaging.

そして、撮像終了コマンドの有無を判定し(ステップS7)、撮像終了コマンドがなければ、カメラ1はステップS2に戻り、カメラ2はステップS4に戻る。また、ステップS7において撮像終了コマンドが入ったと判定されると、画像データ合成処理部12の合成画像データ生成部123が画像データ記録装置13に記録されたカメラ1,2で撮像された画像データを受け取る(ステップS8)。合成画像データ生成部123では画像データ記録装置13から受け取ったカメラ1、2で撮像された各画像データを時間的に連続するように合成し(ステップS9)、合成画像データを出力する(ステップS10)。   Then, the presence / absence of an imaging end command is determined (step S7). If there is no imaging end command, the camera 1 returns to step S2, and the camera 2 returns to step S4. If it is determined in step S7 that an imaging end command has been input, the composite image data generation unit 123 of the image data composition processing unit 12 captures the image data captured by the cameras 1 and 2 recorded in the image data recording device 13. Receive (step S8). The composite image data generation unit 123 combines the image data captured by the cameras 1 and 2 received from the image data recording device 13 so as to be temporally continuous (step S9), and outputs the composite image data (step S10). ).

ところで、本発明では、カメラ1,2はフレームレートが異なるものを用いている。たとえば、カメラ1のフレームレートが30fps、カメラ2のフレームレートが10fpsであるとした場合、仮にカメラ1,2の撮像タイミングが互いに同期が取れ、かつ、同時に撮像を開始したとすれば、カメラ1,2から出力される画像データの出力タイミングは図5に示すようなタイミングとなる。この図5からもわかるように、カメラ1のフレームレートが30fps、カメラ2のフレームレートが10fpsである場合には、カメラ1の3フレーム分がカメラ2の1フレーム分に相当する。
なお、図5において、フレームF1,F2,・・・は、カメラ1から出力される画像データにおけるフレーム画像を表し、フレームF1’,F2’,・・・はカメラ2から出力される画像データにおけるフレーム画像を表している。また、明細書中では、フレーム画像F1,F2,・・・というように表記するが、図5においては、「画像」を省略してフレームF1,F2,・・・のように表記している。これは、以降の説明に用いる他の図においても同様である。
By the way, in the present invention, cameras 1 and 2 having different frame rates are used. For example, assuming that the frame rate of the camera 1 is 30 fps and the frame rate of the camera 2 is 10 fps, if the imaging timings of the cameras 1 and 2 are synchronized with each other and the imaging starts simultaneously, the camera 1 , 2 output timing of the image data is as shown in FIG. As can be seen from FIG. 5, when the frame rate of the camera 1 is 30 fps and the frame rate of the camera 2 is 10 fps, three frames of the camera 1 correspond to one frame of the camera 2.
In FIG. 5, frames F1, F2,... Represent frame images in the image data output from the camera 1, and frames F1 ′, F2 ′,. Represents a frame image. In the specification, frame images F1, F2,... Are written, but in FIG. 5, “image” is omitted and frames F1, F2,. . The same applies to other drawings used in the following description.

図6は画像データ処理装置10Aにおけるカメラ1,2からの画像データの入力タイミングを示すタイムチャートである。実施形態1では、カメラ2はカメラ1に対して、初回の撮像においてはユーザによって設定された遅延時間に対応する時間差(ここでは、0.3フレーム分の時間差とする)だけ遅れて撮像を開始するものとしている。また、実施形態1(後に説明する他の実施形態も同様)では、カメラ1,2のフレームレートは、カメラ1が30fps、カメラ2が10fpsであるとする。   FIG. 6 is a time chart showing the input timing of image data from the cameras 1 and 2 in the image data processing apparatus 10A. In the first embodiment, the camera 2 starts imaging with respect to the camera 1 with a time difference corresponding to the delay time set by the user (here, a time difference of 0.3 frames) in the first imaging. I am going to do it. In Embodiment 1 (the same applies to other embodiments described later), it is assumed that the frame rates of the cameras 1 and 2 are 30 fps for the camera 1 and 10 fps for the camera 2.

このように、フレームレートの異なるカメラ1,2において、カメラ2がカメラ1に対して0.3フレーム分だけ遅れて撮像を開始した場合、図6(A),(B)に示すように、カメラ2の初回の撮像による画像データは、カメラ1に対して0.3フレーム分の時間差を有して出力される。なお、初回の撮像における遅延時間は0.3フレームに限られるものではなく、所定範囲内で任意に設定することができることは勿論である。   Thus, in the cameras 1 and 2 having different frame rates, when the camera 2 starts imaging with a delay of 0.3 frames from the camera 1, as shown in FIGS. Image data obtained by the first imaging of the camera 2 is output with a time difference of 0.3 frames from the camera 1. It should be noted that the delay time in the first imaging is not limited to 0.3 frames and can be arbitrarily set within a predetermined range.

また、そのあとの撮像すなわち2回目以降の撮像(第2番目のフレーム画像として出力される画像データを得るための撮像)については、各カメラ1,2間で撮像の同期を取らないので、それぞれの画像データの撮像タイミングは所定の条件のもとで任意となる。このため、2回目以降の撮像によって得られる各フレーム画像の出力タイミングも任意なものとなる。なお、上記した所定の条件としては、カメラ2はカメラ1に対して0〜1フレームの時間差の範囲内で遅れて撮像を開始するという内容であるとする。   Further, since the subsequent imaging, that is, the imaging after the second time (imaging for obtaining the image data output as the second frame image) is not synchronized between the cameras 1 and 2, respectively. The imaging timing of the image data is arbitrary under a predetermined condition. For this reason, the output timing of each frame image obtained by the second and subsequent imaging is also arbitrary. It is assumed that the predetermined condition described above is that the camera 2 starts imaging with a delay within a time difference of 0 to 1 frame from the camera 1.

図7は画像データ処理装置10Aにおける画像データ合成処理を説明するタイムチャートである。この図7は遅延時間設定部112に対し、遅延時間として0.3フレームが設定された場合を示している。図7(A),(B)はカメラ1,2で撮像された画像データの入力タイミングを示す図であり、これは図6(A),(B)と同じものである。
カメラ1,2で撮像された図7(A),(B)に示すような画像データは、画像データ記録装置13にたとえば図8に示すように記録される。
FIG. 7 is a time chart for explaining the image data composition processing in the image data processing apparatus 10A. FIG. 7 shows a case where 0.3 frame is set as the delay time for the delay time setting unit 112. FIGS. 7A and 7B are diagrams showing input timings of image data captured by the cameras 1 and 2, which are the same as FIGS. 6A and 6B.
Image data as shown in FIGS. 7A and 7B captured by the cameras 1 and 2 is recorded in the image data recording device 13 as shown in FIG.

図8は画像データ記録装置13上における画像データの記録状態の一例を示す図である。図8に示すように、記憶領域の先頭から撮像順(この場合、カメラ1、カメラ2の順)にそれぞれのフレーム画像が、カメラ1のフレーム画像F1、カメラ2のフレーム画像F1’、カメラ1のフレーム画像F2、カメラ1のフレーム画像F3、・・・というように記録されて行く。なお、画像データ記録装置13がカメラ1,2に対応して備えられている場合には、カメラ1,2に対応する各画像データ記録装置に対して、当該カメラから入力した画像データの各フレーム画像がそれぞれ撮像順に記録されて行く。   FIG. 8 is a diagram illustrating an example of a recording state of image data on the image data recording device 13. As shown in FIG. 8, the respective frame images in the order of imaging from the top of the storage area (in this case, camera 1 and camera 2 in this order) are the frame image F1 of camera 1, the frame image F1 ′ of camera 2, and the camera 1 respectively. The frame image F2, the frame image F3 of the camera 1, and so on are recorded. When the image data recording device 13 is provided corresponding to the cameras 1 and 2, each frame of image data input from the camera is sent to each image data recording device corresponding to the cameras 1 and 2. Each image is recorded in the order of imaging.

そして、画像データ記録装置13に記録されたカメラ1,2から入力した画像データを用いて合成画像データ生成部123が画像データ合成処理を行う。この画像データ合成処理は、カメラ2のフレームレートがカメラ1に対して1/3であるので、図7(C)に示すように、カメラ1のフレーム画像F1,F2,・・・における3つのフレーム画像に1つの割合、すなわち、3つのフレーム画像ごとにカメラ2のフレーム画像を挿入するような合成処理がなされる。ただし、合成処理後のカメラ1,2の各フレーム画像の時間長を設定することができないので、図7(D)に示すように、単純に60fpsの画像データとして合成する。   Then, using the image data input from the cameras 1 and 2 recorded in the image data recording device 13, the composite image data generation unit 123 performs an image data composition process. In this image data synthesis process, since the frame rate of the camera 2 is 1/3 of that of the camera 1, as shown in FIG. 7C, the three frame images F1, F2,. A synthesis process is performed in which one frame image is inserted into the frame image, that is, the frame image of the camera 2 is inserted every three frame images. However, since the time length of each frame image of the cameras 1 and 2 after the synthesis process cannot be set, as shown in FIG. 7D, the image data is simply synthesized as 60 fps image data.

この図7(D)に示すように、この場合、合成画像データの各フレーム画像ごとの時間長は考慮されず、単に等間隔(30fpsのフレームレートを基準に考えれば、0.5フレーム間隔)に各フレーム画像が並ぶ。ただし、カメラ1の元の画像データのフレーム画像F1.F2.F3,・・・における3つのフレーム画像ごとにカメラ2のフレーム画像が挿入された画像データとなる。   As shown in FIG. 7D, in this case, the time length for each frame image of the composite image data is not taken into account, but is simply equal (0.5 frame interval if considered based on a frame rate of 30 fps). Each frame image is lined up. However, the frame image F1. F2. Image data in which the frame image of the camera 2 is inserted for every three frame images in F3,.

なお、図7(D)に示す例では、フレーム画像F1、フレーム画像F1’、フレーム画像F2、フレーム画像F2、フレーム画像F3、フレーム画像F3、フレーム画像F4、フレーム画像F2’、・・・というように、カメラ1のフレーム画像F2とF3がそれぞれ2回連続しているが、これは、カメラ1のフレーム画像F2,F3とカメラ2のフレーム画像F1’との時間的な位置関係によるものである。この図7(D)に示すような合成画像データとすることによって、より自然な動きの画像データとすることができる。   In the example shown in FIG. 7D, the frame image F1, the frame image F1 ′, the frame image F2, the frame image F2, the frame image F3, the frame image F3, the frame image F4, the frame image F2 ′,. As described above, the frame images F2 and F3 of the camera 1 are each continuous twice. This is due to the temporal positional relationship between the frame images F2 and F3 of the camera 1 and the frame image F1 ′ of the camera 2. is there. By using composite image data as shown in FIG. 7D, image data with more natural motion can be obtained.

すなわち、図7(A),(B)からも明らかなように、カメラ2のフレーム画像F1’は、カメラ1のフレーム画像F2,F3よりも時間的に早く撮像された画像データである。したがって、仮に、カメラ2のフレーム画像F1’をカメラ1のフレーム画像F2とフレーム画像F3との間などに挿入すると、それによって得られる合成画像データは、動画の動きに不自然さが生じる画像データとなる場合も有り得るからである。   That is, as is clear from FIGS. 7A and 7B, the frame image F1 'of the camera 2 is image data captured earlier in time than the frame images F2 and F3 of the camera 1. Therefore, if the frame image F1 ′ of the camera 2 is inserted between the frame image F2 and the frame image F3 of the camera 1 or the like, the synthesized image data obtained thereby is image data that causes unnatural motion in the moving image. This is because there is a possibility of becoming.

なお、図7(D)の画像データは、前述したように、ネットワーク、プロジェクタなどの画像表示装置またはハードディスクなどの記録媒体などに出力可能である。たとえば、プロジェクタなどの画像表示装置に出力された場合には、該画像表示装置で60fpsのフレームレートの画像として表示される。   Note that the image data in FIG. 7D can be output to a network, an image display device such as a projector, or a recording medium such as a hard disk, as described above. For example, when output to an image display device such as a projector, the image is displayed as an image having a frame rate of 60 fps.

図9は画像データ合成処理をより詳細に説明するフローチャートである。図9におけるnはインデクスを表している。この実施形態のように、カメラ1のフレームレートが30fps、カメラ2のフレームレートが10fpsとした場合には、前述したように、カメラ1の3つのフレーム画像ごとにカメラ2のフレーム画像を挿入する動作を行なう。したがって、この場合、n=3となるタイミングでカメラ2で撮像された画像データをカメラ1で撮像された画像データに挿入するという動作を行う。また、カメラ1のフレームレートが30fps、カメラ2のフレームレートが15fpsである場合には、n=2となるタイミングでフレームレートの低いカメラ2で撮像された画像データをフレームレートの高いカメラ1で撮像された画像データに挿入するという動作を行う。   FIG. 9 is a flowchart for explaining the image data composition processing in more detail. In FIG. 9, n represents an index. When the frame rate of the camera 1 is 30 fps and the frame rate of the camera 2 is 10 fps as in this embodiment, the frame image of the camera 2 is inserted for every three frame images of the camera 1 as described above. Perform the action. Therefore, in this case, an operation is performed in which the image data captured by the camera 2 is inserted into the image data captured by the camera 1 at a timing when n = 3. Further, when the frame rate of the camera 1 is 30 fps and the frame rate of the camera 2 is 15 fps, image data captured by the camera 2 with a low frame rate at the timing when n = 2 is obtained with the camera 1 with a high frame rate. An operation of inserting the captured image data is performed.

図9において、まず、インデクスnがn=3に設定される(ステップS21)。そして、カメラ1で撮像された画像データの有無を判定し(ステップS22)、入力部121が画像データ記録装置13からカメラ1で撮像された画像データを受け取る(ステップS23)。   In FIG. 9, first, the index n is set to n = 3 (step S21). Then, the presence / absence of image data captured by the camera 1 is determined (step S22), and the input unit 121 receives the image data captured by the camera 1 from the image data recording device 13 (step S23).

ここで、n=3か否かを判定し(ステップS24)、この場合、n=3であるので、カメラ2で撮像された画像データの有無を判定し(ステップS25)、カメラ2で撮像された画像データがあれば、入力部121がカメラ2で撮像された画像データを画像データ記録装置13から受け取る(ステップS26)。   Here, it is determined whether n = 3 (step S24). In this case, since n = 3, the presence / absence of image data captured by the camera 2 is determined (step S25), and the image is captured by the camera 2. If there is still image data, the input unit 121 receives the image data captured by the camera 2 from the image data recording device 13 (step S26).

そして、n=0とする(ステップS27)。続いて、合成画像データ生成部123は、カメラ1で撮像された画像データとカメラ2で撮像された画像データとを時間的に連続するように合成し(ステップS28)、合成画像データを出力する(ステップS29)。このステップS28の処理は、たとえば、図7(D)におけるフレーム画像F1の後にフレーム画像F1’が挿入される処理に対応する。   Then, n = 0 is set (step S27). Subsequently, the composite image data generation unit 123 combines the image data captured by the camera 1 and the image data captured by the camera 2 so as to be temporally continuous (step S28), and outputs the composite image data. (Step S29). The process in step S28 corresponds to, for example, a process in which the frame image F1 'is inserted after the frame image F1 in FIG.

続いて、nを+1して(ステップS30)、ステップS22に戻り、ステップS22,S23,S24を行なうが、このとき、n=1であるので、ステップS24におけるn=3か否かの判定の結果、n=3ではないので、ステップS31の処理を行う。すなわち、合成画像データ生成部123は、カメラ1で撮像された画像データを複製し、カメラ1で撮像された画像データが時間的に2回連続するように合成し(ステップS31)、合成画像データを出力する(ステップS29)。このステップS31の処理は、たとえば、図7(D)におけるフレーム画像F2を2回連続させる処理に対応する。   Subsequently, n is incremented by 1 (step S30), the process returns to step S22, and steps S22, S23, and S24 are performed. At this time, since n = 1, it is determined whether n = 3 in step S24. As a result, since n = 3, the process of step S31 is performed. That is, the composite image data generation unit 123 duplicates the image data captured by the camera 1 and combines the image data captured by the camera 1 so as to be continuous twice in time (step S31). Is output (step S29). The process in step S31 corresponds to, for example, a process in which the frame image F2 in FIG.

続いて、nを+1して(ステップS30)、ステップS22に戻り、ステップS22,S23,S24を行なうが、このとき、n=2であるので、ステップS24におけるn=3か否かの判定の結果、n=3ではないので、今回もステップS31の処理を行う。この場合、ステップS31の処理は、たとえば、図7(D)におけるフレーム画像F3を2回連続させる処理に対応する。   Subsequently, n is incremented by 1 (step S30), the process returns to step S22, and steps S22, S23, and S24 are performed. At this time, since n = 2, it is determined whether n = 3 in step S24. As a result, since n = 3 is not satisfied, the process of step S31 is also performed this time. In this case, the process of step S31 corresponds to, for example, a process of continuing the frame image F3 in FIG. 7D twice.

続いて、nを+1して(ステップS30)、ステップS22に戻り、ステップS22,S23,S24を行なうが、このとき、n=3であるので、ステップS24におけるn=3か否かの判定の結果、今回はステップS25の処理を行う。このステップS25において、カメラ2で撮像された画像データがなければ、処理を終了するが、カメラ2で撮像された画像データがあれば、ステップS26の処理に移る。このステップS26以降の処理については前述したので、ここでは、説明を省略するが、このステップ26以降の処理のうち、ステップS28による処理は、たとえば、図7(D)におけるフレーム画像F4の後にフレーム画像F2’を挿入する処理に対応する。
以上のような動作を繰り返すことによって、図7(D)に示すような合成画像データが生成される。
Subsequently, n is incremented by 1 (step S30), the process returns to step S22, and steps S22, S23, and S24 are performed. At this time, since n = 3, it is determined whether n = 3 in step S24. As a result, the process of step S25 is performed this time. If there is no image data captured by the camera 2 in step S25, the process ends. If there is image data captured by the camera 2, the process proceeds to step S26. Since the processing after step S26 has been described above, the description thereof will be omitted here. Of the processing after step 26, the processing according to step S28 is performed, for example, after the frame image F4 in FIG. This corresponds to the process of inserting the image F2 ′.
By repeating the above operation, composite image data as shown in FIG. 7D is generated.

以上説明したように実施形態1では、動画の撮像が可能な汎用のカメラを複数台(実施形態1では2台としている)用いることにより、解像度を犠牲にすることなく高フレームレートが実現でき、時間軸上において高画質な画像データを生成することができる。すなわち、実施形態1によって生成された合成画像データは、動きの滑らかな動画の再現が可能な画像データとなる。また、カメラ1,2のフレームレートが異なる場合でも、カメラ1,2から入力した各画像データを時間的に連続させた合成画像データとすることができる。   As described above, in the first embodiment, by using a plurality of general-purpose cameras capable of capturing a moving image (two in the first embodiment), a high frame rate can be realized without sacrificing resolution. High-quality image data can be generated on the time axis. That is, the composite image data generated by the first embodiment is image data that can reproduce a moving image with smooth motion. Further, even when the frame rates of the cameras 1 and 2 are different, it is possible to obtain composite image data in which the image data input from the cameras 1 and 2 are temporally continuous.

なお、この合成画像データは、図7(D)に示すように、各フレーム画像の時間長が等しいので、このような合成画像データを、たとえば、プロジェクタなどの画像表示装置で表示する際、画像表示装置が本発明の画像データ処理装置に対応した画像表示装置(以下では対応表示装置という)であっても、また、本発明の画像データ処理装置に対応しない画像表示装置(以下では非対応表示装置という)であっても、各フレーム画像の時間長に対応した表示が可能となる。   As shown in FIG. 7D, since this composite image data has the same time length for each frame image, for example, when such composite image data is displayed on an image display device such as a projector, an image is displayed. Even if the display device is an image display device corresponding to the image data processing device of the present invention (hereinafter referred to as a corresponding display device), an image display device not corresponding to the image data processing device of the present invention (hereinafter referred to as non-corresponding display) Even a device) can be displayed corresponding to the time length of each frame image.

また、このように、2台のカメラを用い、一方のカメラからフレーム画像F1,F2,・・・、もう一方のカメラから時間差を有したフレーム画像F1’,F2’,・・・を出力することによる効果として、画像表示装置側でいわゆる「2度書き」を行なうような場合に有利になることも挙げられる。   In addition, using two cameras, frame images F1, F2,... Are output from one camera, and frame images F1 ′, F2 ′,. As an effect of this, there is also an advantage that the so-called “twice writing” is performed on the image display device side.

なお、実施形態1(以降に示す他の実施形態も同様)を実現するためには、カメラ1,2から入力した各画像データの位置ずれ補正、色補正、輝度補正などを行なうようにすることが望ましい。   In order to realize the first embodiment (the same applies to the other embodiments described below), it is necessary to perform misalignment correction, color correction, luminance correction, and the like of each image data input from the cameras 1 and 2. Is desirable.

カメラ1,2から入力した各画像データの位置ずれ補正は、カメラ1の画像データを基準画像データとして、カメラ2の画像データの位置ずれ補正を行うことが可能である。これは、たとえば、カメラ1の画像データの特定領域をカメラ2の画像データの中からブロックマッチングなどにより探し、カメラ1の画像データに対するカメラ2の画像データずれ量を検出し、そのずれ量からカメラ2の全体の画像データをカメラ1の画像データに合わせるといった処理である。   The positional deviation correction of each image data input from the cameras 1 and 2 can be performed by using the image data of the camera 1 as reference image data. This is because, for example, a specific area of the image data of the camera 1 is searched from the image data of the camera 2 by block matching or the like, the amount of deviation of the image data of the camera 2 with respect to the image data of the camera 1 is detected, and 2 is a process of matching the entire image data 2 with the image data of the camera 1.

また、カメラ1,2から入力した各画像データの色補正は、カメラ1の画像データと上記した位置ずれ補正後のカメラ2の画像データとの間で対応する各画素の基準となる色成分(赤R・緑G・青Bなど)それぞれについて両者の画素値の平均値を求める。そして、求められた平均値となるように、カメラ1の画像データ及びカメラ2の画像データそれぞれに対して画素値の調整を行なう。   In addition, color correction of each image data input from the cameras 1 and 2 is performed by using a color component (reference component) for each corresponding pixel between the image data of the camera 1 and the image data of the camera 2 after the above-described positional deviation correction. For each of red (R), green (G), blue (B), etc., the average value of both pixel values is obtained. Then, the pixel value is adjusted for each of the image data of the camera 1 and the image data of the camera 2 so that the obtained average value is obtained.

また、カメラ1,2から入力した各画像データの輝度補正は、上記した色補正と同様、カメラ1の画像データと上記した位置ずれ補正後のカメラ2の画像データとの間で対応する各画素の輝度値について両者の平均値を求める。そして、求められた平均値となるように、カメラ1の画像データ及びカメラ2の画像データそれぞれに対して輝度値を調整する。   Similarly to the above-described color correction, the luminance correction of each image data input from the cameras 1 and 2 corresponds to each pixel between the image data of the camera 1 and the image data of the camera 2 after the above-described misalignment correction. The average value of the two luminance values is obtained. Then, the brightness value is adjusted for each of the image data of the camera 1 and the image data of the camera 2 so that the obtained average value is obtained.

これらの各補正を行なうタイミングは、カメラ1,2による撮像開始前、画像データ合成処理部12の合成画像データ生成部123による画像データの合成処理中、カメラ1,2による撮像終了後などが考えられる。   The timing for performing each of these corrections may be before the start of imaging by the cameras 1 and 2, during the image data synthesis process by the synthesized image data generation unit 123 of the image data synthesis processing unit 12, after the imaging by the cameras 1 and 2 is completed It is done.

たとえば、カメラ1,2による撮像開始前に行なう場合は、撮像開始前に、各カメラ1,2でテストパターンなどを用いて撮像を試みる。ここで、撮像された画像データに基づいて補正を行なう。このときの補正パラメータを保存しておき、画像データ合成時に適用する。   For example, when the imaging is performed before the start of imaging by the cameras 1 and 2, the imaging is attempted using the test patterns and the like by the cameras 1 and 2 before the imaging is started. Here, correction is performed based on the captured image data. The correction parameters at this time are stored and applied at the time of image data synthesis.

また、画像データ合成処理中に行う場合は、各カメラ1,2の画像データを合成画像データ生成部123において合成する際に、逐次、実行する。これは前もって補正パラメータを決めておくよりも撮像時における環境の変化(明るさの変化など)を忠実に反映させることができる。   Further, when it is performed during the image data synthesis process, the image data of the cameras 1 and 2 are sequentially executed when the synthesized image data generation unit 123 synthesizes the image data. This can more accurately reflect environmental changes (such as changes in brightness) at the time of imaging, rather than predetermining correction parameters.

また、撮像終了後に行なう場合は、この実施形態1を含む蓄積型に特に有効である。つまり、最終的な画像データの出力までに時間的な余裕がある場合、さらに精度よく補正を行うことができる。
なお、カメラ1,2から入力した各画像データの位置ずれ補正、色補正、輝度補正などの各種の補正は、必ずしもこれをすべて行なう必要はなく、必要に応じて行なえばよい。
In addition, when the image capturing is performed after the image capturing is completed, the storage type including the first embodiment is particularly effective. That is, when there is a time margin until the final image data is output, correction can be performed with higher accuracy.
Note that various corrections such as misalignment correction, color correction, and luminance correction of the image data input from the cameras 1 and 2 are not necessarily performed, and may be performed as necessary.

[実施形態2]
前述した実施形態1は、初回の撮像においては、カメラ2はカメラ1に対しユーザの設定した遅延時間に対応する時間差で撮像を遅らせるようにしたが、カメラ1,2の撮像タイミングはユーザが設定することなく初回から任意とすることも可能である。
[Embodiment 2]
In the first embodiment described above, in the first imaging, the camera 2 delays imaging with a time difference corresponding to the delay time set by the user with respect to the camera 1, but the imaging timing of the cameras 1 and 2 is set by the user. It is also possible to make it arbitrary from the first time without doing.

実施形態2は実施形態1において、カメラ1,2の撮像タイミングは初回から任意とした場合である。この場合、カメラ1,2の撮像タイミングは、両者が同じタイミングあってもよく、カメラ1がカメラ2よりも早くてもよい。また、逆にカメラ2がカメラ1よりも早くてもよいが、この実施形態2では、実施形態1で説明した所定の条件、すなわち、カメラ2はカメラ1に対して0〜1フレームの時間差の範囲内の任意のタイミングで遅れて撮像を開始するものとする。   The second embodiment is a case where the imaging timing of the cameras 1 and 2 is arbitrary from the first time in the first embodiment. In this case, the imaging timing of the cameras 1 and 2 may be the same timing, or the camera 1 may be earlier than the camera 2. Conversely, the camera 2 may be earlier than the camera 1, but in the second embodiment, the predetermined condition described in the first embodiment, that is, the camera 2 has a time difference of 0 to 1 frame with respect to the camera 1. It is assumed that imaging is started with a delay at an arbitrary timing within the range.

実施形態2に係る画像データ処理装置の構成は、実施形態1に係る画像データ処理装置10Aをそのまま用いることができるので、実施形態2に係る画像データ処理装置としての図示は省略する。なお、説明の都合上、実施形態2に係る画像データ処理装置に10Bの符号を付して画像データ処理装置10Bとして説明する。また、この画像データ処理装置10Bを構成する撮像手段制御部11及び画像データ合成処理部12も実施形態1で説明したものを用いることができるので、これらの図示も省略する。   Since the configuration of the image data processing apparatus according to the second embodiment can use the image data processing apparatus 10A according to the first embodiment as it is, the illustration as the image data processing apparatus according to the second embodiment is omitted. For convenience of explanation, the image data processing apparatus according to the second embodiment will be described as the image data processing apparatus 10B with the reference numeral 10B. Further, since the image pickup means control unit 11 and the image data composition processing unit 12 constituting the image data processing apparatus 10B can use those described in the first embodiment, their illustration is also omitted.

図10は実施形態2に係る画像データ処理装置10Bの画像データ処理手順を説明するフローチャートである。この画像データ処理装置10Bの処理開始に先立って、まず、ユーザによって撮像開始コマンドの入力がなされる。そして、撮像手段制御部11が撮像開始コマンドを各カメラ1,2に送る(ステップS41)。これにより、カメラ1は撮像を開始し(ステップS42)、撮像された画像データを画像データ記録装置13に送る(ステップS43)。   FIG. 10 is a flowchart for explaining an image data processing procedure of the image data processing apparatus 10B according to the second embodiment. Prior to the start of processing of the image data processing apparatus 10B, first, the user inputs an imaging start command. Then, the imaging means control unit 11 sends an imaging start command to each of the cameras 1 and 2 (step S41). Thereby, the camera 1 starts imaging (step S42), and sends the captured image data to the image data recording device 13 (step S43).

一方、カメラ2も所定のタイミングで撮像を開始(ステップS44)、撮像された画像データを画像データ記録装置13に送る(ステップS43)。なお、カメラ2の撮像開始のタイミングは前述した所定の条件に基づいて行なわれる。   On the other hand, the camera 2 also starts imaging at a predetermined timing (step S44), and sends the captured image data to the image data recording device 13 (step S43). Note that the timing of the start of imaging by the camera 2 is performed based on the predetermined condition described above.

図10におけるステップS45、S46,S47,S48の処理は、図4のステップS7,S8,S9,S10の処理と同じであるので、説明は省略する。   The processes in steps S45, S46, S47, and S48 in FIG. 10 are the same as the processes in steps S7, S8, S9, and S10 in FIG.

この実施形態2によれば、実施形態1と同様の効果が得られるとともに、実施形態2の場合、撮像開始時にユーザがカメラ1に対するカメラ2の撮像タイミングの設定を行わなくても各カメラが任意のタイミングで撮像を行なうことができる。   According to the second embodiment, the same effects as in the first embodiment can be obtained. In the second embodiment, each camera can be arbitrarily set even when the user does not set the imaging timing of the camera 2 with respect to the camera 1 at the start of imaging. Imaging can be performed at the timing of.

[実施形態3]
実施形態3に係る画像データ処理装置は、コンテンツの内容に応じて、遅延時間の設定し、設定された遅延時間に基づいた中間画像データを生成して、該中間画像データを用いて合成画像データの生成を行うものである。なお、この実施形態3は実施形態1及び実施形態2のいずれにも適用可能であることは勿論であるが、ここでは、実施形態1に適用した例について説明する。また、この実施形態3においても実施形態1及び実施形態2と同様、撮像手段として2台のカメラ1,2を用いた場合について説明する。
[Embodiment 3]
The image data processing apparatus according to the third embodiment sets a delay time according to the content, generates intermediate image data based on the set delay time, and uses the intermediate image data to generate composite image data. Is generated. In addition, although this Embodiment 3 is applicable to both Embodiment 1 and Embodiment 2, of course, the example applied to Embodiment 1 is demonstrated here. In the third embodiment, as in the first and second embodiments, a case where two cameras 1 and 2 are used as imaging means will be described.

実施形態3に係る画像データ処理装置の構成は、図1に示す画像データ処理装置10Aと同じあるので、実施形態3に係る画像データ処理装置としての図示は省略する。なお、説明の都合上、実施形態3に係る画像データ処理装置に10Cの符号を付して画像データ処理装置10Cとして説明する。   Since the configuration of the image data processing apparatus according to the third embodiment is the same as that of the image data processing apparatus 10A shown in FIG. 1, the illustration as the image data processing apparatus according to the third embodiment is omitted. For convenience of explanation, the image data processing apparatus according to the third embodiment will be described as the image data processing apparatus 10C with the reference numeral 10C.

図11は画像データ処理装置10Cに用いられる画像データ合成処理部12の構成を示す図である。図11の画像データ合成処理部12が実施形態1の説明で用いた図3と異なるのは、コンテンツ解析部125を有している点である。   FIG. 11 is a diagram showing the configuration of the image data composition processing unit 12 used in the image data processing apparatus 10C. The image data composition processing unit 12 in FIG. 11 is different from that in FIG. 3 used in the description of the first embodiment in that it includes a content analysis unit 125.

すなわち、この画像データ処理装置10Cに用いられる画像データ合成処理部12は、コンテンツ解析部125が画像データ記録装置13に記録されているカメラ1,2の画像データ間のコンテンツ解析を行い、該コンテンツ解析結果に基づいた遅延時間(この遅延時間については後述する)を設定する機能、該設定された遅延時間に基づいて中間画像データを生成し、該生成された中間画像データと前記複数の撮像手段のある撮像手段(実施形態3ではカメラ1)から入力した画像データとを時間的に連続するように合成して合成画像データを生成する機能を有する画像データ合成処理部12とを有している。
また、実施形態3に係る画像データ処理装置10Cに用いられる撮像手段制御部11は図2で示したものを用いることができるので図示は省略する。
That is, in the image data composition processing unit 12 used in the image data processing device 10C, the content analysis unit 125 performs content analysis between the image data of the cameras 1 and 2 recorded in the image data recording device 13, and the content A function of setting a delay time based on the analysis result (this delay time will be described later), generating intermediate image data based on the set delay time, and generating the generated intermediate image data and the plurality of imaging means An image data synthesizing processing unit 12 having a function of synthesizing image data input from an imaging means (camera 1 in the third embodiment) so as to be temporally continuous to generate synthesized image data. .
Further, since the imaging means controller 11 used in the image data processing apparatus 10C according to the third embodiment can be the same as that shown in FIG.

図12は画像データ処理装置10Cにおける画像データ処理手順を説明するフローチャートである。図12に示すフローチャートにおいて、ステップS51〜ステップS57は、図4のフローチャートのステップS1〜S7と同じ処理であるので、ここでは、ステップS57の撮像終了コマンドの有無の判定において、撮像終了コマンドが有りと判定されたあとの処理手順について説明する。   FIG. 12 is a flowchart for explaining an image data processing procedure in the image data processing apparatus 10C. In the flowchart shown in FIG. 12, steps S51 to S57 are the same processing as steps S1 to S7 in the flowchart of FIG. 4, so here, there is an imaging end command in the determination of the presence or absence of the imaging end command in step S57. A processing procedure after the determination is made will be described.

ステップS57において、撮像終了コマンドが有りと判定されると、コンテンツ解析部125が画像データ記録装置13に記録されたカメラ1,2の画像データを受け取り、コンテンツ解析を行う(ステップS58)。合成画像データ生成部123では、コンテンツ解析結果に基づき、中間画像データを生成し、生成された中間画像データをカメラ1の画像データと合成し(ステップS59)、その合成画像データを出力する(ステップS60)。   If it is determined in step S57 that there is an imaging end command, the content analysis unit 125 receives the image data of the cameras 1 and 2 recorded in the image data recording device 13 and performs content analysis (step S58). The composite image data generation unit 123 generates intermediate image data based on the content analysis result, combines the generated intermediate image data with the image data of the camera 1 (step S59), and outputs the composite image data (step S59). S60).

図13はコンテンツ解析を行う際のカメラ1,2の各フレーム画像の対応関係を説明する図である。この図13におけるカメラ1,2の各フレーム画像の入力タイミングは、実施形態1の説明で用いた図7(A),(B)と同じ入力タイミングの例が示されている。   FIG. 13 is a diagram for explaining the correspondence between the frame images of the cameras 1 and 2 when content analysis is performed. The input timing of each frame image of the cameras 1 and 2 in FIG. 13 shows the same input timing example as in FIGS. 7A and 7B used in the description of the first embodiment.

図13(A)〜(D)に示すように、まず、カメラ1のフレーム画像F1とカメラ2のフレーム画像F1’とのコンテンツ解析を行い、続いて、カメラ1のフレーム画像F2とカメラ2のフレーム画像F1’とのコンテンツ解析を行い、続いて、カメラ1のフレーム画像F3とカメラ2のフレーム画像F1’とのコンテンツ解析を行い、続いて、カメラ1のフレーム画像F4とカメラ2のフレーム画像F2’とのコンテンツ解析を行うというような順序でコンテンツ解析を行う。   As shown in FIGS. 13A to 13D, first, content analysis is performed on the frame image F1 of the camera 1 and the frame image F1 ′ of the camera 2, and then the frame image F2 of the camera 1 and the camera 2 are analyzed. Content analysis is performed on the frame image F1 ′, and then content analysis is performed on the frame image F3 of the camera 1 and the frame image F1 ′ of the camera 2, followed by the frame image F4 of the camera 1 and the frame image of the camera 2. Content analysis is performed in the order of content analysis with F2 ′.

この図13の例では、カメラ1のフレームレートが30fps、カメラ2のフレームレートが10fpsの例であるので、コンテンツ解析を行うフレーム画像の対応は、カメラ1の3つのフレーム画像ごとにカメラ2のフレーム画像が更新されることになる。なお、カメラ1のフレームレートが30fps、カメラ2のフレームレートが15fpsである場合には、コンテンツ解析を行うフレーム画像の対応は、カメラ1の2つのフレーム画像ごとにカメラ2のフレーム画像が更新されることになる。   In the example of FIG. 13, since the frame rate of the camera 1 is 30 fps and the frame rate of the camera 2 is 10 fps, the correspondence between the frame images to be analyzed for content is that of the camera 2 for every three frame images of the camera 1. The frame image is updated. When the frame rate of the camera 1 is 30 fps and the frame rate of the camera 2 is 15 fps, the correspondence between the frame images for content analysis is updated every two frame images of the camera 1. Will be.

次にコンテンツ解析部125の動作について説明する。コンテンツ解析部125は、この実施形態3の場合、図13(A)〜(D)に示したように、カメラ1とカメラ2の対応するフレーム画像間のコンテンツ解析を行い、その解析結果から画面全体の動きの変化及び/又は画面全体の明るさの変化を検出(実施形態3では画面全体の動きの変化及び画面全体の明るさ変化の両方を検出するものとする)する機能と、その検出結果に応じた遅延時間(フレーム数)を設定する機能と、設定された遅延時間(フレーム数)を合成画像データ生成部123に送る機能とを有している。   Next, the operation of the content analysis unit 125 will be described. In the case of the third embodiment, the content analysis unit 125 performs content analysis between corresponding frame images of the camera 1 and the camera 2 as shown in FIGS. A function for detecting a change in the overall movement and / or a change in the brightness of the entire screen (in the third embodiment, both a change in the movement of the entire screen and a change in the brightness of the entire screen are detected) and its detection It has a function of setting a delay time (number of frames) according to the result, and a function of sending the set delay time (number of frames) to the composite image data generation unit 123.

なお、動きの変化及び明るさの変化の検出のうち、動きの変化の検出を行った結果、動きの変化が大きい場合は遅延時間を短くし、動きの変化が小さい場合は遅延時間を大きくする。これは、動きの激しい場面で遅延時間を大きく設定すると、動画の視認性が悪くなり、残像感がより大きくなるからである。逆に、動きの緩やかな場面では、遅延時間を大きくとっても動画の視認性に大きな影響を与えないからである。   As a result of detecting a change in motion among changes in motion and brightness, the delay time is shortened when the change in motion is large, and the delay time is increased when the change in motion is small. . This is because if the delay time is set to be large in a scene where motion is intense, the visibility of the moving image is deteriorated and the afterimage feeling is further increased. On the other hand, in a slowly moving scene, even if the delay time is increased, the visibility of the moving image is not greatly affected.

一方、動きの変化及び明るさの変化の検出のうち、明るさの変化の検出を行った結果、明るさの変化が大きい場合は遅延時間を短くし、明るさの変化が小さい場合は遅延時間を大きくする。これは、明るさの変化が大きい場合は、場面が変化する可能性が高く、このような場面で遅延時間を大きく設定すると、動画の視認性が悪くなり、残像感がより大きくなるからである。逆に、明るさの変化が小さい場合は、場面の変化は小さい場合が多く、この場合は、遅延時間を大きくとっても動画の視認性に大きな影響を与えないからである。   On the other hand, the delay time is shortened when the brightness change is large as a result of detecting the brightness change among the motion change and brightness change detection, and the delay time when the brightness change is small. Increase This is because if the change in brightness is large, the scene is likely to change, and if the delay time is set to be large in such a scene, the visibility of the video will deteriorate and the afterimage will become larger. . Conversely, when the change in brightness is small, the change in the scene is often small, and in this case, even if the delay time is increased, the visibility of the moving image is not greatly affected.

ここで、動きの変化の検出(動き検出という)について説明する。動き検出は、種々の方法によって行うことが可能であるが、ここでは、一般的なブロックマッチング法を用いて、フレーム画像間の動きベクトルを求める例について説明する。   Here, detection of a change in motion (referred to as motion detection) will be described. Motion detection can be performed by various methods. Here, an example in which a motion vector between frame images is obtained using a general block matching method will be described.

図14は動き検出において用いられるブロックマッチング法について説明する図である。ブロックマッチング法は、ブロック単位で動きを検出する方法であり、現在、注目しているフレーム画像を含む複数のフレーム画像を利用する。この実施形態3では、現在、注目しているフレーム画像(tフレームとする)とその直前のフレーム画像(t−1フレームとする)を利用する。たとえば、図13(A)の例においては、tフレームは、カメラ2のフレーム画像F1’に相当し、t−1フレームは、カメラ1のフレーム画像F1に相当する。   FIG. 14 is a diagram for explaining a block matching method used in motion detection. The block matching method is a method for detecting motion in units of blocks, and uses a plurality of frame images including a frame image of interest at present. In the third embodiment, the currently focused frame image (referred to as t frame) and the immediately preceding frame image (referred to as t−1 frame) are used. For example, in the example of FIG. 13A, the t frame corresponds to the frame image F1 'of the camera 2, and the t-1 frame corresponds to the frame image F1 of the camera 1.

図14に示すように、tフレームにおけるブロックA1(L×Lのブロックサイズであるとする)をt−1フレームで動かして、tフレームのブロックA1と最もデータ値の近いブロックをt−1フレーム内で探索し、その場所と元の場所(破線で示す位置)とのずれ幅を動きベクトルとする。すなわち、以下の式において、Dが最小となるときの(i、j)を動きベクトルとする。

Figure 2006270160
(1)式において、LはブロックA1のサイズ、x,yはブロックA1のx軸方向及びy軸方向における移動方向、i,jはブロックA1の移動量、tはフレームを表す。動きベクトルを求める最も簡単な方法は、(i,j)のすべての組み合わせについて(1)式を計算し、Dが最小となる(i,j)の組み合わせを求めるという方法である。 As shown in FIG. 14, the block A1 (assuming that the block size is L × L) in the t frame is moved in the t−1 frame, and the block having the closest data value to the block A1 in the t frame is changed to the t−1 frame. The shift width between the place and the original place (position indicated by a broken line) is used as a motion vector. That is, in the following formula, (i, j) when D is minimum is a motion vector.
Figure 2006270160
In equation (1), L is the size of the block A1, x and y are the movement directions of the block A1 in the x-axis direction and the y-axis direction, i and j are the movement amounts of the block A1, and t is the frame. The simplest method for obtaining the motion vector is to calculate the equation (1) for all the combinations of (i, j) and obtain the combination of (i, j) that minimizes D.

このようにして、tフレームにおいて、ブロックごとに動きベクトルを求め、求められたブロックごとの動きベクトルから画面全体の動き量を以下の式で計算する。すなわち、動きベクトルをVとし、n個の動きベクトルが得られたとすると、画面全体の動き量Mは、

Figure 2006270160
と表すことができる。この(2)式によって得られた値がtフレームにおける画面全体の動き量となる。 In this way, the motion vector is obtained for each block in the t frame, and the motion amount of the entire screen is calculated from the obtained motion vector for each block by the following equation. That is, if the motion vector is V and n motion vectors are obtained, the motion amount M of the entire screen is
Figure 2006270160
It can be expressed as. The value obtained by equation (2) is the amount of motion of the entire screen in t frame.

なお、動き量の計算は、上記のように、各フレーム画像の画面全体について行うようにしてもよいが、計算処理を削減するために、画面中央の領域だけに対して行うようにしてもよい。これは、多くの場合、視聴者が注目するのは画面中央であることによるものである。   As described above, the motion amount may be calculated for the entire screen of each frame image. However, in order to reduce the calculation processing, the motion amount may be calculated only for the center area of the screen. . In many cases, this is because the viewer pays attention to the center of the screen.

以上のようにして、tフレームの動き量(t−1フレームに対してどの程度動いたかを示す量)が検出されると、検出された動き量に応じた遅延時間の設定を行う。以下に、動き量に応じた遅延時間設定について説明する。   As described above, when the motion amount of t frame (amount indicating how much the frame moves with respect to t-1 frame) is detected, the delay time is set according to the detected motion amount. The delay time setting according to the amount of motion will be described below.

図15は動き量に対する遅延時間の設定例を示す図である。なお、この場合、動き量は、0〜220の範囲の値に正規化されるものとする。図15に示すように、動き量が0である場合は、遅延時間としてのフレーム数は1(1フレーム)とし、動き量が220である場合は、遅延時間としてのフレーム数は0(0フレーム)とする。また、動き量が中間値の110である場合は、遅延時間としてのフレーム数は0.5(0.5フレーム)とする。このように、動き量に応じた遅延時間(フレーム数)を予め設定しておくことができる。   FIG. 15 is a diagram illustrating a setting example of the delay time with respect to the motion amount. In this case, the motion amount is normalized to a value in the range of 0 to 220. As shown in FIG. 15, when the amount of motion is 0, the number of frames as the delay time is 1 (1 frame), and when the amount of motion is 220, the number of frames as the delay time is 0 (0 frames). ). When the motion amount is an intermediate value of 110, the number of frames as the delay time is 0.5 (0.5 frames). In this way, the delay time (number of frames) according to the amount of motion can be set in advance.

そして、このようにして求められる動き量に対する遅延時間は、動き量から遅延時間の取得が可能なテーブルとして用意しておくことが可能である。
図16は動き量から遅延時間(フレーム数)の取得が可能なテーブルの一例を示す図である。図16に示すように、たとえば、動き量が「0〜20」の範囲における遅延時間は「1フレーム」、動き量が「21〜40」の範囲における遅延時間は「0.9フレーム」、動き量が「201〜220」の範囲における遅延時間は「0フレーム」というような内容となっており、このようなテーブルを作成しておくことによって、動き量が求められれば容易に動き量に対する遅延時間を設定することができる。
The delay time with respect to the motion amount obtained in this way can be prepared as a table from which the delay time can be obtained from the motion amount.
FIG. 16 is a diagram illustrating an example of a table capable of acquiring a delay time (the number of frames) from the motion amount. As shown in FIG. 16, for example, the delay time in the range of motion amount “0-20” is “1 frame”, the delay time in the range of motion amount “21-40” is “0.9 frame”, motion The delay time in the range of “201 to 220” has contents such as “0 frame”. If a motion amount is obtained by creating such a table, the delay with respect to the motion amount can be easily obtained. You can set the time.

以上、動き検出を行うことによって求められた動き量に応じた遅延時間を設定する例について説明したが、次に、明るさの変化の検出結果に応じた遅延時間を設定する例について説明する。なお、明るさの変化の検出というのは、ここでは輝度差を検出することであるとする。   The example of setting the delay time according to the amount of motion obtained by performing motion detection has been described above. Next, an example of setting the delay time according to the detection result of the change in brightness will be described. Note that the detection of a change in brightness is herein a detection of a luminance difference.

まず、各フレーム画像に対し、個々のフレーム画像の画素の輝度値を取得する。そして、取得した輝度値の平均値を求め、求められた輝度値の平均値を当該フレーム画像の全体の明るさであるとする。このようにして、各フレーム画像において、輝度値の平均値が求められると、フレーム画像間の輝度値の平均値の差を明るさ変化量とし、その明るさの変化量に基づいて遅延時間としてのフレーム数を設定する。   First, the luminance value of the pixel of each frame image is acquired for each frame image. Then, an average value of the acquired luminance values is obtained, and the average value of the obtained luminance values is assumed to be the overall brightness of the frame image. In this way, when the average value of the luminance values is obtained in each frame image, the difference between the average values of the luminance values between the frame images is used as the brightness change amount, and the delay time is determined based on the brightness change amount. Set the number of frames.

図17は明るさの変化量に対する遅延時間の設定例を示す図である。なお、この場合、明るさ変化量は、0〜220の範囲の値に正規化されるものとする。図17に示すように、明るさ変化量が0である場合は、遅延時間としてのフレーム数は1(1フレーム)であり、明るさ変化量が220である場合は、遅延時間としてのフレーム数は0(0フレーム)である。また、明るさ変化量が中間値の110である場合は、遅延時間としてのフレーム数は0.5(0.5フレーム)と設定される。このように、明るさ変化量に応じた遅延時間としてのフレーム数を予め設定しておくことができる。   FIG. 17 is a diagram illustrating a setting example of the delay time with respect to the amount of change in brightness. In this case, the brightness change amount is normalized to a value in the range of 0 to 220. As shown in FIG. 17, when the brightness change amount is 0, the number of frames as the delay time is 1 (1 frame), and when the brightness change amount is 220, the number of frames as the delay time. Is 0 (0 frame). When the brightness change amount is 110 as an intermediate value, the number of frames as the delay time is set to 0.5 (0.5 frames). Thus, the number of frames as the delay time according to the brightness change amount can be set in advance.

そして、このようにして求められる明るさ変化量に対する遅延時間は、動き量と同様、明るさ変化量から遅延時間の取得が可能なテーブルとして用意しておくことが可能である。
図18は明るさ変化量から遅延時間(フレーム数)の取得が可能なテーブルの一例を示す図である。図18に示すように、たとえば、明るさ変化量が「0〜20」の範囲における遅延時間は「1フレーム」、明るさ変化量が「21〜40」の範囲における遅延時間は「0.9フレーム」、明るさ変化量が「201〜220」の範囲における遅延時間は「0フレーム」というような内容となっており、このようなテーブルを作成しておくことによって、明るさ変化量が求められれば容易に明るさ変化量に対する遅延時間を設定することができる。
The delay time with respect to the brightness change amount obtained in this way can be prepared as a table in which the delay time can be obtained from the brightness change amount, similarly to the motion amount.
FIG. 18 is a diagram illustrating an example of a table capable of acquiring the delay time (number of frames) from the brightness change amount. As shown in FIG. 18, for example, the delay time in the range where the brightness change amount is “0-20” is “1 frame”, and the delay time in the range where the brightness change amount is “21-40” is “0.9”. The delay time in the range of “frame” and brightness change amount “201 to 220” has contents such as “0 frame”, and the brightness change amount is obtained by creating such a table. If so, it is possible to easily set a delay time for the brightness change amount.

以上のようにして、動き量に応じた遅延時間の設定と明るさ変化量に応じた遅延時間の設定を行うことができる。動き量に応じた遅延時間と明るさ変化量に応じた遅延時間のいずれか一方のみを用いることも可能であるが、本発明の各実施形態では、動き量と明るさ変化量の両方に基づいた遅延時間の設定を行うものとする。この動き量と明るさ変化量の両方に基づいて設定された遅延時間を、「動き量及び明るさ変化量を考慮した遅延時間」と呼ぶことにする。   As described above, it is possible to set the delay time according to the motion amount and the delay time according to the brightness change amount. Although it is possible to use only one of the delay time according to the motion amount and the delay time according to the brightness change amount, each embodiment of the present invention is based on both the motion amount and the brightness change amount. The delay time is set. The delay time set based on both the motion amount and the brightness change amount will be referred to as “a delay time considering the motion amount and the brightness change amount”.

この動き量及び明るさ変化量を考慮した遅延時間は、動き量に応じた遅延時間(フレーム数)と明るさ変化量に応じた遅延時間(フレーム数)との平均値とする。たとえば、動き量に応じた遅延時間(フレーム数)が0.3フレームであって、明るさ変化量に応じた遅延時間(フレーム数)が0.7フレームであったとすると、両者の平均を求め、0.5フレームを動き量及び明るさ変化量を考慮した遅延時間として設定する。   The delay time considering the motion amount and the brightness change amount is an average value of the delay time (number of frames) corresponding to the motion amount and the delay time (number of frames) corresponding to the brightness change amount. For example, if the delay time (number of frames) according to the amount of motion is 0.3 frames and the delay time (number of frames) according to the amount of change in brightness is 0.7 frames, the average of both is obtained. , 0.5 frame is set as a delay time considering the motion amount and the brightness change amount.

なお、動き量に応じた遅延時間(フレーム数)と明るさ変化量に応じた遅延時間(フレーム数)との平均値が、設定可能精度以下の値となった場合には、四捨五入、切り捨て、切り上げのいずれかを行う。   If the average value of the delay time (number of frames) according to the amount of motion and the delay time (number of frames) according to the amount of change in brightness is less than the settable accuracy, rounding, rounding down, Do one of the round ups.

一例として、この実施形態1のように、設定可能精度が小数点1位(0.1フレーム単位)までである場合には、たとえば、「求められた平均値が小数点2位以下の値となった場合には四捨五入する」というように決めておくことができる。これにより、平均値が0.52というように小数点2位以下の値として求められた場合は、遅延時間は0.5フレームとなる。   As an example, when the settable accuracy is up to the first decimal place (in units of 0.1 frame) as in the first embodiment, for example, “the obtained average value is a value less than the second decimal place. In some cases, it can be rounded off. As a result, when the average value is obtained as a value less than the second decimal place, such as 0.52, the delay time is 0.5 frame.

図19は動き量及び明るさ変化量を考慮して設定された遅延時間(フレーム数)と、該遅延時間に基づいて生成される中間画像データの一例を示す図である。図19に示すように、たとえば、コンテンツ解析を行ったフレーム画像がカメラ1のフレーム画像F1とカメラ2のフレーム画像F1’である場合、フレーム画像F1とフレーム画像F1’間において求められた遅延時間(動き量及び明るさ変化量を考慮した遅延時間)は0.3フレームであり、それによって生成される中間画像データは、1.3フレームであることを示している。   FIG. 19 is a diagram illustrating an example of a delay time (number of frames) set in consideration of the motion amount and the brightness change amount and intermediate image data generated based on the delay time. As shown in FIG. 19, for example, when the frame images subjected to content analysis are the frame image F1 of the camera 1 and the frame image F1 ′ of the camera 2, the delay time obtained between the frame image F1 and the frame image F1 ′ The (delay time considering the amount of motion and the amount of change in brightness) is 0.3 frames, and the intermediate image data generated thereby is 1.3 frames.

なお、図19における1.3フレーム、2.5フレーム、3.4フレーム、・・・の中間画像データは、カメラ1の各フレーム画像F1,F2,F3,・・・のフレーム番号に、コンテンツ解析によって求められた遅延時間を足した値(フレーム番号+遅延時間)で表したものである。たとえば、カメラ1のフレーム画像F1とカメラ2のフレーム画像F1’との間で求められた遅延時間が0.3フレームである場合には、1+0.3=1.3となり、これによって、1.3フレームの中間画像データが生成されることになる。   In FIG. 19, the intermediate image data of 1.3 frames, 2.5 frames, 3.4 frames,... Are stored in the frame numbers of the frame images F1, F2, F3,. This is expressed as a value (frame number + delay time) obtained by adding the delay time obtained by analysis. For example, when the delay time obtained between the frame image F1 of the camera 1 and the frame image F1 ′ of the camera 2 is 0.3 frame, 1 + 0.3 = 1.3. Three frames of intermediate image data are generated.

図20は画像データ処理装置10Cにおける画像データ合成処理を説明するタイムチャートである。図20(A),(B)は、カメラ1,2で撮像された画像データの入力タイミングを示す図であり、これは、実施形態1の説明で用いた図7(A),(B)と同じものである。   FIG. 20 is a time chart for explaining the image data composition processing in the image data processing apparatus 10C. FIGS. 20A and 20B are diagrams showing the input timing of image data captured by the cameras 1 and 2, which are the same as FIGS. 7A and 7B used in the description of the first embodiment. Is the same.

この図20(A),(B)に示すカメラ1,2から入力した画像データをコンテンツ解析した結果、図19に示したような中間画像データが求められたとする。この中間画像データとカメラ1から入力した画像データとを合成すると、図20(C)に示すような合成画像データが生成される。   Assume that intermediate image data as shown in FIG. 19 is obtained as a result of content analysis of the image data input from the cameras 1 and 2 shown in FIGS. When the intermediate image data and the image data input from the camera 1 are combined, combined image data as shown in FIG. 20C is generated.

なお、カメラ1のそれぞれのフレーム画像の撮像タイミングは必ずしも等間隔ではないが、合成する際には、カメラ1の撮像タイミングは等間隔であるとして合成を行う。また、合成の際のフレームレートは、カメラ1のフレームレート(この例では、30fps)を基準とする。また、この場合、見かけ上、60fpsのフレームレートとなるように、図20(C)のデータフォーマットにおいて、合成画像データの各フレームの時間長を調整する。   In addition, although the imaging timing of each frame image of the camera 1 is not necessarily at equal intervals, the synthesis is performed on the assumption that the imaging timing of the camera 1 is at equal intervals. The frame rate at the time of synthesis is based on the frame rate of the camera 1 (30 fps in this example). In this case, the time length of each frame of the composite image data is adjusted in the data format of FIG. 20C so that the frame rate is apparently 60 fps.

また、図20(C)に示す合成画像データにおいて、中間画像デ−タ2.3フレームがカメラ1の2フレーム目のフレーム画像F2よりも時間的に早い位置に挿入されている。また、同様に、中間画像デ−タ3.5フレームがカメラ1の3フレーム目のフレーム画像F3よりも時間的に早い位置に挿入されている。このように、中間画像デ−タ2.3フレームとカメラ1の2フレーム目のフレーム画像F2、中間画像デ−タ3.5フレームとカメラ1の3フレーム目のフレーム画像F3は、それぞれフレームの順番が逆転しているかのように見える。   In the composite image data shown in FIG. 20C, 2.3 frames of intermediate image data are inserted at a position earlier in time than the frame image F2 of the second frame of the camera 1. Similarly, the intermediate image data 3.5 frame is inserted at a position earlier in time than the third frame image F3 of the camera 1. In this way, the intermediate image data 2.3 frame and the frame image F2 of the second frame of the camera 1, and the intermediate image data 3.5 frame and the frame image F3 of the third frame of the camera 1, respectively, It looks as if the order is reversed.

これは、コンテンツ解析及び中間画像データの生成に用いたカメラ1のフレーム画像とカメラ2のフレーム画像の時間的な位置関係によるものである。たとえば、コンテンツ解析及び中間画像データの生成に用いたカメラ1のフレーム画像F2とカメラ2のフレーム画像F1’を時間的な位置で比べると、フレーム画像F1’の方がフレーム画像F2よりも時間的に早い画像データである。同様に、コンテンツ解析及び中間画像データの生成に用いたカメラ1のフレーム画像F3とカメラ2のフレーム画像F1’を時間的な位置で比べると、フレーム画像F1’の方がフレーム画像F3よりも時間的に早い画像データである。   This is due to the temporal positional relationship between the frame image of the camera 1 and the frame image of the camera 2 used for content analysis and generation of intermediate image data. For example, when the frame image F2 of the camera 1 and the frame image F1 ′ of the camera 2 used for content analysis and generation of intermediate image data are compared in terms of time, the frame image F1 ′ is more temporal than the frame image F2. It is very early image data. Similarly, when the frame image F3 of the camera 1 and the frame image F1 ′ of the camera 2 used for content analysis and generation of intermediate image data are compared in time position, the frame image F1 ′ has a longer time than the frame image F3. Image data.

なお、カメラ1,2は互いに任意のタイミング(非同期)で撮像を行なっているため、両者の正確な時間的な関係、すなわち、それぞれのフレーム画像においてどちらのカメラが早く撮像したのか否かは特定できないが、ここでは、カメラ2がカメラ1よりも前述した所定の条件のもとで遅れて撮像するとしている。   Since the cameras 1 and 2 are capturing images at arbitrary timings (asynchronous), the exact temporal relationship between them, that is, which camera captured earlier in each frame image is specified. In this case, it is assumed that the camera 2 takes an image later than the camera 1 under the predetermined condition described above.

したがって、カメラ1の各フレーム画像とカメラ2の各フレーム画像の時間的な位置関係は、カメラ1のフレーム画像F1はカメラ2のフレーム画像F1’より時間的に早いので、カメラ1のフレーム画像F1とカメラ2のフレーム画像F1’とによって生成された中間画像データ1.3フレームは、カメラ1のフレーム画像F1よりも時間的に遅い位置に挿入される。   Therefore, the temporal positional relationship between each frame image of the camera 1 and each frame image of the camera 2 is temporally earlier than that of the frame image F1 ′ of the camera 2 because the frame image F1 of the camera 1 is temporally related. And the intermediate image data 1.3 frame generated by the frame image F1 ′ of the camera 2 is inserted at a position later in time than the frame image F1 of the camera 1.

また、カメラ1のフレーム画像F2はカメラ2のフレーム画像F1’より時間的に遅いので、カメラ1のフレーム画像F2とカメラ2のフレーム画像F1’とによって生成された中間画像データ2.3フレームは、カメラ1のフレーム画像F2よりも時間的に早い位置に挿入される。   Further, since the frame image F2 of the camera 1 is later in time than the frame image F1 ′ of the camera 2, the intermediate image data 2.3 frame generated by the frame image F2 of the camera 1 and the frame image F1 ′ of the camera 2 is These are inserted at positions earlier in time than the frame image F2 of the camera 1.

同様に、カメラ1のフレーム画像F3はカメラ2のフレーム画像F1’より時間的に遅いので、カメラ1のフレーム画像F3とカメラ2のフレーム画像F1’とによって生成された中間画像データ3.5フレームは、カメラ1のフレーム画像F3よりも時間的に早い位置に挿入される。   Similarly, since the frame image F3 of the camera 1 is later in time than the frame image F1 ′ of the camera 2, the intermediate image data 3.5 frames generated by the frame image F3 of the camera 1 and the frame image F1 ′ of the camera 2 are used. Is inserted at a position earlier in time than the frame image F3 of the camera 1.

図21は画像データ合成処理部12のコンテンツ解析部125が行うコンテンツ解析処理及び合成画像データ生成部123が行う画像データ合成処理を説明するフローチャートである。
図21において、まず、インデクスnを所定の値(この場合、n=3)に設定する(ステップS61)。このインデクスnは、図9のフローチャートで説明したものと同じものであり、本発明の各実施形態では、カメラ1のフレームレートが30fps、カメラ2のフレームレートが10fpsとしているので、ステップS61では、n=3と設定される。
FIG. 21 is a flowchart for explaining content analysis processing performed by the content analysis unit 125 of the image data composition processing unit 12 and image data composition processing performed by the composite image data generation unit 123.
In FIG. 21, first, the index n is set to a predetermined value (in this case, n = 3) (step S61). This index n is the same as that described in the flowchart of FIG. 9, and in each embodiment of the present invention, the frame rate of the camera 1 is 30 fps and the frame rate of the camera 2 is 10 fps. n = 3 is set.

まず、ステップS61においてn=3と設定されたあと、カメラ1で撮像された画像データの有無を判定し(ステップS62)、入力部121が画像データ記録装置13からカメラ1で撮像された画像データを受け取る(ステップS63)。   First, after setting n = 3 in step S61, it is determined whether there is image data captured by the camera 1 (step S62), and the input unit 121 captures image data captured by the camera 1 from the image data recording device 13. Is received (step S63).

ここで、n=3か否かを判定し(ステップS64)、このとき、n=3であるので、カメラ2で撮像された画像データの有無を判定し(ステップS65)、カメラ2で撮像された画像データがあれば入力部がカメラ2で撮像された画画像データを受け取る(ステップS66)。   Here, it is determined whether or not n = 3 (step S64). At this time, since n = 3, the presence or absence of image data captured by the camera 2 is determined (step S65), and the image is captured by the camera 2. If there is any image data, the input unit receives the image data captured by the camera 2 (step S66).

そして、n=0とし(ステップS67)、コンテンツ解析部125がカメラ1で撮像された画像データとカメラ2で撮像された画像データとの間でコンテンツ解析を行う(ステップS68)。続いて、合成画像データ生成部123は、コンテンツ解析結果に基づき、中間画像データを生成し、該中間画像データとカメラ1で撮像された画像データとを時間的に連続するように合成し(ステップS69)、合成画像データを出力する(ステップS70)。このステップS69の処理は、図20(C)におけるフレーム画像F1の後に中間画像データ1.3フレームを挿入する処理に対応する。   Then, n = 0 is set (step S67), and the content analysis unit 125 performs content analysis between the image data captured by the camera 1 and the image data captured by the camera 2 (step S68). Subsequently, the composite image data generation unit 123 generates intermediate image data based on the content analysis result, and combines the intermediate image data and the image data captured by the camera 1 so as to be temporally continuous (step S69), the composite image data is output (step S70). The process of step S69 corresponds to the process of inserting 1.3 frames of intermediate image data after the frame image F1 in FIG.

続いて、nを+1して(ステップS71)、ステップS62に戻り、ステップS62,S63,S64を行なうが、このとき、n=1であるので、ステップS64におけるn=3か否かの判定の結果、n=3ではないので、ステップS68の処理を行う。   Subsequently, n is incremented by 1 (step S71), the process returns to step S62, and steps S62, S63, and S64 are performed. At this time, since n = 1, it is determined whether n = 3 in step S64. As a result, since n = 3, the process of step S68 is performed.

すなわち、この場合、コンテンツ解析部125は、カメラ1で撮像された画像データ(フレーム画像F2)とカメラ2で撮像された画像データ(フレーム画像F1’)との間でコンテンツ解析を行い、該コンテンツ解析結果を用いて合成画像データ生成部123が中間画像データを生成し、該中間画像データとカメラ1で撮像された画像データとを時間的に連続するように合成し、合成画像データを出力する(ステップS68,S69,S70)。この場合のステップS69の処理は、図20(C)におけるフレーム画像F2の前に中間画像データ2.3フレームを挿入する処理に対応する。   That is, in this case, the content analysis unit 125 performs content analysis between the image data captured by the camera 1 (frame image F2) and the image data captured by the camera 2 (frame image F1 ′). The composite image data generation unit 123 generates intermediate image data using the analysis result, combines the intermediate image data and the image data captured by the camera 1 so as to be temporally continuous, and outputs the composite image data. (Steps S68, S69, S70). The process in step S69 in this case corresponds to the process of inserting 2.3 frames of intermediate image data before the frame image F2 in FIG.

続いて、nを+1して(ステップS71)、ステップS62に戻り、ステップS62,S63,S64を行なうが、このとき、n=2であるので、ステップS64におけるn=3か否かの判定の結果、n=3ではないので、ステップS68の処理を行う。この場合、コンテンツ解析部125は、カメラ1で撮像された画像データ(フレーム画像F3)とカメラ2で撮像された(フレーム画像F1’)との間でコンテンツ解析を行う。そして、該コンテンツ解析結果を用いて合成画像データ生成部123が中間画像データを生成し、該中間画像データとカメラ1で撮像された画像データとを時間的に連続するように合成し、合成画像データを出力する(ステップS68,S69,S70)。この場合のステップS69の処理は、図20(C)におけるフレーム画像F3の前に中間画像データ3.5フレームを挿入する処理に対応する。   Subsequently, n is incremented by 1 (step S71), the process returns to step S62, and steps S62, S63, and S64 are performed. At this time, since n = 2, it is determined whether or not n = 3 in step S64. As a result, since n = 3, the process of step S68 is performed. In this case, the content analysis unit 125 performs content analysis between the image data captured by the camera 1 (frame image F3) and the image data captured by the camera 2 (frame image F1 '). Then, the composite image data generation unit 123 generates intermediate image data using the content analysis result, combines the intermediate image data and the image data captured by the camera 1 so as to be temporally continuous, and generates a composite image. Data is output (steps S68, S69, S70). The process in step S69 in this case corresponds to the process of inserting 3.5 frames of intermediate image data before the frame image F3 in FIG.

続いて、nを+1して(ステップS71)、ステップS62に戻り、ステップS62,S63,S64を行なうが、このとき、n=3であるので、ステップS65の処理を行う。すなわち、カメラ2で撮像された画像データの有無を判定し(ステップS65)、カメラ2で撮像された画像データがなければ処理を終了するが、カメラ2で撮像された画像データがあれば入力部がカメラ2で撮像された画像データを受け取る(ステップS66)。   Subsequently, n is incremented by 1 (step S71), the process returns to step S62, and steps S62, S63, and S64 are performed. At this time, since n = 3, the process of step S65 is performed. That is, the presence / absence of image data captured by the camera 2 is determined (step S65). If there is no image data captured by the camera 2, the process ends. If there is image data captured by the camera 2, the input unit Receives the image data captured by the camera 2 (step S66).

そして、n=0とし(ステップS67)、コンテンツ解析部125がカメラ1で撮像された画像データ(この場合、フレーム画像F4)とカメラ2で撮像された画像データ(この場合、フレーム画像F2’)との間でコンテンツ解析を行う(ステップS68)。続いて、合成画像データ生成部123は、コンテンツ解析結果に基づき、中間画像データを生成し、該中間画像データとカメラ1で撮像された画像データとを時間的に連続するように合成し(ステップS69)、該合成画像データを出力する(ステップS70)。このステップS69の処理は、図20(C)におけるフレーム画像F4の後に中間画像データ4.2フレームを挿入する処理に対応する。
以上のような動作を繰り返すことによって、合成画像データ生成部123からは、たとえば、図20(C)に示すような合成画像データが出力される。
Then, n = 0 is set (step S67), and the image data captured by the content analysis unit 125 with the camera 1 (in this case, the frame image F4) and the image data captured with the camera 2 (in this case, the frame image F2 ′). Content analysis is performed between the two (step S68). Subsequently, the composite image data generation unit 123 generates intermediate image data based on the content analysis result, and combines the intermediate image data and the image data captured by the camera 1 so as to be temporally continuous (step In step S69, the composite image data is output (step S70). The process of step S69 corresponds to the process of inserting 4.2 frames of intermediate image data after the frame image F4 in FIG.
By repeating the operation as described above, for example, composite image data as shown in FIG. 20C is output from the composite image data generation unit 123.

ところで、図20で示したような合成画像データは、各フレーム画像の時間長が均等でない画像データ、つまり、各フレーム画像の時間的な間隔が非等間隔な画像データとなる。
この図20(C)の合成画像データは、見かけ上は60fpsのフレームレートであるが、各フレーム画像の時間長が等しくない画像データであるので、一般的な画像データのフォーマットではない。
Incidentally, the composite image data as shown in FIG. 20 is image data in which the time lengths of the respective frame images are not uniform, that is, image data in which the time intervals of the respective frame images are unequal.
The composite image data in FIG. 20C apparently has a frame rate of 60 fps, but is not a general image data format because the time length of each frame image is not equal.

この図20(C)に示すような合成画像データを、たとえば、プロジェクタなどの画像表示装置で表示する際、画像表示装置が対応表示装置であれば、図20(C)に示すフレーム画像の時間長に対応した表示が可能となる。しかし、画像表示装置が非対応表示装置である場合は、通常の60fpsの画像データとしての表示を行なう。   When the composite image data as shown in FIG. 20C is displayed on an image display device such as a projector, for example, if the image display device is a compatible display device, the time of the frame image shown in FIG. Display corresponding to the length becomes possible. However, when the image display device is a non-compatible display device, display is performed as normal 60 fps image data.

図22は合成画像データ生成部123から出力される合成画像データのデータフォーマットの一例を示す図である。図22に示すように、合成画像データは、大きく分けると、他のフォーマットの画像データと区別するための識別子、データサイズなどが書き込まれるヘッダ領域、実際の画像データが書き込まれる画像データ書き込み領域を有している。   FIG. 22 is a diagram illustrating an example of the data format of the composite image data output from the composite image data generation unit 123. As shown in FIG. 22, the composite image data is roughly divided into an identifier for distinguishing it from image data of other formats, a header area where data size is written, and an image data writing area where actual image data is written. Have.

ヘッダ領域には、全フレーム数、各フレーム画像の時間長、画面サイズ(幅及び高さ)などが書き込まれる。また、画像データ書き込み領域には、合成画像データとして各フレーム画像に対する画像データが書き込まれる。   In the header area, the total number of frames, the time length of each frame image, the screen size (width and height), and the like are written. In the image data writing area, image data for each frame image is written as composite image data.

なお、このデータフォーマットを受け取る画像表示装置が本発明の対応表示装置である場合には、図22のデータフォーマットに基づいてデータ表示を行なうことができるが、非対応表示装置である場合には、図22のデータフォーマットでは読み込むことができない。   If the image display device that receives this data format is the corresponding display device of the present invention, data can be displayed based on the data format of FIG. 22, but if it is a non-compatible display device, The data format of FIG. 22 cannot be read.

そこで、画像データ書き込み領域に書き込まれる合成画像データについては一般的に用いられるAVI(Audio Video Interleaving)形式のデータとし、図22のヘッダ領域における「全フレーム数」、「各フレーム画像の時間長」などは別データとして出力することも可能である。   Therefore, the composite image data written in the image data writing area is data in the AVI (Audio Video Interleaving) format generally used, and “total number of frames” and “time length of each frame image” in the header area of FIG. Etc. can also be output as separate data.

このように、図22のヘッダ領域における「全フレーム数」、「各フレーム画像の時間長」などは別データとして出力することにより、対応表示装置においては、通常のAVI形式のデータと「全フレーム数」、「各フレーム画像の表示時間」などの記述されたデータの両方を読み込んで、その内容に応じた処理を行う。一方、非対応表示装置ではAV1形式のデータのみを読み込んで、その内容に応じた処理を行う。これによって、対応表示装置では、図20(C)に示すような各フレーム画像の時間長に対応した表示が可能となり、非対応表示装置では、通常の60fpsの画像データとしての表示が可能となる。   As described above, the “total number of frames”, the “time length of each frame image”, etc. in the header area of FIG. 22 are output as separate data. Both the described data such as “number” and “display time of each frame image” are read, and processing according to the contents is performed. On the other hand, the incompatible display device reads only the data in the AV1 format, and performs processing according to the content. As a result, the corresponding display device can display corresponding to the time length of each frame image as shown in FIG. 20C, and the non-compatible display device can display as normal 60 fps image data. .

以上説明したように実施形態3では、実施形態1と同様の効果が得られるほか、コンテンツの内容に応じて遅延時間を設定し、設定された遅延時間に基づいて中間画像データを生成し、生成された中間画像データとカメラ1で撮像された画像データとを時間的に連続するように合成して合成画像データを生成するようにしている。このように生成された合成画像データは、たとえば、動きの激しい場面や明るさの変化が大きい場面、動きの緩やかな場面や明るさの変化の小さな場面などに追従した滑らかな動画の再現が可能な画像データとすることができる。   As described above, in the third embodiment, the same effect as in the first embodiment can be obtained, and a delay time is set according to the content, and intermediate image data is generated based on the set delay time. The intermediate image data and the image data captured by the camera 1 are synthesized so as to be temporally continuous to generate synthesized image data. The composite image data generated in this way can be used to reproduce a smooth video that follows, for example, scenes with intense movement, scenes with large changes in brightness, scenes with slow movement, or scenes with small changes in brightness. Image data.

また、各カメラで撮像された画像データ間のコンテンツ解析は、実施形態3の場合、カメラ1のフレーム画像とカメラ2のフレーム画像とを図13(A)〜(D)に示すように対応付けて行うようにしているので、カメラ1とカメラ2の撮像タイミングの違いに対応した適切な中間画像データを生成することができる。このような中間画像データを用いて生成された合成画像データは、より自然な動画の再現が可能な画像データとすることができる。
なお、前述したように、実施形態3は実施形態2においても適用可能であることは勿論である。
In addition, in the case of the third embodiment, the content analysis between the image data captured by each camera associates the frame image of the camera 1 and the frame image of the camera 2 as shown in FIGS. Therefore, it is possible to generate appropriate intermediate image data corresponding to the difference in imaging timing between the camera 1 and the camera 2. The composite image data generated using such intermediate image data can be image data capable of reproducing a more natural moving image.
Of course, as described above, the third embodiment can also be applied to the second embodiment.

[実施形態4]
前述した実施形態3は、初回の撮像においては、カメラ1はカメラ2に対しユーザの設定した遅延時間に対応する時間差で撮像を遅らせるようにしたが、カメラ1,2の撮像タイミングはユーザが設定することなく初回から任意とすることも可能である。
[Embodiment 4]
In Embodiment 3 described above, in the first imaging, the camera 1 delays imaging with a time difference corresponding to the delay time set by the user with respect to the camera 2, but the imaging timing of the cameras 1 and 2 is set by the user. It is also possible to make it arbitrary from the first time without doing.

実施形態4は実施形態3において、カメラ1,2の撮像タイミングは初回から任意とした場合である。この場合、カメラ1,2の撮像タイミングは、両者が同じタイミングあってもよく、カメラ1がカメラ2よりも早くてもよい。また、逆にカメラ2がカメラ1よりも早くてもよいが、この実施形態4では、前述した所定の条件、すなわち、カメラ2はカメラ1に対して0〜1フレームの時間差の範囲内の任意のタイミングで遅れて撮像を開始するものとする。   The fourth embodiment is a case where the imaging timing of the cameras 1 and 2 is arbitrary from the first time in the third embodiment. In this case, the imaging timing of the cameras 1 and 2 may be the same timing, or the camera 1 may be earlier than the camera 2. Conversely, the camera 2 may be earlier than the camera 1, but in the fourth embodiment, the predetermined condition described above, that is, the camera 2 is arbitrary within a time difference range of 0 to 1 frame with respect to the camera 1. It is assumed that imaging is started with a delay at the timing.

実施形態4に係る画像データ処理装置の構成は、実施形態3に係る画像データ処理装置をそのまま用いることができるので、実施形態4に係る画像データ処理装置としての図示は省略する。
なお、説明の都合上、実施形態4に係る画像データ処理装置に10Dの符号を付して画像データ処理装置10Dとして説明する。また、この画像データ処理装置10Dを構成する撮像手段制御部11及び画像データ合成処理部12も実施形態3で説明したものを用いることができるので、これらの図示も省略する。
Since the configuration of the image data processing apparatus according to the fourth embodiment can use the image data processing apparatus according to the third embodiment as it is, the illustration as the image data processing apparatus according to the fourth embodiment is omitted.
For convenience of explanation, the image data processing apparatus according to the fourth embodiment will be described as the image data processing apparatus 10D with the reference numeral 10D. Further, since the imaging means control unit 11 and the image data composition processing unit 12 constituting the image data processing apparatus 10D can use those described in the third embodiment, their illustration is also omitted.

図23は実施形態4に係る画像データ処理装置10Dの画像データ処理手順を説明するフローチャートである。この画像データ処理装置10Dの処理開始に先立って、まず、ユーザによって撮像開始コマンドの入力がなされる。そして、撮像手段制御部11が撮像開始コマンドを各カメラ1,2に送る(ステップS81)。これにより、カメラ1は撮像を開始し(ステップS82)、撮像された画像データをコンテンツ解析部125に送る(ステップS83)。   FIG. 23 is a flowchart illustrating an image data processing procedure of the image data processing apparatus 10D according to the fourth embodiment. Prior to the start of processing of the image data processing apparatus 10D, first, an imaging start command is input by the user. Then, the imaging means control unit 11 sends an imaging start command to each of the cameras 1 and 2 (step S81). Thereby, the camera 1 starts imaging (step S82), and sends the captured image data to the content analysis unit 125 (step S83).

一方、カメラ2も所定のタイミングで撮像を開始(ステップS84)、撮像された画像データをコンテンツ解析部125に送る(ステップS83)。なお、カメラ2の撮像開始のタイミングは前述した所定の条件に基づいて行なわれる。
図23におけるステップS85〜S88の処理は、図12のステップS57〜S60の処理と同じであるので、説明は省略する。
On the other hand, the camera 2 also starts imaging at a predetermined timing (step S84), and sends the captured image data to the content analysis unit 125 (step S83). Note that the timing of the start of imaging by the camera 2 is performed based on the predetermined condition described above.
The processes in steps S85 to S88 in FIG. 23 are the same as the processes in steps S57 to S60 in FIG.

この実施形態4によれば、実施形態3と同様の効果が得られるとともに、実施形態4の場合、撮像開始時にユーザがカメラ1に対するカメラ2の撮像タイミングの設定を行わなくても各カメラが任意のタイミングで撮像を行なうことができる。   According to the fourth embodiment, the same effects as in the third embodiment can be obtained. In the fourth embodiment, each camera can be arbitrarily set even if the user does not set the imaging timing of the camera 2 with respect to the camera 1 at the start of imaging. Imaging can be performed at the timing of.

[実施形態5]
これまで説明した実施形態1〜実施形態4に係る画像データ処理装置10A〜10Dを用いることにより画像表示システムを構成することができる。実施形態5はこの画像表示システムについて説明する。なお、実施形態1〜実施形態4のいずれの画像データ処理装置10A〜10Dを用いても画像表示システムを構成することは可能であることは勿論であるが、ここでは、実施形態1に係る画像データ処理装置10Aを用いた画像表示システムについて説明する。
[Embodiment 5]
An image display system can be configured by using the image data processing devices 10A to 10D according to the first to fourth embodiments described so far. Embodiment 5 describes this image display system. Of course, the image display system can be configured using any of the image data processing devices 10A to 10D of the first to fourth embodiments, but here, the image according to the first embodiment is used. An image display system using the data processing apparatus 10A will be described.

図24は実施形態5に係る画像表示システムの構成を示す図である。実施形態5に係る画像表示システムは、概略的には、図24に示すように、撮像手段としてのカメラ1,2、画像データ処理装置10A、画像表示装置20、PCなどの情報処理装置30を有している。   FIG. 24 is a diagram illustrating a configuration of an image display system according to the fifth embodiment. As schematically shown in FIG. 24, the image display system according to the fifth embodiment includes cameras 1 and 2, an image data processing device 10A, an image display device 20, and an information processing device 30 such as a PC. Have.

このような画像表示システムにおいて、遅延時間の設定や撮像開始・終了などのコマンド入力は情報処理装置30上でマウスやキーボード操作などにより行うことができる。そして、画像データ処理装置10Aから出力される合成画像データ(たとえば、図7(D)参照)は、画像表示装置20に送られて表示される。   In such an image display system, command input such as delay time setting and imaging start / end can be performed on the information processing apparatus 30 by operating a mouse or a keyboard. Then, the composite image data (for example, see FIG. 7D) output from the image data processing device 10A is sent to the image display device 20 and displayed.

なお、図7(D)に示す合成画像データは、見かけ上は60fpsのフレームレートであり、各フレーム画像の時間長が等しい画像データである。このような合成画像データを画像表示装置20で表示する場合、画像表示装置20が対応表示装置であるか否かにかかわらず60fpsの画像データとして表示することができる。   Note that the composite image data shown in FIG. 7D is image data having an apparent frame rate of 60 fps, and the time length of each frame image being equal. When such composite image data is displayed on the image display device 20, it can be displayed as 60 fps image data regardless of whether or not the image display device 20 is a compatible display device.

図24に示すような画像表示システムを構築することにより、画像データ処理装置10A側では、解像度を犠牲にすることなく高フレームレートが実現でき、時間軸上において高画質な画像データを出力することができる。   By constructing an image display system as shown in FIG. 24, the image data processing apparatus 10A side can realize a high frame rate without sacrificing resolution, and output high-quality image data on the time axis. Can do.

図25は図24に示す画像表示システムの変形例を示す図である。図25に示す画像表示システムは、画像データ処理装置10AとしてPCなどの情報処理装置30を用いている。したがって、情報処理装置30には、画像データ合成処理部12としての動作が可能なソフトウエア(画像データ合成処理プログラム)と、撮像手段制御部11としての動作が可能なソフトウエア(撮像手段制御プログラム)が組み込まれている。なお、遅延時間や制御コマンドの入力は情報処理装置30上でマウスやキーボード操作などにより行なうことが可能である。   FIG. 25 is a diagram showing a modification of the image display system shown in FIG. The image display system shown in FIG. 25 uses an information processing apparatus 30 such as a PC as the image data processing apparatus 10A. Therefore, the information processing apparatus 30 includes software (image data synthesis processing program) that can operate as the image data synthesis processing unit 12 and software (imaging unit control program) that can operate as the imaging unit control unit 11. ) Is incorporated. Note that the delay time and the control command can be input on the information processing apparatus 30 by operating a mouse or a keyboard.

この図25に示す画像表示システムにおいても図24の画像表示システムと同様の効果が得られる。さらに、この図25に示すような構成とすることにより、画像表示システム全体をより簡素化することができる。なお、本発明の画像表示システムは、実施形態1に係る画像データ処理装置10Aだけでなく、実施形態2〜実施形態4に係る画像データ処理装置10B,10C,10Dを用いてもよいことは勿論である。   In the image display system shown in FIG. 25, the same effect as that of the image display system in FIG. 24 can be obtained. Further, by adopting the configuration as shown in FIG. 25, the entire image display system can be further simplified. The image display system of the present invention may use not only the image data processing device 10A according to the first embodiment but also the image data processing devices 10B, 10C, and 10D according to the second to fourth embodiments. It is.

なお、画像データ処理装置として実施形態3に係る画像データ処理装置10Cを用いた場合には、画像データ処理装置10Cからは、図20(C)のようが合成画像データ、すなわち、各フレーム画像の時間長が等しくない合成画像データが出力される。このような合成画像データを画像表示装置20で表示する場合、たとえば、画像表示装置20が対応表示装置であれば、それぞれのフレーム画像の時間長に対応した表示が可能であるが、画像表示装置20が非対応表示装置である場合は、通常の60fpsの画像データとしての表示を行なう。   When the image data processing apparatus 10C according to the third embodiment is used as the image data processing apparatus, the image data processing apparatus 10C receives composite image data, that is, each frame image as shown in FIG. Composite image data having unequal time lengths is output. When such composite image data is displayed on the image display device 20, for example, if the image display device 20 is a corresponding display device, display corresponding to the time length of each frame image is possible. When 20 is a non-compliant display device, display is performed as normal 60 fps image data.

このように、画像データ処理装置として画像データ処理装置10Cを用いた場合、コンテンツの内容に応じて設定された遅延時間に基づく中間画像データを生成し、生成された中間画像データとカメラ1から入力した画像データとを時間的に連続させるようにしているので、より動きの滑らかな動画の再現が可能な合成画像データを生成することができる。これにより、画像表示装置20側では、高画質な画像データの表示を行うことができる。   As described above, when the image data processing device 10C is used as the image data processing device, intermediate image data based on the delay time set in accordance with the content content is generated, and the generated intermediate image data and the camera 1 are input. Since the processed image data is temporally continuous, it is possible to generate composite image data capable of reproducing a moving image with smoother motion. Thereby, the image display device 20 can display high-quality image data.

本発明は上述の実施の形態に限られるものではなく、本発明の要旨を逸脱しない範囲で種々変形実施可能となるものである。たとえば、カメラ1,2の設置の仕方としては、図26(A)に示すように、カメラ1,2をそれぞれの光軸が直交するように設置して、ハーフミラー4を用いて被写体3を撮像するような設置の仕方であってもよい。また、カメラは3台以上としてもよいことは勿論であり、その場合の設置に仕方としては、たとえば、図26(B)に示すように、複数のハーフミラー4を設けるような例が考えられる。   The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention. For example, as a method of installing the cameras 1 and 2, as shown in FIG. 26A, the cameras 1 and 2 are installed so that their optical axes are orthogonal to each other, and the subject 3 is placed using the half mirror 4. The installation may be such that imaging is performed. Needless to say, the number of cameras may be three or more. For example, as shown in FIG. 26B, an example of providing a plurality of half mirrors 4 is conceivable. .

また、実施形態1〜実施形態4の各画像データ処理装置10A,10B,10C,10Dは、撮像手段、撮像手段制御部11及び画像データ合成処理部12を含む単体装置として構成することも可能である。   In addition, each of the image data processing devices 10A, 10B, 10C, and 10D according to the first to fourth embodiments can be configured as a single device including the imaging unit, the imaging unit control unit 11, and the image data synthesis processing unit 12. is there.

図27は画像データ処理装置を撮像手段、撮像手段制御部及び画像データ合成処理部を含む単体装置として構成した例を示す図である。図27に示す画像データ処理装置は、実施形態1に係る画像データ処理装置10A(図1参照)に対応するものであり、2台のカメラ1,2としての機能を果たす2つのCCD5a,5b、これら各CCD5a,5bに対応して設けられるCCDドライバ6a,6b、レンズ7、ハーフミラー4と、図1の撮像手段制御部11と画像データ合成処理部12を有している。   FIG. 27 is a diagram illustrating an example in which the image data processing apparatus is configured as a single apparatus including an imaging unit, an imaging unit control unit, and an image data synthesis processing unit. The image data processing apparatus shown in FIG. 27 corresponds to the image data processing apparatus 10A (see FIG. 1) according to the first embodiment, and includes two CCDs 5a and 5b that function as two cameras 1 and 2. The CCD drivers 6a and 6b, the lens 7, and the half mirror 4 provided corresponding to the CCDs 5a and 5b, the image pickup means controller 11 and the image data composition processor 12 shown in FIG.

画像データ処理装置をこの図27に示すような構成とすることにより、全体の構成を簡素化することができる。なお、このように画像データ処理装置を単体構成とすることは、実施形態1に係る画像データ処理装置10Aだけでなく、実施形態2〜実施形態4に係る画像データ処理装置10B,10C,10Dについても同様に実施可能である。   By configuring the image data processing device as shown in FIG. 27, the overall configuration can be simplified. It should be noted that such a single image data processing apparatus is configured not only for the image data processing apparatus 10A according to the first embodiment but also for the image data processing apparatuses 10B, 10C, and 10D according to the second to fourth embodiments. Can be similarly implemented.

また、前述の各実施形態では、画像データを記録する画像データ記録装置13を設けるようにしたが、各カメラから出力される画像データを入力する入力部をカメラごとに設け、これら各入力部にコンテンツ解析などを行うために必要な画像データを記憶するに必要な記憶容量を有するバッファを設けるようにすれば、画像データ記録装置13は必ずしも別個に用意する必要はない。   In each of the above-described embodiments, the image data recording device 13 for recording image data is provided. However, an input unit for inputting image data output from each camera is provided for each camera, and each of these input units is provided. If a buffer having a storage capacity necessary for storing image data necessary for content analysis or the like is provided, the image data recording device 13 does not necessarily have to be prepared separately.

また、本発明は以上説明した本発明を実現するための画像データ処理手順が記述された画像データ処理プログラムを作成し、その画像データ処理プログラムを各種の記録媒体に記録させておくこともできる。したがって、本発明は、その画像データ処理プログラムの記録された記録媒体をも含むものである。また、ネットワークからその画像データ処理プログラムを得るようにしてもよい。   Also, the present invention can create an image data processing program in which the image data processing procedure for realizing the present invention described above is described, and the image data processing program can be recorded on various recording media. Therefore, the present invention also includes a recording medium on which the image data processing program is recorded. Further, the image data processing program may be obtained from a network.

実施形態1に係る画像データ処理装置10Aの構成を示す図。1 is a diagram illustrating a configuration of an image data processing apparatus 10A according to a first embodiment. 画像データ処理装置10Aに用いられる撮像手段制御部11の構成を示す図。The figure which shows the structure of the imaging means control part 11 used for 10 A of image data processing apparatuses. 画像データ処理装置10Aに用いられる画像データ合成処理部12の構成を示す図。The figure which shows the structure of the image data composition process part 12 used for 10A of image data processing apparatuses. 画像データ処理装置10Aの画像データ処理手順を説明するフローチャート。The flowchart explaining the image data processing procedure of 10 A of image data processing apparatuses. カメラ1,2の撮像タイミングが互いに同期が取れ、かつ、同時に撮像を開始した場合のカメラ1,2から出力される画像データの出力タイミングを示すタイムチャート。4 is a time chart showing the output timing of image data output from the cameras 1 and 2 when the imaging timings of the cameras 1 and 2 are synchronized with each other and imaging is started at the same time. 画像データ処理装置10Aにおけるカメラ1,2の画像データの入力タイミングを示すタイムチャート。The time chart which shows the input timing of the image data of the cameras 1 and 2 in 10 A of image data processing apparatuses. 画像データ処理装置10Aにおける画像データ合成処理を説明するタイムチャート。The time chart explaining the image data synthetic | combination process in 10 A of image data processing apparatuses. 画像データ記録装置13上における画像データの記録状態の一例を示す図。FIG. 4 is a diagram illustrating an example of a recording state of image data on the image data recording device 13. 画像データ合成処理をより詳細に説明するフローチャート。The flowchart explaining an image data synthetic | combination process in detail. 実施形態2に係る画像データ処理装置10Bの画像データ処理手順を説明するフローチャート。9 is a flowchart for explaining an image data processing procedure of the image data processing apparatus 10B according to the second embodiment. 実施形態3に係る画像データ処理装置10Cに用いられる画像データ合成処理部12の構成を示す図。The figure which shows the structure of the image data synthetic | combination process part 12 used for 10C of image data processing apparatuses which concern on Embodiment 3. FIG. 画像データ処理装置10Cにおける画像データ処理手順を説明するフローチャート。The flowchart explaining the image data processing procedure in 10 C of image data processing apparatuses. コンテンツ解析を行う際のカメラ1,2の各フレーム画像の対応関係を説明する図。The figure explaining the correspondence of each frame image of the cameras 1 and 2 at the time of performing a content analysis. 動き検出において用いられるブロックマッチング法について説明する図。The figure explaining the block matching method used in a motion detection. 動き量に対する遅延時間の設定例を示す図。The figure which shows the example of a setting of the delay time with respect to a motion amount. 動き量から遅延時間(フレーム数)の取得が可能なテーブルの一例を示す図。The figure which shows an example of the table which can acquire delay time (frame number) from motion amount. 明るさ変化量に対する遅延時間の設定例を示す図The figure which shows the example of the setting of the delay time with respect to the brightness variation 明るさ変化量から遅延時間(フレーム数)の取得が可能なテーブルの一例を示す図。The figure which shows an example of the table which can acquire delay time (frame number) from brightness variation. 動き量及び明るさ変化量を考慮した遅延時間(フレーム数)と、該遅延時間に基づいて生成される中間画像データの一例を示す図。The figure which shows an example of the intermediate | middle image data produced | generated based on the delay time (frame number) which considered the amount of motion and the amount of brightness changes, and this delay time. 画像データ処理装置10Cにおける画像データ合成処理を説明するタイムチャート。The time chart explaining the image data synthetic | combination process in 10 C of image data processing apparatuses. 実施形態3に係る画像データ処理装置10Cに用いられる画像データ合成処理部12のコンテンツ解析部125が行うコンテンツ解析処理と合成画像データ生成部123が行う画像データ合成処理を説明するフローチャート。14 is a flowchart for explaining content analysis processing performed by a content analysis unit 125 of an image data composition processing unit 12 and image data composition processing performed by a composite image data generation unit 123 used in an image data processing apparatus 10C according to the third embodiment. 画像データ処理装置10Cの合成画像データ生成部123から出力される合成画像データのデータフォーマットの一例を示す図。The figure which shows an example of the data format of the composite image data output from the composite image data generation part 123 of 10C of image data processing apparatuses. 実施形態4に係る画像データ処理装置10Dの画像データ処理手順を説明するフローチャート。10 is a flowchart for explaining an image data processing procedure of the image data processing apparatus 10D according to the fourth embodiment. 実施形態5に係る画像表示システムの構成を示す図。FIG. 10 is a diagram illustrating a configuration of an image display system according to a fifth embodiment. 図24に示す画像表示システムの変形例を示す図。The figure which shows the modification of the image display system shown in FIG. カメラ1,2の設置の仕方の例を説明する図。The figure explaining the example of the installation method of the cameras 1 and 2. FIG. 画像データ処理装置を撮像手段、撮像手段制御部及び画像データ合成処理部を含む単体装置として構成した例を示す図。The figure which shows the example which comprised the image data processing apparatus as a single-piece | unit apparatus containing an imaging means, an imaging means control part, and an image data composition process part.

符号の説明Explanation of symbols

1,2・・・カメラ、3・・・被写体、10A,10B,10C,10D・・・画像データ処理装置、11・・・撮像手段制御部、12・・・画像データ合成処理部、13・・・画像データ記録装置、111・・・ユーザ設定情報入力部、112・・・遅延時間設定部、121・・・入力部、123・・・合成画像データ生成部、124・・・出力部、125・・・コンテンツ解析部   DESCRIPTION OF SYMBOLS 1, 2 ... Camera, 3 ... Subject, 10A, 10B, 10C, 10D ... Image data processing apparatus, 11 ... Imaging means control part, 12 ... Image data composition processing part, 13. ..Image data recording device, 111... User setting information input unit, 112... Delay time setting unit, 121... Input unit, 123. 125 ... Content analysis section

Claims (17)

複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力する手段と、
前記入力した複数の画像データを時間的に連続するように合成して合成画像データを生成する手段と、
を有することを特徴とする画像データ処理装置。
Means for inputting a plurality of image data having different frame rates obtained by imaging the same subject within the same imaging range and without considering the synchronization between the plurality of imaging means;
Means for synthesizing the plurality of input image data so as to be temporally continuous to generate composite image data;
An image data processing apparatus comprising:
請求項1に記載の画像データ処理装置において、
前記合成画像データを生成する手段は、前記複数の撮像手段のうち最も高いフレームレートを有する撮像手段のフレームレートと該最も高いフレームレートを有する撮像手段以外の他の撮像手段のフレームレートとの比に基づいて、前記最も高いフレームレートを有する撮像手段の画像データに対する前記他の撮像手段の画像データの挿入位置を設定し、該挿入位置で各画像データにおける各フレーム画像を時間的に連続するように合成することで合成画像データを生成することを特徴とする画像データ処理装置。
The image data processing apparatus according to claim 1,
The means for generating the composite image data is a ratio of a frame rate of an imaging means having the highest frame rate to a frame rate of an imaging means other than the imaging means having the highest frame rate among the plurality of imaging means. And setting the insertion position of the image data of the other imaging means with respect to the image data of the imaging means having the highest frame rate, so that each frame image in each image data is temporally continuous at the insertion position. An image data processing apparatus that generates composite image data by combining the data.
請求項1または2に記載の画像データ処理装置において、
前記複数の撮像手段のうち少なくとも1つの撮像手段に対し、撮像開始時間の設定が可能な撮像手段制御手段を有することを特徴とする画像データ処理装置。
The image data processing apparatus according to claim 1 or 2,
An image data processing apparatus comprising: an imaging means control means capable of setting an imaging start time for at least one imaging means among the plurality of imaging means.
請求項1〜3のいずれかに記載の画像データ処理装置において、
前記入力した複数の画像データに対し、位置ずれ補正、色補正、輝度補正のうち少なくとも1つの補正を行う手段を有することを特徴とする画像データ処理装置。
In the image data processing device according to any one of claims 1 to 3,
An image data processing apparatus comprising: means for performing at least one correction among positional deviation correction, color correction, and luminance correction on the plurality of input image data.
請求項1〜4のいずれかに記載の画像データ処理装置において、
前記入力した複数の画像データを記憶する画像データ記録装置を有し、前記合成画像データを生成する手段は、前記画像データ記録装置に記録された前記複数の画像データを用いて合成画像データを生成することを特徴とする画像データ処理装置。
In the image data processing device according to any one of claims 1 to 4,
The image data recording device that stores the plurality of input image data, and the means for generating the composite image data generates the composite image data using the plurality of image data recorded in the image data recording device. An image data processing apparatus.
複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力するステップと、
前記入力した複数の画像データを時間的に連続するように合成して合成画像データを生成するステップと、
を有することを特徴とする画像データ処理方法。
A plurality of image pickup means inputting a plurality of image data having different frame rates obtained by imaging the same subject in the same image pickup range and without considering the synchronization between the plurality of image pickup means;
Combining the plurality of input image data so as to be temporally continuous to generate composite image data;
An image data processing method comprising:
複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力するステップと、
前記入力した複数の画像データを時間的に連続するように合成して合成画像データを生成するステップと、
を実行可能であることを特徴とする画像データ処理プログラム。
A plurality of image pickup means inputting a plurality of image data having different frame rates obtained by imaging the same subject in the same image pickup range and without considering the synchronization between the plurality of image pickup means;
Combining the plurality of input image data so as to be temporally continuous to generate composite image data;
An image data processing program characterized in that
複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力する手段及び前記入力された複数の画像データを時間的に連続するように合成して合成画像データを生成する手段を有する画像データ処理装置と、
前記画像データ処理装置から出力される合成画像データを表示する画像表示装置と、
を有することを特徴とする画像表示システム。
Means for inputting a plurality of image data having different frame rates obtained by a plurality of image pickup means picking up the same subject within the same image pickup range and without considering the synchronization between the plurality of image pickup means; and An image data processing apparatus having means for synthesizing a plurality of input image data so as to be temporally continuous to generate composite image data;
An image display device for displaying the composite image data output from the image data processing device;
An image display system comprising:
複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力する手段と、
前記入力した複数の画像データを用いてコンテンツ解析を行う手段と、
前記コンテンツ解析の結果に基づいて遅延時間を設定する手段と、
前記遅延時間に基づいて中間画像データを生成する手段と、
前記生成された中間画像データと前記入力した複数の画像データのうち少なくとも1つの画像データとを時間的に連続するように合成して合成画像データを生成する手段と、
を有することを特徴とする画像データ処理装置。
Means for inputting a plurality of image data having different frame rates obtained by imaging the same subject within the same imaging range and without considering the synchronization between the plurality of imaging means;
Means for performing content analysis using the plurality of input image data;
Means for setting a delay time based on the result of the content analysis;
Means for generating intermediate image data based on the delay time;
Means for synthesizing the generated intermediate image data and at least one of the input plurality of image data so as to be temporally continuous to generate combined image data;
An image data processing apparatus comprising:
請求項9に記載の画像データ処理装置において、
前記コンテンツ解析は、前記入力した複数の画像データに基づいて画像の動きの変化及び/又は明るさの変化を検出することにより行うことを特徴とする画像データ処理装置。
The image data processing apparatus according to claim 9, wherein
The content analysis is performed by detecting a change in image motion and / or a change in brightness based on the plurality of input image data.
請求項9または10に記載の画像データ処理装置において、
前記コンテンツ解析を行う手段は、前記複数の撮像手段のうち最も高いフレームレートを有する撮像手段のフレームレートと前記最も高いフレームレートを有する撮像手段以外の他の撮像手段のフレームレートとの比に基づいて、前記コンテンツ解析を行う際の前記最も高いフレームレートを有する撮像手段のフレーム画像と前記他の撮像手段のフレーム画像との対応付けを行い、該対応付けられたフレーム画像間でコンテンツ解析を行うことを特徴とする画像データ処理装置。
The image data processing apparatus according to claim 9 or 10,
The means for performing content analysis is based on a ratio of a frame rate of an imaging unit having the highest frame rate to a frame rate of an imaging unit other than the imaging unit having the highest frame rate among the plurality of imaging units. The frame image of the imaging unit having the highest frame rate when performing the content analysis is associated with the frame image of the other imaging unit, and the content analysis is performed between the associated frame images An image data processing apparatus.
請求項11に記載の画像データ処理装置において、
前記合成画像データを生成する手段は、前記応付けられたフレーム画像間でコンテンツ解析を行うことによって生成された中間画像データと前記最も高いフレームレートを有する撮像手段から入力した画像データとを、前記対応付けられたフレーム画像の時間的な位置関係を考慮して時間的に連続させるように合成することを特徴とする画像データ処理装置。
The image data processing apparatus according to claim 11.
The means for generating the composite image data includes the intermediate image data generated by performing content analysis between the attached frame images and the image data input from the imaging means having the highest frame rate. An image data processing apparatus characterized in that it is synthesized so as to be temporally continuous in consideration of the temporal positional relationship of the associated frame images.
請求項9〜12に記載の画像データ処理装置において、
前記合成画像データを、該合成画像データにおける各フレーム画像の時間長を示す情報を付加したデータフォーマットのデータとして出力する手段を有することを特徴とする画像データ処理装置。
In the image data processing device according to claim 9-12,
An image data processing apparatus comprising: means for outputting the composite image data as data in a data format to which information indicating a time length of each frame image in the composite image data is added.
請求項9〜12に記載の画像データ処理装置において、
前記合成画像データを、該合成画像データにおける各フレーム画像の時間長を示す情報を、前記合成画像データとは別のデータとして出力する手段を有することを特徴とする画像データ処理装置。
In the image data processing device according to claim 9-12,
An image data processing apparatus comprising: means for outputting the composite image data as information different from the composite image data, indicating information indicating a time length of each frame image in the composite image data.
複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力するステップと、
前記入力した複数の画像データを用いてコンテンツ解析を行うステップと、
前記コンテンツ解析の結果に基づいて遅延時間を設定するステップと、
前記遅延時間に基づいて中間画像データを生成するステップと、
前記生成された中間画像データと前記入力した複数の画像データのうち少なくとも1つの画像データとを時間的に連続するように合成して合成画像データを生成するステップと、
を有することを特徴とする画像データ処理方法。
A plurality of image pickup means inputting a plurality of image data having different frame rates obtained by imaging the same subject in the same image pickup range and without considering the synchronization between the plurality of image pickup means;
Performing content analysis using the plurality of input image data;
Setting a delay time based on the result of the content analysis;
Generating intermediate image data based on the delay time;
Synthesizing the generated intermediate image data and at least one of the input plurality of image data so as to be temporally continuous to generate composite image data;
An image data processing method comprising:
複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力するステップと、
前記入力した複数の画像データを用いてコンテンツ解析を行うステップと、
前記コンテンツ解析の結果に基づいて遅延時間を設定するステップと、
前記遅延時間に基づいて中間画像データを生成するステップと、
前記生成された中間画像データと前記入力した複数の画像データのうち少なくとも1つの画像データとを時間的に連続するように合成して合成画像データを生成するステップと、
を実行可能であることを特徴とする画像データ処理プログラム。
A plurality of image pickup means inputting a plurality of image data having different frame rates obtained by imaging the same subject in the same image pickup range and without considering the synchronization between the plurality of image pickup means;
Performing content analysis using the plurality of input image data;
Setting a delay time based on the result of the content analysis;
Generating intermediate image data based on the delay time;
Synthesizing the generated intermediate image data and at least one of the input plurality of image data so as to be temporally continuous to generate composite image data;
An image data processing program characterized in that
複数の撮像手段が同じ被写体を同一撮像範囲で、かつ、前記複数の撮像手段間における同期を考慮せずに撮像することによって得られた異なるフレームレートを有する複数の画像データを入力する手段、前記入力した複数の画像データを用いてコンテンツ解析を行う手段、前記コンテンツ解析の結果に基づいて遅延時間を設定する手段、前記遅延時間に基づいて中間画像データを生成する手段及び前記生成された中間画像データと前記入力した複数の画像データのうち少なくとも1つの画像データとを時間的に連続するように合成して合成画像データを生成する手段を有する画像データ処理装置と、
前記画像データ処理装置から出力される合成画像データを表示する画像表示装置と、
を有することを特徴とする画像表示システム。
Means for inputting a plurality of image data having different frame rates obtained by imaging a plurality of imaging means in the same imaging range and without considering synchronization between the plurality of imaging means; Means for analyzing content using a plurality of input image data; means for setting a delay time based on the result of the content analysis; means for generating intermediate image data based on the delay time; and the generated intermediate image An image data processing apparatus having means for generating combined image data by combining data and at least one of the input plurality of image data so as to be temporally continuous;
An image display device for displaying the composite image data output from the image data processing device;
An image display system comprising:
JP2005081197A 2005-03-22 2005-03-22 Image data processing apparatus Withdrawn JP2006270160A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005081197A JP2006270160A (en) 2005-03-22 2005-03-22 Image data processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005081197A JP2006270160A (en) 2005-03-22 2005-03-22 Image data processing apparatus

Publications (1)

Publication Number Publication Date
JP2006270160A true JP2006270160A (en) 2006-10-05

Family

ID=37205697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005081197A Withdrawn JP2006270160A (en) 2005-03-22 2005-03-22 Image data processing apparatus

Country Status (1)

Country Link
JP (1) JP2006270160A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011193117A (en) * 2010-03-12 2011-09-29 Casio Computer Co Ltd Image processing apparatus, and program
KR101164894B1 (en) 2010-05-28 2012-07-12 송지을 A device and system producing a ball playing image in player's views for the baseball game broadcasting and the recording medium thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011193117A (en) * 2010-03-12 2011-09-29 Casio Computer Co Ltd Image processing apparatus, and program
KR101164894B1 (en) 2010-05-28 2012-07-12 송지을 A device and system producing a ball playing image in player's views for the baseball game broadcasting and the recording medium thereof

Similar Documents

Publication Publication Date Title
KR20190109723A (en) Electronic device
US8428121B2 (en) Image pick-up apparatus for shooting and reproducing a moving image
JP4556195B2 (en) Imaging device, moving image playback device, and program
JP6304293B2 (en) Image processing apparatus, image processing method, and program
JP4924228B2 (en) Image processing apparatus, image processing method, and program
JP2006246307A (en) Image data processing apparatus
JP2012015830A (en) Camera
JP5393237B2 (en) Image display apparatus, control method therefor, program, and storage medium
JP2009111518A (en) Imaging apparatus, image reproducing unit and program thereof, and data structure of image file
JP2007228099A (en) Imaging apparatus
JP6351212B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND SYSTEM
US20130177287A1 (en) Reproduction apparatus, image capturing apparatus, and program
JP2006203334A (en) Image recording apparatus, control method thereof and program
JP2018074523A (en) Imaging device, control method thereof, program, and recording medium
KR100943932B1 (en) Image pickup device
JP2006270160A (en) Image data processing apparatus
JPH1042307A (en) Key system and synthetic image forming method
JP4561452B2 (en) IMAGING DEVICE, VIDEO OUTPUT METHOD, AND VIDEO REPRODUCTION PROGRAM
JP2008005427A (en) Imaging apparatus and imaging method, and program
JP2007166539A (en) Imaging apparatus, imaging method, program and storage medium
JP6594485B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND SYSTEM
JP6602425B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND SYSTEM
JP6351213B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND SYSTEM
JP2006270158A (en) Image data processing apparatus
EP1496684A2 (en) Imaging apparatus, imaging method, imaging system, program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070404

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080603