JP2009182754A - 画像処理装置 - Google Patents
画像処理装置 Download PDFInfo
- Publication number
- JP2009182754A JP2009182754A JP2008020230A JP2008020230A JP2009182754A JP 2009182754 A JP2009182754 A JP 2009182754A JP 2008020230 A JP2008020230 A JP 2008020230A JP 2008020230 A JP2008020230 A JP 2008020230A JP 2009182754 A JP2009182754 A JP 2009182754A
- Authority
- JP
- Japan
- Prior art keywords
- data
- synchronization
- output
- decoded data
- imaging devices
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Closed-Circuit Television Systems (AREA)
- Controls And Circuits For Display Device (AREA)
- Digital Computer Display Output (AREA)
Abstract
【課題】複数の監視カメラからの映像信号を同期させてマルチ表示させること。
【解決手段】PC6から出力された同期信号に基づいて、バッファ48a〜48cのレンダリング処理のタイミングを制御することによって、監視カメラ2a〜2cからPC6への圧縮画像データ転送における遅延およびPC6内でのMPEGデコーダ46a〜46cにおける復号化処理における遅延に関係なく、監視カメラ2a〜2cの映像信号を同期させたマルチ画像を表示することができる。
【選択図】図13
【解決手段】PC6から出力された同期信号に基づいて、バッファ48a〜48cのレンダリング処理のタイミングを制御することによって、監視カメラ2a〜2cからPC6への圧縮画像データ転送における遅延およびPC6内でのMPEGデコーダ46a〜46cにおける復号化処理における遅延に関係なく、監視カメラ2a〜2cの映像信号を同期させたマルチ画像を表示することができる。
【選択図】図13
Description
本発明は、複数の撮像装置において夫々符号化された画像データを入力し、夫々復号化した1画面上に同期させて表示するための表示画像を生成する画像処理装置に関する。
ネットワークに接続された複数のカメラと1台のコンピュータにおいて、該コンピュータ上で複数のカメラからの映像を1画面上にリアルタイムで表示させることがある。この場合、同時刻に撮像された各カメラからの映像を遅延なく表示させることが望まれる。
特開2000−322039号公報 [G09G 5/00]
特許文献1に記載された従来技術1の表示装置においては、複数のカメラからの映像信号を複数の表示装置に同期させて表示させる際に、各カメラからの同一の時刻を示す時刻情報が付加された映像信号を受信した際、その時刻情報を初期値として計時を行い、該計時が所定量を超えたら、各カメラからの映像信号が一時保存されているフレームバッファに出力制御することによって各カメラの映像信号を同期表示させている。
しかしながら、従来技術1の表示装置では、時刻情報が付加された映像信号を受信したときを基準としているため、映像信号の圧縮率に基づく伸張処理に係る時間などの受信時以後に発生する遅延を考慮した同期表示について、何ら開示していない。
本発明は、上記の問題点を解決するもので、画像処理装置内部などに起因する映像信号の表示の遅延がなく、複数の撮像装置から出力される映像信号を同期表示させることができる画像処理装置を提供するものである。
請求項1の画像処理装置は、互いに異なる被写体を夫々撮像し、得られた撮像信号に符号化処理を施した符号化データに同一の同期タイミング情報を関連付けて複数の撮像装置から出力される画像データを入力する入力手段と、画像データから同期タイミング情報と符号化データとを分離する分離手段と、符号化データに対し復号化処理を施して復号化データを生成する復号化手段と、復号化データに同期タイミング情報に基づく同期情報を関連付けて復号化データを保持する保持手段と、保持手段に保持されている複数の撮像装置に基づく復号化データから表示手段に出力するための表示画像データを生成する表示画像生成手段と、保持手段に保持されている複数の撮像装置に基づく復号化データに関連付けられた夫々の同期情報が所定条件を満たすときに、所定条件を満たす同期情報と関連付けられた複数の撮像装置にそれぞれ対応する復号化データから表示手段に出力するため表示画像を生成するように表示画像生成手段を制御する制御手段を備えることを特徴とする。
請求項2の画像処理装置は、請求項1記載の画像処理装置に従属し、同期タイミング情報を前記複数の撮像装置に対して断続的に出力する同期タイミング出力手段をさらに備えることを特徴とする。
請求項3の画像処理装置は、請求項1乃至2記載のいずれかの画像処理装置に従属し、所定条件は夫々の同期信号の状態がすべて同一の同期タイミング情報に基づくものであることを特徴とする。
請求項4の画像処理装置は、請求項1乃至3記載のいずれかの画像処理装置に従属し、画像データには撮像装置から得られる時刻情報がさらに付加されており、表示画像生成手段において、保持手段に保持されている複数の撮像装置に基づく復号化データから時刻情報に基づく時系列に従って表示画像データを生成することを特徴とする。
請求項5の画像処理装置は、請求項2乃至3記載のいずれかの画像処理装置に従属し、同期タイミング情報出力手段において同期タイミング情報を出力した後から所定条件を満たすまでの期間は、表示画像生成手段における表示画像データの生成を禁止する禁止手段をさらに備えることを特徴とする。
請求項6記載の画像処理システムは、互いに異なる被写体を夫々撮像し、得られた撮像信号に符号化処理を施した符号化データに同一の同期タイミング情報を関連付けて画像データとして出力する複数の撮像装置と、画像データを入力する画像処理装置を備える画像処理システムであって、画像処理装置は、画像データから同期タイミング情報と符号化データとを分離する分離手段と、符号化データに対し復号化処理を施して復号化データを生成する復号化手段と、復号化データに同期タイミング情報に基づく同期情報を関連付けて復号化データを保持する保持手段と、保持手段に保持されている複数の撮像装置に基づく復号化データから表示手段に出力するための表示画像データを生成する表示画像生成手段と、保持手段に保持されている複数の撮像装置に基づく復号化データに関連付けられた夫々の同期情報が所定条件を満たすときに、所定条件を満たす同期情報と関連付けられた複数の撮像装置にそれぞれ対応する復号化データから表示手段に出力するための表示画像データを生成するように前記表示画像生成手段を制御する制御手段を備えることを特徴とする。
請求項7記載の画像処理方法は、互いに異なる被写体を夫々撮像し、得られた撮像信号に符号化処理を施した符号化データに同一の同期タイミング情報を関連付けて画像データとして出力する複数の撮像装置と、画像データを入力する画像処理装置における画像処理方法であって、画像データから同期タイミング情報と符号化データとを分離するステップと、符号化データに対し復号化処理を施して復号化データを生成するステップと、復号化データに同期タイミング情報に基づく同期情報を関連付けて復号化データを保持手段に保持するステップと、保持手段に保持されている複数の撮像装置に基づく復号化データから表示手段に出力するための表示画像データを生成するステップと、保持手段に保持されている複数の撮像装置に基づく復号化データに関連付けられた夫々の同期情報が所定条件を満たすときに、所定条件を満たす同期情報と関連付けられた複数の撮像装置にそれぞれ対応する復号化データから前記表示手段に出力するための表示画像データを生成するように制御するステップから成ることを特徴とする。
請求項8記載のプログラムは、コンピュータに、互いに異なる被写体を夫々撮像し、得られた撮像信号に符号化処理を施した符号化データに同一の同期タイミング情報を関連付けて複数の撮像装置から出力される画像データを入力する入力手段、画像データから前記同期タイミング情報と符号化データとを分離する分離手段、符号化データに対し復号化処理を施して復号化データを生成する復号化手段、復号化データに同期タイミング情報に基づく同期情報を関連付けて復号化データを保持する保持手段、保持手段に保持されている複数の撮像装置に基づく復号化データから表示手段に出力するための表示画像データを生成する表示画像生成手段、保持手段に保持されている複数の撮像装置に基づく復号化データに関連付けられた夫々の同期情報が所定条件を満たすときに、所定条件を満たす同期情報と関連付けられた複数の撮像装置にそれぞれ対応する復号化データから表示手段に出力するための表示画像データを生成するように表示画像生成手段を制御する制御手段を機能させることを特徴とする。
本発明の画像処理装置によれば、画像処理装置内部などに起因する映像信号の表示の遅延がなく、複数の撮像装置から出力される映像信号を同期表示させることができる。
以下、本発明の画像処理装置の一実施例として、パーソナルコンピュータ(PC)6に実施した形態につき、図面に沿って具体的に説明する。図1は複数の監視カメラ2a〜2cと本実施例のPC6がネットワーク4に接続されている状態を示している。監視カメラ2a、2b、2cはチャネル1CH、2CH、3CHが夫々割り当てられており、監視カメラ2a〜2cで撮像されデジタル化およびMPEG形式で圧縮処理が施された圧縮画像データがネットワーク4を介してPC6へ転送される。PC6は、後述する表示器54を備えており、圧縮画像データを復号化して1CH〜3CHの映像信号をモニタにマルチ表示させる。また、PC6はネットワーク4を介して監視カメラ2a〜2cへ制御信号を送信し、該制御信号に基づいて監視カメラ2a〜2cは動作する。
図2は監視カメラ2aのブロック図を示している。監視カメラ2aは光学レンズ12および絞り14を含み、被写体の光学像はCPU25による指示によりモータ駆動部16に制御された光学レンズ12および絞り14を通してCCDイメージャ18に取り込まれる。そして、CPU25に接続されたシグナルジェネレータ(SG)20によって与えられる取り込みパルスに従ってCCDイメージャ18から1フレーム分のアナログ撮像信号が出力される。出力されたアナログ撮像信号はカメラ処理回路24へ入力され、相関2重サンプリング処理、ゲイン調整、クランプ処理、A/D変換処理および色分離処理が施され、Y、U、V信号に変換される。そして、デジタル画像信号としてバス30を介してSDRAM26へ格納される。
次に、SDRAM26に格納されたデジタル画像信号は、CPU25の制御によりMPEGエンコーダ28へ入力され、MPEG−2PS形式で圧縮(符号化)されパケット単位の圧縮画像データとして再びSDRAM26へ格納される。本実施例では説明の便宜を図るため、1GOPを5フレームで形成することとし、1フレーム目をIピクチャ、2〜4フレーム目をBピクチャ、5フレーム目をPピクチャと規定する。従って、SDRAM26上には、1フレーム目、5フレーム目、2〜4フレーム目というフレーム順にパケット単位で格納される。そしてCPU25の制御によって、通信インタフェース32を介し、上述したフレーム格納順に従ってパケット単位でネットワーク4へ出力される。
通信インタフェース32はネットワーク4と接続されており、ネットワーク4から監視カメラ2aを制御するための制御信号が入力される。そして、制御信号は通信インタフェース32を介してCPU25の図示しないメモリに格納され、CPU25は該制御信号に基づいて動作する。
PC6は制御信号として、例えばCCDイメージャ18から出力されるアナログ撮像信号の撮像フレームレート、通信インタフェース32を介してネットワーク4へ出力される圧縮画像データの出力フレームレート、光学レンズ12の移動、絞り14の調整、CCDイメージャ18の電子シャッタスピードやカメラ処理回路24におけるゲイン調整などの処理を実行させるための信号など送信する。
本実施例のPC6は、監視カメラ2a〜2cから得られる同時刻に圧縮処理が施された圧縮画像データに基づくマルチ画像を表示させる同期処理を行う。PC6からは、該同期処理のための同期信号Cが出力されており、通信インタフェース32を介してCPU25へ取り込まれる。
図4は監視カメラ装置2a〜2cからネットワーク4へ出力される圧縮画像データのデータ構造を示している。1パケット分のデータは、CPU25内のタイマI25aが保持する時刻に基づくタイムスタンプと1フレーム分のデジタル画像信号が符号化されたVIDEOデータで構成され、任意のデータ(ユーザデータ)を付加されている。本実施例では、ユーザデータとしてPC6から出力された同期信号Cが付加される。付加されるタイミングは、監視カメラ2aがPC6からの同期信号Cを受け取ったタイミングである。また、便宜上1フレーム分のデータは1パケット内のVIDEOデータに含まれているとして説明を行う。そして、監視カメラ2bおよび2cは上述した監視カメラ2aと同様の構成であるため説明を省略する。
図3はPC6のブロック図を示している。ネットワーク4から図示しない通信インタフェースを経由して監視カメラ2a〜2cの圧縮画像データがパケット単位でデマルチプレクサ42a〜42cに夫々入力される。デマルチプレクサ42a〜24cでは、夫々入力されたパケット単位の圧縮画像データをタイムスタンプ、ユーザデータおよびVIDEOデータに分離する。各VIDEOデータは、MPEGデコーダ46a〜46cに夫々出力され、フレーム単位のデジタル映像信号にデコードされる。デコードされた各デジタル映像信号はバッファ48a〜48cに夫々格納される。
制御部40は、デマルチプレクサ42a〜42cで夫々分離された各タイムスタンプおよびユーザデータである同期信号Cを検出し、該タイムスタンプおよび同期信号Cに基づいて、バッファ48a〜48cに格納されている各デジタル映像信号を同期させてマルチ画像生成部44へ転送させる。マルチ画像生成部44では、転送されたデジタル映像信号を表示器54にマルチ表示させるためのマルチ画像信号を生成する。以後、この処理をレンダリング処理と称す。マルチ画像信号は所定の変換式によりRGB信号に変換されて表示器54へ出力される。
次に、本実施例における監視カメラ2a〜2cがネットワーク4を介して転送される圧縮画像信号をPC6でレンダリング処理をする際の同期処理について図5〜図9を参照して説明する。
図5は、ネットワーク4からのパケット単位の圧縮画像データがデマルチプレクサ42a〜42cに入力される入力タイミングを示した図である。詳細には、(a)は監視カメラ2aからの圧縮画像データがデマルチプレクサ42aへ入力されるタイミングを示しており、(b)は監視カメラ2bからの圧縮画像データがデマルチプレクサ42bへ入力されるタイミングを示しており、(c)は監視カメラ2cからの圧縮画像データがデマルチプレクサ42cへ入力されるタイミングを示している。
さて、監視カメラ2aにタイマI25aが備えられているように、監視カメラ2bおよび2cにも夫々タイマが備えられている。各タイマは独立して動作し、監視カメラ2a〜2cが持つタイマに従って夫々時刻をカウントしているために、微小なズレが生じている。具体的に、図9を参照して説明すると、監視カメラ2a〜2cの各MPEGエンコーダ28の符号化処理時において、監視カメラ2aでは1フレーム目のタイムスタンプが“1”であるのに対し、監視カメラ2bではタイムスタンプが“5”、監視カメラ2cでは“3”となっている。例えば監視カメラ2aにおいて、符号化処理時のフレームデータに対応するタイムスタンプは昇順(1〜5)であるのに対し、符号化処理後の符号化フレームデータに対応するタイムスタンプは1、5、2〜4という順に圧縮画像データ(パケットP1a〜P1e)としてSDRAM26へ出力されている。上述したように、本実施例では1GOPを5フレームで形成し、符号化処理後は1フレーム目の次に5フレーム目に対応する圧縮画像データがSDRAM26に格納され、PC6に送られる。つまり、符号化処理後の圧縮画像データは各々が所持するタイムスタンプの昇順には格納されない。また、同期信号Cは10秒間に1回、PC6から監視カメラ2a〜2cにマルチキャストで送信される。
また、符号化処理時の1フレーム目に各監視カメラ2a〜2cでは同期信号Cを受け取っているため、符号化処理後の圧縮画像データには、夫々のVIDEOデータにタイムスタンプおよび同期信号Cが付加されている。また、監視カメラ2a〜2cからPC6へ転送されるフレームレートが約30fpsに設定されており、パケット単位でPC6へ転送される。
説明を図5に戻し、圧縮画像データは、監視カメラ2a〜2cに夫々符号化されSDRAM26に格納された順で、順次デマルチプレクサ42a〜42cへ入力される。ここで、制御部40が監視カメラ2a〜2cの中で同期信号Cが付加された圧縮画像データを最初に受け取ったタイミングをtとする。例えば、図5(a)に示すようにパケットP1aは時刻tにデマルチプレクサ42aに入力され、図5(b)に示すようにパケットP1bは時刻t+1にデマルチプレクサ42bへ入力され、図5(c)に示すようにパケットP1cは時刻t+1に入力される。ここで、時刻の単位はms(ミリ秒)とする。このように、各監視カメラ2a〜2cから出力される圧縮画像データのデマルチプレクサ42a〜42cへの入力タイミングは、ネットワーク4による遅延などの影響により同時刻に入力されない場合がある。
図6は、圧縮画像データが入力された各デマルチプレクサ42a〜42cにおいて分離されたVIDEOデータを各MPEGデコーダ46a〜46cで復号化処理を行い、バッファ48a〜48cへデジタル映像信号として出力する出力タイミングを示している。時刻tは、図5においてした説明と同様に、制御部40が監視カメラ2aからの同期信号Cが付加されたパケットを最初に受け取ったタイミングであり、時刻t+14はMPEGデコーダ46aに1GOP分のVIDEOデータの入力が完了したタイミングとなる。
図6(a)では、MPEGデコーダ46aで復号化されたデジタル映像信号がバッファ48aへ出力されるタイミングを示している。MPEGデコーダ46aでは、1GOP分、つまりパケットP1a〜P5aから分離されたVIDEOデータから各フレームF1a〜F5aのデジタル映像信号を生成し、パケットP1a〜P5aに夫々付加されていたタイムスタンプ(1〜5)を再びデジタル映像信号に付加し、時刻t+114のタイミングでフレームF1aから順にバッファ48aに出力する。ここで、デマルチプレクサ42aにおいて1GOP分の最終VIDEOデータを時刻t+14にMPEGデコーダ46aへ出力し、MPEGデコーダ46aからバッファ48aへ1GOP分の最終デジタル映像データを出力していることから、MPEGデコーダ46aは1GOP分、つまり5フレーム分の復号化処理および出力に時間として110msかかっていることとなる。
同様に、図6(b)では、MPEGデコーダ46bで復号化されたデジタル映像信号がバッファ48bへ出力されるタイミングを示しており、MPEGデコーダ46bにおいて、MPEGデコーダ46aと同様の処理を行い、パケットP1b〜P5bから分離されたVIDEOデータから各フレームF1b〜F5bのデジタル映像信号を生成し、パケットP1b〜P5bに付加されていたタイムスタンプ(5〜9)を再びデジタル映像信号に付加し、時刻t+137のタイミングでフレームF1bから順に出力する。ここで、MPEGデコーダ46bは1GOP分、つまり5フレーム分の復号化処理および出力に時間として130msかかっていることとなる。
同様に、図6(c)では、MPEGデコーダ46cで復号化したデジタル映像信号がバッファ48cへ出力されるタイミングを示しており、MPEGデコーダ46cにおいてMPEGデコーダ46cと同様の処理を行い、パケットP1c〜P5cから分離されたVIDEOデータから各フレームF1c〜F5cのデジタル映像信号を生成し、パケットP1c〜P5cに付加されていたタイムスタンプ(3〜7)を再びデジタル映像信号に付加し、時刻t+152のタイミングでフレームF1cから順に出力する。ここで、MPEGでコーダ46cは1GOP分、つまり5フレーム分の復号化処理および出力に時間として140msかかっていることとなる。
このように、MPEGデコーダ46a〜46cにおいて、復号化処理に掛かる時間がそれぞれ異なる場合がある。また、付加されたタイムスタンプは、デジタル映像信号である各フレームのヘッダに格納される。
制御部40では、デマルチプレクサ42a〜42cにおいて同一の同期信号Cを受け取ると、制御部40内の図示しないメモリに保存される同期フレームテーブルに同期信号Cが格納されていたパケットのVIDEOデータから生成されたフレームに付加されたタイムスタンプを監視カメラ2a〜2c毎に記録する。同期フレームテーブルには、制御部40が監視カメラ2a〜2cすべてから同一の同期信号Cを検出し、MPEGデコーダ46a〜46cにおいて監視カメラ2a〜2cすべてのVIDEOデータが復号化されたときに記録される。そして、次の同一の同期信号Cを監視カメラ2a〜2cすべてから検出し、MPEGデコーダ46a〜46cにおいて監視カメラ2a〜2cすべてのVIDEOデータが復号化されると、タイムスタンプを記録すべく同期フレームテーブルを更新する。
この同期フレームテーブルは、バッファ48a〜48cに格納されているデジタル映像信号から、制御部40が同期信号Cを受け取ったときの各監視カメラ2a〜2cのデジタル映像信号を同期させてマルチ表示させるために参照される。
また、制御部40は、デマルチプレクサ42a〜42cの中から最新の同期信号Cを受け取ると、該同期信号Cを制御部40内の図示しないメモリに格納し、同期処理を行うためにバッファ48a〜48cに格納されているデジタル映像信号のレンダリング処理を停止する。そして、同一の同期信号Cを所定時間内に監視カメラ2a〜2cすべてから取得し、MPEGデコーダ46a〜46cにおいて復号化が完了し、同一の同期信号Cが付されたVIDEOデータからのデジタル映像信号をバッファ48a〜48cへ出力すると、制御部40に格納されているレジスタ40cのフラグFを立てる(F=1)。
制御部40は、レンダリング処理を行う際に、フラグFが立っているか否かを判別し、フラグFが立っている場合には、同期フレームテーブルに基づいて、各監視カメラ2a〜2cからのデジタル映像信号を同期させてレンダリング処理を行う。該レンダリング処理が終了すると、フラグFをリセットする(F=0)。そして、フラグFが立っていない場合は、制御部40は各バッファ46a〜46cにフレームのヘッダに格納されているタイムスタンプを参照して、今回レンダリング処理を行っているデジタル映像信号に対応するフレームのタイムスタンプに基づく昇順に対応するフレームから順次レンダリング処理を行う。また、バッファ46a〜46cはリングバッファであり、レンダリング処理が為されたフレームデータは他のデータが上書き可能になるように処理される。
図7は、上述した監視カメラ2a〜2c夫々における同期対象となるフレームに付与されたタイムスタンプを示した同期フレームテーブルである。本実施例では、図9を参照して説明したように、各カメラ2a〜2cにおける符号化処理時に、それぞれ1フレーム目に同期信号Cを受け取っているため、同期信号Cに対応する監視カメラ2aからの出力に基づくフレームのタイムスタンプは1であり、監視カメラ2bからの出力に基づくフレームのタイムスタンプは5であり、監視カメラ2cからの出力に基づくフレームのタイムスタンプは3であることを示している。
さて、図6に示すように、レジスタ40cのフラグFは時刻t+154の時点で立つ。従って、時刻t+154において、同期処理が実行される。
図8(a)〜(c)は、同期レンダリング処理時、つまり時刻t+154におけるバッファ48a〜48cに格納されているフレーム単位のデジタル映像信号の読み出しおよび書き込み状態を示している。
図8(a)を参照して説明すると、バッファ48aには、時刻tの時点で読み出し済みのフレームFn−2a(タイムスタンプ:n−2)、Fn−1a(タイムスタンプ:n−1)と、読み出し中止となったフレームFna(タイムスタンプ:n)と時刻t+154の時点で未だ読み出されていないフレームF1a(タイムスタンプ1)〜F8a(タイムスタンプ:8)が格納されており、フレームF9a(タイムスタンプ:9)は書き込み中である。図8(b)を参照すると、時刻tの時点で読み出し済みのフレームFn−4b(タイムスタンプ:n)、Fn−3b(タイムスタンプ:1)と、読み出し中止となったフレームFn−2b(タイムスタンプ:2)と時刻t+154の時点で未だ読み出されていないフレームFn−1b(タイムスタンプ3:)〜F5b(タイムスタンプ:9)が格納されている。図8(c)を参照すると、時刻tの時点で読み出し済みのフレームFn−5c(タイムスタンプ:n−3)と、読み出し中止となったフレームFn−4c(タイムスタンプ:n−2)と、時刻t+154の時点で未だ読み出されていないフレームFn−3c(タイムスタンプ:n−1)〜F1c(タイムスタンプ:3c)が格納されている。読み出し済みのフレームは、上書き対象となるため上書き可能な処理が施される。
そして、時刻t+154に制御部40は同期フレームテーブルを参照して、テーブルに格納されたタイムスタンプ(1、5、3)に対応するフレーム(F1a、F1b、F1c)を確定し、読み出しを開始する。そして、該フレームを読み出した後は、今回読み出しているフレームのタイムスタンプから昇順に対応するフレームから順次読み出しを行う。そして、今回読み出しているフレームのタイムスタンプよりも古いフレームもまた上書き対象となり、上書き可能な処理が施される。
上述した一連の同期処理について図10〜図13を参照して説明する。
図10は制御部40における同期信号Cの出力処理の手続を示すフローチャートである。まずステップS1において、制御部40内のカウンタCの値を1にセットする。このカウンタCの値は、同期信号を識別するための値と規定する。
次にステップS3へ進み、同期信号Cを監視カメラ2a〜2cへマルチキャストする。そしてステップS5へ進み、制御部40内のタイマM40bをリセット&スタートさせ、ステップS7へ進む。このタイマM40bはスタートしてから10秒経過するとタイムアップする。
ステップS7では、すべての監視カメラ2a〜2cから同期信号Cが存在するパケットを受信したか否かを判別する。ステップS7においてYESと判断するとステップS9へ進み、最も早く到達した同期信号Cのパケット受信時刻から最も遅く到達した同期信号Cのパケット受信時刻の差の絶対値Dを算出する。また、ステップS7においてNOと判別するとステップS13へ進む。
ステップS9の次はステップS11へ進み、ステップS9において算出された絶対値Dと閾値Thを比較し、Dが閾値Th以上であるか否かを判別する。ステップS11においてYESと判別するとステップS15へ進み、カウンタCを1インクリメントさせて、ステップS3へ戻る。
ステップS13では、タイマM40bがタイムアップしたか否かを判断する。ここで、NOと判別するとステップS7へ戻り、YESと判別するとステップS15へ進み、カウンタCを1インクリメントさせて、ステップS3へ戻る。
次に、図11、図12のフローチャートを参照して制御部40、デマルチプレクサ42aおよびMPEGデコーダ46aの復号化処理からバッファ48aへ出力する一連の手続を説明する。なお、デマルチプレクサ42b、MPEGデコーダ46b、バッファ48bによる一連の手続および、デマルチプレクサ42c、MPEGデコーダ46c、バッファ48cによる一連の手続は、同様にして並行して行われるが、ここでは説明を省略する。
まず、ステップS17では、デマルチプレクサ42aに1パケット分のデータが入力されたか否かを判別し、YESと判別するとステップS19へ進む。ステップS19では、デマルチプレクサ42aが、入力された1パケット分の圧縮画像データからユーザデータとVIDEOデータを分離させ、VIDEOデータをMPEGデコーダ46aへ出力させる。また、分離されたユーザデータは制御部40へ入力される。
次にステップS21へ進み、MPEGデコーダ46aは入力されるVIDEOデータに復号化処理を施してデジタル映像データを生成する。そしてステップS17へ戻る。
次に図12のフローチャートを参照して復号化処理からバッファ48aへ出力する手続を説明すると、ステップS23において制御部40は1フレーム分のデジタル映像データが有るか否かを判別する。そしてステップS23においてYESと判別するとステップS25へ進み、制御部40はステップS23において分離されたユーザデータの対になるVIDEOデータがステップS27において復号化された1フレーム分のデジタル映像信号に、該ユーザデータに含まれるタイムスタンプを付加してバッファ48aに出力する。そしてステップS23へ戻る。
ここで、VIDEOデータの復号化処理について、MPEGデコーダ46aに入力されるVIDEOデータの順序は、図9に示す符号化処理後のピクチャの順序のように、Iピクチャ、Pピクチャ、Bピクチャ・・・といった順序である。ただし、ステップS25からバッファ48aへ出力される順序は符号化処理時のピクチャの順序にように、Iピクチャ、Bピクチャ、Bピクチャ・・・といった順序であり、各ピクチャに対応するフレームのデジタル映像信号が、タイムスタンプが付加されてバッファ48aに出力される。
次に図13を参照して、制御部40におけるレンダリング処理の一連の制御の手続について説明する。
ステップS31で、制御部40は、監視カメラ2a〜2cから同期信号Cが入力された否かを判別する。ステップS31においてNOと判別するとステップS33へ進み各バッファ48a〜48cに格納されているデジタル映像信号に対しタイムスタンプに基づく1フレーム分のデジタル映像信号のレンダリング処理を行う。そしてステップS35へ進み、レンダリング処理の対象となった1フレーム分のデジタル映像信号を上書き可能に処理する。
ステップS31においてYESと判別すると、ステップS37へ進み、ステップS31において入力された同期信号が、制御部40内の図示しないメモリに保持している同期信号Cと同一であるか否かを判別する。ステップS37においてNOと判別するとステップS39へ進み、バッファ48a〜48cに対し現在行っているレンダリング処理を中止し、YESと判別するとステップS41へ進む。ステップS41では、フラグFが立っているか否かを判別し、YESと判別されるまでステップS37とステップS41の分岐を繰り返す。
そして、ステップS41においてYESと判別すると、ステップS43へ進み同期フレームテーブルに基づいて、バッファ48a〜48cに格納されているデジタル映像信号からレンダリング処理を開始する。そして、ステップS45へ進み、ステップS43においてレンダリング処理の対象となるデジタル映像信号に付加されたタイムスタンプよりも以前のタイムスタンプが付加されているデジタル映像信号に対して、以後上書き可能になる処理を施し、ステップS47へ進む。ステップS47では、フラグFをリセット(F=0)し、ステップS31へ戻る。
このように、本実施例によれば、PC6において監視カメラ2a〜2cの映像信号をマルチ表示させる際に、PC6から出力された同期信号に基づいて、バッファ48a〜48cのレンダリング処理のタイミングを制御することによって、監視カメラ2a〜2cからPC6への圧縮画像データ転送における遅延およびPC6内でのMPEGデコーダ46a〜46cにおける復号化処理における遅延に関係なく、監視カメラ2a〜2cの映像信号を同期させたマルチ画像を表示することができる。
なお、本実施例では、MPEGエンコーダ28a〜28cにおいてMPEG−2PS形式で圧縮処理および伸張処理を行っているが、これの形式に限るものではなく、MPEG−2TS、MP4、DivXなどの形式で圧縮処理および伸張処理を行っても良い。また、可逆圧縮であるPNG形式の画像ファイルを伸張させて連続して表示させてもよい。
また、本実施例では、監視カメラ2a〜2cにおいて1フレーム分のデジタル画像データを圧縮した圧縮画像信号をPC6へ転送する際に、1パケット分に相当させて説明したが、これに限るものではなく、2パケット分に相当させても良い。
また、本実施例では、同期処理においてレンダリング処理を開始させる対象のフレームデータのタイムスタンプよりも古いフレームデータを上書き可能処理させているが、消去しても良い。
2a〜2c・・・ 監視カメラ
4 ・・・ ネットワーク
6 ・・・ PC
12 ・・・ 光学レンズ
14 ・・・ 絞り
16 ・・・ モータ駆動部
18 ・・・ CCDイメージャ
20 ・・・ シグナルジェネレータ(SG)
24 ・・・ カメラ処理回路
25 ・・・ CPU
25a ・・・ タイマI
26 ・・・ SDRAM
28 ・・・ MPEGエンコーダ
32 ・・・ 通信インタフェース
40 ・・・ 制御部
40b ・・・ タイマM
40c ・・・ フラグF
40d ・・・ カウンタC
42a〜42c・・・デマルチプレクサ
44 ・・・ マルチ画像生成部
46a〜46c・・・MPEGデコーダ
48a〜48c・・・バッファ
54 ・・・ 表示器
4 ・・・ ネットワーク
6 ・・・ PC
12 ・・・ 光学レンズ
14 ・・・ 絞り
16 ・・・ モータ駆動部
18 ・・・ CCDイメージャ
20 ・・・ シグナルジェネレータ(SG)
24 ・・・ カメラ処理回路
25 ・・・ CPU
25a ・・・ タイマI
26 ・・・ SDRAM
28 ・・・ MPEGエンコーダ
32 ・・・ 通信インタフェース
40 ・・・ 制御部
40b ・・・ タイマM
40c ・・・ フラグF
40d ・・・ カウンタC
42a〜42c・・・デマルチプレクサ
44 ・・・ マルチ画像生成部
46a〜46c・・・MPEGデコーダ
48a〜48c・・・バッファ
54 ・・・ 表示器
Claims (8)
- 互いに異なる被写体を夫々撮像し、得られた撮像信号に符号化処理を施した符号化データに同一の同期タイミング情報を関連付けて複数の撮像装置から出力される画像データを入力する入力手段と、
前記画像データから前記同期タイミング情報と前記符号化データとを分離する分離手段と、
前記符号化データに対し復号化処理を施して復号化データを生成する復号化手段と、
前記復号化データに前記同期タイミング情報に基づく同期情報を関連付けて前記復号化データを保持する保持手段と、
前記保持手段に保持されている前記複数の撮像装置に基づく復号化データから表示手段に出力するための表示画像データを生成する表示画像生成手段と、
前記保持手段に保持されている前記複数の撮像装置に基づく復号化データに関連付けられた夫々の同期情報が所定条件を満たすときに、該所定条件を満たす同期情報と関連付けられた複数の撮像装置にそれぞれ対応する復号化データから前記表示手段に出力するための表示画像データを生成するように前記表示画像生成手段を制御する制御手段を備える画像処理装置。 - 前記同期タイミング情報を前記複数の撮像装置に対して断続的に出力する同期タイミング出力手段をさらに備えることを特徴とする、請求項1記載の画像処理装置。
- 前記所定条件は前記夫々の同期信号の状態がすべて前記同一の同期タイミング情報に基づくものであることを特徴とする、請求項1乃至2記載のいずれかの画像処理装置。
- 前記画像データには前記撮像装置から得られる時刻情報がさらに付加されており、
前記表示画像生成手段において、前記保持手段に保持されている前記複数の撮像装置に基づく復号化データから前記時刻情報に基づく時系列に従って表示画像データを生成することを特徴とする、請求項1乃至3記載のいずれかの画像処理装置。 - 前記同期タイミング情報出力手段において前記同期タイミング情報を出力した後から前記所定条件を満たすまでの期間は、前記表示画像生成手段における表示画像データの生成を禁止する禁止手段をさらに備える、請求項2乃至4記載のいずれかの画像処理装置。
- 互いに異なる被写体を夫々撮像し、得られた撮像信号に符号化処理を施した符号化データに同一の同期タイミング情報を関連付けて画像データとして出力する複数の撮像装置と、該画像データを入力する画像処理装置を備える画像処理システムであって、
前記画像処理装置は、
前記画像データから前記同期タイミング情報と前記符号化データとを分離する分離手段と、
前記符号化データに対し復号化処理を施して復号化データを生成する復号化手段と、
前記復号化データに前記同期タイミング情報に基づく同期情報を関連付けて前記復号化データを保持する保持手段と、
前記保持手段に保持されている前記複数の撮像装置に基づく復号化データから表示手段に出力するための表示画像データを生成する表示画像生成手段と、
前記保持手段に保持されている前記複数の撮像装置に基づく復号化データに関連付けられた夫々の同期情報が所定条件を満たすときに、該所定条件を満たす同期情報と関連付けられた複数の撮像装置にそれぞれ対応する復号化データから前記表示手段に出力するため表示画像データを生成するように前記表示画像生成手段を制御する制御手段を備えることを特徴とする、画像処理システム。 - 互いに異なる被写体を夫々撮像し、得られた撮像信号に符号化処理を施した符号化データに同一の同期タイミング情報を関連付けて画像データとして出力する複数の撮像装置と、該画像データを入力する画像処理装置における画像処理方法であって、
前記画像データから前記同期タイミング情報と前記符号化データとを分離するステップと、
前記符号化データに対し復号化処理を施して復号化データを生成するステップと、
前記復号化データに前記同期タイミング情報に基づく同期情報を関連付けて前記復号化データを保持手段に保持するステップと、
前記保持手段に保持されている前記複数の撮像装置に基づく復号化データから表示手段に出力するための表示画像データを生成するステップと、
前記保持手段に保持されている前記複数の撮像装置に基づく復号化データに関連付けられた夫々の同期情報が所定条件を満たすときに、該所定条件を満たす同期情報と関連付けられた複数の撮像装置にそれぞれ対応する復号化データから前記表示手段に出力するため表示画像データを生成するように制御するステップから成る画像処理方法。 - コンピュータに、
互いに異なる被写体を夫々撮像し、得られた撮像信号に符号化処理を施した符号化データに同一の同期タイミング情報を関連付けて複数の撮像装置から出力される画像データを入力する入力手段、
前記画像データから前記同期タイミング情報と前記符号化データとを分離する分離手段、
前記符号化データに対し復号化処理を施して復号化データを生成する復号化手段、
前記復号化データに前記同期タイミング情報に基づく同期情報を関連付けて前記復号化データを保持する保持手段、
前記保持手段に保持されている前記複数の撮像装置に基づく復号化データから表示手段に出力するため表示画像データを生成する表示画像生成手段、
前記保持手段に保持されている前記複数の撮像装置に基づく復号化データに関連付けられた夫々の同期情報が所定条件を満たすときに、該所定条件を満たす同期情報と関連付けられた複数の撮像装置にそれぞれ対応する復号化データから前記表示手段に出力するための表示画像データを生成するように前記表示画像生成手段を制御する制御手段を機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008020230A JP2009182754A (ja) | 2008-01-31 | 2008-01-31 | 画像処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008020230A JP2009182754A (ja) | 2008-01-31 | 2008-01-31 | 画像処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009182754A true JP2009182754A (ja) | 2009-08-13 |
Family
ID=41036365
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008020230A Pending JP2009182754A (ja) | 2008-01-31 | 2008-01-31 | 画像処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009182754A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104602095A (zh) * | 2014-12-26 | 2015-05-06 | 广东威创视讯科技股份有限公司 | 一种组合桌面采集与同步显示方法及系统 |
WO2020174994A1 (ja) | 2019-02-26 | 2020-09-03 | パナソニックIpマネジメント株式会社 | カメラ映像伝送再生システム、それを構成するカメラおよびビューア |
CN113412442A (zh) * | 2019-01-07 | 2021-09-17 | 阿维甘特公司 | 控制系统和渲染管道 |
US11927762B2 (en) | 2018-12-07 | 2024-03-12 | Avegant Corp. | Steerable positioning element |
US12032174B2 (en) | 2019-03-29 | 2024-07-09 | Avegant Corp. | Steerable hybrid display using a waveguide |
US12092828B2 (en) | 2020-01-06 | 2024-09-17 | Avegant Corp. | Head mounted system with color specific modulation |
-
2008
- 2008-01-31 JP JP2008020230A patent/JP2009182754A/ja active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104602095A (zh) * | 2014-12-26 | 2015-05-06 | 广东威创视讯科技股份有限公司 | 一种组合桌面采集与同步显示方法及系统 |
US11927762B2 (en) | 2018-12-07 | 2024-03-12 | Avegant Corp. | Steerable positioning element |
CN113412442A (zh) * | 2019-01-07 | 2021-09-17 | 阿维甘特公司 | 控制系统和渲染管道 |
JP2022516270A (ja) * | 2019-01-07 | 2022-02-25 | エイヴギャント コーポレイション | 制御システムおよびレンダリングパイプライン |
US11650663B2 (en) | 2019-01-07 | 2023-05-16 | Avegant Corp. | Repositionable foveal display with a fast shut-off logic |
JP7460637B2 (ja) | 2019-01-07 | 2024-04-02 | エイヴギャント コーポレイション | 制御システムおよびレンダリングパイプライン |
WO2020174994A1 (ja) | 2019-02-26 | 2020-09-03 | パナソニックIpマネジメント株式会社 | カメラ映像伝送再生システム、それを構成するカメラおよびビューア |
US12032174B2 (en) | 2019-03-29 | 2024-07-09 | Avegant Corp. | Steerable hybrid display using a waveguide |
US12092828B2 (en) | 2020-01-06 | 2024-09-17 | Avegant Corp. | Head mounted system with color specific modulation |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20070019739A1 (en) | Video and audio reproducing apparatus and video and audio reproducing method for reproducing video images and sound based on video and audio streams | |
JP2013211645A (ja) | 画像処理装置 | |
JP2019114914A (ja) | 撮像装置、その制御方法、プログラムならびに撮像システム | |
JP2009182754A (ja) | 画像処理装置 | |
KR101108640B1 (ko) | 동영상을 기록하는 기록 장치, 기록 방법 및 컴퓨터로 판독 가능한 기록 매체 | |
KR101000580B1 (ko) | 화상 처리 장치 및 화상 처리 방법, 및 기록 매체 | |
JP4391477B2 (ja) | 画像伝送装置及び画像伝送システム | |
JP2009105706A (ja) | 画像音声同期再生装置 | |
JP2010278481A (ja) | データ処理装置 | |
US20130058618A1 (en) | Imaging device and imaging method | |
CN1777270B (zh) | 视频信号多路复用器和多路复用方法以及图片重放器 | |
JP2013003339A (ja) | 画像表示システム及びその制御方法 | |
JP2009010903A (ja) | 撮像装置及び撮像方法 | |
JP6717670B2 (ja) | タイムコード送信装置、タイムコード受信装置、映像信号送信装置及び映像信号受信装置 | |
JP5973766B2 (ja) | 画像処理装置 | |
JP2005338498A (ja) | 表示メモリ装置 | |
JP2016015584A (ja) | ネットワークカメラシステム、ネットワークカメラおよび音映像送信方法 | |
JP2009194758A (ja) | 映像記録装置、映像再生装置、映像記録再生システム、方法、およびプログラム | |
JP2007221535A (ja) | データ処理装置、そのシステム、その方法、そのプログラム、および、そのプログラムを記録した記録媒体 | |
JP4519569B2 (ja) | 立体mpeg信号同期システム | |
JP2004215143A (ja) | タイムコード情報変換装置およびタイムコード情報変換方法 | |
JP2008118237A (ja) | 映像編集装置 | |
JP2007243706A (ja) | データフォーマット変換装置及びデータフォーマット変換方法 | |
JP2003309759A (ja) | 撮影システム、テレビジョンカメラ、および撮影システムに用いる同期調整装置 | |
JP4580448B2 (ja) | 画像信号切替方法及び装置並びにこれを用いたデジタル撮像カメラ及び監視システム |