Nothing Special   »   [go: up one dir, main page]

JP4497885B2 - Signal processing device - Google Patents

Signal processing device Download PDF

Info

Publication number
JP4497885B2
JP4497885B2 JP2003356128A JP2003356128A JP4497885B2 JP 4497885 B2 JP4497885 B2 JP 4497885B2 JP 2003356128 A JP2003356128 A JP 2003356128A JP 2003356128 A JP2003356128 A JP 2003356128A JP 4497885 B2 JP4497885 B2 JP 4497885B2
Authority
JP
Japan
Prior art keywords
audio
image
signal
request
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003356128A
Other languages
Japanese (ja)
Other versions
JP2005123854A (en
Inventor
啓秀 山城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2003356128A priority Critical patent/JP4497885B2/en
Publication of JP2005123854A publication Critical patent/JP2005123854A/en
Application granted granted Critical
Publication of JP4497885B2 publication Critical patent/JP4497885B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

この発明は、信号処理装置に関し、特にたとえば、監視カメラシステムのように、サーバから画像信号および音声信号をリアルタイムで受信して処理する、信号処理装置に関する。   The present invention relates to a signal processing device, and more particularly to a signal processing device that receives and processes an image signal and an audio signal from a server in real time as in a surveillance camera system, for example.

従来のこの種の信号処理装置の一例が、特許文献1に開示されている。この従来技術では、サーバが画像および音声を複数のオブジェクトに分解し、これらのオブジェクトを順次端末に送信する。端末は、送られてくるオブジェクトを順次受信し、受信された複数のオブジェクトから画像および音声を再構成する。伝送路の帯域幅が狭いときには、高いリアルタイム性が求められるオブジェクトを優先的に送信する。これにより、狭帯域時の伝送品質低下が抑制され、その結果、ユーザの不快感が緩和される。
特開2001−359067号公報[H04N 7/15,H04J 3/00,H04L 29/06,H04N7/24,H04N 7/18]
An example of a conventional signal processing apparatus of this type is disclosed in Patent Document 1. In this prior art, the server decomposes the image and sound into a plurality of objects, and sequentially transmits these objects to the terminal. The terminal sequentially receives the sent objects, and reconstructs images and sounds from the plurality of received objects. When the bandwidth of the transmission path is narrow, an object requiring high real-time property is preferentially transmitted. Thereby, the transmission quality fall at the time of a narrow band is suppressed, As a result, a user's discomfort is eased.
JP 2001-359067 [H04N 7/15, H04J 3/00, H04L 29/06, H04N 7/24, H04N 7/18]

しかし、従来技術では、サーバが端末へのオブジェクトの送信順序を制御しているので、特に端末数が多い場合、サーバに多大な負担がかかる。     However, in the prior art, since the server controls the transmission order of objects to the terminals, particularly when the number of terminals is large, a heavy burden is placed on the server.

それゆえに、この発明の主たる目的は、サーバに負担をかけずにサーバから画像信号および音声信号を取得し、かつ違和感の少ない再生を行うことができる、信号処理装置を提供することである。   Therefore, a main object of the present invention is to provide a signal processing apparatus that can acquire an image signal and an audio signal from a server without imposing a burden on the server, and can perform reproduction with less sense of incongruity.

この発明は、画像信号および音声信号をリアルタイムで取り込む取込装置と通信回線を通して接続される信号処理装置において、画像転送要求を取込装置に向けて周期的に出力する画像要求手段、音声転送要求を取込装置に向けて周期的に出力する音声要求手段、画像転送要求に応答して取込装置から転送された画像信号および音声転送要求に応答して取込装置から転送された音声信号に所定の処理を施す処理手段、および取込装置から転送されかつ未だ所定の処理を施されていない音声信号の信号量に基づいて画像転送要求の出力周期を制御する制御手段を備え、処理手段は、取込装置から転送された画像信号を再生する画像再生手段、取込装置から転送された音声信号を再生する音声再生手段、音声再生手段によって再生された音声信号を出力する音声出力手段、および画像再生手段によって再生された画像信号を音声出力手段から出力される音声信号に同期させて出力する画像出力手段を含み、制御手段は、信号量が、音声信号に基づく音声および画像信号に基づく画像のクオリティに基づいて設定された閾値に満たないとき前記出力周期を長くすることを特徴とする、信号処理装置である The present invention relates to an image requesting means for periodically outputting an image transfer request to a capturing device in a signal processing device connected through a communication line to a capturing device that captures an image signal and an audio signal in real time, and an audio transfer request Audio request means for periodically outputting to the capture device, an image signal transferred from the capture device in response to an image transfer request, and an audio signal transferred from the capture device in response to an audio transfer request e Bei control means for controlling an output period of the image transfer request on the basis of the amount of signal processing means, and is transferred from the capture device and the audio signal not yet subjected to a predetermined process for performing predetermined processing, the processing means Is an image reproducing means for reproducing the image signal transferred from the capturing device, an audio reproducing means for reproducing the audio signal transferred from the capturing device, and an audio signal reproduced by the audio reproducing means. Audio output means for outputting, and image output means for outputting the image signal reproduced by the image reproduction means in synchronization with the audio signal output from the audio output means, and the control means has a signal amount based on the audio signal The signal processing apparatus is characterized in that the output cycle is lengthened when a threshold set based on the quality of an image based on audio and image signals is not satisfied .

この発明では、画像信号および音声信号をリアルタイムで取り込む取込装置と通信回線を通して接続され、画像要求手段が画像転送要求を取込装置に向けて周期的に出力し、音声要求手段が音声転送要求を取込装置に向けて周期的に出力する。処理手段は、画像転送要求に応答して取込装置から転送された画像信号および音声転送要求に応答して取込装置から転送された音声信号に所定の処理を施す。制御手段は、取込装置から転送されかつ未だ所定の処理を施されていない音声信号の信号量に基づいて画像転送要求の出力周期を制御する。 In this invention, it is connected via a communication line to a capture device that captures image signals and audio signals in real time, the image request means periodically outputs an image transfer request to the capture device, and the audio request means requests the audio transfer. Output periodically to the capture device. The processing means performs predetermined processing on the image signal transferred from the capture device in response to the image transfer request and the audio signal transferred from the capture device in response to the audio transfer request. The control means controls the output cycle of the image transfer request based on the signal amount of the audio signal transferred from the capturing device and not yet subjected to the predetermined processing.

この発明では、前記信号処理装置において、制御手段は信号量が閾値に満たないとき出力周期を長くする特徴を持つ According to the present invention, in the signal processing device, the control means has a feature of extending the output cycle when the signal amount is less than a threshold value.

この発明は、前記信号処理装置において、処理手段は、取込装置から転送された画像信号を再生する画像再生手段、および取込装置から転送された音声信号を再生する音声再生手段をさらに含む。 The present invention, in the signal processing device, the processing means, the image reproducing means for reproducing the image signal transferred from the capture device, and further comprising a sound reproducing means for reproducing a sound signal transferred from the capture device.

この発明では、前記信号処理装置において、画像再生手段が転送画像信号を再生し、音声再生手段が転送音声信号を再生する。 In the present invention, in the signal processing apparatus, the image reproduction means reproduces the transfer image signal, and the sound reproduction means reproduces the transfer sound signal.

この発明は、前記信号処理装置において、取込装置から転送された画像信号の識別子および取込装置から転送された音声信号の識別子を転送順に登録する登録手段をさらに備える。 The present invention further includes registration means for registering, in the order of transfer, an identifier of an image signal transferred from the capture device and an identifier of an audio signal transferred from the capture device in the signal processing device.

この発明では、前記信号処理装置において、登録手段が転送画像信号の識別子および転送音声信号の識別子を転送順に登録する。再生手段は、登録手段に登録された識別子を参照することにより、次に再生すべき信号を選択する。 In the present invention, in the signal processing apparatus, the registration means registers the identifier of the transfer image signal and the identifier of the transfer audio signal in the order of transfer. The reproduction means selects a signal to be reproduced next by referring to the identifier registered in the registration means.

この発明は、前記信号処理装置において、処理手段は、音声再生手段によって再生された音声信号を出力する音声出力手段、および画像再生手段によって再生された画像信号を前記音声出力手段から出力される音声信号に同期させて出力する画像出力手段をさらに含む。 According to the present invention, in the signal processing apparatus, the processing unit outputs an audio signal reproduced by the audio reproducing unit, and an audio output from the audio output unit outputs the image signal reproduced by the image reproducing unit. Image output means for outputting in synchronization with the signal is further included.

この発明は、前記信号処理装置において、音声信号は任意の時間長を有し、画像信号にはこの画像信号以前に出力される音声信号の累計時間長に基づく時刻情報が付加され、画像出力手段は時刻情報に基づいて画像信号の出力タイミングを検出する。 According to the present invention, in the signal processing device, the audio signal has an arbitrary time length, and time information based on a cumulative time length of the audio signal output before the image signal is added to the image signal, and the image output means Detects the output timing of the image signal based on the time information.

この発明は、前記信号処理装置において、音声信号が任意の時間長を有する場合、画像信号にこの画像信号以前に出力される音声信号の累計時間長が時刻情報として付加される。画像出力手段は、この時刻情報に基づいて画像信号の出力タイミングを検出するので、画像信号を音声信号に同期させて出力することができる。 According to the present invention, in the signal processing apparatus, when the audio signal has an arbitrary time length, the accumulated time length of the audio signal output before the image signal is added to the image signal as time information. Since the image output means detects the output timing of the image signal based on this time information, the image signal can be output in synchronization with the audio signal.

この発明によれば、取込装置から転送されかつ未だ所定の処理を施されていない音声信号の信号量に基づいて画像転送要求の出力周期を制御する、典型的には未処理音声量が閾値に満たないとき画像要求周期を長くするので、通信回線の帯域幅が狭くなったときに音声が途切れる可能性を低減することができる。   According to the present invention, the output period of the image transfer request is controlled based on the signal amount of the audio signal transferred from the capture device and not yet subjected to the predetermined processing. Since the image request cycle is lengthened when less than the above, it is possible to reduce the possibility that the sound is interrupted when the bandwidth of the communication line is narrowed.

この場合、画像の品質低下は生じるものの、音声が途切れたときよりユーザの感じる不快感は少ない。また、取込装置は、ただ要求された信号を転送するだけでよいので、取込装置の負担が増すこともない。   In this case, although the quality of the image is reduced, the user feels less discomfort than when the sound is interrupted. Moreover, since the capture device only has to transfer the requested signal, the burden on the capture device does not increase.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例の監視カメラシステム10は、サーバ16と、端末60とで構成される。サーバ16には、カメラ12およびモニタ14が接続される。カメラ12は、被写界を撮影し、サーバ16に画像信号を出力する。モニタ14は、サーバ16から画像信号を受け、カメラ12で撮影された被写界を画面に表示する。   With reference to FIG. 1, the monitoring camera system 10 of this embodiment includes a server 16 and a terminal 60. A camera 12 and a monitor 14 are connected to the server 16. The camera 12 captures the scene and outputs an image signal to the server 16. The monitor 14 receives the image signal from the server 16 and displays the scene captured by the camera 12 on the screen.

サーバ16にはさらに、アンプ50を介してマイク52が、アンプ54を介してスピーカ56がそれぞれ接続される。マイク52は、被写界で発生した音波を捕捉し、アンプ50に音声信号を出力する。アンプ50は、マイク52からの音声信号を増幅し、増幅された音声信号をサーバ16に出力する。アンプ54は、サーバ16からの音声信号を受け、この信号でスピーカ56を駆動する。これによりスピーカ56から、マイク52で捕捉された音波が出力される。   The server 16 is further connected to a microphone 52 via an amplifier 50 and a speaker 56 via an amplifier 54. The microphone 52 captures sound waves generated in the object scene and outputs an audio signal to the amplifier 50. The amplifier 50 amplifies the audio signal from the microphone 52 and outputs the amplified audio signal to the server 16. The amplifier 54 receives the audio signal from the server 16 and drives the speaker 56 with this signal. Thereby, the sound wave captured by the microphone 52 is output from the speaker 56.

サーバ16と端末60とは、ネットワーク58を介して接続される。カメラ12からサーバ16に入力された画像信号およびマイク52からアンプ50を通じてサーバ16に入力された音声信号はまた、ネットワーク58を通じて端末60へも伝送される。   Server 16 and terminal 60 are connected via network 58. The image signal input from the camera 12 to the server 16 and the audio signal input from the microphone 52 to the server 16 through the amplifier 50 are also transmitted to the terminal 60 through the network 58.

端末60には、モニタ90が接続される。モニタ90は、端末60から画像信号を受け、カメラ12で撮影された被写界を画面に表示する。端末60にはさらに、アンプ92を介してスピーカ94が接続される。アンプ92は、サーバ16から音声信号を受け、この信号でスピーカ94を駆動する。これによりスピーカ94から、マイク52で捕捉された音波が出力される。   A monitor 90 is connected to the terminal 60. The monitor 90 receives an image signal from the terminal 60 and displays the scene captured by the camera 12 on the screen. A speaker 94 is further connected to the terminal 60 via an amplifier 92. The amplifier 92 receives the audio signal from the server 16 and drives the speaker 94 with this signal. As a result, sound waves captured by the microphone 52 are output from the speaker 94.

次に、サーバ16の構成について説明する。サーバ16は、2本のデータバス46および48を含む。データバス46にはJPEGコーデック18が接続され、データバス48にはCPU42およびフラッシュメモリ32が接続される。   Next, the configuration of the server 16 will be described. Server 16 includes two data buses 46 and 48. The JPEG codec 18 is connected to the data bus 46, and the CPU 42 and the flash memory 32 are connected to the data bus 48.

データバス46にはさらに、IDE−I/F回路24を介してHDD26が、D1−I/F(IN)回路20を介してカメラ12が、D1−I/F(OUT)回路22を介してモニタ14が、SDRAMコントローラ28を介してSDRAM30が、音声I/F回路40を介して音声A/Dコンバータ36および音声D/Aコンバータ38が、それぞれ接続される。   The data bus 46 further includes an HDD 26 via an IDE-I / F circuit 24, a camera 12 via a D1-I / F (IN) circuit 20, and a D1-I / F (OUT) circuit 22. The monitor 14 is connected to the SDRAM 30 via the SDRAM controller 28, and the audio A / D converter 36 and the audio D / A converter 38 via the audio I / F circuit 40.

データバス48にはさらに、SDRAMコントローラ28を介してSDRAM30が接続される。また、データバス48には、拡張バスI/F回路34を介してネットワークコントローラ44が接続される。   An SDRAM 30 is further connected to the data bus 48 via the SDRAM controller 28. Further, a network controller 44 is connected to the data bus 48 via the expansion bus I / F circuit 34.

なお、サーバ16では、CPU42が接続されているデータバス48とは別のデータバス46にJPEGコーデック18,音声A/Dコンバータ36および音声D/Aコンバータ38を接続することにより、画像・音声処理の速度の向上を図っている。データバス46側のハードウエアとデータバス48側のハードウエアとは、SDRAMコントローラ28を通じて互いにデータのやり取りをすることができる。   In the server 16, the JPEG codec 18, the audio A / D converter 36, and the audio D / A converter 38 are connected to a data bus 46 that is different from the data bus 48 to which the CPU 42 is connected. We are trying to improve the speed. The hardware on the data bus 46 side and the hardware on the data bus 48 side can exchange data with each other through the SDRAM controller 28.

次に、端末60の構成について説明する。端末60は、データバス88を含む。データバス88には、JPEGコーデック62,ネットワークコントローラ64,フラッシュメモリ66,操作パネル84およびCPU86が接続される。   Next, the configuration of the terminal 60 will be described. Terminal 60 includes a data bus 88. A JPEG codec 62, a network controller 64, a flash memory 66, an operation panel 84, and a CPU 86 are connected to the data bus 88.

データバス88にはさらに、IDE−I/F回路76を介してHDD78が、D1−I/F回路70を介してモニタ90が、SDRAMコントローラ80を介してSDRAM82が、音声I/F回路72を介して音声D/Aコンバータ74が、それぞれ接続される。   The data bus 88 further includes an HDD 78 via an IDE-I / F circuit 76, a monitor 90 via a D1-I / F circuit 70, an SDRAM 82 via an SDRAM controller 80, and an audio I / F circuit 72. Audio D / A converters 74 are connected to each other.

次に、サーバ16を構成する1つ1つの要素について説明する。D1−I/F(IN)回路20は、カメラ12からの画像信号をデータバス46に適合する信号に変換する。D1−I/F(OUT)回路22は、データバス46からの画像信号をモニタ14に適合する信号に変換する。   Next, each element constituting the server 16 will be described. The D1-I / F (IN) circuit 20 converts the image signal from the camera 12 into a signal suitable for the data bus 46. The D1-I / F (OUT) circuit 22 converts the image signal from the data bus 46 into a signal suitable for the monitor 14.

IDE−I/F回路24は、CPU42の指示を受け、HDD26を制御する。HDD26は、IDE−I/F回路24の制御に応じてデータバス46からの画像信号(JPEGファイル)や音声信号(WAVEファイル)をHD26aに記録し、かつHD26aから画像信号や音声信号を読み出してデータバス46に出力する。   The IDE-I / F circuit 24 receives an instruction from the CPU 42 and controls the HDD 26. The HDD 26 records an image signal (JPEG file) and an audio signal (WAVE file) from the data bus 46 on the HD 26a according to control of the IDE-I / F circuit 24, and reads the image signal and audio signal from the HD 26a. The data is output to the data bus 46.

音声A/Dコンバータ36は、アンプ50からの音声信号をA/D変換する。音声I/F回路40は、音声A/Dコンバータ36からの音声信号をデータバス46に適合する信号に変換する。音声I/F回路40はまた、データバス46からの音声信号を音声D/Aコンバータ38に適合する信号に変換する。音声D/Aコンバータ38は、音声I/F回路40からの音声信号をD/A変換する。   The audio A / D converter 36 A / D converts the audio signal from the amplifier 50. The audio I / F circuit 40 converts the audio signal from the audio A / D converter 36 into a signal suitable for the data bus 46. The audio I / F circuit 40 also converts the audio signal from the data bus 46 into a signal suitable for the audio D / A converter 38. The audio D / A converter 38 D / A converts the audio signal from the audio I / F circuit 40.

SDRAM30は、複数の記憶領域(バンク)を含んでおり、これら複数の記憶領域に音声信号,画像信号等がそれぞれ保持される。なお、SDRAM30の詳細については、後述する。   The SDRAM 30 includes a plurality of storage areas (banks), and audio signals, image signals, and the like are held in the plurality of storage areas. Details of the SDRAM 30 will be described later.

SDRAMコントローラ28は、CPU42の指示を受けて、データバス46からの画像信号や音声信号をSDRAM30に書き込み、かつSDRAM30から画像信号や音声信号を読み出してデータバス46またはデータバス48に出力する。   In response to an instruction from the CPU 42, the SDRAM controller 28 writes the image signal and audio signal from the data bus 46 to the SDRAM 30, reads the image signal and audio signal from the SDRAM 30, and outputs them to the data bus 46 or the data bus 48.

JPEGコーデック18は、データバス46から入力される画像信号をJPEG方式に従って符号化し、符号化して得られた画像信号をデータバスに出力する。また、データバス46から入力される符号化画像信号をJPEG方式に従って復号化し、復号化して得られた画像信号をデータバス46に出力する。   The JPEG codec 18 encodes the image signal input from the data bus 46 in accordance with the JPEG method, and outputs the image signal obtained by encoding to the data bus. The encoded image signal input from the data bus 46 is decoded according to the JPEG method, and the image signal obtained by decoding is output to the data bus 46.

ここで、符号化処理および復号化処理について簡単に説明しておく。画像信号は、次のような手順で符号化される。JPEGコーデック18は、最初、画像信号をブロック化する。次に、ブロックの各々にDCT変換を施し、これにより得られたDCT係数の各々を量子化する。次に、量子化されたDCT係数の各々をエントロピー符号化する。そして、エントロピー符号化されたデータを所定の順序に並べ、さらにヘッダ等の付加情報を添付することによってJPEGファイルを形成する。こうして形成される1つのJPEGファイルは、1枚の画像フレームと対応する。符号化画像信号を復号化する際には、JPEGコーデック18は、上記の符号化とは逆の処理を行う。   Here, the encoding process and the decoding process will be briefly described. The image signal is encoded by the following procedure. The JPEG codec 18 first blocks the image signal. Next, each of the blocks is subjected to DCT transformation, and each of the DCT coefficients obtained thereby is quantized. Next, each quantized DCT coefficient is entropy encoded. Then, the JPEG file is formed by arranging the entropy-encoded data in a predetermined order and attaching additional information such as a header. One JPEG file formed in this way corresponds to one image frame. When decoding the encoded image signal, the JPEG codec 18 performs a process reverse to the above encoding.

なお、この実施例ではJPEG方式を採用しているが、JPEG2000方式やその他の符号化方式を用いても構わない。いずれの場合も、符号化画像信号のヘッダないしは付加情報領域に記録時刻56aが埋め込まれる。   In this embodiment, the JPEG method is adopted, but the JPEG 2000 method or other encoding methods may be used. In either case, the recording time 56a is embedded in the header or additional information area of the encoded image signal.

再びサーバ16の構成要素の説明に戻る。拡張バスI/F回路34は、ネットワークコントローラ44とデータバス48との間のデータのやり取りを仲介する。ネットワークコントローラ44は、端末60が発した要求信号をネットワーク58から受信する。また、CPU42の指示を受け、SDRAM30に保持されている画像信号や音声信号をネットワーク58に送出する。   Returning to the description of the components of the server 16 again. The expansion bus I / F circuit 34 mediates data exchange between the network controller 44 and the data bus 48. The network controller 44 receives a request signal issued by the terminal 60 from the network 58. In response to an instruction from the CPU 42, the image signal and audio signal held in the SDRAM 30 are sent to the network 58.

フラッシュメモリ32には、CPU42の処理手順を記述したプログラムが格納されている。CPU42は、フラッシュメモリ32内のプログラムに従い、上記の各構成要素を制御する。これにより、サーバ16において、録画や再生、JPEGファイルやWAVEファイルの送信といった様々な処理が実現される。   The flash memory 32 stores a program describing the processing procedure of the CPU 42. The CPU 42 controls each of the above components according to the program in the flash memory 32. As a result, various processes such as recording and playback, and transmission of a JPEG file and a WAVE file are realized in the server 16.

次に、端末60を構成する1つ1つの要素について説明する。D1−I/F回路70は、データバス88からの画像信号をモニタ90に適合する信号に変換する。IDE−I/F回路76は、CPU86の指示を受け、HDD78を制御する。HDD78は、IDE−I/F回路76の制御に応じてデータバス88からの画像信号(JPEGファイル)や音声信号(WAVEファイル)をHD78aに記録し、かつHD78aから画像信号や音声信号を読み出してデータバス88に出力する。   Next, each element constituting the terminal 60 will be described. The D1-I / F circuit 70 converts the image signal from the data bus 88 into a signal suitable for the monitor 90. The IDE-I / F circuit 76 receives an instruction from the CPU 86 and controls the HDD 78. The HDD 78 records the image signal (JPEG file) and the audio signal (WAVE file) from the data bus 88 on the HD 78a according to the control of the IDE-I / F circuit 76, and reads the image signal and the audio signal from the HD 78a. The data is output to the data bus 88.

音声I/F回路72は、データバス88からの音声信号を音声D/Aコンバータ74に適合する信号に変換する。音声D/Aコンバータ74は、音声I/F回路72からの音声信号をD/A変換し、変換後の音声信号をアンプ92に出力する。   The audio I / F circuit 72 converts the audio signal from the data bus 88 into a signal suitable for the audio D / A converter 74. The audio D / A converter 74 D / A converts the audio signal from the audio I / F circuit 72 and outputs the converted audio signal to the amplifier 92.

SDRAM82は、複数の記憶領域(バンク)を含んでおり、これら複数の記憶領域に音声信号,画像信号等がそれぞれ保持される。なお、SDRAM82の詳細については、後述する。   The SDRAM 82 includes a plurality of storage areas (banks), and audio signals, image signals, and the like are held in the plurality of storage areas. Details of the SDRAM 82 will be described later.

SDRAMコントローラ80は、CPU86の指示を受けて、データバス88からの画像信号や音声信号をSDRAM82に書き込み、かつSDRAM82から画像信号や音声信号を読み出してデータバス88に出力する。   In response to an instruction from the CPU 86, the SDRAM controller 80 writes the image signal and audio signal from the data bus 88 to the SDRAM 82, reads the image signal and audio signal from the SDRAM 82, and outputs them to the data bus 88.

JPEGコーデック62は、データバス88から入力される画像信号をJPEG方式に従って符号化し、符号化して得られた画像信号をデータバス88に出力する。また、データバス88から入力される符号化画像信号をJPEG方式に従って復号化し、復号化して得られた画像信号をデータバス88に出力する。ここでの符号化処理および復号化処理は、JPEGコーデック18によるものと同様である。   The JPEG codec 62 encodes the image signal input from the data bus 88 according to the JPEG method, and outputs the encoded image signal to the data bus 88. Also, the encoded image signal input from the data bus 88 is decoded according to the JPEG method, and the image signal obtained by decoding is output to the data bus 88. The encoding process and decoding process here are the same as those by the JPEG codec 18.

ネットワークコントローラ64は、CPU86の指示を受けてサーバ16にネットワーク58経由で要求信号を送信する。そして、サーバ16からネットワーク58経由で画像信号や音声信号を受信し、受信信号をデータバス88に出力する。   The network controller 64 transmits a request signal to the server 16 via the network 58 in response to an instruction from the CPU 86. Then, an image signal and an audio signal are received from the server 16 via the network 58, and the received signal is output to the data bus 88.

操作パネル84は、Playキー84aと、Stopキー84bと、テンキー84cとを備えている。テンキー48cは、10個の数字キーといくつかの記号キーとを含む。操作パネル84上のいずれかのキーが押されると、押されたキーに対応する信号が操作パネル84からCPU86に送信される。   The operation panel 84 includes a Play key 84a, a Stop key 84b, and a numeric keypad 84c. The numeric keypad 48c includes ten numeric keys and several symbol keys. When any key on the operation panel 84 is pressed, a signal corresponding to the pressed key is transmitted from the operation panel 84 to the CPU 86.

フラッシュメモリ66には、再生リスト(LIST)68が格納されている。なお、再生リスト68については後述する。   The flash memory 66 stores a reproduction list (LIST) 68. The reproduction list 68 will be described later.

フラッシュメモリ66にはさらに、CPU86の処理手順を記述したプログラムも格納されている。CPU86は、操作パネル84からの信号に応じ、かつフラッシュメモリ66内のプログラムに従い、上記の各構成要素を制御する。これにより、端末60において、サーバ16からのJPEGファイルやWAVEファイルの取得、取得ファイルの記録や再生といった様々な処理が実現される。   The flash memory 66 further stores a program describing the processing procedure of the CPU 86. The CPU 86 controls each of the above components in accordance with a signal from the operation panel 84 and in accordance with a program in the flash memory 66. Thereby, in the terminal 60, various processes such as acquisition of a JPEG file and a WAVE file from the server 16 and recording and reproduction of the acquired file are realized.

次に、サーバ16内のSDRAM30について説明する。図2を参照して、SDRAM30は、音声バッファ30aと、画像バッファ30bとを含む。音声バッファ30aおよび画像バッファ30bには、D1−I/F(IN)回路20および音声A/Dコンバータ36からの音声信号および画像信号がそれぞれ蓄積される。音声バッファ30aおよび画像バッファ30b内の音声信号および画像信号は、CPU42の指示に従い、D1−I/F(OUT)回路22および音声D/Aコンバータ38にそれぞれ読み出される。その結果、モニタ14にライブ画像が表示され、スピーカ56からはライブ音声が出力される。   Next, the SDRAM 30 in the server 16 will be described. Referring to FIG. 2, SDRAM 30 includes an audio buffer 30a and an image buffer 30b. Audio signals and image signals from the D1-I / F (IN) circuit 20 and the audio A / D converter 36 are stored in the audio buffer 30a and the image buffer 30b, respectively. Audio signals and image signals in the audio buffer 30a and the image buffer 30b are read out to the D1-I / F (OUT) circuit 22 and the audio D / A converter 38, respectively, in accordance with instructions from the CPU 42. As a result, a live image is displayed on the monitor 14, and live sound is output from the speaker 56.

また、端末60からのWAVE要求があれば、その時点で音声バッファ30aに蓄積されている全ての音声信号がネットワークコントローラ44に読み出され、この音声信号を含むWAVEファイルが生成される。生成されたWAVEファイルは、ネットワークコントローラ44によってネットワーク58に送出される。   If there is a WAVE request from the terminal 60, all audio signals stored in the audio buffer 30a at that time are read to the network controller 44, and a WAVE file including the audio signals is generated. The generated WAVE file is sent to the network 58 by the network controller 44.

ただし、音声バッファ30aには第1閾値が設定されており、音声バッファ30aの蓄積量が第1閾値を越えていなければ音声バッファ30aからの読み出しは行われず、蓄積量が第1閾値を越えた時点でこれが実行される。なお、音声バッファ30aからネットワークコントローラ44側への音声信号読み出し処理の詳細については後述する。   However, a first threshold is set in the audio buffer 30a. If the accumulated amount of the audio buffer 30a does not exceed the first threshold, reading from the audio buffer 30a is not performed, and the accumulated amount exceeds the first threshold. This is done at some point. The details of the audio signal reading process from the audio buffer 30a to the network controller 44 will be described later.

さらにまた、端末60からのJPEG要求があれば、画像バッファ30bから、現在D1−I/F(OUT)回路22に出力中のフレームと対応する画像信号がJPEGコーデック18に読み出される。JPEGコーデック18では画像信号が符号化され、さらに符号化された画像信号を含むJPEGファイルが生成される。生成されたJPEGファイルは、ネットワークコントローラ44を通じてネットワーク58に送出される。   Furthermore, if there is a JPEG request from the terminal 60, the image signal corresponding to the frame currently being output to the D1-I / F (OUT) circuit 22 is read from the image buffer 30b to the JPEG codec 18. The JPEG codec 18 encodes the image signal, and further generates a JPEG file including the encoded image signal. The generated JPEG file is sent to the network 58 through the network controller 44.

次に、端末60内のSDRAM82について説明する。図3を参照して、SDRAM82は、音声バッファ82aと、画像バッファ82bとを含む。音声バッファ82aおよび画像バッファ82bには、ネットワークコントローラ64によってネットワーク58から受信されたJPEGファイルの画像信号,および同様に受信されたWAVEファイルの音声信号がそれぞれ格納される。   Next, the SDRAM 82 in the terminal 60 will be described. Referring to FIG. 3, SDRAM 82 includes an audio buffer 82a and an image buffer 82b. The audio buffer 82a and the image buffer 82b store the image signal of the JPEG file received from the network 58 by the network controller 64 and the audio signal of the WAVE file similarly received.

音声バッファ82aおよび画像バッファ82bに蓄積された音声信号および画像信号は、フラッシュメモリ66内の再生リスト68(後述)に従って順次読み出され、再生される。   The audio signal and the image signal accumulated in the audio buffer 82a and the image buffer 82b are sequentially read and reproduced according to a reproduction list 68 (described later) in the flash memory 66.

ただし、音声バッファ82aには、第2閾値および第3閾値が設定されている。音声バッファ82aの蓄積量が第2閾値を越えていなければ音声バッファ82aからの読み出しは行われず、第2閾値を越えた時点でこれが実行される。また、JPEG要求の送信タイミングにおいて音声バッファ82aの蓄積量が第3閾値を下回っているとき、このJPEG要求はスキップされ、代わりにWAVE要求が送信される。   However, a second threshold value and a third threshold value are set in the audio buffer 82a. If the accumulated amount of the audio buffer 82a does not exceed the second threshold value, reading from the audio buffer 82a is not performed, and this is executed when the second threshold value is exceeded. When the accumulated amount of the audio buffer 82a is below the third threshold at the transmission timing of the JPEG request, the JPEG request is skipped and a WAVE request is transmitted instead.

なお、第3閾値が大きいほど音声が途切れにくくなり、小さいほど画像のコマ落ちが発生しにくくなる。この実施例では、音声および画像の品質バランスを考慮して、第3閾値は例えば第2閾値の0.8倍に設定される。   Note that the greater the third threshold value, the less likely the sound is to be interrupted, and the smaller the third threshold value, the less likely the image dropout occurs. In this embodiment, the third threshold is set to, for example, 0.8 times the second threshold in consideration of the quality balance between sound and image.

次に、音声バッファ30aからネットワークコントローラ44側への音声信号読み出し処理について説明する。図4を参照して、音声バッファ30aに音声信号が書き込まれるのに伴い、書き込みポインタ(点線矢印)が音声バッファ30a上を移動していく。また、音声バッファ30aから音声信号が読み出されるのに伴い、読み出しポインタ(audio_adr;実線矢印)が書き込みポインタの後を追って移動する。その時々の音声バッファ30aの蓄積量Dは、書き込みポインタと読み出しポインタとの差分で与えられる。   Next, an audio signal reading process from the audio buffer 30a to the network controller 44 side will be described. Referring to FIG. 4, as the audio signal is written to audio buffer 30a, the write pointer (dotted arrow) moves on audio buffer 30a. Further, as the audio signal is read from the audio buffer 30a, the read pointer (audio_adr; solid arrow) moves after the write pointer. The accumulated amount D of the audio buffer 30a at that time is given by the difference between the write pointer and the read pointer.

より具体的には、時間t=2のとき、書き込みポインタは“2”の位置に、読み出しポインタは“0”の位置にある。従って、蓄積量Dは“2”であり、この直後、音声バッファ30aから2秒分の音声信号が読み出される。   More specifically, at time t = 2, the write pointer is at the “2” position and the read pointer is at the “0” position. Therefore, the accumulation amount D is “2”, and immediately after this, an audio signal for 2 seconds is read from the audio buffer 30a.

t=3では、t=2〜3の1秒間に1秒分の音声信号が書き込まれた結果、書き込みポインタは“3”の位置まで移動している。一方、読み出しポインタは、t=2〜3の1秒間に2秒分の音声信号が読み出された結果、“2”の位置まで移動している。従って、蓄積量Dは“1”であり、この直後、音声バッファ30aから1秒分の音声信号が読み出される。   At t = 3, as a result of writing an audio signal for one second in one second at t = 2 to 3, the write pointer has moved to the position “3”. On the other hand, the read pointer has moved to the position “2” as a result of reading out the audio signal for 2 seconds in 1 second from t = 2 to 3. Accordingly, the accumulation amount D is “1”, and immediately after this, an audio signal for one second is read from the audio buffer 30a.

t=4では、t=3〜4の1秒間に1秒分の音声信号が書き込まれた結果、書き込みポインタは“4”の位置まで移動している。一方、読み出しポインタは、t=3〜4の1秒間に1秒分の音声信号が読み出された結果、“3”の位置まで移動している。従って、蓄積量Dは“1”であり、この直後、音声バッファ30aから1秒分の音声信号が読み出される。   At t = 4, as a result of writing an audio signal for one second in one second at t = 3 to 4, the write pointer has moved to the position “4”. On the other hand, the read pointer has moved to the position “3” as a result of reading the audio signal for one second in one second at t = 3 to 4. Accordingly, the accumulation amount D is “1”, and immediately after this, an audio signal for one second is read from the audio buffer 30a.

次に、再生リスト68について説明する。図5を参照して、再生リスト68は、JPEG欄68a,WAVE欄68bおよびリスト番号欄68cによって構成される。リスト番号欄68cには、リスト番号list[1],list[2],…が付与されている。JPEGファイルまたはWAVEファイルがSDRAM82に格納されたとき、そのファイルの識別子が格納順にリスト番号list[1],list[2],…に割り当てられる。   Next, the reproduction list 68 will be described. Referring to FIG. 5, the reproduction list 68 includes a JPEG column 68a, a WAVE column 68b, and a list number column 68c. List numbers list [1], list [2],... Are assigned to the list number column 68c. When a JPEG file or a WAVE file is stored in the SDRAM 82, the identifier of the file is assigned to the list numbers list [1], list [2],.

例えば、JPEGファイル(識別子:0001.jpg),WAVEファイル(識別子:0001.wav),WAVEファイル(識別子:0002.wav),WAVEファイル(識別子:0003.wav),…がこの順序で受信され、かつSDRAM82内の該当バッファに格納されたとする。この場合、まずリスト番号list[1]にファイル識別子0001.jpgが登録され、次いでリスト番号list[2]にファイル識別子0001.wavが登録され、さらにリスト番号list[3]にファイル識別子0002.wavが登録され、そしてリスト番号list[4]にファイル識別子0003.wavが登録される。   For example, a JPEG file (identifier: 0001.jpg), a WAVE file (identifier: 0001.wav), a WAVE file (identifier: 0002.wav), a WAVE file (identifier: 0003.wav), etc. are received in this order. Assume that the data is stored in the corresponding buffer in the SDRAM 82. In this case, first, the file identifier 0001. jpg is registered, and then the file identifier 0001. wav is registered, and the file identifier 0002. wav is registered, and the file identifier 0003. wav is registered.

図中に矢印で示された再生ポインタlist[n]は、リスト番号list[1],list[2],…のいずれか1つを指す。再生ポインタlist[n]の指すリスト番号に割り当てられているファイルが、次の再生対象ファイルとなる。   A reproduction pointer list [n] indicated by an arrow in the figure indicates any one of list numbers list [1], list [2],. The file assigned to the list number pointed to by the playback pointer list [n] becomes the next file to be played.

以上のように構成された監視カメラシステム10の動作を、図1の全体構成図,図6〜図8に示されたサーバCPU42の処理フロー図,図9〜図12に示された端末CPU86の処理フロー図,および図13のタイミングチャート図に基づき以下に説明する。   The operation of the surveillance camera system 10 configured as described above is the same as that of the overall configuration diagram of FIG. 1, the processing flowchart of the server CPU 42 shown in FIGS. 6 to 8, and the operation of the terminal CPU 86 shown in FIGS. This will be described below based on the processing flowchart and the timing chart of FIG.

図1を参照して、この監視カメラシステム10は、例えばオフィスビルや集合住宅などで用いられる。カメラ12は、例えば玄関や通路に設置され、サーバ16およびモニタ14は、例えば管理室に設けられる。なお、カメラ12は1台とは限らない。複数のカメラ12を設置する場合、各カメラ12,12,…は、図示しないマルチプレクサを介してD1−I/F(IN)回路20に接続される。   With reference to FIG. 1, this surveillance camera system 10 is used in, for example, an office building or an apartment house. The camera 12 is installed in, for example, a front door or a passage, and the server 16 and the monitor 14 are installed in, for example, a management room. Note that the number of cameras 12 is not limited to one. When a plurality of cameras 12 are installed, each camera 12, 12,... Is connected to the D1-I / F (IN) circuit 20 via a multiplexer (not shown).

ネットワーク58は、例えばイントラネットやインターネットであり、端末60は、ネットワーク58に接続可能な任意の場所に設置される。従って、ユーザは、管理室内でだけでなく、端末60を通じて任意の場所で監視画像を閲覧することができる。   The network 58 is, for example, an intranet or the Internet, and the terminal 60 is installed at any place that can be connected to the network 58. Therefore, the user can view the monitoring image not only in the management room but also at an arbitrary place through the terminal 60.

サーバ16では、リアルタイム再生モードや記録再生モードなど、複数の動作モードが準備されており、いずれかのモードが選択される。リアルタイム再生モードが選択された場合、カメラ12によって撮影された監視画像およびマイク52により捕捉された音声は、一旦バッファに蓄積された後再生され、モニタ14およびスピーカ56を通じてリアルタイム的に表示および出力される。   In the server 16, a plurality of operation modes such as a real-time playback mode and a recording / playback mode are prepared, and one of the modes is selected. When the real-time playback mode is selected, the monitoring image captured by the camera 12 and the sound captured by the microphone 52 are temporarily stored in the buffer and then played back, and are displayed and output in real time through the monitor 14 and the speaker 56. The

記録再生モードでは、監視画像および音声は、上記のようにしてリアルタイム的に表示および出力されると同時に、必要に応じて圧縮および/または符号化処理が施され、HD26aに記録される。HD26aに記録された監視画像および音声は、必要なときに読み出され、再生される。以下の説明では、サーバ16はリアルタイム再生モードで動作しているとする。   In the recording / reproducing mode, the monitoring image and audio are displayed and output in real time as described above, and at the same time, subjected to compression and / or encoding processing as necessary and recorded on the HD 26a. The monitoring image and sound recorded on the HD 26a are read and reproduced when necessary. In the following description, it is assumed that the server 16 is operating in the real-time playback mode.

監視画像および音声をリアルタイム再生しているサーバ16に対し、端末60は、現在再生中の監視画像および音声の閲覧要求を発行する。閲覧要求は、1秒間隔で送信される複数のファイル要求で構成される。サーバ16は、要求されたファイルを端末60に送信する。   The terminal 60 issues a browsing request for the currently monitored monitoring image and audio to the server 16 that is reproducing the monitoring image and audio in real time. The browsing request is composed of a plurality of file requests transmitted at intervals of 1 second. The server 16 transmits the requested file to the terminal 60.

ファイル要求には、JPEG要求およびWAVE要求の2種類があり、端末60は、基本的には、JPEG要求およびWAVE要求を交互に送信する。ただし、ネットワーク58の伝送帯域幅が狭くなって、要求されたファイルの一部しか伝送できない状況が生じると、予定されたJPEG要求はスキップされ、代わりにWAVE要求が送信される。これにより、狭帯域状況下では、サーバ16からJPEGファイルよりもWAVEファイルが優先的に送信される。その結果、端末60では、監視画像のコマ落ちは生じるものの、音声を途切れさせることなく再生し続けることができる。   There are two types of file requests, JPEG requests and WAVE requests, and the terminal 60 basically transmits JPEG requests and WAVE requests alternately. However, if the transmission bandwidth of the network 58 becomes narrow and only a part of the requested file can be transmitted, the scheduled JPEG request is skipped and a WAVE request is sent instead. As a result, under a narrow band situation, the WAVE file is preferentially transmitted from the server 16 over the JPEG file. As a result, the terminal 60 can continue to reproduce the sound without interruption even though the frames of the monitoring image are dropped.

具体的には、サーバ16のCPU42は、以下のような処理を行う。図6を参照して、サーバ16が起動されると、ステップS1でCPU42は、初期処理を実行する。初期処理には、例えばSDRAMコントローラ28にSDRAM30の初期化を指示したり、ネットワークコントローラ44にネットワーク58との接続確立を指示したり、再生モードを選択したり、といった処理が含まれる。この実施例では、リアルタイム再生モードが選択される。   Specifically, the CPU 42 of the server 16 performs the following processing. Referring to FIG. 6, when server 16 is activated, CPU 42 executes an initial process in step S1. The initial processing includes processing such as instructing the SDRAM controller 28 to initialize the SDRAM 30, instructing the network controller 44 to establish connection with the network 58, and selecting a reproduction mode. In this embodiment, the real-time playback mode is selected.

ステップS3でCPU42は、D1−I/F(IN)回路20から画像信号が入力されたか否かを判定する。判定結果が肯定的であればステップS5に、否定的であればステップS7に進む。ステップS5でCPU42は、SDRAMコントローラ28を通じ、画像信号をSDRAM30内の画像バッファ30bに格納する。その後、ステップS7に進む。   In step S3, the CPU 42 determines whether an image signal is input from the D1-I / F (IN) circuit 20. If the determination result is affirmative, the process proceeds to step S5, and if negative, the process proceeds to step S7. In step S <b> 5, the CPU 42 stores the image signal in the image buffer 30 b in the SDRAM 30 through the SDRAM controller 28. Then, it progresses to step S7.

ステップS7でCPU42は、音声I/F回路40から音声データが入力されたか否かを判定する。判定結果が肯定的であればステップS9に、否定的であればステップS11に進む。ステップS9でCPU42は、SDRAMコントローラ28を通じ、音声データをSDRAM30内の音声バッファ30aに格納する。その後、ステップS11に進む。   In step S <b> 7, the CPU 42 determines whether audio data is input from the audio I / F circuit 40. If the determination result is affirmative, the process proceeds to step S9, and if negative, the process proceeds to step S11. In step S <b> 9, the CPU 42 stores the audio data in the audio buffer 30 a in the SDRAM 30 through the SDRAM controller 28. Then, it progresses to step S11.

ステップS11でCPU42は、SDRAMコントローラ28に命じて、画像バッファ30bに蓄積されている画像信号をD1−I/F(OUT)回路22からモニタ14へ、音声バッファ30aに蓄積されている音声データを音声I/F回路40を通じて音声D/Aコンバータ38へ、それぞれ出力させる。こうして、モニタ14に監視画像が表示され、同時にスピーカ56から音声が出力される。   In step S11, the CPU 42 instructs the SDRAM controller 28 to send the image signal stored in the image buffer 30b from the D1-I / F (OUT) circuit 22 to the monitor 14, and the audio data stored in the audio buffer 30a. The audio signal is output to the audio D / A converter 38 through the audio I / F circuit 40. In this way, the monitoring image is displayed on the monitor 14 and at the same time, sound is output from the speaker 56.

ステップS13でCPU42は、ネットワークコントローラ44が端末60からJPEG要求を受信したか否かを判定する。判定結果が肯定的であればステップS15に、否定的であればステップS17に進む。ステップS15では、端末60にJPEGファイルを送信する。その後、ステップS17に進む。なお、JPEGファイル送信処理の詳細については後述する。   In step S <b> 13, the CPU 42 determines whether the network controller 44 has received a JPEG request from the terminal 60. If the determination result is affirmative, the process proceeds to step S15, and if negative, the process proceeds to step S17. In step S15, the JPEG file is transmitted to the terminal 60. Thereafter, the process proceeds to step S17. Details of the JPEG file transmission process will be described later.

ステップS17でCPU42は、ネットワークコントローラ44が端末60からWAVE要求を受信したか否かを判定する。判定結果が肯定的であればステップS19に、否定的であればステップS21に進む。ステップS19では、端末60にWAVEファイルを送信する。その後、ステップS21に進む。なお、WAVEファイル送信処理の詳細については後述する。   In step S <b> 17, the CPU 42 determines whether the network controller 44 has received a WAVE request from the terminal 60. If the determination result is affirmative, the process proceeds to step S19, and if negative, the process proceeds to step S21. In step S19, the WAVE file is transmitted to the terminal 60. Then, it progresses to step S21. The details of the WAVE file transmission process will be described later.

ステップS21でCPU42は、処理を継続するか否かを判断する。判断結果が肯定的であれば、ステップS3に戻って上記と同様の処理を繰り返し、否定的であれば、処理を終了する。   In step S21, the CPU 42 determines whether or not to continue the process. If the determination result is affirmative, the process returns to step S3 to repeat the same processing as above, and if negative, the processing is terminated.

次に、上記ステップS15のJPEGファイル送信処理について説明する。図7を参照して、ステップS41でCPU42は、JPEGコーデック18に対し、現在モニタ14側へ出力中のフレームと対応する画像信号の符号化を実行するように指示する。応じてJPEGコーデック18は、SDRAMコントローラ28を通じてSDRAM30から該当画像信号を読み出し、読み出された画像信号をJPEG方式に従って符号化する。符号化画像信号は、SDRAM30に一時保持される。   Next, the JPEG file transmission process in step S15 will be described. Referring to FIG. 7, in step S41, CPU 42 instructs JPEG codec 18 to execute encoding of an image signal corresponding to a frame currently being output to monitor 14 side. In response, the JPEG codec 18 reads the corresponding image signal from the SDRAM 30 through the SDRAM controller 28, and encodes the read image signal according to the JPEG method. The encoded image signal is temporarily stored in the SDRAM 30.

ステップS43でCPU42は、符号化画像信号をもとにJPEGファイルを生成する。その際、符号化画像信号の末尾にタイムスタンプ(wave_time)が添付される。   In step S43, the CPU 42 generates a JPEG file based on the encoded image signal. At that time, a time stamp (wave_time) is attached to the end of the encoded image signal.

ここでタイムスタンプは、端末60側で再生処理を行うとき画像と音声との同期を取るのに用いられる。具体的には、端末60には、画像および音声をリアルタイムで再生するモードや、画像および音声をリアルタイムで再生しつつ記録し、後で記録画像および記録音声を再生するモードなど複数のモードが準備されている。どのモードで再生を行う場合も、端末60は、画像信号の末尾に添付されたタイムスタンプに基づいて画像信号の出力タイミングを検出し、画像信号を音声信号に同期させて出力する。   Here, the time stamp is used to synchronize the image and the sound when reproduction processing is performed on the terminal 60 side. Specifically, the terminal 60 is provided with a plurality of modes such as a mode for reproducing images and sounds in real time, a mode for recording images and sounds while reproducing them in real time, and a mode for reproducing recorded images and recorded sounds later. Has been. In any mode of reproduction, the terminal 60 detects the output timing of the image signal based on the time stamp attached to the end of the image signal, and outputs the image signal in synchronization with the audio signal.

ステップS45でCPU42は、ネットワークコントローラ44を通じ、ネットワーク58経由で端末60にJPEGファイルを送信する。そして、上位階層のルーチンに復帰する。   In step S <b> 45, the CPU 42 transmits the JPEG file to the terminal 60 through the network 58 through the network controller 44. Then, the process returns to the upper layer routine.

次に、上記ステップS19のWAVEファイル送信処理について説明する。図8を参照して、ステップS61でCPU42は、ネットワークコントローラ44によって受信されたWAVE要求が初期要求か否かを判定する。なお、1回目のWAVE要求にはフラグが添付されおり、判定は、このフラグを検知することにより行われる。ステップS61の判定結果が肯定的であればステップS63に、否定的であればステップS65に進む。   Next, the WAVE file transmission process in step S19 will be described. Referring to FIG. 8, in step S61, CPU 42 determines whether or not the WAVE request received by network controller 44 is an initial request. Note that a flag is attached to the first WAVE request, and the determination is made by detecting this flag. If the determination result in step S61 is affirmative, the process proceeds to step S63, and if negative, the process proceeds to step S65.

ステップS63でCPU42は、変数wav_timeおよび変数audio_adrの各々に“0”をセットする。なお、wav_time,audio_adr等の変数の値は、例えばCPU42内のレジスタに保持される。その後、ステップS65に進む。   In step S63, the CPU 42 sets “0” to each of the variable wav_time and the variable audio_adr. Note that the values of variables such as wav_time and audio_adr are held in a register in the CPU 42, for example. Thereafter, the process proceeds to step S65.

ステップS65でCPU42は、音声バッファ30aの蓄積量Dを算出する。蓄積量Dは、書き込みポインタと読み出しポインタ(audio_adr)との差分で与えられる(図4参照)。   In step S65, the CPU 42 calculates the accumulation amount D of the audio buffer 30a. The accumulation amount D is given by the difference between the write pointer and the read pointer (audio_adr) (see FIG. 4).

ステップS67でCPU42は、算出された蓄積量Dが第1閾値よりも大きいか否かを判定する。判定結果が肯定的であればステップS69に進み、否定的であればステップS65に戻る。   In step S67, the CPU 42 determines whether or not the calculated accumulation amount D is larger than the first threshold value. If the determination result is affirmative, the process proceeds to step S69, and if negative, the process returns to step S65.

ステップS69でCPU42は、変数audio_adrに{(audio_adr)+D}をセットする。ステップS71では、SDRAMコントローラ28を通じ、音声バッファ30aから全ての音声データを読み出す。ステップS73では、読み出された音声データの時間長Tを算出する。時間長Tは、読み出された音声データの量Dをその音声データのビットレートで除算することにより得られる。   In step S69, the CPU 42 sets {(audio_adr) + D} to the variable audio_adr. In step S71, all audio data is read from the audio buffer 30a through the SDRAM controller 28. In step S73, the time length T of the read audio data is calculated. The time length T is obtained by dividing the read audio data amount D by the bit rate of the audio data.

ステップS75でCPU42は、変数wav_timeに{(wav_time)+T}をセットする。ステップS77では、ステップS71で読み出された音声データにタイムスタンプ(wav_time)等の付加情報を添付することにより、WAVEファイルを生成する。ステップS79では、ネットワークコントローラ44を通じ、ネットワーク58経由で端末60にWAVEファイルを送信する。その後、上位階層のルーチンに復帰する。   In step S75, the CPU 42 sets {(wav_time) + T} to the variable wav_time. In step S77, a WAVE file is generated by attaching additional information such as a time stamp (wav_time) to the audio data read in step S71. In step S79, the WAVE file is transmitted to the terminal 60 through the network 58 through the network controller 44. Thereafter, the process returns to the upper layer routine.

一方、端末60のCPU86は、以下のような処理を行う。なお、端末60にもいくつかの再生モードが準備されているが、この実施例ではリアルタイム再生を行う場合のみを説明する。   On the other hand, the CPU 86 of the terminal 60 performs the following processing. The terminal 60 is also prepared with several playback modes. In this embodiment, only the case of performing real-time playback will be described.

図9を参照して、端末60が起動されると、ステップS91でCPU86は、初期処理を実行する。初期処理には、例えばSDRAMコントローラ80にSDRAM82の初期化を指示したり、ネットワークコントローラ64にネットワーク58との接続確立を指示したり、といった処理が含まれる。   Referring to FIG. 9, when terminal 60 is activated, CPU 86 executes an initial process in step S91. The initial processing includes processing such as instructing the SDRAM controller 80 to initialize the SDRAM 82 and instructing the network controller 64 to establish connection with the network 58.

ステップS93でCPU86は、Playキー84aが押下されたか否かを判定する。判定結果が肯定的であればステップS95に、否定的であればステップS99に進む。ステップS95では、ファイル取得タスクを起動する。ステップS97では、再生タスクを起動する。その後、ステップS99に進む。なお、ファイル取得タスクおよび再生タスクについては後述する。   In step S93, the CPU 86 determines whether or not the Play key 84a has been pressed. If the determination result is affirmative, the process proceeds to step S95, and if negative, the process proceeds to step S99. In step S95, a file acquisition task is activated. In step S97, a reproduction task is activated. Thereafter, the process proceeds to step S99. The file acquisition task and the reproduction task will be described later.

ステップS99でCPU86は、他の処理を実行する。ステップS101では、ファイル取得タスクおよび再生タスクが実行中か否かを判定する。判定結果が否定的、すなわち少なくとも一方のタスクが終了されていれば、ステップS93に戻る。判定結果が肯定的、すなわち両タスクがまだ実行中であれば、ステップS99に戻る。   In step S99, the CPU 86 executes other processing. In step S101, it is determined whether the file acquisition task and the reproduction task are being executed. If the determination result is negative, that is, if at least one task has been completed, the process returns to step S93. If the determination result is affirmative, that is, if both tasks are still being executed, the process returns to step S99.

次に、上記のファイル取得タスクについて説明する。図10を参照して、ステップS111でCPU86は、変数num,変数wav_nおよび変数jpg_nの各々に“1”をセットする。ステップS113では、変数jpg_nに対応するJPEGファイルを要求する。ステップS115では、変数jpg_nに{(jpg_n)+1}をセットする。ステップS117では、ネットワークコントローラ64によるファイル取得が完了したか否かを判定する。判定結果が否定的であればステップS119に、肯定的であればステップS121に進む。   Next, the file acquisition task will be described. Referring to FIG. 10, in step S111, CPU 86 sets “1” to each of variable num, variable wav_n, and variable jpg_n. In step S113, a JPEG file corresponding to the variable jpg_n is requested. In step S115, {(jpg_n) +1} is set to the variable jpg_n. In step S117, it is determined whether the file acquisition by the network controller 64 is completed. If the determination result is negative, the process proceeds to step S119. If the determination result is affirmative, the process proceeds to step S121.

ステップS119でCPU86は、Stopキー84bが押下されたか否かを判定する。判定結果が肯定的であれば本タスクを終了し、否定的であればステップS117に戻る。   In step S119, the CPU 86 determines whether or not the stop key 84b has been pressed. If the determination result is affirmative, this task ends. If negative, the process returns to step S117.

ステップS121でCPU86は、ネットワークコントローラ64が取得したJPEGファイルから画像信号を抽出し、抽出された画像信号を画像バッファ82bに格納する。ステップS123では、変数numに{num+1}をセットする。ステップS125では、画像バッファ82bに格納したものと同じ画像信号をHD78aに保存する。   In step S121, the CPU 86 extracts an image signal from the JPEG file acquired by the network controller 64, and stores the extracted image signal in the image buffer 82b. In step S123, {num + 1} is set to the variable num. In step S125, the same image signal as that stored in the image buffer 82b is stored in the HD 78a.

ステップS127でCPU86は、再生リスト68(図5参照)のリスト番号list[num]に該当ファイルの識別子{(jpg_n).jpg}を登録する。ステップS129では、Stopキー84bが押下されたか否かを判定する。判定結果が肯定的であれば本タスクを終了し、否定的であればステップS131に進む。   In step S127, the CPU 86 assigns the identifier {(jpg_n) .n of the corresponding file to the list number list [num] of the reproduction list 68 (see FIG. 5). jpg} is registered. In step S129, it is determined whether or not the Stop key 84b has been pressed. If the determination result is affirmative, this task ends. If negative, the process proceeds to step S131.

図11を参照して、ステップS131でCPU86は、変数wav_nの値が“1”であるか否かを判定する。判定結果が肯定的であればステップS133に、否定的であればステップS135に進む。ステップS133では、初期WAVE要求を送信し、その後ステップS135に進む。初期WAVE要求には、1回目のWAVE要求であることを示すフラグが添付される。   Referring to FIG. 11, in step S131, CPU 86 determines whether or not the value of variable wav_n is “1”. If the determination result is affirmative, the process proceeds to step S133, and if negative, the process proceeds to step S135. In step S133, an initial WAVE request is transmitted, and then the process proceeds to step S135. A flag indicating that this is the first WAVE request is attached to the initial WAVE request.

ステップS135では、前回の要求送信から1秒経過したが否かを判定する。判定結果が肯定的であればステップS137に進み、否定的であれば待機する。   In step S135, it is determined whether one second has elapsed since the previous request transmission. If the determination result is affirmative, the process proceeds to step S137, and if negative, the process waits.

ステップS137では、変数wav_nに対応するWAVEファイルつまり{(wav_n).wav}を要求する。その後、ステップS139に進む。ステップS139では、変数wav_nに{(wav_n)+1}をセットする。ステップS141では、ネットワークコントローラ64によるファイル取得が完了したか否かを判定する。判定結果が否定的であればステップS143に、肯定的であればステップS145に進む。   In step S137, the WAVE file corresponding to the variable wav_n, that is, {(wav_n). request wav}. Thereafter, the process proceeds to step S139. In step S139, {(wav_n) +1} is set to the variable wav_n. In step S141, it is determined whether the file acquisition by the network controller 64 is completed. If the determination result is negative, the process proceeds to step S143. If the determination result is affirmative, the process proceeds to step S145.

ステップS143でCPU86は、Stopキー84bが押下されたか否かを判定する。判定結果が肯定的であれば本タスクを終了し、否定的であればステップS141に戻る。   In step S143, the CPU 86 determines whether or not the stop key 84b has been pressed. If the determination result is affirmative, this task ends. If negative, the process returns to step S141.

ステップS145でCPU86は、ネットワークコントローラ64が取得したWAVEファイルから音声データを抽出し、抽出された音声データを音声バッファ82aに格納する。ステップS147では、変数numに{num+1}をセットする。ステップS149では、音声バッファ82aに格納したものと同じ音声データをHD78aに保存する。   In step S145, the CPU 86 extracts audio data from the WAVE file acquired by the network controller 64, and stores the extracted audio data in the audio buffer 82a. In step S147, {num + 1} is set to the variable num. In step S149, the same audio data as that stored in the audio buffer 82a is stored in the HD 78a.

ステップS151でCPU86は、再生リスト68のリスト番号list[num]に該当ファイルの識別子{(wav_n).wav}を登録する。ステップS153では、音声バッファ82aの蓄積量が第3閾値(図3参照)を超えたか否かが判定される。判定結果が肯定的であればステップS113に戻り、否定的であればステップS155に進む。   In step S151, the CPU 86 assigns the identifier {(wav_n). register wav}. In step S153, it is determined whether or not the accumulated amount of the audio buffer 82a has exceeded a third threshold value (see FIG. 3). If the determination result is affirmative, the process returns to step S113, and if negative, the process proceeds to step S155.

ステップS155でCPU86は、Stopキー84bが押下されたか否かを判定する。判定結果が肯定的であれば本タスクを終了し、否定的であればステップS131に戻る。   In step S155, the CPU 86 determines whether or not the stop key 84b has been pressed. If the determination result is affirmative, this task ends. If the determination result is negative, the process returns to step S131.

次に、上記の再生タスクについて説明する。図12を参照して、ステップS181でCPU86は、再生ポインタlist[n]の変数nに1をセットする。再生ポインタlist[n]は、再生テーブル68(図5参照)中の複数のリスト番号68c(list[1],list[2],…)のいずれか1つを指す。   Next, the above reproduction task will be described. Referring to FIG. 12, in step S181, CPU 86 sets 1 to variable n of playback pointer list [n]. The reproduction pointer list [n] indicates one of a plurality of list numbers 68c (list [1], list [2],...) In the reproduction table 68 (see FIG. 5).

ステップS183でCPU86は、音声バッファ82aの蓄積量が第2閾値(図3参照)を超えているか否かを判定する。判定結果が肯定的であればステップS185に進み、否定的であれば待機する。   In step S183, the CPU 86 determines whether or not the accumulated amount of the audio buffer 82a exceeds the second threshold (see FIG. 3). If the determination result is affirmative, the process proceeds to step S185, and if negative, the process waits.

ステップS185では、再生ポインタlist[n]の指すリスト番号68cにJPEGファイルの識別子が登録されているか否かを判定する。判定結果が肯定的であればステップS187に、否定的であればステップS191に進む。   In step S185, it is determined whether the identifier of the JPEG file is registered in the list number 68c pointed to by the reproduction pointer list [n]. If the determination result is affirmative, the process proceeds to step S187, and if negative, the process proceeds to step S191.

ステップS187でCPU86は、登録識別子に該当するJPEGファイルを画像バッファ82bから読み出す。ステップS189では、変数nに(n+1)をセットする。その後、ステップS191に進む。   In step S187, the CPU 86 reads out the JPEG file corresponding to the registration identifier from the image buffer 82b. In step S189, (n + 1) is set to the variable n. Thereafter, the process proceeds to step S191.

ステップS191でCPU86は、再生ポインタlist[n]の指すリスト番号68cが空欄か否かを判定する。判定結果が肯定的であれば本タスクを終了し、否定的であればステップS193に進む。   In step S191, the CPU 86 determines whether or not the list number 68c pointed to by the reproduction pointer list [n] is blank. If the determination result is affirmative, this task ends. If the determination result is negative, the process proceeds to step S193.

ステップS193でCPU86は、再生ポインタlist[n]の指すリスト番号68cの登録識別子に該当するWAVEファイルを音声バッファ82aから読み出す。ステップS195では、変数nに(n+1)をセットする。ステップS197では、Stopキー84bが押下されたか否かを判定する。判定結果が肯定的であれば本タスクを終了し、否定的であればステップS199に進む。   In step S193, the CPU 86 reads from the audio buffer 82a the WAVE file corresponding to the registration identifier of the list number 68c pointed to by the reproduction pointer list [n]. In step S195, (n + 1) is set to the variable n. In step S197, it is determined whether or not the Stop key 84b has been pressed. If the determination result is affirmative, this task ends. If the determination result is negative, the process proceeds to step S199.

ステップS199では、音声再生が完了したか否かを判定する。判定結果が肯定的であればステップS201に進み、否定的であればステップS197に戻る。ステップS201では、再生ポインタlist[n]の指すリスト番号68cが空欄か否かを判定する。判定結果が肯定的であれば本タスクを終了し、否定的であればステップS185に戻る。   In step S199, it is determined whether audio reproduction has been completed. If the determination result is affirmative, the process proceeds to step S201, and if negative, the process returns to step S197. In step S201, it is determined whether or not the list number 68c pointed to by the playback pointer list [n] is blank. If the determination result is affirmative, this task ends. If the determination result is negative, the process returns to step S185.

上記フロー図による説明から明らかなように、基本動作として端末60は、ユーザによる再生指示すなわちPlayキー84a押下があると、最初JPEG要求を送信し、続いて1秒後にWAVE要求を送信する。以降、再生対象ファイルを取得し終えるまで、JPEG要求およびWAVE要求を1秒間隔で交互に送信し続ける。   As is apparent from the description with reference to the flowchart, as a basic operation, the terminal 60 first transmits a JPEG request when a user gives a reproduction instruction, that is, presses the Play key 84a, and then transmits a WAVE request after one second. Thereafter, the JPEG request and the WAVE request are continuously transmitted alternately at intervals of 1 second until the reproduction target file is obtained.

サーバ16は、JPEG要求を受信したときJPEGファイルを、WAVE要求を受信したときWAVEファイルを、ネットワーク58経由で端末60に送信する。送信されるJPEGファイルには、そのとき再生中の画像信号が格納される。送信されるWAVEファイルには、そのとき音声バッファ30aに蓄積されている全音声データが格納される。   The server 16 transmits the JPEG file to the terminal 60 via the network 58 when receiving the JPEG request and the WAVE file when receiving the WAVE request. The JPEG file to be transmitted stores the image signal being reproduced at that time. The transmitted WAVE file stores all the audio data stored in the audio buffer 30a at that time.

端末60は、JPEGファイルを受信すると、受信されたJPEGファイルから画像信号を取り出し、取り出された画像信号を画像バッファ82bに格納する。WAVEファイルを受信すると、受信されたWAVEファイルから音声データを取り出し、取り出された音声データを音声バッファ82aに格納する。   When receiving the JPEG file, the terminal 60 extracts an image signal from the received JPEG file and stores the extracted image signal in the image buffer 82b. When the WAVE file is received, the audio data is extracted from the received WAVE file, and the extracted audio data is stored in the audio buffer 82a.

音声バッファ82aの蓄積量が第2閾値に達すると、端末60は、画像バッファ82bおよび音声バッファ82aに格納されている画像信号および音声データを読み出して再生する処理を開始する。再生処理では、端末60は、画像信号の末尾に付されたタイムスタンプ(wave_time)に基づき、再生画像の出力タイミングを再生音声のそれに同期させる。   When the accumulation amount of the audio buffer 82a reaches the second threshold value, the terminal 60 starts a process of reading and reproducing the image signal and audio data stored in the image buffer 82b and the audio buffer 82a. In the playback process, the terminal 60 synchronizes the output timing of the playback image with that of the playback audio based on the time stamp (wave_time) added to the end of the image signal.

特徴的な動作として端末60は、上記のようなファイル取得処理および再生処理作を行う際、2回目以降のJPEG要求の送信タイミングにおいてもし音声バッファ82aの蓄積量が第3閾値(これを第2閾値の8割とする)に達していなければ、このJPEG要求をスキップする。従って、最初のJPEG要求が送信されてから音声バッファ82aの蓄積量が第3閾値に達するまでの期間は、複数のWAVE要求を立て続けに送信することとなる。   As a characteristic operation, when the terminal 60 performs the file acquisition process and the reproduction process as described above, the accumulation amount of the audio buffer 82a is set to the third threshold value (this is the second threshold value) at the transmission timing of the second and subsequent JPEG requests. If the threshold value is not reached (80%), this JPEG request is skipped. Therefore, during the period from when the first JPEG request is transmitted until the amount of accumulation in the audio buffer 82a reaches the third threshold, a plurality of WAVE requests are transmitted in succession.

再生指示直後におけるJPEG要求およびWAVE要求の送信タイミング,音声バッファ82aの蓄積状況,および音声の出力状況が、図13のタイミングチャートに示されている。第2閾値は、5秒分の音声信号に相当する量に設定されている。なお、具体的には、WAVE音声のレートが7867byte/secであれば、{7867×5}byteが第2閾値である。簡単のため、以下では、音声バッファ82aへの蓄積量を“5秒分”のように記述する。第3閾値は、4秒分(=5×0.8)となる。   The timing chart of FIG. 13 shows the transmission timing of the JPEG request and the WAVE request immediately after the reproduction instruction, the accumulation status of the audio buffer 82a, and the audio output status. The second threshold value is set to an amount corresponding to an audio signal for 5 seconds. Specifically, if the WAVE audio rate is 7867 bytes / sec, {7867 × 5} bytes is the second threshold. For the sake of simplicity, the accumulation amount in the audio buffer 82a is described as “5 seconds” below. The third threshold value is 4 seconds (= 5 × 0.8).

図13を参照して、端末60は、時間t=0のとき最初のJPEG要求を送信する。t=2のとき、1つ目のJPEGファイルの受信を完了し、これと同時に最初のWAVE要求を送信する。   Referring to FIG. 13, terminal 60 transmits the first JPEG request when time t = 0. When t = 2, the reception of the first JPEG file is completed, and at the same time, the first WAVE request is transmitted.

t=3では、1つ目のWAVEファイルの受信を完了する。1つ目のWAVEファイルには2秒分の音声信号が含まれており、従って、この時点での音声バッファ82aの蓄積量は2秒分となる。これは第3閾値すなわち4秒分に満たないので、2回目のJPEG要求はスキップされ、代わりに2回目のWAVE要求が送信される。   At t = 3, reception of the first WAVE file is completed. The first WAVE file includes an audio signal for 2 seconds. Therefore, the accumulated amount of the audio buffer 82a at this time is 2 seconds. Since this is less than the third threshold, that is, 4 seconds, the second JPEG request is skipped, and the second WAVE request is transmitted instead.

t=3.5では、2つ目のWAVEファイルの受信を完了する。2つ目のWAVEファイルには、1秒分の音声信号が含まれている。なお、この時点では、前回の要求送信から0.5秒しか経過していないため、まだ3回目のWAVE要求は送信されない。   At t = 3.5, the reception of the second WAVE file is completed. The second WAVE file includes an audio signal for one second. At this point, since only 0.5 seconds have elapsed since the previous request transmission, the third WAVE request is not yet transmitted.

t=4では、音声バッファ82aの蓄積量は3秒分であり、まだ第3閾値に満たない。よって、2回目のJPEG要求はスキップされ、代わりに3回目のWAVE要求が送信される。   At t = 4, the accumulated amount of the audio buffer 82a is 3 seconds, which is still less than the third threshold value. Therefore, the second JPEG request is skipped, and the third WAVE request is transmitted instead.

t=4.5では、3つ目のWAVEファイルの受信を完了する。3つ目のWAVEファイルには1秒分の音声信号が含まれており、この時点で音声バッファ82aの蓄積量は4秒分となる。すなわち、蓄積量が第3閾値に達したので、ここで2回目のJPEG要求が送信される。   At t = 4.5, the reception of the third WAVE file is completed. The third WAVE file includes an audio signal for 1 second, and the accumulated amount of the audio buffer 82a is 4 seconds at this point. That is, since the accumulated amount has reached the third threshold value, the second JPEG request is transmitted here.

t=6.5では、2つ目のJPEGファイルの受信を完了し、これと同時に4回目のWAVE要求を送信する。   At t = 6.5, the reception of the second JPEG file is completed, and at the same time, the fourth WAVE request is transmitted.

t=8では、4つ目のWAVEファイルの受信を完了する。4つ目のWAVEファイルには2.5秒分の音声信号が含まれており、この時点で音声バッファ82aの蓄積量は6.5秒分となる。しかし、蓄積量が5秒分を越えた時点で、音声バッファ82aから1つ目のWAVEファイルと対応する2秒分の音声信号が読み出される。その結果、蓄積量は3.5秒分となる。これは第3閾値を下回っており、従って3回目のJPEG要求はスキップされ、代わりに5回目のWAVE要求が送信される。   At t = 8, reception of the fourth WAVE file is completed. The fourth WAVE file includes an audio signal for 2.5 seconds, and the accumulated amount of the audio buffer 82a at this time is 6.5 seconds. However, when the accumulated amount exceeds 5 seconds, the audio signal for 2 seconds corresponding to the first WAVE file is read from the audio buffer 82a. As a result, the accumulation amount is 3.5 seconds. This is below the third threshold, so the third JPEG request is skipped and a fifth WAVE request is sent instead.

t=8.5では、5つ目のWAVEファイルの受信を完了する。5つ目のWAVEファイルには1.5秒分の音声信号が含まれており、この時点で音声バッファ82aの蓄積量は5秒分となる。しかし、音声バッファ82aから2つ目のWAVEファイルと対応する1秒分の音声信号が読み出されるので、直後、蓄積量は4となる。これは第3閾値に達しており、従って3回目のJPEG要求が送信される。   At t = 8.5, reception of the fifth WAVE file is completed. The fifth WAVE file includes an audio signal for 1.5 seconds, and the accumulated amount of the audio buffer 82a is 5 seconds at this point. However, since the audio signal for one second corresponding to the second WAVE file is read from the audio buffer 82a, the accumulation amount is 4 immediately after. This has reached the third threshold, so the third JPEG request is sent.

続くt=8.5〜12.5の期間では、上記t=4.5〜8.5の期間で行われたものと同様の処理が繰り返される。以降も、音声バッファ82aの蓄積量が第2閾値の近傍で推移している限り、同様の処理が繰り返される。   In the subsequent period of t = 8.5 to 12.5, the same processing as that performed in the period of t = 4.5 to 8.5 is repeated. Thereafter, the same processing is repeated as long as the accumulated amount of the audio buffer 82a changes in the vicinity of the second threshold value.

ただし、ネットワーク58の帯域幅が狭くなるなどの原因で、音声バッファ82aの蓄積量が持続的に第2閾値を大きく下回る状況が生じると、上記t=0〜4.5の期間で行われたものと同様の処理、すなわちJPEG要求をスキップしてWAVE要求を立て続けに送信する処理が行われる。これにより、音声バッファ82aの蓄積量が速やかに第2閾値近傍まで押し上げられ、その結果、再生音声の途切れは回避される。   However, when a situation occurs in which the accumulated amount of the audio buffer 82a is continuously lower than the second threshold due to a decrease in the bandwidth of the network 58, etc., it was performed in the period of t = 0 to 4.5. The same processing as that described above, that is, processing for transmitting WAVE requests in succession while skipping JPEG requests is performed. As a result, the accumulated amount of the audio buffer 82a is quickly pushed up to the vicinity of the second threshold value, and as a result, interruption of the reproduced audio is avoided.

以上の説明から明らかなように、この実施例では、端末CPU86は、ネットワークコントローラ64を通じ、ネットワーク58経由でサーバ16から画像信号および音声信号をそれぞれ周期的に取得する。取得された画像信号よび音声信号は、SDRAM82の画像バッファ82bおよび音声バッファ82aにそれぞれ蓄積される。CPU86は、音声バッファ82aの蓄積量が第3閾値に満たないとき、ネットワークコントローラ64による画像信号の取得周期を長くする。   As is apparent from the above description, in this embodiment, the terminal CPU 86 periodically acquires an image signal and an audio signal from the server 16 via the network 58 via the network controller 64. The acquired image signal and audio signal are accumulated in the image buffer 82b and the audio buffer 82a of the SDRAM 82, respectively. When the accumulated amount of the audio buffer 82a is less than the third threshold, the CPU 86 lengthens the image signal acquisition cycle by the network controller 64.

これにより、ネットワーク58の帯域幅が狭くなったとき端末60において再生音声の途切れが生じる可能性が低減される。この場合、画像の品質低下は生じるものの、音声が途切れたときよりもユーザの不快感は少ない。また、サーバ16は、ただ要求された信号を端末60に送信するだけなので、サーバ16の負担が増すこともない。   Thereby, when the bandwidth of the network 58 becomes narrow, the possibility that the playback audio is interrupted in the terminal 60 is reduced. In this case, although the quality of the image is reduced, the user's discomfort is less than when the sound is interrupted. Further, since the server 16 simply transmits the requested signal to the terminal 60, the burden on the server 16 does not increase.

より具体的には、端末60は、サーバ16からネットワーク58経由でJPEGファイルおよびWAVEファイルをそれぞれ周期的に取得することにより動画像および音声のリアルタイム再生を行う。その際、端末60がJPEGファイルの取得周期を制御することにより音声の途切れを回避する。この場合、音声の途切れを回避するための制御処理をクライアント側が行うので、サーバ16は特別な制御処理を行う必要がなく、サーバ16として単なるHTTPサーバを用いることができる。   More specifically, the terminal 60 performs real-time playback of moving images and sounds by periodically acquiring JPEG files and WAVE files from the server 16 via the network 58. At this time, the terminal 60 controls the JPEG file acquisition cycle, thereby avoiding audio interruption. In this case, since the client side performs control processing for avoiding voice interruption, the server 16 does not need to perform special control processing, and a simple HTTP server can be used as the server 16.

つまり、HTTPサーバおよびクライアントからなる一般的なシステムにおいて、HTTPサーバからクライアントへJPEGファイルおよびWAVEファイルを周期的に送信し、かつクライアント側がネットワークの帯域幅に応じてJPEG送信周期の制御を行うことにより、狭帯域時に生じる音声の途切れを回避しつつ動画像および音声のリアルタイム再生を行うことができる。   In other words, in a general system including an HTTP server and a client, a JPEG file and a WAVE file are periodically transmitted from the HTTP server to the client, and the client side controls the JPEG transmission cycle according to the network bandwidth. In addition, it is possible to perform real-time playback of moving images and audio while avoiding audio interruptions that occur in a narrow band.

この実施例の監視カメラシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the surveillance camera system of this Example. サーバSDRAMの構成例を示すメモリマップ図である。It is a memory map figure which shows the structural example of server SDRAM. 端末SDRAMの構成例を示すメモリマップ図である。It is a memory map figure which shows the structural example of terminal SDRAM. 音声バッファに対する書込処理および読出処理を説明するための図解図である。It is an illustration figure for demonstrating the writing process with respect to an audio | voice buffer, and a reading process. 再生リストを示す図解図である。It is an illustration figure which shows a play list. サーバCPUによる処理の一部を示すフロー図である。It is a flowchart which shows a part of process by server CPU. サーバCPUによる処理の他の一部を示すフロー図である。It is a flowchart which shows a part of other process by server CPU. サーバCPUによる処理のその他の一部を示すフロー図である。It is a flowchart which shows the other part of the process by server CPU. 端末CPUによる処理の一部を示すフロー図である。It is a flowchart which shows a part of process by terminal CPU. 端末CPUによる処理の他の一部を示すフロー図である。It is a flowchart which shows a part of other process by terminal CPU. 端末のCPUによる処理のその他の一部を示すフロー図である。It is a flowchart which shows the other part of the process by CPU of a terminal. 端末のCPUによる処理さらにその他の一部を示すフロー図である。It is a flowchart which shows a part further process by CPU of a terminal. 端末における要求の送信タイミング,音声バッファの蓄積状況,および音声の出力状況を示すタイミングチャート図である。FIG. 4 is a timing chart showing request transmission timing, audio buffer accumulation status, and audio output status at a terminal.

符号の説明Explanation of symbols

10…監視カメラシステム
12…カメラ
14,90…モニタ
16…サーバ
52…マイク
56,94…スピーカ
60…端末
DESCRIPTION OF SYMBOLS 10 ... Surveillance camera system 12 ... Camera 14, 90 ... Monitor 16 ... Server 52 ... Microphone 56, 94 ... Speaker 60 ... Terminal

Claims (3)

画像信号および音声信号をリアルタイムで取り込む取込装置と通信回線を通して接続される信号処理装置において、
画像転送要求を前記取込装置に向けて周期的に出力する画像要求手段、
音声転送要求を前記取込装置に向けて周期的に出力する音声要求手段、
前記画像転送要求に応答して前記取込装置から転送された画像信号および前記音声転送要求に応答して前記取込装置から転送された音声信号に所定の処理を施す処理手段、および
前記取込装置から転送されかつ未だ前記所定の処理を施されていない音声信号の信号量に基づいて前記画像転送要求の出力周期を制御する制御手段を備え、
前記処理手段は、
前記取込装置から転送された画像信号を再生する画像再生手段、
前記取込装置から転送された音声信号を再生する音声再生手段、
前記音声再生手段によって再生された音声信号を出力する音声出力手段、および
前記画像再生手段によって再生された画像信号を前記音声出力手段から出力される音声信号に同期させて出力する画像出力手段を含み、
前記制御手段は、前記信号量が、前記音声信号に基づく音声および前記画像信号に基づく画像のクオリティに基づいて設定された閾値に満たないとき前記出力周期を長くすることを特徴とする信号処理装置。
In a signal processing device connected through a communication line with a capture device that captures image signals and audio signals in real time,
Image request means for periodically outputting an image transfer request to the capture device;
A voice request means for periodically outputting a voice transfer request to the capture device;
Processing means for performing predetermined processing on an image signal transferred from the capture device in response to the image transfer request and an audio signal transferred from the capture device in response to the audio transfer request; and the capture e Bei control means for controlling an output period of the image transfer request on the basis of the signal of the audio signal is and not yet subjected to the predetermined process transfer from the device,
The processing means includes
Image reproduction means for reproducing the image signal transferred from the capture device;
Audio reproduction means for reproducing the audio signal transferred from the capture device;
Audio output means for outputting an audio signal reproduced by the audio reproduction means; and
Image output means for outputting the image signal reproduced by the image reproduction means in synchronization with the audio signal output from the audio output means,
The signal processing apparatus is characterized in that the control means lengthens the output cycle when the signal amount is less than a threshold set based on the quality of the sound based on the sound signal and the image based on the image signal. .
前記取込装置から転送された画像信号の識別子および前記取込装置から転送された音声信号の識別子を転送順に登録する登録手段、および
前記画像再生手段および前記音声再生手段を制御して、前記登録手段により登録された転送順に前記画像信号および前記音声信号を再生せしめる再生制御手段を備える、請求項1記載の信号処理装置。
Registration means for registering the identifier of the image signal transferred from the capture device and the identifier of the audio signal transferred from the capture device in the order of transfer; and
The signal processing apparatus according to claim 1, further comprising: a reproduction control unit that controls the image reproduction unit and the audio reproduction unit to reproduce the image signal and the audio signal in the order of transfer registered by the registration unit.
前記音声信号は任意の時間長を有し、
前記画像信号にはこの画像信号以前に出力される音声信号の累計時間長に基づく時刻情報が付加され、
前記画像出力手段は前記時刻情報に基づいて画像信号の出力タイミングを検出する、請求項1または請求項記載の信号処理装置。
The audio signal has an arbitrary time length,
Time information based on the cumulative time length of the audio signal output before this image signal is added to the image signal,
The image output means detects the output timing of the image signal based on the time information, the signal processing apparatus according to claim 1 or claim 2, wherein.
JP2003356128A 2003-10-16 2003-10-16 Signal processing device Expired - Fee Related JP4497885B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003356128A JP4497885B2 (en) 2003-10-16 2003-10-16 Signal processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003356128A JP4497885B2 (en) 2003-10-16 2003-10-16 Signal processing device

Publications (2)

Publication Number Publication Date
JP2005123854A JP2005123854A (en) 2005-05-12
JP4497885B2 true JP4497885B2 (en) 2010-07-07

Family

ID=34613474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003356128A Expired - Fee Related JP4497885B2 (en) 2003-10-16 2003-10-16 Signal processing device

Country Status (1)

Country Link
JP (1) JP4497885B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9255394B2 (en) 2009-06-05 2016-02-09 Stormtech Llc Corrugated stormwater chamber having sub-corrugations
KR101805212B1 (en) * 2009-08-14 2017-12-05 디티에스 엘엘씨 Object-oriented audio streaming system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09271002A (en) * 1996-03-29 1997-10-14 Mitsubishi Electric Corp Video data distribution system
JPH10112852A (en) * 1996-10-04 1998-04-28 Nippon Telegr & Teleph Corp <Ntt> Video data transmitting device and video data transmitting method
JPH10164533A (en) * 1996-11-26 1998-06-19 Canon Inc Image communication method and its device
WO1998038798A1 (en) * 1997-02-26 1998-09-03 Mitsubishi Denki Kabushiki Kaisha Device, system, and method for distributing video data
JPH11150711A (en) * 1997-11-17 1999-06-02 Nec Corp Video conference data transferring device
JP2000115249A (en) * 1998-10-09 2000-04-21 Fuji Xerox Co Ltd Data communication terminal and data communication method
JP2003289526A (en) * 2002-03-28 2003-10-10 Toshiba Corp Video receiving terminal unit and method for controlling reproduction
JP2004343701A (en) * 2003-04-21 2004-12-02 Matsushita Electric Ind Co Ltd Data receiving reproduction apparatus, data receiving reproduction method, and data receiving reproduction processing program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09271002A (en) * 1996-03-29 1997-10-14 Mitsubishi Electric Corp Video data distribution system
JPH10112852A (en) * 1996-10-04 1998-04-28 Nippon Telegr & Teleph Corp <Ntt> Video data transmitting device and video data transmitting method
JPH10164533A (en) * 1996-11-26 1998-06-19 Canon Inc Image communication method and its device
WO1998038798A1 (en) * 1997-02-26 1998-09-03 Mitsubishi Denki Kabushiki Kaisha Device, system, and method for distributing video data
JPH11150711A (en) * 1997-11-17 1999-06-02 Nec Corp Video conference data transferring device
JP2000115249A (en) * 1998-10-09 2000-04-21 Fuji Xerox Co Ltd Data communication terminal and data communication method
JP2003289526A (en) * 2002-03-28 2003-10-10 Toshiba Corp Video receiving terminal unit and method for controlling reproduction
JP2004343701A (en) * 2003-04-21 2004-12-02 Matsushita Electric Ind Co Ltd Data receiving reproduction apparatus, data receiving reproduction method, and data receiving reproduction processing program

Also Published As

Publication number Publication date
JP2005123854A (en) 2005-05-12

Similar Documents

Publication Publication Date Title
US8482624B2 (en) Image pickup device with still picture pickup function during moving picture pickup operation
US8015586B2 (en) Image display method, image display device, and image display program
US8134605B2 (en) Apparatus for transmitting an HTML file with a captured or stored image to an electronic device over a network
JP4515465B2 (en) Moving picture photographing apparatus and moving picture photographing method, moving picture reproducing apparatus and moving picture reproducing method for reproducing a video signal recorded on a recording medium
JP4978324B2 (en) Image recording apparatus, image recording system, and image reproducing method
JP2012054788A (en) Data file transfer device, control method therefor, program, and storage medium
JP3719398B2 (en) Data transmission method and apparatus and data transmission / reception system
JP4526294B2 (en) STREAM DATA TRANSMITTING DEVICE, RECEIVING DEVICE, RECORDING MEDIUM CONTAINING PROGRAM, AND SYSTEM
JP4497885B2 (en) Signal processing device
JP4165134B2 (en) Information reproducing apparatus, information reproducing method, and information reproducing system
JP2008060675A (en) Sound reproduction device and method
JP2009194767A (en) Device and method for video evaluation, and video providing device
JP4385987B2 (en) Video processing apparatus, video processing method, and computer program
JP2005051663A (en) Recording regenerating method of monitoring video signal and recording reproducing apparatus of device monitoring video signal
JP4213697B2 (en) Image reproduction apparatus and method for moving picture stream
KR20050104455A (en) A system for transporting moving picture stream having multi bit rates support in real time
JP4828354B2 (en) Multi-channel image transfer device
JP2002142191A (en) Image server and system thereof
JP2005176164A (en) Video accumulation and distribution apparatus and video distribution system
KR100931344B1 (en) Method for providing video streaming service and system, server and user terminal for same
JP4284884B2 (en) Voice monitoring apparatus and monitoring system using the same
JP2004297229A (en) Image processor, image processing method, image processing system using it, and program
JP2006180315A (en) Moving picture photographing device and moving picture reproducing device, and moving picture photographing method and moving picture reproducing method
WO2024057399A1 (en) Media playback control device, media playback control method, and media playback control program
JP5150995B2 (en) Image distribution system, user preference base control system and method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061010

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090818

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100316

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100413

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130423

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140423

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees