Nothing Special   »   [go: up one dir, main page]

JP2007312271A - Surveillance system - Google Patents

Surveillance system Download PDF

Info

Publication number
JP2007312271A
JP2007312271A JP2006141217A JP2006141217A JP2007312271A JP 2007312271 A JP2007312271 A JP 2007312271A JP 2006141217 A JP2006141217 A JP 2006141217A JP 2006141217 A JP2006141217 A JP 2006141217A JP 2007312271 A JP2007312271 A JP 2007312271A
Authority
JP
Japan
Prior art keywords
video
person
monitoring
area
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006141217A
Other languages
Japanese (ja)
Other versions
JP5088463B2 (en
Inventor
Hisao Furukawa
久雄 古川
Noboru Nakajima
昇 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2006141217A priority Critical patent/JP5088463B2/en
Publication of JP2007312271A publication Critical patent/JP2007312271A/en
Application granted granted Critical
Publication of JP5088463B2 publication Critical patent/JP5088463B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a surveillance system which is adaptive to a surveillant's state. <P>SOLUTION: The surveillance system comprises a screen image acquiring part for acquiring an objective screen image, a concerned person feature information storing part for storing concerned person feature information which is information created based on a concerned person's screen image which is previously photographed, a photographed person feature information extracting part which extracts a photographed person area indicating a person from the screen image acquired by the screen image acquiring part and extracts photographed person feature information from the photographed person area, a screen image analyzing part for creating surveillance information indicating whether or not an unconcerned person is included in the photographed person area based on the concerned person feature information and photographed person feature information, and an output part for outputting in accordance with the surveillance information. When the unconcerned person is included in the photographed area, the output part displays the objective screen image acquired by the screen image acquiring part more largely. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、カメラを用いて監視を行う監視システムに関する。   The present invention relates to a monitoring system that performs monitoring using a camera.

複数のカメラから入力された映像信号を同時に扱う映像監視システムが知られている。近年、ネットワークを介して映像が送信される映像監視システムや、配線を省略するために無線で映像が伝送される映像監視システムが販売されている。   Video monitoring systems that simultaneously handle video signals input from a plurality of cameras are known. In recent years, video surveillance systems in which video is transmitted via a network and video surveillance systems in which video is transmitted wirelessly in order to omit wiring have been sold.

特許文献1には、多数台の映像入力を用いた広域監視装置において、所定の数のカメラ毎に撮像される動物体を追跡しその同一性を判断して、情報の送信を限定することで通信量の削減を行う発明が開示されている。
特開平11−15981号公報
In Patent Document 1, in a wide-area monitoring apparatus using a large number of video inputs, a moving body imaged for each predetermined number of cameras is tracked, the identity thereof is determined, and transmission of information is limited. An invention for reducing the amount of communication is disclosed.
JP-A-11-15981

通常、監視端末を常時監視するのは監視者にとって苦痛である。更に、監視者の状態(定期的な巡回や休憩など)により、端末を常時注視することが妨げられる状況が発生し、監視領域(監視カメラにより撮影される領域)で発生する異常が見落とされる可能性が存在する。監視業務が複数の監視者により実施される場合においては、同様の理由により、監視画像を注視している担当者の人数が状況に応じて変動する。こうした変動は、安定した監視を行うためには好ましくない。   Usually, it is painful for the observer to constantly monitor the monitoring terminal. In addition, there may be situations where the watcher's condition (periodic patrols, breaks, etc.) prevents the terminal from being constantly watched, and anomalies that occur in the monitoring area (area taken by the monitoring camera) may be overlooked. Sex exists. When the monitoring work is performed by a plurality of monitoring personnel, the number of persons in charge who are watching the monitoring image varies depending on the situation for the same reason. Such fluctuations are undesirable for stable monitoring.

監視カメラは、監視領域において待機している関係者や巡回している監視者をも撮影する。これらは通常の監視業務上は冗長な映像である。監視者がこうした冗長な映像を長時間監視することは、本来の監視されるべき対象に対する注意力を低下させる。更に、こうした冗長な映像が限られた録画媒体に記録されることにより、長時間の映像録画が妨げられる。   The surveillance camera also captures the persons who are waiting in the surveillance area and the surveillance personnel who are traveling around. These are redundant images for normal monitoring operations. If the supervisor monitors such redundant video for a long time, the attention to the object to be monitored is reduced. Furthermore, such redundant video is recorded on a limited recording medium, thereby preventing long-time video recording.

多数のカメラ映像を切り替えながら監視業務が行われる場合、監視従事者の負担が大きい。多数の映像に同時に多数の人物が撮像されると、監視従事者が特定の監視対象を追跡することが困難である。   When monitoring work is performed while switching a large number of camera images, the burden on the monitoring worker is great. When a large number of persons are imaged simultaneously on a large number of videos, it is difficult for a monitoring worker to track a specific monitoring target.

本発明の目的は、監視者の状態に適応可能な監視システムを提供することである。
本発明の他の目的は、監視領域にいる関係者を除外して監視業務を行うことを可能にする監視システムを提供することである。
本発明の更に他の目的は、多数の監視カメラが設置されている場合に、映像選択作業や冗長な映像表示を低減する監視システムを提供することである。
本発明の更に他の目的は、対象毎に画像を限定して表示し、撮像される複数の対象を少数の監視者で効率的に監視できる監視システムを提供することである。
An object of the present invention is to provide a monitoring system that can be adapted to the condition of the observer.
Another object of the present invention is to provide a monitoring system that enables a monitoring operation to be performed by excluding the parties in the monitoring area.
Still another object of the present invention is to provide a surveillance system that reduces video selection work and redundant video display when a large number of surveillance cameras are installed.
Still another object of the present invention is to provide a monitoring system that displays an image limited for each target and can efficiently monitor a plurality of captured images with a small number of monitoring personnel.

以下に、[発明を実施するための最良の形態]で使用される番号を括弧付きで用いて、課題を解決するための手段を説明する。これらの番号は、[特許請求の範囲]の記載と[発明を実施するための最良の形態]との対応関係を明らかにするために付加されたものである。ただし、それらの番号を、[特許請求の範囲]に記載されている発明の技術的範囲の解釈に用いてはならない。   In the following, means for solving the problem will be described using the numbers used in [Best Mode for Carrying Out the Invention] in parentheses. These numbers are added to clarify the correspondence between the description of [Claims] and [Best Mode for Carrying Out the Invention]. However, these numbers should not be used to interpret the technical scope of the invention described in [Claims].

本発明による監視システムは、対象の映像を取得する映像取得部(1)と、予め撮影された関係者の映像に基づいて生成された情報である関係者特徴情報を記憶する関係者特徴情報記憶部(9)と、映像取得部により取得された映像から人物を示す被撮影者領域(35)を抽出し、被撮影者領域から被撮影者特徴情報を抽出する被撮影者特徴情報抽出部(21)と、関係者特徴情報と被撮影者特徴情報とに基づいて被撮影者領域に非関係者が含まれるか否かを示す監視情報を生成する映像解析部(22)と、監視情報に応じた出力を行う出力部(50)とを備える。   The monitoring system according to the present invention includes a video acquisition unit (1) that acquires a target video, and a party feature information storage that stores party feature information that is information generated based on a video of a party captured in advance. A person-to-be-photographed person area (35) indicating a person from the video acquired by the video acquisition unit (9), and a person-to-be-photographed person characteristic information extraction unit ( 21), a video analysis unit (22) for generating monitoring information indicating whether or not a non-related person is included in the photographed person area based on the participant characteristic information and the photographed person characteristic information, and the monitoring information And an output unit (50) for performing a corresponding output.

本発明による監視システムにおいて、出力部(50)は、被撮影者領域(35)に非関係者が含まれている場合に、映像取得部(1)が取得した対象の映像をより大きく表示する。   In the monitoring system according to the present invention, the output unit (50) displays a larger target video acquired by the video acquisition unit (1) when a non-related person is included in the subject area (35). .

本発明による監視システムは、映像取得部(1)によって取得される映像が表示されるモニタ(50)が設置される監視者領域(32)の映像を取得する第2映像取得部(5)と、監視者領域の映像から監視者領域特徴量を抽出し、監視者領域特徴量と関係者特徴情報とを照合することにより、監視者領域における関係者の状態を示す状態情報を生成する関係者状態情報生成部(63)とを備える。出力部(50)は、状態情報に応じて出力を変更する。   The monitoring system according to the present invention includes a second video acquisition unit (5) that acquires a video of a supervisor area (32) in which a monitor (50) on which a video acquired by the video acquisition unit (1) is displayed is installed. A participant who extracts a supervisor region feature from a video of the supervisor region and generates state information indicating the state of the participant in the supervisor region by collating the supervisor region feature with the participant feature information. A state information generation unit (63). The output unit (50) changes the output according to the state information.

本発明による監視システムは、更に、状態情報の履歴を記録する記録部(10)を備える。   The monitoring system according to the present invention further includes a recording unit (10) for recording a history of state information.

本発明による監視システムは、映像取得部(1)により取得された第1映像に含まれる第1領域から抽出された第1被撮影者特徴情報と第2映像に含まれる第2領域から抽出された第2被撮影者特徴情報とを所定の基準に基づいて照合して一致したとき第1領域と第2領域を関連づける同一対象決定部(22)と、第1映像と第2映像に対して映像評価値をそれぞれ生成し、映像評価値の大小関係を評価する映像評価値決定部(23)とを備える。出力部(50)は、大小関係に応じた出力を行う。   The surveillance system according to the present invention is extracted from the first subject feature information extracted from the first area included in the first video acquired by the video acquisition unit (1) and the second area included in the second video. The same subject determination unit (22) for associating the first area with the second area when the second subject characteristic information is matched based on a predetermined criterion and matched, and the first image and the second image A video evaluation value determining unit (23) that generates video evaluation values and evaluates the magnitude relationship of the video evaluation values. The output unit (50) performs output according to the magnitude relationship.

本発明による監視サーバは、対象の映像を取得する映像取得部(1)と、予め撮影された関係者の映像に基づいて生成された情報である関係者特徴情報を記憶する関係者特徴情報記憶部(9)と、映像取得部(1)により取得された映像から人物を示す被撮影者領域(35)を抽出し、被撮影者領域から被撮影者特徴情報を抽出する被撮影者特徴情報抽出部(21)と、関係者特徴情報と被撮影者特徴情報とに基づいて被撮影者領域に非関係者が含まれるか否かを示す監視情報を生成する映像解析部(22)と、監視情報に応じた出力を行う出力部(50)とを備える。   A monitoring server according to the present invention includes a video acquisition unit (1) that acquires a target video, and a party feature information storage that stores party feature information that is information generated based on a video of a party captured in advance. A person-to-be-photographed person area (35) indicating a person from the video acquired by the part (9) and the video acquisition part (1), and the person-to-be-photographed person characteristic information for extracting the person-to-be-photographed person characteristic information An extraction unit (21), a video analysis unit (22) that generates monitoring information indicating whether or not a non-related person is included in the photographed person area based on the participant characteristic information and the photographed person characteristic information; And an output unit (50) that performs output in accordance with the monitoring information.

本発明によれば、監視者の状態に適応可能な監視システムが提供される。
更に本発明によれば、監視領域にいる関係者を除外して監視業務を行うことを可能にする監視システムが提供される。
更に本発明によれば、多数の監視カメラが設置されている場合に、映像選択作業や冗長な映像表示を低減する監視システムが提供される。
更に本発明によれば、対象毎に画像を限定して表示し、撮像される複数の対象を少数の監視者で効率的に監視できる監視システムが提供される。
ADVANTAGE OF THE INVENTION According to this invention, the monitoring system which can be adapted to the condition of the observer is provided.
Furthermore, according to the present invention, there is provided a monitoring system that makes it possible to perform monitoring work by excluding persons concerned in the monitoring area.
Furthermore, according to the present invention, there is provided a monitoring system that reduces video selection work and redundant video display when a large number of surveillance cameras are installed.
Furthermore, according to the present invention, there is provided a monitoring system capable of displaying an image limited for each object and efficiently monitoring a plurality of objects to be imaged by a small number of observers.

[実施の第1形態]
以下、図面を参照しながら本発明を実施するための最良の形態について説明する。図1は、実施の第1形態における監視システムが適用される施設を示す。監視システムは、監視者(監視従事者)が監視領域31を監視するために使用される。監視領域31は、屋内、屋外またはその両方を含む。
[First Embodiment]
The best mode for carrying out the present invention will be described below with reference to the drawings. FIG. 1 shows a facility to which the monitoring system according to the first embodiment is applied. The monitoring system is used for a monitoring person (monitoring person) to monitor the monitoring area 31. The monitoring area 31 includes indoors, outdoors, or both.

監視領域31を監視するために、少なくとも1台のカメラ101a〜101dが用いられる。一のカメラによって撮影される領域と他のカメラによって撮影される領域とは重なっていてもよい。各カメラで撮影される映像は静止画像または動画像である。以下の説明では、カメラ101a〜101dはカラーの動画像を撮影する。   In order to monitor the monitoring area 31, at least one camera 101a to 101d is used. An area photographed by one camera and an area photographed by another camera may overlap. The video imaged by each camera is a still image or a moving image. In the following description, the cameras 101a to 101d capture color moving images.

監視領域を監視する監視者は、監視室32に位置する。監視室32は、監視対象である施設の一部、またはその施設から離れた場所に位置する。監視室32の内部には、表示端末50が設置される。表示端末50は、カメラ101a〜101dによって撮影された監視領域の映像を表示する。監視室32には、カメラ105が設置される。カメラ105は、表示端末50に表示される映像を監視する監視者の位置を含む監視室32の内部の領域を撮影する。   A monitor who monitors the monitoring area is located in the monitoring room 32. The monitoring room 32 is located at a part of the facility to be monitored or at a location away from the facility. A display terminal 50 is installed inside the monitoring room 32. The display terminal 50 displays an image of the monitoring area captured by the cameras 101a to 101d. A camera 105 is installed in the monitoring room 32. The camera 105 captures an area inside the monitoring room 32 including the position of the supervisor who monitors the video displayed on the display terminal 50.

図2は、実施の第1形態における監視システムの構成を示す。監視システムは、映像撮影手段1、映像解析手段2、映像選択表示手段3、監視室映像撮影手段5、監視者状況把握手段6、システム動作条件決定手段7、警告手段8及び監視者特徴情報記録手段9を備える。   FIG. 2 shows the configuration of the monitoring system in the first embodiment. The monitoring system includes a video photographing means 1, a video analyzing means 2, a video selection display means 3, a monitoring room video photographing means 5, a supervisor status grasping means 6, a system operating condition determining means 7, a warning means 8, and a supervisor characteristic information recording. Means 9 are provided.

監視者特徴情報記録手段9は、予め撮影された監視者(関係者)の映像に基づいて作成された監視者特徴情報を記憶する。映像撮影手段1はカメラ101a〜101dを含み、カメラ101a〜101dによって撮影された監視領域31の画像を含む監視領域画像情報を映像解析手段2に送信する。映像解析手段2は、受信した監視領域画像情報を解析し、監視領域に撮影された監視対象(典型的には人)の対象領域を抽出して、その対象領域の特徴を、予め監視者特徴情報記録手段9に記録された監視者特徴情報と比較することによって、対象が関係者であるかどうかを判定した判定結果を生成し、映像選択表示手段3に送信する。映像選択表示手段3は受信した判定結果に基づいて映像選択情報を生成し、その映像選択情報に基づいた表示画面を生成して表示端末50に表示する。映像選択表示手段3は更に、受信した解析結果に依存して警告手段8を制御し、監視者に対する警告を発生する。   The supervisor feature information recording unit 9 stores supervisor feature information created on the basis of the video of the supervisor (related person) taken in advance. The video photographing means 1 includes cameras 101a to 101d, and transmits monitoring area image information including images of the monitoring area 31 photographed by the cameras 101a to 101d to the video analysis means 2. The video analysis means 2 analyzes the received monitoring area image information, extracts the target area of the monitoring target (typically a person) photographed in the monitoring area, and previously sets the characteristics of the target area as the supervisor characteristics. By comparing with the supervisor characteristic information recorded in the information recording unit 9, a determination result for determining whether the target is a related person is generated and transmitted to the video selection display unit 3. The video selection display unit 3 generates video selection information based on the received determination result, generates a display screen based on the video selection information, and displays it on the display terminal 50. The video selection display unit 3 further controls the warning unit 8 depending on the received analysis result, and generates a warning for the supervisor.

監視室映像撮影手段5はカメラ105を含み、カメラ105によって撮影された監視室32の画像を含む監視室画像情報を監視者状況把握手段6に送信する。監視者状況把握手段6は、受信した監視室画像情報と、予め特徴情報記憶手段9の記憶媒体に記録された監視者特徴情報とに基づいて、監視者ごとの状態(表示端末50の近くにいるか否か、監視室の中にいるか否か)を示す監視者状況情報を生成し、システム動作条件決定手段7に送信する。システム動作条件決定手段7は、受信した監視者状況情報に基づいてシステム動作条件情報を生成して映像選択表示手段3に送信する。映像選択表示手段3は受信したシステム動作条件情報に基づいて映像選択情報を生成し、その映像選択情報に基づいた表示画面を生成して表示端末50に表示する。映像選択表示手段3は更に、受信したシステム動作条件情報に依存して警告手段8を制御し、監視者に対する警告を発生する。   The monitoring room video photographing means 5 includes a camera 105, and transmits monitoring room image information including an image of the monitoring room 32 photographed by the camera 105 to the supervisor situation grasping means 6. Based on the received monitoring room image information and the supervisor feature information recorded in advance in the storage medium of the feature information storage means 9, the supervisor situation grasping means 6 is in a state for each supervisor (near the display terminal 50. Whether or not the user is in the monitoring room) is generated and transmitted to the system operating condition determining means 7. The system operation condition determination unit 7 generates system operation condition information based on the received supervisor status information and transmits it to the video selection display unit 3. The video selection display means 3 generates video selection information based on the received system operating condition information, generates a display screen based on the video selection information, and displays it on the display terminal 50. The video selection display means 3 further controls the warning means 8 depending on the received system operating condition information, and generates a warning for the supervisor.

こうした監視システムは、コンピュータを用いて実現される。例えば、監視者特徴情報記録手段9はハードディスクに例示されるコンピュータにより読み取り可能な記憶媒体を用いて実現される。映像解析手段2、映像選択表示手段3、監視者状況把握手段6及びシステム動作条件決定手段7は、記憶媒体に格納されコンピュータにより読み取られることによりコンピュータに定まった手順を実行させるプログラムによってそれぞれ実現することが可能である。映像撮影手段1、監視室映像撮影手段5及び警告手段8はインターフェースを介してコンピュータと情報の授受を行う。   Such a monitoring system is realized using a computer. For example, the supervisor characteristic information recording unit 9 is realized using a computer-readable storage medium exemplified by a hard disk. The video analysis means 2, the video selection display means 3, the supervisor status grasping means 6 and the system operating condition determination means 7 are each realized by a program that causes a computer to execute a predetermined procedure by being stored in a storage medium and read by the computer. It is possible. The video photographing means 1, the monitoring room video photographing means 5 and the warning means 8 exchange information with a computer via an interface.

図3は、監視システムの動作を示すフローチャートである。映像撮影手段1は、監視領域31を撮影した撮影画像を映像解析手段2に送信する。映像解析手段2は、受信した撮影画像に対して画像認識を行って監視対象が映っている対象領域を抽出する。映像解析手段2は更に、各対象領域から所定の方法によって特徴情報を抽出する(ステップA1)。   FIG. 3 is a flowchart showing the operation of the monitoring system. The video photographing means 1 transmits a photographed image obtained by photographing the monitoring area 31 to the video analyzing means 2. The video analysis means 2 performs image recognition on the received captured image and extracts a target area where the monitoring target is shown. The video analysis means 2 further extracts feature information from each target area by a predetermined method (step A1).

図5は、撮影画像33と、その中にある監視対象34とを示す。映像解析手段2は、撮影画像33の中で例えば撮影された人間の形態を示す領域である監視対象34を識別し、その領域を図6に示されるような対象領域35として抽出し、対象領域35から特徴情報を抽出する。   FIG. 5 shows the captured image 33 and the monitoring target 34 in the captured image 33. The video analysis means 2 identifies, for example, a monitoring target 34 that is a region indicating a captured human form in the captured image 33, extracts the region as a target region 35 as shown in FIG. Feature information is extracted from 35.

対象領域35は、背景差分法及び領域分割法に例示される慣用的な方法により抽出される。1つの映像からは、0、1または複数の対象領域35が抽出される。各々の対象領域35の情報には、その対象領域35を含んでいる映像を識別するための識別子と、その映像が撮影された時刻の情報が付加される。   The target region 35 is extracted by a conventional method exemplified by the background difference method and the region division method. From one video, 0, 1 or a plurality of target areas 35 are extracted. Information on each target area 35 is added with an identifier for identifying a video including the target area 35 and information on the time when the video was shot.

映像解析手段2は、抽出された特徴情報を監視者特徴情報記録手段9に記録された監視者特徴情報と比較することにより、撮影画像33に含まれる各監視対象34が予め登録された監視者(関係者)であるかどうかを判定する監視者特徴比較処理を行う(ステップA2)。   The video analysis means 2 compares the extracted feature information with the supervisor feature information recorded in the supervisor feature information recording means 9, so that each supervisor 34 included in the photographed image 33 is registered in advance. A supervisor feature comparison process for determining whether or not the person is (related party) is performed (step A2).

映像選択表示手段3は、監視者特徴比較処理によって得られた、撮影画像33中の各監視対象34が監視者(関係者)であるかどうかを示す判定結果をもとに、撮影画像34を選択しユーザに表示する映像選択表示処理を行う(ステップA3)。   The video selection display unit 3 displays the captured image 34 based on the determination result obtained by the supervisor feature comparison process and indicating whether each monitoring target 34 in the captured image 33 is a supervisor (related party). A video selection display process for selecting and displaying to the user is performed (step A3).

映像選択表示手段3は、次のような方法を用いて撮影画像34を選択する。例えば、関係者以外の人はいないと想定される監視領域31の撮影画像33に関係者以外の人が映っている場合、その撮影画像が注意すべき画像として大きく映される、あるいは警告表示とともに映される。図7は、表示端末50の表示画面40を示す。カメラ画像表示領域41にカメラ101a〜101dによって撮影された撮影画像34が小さく表示される。拡大画像表示領域42に注意すべき画像が大きく表示される。メッセージ表示領域43に警告メッセージが表示される。   The video selection display means 3 selects the captured image 34 using the following method. For example, when a person other than the related person is shown in the captured image 33 in the monitoring area 31 where it is assumed that there is no person other than the related person, the captured image is displayed as a large image to be noted or with a warning display. It is reflected. FIG. 7 shows the display screen 40 of the display terminal 50. The captured image 34 captured by the cameras 101a to 101d is displayed in a small size in the camera image display area 41. A large image to be noted is displayed in the enlarged image display area 42. A warning message is displayed in the message display area 43.

上記ステップA1〜A3までのサイクルは、決まった周期で継続的に繰返される。このサイクルと並行して、図4に示される処理が実行される。   The cycle from step A1 to step A3 is continuously repeated at a fixed period. In parallel with this cycle, the process shown in FIG. 4 is executed.

監視室映像撮影手段5は、監視室32を撮影した監視室映像を監視者状況把握手段6に送信する。監視者状況把握手段6は、受信した監視室映像に対して画像認識を行って対象(典型的には人)が映っている対象領域を抽出する。監視者状況把握手段6は更に、各対象領域から所定の方法によって特徴情報を抽出する(ステップB1)。   The monitoring room image photographing unit 5 transmits the monitoring room image obtained by photographing the monitoring room 32 to the supervisor situation grasping unit 6. The supervisor situation grasping means 6 performs image recognition on the received monitoring room video and extracts a target area where a target (typically a person) is shown. The supervisor situation grasping means 6 further extracts feature information from each target area by a predetermined method (step B1).

監視者状況把握手段6は、抽出された特徴情報を監視者特徴情報記録手段9に記録された監視者特徴情報と比較することにより、監視室映像に含まれる各対象が予め登録された監視者(関係者)であるかどうかを判定する監視者特徴比較処理を行う(ステップB2)。   The supervisor situation grasping means 6 compares the extracted feature information with the supervisor feature information recorded in the supervisor feature information recording means 9, so that each subject included in the monitoring room video is registered in advance. A supervisor feature comparison process for determining whether or not the person is (related party) is performed (step B2).

システム動作条件決定手段7は、監視者特徴比較処理の結果得られた、監視室映像の各対象が監視者(関係者)であるかどうかを示す判定結果をもとに、監視者の状態を認識する。監視者の状態は、画像認識により、監視室32の表示端末50の前に座っている、監視室32の内部にいるが表示端末50から離れている、休憩室にいる、または監視室32の中にいない、などを判定し、その判定の結果と所定の基準とに基づいて、「監視業務中」、「監視業務外かつ監視室内」、「休憩中」、「離席中」の4値のいずれかに分類され記録される。システム動作条件決定手段7は、認識された監視者の状態に基づいて、映像選択表示手段3の動作条件を変更するシステム動作条件決定処理を行う。   The system operation condition determination means 7 determines the state of the supervisor based on the determination result obtained as a result of the supervisor feature comparison process and indicating whether each object of the monitoring room video is a supervisor (related party). recognize. The state of the monitor is determined by image recognition, sitting in front of the display terminal 50 in the monitor room 32, being in the monitor room 32 but away from the display terminal 50, in the break room, or in the monitor room 32. Based on the result of the determination and a predetermined standard, the four values of “in monitoring work”, “outside monitoring work and in the monitoring room”, “resting”, “away from seat” It is classified and recorded as either. The system operation condition determination unit 7 performs a system operation condition determination process for changing the operation condition of the video selection display unit 3 based on the recognized state of the supervisor.

判定される状態の確度を高めるため、監視者が監視室または休憩室で検出されていない時間が所定の期間よりも長い場合にのみ、当該監視者の状態が巡回中であると判定してもよい。また、監視者領域が限定された空間である場合には、映像内の出入り口近くで監視者が抽出された後、監視者が抽出されなくなった場合にのみ、当該監視者の状態が巡回中であると判定してもよい。   In order to improve the accuracy of the state to be determined, even if it is determined that the state of the monitor is in circulation only when the time when the monitor is not detected in the monitoring room or break room is longer than the predetermined period Good. In addition, when the supervisor area is limited, the status of the supervisor is in circulation only when the supervisor is not extracted after the supervisor is extracted near the entrance / exit in the video. You may determine that there is.

動作条件の変更は、次のように行われる。映像解析手段2により監視領域31の監視映像に関係者以外の人が映っており、かつ監視者状況把握手段6により監視者が表示端末50の前にいると認識されたときは、表示端末50のディスプレイに注意を促す表示がなされる。映像解析手段2により監視領域31の監視映像に関係者以外の人が映っており、かつ監視者状況把握手段6により監視者が表示端末50の前にいないが監視室32の中にいると認識されたときは、表示端末50が監視者に音声により警告を発する。さらに、休憩中の監視者に無線により警告が知らせられる。   The operating condition is changed as follows. When the video analysis means 2 shows that a person other than the related person is shown in the monitoring video in the monitoring area 31 and the supervisor status grasping means 6 recognizes that the monitor is in front of the display terminal 50, the display terminal 50 Is displayed on the display. The video analysis means 2 recognizes a person other than the related person in the monitoring video of the monitoring area 31 and the supervisor status grasping means 6 recognizes that the supervisor is not in front of the display terminal 50 but is in the monitoring room 32. When this is done, the display terminal 50 issues a warning to the supervisor by voice. Further, a warning is notified to the supervisor who is taking a break by radio.

監視室32において複数の監視者の状態が同時に監視業務中であり、それぞれ別々の監視端末を注視している状況であると判定された場合に、複数の監視対象が監視領域31において検出されたときは、監視システムは、それぞれの監視対象の代表映像を、各監視端末に別々に表示する。   A plurality of monitoring targets are detected in the monitoring area 31 when it is determined that the status of a plurality of supervisors is simultaneously being monitored in the monitoring room 32 and each of them is watching a different monitoring terminal. In some cases, the monitoring system displays the representative video of each monitoring target separately on each monitoring terminal.

本実施の形態による監視システムによれば、監視領域31の監視映像内の監視対象を事前に記録された関係者の特徴と比較することにより、関係者を自動的に除外して監視業務が行われるため、関係者以外の人が撮影されている状況に敏感な監視業務が実現される。   According to the monitoring system according to the present embodiment, the monitoring target in the monitoring video of the monitoring area 31 is compared with the characteristics of the related parties recorded in advance, so that the monitoring work is performed by automatically excluding the related parties. Therefore, monitoring work sensitive to the situation where people other than those involved are photographed is realized.

更に本実施の形態による監視システムによれば、監視室32を撮影した映像から監視者の状況が把握され、その状況に応じて監視システムの動作が自動的に変更され、異常時には監視者の状況に応じて警告がされるように構成されている。そのため、監視者側の状況変化に対して設定を手動で変更することなく、異常の見落としを抑制する効率的な監視業務が実現される。   Furthermore, according to the monitoring system according to the present embodiment, the situation of the supervisor is grasped from the video taken of the surveillance room 32, and the operation of the surveillance system is automatically changed according to the situation, and the situation of the supervisor in the event of an abnormality. It is configured to be warned in response to Therefore, an efficient monitoring operation that suppresses oversight of an abnormality is realized without manually changing the setting in response to a change in the situation on the side of the supervisor.

本実施の形態における監視システムは、図1に示される施設に代えて、図9に示される施設に対しても好適に適用可能である。ローカル側の監視領域31を監視するために、少なくとも1台のカメラ101a〜101dが用いられる。監視領域31を監視する監視者は、監視室32に位置する。監視室32の内部には、表示端末50が設置される。表示端末50は、カメラ101a〜101dによって撮影された監視領域の映像を表示する。監視室32には、カメラ105が設置される。カメラ105は、表示端末50に表示される映像を監視する監視者の位置を含む監視室32の内部の領域を撮影する。カメラ101a〜101d及び105で撮影された映像は、図1の施設の場合と同じ処理を施される。   The monitoring system in the present embodiment can be suitably applied to the facility shown in FIG. 9 instead of the facility shown in FIG. In order to monitor the monitoring area 31 on the local side, at least one camera 101a to 101d is used. A supervisor who monitors the monitoring area 31 is located in the monitoring room 32. A display terminal 50 is installed inside the monitoring room 32. The display terminal 50 displays an image of the monitoring area captured by the cameras 101a to 101d. A camera 105 is installed in the monitoring room 32. The camera 105 captures an area inside the monitoring room 32 including the position of the supervisor who monitors the video displayed on the display terminal 50. Images taken by the cameras 101a to 101d and 105 are subjected to the same processing as in the case of the facility of FIG.

監視領域31から離れたリモート側に、遠隔監視センター52が設置される。遠隔監視センター52には、表示端末54が設置され、表示端末54の画面を注視する監視者が配置される。カメラ101a〜101dの映像と表示端末50に表示される映像とは、インターネットに例示される情報通信回線網であるネットワーク網56を介して遠隔監視センター52に送信され、表示端末54の表示画面に表示される。   A remote monitoring center 52 is installed on the remote side away from the monitoring area 31. A display terminal 54 is installed in the remote monitoring center 52, and a monitor who watches the screen of the display terminal 54 is arranged. The images of the cameras 101a to 101d and the image displayed on the display terminal 50 are transmitted to the remote monitoring center 52 via the network 56 which is an information communication line network exemplified by the Internet, and displayed on the display screen of the display terminal 54. Is displayed.

監視室32にいる監視者の状態が休憩中である場合に、監視システムによって表示端末50から警告が発せられる場合、監視システムは警告信号を遠隔監視センター52の表示端末54を制御するサーバに送信する。サーバが警告信号を受信すると、表示54は、端末遠隔監視センター52の監視員に対して警告を発する。   When a warning is issued from the display terminal 50 by the monitoring system when the state of the monitor in the monitoring room 32 is resting, the monitoring system transmits a warning signal to the server that controls the display terminal 54 of the remote monitoring center 52. To do. When the server receives the warning signal, the display 54 issues a warning to the monitor at the terminal remote monitoring center 52.

複数の監視対象が映像中に含まれる場合、ある対象を監視室32の表示端末50に表示し、他の対象を遠隔監視センター52の表示端末54に表示するようにしてもよい。   When a plurality of monitoring targets are included in the video, a certain target may be displayed on the display terminal 50 of the monitoring room 32 and another target may be displayed on the display terminal 54 of the remote monitoring center 52.

システム動作条件決定手段7は、監視室において監視者の状態が監視業務中である場合には、当該監視者付近の表示端末50に映像を表示する。システム動作条件決定手段7は、監視室において監視者の状態が監視業務中であり、さらに複数の監視対象が監視領域において検出された場合には、ある対象の代表映像を監視室の監視者に対し表示すると共に、遠隔監視センター52にいる監視者の表示端末54に別の対象の代表映像を送信する。   The system operating condition determination means 7 displays an image on the display terminal 50 near the supervisor when the supervisor is in the monitoring room. The system operating condition determination means 7 is configured to display a representative video of a certain target to the monitoring room supervisor when the state of the monitoring person is being monitored in the monitoring room and a plurality of monitoring objects are detected in the monitoring area. At the same time, a representative image of another object is transmitted to the display terminal 54 of the supervisor in the remote monitoring center 52.

全ての監視者が監視室におらず、休憩中ないし巡回中の場合には、遠隔監視モードが設定される。この場合、監視システムは、遠隔監視センター52にいる監視者の表示端末54に監視領域31の映像を送信する。監視領域31の映像は表示端末54に表示され、遠隔監視センター52の監視者により監視される。   When all the monitoring personnel are not in the monitoring room and are resting or traveling, the remote monitoring mode is set. In this case, the monitoring system transmits the image of the monitoring area 31 to the display terminal 54 of the monitor in the remote monitoring center 52. The video of the monitoring area 31 is displayed on the display terminal 54 and is monitored by a monitor of the remote monitoring center 52.

遠隔監視モードにおいて、監視システムが監視領域31に侵入者がいることを認識した場合、あるいはあらかじめ設定された進入禁止領域への侵入を認識した場合、表示端末50により音声で監視者に警告を発する。監視システムは更に、遠隔監視センター52のサーバに異常を知らせる異常信号を送信する。遠隔監視センター52のサーバは異常信号を受信すると表示端末54から映像と音声により遠隔監視センター52の監視者に警告を発する。その警告を認識した監視者は、ローカル側の監視者に連絡を取って状況を確認する。   In the remote monitoring mode, when the monitoring system recognizes that there is an intruder in the monitoring area 31, or recognizes the intrusion into the preset entry prohibition area, the display terminal 50 issues a warning to the monitoring person by voice. . The monitoring system further transmits an abnormality signal that notifies the server of the remote monitoring center 52 of the abnormality. When the server of the remote monitoring center 52 receives the abnormal signal, it issues a warning to the monitor of the remote monitoring center 52 from the display terminal 54 by video and audio. The supervisor who recognizes the warning contacts the local supervisor and confirms the situation.

こうした監視システムによれば、現地の監視室32にいる監視者の状態に応じて支援が必要な場合に限定して監視映像が遠隔監視センター52に送信される。そしてローカル側の監視者とリモート側の監視者が連携して監視を行うことにより、少ない監視者で見落としの少ない効果的な監視業務を行うことができる。監視映像は必要なときにだけ送信されるため、ネットワーク帯域が効率的に用いられる。   According to such a monitoring system, the monitoring video is transmitted to the remote monitoring center 52 only when assistance is required according to the state of the monitoring person in the local monitoring room 32. By monitoring the local side monitor and the remote side monitor in cooperation, it is possible to perform an effective monitoring operation with few oversights by a small number of supervisors. Since the monitoring video is transmitted only when necessary, the network bandwidth is used efficiently.

一つのリモート側の遠隔監視センター52に対して、ネットワーク網56を介して、図9に示された構成を有する複数のローカル側の監視システムを接続することができる。こうした構成によれば、複数の監視領域31の各々を監視するローカル側の監視者の業務を遠隔監視センター52で支援できる。そのため、すべての監視者をローカル側の現場に配置する場合に比べてより効率的かつ柔軟な監視業務が実現される。   A plurality of local monitoring systems having the configuration shown in FIG. 9 can be connected to one remote monitoring center 52 via the network 56. According to such a configuration, the remote monitoring center 52 can support the work of a local supervisor who monitors each of the plurality of monitoring areas 31. Therefore, more efficient and flexible monitoring work is realized as compared with the case where all the supervisors are arranged on the local site.

[実施の第2形態]
実施の第2形態における監視システムは、実施の第1形態と同様に図1に示される構成の施設に適用される。図10は、実施の第2形態における監視システムの構成を示す。監視システムは、映像撮影手段1、映像解析手段2、映像選択表示手段3、監視室映像撮影手段5、監視者状況把握手段6、システム動作条件決定手段7、警告手段8、監視者特徴情報記録手段9及び映像選択条件記録手段10を備える。こうした監視システムは、実施の第1形態と同様にコンピュータを用いて実現することができる。この監視システムにおいて、図1と同じ番号を付与された対象は、実施の第1形態と同様の機能を備える。
[Second Embodiment]
The monitoring system in the second embodiment is applied to the facility having the configuration shown in FIG. 1 as in the first embodiment. FIG. 10 shows the configuration of the monitoring system in the second embodiment. The monitoring system includes a video photographing means 1, a video analyzing means 2, a video selection display means 3, a monitoring room video photographing means 5, a supervisor status grasping means 6, a system operating condition determining means 7, a warning means 8, a supervisor characteristic information recording. Means 9 and video selection condition recording means 10 are provided. Such a monitoring system can be realized using a computer as in the first embodiment. In this monitoring system, the target given the same number as in FIG. 1 has the same function as in the first embodiment.

映像解析手段2は、対象領域抽出手段21、同一対象決定手段22及び映像評価値決定手段23を含む。監視者状況把握手段6は、監視者領域抽出手段61、特徴照合手段62及び状況決定手段63を備える。   The video analysis unit 2 includes a target area extraction unit 21, a same target determination unit 22, and a video evaluation value determination unit 23. The supervisor situation grasping means 6 includes a supervisor area extracting means 61, a feature matching means 62, and a situation determining means 63.

映像選択条件記録手段10は、システム動作条件決定手段7によって決められる映像選択表示手段3の動作条件を記録する。映像選択表示手段3は、映像選択条件記録手段10に記録された動作条件に従い、映像解析手段2により選択された映像をユーザに表示する。   The video selection condition recording unit 10 records the operation condition of the video selection display unit 3 determined by the system operation condition determination unit 7. The video selection display means 3 displays the video selected by the video analysis means 2 to the user according to the operating conditions recorded in the video selection condition recording means 10.

映像解析手段2における対象領域抽出手段21は、映像撮影手段1により取得された映像中の対象が映る領域を、背景差分法及び領域分割法に例示される画像処理方法を用いて背景と区別し抽出する。   The target area extraction means 21 in the video analysis means 2 distinguishes the area in which the target in the video acquired by the video shooting means 1 is shown from the background using image processing methods exemplified by the background difference method and the area division method. Extract.

映像解析手段2における同一対象決定手段22は、対象領域抽出手段21により抽出された各対象領域の内部の色分布とテキスチャとを含む画像特徴量を解析する。同一対象決定手段22は、複数の映像に同一の人物が含まれているか否かを識別する。すなわち同一対象決定手段22は、第1の映像に含まれる第1対象領域の画像特徴量と第2の映像に含まれる第2対象領域の画像特徴量とを比較して、同一の対象(例示:同一人物)が含まれているかどうか判定する。その結果、同一の対象が複数の映像に映っていた場合には、第1対象領域と第2対象領域に対して同一の対象が映っていることを示す識別子が付与される。   The same target determination unit 22 in the video analysis unit 2 analyzes the image feature amount including the color distribution and texture inside each target region extracted by the target region extraction unit 21. The same object determining means 22 identifies whether or not the same person is included in a plurality of videos. That is, the same target determining unit 22 compares the image feature amount of the first target region included in the first video with the image feature amount of the second target region included in the second video, and the same target (example) : Same person) is determined. As a result, when the same target is shown in a plurality of videos, an identifier indicating that the same target is shown in the first target area and the second target area is given.

より詳しくは、同一対象決定手段22は、各対象領域について、慣用の画像処理方法によって得られる特性を比較することにより、映っている対象の同一性を判定する。このとき用いられる領域特性としては、色分布のヒストグラム、テクスチャ、画像内での大きさ及び形状が例示される。   More specifically, the same object determining means 22 determines the identity of the object shown by comparing the characteristics obtained by a conventional image processing method for each target area. Examples of the region characteristics used at this time include a color distribution histogram, texture, size and shape in the image.

領域特性として色分布のヒストグラムが用いられる場合についてより詳しく説明する。各対象領域に含まれる全画素について、RGBで得られる各画素値をHSI色空間に変換し、得られた色相Hの分布ヒストグラムを所定の区間ごとに求め、各頻度を領域内の全画素数で割って得られる正規化ヒストグラムを当該領域の特徴量として設定する。各映像に含まれる全領域について、ヒストグラムの類似度を各頻度の差の総和で評価し、所定のしきい値を下回る領域同士を同一対象とみなし、各領域に同一のラベルを付与する。これにより、同一対象が映った複数の領域が関連付けられる。色分布以外の特性が併用される場合には、ヒストグラムによる類似度と他の類似度の重み付け和を用いて対象の同一性が評価される。   The case where a color distribution histogram is used as the region characteristic will be described in more detail. For all pixels included in each target region, each pixel value obtained in RGB is converted into an HSI color space, a distribution histogram of the obtained hue H is obtained for each predetermined section, and each frequency is calculated as the total number of pixels in the region. The normalized histogram obtained by dividing by is set as the feature amount of the area. For all the regions included in each video, the similarity of the histogram is evaluated by the sum of the differences between the frequencies, regions below a predetermined threshold are regarded as the same target, and the same label is assigned to each region. As a result, a plurality of areas in which the same object is shown are associated. When characteristics other than the color distribution are used together, the identity of the object is evaluated using the weighted sum of the similarity based on the histogram and other similarities.

対象の同一性は、画像内の領域特性のみを用いて判定される。そのため、対象の実空間内の位置または形状を求めるために映像撮影手段1の画角または拡大率の情報を収集する必要はない。   The identity of the object is determined using only the region characteristics in the image. Therefore, it is not necessary to collect information on the angle of view or the enlargement ratio of the video photographing means 1 in order to obtain the position or shape of the target in real space.

さらに、同一対象決定手段22は、各対象領域について得られた特徴量を監視者特徴情報記録手段9に記録される関係者の特徴量と比較して、各対象領域に関係者が移っているか否かを判定する。この判定は、同一の対象が映っていると識別された複数の対象領域に対しては、それらから抽出され共通している特徴量を用いて行うことにより、照合の工程を抑制することができる。   Further, the same target determining unit 22 compares the feature amount obtained for each target region with the feature amount of the related party recorded in the supervisor feature information recording unit 9, and whether the related party has moved to each target region. Determine whether or not. This determination can be performed on a plurality of target areas identified as having the same target by using feature values extracted from these target areas in common, thereby suppressing the matching process. .

映像解析手段2の映像評価値決定手段23は、同一対象決定手段22により得られた判定結果をもとに、各映像に対して評価を行う。具体的には、関係者以外の対象が撮影されている対象領域を含む映像には高い評価値が付与される。関係者以外の対象が複数撮影されている場合には、その対象が映っている対象領域について所定の方法で算出される明瞭度がより高い方の対象領域に高い評価値が付与される。   The video evaluation value determination unit 23 of the video analysis unit 2 evaluates each video based on the determination result obtained by the same object determination unit 22. Specifically, a high evaluation value is assigned to a video including a target area where a target other than the related person is captured. When a plurality of targets other than those related to the subject are photographed, a higher evaluation value is assigned to the target region having a higher degree of clarity calculated by a predetermined method for the target region in which the target is reflected.

詳しくは、映像評価値決定手段は、慣用的な画像処理方法を用いて映像から生成した情報を所定の基準に基づいて処理することにより評価値を生成する。以下の基準が例示される:
処理対象領域において顔が撮像されていると認識される;
対象領域の面積が画像中で適度な面積である;
対象領域が画像中の中央に近い位置にある;
他の物体による対象の隠蔽が少ない;
周辺の照明条件がよく、対象領域のコントラストが適切である;
対象領域のフォーカスが合っており、動きボケが少ない;及び
各画像における所定の領域に近い場所にある。
これらの評価基準に基づいて、それぞれ既存の画像処理方法による評価値が得られる。すなわち評価基準ごとの評価値が解析処理によって定められ、対象領域の評価値集合が得られる。その評価値集合の重み付き和が代表評価値として設定される。
Specifically, the video evaluation value determination means generates an evaluation value by processing information generated from the video using a conventional image processing method based on a predetermined standard. The following criteria are exemplified:
It is recognized that a face is imaged in the processing target area;
The area of the target area is a moderate area in the image;
The region of interest is near the center of the image;
Less hiding of objects by other objects;
The surrounding lighting conditions are good and the contrast of the target area is appropriate;
The target area is in focus and there is little motion blur; and it is close to a predetermined area in each image.
Based on these evaluation criteria, evaluation values obtained by existing image processing methods are obtained. That is, an evaluation value for each evaluation criterion is determined by analysis processing, and an evaluation value set for the target region is obtained. The weighted sum of the evaluation value set is set as the representative evaluation value.

一例として、処理対象領域の顔認識による評価値算出処理を説明する。各画像について、慣用的な顔領域認識方法が適用され、映像中の顔認識が行われる。その顔認識によって顔が存在すると判定された領域が、検出済みの対象領域に含まれている場合、その対象領域の評価値に1が加えられる。検出されない領域の評価値は0に設定される。   As an example, an evaluation value calculation process based on face recognition of a processing target area will be described. A conventional face area recognition method is applied to each image to perform face recognition in the video. When an area determined to have a face by the face recognition is included in the detected target area, 1 is added to the evaluation value of the target area. The evaluation value of the area that is not detected is set to zero.

映像選択表示手段3は、評価値集合に応じて、映像選択記録手段10に記録された条件及びパラメータに従い、同一対象の複数の映像から適切な映像を選択して表示する。さらに監視者の状態が休憩中であることが検出され、監視者が画像を注視していないと思われる場合は、警告手段8を用いて監視者または監視対象に警告を発する。   The video selection display unit 3 selects and displays an appropriate video from a plurality of videos of the same target according to the conditions and parameters recorded in the video selection recording unit 10 according to the evaluation value set. Further, when it is detected that the state of the supervisor is resting and it is considered that the supervisor is not gazing at the image, the warning means 8 is used to issue a warning to the supervisor or the monitoring target.

対象領域が小さい場合には、表示端末50により拡大された画像が表示される。複数の対象が映像に含まれる場合には、以下に例示される表示方法が適用される:
より高い代表評価値を持つ対象領域が表示される;
画面の領域が分割され、分割された領域にそれぞれの対象が表示される;
それぞれの対象を含む画像が時分割されて交互に表示される;
それぞれの対象領域の縮小画像がユーザに提示され、ユーザに選択された縮小画像が拡大されて表示される。
When the target area is small, an enlarged image is displayed by the display terminal 50. When multiple objects are included in the video, the following display method is applied:
Target areas with higher representative evaluation values are displayed;
The area of the screen is divided and each object is displayed in the divided area;
Images containing each object are displayed alternately in time-division;
A reduced image of each target area is presented to the user, and the reduced image selected by the user is enlarged and displayed.

図8は、表示方法の一例を示す。縮小画像表示領域44に複数の縮小画像が表示される。複数の縮小画像のなかでユーザがマウスで選択した画像は拡大されて拡大画像表示領域42に表示される。   FIG. 8 shows an example of the display method. A plurality of reduced images are displayed in the reduced image display area 44. The image selected by the user with the mouse among the plurality of reduced images is enlarged and displayed in the enlarged image display area 42.

監視システムは、撮影された複数の対象のうち、ユーザにより選択された単一の対象が映っている複数の映像を領域分割または時分割表示し、特定の対象の行動を複数の視点から監視できるようにする。   The monitoring system can divide a plurality of videos showing a single target selected by the user from among a plurality of captured images, and can divide the behavior of a specific target from a plurality of viewpoints. Like that.

監視者状況把握手段6における監視者領域抽出手段61は、監視室映像撮影手段5により取得された監視従事者が監視業務を行う監視室32の映像中の対象が映っている領域を背景と区別し抽出する処理を行う。この処理は、対象領域抽出手段21と同様に、背景差分法または領域分割法に例示される慣用的な方法により実行される。   The supervisor area extraction means 61 in the supervisor situation grasping means 6 distinguishes the area where the object in the video of the monitoring room 32 where the monitoring worker acquired by the monitoring room video photographing means 5 performs the monitoring work is shown from the background. The process to extract is performed. This process is executed by a conventional method exemplified by the background subtraction method or the region division method, similarly to the target region extraction means 21.

監視者状況把握手段6における特徴照合手段62は、監視者領域抽出手段61により得られた各対象領域について、同一対象決定手段22と同様に、領域内の色分布とテクスチャを含む画像特徴量を解析し、得られた特徴量を監視者特徴情報記録手段9に記録される関係者の特徴量と比較して、各対象領域が関係者に該当するか否かを判定する。   The feature collating unit 62 in the supervisor situation grasping unit 6 uses, for each target region obtained by the supervisor region extracting unit 61, the image feature amount including the color distribution and texture in the region as in the same target determining unit 22. Analysis is performed and the obtained feature quantity is compared with the feature quantity of the related party recorded in the supervisor feature information recording unit 9 to determine whether each target area corresponds to the related party.

監視者状況把握手段6における状況決定手段63は、特徴照合手段62により得られた判定結果に基づいて、監視室32における監視従事者の有無、人数および位置を含む状態から監視者の状況を判定し、システム動作条件決定手段7に伝える。   The situation determination means 63 in the supervisor situation grasping means 6 judges the situation of the supervisor from the state including the presence / absence, number and position of monitoring workers in the monitoring room 32 based on the judgment result obtained by the feature matching means 62. To the system operating condition determining means 7.

図11は、監視システムの動作を示すフローチャートである。映像撮影手段1は、監視領域31を撮影した撮影画像を映像解析手段2に送信する。対象領域抽出手段21は、受信した撮影画像に対し、映像内の各対象領域を抽出する対象領域抽出処理を行う(ステップC1)。   FIG. 11 is a flowchart showing the operation of the monitoring system. The video photographing means 1 transmits a photographed image obtained by photographing the monitoring area 31 to the video analyzing means 2. The target area extraction means 21 performs a target area extraction process for extracting each target area in the video from the received captured image (step C1).

同一対象決定手段22は、対象領域抽出処理により抽出された各対象領域についての領域内色分布とテクスチャを含む画像特徴量を解析し、得られた特徴情報を複数の映像に属する各対象領域で比較して、類似している対象領域については、同一の対象を撮影していることを示す共通の領域番号を付与する処理を行う(ステップC2)。   The same target determining unit 22 analyzes the image feature amount including the color distribution and texture in the region for each target region extracted by the target region extraction process, and obtains the obtained feature information in each target region belonging to a plurality of videos. In comparison, for similar target areas, a process of assigning a common area number indicating that the same target is photographed is performed (step C2).

同一対象決定手段22は、対象領域抽出処理により抽出された各対象領域についての領域内色分布とテクスチャを含む画像特徴量と、監視者特徴情報記録手段9に予め記録された特徴情報(監視関係者の画像の特徴量を示す)とを比較し、画像中の当該対象が登録された監視関係者であるかどうかを判定した判定結果を生成する監視者特徴比較処理を行う(ステップC3)。   The same target determining unit 22 includes an image feature amount including an intra-region color distribution and texture for each target region extracted by the target region extraction process, and feature information (monitoring relationship) recorded in advance in the supervisor feature information recording unit 9. A supervisory feature comparison process for generating a determination result for determining whether or not the target in the image is a registered monitoring party (step C3).

映像評価値決定手段23は、監視者特徴比較処理の結果得られた判定結果と、各対象領域の特徴量をもとに各映像についての評価値を決定する映像評価値決定処理を行う(ステップC4)。   The video evaluation value determination means 23 performs a video evaluation value determination process for determining an evaluation value for each video based on the determination result obtained as a result of the supervisor feature comparison process and the feature amount of each target area (step) C4).

映像選択表示手段3は、映像評価値決定処理の結果得られた各映像の評価値と、映像選択条件記録手段10に予め記録されたルールに基づいて、映像を選択し、表示端末50によってユーザ(監視者)に表示する映像選択表示処理を行う(ステップC5)。   The video selection / display unit 3 selects a video based on the evaluation value of each video obtained as a result of the video evaluation value determination process and the rules pre-recorded in the video selection condition recording unit 10. A video selection display process to be displayed to the (supervisor) is performed (step C5).

上記ステップ C1〜C5までのサイクルは、決まった周期で継続的に繰返される。このサイクルと並行して、図12に示される処理が実行される。   The cycle from the above steps C1 to C5 is continuously repeated at a fixed period. In parallel with this cycle, the process shown in FIG. 12 is executed.

監視室映像撮影手段5は、監視室32を撮影した監視室映像を監視者状況把握手段6に送信する。監視者領域抽出手段61は、受信した監視室映像に対し、映像内の各対象領域を抽出する監視者領域抽出処理を行う(ステップD1)。   The monitoring room image photographing unit 5 transmits the monitoring room image obtained by photographing the monitoring room 32 to the supervisor situation grasping unit 6. The supervisor area extraction means 61 performs a supervisor area extraction process for extracting each target area in the video for the received monitoring room video (step D1).

特徴照合手段62は、監視者領域抽出処理によって抽出された各対象の特徴を、監視者特徴情報記憶手段9に記憶された特徴情報と比較し、画像中の当該対象が予め登録された監視関係者であるかどうかを判定して判定結果を生成する監視者特徴比較処理を行う(ステップD2)。   The feature matching unit 62 compares the feature of each target extracted by the supervisor region extraction process with the feature information stored in the supervisor feature information storage unit 9, and the monitoring relationship in which the target in the image is registered in advance. A supervisor feature comparison process is performed to determine whether the person is a person and generate a determination result (step D2).

状況決定手段63は、監視者特徴比較処理の結果得られた判定結果と対象の位置とを含む情報に基づいて、監視従事者の状態を判別する状況決定処理を行う(ステップD3)。   The situation determination unit 63 performs a situation determination process for determining the state of the monitoring worker based on information including the determination result obtained as a result of the supervisor feature comparison process and the target position (step D3).

システム動作条件決定手段7は、状況決定処理の結果得られた監視従事者の状態に基づき、映像選択表示手段3の動作条件を変更する、システム動作条件決定処理を行う(ステップD4)。   The system operating condition determining unit 7 performs a system operating condition determining process for changing the operating condition of the video selection display unit 3 based on the state of the monitoring worker obtained as a result of the situation determining process (step D4).

本実施の形態による監視システムは、複数の映像から同一の対象が映っている対象領域を関連づけ、対象毎に映像を限定して表示する。そのため、多数の監視カメラ映像を切り替える作業が低減され、冗長な映像表示が抑制される。そのため、撮像された複数の対象を少ない監視者で効率的に監視できる。   The monitoring system according to the present embodiment associates target areas in which the same target is shown from a plurality of videos, and displays a limited video for each target. Therefore, the work of switching a large number of surveillance camera videos is reduced, and redundant video display is suppressed. Therefore, it is possible to efficiently monitor a plurality of captured objects with a small number of supervisors.

本実施の形態による監視システムは、各カメラの実空間における画角の情報を設定する必要がない。そのため、カメラを設置する際にその設置角度を示す情報を取得する作業が省略できる。さらに、画角が可変なカメラを用いた運用が容易である。   The monitoring system according to the present embodiment does not need to set field angle information in the real space of each camera. For this reason, when the camera is installed, the work of obtaining information indicating the installation angle can be omitted. Furthermore, operation using a camera with a variable angle of view is easy.

図1は、監視システムが適用される施設を示す。FIG. 1 shows a facility to which a monitoring system is applied. 図2は、監視システムの構成を示す。FIG. 2 shows the configuration of the monitoring system. 図3は、監視システムの動作を示すフローチャートである。FIG. 3 is a flowchart showing the operation of the monitoring system. 図4は、監視システムの動作を示すフローチャートである。FIG. 4 is a flowchart showing the operation of the monitoring system. 図5は、撮影画像と監視対象を示す。FIG. 5 shows a captured image and a monitoring target. 図6は、撮影画像から抽出された対象領域を示す。FIG. 6 shows the target area extracted from the captured image. 図7は、表示画面を示す。FIG. 7 shows a display screen. 図8は、表示方法の一例を示す。FIG. 8 shows an example of the display method. 図9は、監視システムが適用される施設を示す。FIG. 9 shows a facility to which the monitoring system is applied. 図10は、監視システムの構成を示す。FIG. 10 shows the configuration of the monitoring system. 図11は、監視システムの動作を示すフローチャートである。FIG. 11 is a flowchart showing the operation of the monitoring system. 図12は、監視システムの動作を示すフローチャートである。FIG. 12 is a flowchart showing the operation of the monitoring system.

符号の説明Explanation of symbols

33…撮影画像
40…表示画面
41…カメラ画像表示領域
42…拡大画像表示領域
43…メッセージ表示領域
44…縮小画像表示領域
101…カメラ
105…カメラ
33 ... Captured image 40 ... Display screen 41 ... Camera image display area 42 ... Enlarged image display area 43 ... Message display area 44 ... Reduced image display area 101 ... Camera 105 ... Camera

Claims (6)

対象の映像を取得する映像取得部と、
予め撮影された関係者の映像に基づいて生成された情報である関係者特徴情報を記憶する関係者特徴情報記憶部と、
前記映像取得部により取得された映像から人物を示す被撮影者領域を抽出し、前記被撮影者領域から被撮影者特徴情報を抽出する被撮影者特徴情報抽出部と、
前記関係者特徴情報と前記被撮影者特徴情報とに基づいて前記被撮影者領域に非関係者が含まれるか否かを示す監視情報を生成する映像解析部と、
前記監視情報に応じた出力を行う出力部
とを具備する
監視システム。
A video acquisition unit for acquiring the target video;
A party feature information storage unit for storing party feature information, which is information generated based on a video of a party shot in advance;
A person-to-be-photographed person feature information extracting unit for extracting a person-to-be-photographed person area indicating a person from the video obtained by the video obtaining unit, and extracting person-to-be-photographed person characteristic information from the person to be photographed;
A video analysis unit that generates monitoring information indicating whether or not a non-related person is included in the subject person area based on the participant characteristic information and the subject characteristic information;
A monitoring system comprising: an output unit that performs output according to the monitoring information.
請求項1に記載された監視システムであって、
前記出力部は、前記被撮影者領域に前記非関係者が含まれている場合に、前記映像取得部が取得した前記対象の映像をより大きく表示する
監視システム。
A monitoring system according to claim 1, wherein
The output unit displays the target video acquired by the video acquisition unit larger when the non-related person is included in the subject area.
請求項1乃至2に記載された監視システムであって、
更に、前記映像取得部によって取得される映像が表示されるモニタが設置される監視者領域の映像を取得する第2映像取得部と、
前記監視者領域の映像から監視者領域特徴量を抽出し、前記監視者領域特徴量と前記関係者特徴情報とを照合することにより、前記監視者領域における前記関係者の状態を示す状態情報を生成する関係者状態情報生成部とを具備し、
前記出力部は、前記状態情報に応じて前記出力を変更する
監視システム。
A monitoring system according to claim 1 or 2, wherein
A second video acquisition unit that acquires a video of a supervisor area in which a monitor on which the video acquired by the video acquisition unit is displayed;
By extracting a supervisor area feature quantity from the video of the supervisor area and comparing the supervisor area feature quantity with the related party feature information, state information indicating the status of the related party in the monitor area is obtained. A related party state information generation unit to generate,
The output unit changes the output according to the state information.
請求項3に記載された監視システムであって、
更に、前記状態情報の履歴を記録する記録部
を具備する
監視システム。
A monitoring system according to claim 3, wherein
Furthermore, a monitoring system comprising a recording unit for recording the history of the state information.
請求項3乃至4に記載された監視システムであって、
更に、前記映像取得部により取得された第1映像に含まれる第1領域から抽出された第1被撮影者特徴情報と第2映像に含まれる第2領域から抽出された第2被撮影者特徴情報とを所定の基準に基づいて照合して一致したとき前記第1領域と前記第2領域を関連づける同一対象決定部と、
前記第1映像と前記第2映像に対して映像評価値をそれぞれ生成し、前記映像評価値の大小関係を評価する映像評価値決定部
とを具備し、
前記出力部は、前記大小関係に応じた出力を行う
監視システム。
The monitoring system according to claim 3, wherein:
Furthermore, the first subject feature information extracted from the first region included in the first image acquired by the image acquisition unit and the second subject feature extracted from the second region included in the second image. The same object determining unit associating the first area with the second area when information is matched based on a predetermined criterion and matched,
A video evaluation value determining unit that generates a video evaluation value for each of the first video and the second video and evaluates a magnitude relationship between the video evaluation values;
The said output part is a monitoring system which performs the output according to the said magnitude relationship.
対象の映像を取得する映像取得部と、
予め撮影された関係者の映像に基づいて生成された情報である関係者特徴情報を記憶する関係者特徴情報記憶部と、
前記映像取得部により取得された映像から人物を示す被撮影者領域を抽出し、前記被撮影者領域から被撮影者特徴情報を抽出する被撮影者特徴情報抽出部と、
前記関係者特徴情報と前記被撮影者特徴情報とに基づいて前記被撮影者領域に非関係者が含まれるか否かを示す監視情報を生成する映像解析部と、
前記監視情報に応じた出力を行う出力部
とを具備する
監視サーバ。
A video acquisition unit for acquiring the target video;
A party feature information storage unit for storing party feature information, which is information generated based on a video of a party shot in advance;
A person-to-be-photographed person feature information extracting unit for extracting a person-to-be-photographed person area indicating a person from the video obtained by the video obtaining unit, and extracting person-to-be-photographed person characteristic information from the person to be photographed;
A video analysis unit that generates monitoring information indicating whether or not a non-related person is included in the subject person area based on the participant characteristic information and the subject characteristic information;
A monitoring server comprising: an output unit that performs output according to the monitoring information.
JP2006141217A 2006-05-22 2006-05-22 Monitoring system Active JP5088463B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006141217A JP5088463B2 (en) 2006-05-22 2006-05-22 Monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006141217A JP5088463B2 (en) 2006-05-22 2006-05-22 Monitoring system

Publications (2)

Publication Number Publication Date
JP2007312271A true JP2007312271A (en) 2007-11-29
JP5088463B2 JP5088463B2 (en) 2012-12-05

Family

ID=38844683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006141217A Active JP5088463B2 (en) 2006-05-22 2006-05-22 Monitoring system

Country Status (1)

Country Link
JP (1) JP5088463B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187155A (en) * 2008-02-05 2009-08-20 Victor Co Of Japan Ltd Monitoring device, monitoring method, and monitoring program
JP2014179922A (en) * 2013-03-15 2014-09-25 Canon Inc Display device, control method and program of display device
JP2019029935A (en) * 2017-08-02 2019-02-21 キヤノン株式会社 Image processing system and control method thereof
JP2019080271A (en) * 2017-10-27 2019-05-23 ホーチキ株式会社 Occupant monitoring system
JP2019096179A (en) * 2017-11-27 2019-06-20 ホーチキ株式会社 Behavior monitoring system
CN114386939A (en) * 2021-12-27 2022-04-22 浙江新导向标识有限公司 Construction supervision method and system, storage medium and intelligent terminal
JP7408731B1 (en) 2022-07-06 2024-01-05 東芝テリー株式会社 Behavior detection method, behavior detection device, behavior detection system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06282654A (en) * 1991-09-25 1994-10-07 Carnegie Mellon Univ Apparatus and method for learnable protection
JPH11175730A (en) * 1997-12-05 1999-07-02 Omron Corp Human body detection and trace system
JP2000224542A (en) * 1999-01-29 2000-08-11 Hitachi Ltd Image storage device, monitor system and storage medium
JP2005033518A (en) * 2003-07-14 2005-02-03 Toshiba Corp Information collection system
JP2005115521A (en) * 2003-10-06 2005-04-28 Toshiba Corp Equipment control system and method
JP2006120084A (en) * 2004-10-25 2006-05-11 Mitsubishi Electric Corp Dubious person report system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06282654A (en) * 1991-09-25 1994-10-07 Carnegie Mellon Univ Apparatus and method for learnable protection
JPH11175730A (en) * 1997-12-05 1999-07-02 Omron Corp Human body detection and trace system
JP2000224542A (en) * 1999-01-29 2000-08-11 Hitachi Ltd Image storage device, monitor system and storage medium
JP2005033518A (en) * 2003-07-14 2005-02-03 Toshiba Corp Information collection system
JP2005115521A (en) * 2003-10-06 2005-04-28 Toshiba Corp Equipment control system and method
JP2006120084A (en) * 2004-10-25 2006-05-11 Mitsubishi Electric Corp Dubious person report system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187155A (en) * 2008-02-05 2009-08-20 Victor Co Of Japan Ltd Monitoring device, monitoring method, and monitoring program
JP2014179922A (en) * 2013-03-15 2014-09-25 Canon Inc Display device, control method and program of display device
JP2019029935A (en) * 2017-08-02 2019-02-21 キヤノン株式会社 Image processing system and control method thereof
JP7085812B2 (en) 2017-08-02 2022-06-17 キヤノン株式会社 Image processing device and its control method
JP2019080271A (en) * 2017-10-27 2019-05-23 ホーチキ株式会社 Occupant monitoring system
JP7054331B2 (en) 2017-10-27 2022-04-13 ホーチキ株式会社 Room occupancy monitoring system
JP2019096179A (en) * 2017-11-27 2019-06-20 ホーチキ株式会社 Behavior monitoring system
JP7108395B2 (en) 2017-11-27 2022-07-28 ホーチキ株式会社 behavior monitoring system
CN114386939A (en) * 2021-12-27 2022-04-22 浙江新导向标识有限公司 Construction supervision method and system, storage medium and intelligent terminal
JP7408731B1 (en) 2022-07-06 2024-01-05 東芝テリー株式会社 Behavior detection method, behavior detection device, behavior detection system

Also Published As

Publication number Publication date
JP5088463B2 (en) 2012-12-05

Similar Documents

Publication Publication Date Title
JP7229662B2 (en) How to issue alerts in a video surveillance system
JP4673849B2 (en) Computerized method and apparatus for determining a visual field relationship between a plurality of image sensors
JP5227911B2 (en) Surveillance video retrieval device and surveillance system
US9141184B2 (en) Person detection system
WO2018198373A1 (en) Video monitoring system
JP5088463B2 (en) Monitoring system
JP2023022015A (en) Image processing device, image processing method, and program
JP5669082B2 (en) Verification device
US20180025233A1 (en) Image-capturing device, recording device, and video output control device
JP2004021495A (en) Monitoring system and monitoring method
KR101514061B1 (en) Wireless camera device for managing old and weak people and the management system thereby
JP2020057111A (en) Facial expression determination system, program and facial expression determination method
Gupta et al. CrowdVAS-Net: A deep-CNN based framework to detect abnormal crowd-motion behavior in videos for predicting crowd disaster
US11120838B2 (en) Information processing apparatus, control method, and program
JP2009027393A (en) Image searching system and personal searching method
JP2010268158A (en) Image processing system, method of processing image, and program
JP2021196741A (en) Image processing device, image processing method and program
US10783365B2 (en) Image processing device and image processing system
JP5693147B2 (en) Photographic interference detection method, interference detection device, and surveillance camera system
JP2019029747A (en) Image monitoring system
US11463632B2 (en) Displaying a video stream
JP5712401B2 (en) Behavior monitoring system, behavior monitoring program, and behavior monitoring method
KR101926510B1 (en) Wide area surveillance system based on facial recognition using wide angle camera
US20220130174A1 (en) Image processing apparatus, control method, and non-transitory storage medium
JP2021087103A (en) Information processing device, control method of the same, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110512

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120314

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120528

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120815

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120828

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5088463

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150