Nothing Special   »   [go: up one dir, main page]

JP4937016B2 - Monitoring device, monitoring method and program - Google Patents

Monitoring device, monitoring method and program Download PDF

Info

Publication number
JP4937016B2
JP4937016B2 JP2007179144A JP2007179144A JP4937016B2 JP 4937016 B2 JP4937016 B2 JP 4937016B2 JP 2007179144 A JP2007179144 A JP 2007179144A JP 2007179144 A JP2007179144 A JP 2007179144A JP 4937016 B2 JP4937016 B2 JP 4937016B2
Authority
JP
Japan
Prior art keywords
camera
estimated
time
moving
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007179144A
Other languages
Japanese (ja)
Other versions
JP2009017416A (en
Inventor
健次郎 三浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2007179144A priority Critical patent/JP4937016B2/en
Publication of JP2009017416A publication Critical patent/JP2009017416A/en
Application granted granted Critical
Publication of JP4937016B2 publication Critical patent/JP4937016B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Description

本発明は、工場の敷地やビルなどの監視エリアへの人物・自動車等の移動体の侵入を監視するシステムに関する発明である。
以下、移動体は人物を想定して説明するが、人物に特定するものではない。
エリアの遠隔監視は監視カメラによっておこなうのが一般的である。
近年の監視カメラは監視映像をMotion JpegやMPEGなどの標準デジタル映像フォーマットに変換し、これをIPネットワーク伝送可能な機種が多くなってきている。
本発明は、監視カメラからの映像表示の際の切り替えを、人物を特定するための入退室制御(管理)システム(Access Control System、以下ACSと表記する)や侵入センサの情報を付加的に用いて行い、複数の監視用機器をネットワーク上で連動させ従来より高精度に認識、照合、追跡し、効果的に監視用画面に表示するシステムに関する。
また、移動体が移動可能なエリア間の移動経路を移動体により学習させる手法に関する。
The present invention relates to a system for monitoring the intrusion of a moving object such as a person or a car into a monitoring area such as a factory site or a building.
In the following description, the moving body is assumed to be a person, but is not specified as a person.
In general, remote monitoring of an area is performed by a monitoring camera.
In recent years, surveillance cameras convert a surveillance video into a standard digital video format such as Motion JPEG or MPEG, and there are an increasing number of models capable of transmitting this to an IP network.
The present invention additionally uses information on an entrance / exit control system (Access Control System, hereinafter referred to as ACS) and an intrusion sensor for specifying a person for switching when displaying a video from a surveillance camera. It is related to a system in which a plurality of monitoring devices are linked on a network to recognize, collate and track with higher accuracy than before and effectively display them on a monitoring screen.
The present invention also relates to a technique for learning a moving route between areas in which the moving body can move.

発電所、空港、駅、ビル、銀行のATM、データセンター(PCサーバ)等の重要公共施設・エリアのセキュリティゾーンの監視目的に、不審者等の監視用、エリアのセキュリティ監視用にネットワークカメラを多数設置したシステムが増加している。
数台〜十数台程度の小規模なシステムにおいては、全カメラの映像を画面分割された映像監視用ディスプレイに表示できるため、監視室にて監視員が目視し、同時に映像をレコーダに記録するという運用が一般的であった。
しかし、カメラ設置台数が多い大規模システムになると映像監視員の負担増大、レコーダの増設などによるシステムコストアップが問題となる。
For the purpose of monitoring security zones of important public facilities and areas such as ATMs of power plants, airports, stations, buildings, banks, and data centers (PC servers), network cameras are used for monitoring suspicious individuals, etc. The number of installed systems is increasing.
In a small system of several to a dozen or so units, the video of all cameras can be displayed on a video surveillance display that is divided into screens. This operation was common.
However, in a large-scale system with a large number of cameras installed, the system cost increases due to an increase in the burden on video surveillance personnel and the addition of recorders.

この問題への対策として、コンピュータを用いてカメラ映像内の人物や自動車などの監視対象を自動認識することで監視員の目視監視負担を軽減する方式や、監視システムを連携させる方式が提案されている。
また、カメラとACS、センサと連動するシステムについても制限つきだが開発されている。
特開2003−324720号公報 特開2006−146378号公報 特開2003−324720号公報 特開2005−12415号公報 特開2006−180387号公報
As countermeasures against this problem, there have been proposed a method for reducing the visual monitoring burden on the observer by automatically recognizing a monitoring target such as a person or a car in the camera image using a computer, or a method for linking the monitoring system. Yes.
A system that works with the camera, ACS, and sensor is also being developed with limitations.
JP 2003-324720 A JP 2006-146378 A JP 2003-324720 A JP 2005-12415 A JP 2006-180387 A

本発明は、エリアのセキュリティ監視にあたり、複数のカメラ、ACS、センサを連携させることにより、不審者等の移動体の追跡精度を向上し、追跡における監視員への画像表示を最適化することにより、監視員の負担を軽減し、システムコストを低減することを目的としている。   The present invention improves the tracking accuracy of a moving body such as a suspicious person by linking a plurality of cameras, ACSs, and sensors in area security monitoring, and optimizes the image display to the monitoring staff in tracking. The goal is to reduce the burden on observers and reduce system costs.

エリアを監視するためのデバイス・システムとしてACS、監視カメラ、侵入検知センサなどがある。それぞれの監視デバイスの特性・課題を整理すると以下のようになる。   Device systems for monitoring areas include ACS, surveillance cameras, intrusion detection sensors, and the like. The characteristics and issues of each monitoring device are summarized as follows.

一般にACSはエリアへのアクセスを制限するためのデバイス/システムで、物理的に侵入不可能な閉じたエリア、例えば屋内のサーバ・ルームなど閉じた空間(部屋)へのアクセス管理する場合に使われる。
通常、部屋の入口部分にパスワード、ICカード、バイオメトリックス(指紋、光彩等)などによる認証デバイスを設置し、人物特定を行い、エリアへ認可(許可)されたもののみ通過を可能にする。
近年のACSはネットワーク(IPプロトコル等)に接続して管理できるものが多い。認証エラーの場合、ゲートを通過できないことはもちろん、ACS監視卓の画面上のエリアマップ上にどこで不正侵入が試みられたかを表示する。
ただ、ACSは認証システムが前提となるため、移動体の認識は高いものの、屋外等の開かれた監視空間では適用しにくいという課題がある。
Generally, an ACS is a device / system for restricting access to an area, and is used to manage access to a closed area (room) such as an indoor server room that cannot be physically intruded. .
Usually, an authentication device such as a password, IC card, biometrics (fingerprint, glow, etc.) is installed at the entrance of the room, a person is identified, and only those authorized (permitted) to the area can pass.
Many recent ACSs can be managed by connecting to a network (IP protocol or the like). In the case of an authentication error, not only the gate cannot be passed, but also where the unauthorized intrusion is attempted is displayed on the area map on the screen of the ACS monitoring console.
However, since ACS is based on an authentication system, there is a problem that it is difficult to apply in an open monitoring space such as outdoors although the recognition of a moving object is high.

監視カメラは監視空間が開放されていても適用可能である。
しかし、カメラの死角の問題、現在のカメラの画像認識技術によってのみでは、映像中の被写体(移動体)の特定精度が悪いという(Identification)問題がある。すなわち、映像中から移動体が写っていることは比較的高精度で検知できるが、映像中の移動体を精度よく一意に特定することは困難である。
また、多数の監視カメラが設置される場合、監視対象空間を限られた監視員リソースで効率的に監視できるようにするためのシステム側で監視支援を行う技術が必要になる。
The surveillance camera can be applied even when the surveillance space is open.
However, there is a problem of the blind spot of the camera, and the identification accuracy of the subject (moving body) in the video is poor (Identification) only by the current image recognition technology of the camera. That is, it can be detected with relatively high accuracy that a moving body is shown in the video, but it is difficult to accurately and uniquely identify the moving body in the video.
In addition, when a large number of surveillance cameras are installed, a technology for providing monitoring support on the system side is required so that the surveillance target space can be efficiently monitored with limited supervisor resources.

センサとしては、例えば赤外線や電波を使って検知する広域侵入検知センサシステムがある。これは、敷地境界への侵入物の検知を行うためのもので、監視カメラより広いエリアの侵入検知をすることができるが、装置の特性上、侵入移動体の特定(Identification)は難しい。また一定の誤検知が生ずるという問題もある。
他のセンサとしてゆれ感知センサ(ガラス面に設置し、ガラスの破壊侵入を検知)、RFIDなどを使ったセンサもある。
As a sensor, for example, there is a wide area intrusion detection sensor system that detects using infrared rays or radio waves. This is for detecting an intruder on the site boundary and can detect an intrusion in a wider area than the surveillance camera, but it is difficult to identify an intruding mobile body due to the characteristics of the device. There is also the problem that certain false detections occur.
As other sensors, there are shake detection sensors (installed on a glass surface to detect breakage and penetration of glass), sensors using RFID, and the like.

このように万能の監視システムはない。
また現状それぞれの監視システムは別個独立で連携が難しいか、限定された連携しかできないという課題もある。
限定された連携とは、例えば、ACSと監視カメラを連動させ、ACSで入室認証を行った際に監視画面上のカメラ映像をACS認証が生じた近傍の監視カメラ(組にされたカメラ)に切り替え表示するなどである。
このシステムでは、カメラ映像の切り替え表示の効率化が中心となる。また、このようなシステムではACSと監視カメラを組にすることが必要であるが、設置コストの観点で必ずしも併設できない場合もあり、そのような場合の画面表示に課題もある。
There is no universal monitoring system.
In addition, there is a problem that each current monitoring system is independent and difficult to cooperate, or only limited cooperation is possible.
The limited cooperation is, for example, that the ACS and the surveillance camera are linked, and the camera video on the surveillance screen is connected to the surveillance camera (camera paired camera) in the vicinity where the ACS authentication occurs when the room authentication is performed by the ACS. For example, the display is switched.
In this system, the efficiency of the switching display of camera images is central. Further, in such a system, it is necessary to combine the ACS and the monitoring camera, but there are cases where it cannot always be provided in view of installation cost, and there is a problem in screen display in such a case.

以上説明したシステムに対する要求を踏まえて、公知技術を検討する。
特許文献1に記載の技術は、全体特徴情報で照合した移動体の映像を監視モニタに表示したり、監視員が追跡対象の移動体を指定する方式であるが、監視員自身が不審挙動であるかを判断したり、対象移動体の監視空間内での移動経路を推定する必要があり、監視負担の軽減には不十分である。
Based on the requirements for the system described above, the known technology is examined.
The technique described in Patent Document 1 is a method of displaying a moving body image collated with overall feature information on a monitoring monitor or a monitoring person specifying a moving body to be tracked. It is necessary to determine whether or not the target moving body is within the monitoring space, which is insufficient for reducing the monitoring burden.

特許文献2では、特許文献1に記載の技術の課題を解決するために、カメラ間の画像解析結果を照合し、追跡精度を上げ、またACSシステムと連動させ不正アクセスを検知・表示する技術について記載されている。
ただ、事前に精度の高い3次元位置データベースが必要で導入コストが高い点、監視員に見せる追跡画面がカメラ映像の切り替えのみである点で負担軽減が不十分であるという課題がある。
In Patent Document 2, in order to solve the technical problem described in Patent Document 1, the image analysis result between the cameras is collated, the tracking accuracy is improved, and the illegal access is detected and displayed in conjunction with the ACS system. Are listed.
However, there is a problem that the burden reduction is insufficient because a high-accuracy three-dimensional position database is required in advance and the introduction cost is high, and the tracking screen to be shown to the observer is only the switching of the camera video.

特許文献3は、複数のカメラを連携させ、移動体を追跡監視する監視システムに関する技術である。
ネットワークを介してカメラ・カメラ間で直接追跡情報をやりとりする方式であり、各カメラ装置のコストが大きくなりがちで追跡ロジックの変更コストも大きいという課題がある。
Patent Document 3 is a technique related to a monitoring system that links a plurality of cameras and tracks and monitors a moving object.
This is a method in which tracking information is directly exchanged between cameras and cameras via a network, and there is a problem that the cost of each camera device tends to increase and the cost of changing tracking logic is also high.

特許文献4は、移動体の追跡において、画面を分割し、現映像と次に移動すると予測される映像を合成して表示する技術に関する。ただ、カメラのみの連携のため追跡精度上の課題がある。   Patent Document 4 relates to a technique for dividing a screen and synthesizing and displaying a current video and a video predicted to move next in tracking a moving object. However, there is a problem in tracking accuracy due to the cooperation of only the camera.

特許文献5では、RFIDセンサと監視カメラを連動させ監視する技術について記載されている。   Patent Document 5 describes a technique for monitoring an RFID sensor and a monitoring camera in conjunction with each other.

また、次のような課題もある。
移動体を追跡するには経路(図面)情報が必要であるが、経路上の各監視カメラ、ACS、センサ間の接続トポロジー情報や物理的経路距離等の情報を入力するコストが高いという課題がある。
There are also the following problems.
Route (drawing) information is required to track a moving object, but there is a problem that the cost of inputting information such as connection topology information and physical route distance between each monitoring camera, ACS, and sensor on the route is high. is there.

本発明は、上述のような課題を解決することを主な目的の一つとしており、監視カメラ、ACS、センサ等の複数の監視用機器をネットワーク上で連動させて、監視対象空間への侵入者の高精度な認識、照合、追跡を可能にし、監視カメラからの映像を効果的に監視用画面に表示し、更に各監視カメラへの侵入者の推定到達時刻を算出して、推定到達時刻を表示することを主な目的とする。   One of the main objects of the present invention is to solve the above-mentioned problems. A plurality of monitoring devices such as a monitoring camera, an ACS, and a sensor are linked on a network to enter a monitoring target space. It is possible to highly accurately recognize, collate, and track a person, display the video from the surveillance camera effectively on the monitoring screen, calculate the estimated arrival time of the intruder to each surveillance camera, and estimate the arrival time The main purpose is to display.

本発明に係る監視装置は、
監視対象空間に配置されている複数のカメラから撮影映像を受信する撮影映像受信部と、
前記監視対象空間に移動体が侵入した際に、前記移動体が近時に撮影可能範囲に到達し前記移動体の撮影が可能と推定されるカメラを推定撮影可能カメラとして一つ以上選択する推定撮影可能カメラ選択部と、
前記移動体が推定撮影可能カメラの撮影可能範囲に到達すると推定される時刻を推定到達時刻として推定撮影可能カメラごとに算出する推定到達時刻算出部と、
前記撮影映像受信部により受信された前記推定撮影可能カメラの撮影映像と、前記推定到達時刻算出部により算出された推定撮影可能カメラごとの推定到達時刻とを表示装置に出力する表示部とを有することを特徴とする。
The monitoring device according to the present invention is:
A captured video receiver that receives captured video from a plurality of cameras arranged in the monitoring target space;
Estimated shooting that selects one or more cameras that are estimated to be able to shoot the moving body when the moving body enters the monitoring target space and the moving body reaches the shootable range in the near future. Possible camera selection part,
An estimated arrival time calculation unit that calculates, for each estimated image-capable camera, a time estimated that the moving body reaches the image-capable range of the estimated image-capable camera;
A display unit configured to output to the display device a captured image of the estimated shootable camera received by the captured image reception unit and an estimated arrival time of each estimated shootable camera calculated by the estimated arrival time calculation unit; It is characterized by that.

本発明によれば、近時に移動体を撮影可能であると推定される推定撮影可能カメラを選択し、推定撮影可能カメラごとに移動体の推定到達時刻を算出し、算出した推定到達時刻を表示するため、監視員が侵入者を追尾する際に、侵入者の移動経路の推測という監視員の負担が解消され、また、監視映像に侵入者が映し出される時刻の目安を監視員に通知することで、それぞれの監視映像に注視すべきタイミングを監視員が知ることができ、侵入者追跡における監視員の負担が軽減され、ひいては追跡ロスを減らすことができる。   According to the present invention, it is possible to select an estimated shootable camera that is estimated to be able to shoot a moving body in the near future, calculate an estimated arrival time of the moving body for each estimated shootable camera, and display the calculated estimated arrival time Therefore, when the inspector tracks the intruder, the burden on the inspector of guessing the intruder's movement route is eliminated, and the approximate time when the intruder appears in the monitoring video is notified to the inspector. Thus, the monitoring person can know the timing to watch each monitoring video, and the burden on the monitoring person in tracking the intruder can be reduced, and the tracking loss can be reduced.

実施の形態1.
本実施の形態に係るシステムでは、まず、監視対象空間に複数のカメラを設置し、画像認識技術を用いて、その映像から移動体を抽出する手段を設ける。
カメラ映像からの移動体の検出方法としては背景差分法がよく知られている。移動体検出処理は映像をネットワーク経由でサーバに送り、受信サーバ上で処理してもよいし、カメラ内に検出機構を組み込んでもよい。検出手段と通知方法を有することが重要である。なお、背景差分法以外の手段でも移動体を検出することは可能である。
Embodiment 1 FIG.
In the system according to the present embodiment, first, a plurality of cameras are installed in the monitoring target space, and means for extracting a moving body from the video is provided using an image recognition technique.
Background subtraction is well known as a method for detecting a moving object from a camera image. In the moving body detection process, the video may be sent to the server via the network and processed on the receiving server, or a detection mechanism may be incorporated in the camera. It is important to have detection means and notification methods. Note that it is possible to detect a moving object by means other than the background subtraction method.

また、監視対象空間へ侵入した移動体の検知(追跡)は、エリア境界にある監視カメラ(通常の経路でない部分での)の画像解析による移動体検知、境界に設置されたセンサによる検知等が考えられる。   In addition, detection (tracking) of moving objects that have entered the monitored space includes detection of moving objects by image analysis of a monitoring camera (in a portion that is not a normal route) at the area boundary, detection by a sensor installed at the boundary, etc. Conceivable.

監視カメラによる移動体認識・追跡技術のみでは、精度の問題があるため、ACS、センサ等の情報により対象移動体の認証精度および位置精度を補正する。   Only the moving body recognition / tracking technique using the monitoring camera has a problem of accuracy, and thus the authentication accuracy and position accuracy of the target moving body are corrected by information such as ACS and sensor.

また、監視員の監視負担を軽減するために、対象移動体が写っている現映像と位置情報から計算できる隣接カメラ映像を同一画面に分割表示した画面を合成し表示する。現地点と隣接カメラ間にACS、センサがあり、それにより移動体の補正情報を生成し、この情報により移動体の位置精度を補正し、また画面上に分割・合成表示する。
移動体の追跡画像は、隣接カメラ映像の分割表示のほか、例えばACSにより位置情報が補足されたが対応する監視カメラが設置されていない場合は、ACSのレイアウト図を使って監視員に追跡移動体の位置をアラート表示する。
In addition, in order to reduce the monitoring burden on the surveillance staff, a screen in which the current video showing the target moving body and the adjacent camera video that can be calculated from the position information are combined and displayed on the same screen is displayed. There is an ACS and a sensor between the local point and the adjacent camera, thereby generating correction information of the moving body, correcting the positional accuracy of the moving body based on this information, and dividing / combining it on the screen.
The tracking image of the moving object can be divided and displayed by the adjacent camera video. For example, when the position information is supplemented by the ACS but the corresponding monitoring camera is not installed, the tracking image is moved to the observer using the ACS layout diagram. Alert the body position.

図1は、本実施の形態に係るシステム構成例を示す図である。
ネットワーク100を介して、監視カメラ101、入退出管理装置102(ACS)、センサ103を複数台設置する。
ある監視対象空間(以下、監視空間とも表記する)には監視カメラ101を1台以上設置して監視する。
監視カメラ101に対してセンサ103、ACS102を組に(グループ化)して監視することもできる(監視空間122、123)。グループ化した場合はACS102、センサ103、監視カメラ101を連動させて監視することができる。
グループ化の情報はネットワーク100に接続された、移動体監視装置104で管理する。
移動体監視装置104における監視対象は、監視対象空間に侵入する人物、車等の移動体である。
FIG. 1 is a diagram illustrating a system configuration example according to the present embodiment.
A plurality of surveillance cameras 101, an entry / exit management device 102 (ACS), and sensors 103 are installed via the network 100.
One or more monitoring cameras 101 are installed and monitored in a certain monitoring target space (hereinafter also referred to as monitoring space).
It is also possible to monitor the monitoring camera 101 by grouping the sensor 103 and the ACS 102 (grouping) (monitoring spaces 122 and 123). When grouped, the ACS 102, the sensor 103, and the monitoring camera 101 can be linked and monitored.
The grouping information is managed by the mobile monitoring device 104 connected to the network 100.
The monitoring target in the mobile monitoring device 104 is a mobile object such as a person or a car that enters the monitoring target space.

ネットワーク100は、以下ではIPネットワークを前提に説明する。
ただしネットワーク100は、IPネットワークに限定するものではなく、映像や情報を伝送する手段が確保されていればよい。通信は有線式でも無線式(無線LAN等)でもよい。
The network 100 will be described below on the assumption of an IP network.
However, the network 100 is not limited to an IP network, and it is sufficient that a means for transmitting video and information is secured. Communication may be wired or wireless (such as a wireless LAN).

監視カメラ101は監視空間の映像を撮影し、撮影映像をエンコードしたのち、ネットワーク100を介して映像を移動体監視装置104等に伝送する。
移動体監視装置104では受信映像データをデコードし、映像を表示する。映像エンコード方式はMotin−JPEG,MPEG2,MPEG4,H.264など様々な標準方式があり、これを利用する。
The surveillance camera 101 captures an image of the surveillance space, encodes the captured image, and then transmits the image to the mobile object monitoring device 104 or the like via the network 100.
The mobile monitoring device 104 decodes the received video data and displays the video. The video encoding method is Motin-JPEG, MPEG2, MPEG4, H.264. There are various standard systems such as H.264, which are used.

入退出管理装置102は、例えば、カードリーダでICカードのID情報を読み出すことで人物を識別し、許可が与えられた者のみ入室を許可し、他の装置に入退出履歴等をイベント通知する機能を持つ。
識別はICカードの他、指紋等によるバイオ認証などが知られている。
The entry / exit management device 102 identifies the person by reading the ID information of the IC card with a card reader, for example, allows only the authorized person to enter the room, and notifies other devices of the entry / exit history etc. Has function.
For identification, in addition to an IC card, bio-authentication using a fingerprint or the like is known.

センサ103は、移動体を検知しネットワークを介して移動体の侵入を検知した場所等を通知する機能をもつ。センサには様々な種類のものがある。例えばドア開閉を検知する接点センサがある。
他には、フェンスに生じるたわみ、振動、切り破り、引っ張り位置を特定して侵入検知する光ファイバー検知センサがある。
さらに、電磁界の変化を検知して移動体の侵入を検知する広域侵入検知センサ、ガラスにとりつけられた振動センサある。これらのセンサは移動体が存在すると推定される位置を特定することが主な目的である。
位置情報はセンサ103内部に格納されていても、移動体監視装置104に格納されていてもよい。
センサ103が事象検知するとイベントを移動体監視装置104に通知し、通知されたイベントに位置情報がなければ、センサを特定するIDから移動体監視装置104が監視用データベース114により位置を補完する。
また、センサ103はRF−ID読み取り装置であってもよく、この場合は読み取ったカードIDから移動体を識別することができる。
The sensor 103 has a function of detecting a moving body and notifying the location where the intrusion of the moving body is detected via the network. There are various types of sensors. For example, there is a contact sensor that detects opening and closing of a door.
In addition, there is an optical fiber detection sensor that detects an intrusion by specifying a position of bending, vibration, breaking, or pulling that occurs in a fence.
Furthermore, there are wide area intrusion detection sensors that detect changes in electromagnetic fields and detect intrusions of moving objects, and vibration sensors attached to glass. The main purpose of these sensors is to specify the position where the moving body is estimated to exist.
The position information may be stored in the sensor 103 or may be stored in the moving object monitoring device 104.
When the sensor 103 detects an event, the event is notified to the moving body monitoring device 104. If the notified event does not have position information, the moving body monitoring device 104 complements the position by the monitoring database 114 from the ID for identifying the sensor.
Further, the sensor 103 may be an RF-ID reader, and in this case, the moving body can be identified from the read card ID.

移動体監視装置104は、前述の通りネットワーク100に接続する。
移動体監視装置104は、監視カメラ101、ACS102、センサ103の連動を制御して移動体を追跡等する機能をもつ。
移動体監視装置104には、映像記録装置105、監視用ディスプレイ106、カメラ切替スイッチ107を接続することができる。
映像記録装置105、監視用ディスプレイ106、カメラ切替スイッチ107は直接ネットワーク100に(LAN)接続し、ネットワークを介して移動体監視装置104に接続するものもある。
The mobile object monitoring device 104 is connected to the network 100 as described above.
The moving object monitoring apparatus 104 has a function of tracking the moving object by controlling the linkage of the monitoring camera 101, the ACS 102, and the sensor 103.
A video recording device 105, a monitoring display 106, and a camera changeover switch 107 can be connected to the moving object monitoring device 104.
The video recording device 105, the monitoring display 106, and the camera changeover switch 107 are directly connected to the network 100 (LAN), and may be connected to the moving object monitoring device 104 via the network.

映像記録装置105は、監視カメラ101で撮影され伝送された映像を記録(蓄積)する。通常は(内蔵または外付けの)ハードディスク装置に書き込んで保存するものが多い。
また、図1には記載していないが、本システムを外部の情報システムに接続し、不正侵入者等を検知した場合に、メール・携帯電話等に発信することも可能である。
The video recording device 105 records (accumulates) video captured and transmitted by the monitoring camera 101. Usually, many are written and stored in a hard disk device (internal or external).
Although not shown in FIG. 1, when this system is connected to an external information system and an unauthorized intruder is detected, it is possible to make a call to an e-mail, a mobile phone or the like.

監視用ディスプレイ106は、監視カメラの受信映像をN分割した画面に表示し、同一画面で複数の監視空間の映像監視を可能にする。
監視用ディスプレイ106は、表示装置の例である。
The monitoring display 106 displays the received video of the monitoring camera on a screen divided into N, and enables video monitoring of a plurality of monitoring spaces on the same screen.
The monitoring display 106 is an example of a display device.

カメラ切替スイッチ107は、監視用ディスプレイ106に表示するカメラ映像を監視員が手動で切り替えるための装置である。
移動体監視装置104を介して接続するもの、制御対象である映像記録装置105に直接接続するもの、ネットワーク100を介して接続するものなどがある。
カメラ切替スイッチ107は、監視員が用いる監視操作卓(入力装置)である。
The camera changeover switch 107 is a device for the supervisor to manually switch the camera image displayed on the monitoring display 106.
Some are connected via the mobile monitoring device 104, some are directly connected to the video recording device 105 to be controlled, and others are connected via the network 100.
The camera changeover switch 107 is a monitoring console (input device) used by a monitor.

次に、移動体監視装置104の内部構成について説明する。
カメラ映像受信部120は、ネットワーク100を介して、監視対象空間に配置されている複数の監視カメラ101で撮影された撮影映像を受信する。
カメラ映像受信部120は、撮影映像受信部の例である。
Next, the internal configuration of the moving object monitoring apparatus 104 will be described.
The camera image receiving unit 120 receives captured images captured by the plurality of monitoring cameras 101 arranged in the monitoring target space via the network 100.
The camera video receiving unit 120 is an example of a captured video receiving unit.

カメラ映像内移動体検出部110は、特定のカメラ内の映像から移動体を検出する機能である。
移動体の検出には画像認識技術を使う。具体的には、時系列上の各映像フレームを差分比較し移動体を検出する。映像フレームから人物の識別や切り出しは既存の手段を利用する。
カメラ映像内移動体検出部110は、移動体識別部の例である。
The camera image moving body detection unit 110 has a function of detecting a moving body from an image in a specific camera.
Image recognition technology is used to detect moving objects. Specifically, a moving object is detected by comparing each video frame in time series with a difference. Existing means are used to identify and extract a person from a video frame.
The camera moving body detection unit 110 is an example of a moving body identification unit.

カメラ間移動経路算出部111は、監視用データベース114内のカメラ間の経路データを使って、移動体の現在位置から次に移動すると予想される経路や距離・時間を算出する機能である。
カメラ間移動経路算出部111は、監視対象空間に移動体が侵入した際に、移動体を撮影中である撮影中カメラから移動体が近時に撮影可能範囲に到達し移動体の撮影が可能と推定されるカメラを推定撮影可能カメラとして一つ以上選択する。撮影可能範囲とは、監視カメラが対象を撮影(捕捉)可能な監視カメラの設置位置周辺の空間範囲である。
また、カメラ間移動経路算出部111は、移動体が推定撮影可能カメラの撮影可能範囲に到達すると推定される時刻を推定到達時刻として推定撮影可能カメラごとに算出する。推定到達時刻の算出の際に、カメラ間移動経路算出部111は、監視対象空間に侵入した移動体の属性に合致する移動体属性についての平均移動時間を用いて、推定撮影可能カメラごとに推定到達時刻を算出する。
また、カメラ間移動経路算出部111は、監視対象空間に侵入した移動体が撮影中カメラから他のカメラまで移動する際に要した実測移動時間と、撮影中カメラから各々の推定撮影可能カメラまでの間を移動する際の移動体属性ごとの平均移動時間を比較し、平均移動時間が監視対象空間に侵入した移動体の実測移動時間に近似している移動体属性を判定し、判定した移動体属性についての平均移動時間を用いて、推定撮影可能カメラごとに推定到達時刻を算出することもできる。
カメラ間移動経路算出部111は、推定撮影可能カメラ選択部、推定到達時刻算出部の例である。
The inter-camera movement path calculation unit 111 is a function that calculates the path, distance, and time expected to move next from the current position of the moving body using the inter-camera path data in the monitoring database 114.
When the moving body enters the monitoring target space, the inter-camera movement path calculation unit 111 can reach the shootable range from the camera that is currently shooting the moving body and can shoot the moving body. One or more cameras to be estimated are selected as cameras that can be estimated. The imageable range is a spatial range around the installation position of the monitoring camera that can be captured (captured) by the monitoring camera.
Further, the inter-camera movement path calculation unit 111 calculates, for each estimated photographable camera, the estimated time when the moving body reaches the photographing possible range of the estimated photographing capable camera. When calculating the estimated arrival time, the inter-camera movement path calculation unit 111 estimates each estimated camera that can be photographed using the average moving time for the moving object attribute that matches the attribute of the moving object that has entered the monitoring target space. The arrival time is calculated.
The inter-camera movement path calculation unit 111 also measures the actual travel time required when the moving body that has entered the monitoring target space moves from the camera being photographed to another camera, and from the camera being photographed to each estimated photographable camera. Compare the average travel time for each mobile object attribute when moving between the two, and determine the mobile object attribute that approximates the actual travel time of the mobile object that has entered the monitored space. The estimated arrival time can also be calculated for each estimated camera capable of being photographed using the average moving time for the body attribute.
The inter-camera movement path calculation unit 111 is an example of an estimated photographing capable camera selection unit and an estimated arrival time calculation unit.

カメラ間移動体整合度算出部112は、追跡中の移動体の過去の記録映像と、各カメラの現在の移動体映像を比較し整合度を算出することにより移動体を追跡する機能である。カメラ間移動体整合度算出部112は、各映像中の移動体の特徴量を抽出する。抽出特徴量を比較し抽出特徴量が近いものを優先して追跡する。   The inter-camera moving body matching degree calculation unit 112 has a function of tracking a moving body by comparing the past recorded video of the moving body being tracked with the current moving body video of each camera and calculating the degree of matching. The inter-camera moving body matching degree calculation unit 112 extracts the feature amount of the moving body in each video. Compare extracted feature values and track those with similar extracted feature values.

ACS移動体検出部113は、ACS102の入退出イベントを受信してACS102を通過する移動体を識別し位置を算出する機能である。   The ACS moving body detection unit 113 is a function that receives an ACS 102 entry / exit event, identifies a moving body that passes through the ACS 102, and calculates a position.

センサ移動体検出部117は、センサイベントを受信し移動体の位置を算出する機能である。
例えば、接点センサから“ドアオープン”イベントをセンサ移動体検出部117が受信するとイベント中に含まれるセンサのID(ネットワークのアドレスや接点I/F番号など)をキーに監視用データベース114内の位置情報データを使って扉が開いた位置を特定することができる。
The sensor moving body detection unit 117 has a function of receiving a sensor event and calculating the position of the moving body.
For example, when the sensor moving body detection unit 117 receives a “door open” event from a contact sensor, the position in the monitoring database 114 is based on the sensor ID (network address, contact I / F number, etc.) included in the event as a key. The position where the door is opened can be specified using the information data.

位置管理部115は、監視用データベース114内のレイアウトデータ、カメラ間の経路データ等、位置管理関連するデータの参照、登録を管理する機能である。   The position management unit 115 is a function for managing reference and registration of data related to position management, such as layout data in the monitoring database 114 and route data between cameras.

映像合成・表示切替部116は、カメラ映像に監視用文字情報等を重ね、分割された表示エリアに映像を表示し、表示制御機能またはカメラ切替スイッチ107からの監視者の入力に応じ、表示するカメラの映像を切り替える機能である。
映像合成・表示切替部116は、例えば、カメラ映像受信部120により受信された推定撮影可能カメラの撮影映像と、カメラ間移動経路算出部111により算出された推定撮影可能カメラごとの推定到達時刻とを監視用ディスプレイ106に出力することができる。
映像合成・表示切替部116は、表示部の例である。
The video composition / display switching unit 116 superimposes the monitoring character information on the camera video, displays the video in the divided display area, and displays it according to the input of the monitor from the display control function or the camera selector switch 107. This is a function for switching camera images.
The video composition / display switching unit 116, for example, the captured video of the estimated shootable camera received by the camera video receiving unit 120, the estimated arrival time for each estimated shootable camera calculated by the inter-camera movement path calculation unit 111, and the like. Can be output to the monitoring display 106.
The video composition / display switching unit 116 is an example of a display unit.

カメラ間経路学習部118は、登録済みユーザを経路データ生成のための標本移動体とすることで事前にカメラの隣接状態を生成し、標本移動体の属性(男性、女性等)に依存する平均移動時間を学習し、監視用データベース114内の経路データを半自動生成する機能である。
カメラ間経路学習部118は、平均移動時間算出部の例である。
The inter-camera path learning unit 118 generates an adjacent state of the camera in advance by setting a registered user as a sample moving body for generating path data, and averages depending on attributes (male, female, etc.) of the sample moving body This is a function for learning the travel time and generating the route data in the monitoring database 114 semi-automatically.
The inter-camera route learning unit 118 is an example of an average travel time calculation unit.

挙動分析侵入判定部119は、カメラ映像、ACS、センサ等の情報から移動体の挙動を分析し、侵入判定をする機能である。
挙動分析侵入判定部119は、挙動異常を判定する機能である。
例えば、ACSでの認証において、同一カード(ID)でのゲートオープン失敗がN回連続した場合は異常とみなすなど、通常と異なる挙動を判定し通知する機能である。挙動判定の条件を設定することができる。
挙動分析侵入判定部119は、侵入判定を行う機能である。たとえば、通常人が通行しない、敷地の外周のフェンスを乗り越える移動体を検出した場合、移動体の大きさ等から人物か猫等の動物かを判定し人物であれば侵入と判定する、などの機能をもつ。
ACS通過時のカメラ映像内移動体検出部110による移動体検出において移動体(人物)が2人以上なら共連れとして侵入と判定とするなど、挙動分析や侵入判定の条件も含む。
侵入と判定した場合は監視用ディスプレイ106に監視映像を優先表示して監視者に通知する。
The behavior analysis intrusion determination unit 119 is a function that analyzes the behavior of a moving object from information such as camera images, ACS, and sensors to determine intrusion.
The behavior analysis intrusion determination unit 119 is a function for determining a behavior abnormality.
For example, in the authentication by ACS, this is a function for determining and notifying a behavior different from normal, for example, when a gate open failure with the same card (ID) continues N times, it is regarded as abnormal. The condition for behavior determination can be set.
The behavior analysis intrusion determination unit 119 is a function for performing intrusion determination. For example, when a moving body that does not normally pass by or moves over the fence on the outer periphery of the site is detected, it is determined whether it is a person or an animal such as a cat from the size of the moving body, and if it is a person, it is determined to be an intrusion. It has a function.
Conditions for behavior analysis and intrusion determination are also included, such as determining that a mobile object (person) is invaded when two or more moving objects (persons) are detected by the moving object detection unit 110 in the camera image during ACS passage.
If it is determined that the intrusion has occurred, the monitoring video is preferentially displayed on the monitoring display 106 to notify the monitoring person.

監視用データベース114は、移動体監視装置104の各部が機能するための情報を記憶している。
監視用データベース114は、後述する情報を記憶しているが、例えば、カメラ間の移動の際の平均移動時間を移動体属性ごとに示す平均移動時間情報を記憶している。
監視用データベース114は、平均移動時間情報記憶部の例である。
The monitoring database 114 stores information that allows each unit of the moving object monitoring apparatus 104 to function.
The monitoring database 114 stores information to be described later. For example, the monitoring database 114 stores average moving time information indicating the average moving time for each moving object attribute when moving between cameras.
The monitoring database 114 is an example of an average travel time information storage unit.

ここで、監視用データベース114が管理している情報を説明する。
監視用データベース114は、例えば、以下に示す情報を管理している。
A)カメラ、ACS(カードリーダ等)、センサ(ドア開閉センサ)のネットワークアドレスなど設定情報。
B)カメラ、ACS(カードリーダ等)、センサ(ドア開閉センサ)の物理的な設置位置(図面データ)データ。
C)カメラ、ACS、センサのグループ化データ。
D)カメラ間の経路データ。
経路データはカメラに隣接するカメラとして保持し、2つのカメラ間の距離・平均移動時間等も保持する。
E)不正行動を判断するための挙動判定用データ
F)ACSに登録されているユーザID・通行権限情報等の利用者データベース。
利用者には社員データ、登録済み訪問者データがある。
G)カメラ切り替えスイッチと監視用ディスプレイ中の分割表示区画のデータベース。
Here, information managed by the monitoring database 114 will be described.
For example, the monitoring database 114 manages the following information.
A) Setting information such as the network address of the camera, ACS (card reader, etc.), sensor (door open / close sensor).
B) Physical installation position (drawing data) data of the camera, ACS (card reader, etc.), sensor (door open / close sensor).
C) Camera, ACS, sensor grouping data.
D) Route data between cameras.
The route data is held as a camera adjacent to the camera, and the distance between the two cameras, the average moving time, and the like are also held.
E) Behavior determination data for determining fraudulent behavior F) User database such as user ID and traffic authority information registered in ACS.
Users have employee data and registered visitor data.
G) A database of divided display sections in the camera changeover switch and the monitor display.

図2は、監視対象空間における監視カメラ等の物理的な設置例を示す。
図2は、工場の敷地など一定の範囲を外周センサ、監視カメラ、ACSを連携させて監視するシステムの例である。
外周センサとして例えば、フェンスの振動、切り破り、引っ張りを位置特定するセンサがある。これらのセンサは位置を推定(ある範囲で特定)する機構を持ち、推定位置はネットワーク100を介して図1の移動体監視装置104に通知することができる。
図2に示すように、監視カメラとセンサ、ACS(カードリーダ等)は近傍に設置されているものがある。通常、敷地への侵入、ACSの通過を行った移動体(人物)を監視カメラでとらえることができるように設置する。
図2で、C1からC7は屋外監視カメラである。図2でC01、C02、C03はビルの入り口部に設置される屋外または屋内監視カメラである。C1〜C7の周囲の破線は、各カメラの監視可能空間を示している。監視可能空間は、各カメラの撮影可能範囲である。また、図2において、C01、C02、C03には撮影可能範囲たる監視可能空間を図示していないが、C01、C02、C03にも監視可能空間がある。
アクセス制限が必要なエリアでは入退出管理装置(ACS)が設置され、厳密なセキュリティ対策が必要の無い場合は、ドアセンサと監視カメラが設置されるケースもある。
ACSやセンサが扉の開閉を検知すると、イベントを移動体監視装置104に通知し、イベントに連動して監視映像を優先的に表示することができる。
また、最近では監視カメラ単体でもカメラ内部で映像解析を行うことで移動体を検知し、監視装置に移動体検知イベントを通知できるネットワークカメラもある。
図2でカメラC11、C12はビルの任意階のドアに設置された監視カメラをあらわしている。図2のC11、C12は1フロア(1階)分しか表していないが、実際にはC21、C22など各階の居室入口や居室内でもサーバ・ルームなどセキュリティ上制限された場所の入退出をACSにより制限し、また入退出状況を監視カメラで映像監視する。また、図2において、C11、C12には撮影可能範囲たる監視可能空間を図示していないが、C11、C12にも監視可能空間がある。
FIG. 2 shows a physical installation example of a monitoring camera or the like in the monitoring target space.
FIG. 2 is an example of a system that monitors a certain range such as a factory site in cooperation with an outer peripheral sensor, a monitoring camera, and an ACS.
For example, there is a sensor for specifying the position of vibration, breaking, and pulling of the fence as an outer periphery sensor. These sensors have a mechanism for estimating (specifying within a certain range) the position, and the estimated position can be notified to the mobile monitoring apparatus 104 in FIG.
As shown in FIG. 2, some surveillance cameras, sensors, and ACS (card reader or the like) are installed in the vicinity. Usually, it installs so that the moving body (person) who penetrate | invaded the site and passed ACS can be caught with a surveillance camera.
In FIG. 2, C1 to C7 are outdoor surveillance cameras. In FIG. 2, C01, C02, and C03 are outdoor or indoor surveillance cameras installed at the entrance of the building. Broken lines around C1 to C7 indicate the monitorable space of each camera. The monitorable space is a shootable range of each camera. In FIG. 2, C01, C02, and C03 do not show a monitorable space that is an imageable range, but C01, C02, and C03 also have a monitorable space.
In areas where access restrictions are required, an entry / exit management device (ACS) is installed, and when strict security measures are not required, door sensors and surveillance cameras may be installed.
When the ACS or sensor detects the opening / closing of the door, the event is notified to the moving body monitoring device 104, and the monitoring video can be preferentially displayed in conjunction with the event.
Recently, there is also a network camera that can detect a moving object by performing video analysis inside the camera and notify the monitoring apparatus of the moving object detection event even with the monitoring camera alone.
In FIG. 2, cameras C11 and C12 represent surveillance cameras installed at doors on arbitrary floors of the building. Although C11 and C12 in FIG. 2 represent only one floor (first floor), in reality, entry and exit of security-restricted places such as server rooms in the entrances and rooms of each floor such as C21 and C22 are ACS. The video is monitored with a surveillance camera. In FIG. 2, C11 and C12 do not show a monitorable space that is an imageable range, but C11 and C12 also have a monitorable space.

図3は侵入検知時(侵入検知フェーズ)の推定侵入位置の映像表示フローを示している。
なお、図3の処理と並行して、各監視カメラ101の映像はネットワーク100を介して移動体監視装置104に送信され、カメラ映像受信部120が各監視カメラ101からの映像を常時受信しているものとする(撮影映像受信ステップ)。
図3において、例えば敷地境界の外周センサにおいて通過する移動体を検知した場合(S301)、通信機構をもつ外周センサ装置を通じて侵入推定位置を移動体監視装置104に通知する。
移動体監視装置104では、センサ移動体検出部117が、外周センサからのメッセージを受信し、通知されたメッセージの中から推定侵入位置が示された侵入位置情報を取得する(S302)。
侵入位置情報がメッセージ内に入っていない場合は、通知元のセンサを特定するIDをキーに監視用データベース114内のセンサ設置位置情報を検索して特定してもよい。
移動体監視装置104では、位置管理部115が、推定侵入位置をキーに、当該位置に近い順に監視カメラの設置位置を検索して監視カメラの候補をリストアップする。
そして、映像合成・表示切替部116が、カメラ映像受信部120が受信している複数の監視カメラの撮影映像のうち、推定侵入位置の近傍に配置されているカメラの映像を、監視用ディスプレイ106に(事前に設定された)表示可能な数だけ表示する。
例えば、図2において、外周センサが図の「侵入推定位置」を検知した場合、侵入点近傍の監視カメラはC4、C5、C3、C6、…となる(屋外監視カメラのみ対象とした場合)。
侵入検知時の映像表示設定が3台分であれば、監視用ディスプレイの表示領域にC4、C5、C3の映像が表示される。
FIG. 3 shows a video display flow of an estimated intrusion position at the time of intrusion detection (intrusion detection phase).
In parallel with the processing of FIG. 3, the video of each monitoring camera 101 is transmitted to the mobile monitoring device 104 via the network 100, and the camera video receiving unit 120 always receives the video from each monitoring camera 101. (Shooting video reception step).
In FIG. 3, for example, when a moving body passing through the perimeter sensor at the site boundary is detected (S <b> 301), the intrusion estimated position is notified to the mobile body monitoring device 104 through the outer circumference sensor device having a communication mechanism.
In the moving body monitoring device 104, the sensor moving body detection unit 117 receives a message from the outer circumference sensor, and acquires intrusion position information indicating an estimated intrusion position from the notified message (S302).
If the intrusion position information is not included in the message, the sensor installation position information in the monitoring database 114 may be searched and specified using the ID for specifying the notification source sensor as a key.
In the moving object monitoring apparatus 104, the position management unit 115 searches for the installation positions of the monitoring cameras in order from the estimated intrusion position as a key and lists the monitoring camera candidates.
Then, the video composition / display switching unit 116 displays the video of the camera arranged in the vicinity of the estimated intrusion position among the video images of the plurality of monitoring cameras received by the camera video receiving unit 120. Show as many as you can (preset).
For example, in FIG. 2, when the outer circumference sensor detects the “estimated intrusion position” in the figure, the surveillance cameras near the entry point are C4, C5, C3, C6,.
If there are three video display settings at the time of intrusion detection, C4, C5, and C3 videos are displayed in the display area of the monitor display.

表示の優先度は前述の近いものから優先表示する方法の他、監視カメラの動画解析技術により優先度を変更することもできる。
例えば、カメラ映像内移動体検出部110により映像中に移動体が映っているものを優先する。移動体検出技術は具体的な手法として、例えば背景差分法などが知られている。背景差分法とは、移動体が存在しない状態の映像データを背景として保存しておき、移動体が映っている映像データとピクセル毎の輝度値の差分を求めることで、背景には存在しなかった移動体の領域を求める方法である。そして、人物の大きさなどの情報を用いて、移動体領域を個別の人物領域に分割するなどの方法をとる。本実施の形態では、カメラ映像内移動体検出部110はこれらの既知の技術を利用する。
The priority of display can be changed by the moving image analysis technology of the surveillance camera, in addition to the method of displaying priority from the above-mentioned ones.
For example, priority is given to those in which a moving body is reflected in the video by the moving body detection unit 110 in the camera video. For example, a background subtraction method is known as a specific technique for moving object detection. The background subtraction method saves video data in a state where there is no moving object as the background, and obtains the difference between the video data showing the moving object and the luminance value for each pixel. This is a method for obtaining the area of the moving body. Then, by using information such as the size of the person, a method such as dividing the moving body area into individual person areas is adopted. In the present embodiment, the camera image moving body detection unit 110 uses these known techniques.

侵入検知フェーズにおいては、推定された位置をもとに移動体を検出し、監視員に提示することが重要である。
したがって、通常は移動体を検知したカメラを優先して表示するように設定する。監視用ディスプレイへの表示制御は移動体監視装置104内の映像合成・表示切替部116に対して表示切替ルールとして設定する。
なお、敷地境界においては、例えば猫等の動物の侵入によりセンサが反応してしまうことがある。
このため、移動体監視装置104の挙動分析侵入判定部119ではセンサにより読み取られた値に一定の閾値を設けて誤検知を減らすことができる。
また前述のカメラ映像内移動体検出部110による移動体の大きさ判定等により人物以外の移動体の場合は、誤検知の可能性があることを通知する機構を設けることも可能である。
In the intrusion detection phase, it is important to detect the moving object based on the estimated position and present it to the monitor.
Therefore, normally, the camera that detects the moving body is set to display with priority. The display control on the monitoring display is set as a display switching rule for the video composition / display switching unit 116 in the moving object monitoring device 104.
At the site boundary, the sensor may react due to the invasion of animals such as cats.
For this reason, the behavior analysis intrusion determination unit 119 of the moving object monitoring device 104 can reduce false detection by providing a certain threshold value for the value read by the sensor.
In addition, it is possible to provide a mechanism for notifying that there is a possibility of erroneous detection in the case of a moving body other than a person based on the size determination of the moving body by the above-described in-camera moving body detection unit 110.

さらに次のような機構により、現在のカメラ映像からのみではなく、過去の映像を利用して侵入者の推定をすることもできる。
カメラの映像は、カメラ映像受信部120で受信されるとともに、常に映像記録装置105(レコーダ)に記録されている。
センサの通知により侵入位置と時刻がわかる。
したがって、センサ通知後に撮影された映像であって、センサ近傍に配置されているカメラの映像を解析し、移動体が映っている過去の映像を記録装置から再生し、監視用ディスプレイの指定領域に表示することができる。
Furthermore, by the following mechanism, intruders can be estimated not only from the current camera image but also from past images.
The camera video is received by the camera video receiver 120 and is always recorded in the video recording device 105 (recorder).
The intrusion position and time can be known from the sensor notification.
Therefore, the video taken after the sensor notification is analyzed, and the video from the camera located in the vicinity of the sensor is analyzed, and the past video showing the moving object is played back from the recording device, and the video is displayed in the designated area of the monitor display. Can be displayed.

監視員はこれらの手段により表示された映像中に不審人物を発見した場合、カメラ切替スイッチ107を用いて、当該映像を選択し(追尾起点映像と)同時に追尾監視モードに切り替える。   When the monitor finds a suspicious person in the video displayed by these means, the camera switch 107 is used to select the video (with the tracking start video) and simultaneously switch to the tracking monitoring mode.

次に、図4を用いて追尾監視時(追尾監視モード)の映像表示処理フローを説明する。
先ず、監視員が、監視操作卓として機能するカメラ切替スイッチ107を操作して、選択された映像を追尾の基準映像に設定する(S401)。
基準映像は少なくとも後続の処理中は保存される。また基準映像の移動体を切り出し後続の処理の照合用に利用する。
Next, a video display processing flow at the time of tracking monitoring (tracking monitoring mode) will be described with reference to FIG.
First, the monitoring person operates the camera changeover switch 107 functioning as a monitoring console, and sets the selected video as a reference video for tracking (S401).
The reference video is saved at least during subsequent processing. Also, the moving body of the reference video is cut out and used for verification of subsequent processing.

そして、カメラ間移動経路算出部111は、監視員より基準映像として選択された映像のカメラをカレント(現在)に設定する(S402)。   Then, the inter-camera movement path calculation unit 111 sets the camera of the video selected as the reference video by the monitor to the current (current) (S402).

次に、カメラ間移動経路算出部111は、監視員より選択されたカレントカメラ(またはセンサ等)の位置情報をキーに、移動体がカレントカメラから移動可能な隣接カメラを検索する(S403)(推定撮影可能カメラ選択ステップ)。
つまり、カメラ間移動経路算出部111は、移動体を撮影中であるカレントカメラ(撮影中カメラ)から移動体が近時に撮影可能範囲に到達し近時に移動体の撮影が可能と推定される隣接カメラ(推定撮影可能カメラ)を一つ以上選択する。
Next, the inter-camera movement path calculation unit 111 searches for adjacent cameras to which the moving body can move from the current camera using the position information of the current camera (or sensor or the like) selected by the monitor as a key (S403) (S403) Estimated photographable camera selection step).
In other words, the inter-camera movement path calculation unit 111 is adjacent to the current camera that is shooting the moving body (the camera that is shooting), and the moving body is estimated to be capable of shooting the moving body in the near future. Select one or more cameras (cameras that can be estimated).

次に、カメラ間移動経路算出部111は、カレントカメラ映像を解析し、移動体(侵入者・不審者)の属性情報の補完を試みる(S404)。
例えば、カメラ映像内移動体検出部110により切り出された人物の映像から、身長、性別、年齢、識別IDがデータベースに登録されているかどうかなどである。画像解析技術により自動解析できる場合はこれらの手段を使って補完を試みる。ただし、画像解析のみでは自動補完できないケースも多いため、監視員が監視操作卓であるカメラ切替スイッチ107から補完情報を入力するようにしてもよい。
これらの属性情報は後続処理である隣接カメラへの到達時刻推定処理で利用される。
なお、侵入者等属性の補完情報は移動推定精度を向上するためのものであり必須の処理ではなくスキップすることもできる。
Next, the inter-camera movement path calculation unit 111 analyzes the current camera image and attempts to complement the attribute information of the moving object (intruder / suspicious person) (S404).
For example, the height, gender, age, and identification ID are registered in the database from the video of the person cut out by the moving body detection unit 110 in the camera video. If automatic analysis can be performed by image analysis technology, try to supplement using these means. However, since there are many cases that cannot be automatically complemented only by image analysis, the supervisor may input supplementary information from the camera changeover switch 107 that is a monitoring console.
These pieces of attribute information are used in the process for estimating the arrival time at the adjacent camera, which is a subsequent process.
Note that the complementary information of the attribute such as the intruder is for improving the movement estimation accuracy, and can be skipped instead of the essential processing.

また、図4では、隣接カメラを検索した後に侵入者・不審者の属性情報を補完するとしているが、侵入者・不審者の属性情報の補完を行った後に、隣接カメラを検索するようにしてもよいし、これら二つの処理を並行して行うようにしてもよい。   In FIG. 4, the intruder / suspicious person's attribute information is complemented after searching for the adjacent camera. However, after the intruder / suspicious person's attribute information is complemented, the neighboring camera is searched. Alternatively, these two processes may be performed in parallel.

次に、ステップS403において検索された隣接カメラの数およびシステム設定値から、映像合成・表示切替部116が、分割画面数や映像表示位置を決定する(S405)。
例えば、図2の場合、現在のカメラとしてC4が選択された場合、隣接カメラはC3,C5の他、C03、C02が候補になる。隣接カメラ数および画面分割設定値により、分割画面数を決定する。
Next, from the number of adjacent cameras searched in step S403 and the system setting value, the video composition / display switching unit 116 determines the number of divided screens and the video display position (S405).
For example, in the case of FIG. 2, when C4 is selected as the current camera, C03 and C02 are candidates as neighboring cameras in addition to C3 and C5. The number of divided screens is determined based on the number of adjacent cameras and the screen division setting value.

次に、カメラ映像内移動体検出部110が、隣接カメラごとに移動体の推定到達時刻を算出する(S406)(推定到達時刻算出ステップ)。
推定到達時刻とは、移動体が隣接カメラの各々の撮影可能範囲に到達し、隣接カメラにおいて移動体の撮影が可能になると予測される時刻である。
推定到達時刻は、図6の601及び602に示されるように、カメラごとに、例えば、移動体が1分30秒後に到着するという形で表現する。また、別の表現形式として、12時10分30秒に到着するという形で表現してもよい。
推定到達時刻の具体的な算出方法は、後述する。
Next, the camera moving body detection unit 110 calculates the estimated arrival time of the moving object for each adjacent camera (S406) (estimated arrival time calculation step).
The estimated arrival time is a time at which the moving body reaches each imageable range of the adjacent camera, and it is predicted that the moving body can be captured by the adjacent camera.
As shown in 601 and 602 of FIG. 6, the estimated arrival time is expressed for each camera, for example, in the form that the mobile body arrives after 1 minute 30 seconds. Further, as another expression format, it may be expressed in the form of arriving at 12:10:30.
A specific method for calculating the estimated arrival time will be described later.

次に、映像合成・表示切替部116が、デコード済の映像の付加情報として、各カメラの属性情報(カメラ番号・設置位置)および推定到達時刻を追加する。各カメラの属性情報は監視用データベース114を検索した結果を付加する(S407)。
これらの情報はフレーム中に合成したものを表示してもよいし、監視用ディスプレイ106の各分割画面中に文字情報表示域を設け映像とは別にこれらの付加情報を表示してもよい。
Next, the video composition / display switching unit 116 adds the attribute information (camera number / installation position) and estimated arrival time of each camera as additional information of the decoded video. The attribute information of each camera is added with the result of searching the monitoring database 114 (S407).
These pieces of information may be displayed as synthesized in a frame, or a character information display area may be provided in each divided screen of the monitoring display 106 to display these additional information separately from the video.

上記の処理の後に、映像合成・表示切替部116は、監視カメラからの映像、カメラの属性情報及び推定到達時刻を、監視員が監視する監視用ディスプレイ106に出力し、監視用ディスプレイ106が追尾映像、カメラの属性情報及び推定到達時刻を表示する(S408)(表示ステップ)。
監視員は、隣接カメラの映像中に監視中の人物が移動したことを確認した場合、移動先のカメラ映像を選択する。
隣接映像が選択された場合は(S409でYES)、選択されたカメラをあらたにカレントカメラに設定し、上記と同様の処理を行う。
After the above processing, the video composition / display switching unit 116 outputs the video from the monitoring camera, the attribute information of the camera, and the estimated arrival time to the monitoring display 106 monitored by the monitor, and the monitoring display 106 tracks. The video, camera attribute information, and estimated arrival time are displayed (S408) (display step).
When the monitoring person confirms that the person being monitored has moved in the image of the adjacent camera, the monitoring person selects the camera image of the movement destination.
If the adjacent video is selected (YES in S409), the selected camera is newly set as the current camera, and the same processing as described above is performed.

また、監視員が追尾監視終了命令を操作卓であるカメラ切替スイッチ107から発行した場合は(S410でYES)、追尾監視を終了し通常の監視モード(例えば、各カメラ映像のローテーション表示)に以降する。
監視終了命令がない場合は(S410でNO)、上記の監視映像表示を更新する。
監視映像を更新するタイミングは画像中に文字情報を合成する方式であれば映像フレーム毎に更新する。文字情報を画像情報と別の領域に表示するのであれば、設定された更新期間(例えば1秒毎など)で平均移動時間を更新期間分減じて、文字情報を更新するのが通常である。
If the monitor issues a tracking monitoring end command from the camera changeover switch 107 as the console (YES in S410), the tracking monitoring is ended and the normal monitoring mode (for example, rotation display of each camera image) is thereafter performed. To do.
If there is no monitoring end command (NO in S410), the monitoring video display is updated.
The timing for updating the monitoring video is updated for each video frame in a method of combining character information in an image. If the character information is displayed in a different area from the image information, the character information is usually updated by reducing the average moving time by the update period in a set update period (for example, every second).

図6は、監視用ディスプレイ106における追尾監視画面の表示例を示す。
図6の601では、現在、移動体が映っているカレントカメラの撮影映像と、カレントカメラに隣接する隣接カメラの撮影映像とを表示している。また、隣接カメラの各々の属性情報(例えば、カメラ5C等のカメラ番号、屋外北東等の設置位置)、隣接カメラの推定到達時刻(例えば、1:50後)をカメラ映像とともに併せて表示する。
また、図6の602に示すように、カレントカメラに隣接する機器がACSやセンサの場合、カメラの映像の分割表示のみでなくレイアウト図上に移動体の推定位置を表示した画面を表示してもよい。
FIG. 6 shows a display example of the tracking monitoring screen on the monitoring display 106.
Reference numeral 601 in FIG. 6 displays a captured image of the current camera in which the moving object is currently displayed and a captured image of an adjacent camera adjacent to the current camera. Also, the attribute information of each adjacent camera (for example, the camera number of the camera 5C and the like, the installation position such as the outdoor northeast) and the estimated arrival time of the adjacent camera (for example, after 1:50) are displayed together with the camera video.
In addition, as shown by 602 in FIG. 6, when the device adjacent to the current camera is an ACS or a sensor, a screen displaying the estimated position of the moving object is displayed on the layout diagram in addition to the divided display of the camera image. Also good.

次に、移動体の隣接カメラへの推定到達時刻の算出方式について説明する。
時刻推定は、監視用データベース114内の経路情報管理データベースの情報を用いて、カメラ間移動経路算出部111が行う。
図5に、経路情報管理データベースの概略を示す。
なお、経路情報管理データベースは、カメラ間の移動の際の平均移動時間を移動体属性ごとに示す情報であり、平均移動時間情報の例である。
Next, a method for calculating the estimated arrival time of the moving body at the adjacent camera will be described.
The time estimation is performed by the inter-camera movement route calculation unit 111 using information in the route information management database in the monitoring database 114.
FIG. 5 shows an outline of the route information management database.
The route information management database is information indicating the average moving time for each moving object attribute when moving between cameras, and is an example of average moving time information.

監視用データベース114では、経路情報としては、基本的にはカメラとカメラ間の隣接情報のみ保持する。
特に、始点・終点とも屋内カメラの場合は通常ACSやセンサとともに設置されていることが多く、また、カメラ単独で設置されていても通路に対して監視空間の死角が生じないように設置するため基本的にはカメラ間情報は隣接カメラのみ保持すればよい。
しかし、屋外のカメラについては監視対象空間が広いため死角が生じやすく、また画像も天候、時間などの環境影響をうけるため、各映像監視点における移動体の監視について画像解析の誤解析、監視員監視漏れが生じる可能性が大きくなる。
したがって、屋外カメラ間などは隣接していないカメラについても2点間情報として保持する。
In the monitoring database 114, as the route information, basically, only adjacent information between cameras is stored.
In particular, indoor and outdoor cameras are usually installed together with ACS and sensors, and even if the camera is installed alone, it is installed so that no blind spot in the monitoring space is generated with respect to the passage. Basically, it is only necessary to store the information between cameras for the adjacent cameras.
However, because outdoor cameras have a large space to be monitored, blind spots are likely to occur, and the images are also subject to environmental influences such as weather and time. The possibility of monitoring omission increases.
Therefore, the information between two cameras is also stored as information between two points even if the cameras are not adjacent to each other.

2点間の移動時間は、移動体の属性により大きく異なり、単純に2点間距離を移動体の平均速度で割って推定到達時刻を求める方法では一般的に精度が悪い。
例えば、位置関係を熟知している社員と外部からの初回来訪者では目的地点までに到達する移動時間は異なる。また、徒歩、駆け足で移動する場合などでも到達時刻は異なってくる。
そこで本実施の形態に係る監視用データベース114では、図5のように、2点間の平均移動時間を移動体の属性毎に管理する。
例えば、図5の表中、平均移動時間Aは、敷地内についてよく知らない外部の初回来訪者・男性が徒歩で移動した場合の平均移動時間である。平均移動時間Bは、敷地内に精通している社員・男性が徒歩で移動した場合の平均移動時間である。平均移動時間Cは、敷地内に精通している社員・男性が駆け足で移動した場合の平均移動時間である。
このように、本実施の形態に係る経路情報管理データベースでは、平均移動時間を、移動体の属性により管理しておく。移動体の属性が不明の場合は、平均移動時間Aを使う、など予め決めておく。
この経路情報管理データベースでは、移動体属性毎の平均移動時間が重要であり、2点間の距離は必須ではないが可能な限り収集しておき、平均移動時間の情報が記録されていない場合に利用する。またカメラ間が隣接関係にあるかどうかの情報も保持してもよい。
同一2点間の移動であっても逆向きの場合に移動時間が異なることもありうる。たとえば、初回の訪問者は行きと帰りで位置関係の誤認が生じやすく異なる場合も多い。また、階段の上り下り等でも移動時間が異なる場合がある。そのため、逆向きの移動も区別できるように隣接データを保持する。
The moving time between two points varies greatly depending on the attribute of the moving object, and the method of simply dividing the distance between the two points by the average speed of the moving object to obtain the estimated arrival time generally has poor accuracy.
For example, the travel time to reach the destination differs between employees who are familiar with the positional relationship and first-time visitors from outside. In addition, the arrival time differs even when moving on foot or on foot.
Therefore, in the monitoring database 114 according to the present embodiment, as shown in FIG. 5, the average moving time between two points is managed for each attribute of the moving object.
For example, in the table of FIG. 5, the average travel time A is the average travel time when an external first-time visitor / male who is not familiar with the site travels on foot. The average travel time B is the average travel time when employees / men who are familiar with the site travel on foot. The average moving time C is an average moving time when employees / men who are familiar with the site move quickly.
Thus, in the route information management database according to the present embodiment, the average moving time is managed based on the attributes of the moving object. If the attribute of the moving object is unknown, the average moving time A is used in advance.
In this route information management database, the average moving time for each moving object attribute is important, and the distance between two points is not essential, but it is collected as much as possible, and the information of the average moving time is not recorded Use. Information about whether the cameras are adjacent to each other may also be held.
Even if the movement is between the same two points, the movement time may be different if the movement is in the opposite direction. For example, first-time visitors are likely to be misidentified in the positional relationship between going and returning, and often differ. Also, the travel time may be different even when going up and down stairs. Therefore, the adjacent data is held so that the reverse movement can be distinguished.

上記のようなデータベースが整備されていることを前提とすると、図4の推定到達時刻の計算は次のように簡単に導出することが可能である。
以下にて、カメラ間移動経路算出部111が、カレントカメラの隣接カメラを抽出するとともに、各隣接カメラの推定到達時刻を導出する手順を説明する。
カメラ間移動経路算出部111は、監視員に選択された映像の送信元であるカレントカメラの識別IDをキーに図5の表中の行を選択する。
例えば、今、カメラC4の映像が選択された場合、カメラ間移動経路算出部111は、図5の表で始点カメラがC4になっている行を選択する。C4は屋外カメラなので一般的には隣接フラグが偽(すなわちカメラをグラフのノードにして経路グラフ上にならべた場合に隣あう関係にない場合)であっても抽出するほうがよい。
次に、カメラ間移動経路算出部111は、カメラ映像中の移動体から分析した属性情報、もしくは監視者が映像を視認して操作卓から入力した属性情報を利用して抽出された行のうち平均移動時間のうちもっとも移動体の属性に近いものを選択する。これにより2点間の推定移動時間が求まる。
後は、カメラ間移動経路算出部111は、この情報を元に、移動体が映っている監視カメラ映像を更新するタイミングで平均移動時間から経過時間を順次減じて推定到達時刻とし、映像合成・表示切替部116が推定到達時刻を監視用ディスプレイ106に表示する。
Assuming that the database as described above is maintained, the calculation of the estimated arrival time in FIG. 4 can be easily derived as follows.
Hereinafter, a procedure in which the inter-camera movement path calculation unit 111 extracts the adjacent cameras of the current camera and derives the estimated arrival time of each adjacent camera will be described.
The inter-camera movement path calculation unit 111 selects a row in the table of FIG. 5 using the identification ID of the current camera that is the transmission source of the video selected by the monitor as a key.
For example, when the video of the camera C4 is now selected, the inter-camera movement path calculation unit 111 selects the row in which the start camera is C4 in the table of FIG. Since C4 is an outdoor camera, it is generally better to extract even if the adjacency flag is false (that is, when there is no adjacent relationship when the camera is set as a node in the graph and placed on the path graph).
Next, the inter-camera movement path calculation unit 111 extracts attribute information analyzed from a moving object in the camera image, or extracted from the attribute information input from the console by the observer viewing the image. The average moving time that is closest to the attribute of the moving object is selected. Thereby, the estimated movement time between two points is obtained.
After that, based on this information, the inter-camera movement path calculation unit 111 sequentially subtracts the elapsed time from the average movement time at the timing of updating the surveillance camera video in which the moving object is reflected, and obtains the estimated arrival time. The display switching unit 116 displays the estimated arrival time on the monitoring display 106.

属性毎の平均移動時間に採用する平均移動時間については、次のように選択することもできる。
まず、カメラ間移動経路算出部111は、属性情報が不明の場合、初回の経路推定ではもっとも平均的な平均移動時間(デフォルト値)を使って推定する。
そして、移動体が移動元監視カメラから移動先の監視カメラに移動した場合、すなわち、実際の2点間の移動時間(実測移動時間)が確定した時点で、その2点間についての複数の平均移動時間のうち実測移動時間に最も近い平均移動時間を検索し、その移動体属性を移動体の新たな推定属性とし、次回の移動先の移動時間推定に利用する。
移動体による2点間の実際の移動時間は、例えば、監視員が手動で計測してもよいし、実施の形態2で説明する方法を用いて計測してもよい。また、他の方法で計測してもよい。
About the average movement time employ | adopted as the average movement time for every attribute, it can also select as follows.
First, when the attribute information is unknown, the inter-camera movement route calculation unit 111 estimates using the average average movement time (default value) in the first route estimation.
When the moving body moves from the source monitoring camera to the destination monitoring camera, that is, when the actual moving time between two points (actually measured moving time) is determined, a plurality of averages between the two points are determined. The average travel time closest to the actually measured travel time is retrieved from the travel times, and the mobile object attribute is set as a new estimated attribute of the mobile object, which is used for the next travel time estimation of the destination.
The actual movement time between two points by the moving body may be measured manually by a monitoring person or may be measured using the method described in the second embodiment. Moreover, you may measure by another method.

このように、本実施の形態に係る移動体監視装置を含む監視システムは、例えば空港、工場等の構内、オフィスビル、金融(夜間)無人店舗等のセキュリティゾーンにおいて不正侵入を検知し、追跡する監視システムとして利用することができる。
そして、本実施の形態によれば、監視対象領域内の移動体に対する追跡精度が向上し、また注目している移動体の追跡に適した映像表示を行うことにより監視員の負担が軽減され、ひいては追跡ロスを減らすことができる。
As described above, the monitoring system including the mobile monitoring device according to the present embodiment detects and tracks unauthorized intrusion in security zones such as airports, factories, etc., office buildings, financial (night) unmanned stores, and the like. It can be used as a monitoring system.
And according to the present embodiment, the tracking accuracy for the moving body in the monitoring target area is improved, and the burden on the monitoring person is reduced by performing video display suitable for tracking the moving body of interest, As a result, tracking loss can be reduced.

以上、本実施の形態では、監視対象空間に分散して複数のカメラ、入退出管理装置、センサが設置されたシステムにおいて、カメラ、入退出管理装置、センサにより移動体を検知・識別する手段と、移動体のカメラ間の移動経路等を算出する手段と、監視用データベースと、前記移動対象の映像や状態を表示する表示装置を備えた監視システムについて説明した。
また、本実施の形態では、移動体の追跡を行うにあたって、移動体が現在映っている監視カメラ映像と進行する可能性のある隣接カメラの監視カメラ映像を分割表示し、かつ移動先の隣接カメラ表示に推定到達時間(あとどれだけで到着するか)や分割フレームの強調表示等の手段で画面を合成し表示することで隣接画像のうちどれに着目すべきかをサポートする監視システムについて説明した。
As described above, in the present embodiment, in a system in which a plurality of cameras, entrance / exit management devices, and sensors are installed in a space to be monitored, the camera, the entrance / exit management device, and the means for detecting / identifying the moving body by the sensors A monitoring system including a means for calculating a movement route between cameras of a moving body, a monitoring database, and a display device for displaying the moving target image and state has been described.
In this embodiment, when tracking a moving object, the moving camera currently displays a monitoring camera image and a monitoring camera image of an adjacent camera that may travel, and displays a moving destination adjacent camera. A monitoring system that supports which of the adjacent images should be noted by combining and displaying the screen by means such as estimated arrival time (how much it will arrive later) and highlighting of divided frames has been described.

実施の形態2.
実施の形態1に示した処理を前提とする場合、図5の経路情報管理データベースのうち、属性毎の平均移動時間を簡易に自動生成する手段が望まれる。
そこで、本実施の形態では、2つのカメラ間の平均移動時間を生成する手順について説明する。
Embodiment 2. FIG.
When the processing shown in the first embodiment is assumed, a means for easily and automatically generating the average movement time for each attribute in the route information management database of FIG. 5 is desired.
Therefore, in the present embodiment, a procedure for generating an average moving time between two cameras will be described.

図1に示す移動体監視装置104において、カメラ映像内移動体検出部110は、第一のカメラからの撮影映像を解析して当該第一の監視カメラからの撮影映像中から特定の標本移動体を識別し、第二のカメラからの撮影映像を解析して第二の監視カメラからの撮影映像中から特定の標本移動体を識別する。
また、カメラ間経路学習部118は、カメラ映像内移動体検出部110が、第一のカメラからの撮影映像中から特定の標本移動体が当該第一のカメラの撮影可能範囲から離れたことを識別した時刻と、第二のカメラからの撮影映像中から特定の標本移動体が当該第二のカメラの撮影可能範囲に入ったことを識別した時刻との差を、第一のカメラから第二のカメラまでの平均移動時間として算出する。
そして、平均移動時間の算出にあたり、標本移動体を監視対象空間の移動経路を理解している者、移動経路を理解していない者とすることで、カメラ間経路学習部118は、監視対象空間の移動経路を理解している者が歩行した際の平均移動時間、監視対象空間の移動経路を理解している者が走行した際(駆け足の際)の平均移動時間、監視対象空間の移動経路を理解していない者(部外者)が歩行した際の平均移動時間といった移動体の属性ごとに平均移動時間を算出することができる。
そして、監視用データベース114は、カメラ間経路学習部118により算出された移動体の属性ごとの平均移動時間、すなわち、監視対象空間の移動経路を理解している者が歩行した際の平均移動時間、監視対象空間の移動経路を理解している者が走行した際の平均移動時間、監視対象空間の移動経路を理解していない者が歩行した際の平均移動時間等を記憶している。
In the moving body monitoring apparatus 104 shown in FIG. 1, the moving body detecting unit 110 in the camera image analyzes a captured image from the first camera and selects a specific sample moving body from the captured images from the first monitoring camera. And analyzing a captured video from the second camera to identify a specific specimen moving body from the captured video from the second surveillance camera.
Further, the inter-camera path learning unit 118 confirms that the moving body detection unit 110 in the camera image has moved away from the shootable range of the first camera in the captured image from the first camera. The difference between the identified time and the time at which the specific sample moving body is identified as being within the shootable range of the second camera from the captured image from the second camera is calculated from the first camera to the second. Calculated as the average travel time to the camera.
In calculating the average moving time, the inter-camera path learning unit 118 makes the sample moving body a person who understands the moving path of the monitoring target space and a person who does not understand the moving path, so that the inter-camera path learning unit 118 The average travel time when a person who understands the travel route walks, the average travel time when the person who understands the travel route of the monitored space travels (when running), the travel route of the monitored space The average moving time can be calculated for each attribute of the moving body such as the average moving time when a person who does not understand (outsider) walks.
The monitoring database 114 stores the average moving time for each attribute of the moving object calculated by the inter-camera path learning unit 118, that is, the average moving time when a person who understands the moving path of the monitoring target space walks. The average movement time when a person who understands the movement path of the monitoring target space travels, the average movement time when a person who does not understand the movement path of the monitoring target space walks, and the like are stored.

次に、本実施の形態における平均移動時間の導出時の動作について説明する。
本実施の形態では、屋外カメラなど、カメラが単独で設置されることの多い場合の2カメラ間の平均移動時間を求める方法として、次のように標本移動体を利用する方法で実施する。
まず画像解析で識別しやすい標本移動体を用意する。例えば、画像解析によって認識精度が高い記号を表示したゼッケン(たとえば数字や○印などの記号)を標本移動体(登録済みユーザ)が装着する。
移動体監視装置104において、計測する2地点(始点、終点)のカメラを選択し、標本移動体の属性(社員か部外者か、男性か女性か、歩行か走行か等)、識別用の画像を指定して計測を開始する。
この状態で標本移動体は始点から終点に移動する。
標本となる移動体は、始点のカメラ、終点のカメラに撮影されるように移動する。
移動体監視装置104では、カメラ映像受信部120が、始点のカメラ及び終点のカメラの各々の映像を受信し、カメラ映像内移動体検出部110が始点カメラの映像及び終点カメラの映像を解析する。カメラ映像内移動体検出部110は、始点カメラの映像から標本移動体が姿を消したか否か、すなわち、標本移動体が始点カメラの撮影可能範囲から外れたか否かを解析し、また、終点カメラの映像に標本移動体が出現したか否か、すなわち、標本移動体が終点カメラの撮影可能範囲に入ったか否かを判断する。
カメラ間経路学習部118は、標本移動体が始点のカメラの撮影可能範囲から外れた時点から時間の計測をはじめ、標本移動体が終点のカメラの撮影可能範囲に入った時点で計測を完了し、2地点間の移動にかかった時間を求める。この2地点間の移動にかかった時間を平均移動時間とする。
この処理はリアルタイム性は特に必要ないため、映像記録装置に一旦蓄積した画像を解析することでデータを生成することもできる。
Next, the operation at the time of deriving the average travel time in the present embodiment will be described.
In the present embodiment, as a method for obtaining the average moving time between two cameras when the camera is often installed alone, such as an outdoor camera, the method using a specimen moving body is performed as follows.
First, prepare a specimen moving body that can be easily identified by image analysis. For example, a specimen moving body (registered user) wears a bib (a symbol such as a number or a circle) that displays a symbol with high recognition accuracy by image analysis.
In the moving object monitoring device 104, the camera of two points (start point, end point) to be measured is selected, the attribute of the sample moving object (employee or outsider, male or female, walking or running, etc.), for identification Specify the image and start measurement.
In this state, the specimen moving body moves from the start point to the end point.
The moving body to be a specimen moves so as to be photographed by the start point camera and the end point camera.
In the moving body monitoring apparatus 104, the camera image receiving unit 120 receives the images of the start point camera and the end point camera, and the in-camera image moving body detection unit 110 analyzes the start point camera image and the end point camera image. . The in-camera moving body detection unit 110 analyzes whether or not the specimen moving body has disappeared from the video of the starting point camera, that is, whether or not the specimen moving body has fallen out of the shooting range of the starting point camera. It is determined whether or not a specimen moving body has appeared in the video of the camera, that is, whether or not the specimen moving body has entered the shootable range of the end point camera.
The inter-camera path learning unit 118 starts time measurement from the time when the sample moving body deviates from the shootable range of the starting camera, and completes measurement when the sample moving body enters the shootable range of the end camera. Find the time taken to move between two points. The time taken for the movement between the two points is defined as the average movement time.
Since this process does not require real-time characteristics, data can also be generated by analyzing an image once stored in the video recording apparatus.

次に、カメラと組にしてACS装置(やセンサ)が設置されている場合の移動時間の求め方を説明する。ACSでは各地点を通過した時刻は各ID別(人別)記録している。
このようなケースではACS(やセンサ)の扉の通過時刻を利用して、2点間の監視カメラの平均移動時間を求めることができる。
例えば、社員Aが、図2に示すC1からC01に移動(出社)する場合、ICカードリーダをACS−1に読み込ませ、次にACS−02に読み込ませて認証/認可処理を行い、扉を通過する。
通行記録はACSのログとして記録されているため、社員単位で時刻でソートし、各ACSと組みになっているカメラ間の平均移動時間を求めることが可能である。
各社員の地点間平均移動距離を求めたら、次に各社員の移動平均を属性毎に分類し、これを平均することで、2地点間の属性毎の平均移動時間を求めることができる。
また、来訪者のように敷地内を熟知していない移動体(人物)の平均移動時間は、通常、来訪用のカードを貸し出すため、ACS内のログを来訪用貸し出しカードのIDで時刻でソートし2地点間の通過時刻より計算することで移動時間を求めることができる。
つまり、本実施の形態では、カメラ間経路学習部118は、第一のカメラの近傍に配置された第一の入退室管理装置又は第一のセンサを特定の移動体が通過した時刻と、第二のカメラの近傍に配置された第二の入退室管理装置又は第二のセンサを当該特定の移動体が通過した時刻とを示す情報(ログ)を取得し、第一の入退室管理装置又は第一のセンサを特定の移動体が通過した時刻と、第二の入退室管理装置又は第二のセンサを特定の移動体が通過した時刻との差を、第一のカメラから第二のカメラまでの平均移動時間として算出する。
Next, how to determine the travel time when an ACS device (or sensor) is installed in combination with a camera will be described. In ACS, the time of passing through each point is recorded for each ID (for each person).
In such a case, the average moving time of the monitoring camera between two points can be obtained by using the passage time of the ACS (or sensor) door.
For example, when employee A moves (enters office) from C1 to C01 shown in FIG. 2, the IC card reader is read into ACS-1, and then read into ACS-02 for authentication / authorization processing, and the door is opened. pass.
Since the traffic records are recorded as ACS logs, it is possible to sort by time for each employee and obtain the average travel time between cameras paired with each ACS.
After obtaining the average movement distance between the points of each employee, the average movement time of each attribute between the two points can be obtained by classifying the movement average of each employee for each attribute and averaging this.
In addition, the average travel time of a moving object (person) who is not familiar with the site, such as a visitor, is usually lent out for visiting cards, so the logs in the ACS are sorted by time of visitor lending card ID. However, the travel time can be obtained by calculating from the passing time between the two points.
That is, in the present embodiment, the inter-camera path learning unit 118 includes the time when a specific moving object passes through the first entrance / exit management device or the first sensor arranged in the vicinity of the first camera, Information (log) indicating the second entry / exit management device or the second sensor disposed near the second camera and the time when the specific moving body passes through the first entry / exit management device or The difference between the time when the specific moving body passes the first sensor and the time when the specific moving body passes the second entrance / exit management device or the second sensor is determined from the first camera to the second camera. Calculated as the average travel time until.

また、前述のとおり各監視カメラの設置位置はカメラ設置時等に設定することが多い。
例えば屋外であれば、GPS(Global PosItioning System)等を利用することにより設置位置を正確に測量し、監視用データベースに設定することが可能である。
また、屋内については、ビルの設計図面上のカメラ設置位置から設置場所情報を設定し保存することも可能である。これらの位置情報から2点間の距離を求め、2点間の距離と監視カメラの画像解析等から移動体の平均移動速度を求め、移動先および到着時刻の推定を行うことも可能である。
In addition, as described above, the installation position of each surveillance camera is often set when the camera is installed.
For example, if it is outdoors, the installation position can be accurately measured by using a GPS (Global Positioning System) or the like and set in the monitoring database.
In addition, for indoors, installation location information can be set and stored from the camera installation location on the design drawing of the building. It is also possible to obtain the distance between the two points from these position information, obtain the average moving speed of the moving body from the distance between the two points and the image analysis of the surveillance camera, etc., and estimate the destination and arrival time.

上述したように、追跡時の経路を算出するためには、移動経路上にある各監視カメラ、ACS、センサ間接続情報や物理的経路の情報(データベース)が必要になるが、これを図面等の情報からマニュアル入力するのは手間がかかり導入コストが高くなる。
このため、本実施の形態に係る移動体監視装置は、ID特定の容易な移動体(画像認識の場合は例えば画像認識率の高いマークや洋服をきた人物)を使って、実際に経路上の2地点(例えば隣接カメラ)を移動し、隣接情報、移動平均時間等をDB化する機能を備える。
そして、移動経路に関するデータは標本移動体により学習させることで、図面情報の入力コストを抑えることができる。
As described above, in order to calculate a tracking route, each monitoring camera, ACS, inter-sensor connection information and physical route information (database) on the moving route are required. It takes time and effort to manually input from this information, and the introduction cost increases.
For this reason, the mobile body monitoring apparatus according to the present embodiment uses a mobile body that can easily identify an ID (in the case of image recognition, for example, a person with a high image recognition rate or a person who has clothes) on the route. It has a function of moving two points (for example, adjacent cameras) and making adjacent information, moving average time, and the like into a DB.
And the data regarding a movement path | route can be learned by a sample moving body, and the input cost of drawing information can be held down.

以上、本実施の形態では、経路データベースの平均移動時間の自動生成処理について説明した。
具体的には、移動平均時間データの生成において、通過ログの解析や画像解析精度の高い標本移動体を使ってカメラ間の隣接状態や平均移動時間を自動生成し、到着時刻推定を効率化する処理方式について説明した。
As described above, in the present embodiment, the automatic generation processing of the average movement time of the route database has been described.
Specifically, in the generation of moving average time data, the adjacent state between cameras and the average moving time are automatically generated using a sample moving body with high analysis accuracy of passage logs and image analysis, and the arrival time estimation is made efficient. The processing method has been described.

最後に、実施の形態1、2に示した移動体監視装置104のハードウェア構成例について説明する。
図7は、実施の形態1、2に示す移動体監視装置104のハードウェア資源の一例を示す図である。
なお、図7の構成は、あくまでも移動体監視装置104のハードウェア構成の一例を示すものであり、移動体監視装置104のハードウェア構成は図7に記載の構成に限らず、他の構成であってもよい。
Finally, a hardware configuration example of the moving object monitoring apparatus 104 shown in the first and second embodiments will be described.
FIG. 7 is a diagram illustrating an example of hardware resources of the mobile monitoring apparatus 104 shown in the first and second embodiments.
Note that the configuration of FIG. 7 is merely an example of the hardware configuration of the mobile monitoring device 104, and the hardware configuration of the mobile monitoring device 104 is not limited to the configuration shown in FIG. There may be.

図7において、移動体監視装置104は、プログラムを実行するCPU911(Central Processing Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサともいう)を備えている。CPU911は、バス912を介して、例えば、ROM(Read Only Memory)913、RAM(Random Access Memory)914、通信ボード915、表示装置901、キーボード902、マウス903、磁気ディスク装置920と接続され、これらのハードウェアデバイスを制御する。更に、CPU911は、FDD904(Flexible Disk Drive)、コンパクトディスク装置905(CDD)、プリンタ装置906、スキャナ装置907と接続していてもよい。また、磁気ディスク装置920の代わりに、光ディスク装置、メモリカード読み書き装置などの記憶装置でもよい。
RAM914は、揮発性メモリの一例である。ROM913、FDD904、CDD905、磁気ディスク装置920の記憶媒体は、不揮発性メモリの一例である。これらは、記憶装置の一例である。
通信ボード915、キーボード902、マウス302、スキャナ装置907、FDD904などは、入力装置の一例である。
また、通信ボード915、表示装置901、プリンタ装置906などは、出力装置の一例である。
監視用データベース114、映像記録装置105は、例えば、磁気ディスク装置920により実現される。
カメラ切替スイッチ107は、例えば、キーボード902、マウス302により実現される。
また、監視用ディスプレイ106は、例えば、表示装置901により実現される。
In FIG. 7, the mobile monitoring device 104 includes a CPU 911 (also referred to as a central processing unit, a central processing unit, a processing unit, a processing unit, a microprocessor, a microcomputer, and a processor) that executes a program. The CPU 911 is connected to, for example, a ROM (Read Only Memory) 913, a RAM (Random Access Memory) 914, a communication board 915, a display device 901, a keyboard 902, a mouse 903, and a magnetic disk device 920 via a bus 912. Control hardware devices. Further, the CPU 911 may be connected to an FDD 904 (Flexible Disk Drive), a compact disk device 905 (CDD), a printer device 906, and a scanner device 907. Further, instead of the magnetic disk device 920, a storage device such as an optical disk device or a memory card read / write device may be used.
The RAM 914 is an example of a volatile memory. The storage media of the ROM 913, the FDD 904, the CDD 905, and the magnetic disk device 920 are an example of a nonvolatile memory. These are examples of the storage device.
The communication board 915, the keyboard 902, the mouse 302, the scanner device 907, the FDD 904, and the like are examples of input devices.
The communication board 915, the display device 901, the printer device 906, and the like are examples of output devices.
The monitoring database 114 and the video recording device 105 are realized by a magnetic disk device 920, for example.
The camera changeover switch 107 is realized by a keyboard 902 and a mouse 302, for example.
The monitoring display 106 is realized by the display device 901, for example.

通信ボード915は、図1に示すように、ネットワークに接続されている。例えば、通信ボード915は、LAN(ローカルエリアネットワーク)、インターネット、WAN(ワイドエリアネットワーク)などに接続されていても構わない。
磁気ディスク装置920には、オペレーティングシステム921(OS)、ウィンドウシステム922、プログラム群923、ファイル群924が記憶されている。プログラム群923のプログラムは、CPU911、オペレーティングシステム921、ウィンドウシステム922により実行される。
As shown in FIG. 1, the communication board 915 is connected to a network. For example, the communication board 915 may be connected to a LAN (local area network), the Internet, a WAN (wide area network), or the like.
The magnetic disk device 920 stores an operating system 921 (OS), a window system 922, a program group 923, and a file group 924. The programs in the program group 923 are executed by the CPU 911, the operating system 921, and the window system 922.

上記プログラム群923には、実施の形態1、2の説明において「〜部」として説明している機能を実行するプログラムが記憶されている。
プログラムは、CPU911により読み出され実行される。
The program group 923 stores programs for executing the functions described as “˜units” in the description of the first and second embodiments.
The program is read and executed by the CPU 911.

ファイル群924には、実施の形態1、2の説明において、「〜の検知」、「〜の判断」、「〜の計算」、「〜の比較」、「〜の検索」、「〜の評価」、「〜の更新」、「〜の設定」、「〜の登録」等として説明している処理の結果を示す情報やデータや信号値や変数値やパラメータが、「〜ファイル」や「〜データベース」の各項目として記憶されている。
「〜ファイル」や「〜データベース」は、ディスクやメモリなどの記録媒体に記憶される。ディスクやメモリになどの記憶媒体に記憶された情報やデータや信号値や変数値やパラメータは、読み書き回路を介してCPU911によりメインメモリやキャッシュメモリに読み出され、抽出・検索・参照・比較・演算・計算・処理・編集・出力・印刷・表示などのCPUの動作に用いられる。
抽出・検索・参照・比較・演算・計算・処理・編集・出力・印刷・表示のCPUの動作の間、情報やデータや信号値や変数値やパラメータは、メインメモリ、レジスタ、キャッシュメモリ、バッファメモリ等に一時的に記憶される。
また、実施の形態1、2で説明しているフローチャートの矢印の部分は主としてデータや信号の入出力を示し、データや信号値は、RAM914のメモリ、FDD904のフレキシブルディスク、CDD905のコンパクトディスク、磁気ディスク装置920の磁気ディスク、その他光ディスク、ミニディスク、DVD等の記録媒体に記録される。また、データや信号は、バス912や信号線やケーブルその他の伝送媒体によりオンライン伝送される。
In the file group 924, in the description of the first and second embodiments, “detection of”, “determination of”, “calculation of”, “comparison of”, “search of”, “evaluation of”. ”,“ Update of ”,“ Setting of ”,“ Registration of ”, etc. Information, data, signal values, variable values, and parameters indicating the results of the processing are described as“ ˜file ”or“ ˜ It is stored as each item of “Database”.
The “˜file” and “˜database” are stored in a recording medium such as a disk or a memory. Information, data, signal values, variable values, and parameters stored in a storage medium such as a disk or memory are read out to the main memory or cache memory by the CPU 911 via a read / write circuit, and extracted, searched, referenced, compared, Used for CPU operations such as calculation, calculation, processing, editing, output, printing, and display.
Information, data, signal values, variable values, and parameters are stored in the main memory, registers, cache memory, and buffers during the CPU operations of extraction, search, reference, comparison, calculation, processing, editing, output, printing, and display. It is temporarily stored in a memory or the like.
The arrows in the flowcharts described in the first and second embodiments mainly indicate input / output of data and signals. The data and signal values are the memory of the RAM 914, the flexible disk of the FDD904, the compact disk of the CDD905, and the magnetic field. Recording is performed on a recording medium such as a magnetic disk of the disk device 920, other optical disks, mini disks, DVDs, and the like. Data and signals are transmitted online via a bus 912, signal lines, cables, or other transmission media.

また、実施の形態1、2の説明において「〜部」として説明しているものは、「〜回路」、「〜装置」、「〜機器」、であってもよく、また、「〜ステップ」、「〜手順」、「〜処理」であってもよい。すなわち、「〜部」として説明しているものは、ROM913に記憶されたファームウェアで実現されていても構わない。或いは、ソフトウェアのみ、或いは、素子・デバイス・基板・配線などのハードウェアのみ、或いは、ソフトウェアとハードウェアとの組み合わせ、さらには、ファームウェアとの組み合わせで実施されても構わない。ファームウェアとソフトウェアは、プログラムとして、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD等の記録媒体に記憶される。プログラムはCPU911により読み出され、CPU911により実行される。すなわち、プログラムは、実施の形態1、2の「〜部」としてコンピュータを機能させるものである。あるいは、実施の形態1、2の「〜部」の手順や方法をコンピュータに実行させるものである。   In addition, what is described as “˜unit” in the description of the first and second embodiments may be “˜circuit”, “˜device”, “˜device”, and “˜step”. , “˜procedure”, and “˜processing”. That is, what is described as “˜unit” may be realized by firmware stored in the ROM 913. Alternatively, it may be implemented only by software, or only by hardware such as elements, devices, substrates, and wirings, by a combination of software and hardware, or by a combination of firmware. Firmware and software are stored as programs in a recording medium such as a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, and a DVD. The program is read by the CPU 911 and executed by the CPU 911. That is, the program causes the computer to function as the “˜unit” in the first and second embodiments. Alternatively, the computer executes the procedure and method of “to unit” in the first and second embodiments.

このように、実施の形態1、2に示す移動体監視装置104は、処理装置たるCPU、記憶装置たるメモリ、磁気ディスク等、入力装置たるキーボード、マウス、通信ボード等、出力装置たる表示装置、通信ボード等を備えるコンピュータであり、上記したように「〜部」として示された機能をこれら処理装置、記憶装置、入力装置、出力装置を用いて実現するものである。   As described above, the mobile monitoring device 104 shown in the first and second embodiments includes a CPU as a processing device, a memory as a storage device, a magnetic disk, a keyboard as an input device, a mouse, a communication board, and a display device as an output device, A computer including a communication board or the like, and implements the functions indicated as “˜units” as described above using these processing devices, storage devices, input devices, and output devices.

実施の形態1に係る監視システムの構成例を示す図。1 is a diagram illustrating a configuration example of a monitoring system according to Embodiment 1. FIG. 実施の形態1に係る監視カメラ等の設置例を示す図。FIG. 3 shows an installation example of a monitoring camera or the like according to the first embodiment. 実施の形態1に係る侵入検知時の映像表示フローを示すフローチャート図。FIG. 3 is a flowchart showing a video display flow at the time of intrusion detection according to the first embodiment. 実施の形態1に係る追尾監視時の映像表示フローを示すフローチャート図。FIG. 3 is a flowchart showing a video display flow during tracking monitoring according to the first embodiment. 実施の形態1に係る移動時間計算用データベースの例を示す図。The figure which shows the example of the database for travel time calculation which concerns on Embodiment 1. FIG. 実施の形態1に係る追尾監視画面表示例を示す図。FIG. 5 is a diagram showing a tracking monitoring screen display example according to the first embodiment. 実施の形態1、2に係る移動体監視装置のハードウェア構成例を示す図。The figure which shows the hardware structural example of the moving body monitoring apparatus which concerns on Embodiment 1,2.

符号の説明Explanation of symbols

100 ネットワーク、101 カメラ、102 入退出管理装置、103 センサ、104 移動体監視装置、105 映像記録装置、106 監視用ディスプレイ、107 カメラ切替スイッチ、110 カメラ映像内移動体検出部、111 カメラ間移動経路算出部、112 カメラ間移動体整合度算出部、113 ACS移動体検出部、114 監視用データベース、115 位置管理部、116 映像合成・表示切替部、117 センサ移動体検出部、118 カメラ間経路学習部、119 挙動分析侵入判定部、120 カメラ映像受信部、121 監視対象空間、122 監視対象空間、123 監視対象空間。   DESCRIPTION OF SYMBOLS 100 Network, 101 Camera, 102 Entrance / exit management apparatus, 103 sensor, 104 Moving body monitoring apparatus, 105 Video recording apparatus, 106 Monitoring display, 107 Camera changeover switch, 110 Camera moving body detection part in a camera image, 111 Inter-camera movement path Calculation unit, 112 Inter-camera moving body matching degree calculation unit, 113 ACS moving body detection unit, 114 Monitoring database, 115 Position management unit, 116 Video composition / display switching unit, 117 Sensor moving body detection unit, 118 Inter-camera path learning Unit, 119 behavior analysis intrusion determination unit, 120 camera image receiving unit, 121 monitoring target space, 122 monitoring target space, 123 monitoring target space.

Claims (9)

監視対象空間に配置されている複数のカメラから撮影映像を受信する撮影映像受信部と、
前記監視対象空間に移動体が侵入した際に、前記移動体が近時に撮影可能範囲に到達し前記移動体の撮影が可能と推定されるカメラを推定撮影可能カメラとして一つ以上選択する推定撮影可能カメラ選択部と、
前記移動体が推定撮影可能カメラの撮影可能範囲に到達すると推定される時刻を推定到達時刻として推定撮影可能カメラごとに算出する推定到達時刻算出部と、
前記撮影映像受信部により受信された前記推定撮影可能カメラの撮影映像と、前記推定到達時刻算出部により算出された推定撮影可能カメラごとの推定到達時刻とを表示装置に出力する表示部とを有することを特徴とする監視装置。
A captured video receiver that receives captured video from a plurality of cameras arranged in the monitoring target space;
Estimated shooting that selects one or more cameras that are estimated to be able to shoot the moving body when the moving body enters the monitoring target space and the moving body reaches the shootable range in the near future. Possible camera selection part,
An estimated arrival time calculation unit that calculates, for each estimated image-capable camera, a time estimated that the moving body reaches the image-capable range of the estimated image-capable camera;
A display unit configured to output to the display device a captured image of the estimated shootable camera received by the captured image reception unit and an estimated arrival time of each estimated shootable camera calculated by the estimated arrival time calculation unit; A monitoring device characterized by that.
前記監視装置は、更に、
カメラ間を移動する際の平均移動時間を移動体属性ごとに示す平均移動時間情報を記憶している平均移動時間情報記憶部を有し、
前記推定到達時刻算出部は、
前記監視対象空間に侵入した移動体の属性に合致する移動体属性についての平均移動時間を用いて、推定撮影可能カメラごとに推定到達時刻を算出することを特徴とする請求項1に記載の監視装置。
The monitoring device further includes:
An average moving time information storage unit storing average moving time information indicating the average moving time for each moving object attribute when moving between cameras;
The estimated arrival time calculation unit
2. The monitoring according to claim 1, wherein an estimated arrival time is calculated for each estimated image-capable camera using an average moving time for a moving object attribute that matches the attribute of the moving object that has entered the monitoring target space. apparatus.
前記推定到達時刻算出部は、
前記監視対象空間に侵入した移動体があるカメラから他のカメラまで移動する際に要した実測移動時間と、当該カメラ間を移動する際の移動体属性ごとの平均移動時間を比較し、平均移動時間が前記監視対象空間に侵入した移動体の実測移動時間に近似している移動体属性を判定し、判定した移動体属性についての平均移動時間を用いて、推定撮影可能カメラごとに推定到達時刻を算出することを特徴とする請求項2に記載の監視装置。
The estimated arrival time calculation unit
Compare the measured travel time required when moving from one camera to another camera that has moved into the monitored space, and the average travel time for each moving object attribute when moving between the cameras. A mobile object attribute whose time approximates to an actually measured travel time of a mobile object that has entered the monitoring target space is determined, and an estimated arrival time is estimated for each camera capable of being estimated using an average travel time for the determined mobile object attribute. The monitoring device according to claim 2, wherein the monitoring device is calculated.
前記平均移動時間情報記憶部は、
前記複数のカメラにおける任意のカメラの組み合わせについて、組となるカメラ間を移動する際の平均移動時間を移動体属性ごとに示す平均移動時間情報を記憶し、
前記推定撮影可能カメラ選択部は、
前記移動体を撮影中である撮影中カメラから前記移動体が近時に撮影可能範囲に到達し前記移動体の撮影が可能と推定されるカメラを推定撮影可能カメラとして一つ以上選択し、
前記推定到達時刻算出部は、
前記撮影中カメラから各々の推定撮影可能カメラまでの平均移動時間のうち前記移動体の属性に合致する移動体属性についての平均移動時間を用いて、推定撮影可能カメラごとに推定到達時刻を算出することを特徴とする請求項2又は3に記載の監視装置。
The average travel time information storage unit
For any combination of cameras in the plurality of cameras, storing average moving time information indicating an average moving time for each moving body attribute when moving between cameras that form a set,
The estimated photographing capable camera selection unit is
Select one or more cameras that are estimated to be able to shoot the moving body from the camera that is shooting the moving body, and that the moving body has reached the shootable range in the near future and is capable of shooting the moving body,
The estimated arrival time calculation unit
The estimated arrival time is calculated for each estimated photographable camera using the average movement time for the moving object attribute that matches the attribute of the moving object among the average moving time from the camera being photographed to each estimated photographable camera. The monitoring apparatus according to claim 2 or 3, wherein
前記平均移動時間情報記憶部は、
前記監視対象空間の移動経路を理解している者が歩行した際の平均移動時間、前記監視対象空間の移動経路を理解している者が走行した際の平均移動時間、及び前記監視対象空間の移動経路を理解していない者が歩行した際の平均移動時間の少なくともいずれかを移動体属性ごとの平均移動時間として示す平均移動時間情報を記憶していることを特徴とする請求項2〜4のいずれかに記載の監視装置。
The average travel time information storage unit
The average movement time when a person who understands the movement path of the monitoring target space walks, the average movement time when a person who understands the movement path of the monitoring target space travels, and the monitoring target space 5. The average moving time information indicating at least one of the average moving times when a person who does not understand the moving route walks as the average moving time for each moving body attribute is stored. The monitoring apparatus in any one of.
前記撮影映像受信部は、
前記監視対象空間に配置されている第一のカメラ及び第二のカメラから撮影映像を受信し、
前記監視装置は、更に、
前記第一のカメラからの撮影映像を解析して前記第一のカメラからの撮影映像中から特定の移動体を識別し、前記第二のカメラからの撮影映像を解析して前記第二のカメラからの撮影映像中から前記特定の移動体を識別する移動体識別部と、
前記移動体識別部が前記第一のカメラからの撮影映像中から前記特定の移動体が前記第一のカメラの撮影可能範囲から離れたことを識別した時刻と、前記移動体識別部が前記第二のカメラからの撮影映像中から前記特定の移動体が前記第二のカメラの撮影可能範囲に入ったことを識別した時刻との差を、前記第一のカメラから前記第二のカメラまでの平均移動時間として算出する平均移動時間算出部とを有し、
前記平均時間情報記憶部は、
前記平均移動時間算出部により算出された平均移動時間が示される平均移動時間情報を記憶していることを特徴とする請求項2〜5のいずれかに記載の監視装置。
The photographed video receiver is
Receiving captured images from the first camera and the second camera arranged in the monitoring target space,
The monitoring device further includes:
Analyzing the captured video from the first camera to identify a specific moving body from the captured video from the first camera, and analyzing the captured video from the second camera to analyze the second camera A moving body identification unit for identifying the specific moving body from the captured video from
The time when the moving object identifying unit has identified that the specific moving object has departed from the shootable range of the first camera from the captured image from the first camera, and the moving object identifying unit The difference from the time when the specific moving body is identified as being in the shootable range of the second camera from the captured video from the second camera, from the first camera to the second camera. An average travel time calculation unit that calculates the average travel time;
The average time information storage unit
6. The monitoring apparatus according to claim 2, wherein average moving time information indicating the average moving time calculated by the average moving time calculating unit is stored.
前記監視装置は、更に、
第一のカメラの近傍に配置された第一の入退室管理装置又は第一のセンサを特定の移動体が通過した時刻と、第二のカメラの近傍に配置された第二の入退室管理装置又は第二のセンサを前記特定の移動体が通過した時刻とを示す情報を取得し、前記第一の入退室管理装置又は第一のセンサを前記特定の移動体が通過した時刻と、前記第二の入退室管理装置又は第二のセンサを前記特定の移動体が通過した時刻との差を、前記第一のカメラから前記第二のカメラまでの平均移動時間として算出する平均移動時間算出部を有し、
前記平均時間情報記憶部は、
前記平均移動時間算出部により算出された平均移動時間が示される平均移動時間情報を記憶していることを特徴とする請求項2〜5のいずれかに記載の監視装置。
The monitoring device further includes:
The first entrance / exit management device or the first entry / exit management device arranged near the first camera and the time when the specific moving body passes the first sensor. Or acquiring information indicating the time when the specific moving body passes through the second sensor, the time when the specific moving body passes through the first entrance / exit management device or the first sensor, and the first An average moving time calculation unit that calculates a difference from the time when the specific moving body passes through a second entrance / exit management device or a second sensor as an average moving time from the first camera to the second camera Have
The average time information storage unit
6. The monitoring apparatus according to claim 2, wherein average moving time information indicating the average moving time calculated by the average moving time calculating unit is stored.
コンピュータが、監視対象空間に配置されている複数のカメラから撮影映像を受信する撮影映像受信ステップと、
前記監視対象空間に移動体が侵入した際に、コンピュータが、前記移動体が近時に撮影可能範囲に到達し前記移動体の撮影が可能と推定されるカメラを推定撮影可能カメラとして一つ以上選択する推定撮影可能カメラ選択ステップと、
コンピュータが、前記移動体が推定撮影可能カメラの撮影可能範囲に到達すると推定される時刻を推定到達時刻として推定撮影可能カメラごとに算出する推定到達時刻算出ステップと、
コンピュータが、前記撮影映像受信ステップにより受信された前記推定撮影可能カメラの撮影映像と、前記推定到達時刻算出ステップにより算出された推定撮影可能カメラごとの推定到達時刻とを表示装置に出力する表示ステップとを有することを特徴とする監視方法。
A captured image receiving step in which the computer receives captured images from a plurality of cameras arranged in the monitored space;
When a moving object enters the monitoring target space, the computer selects one or more cameras that are estimated to be capable of shooting the moving object when the moving object reaches the imageable range recently. A step of selecting an estimated camera capable of shooting,
An estimated arrival time calculating step in which the computer calculates, for each estimated image-capable camera, a time estimated that the moving body reaches the image-capable range of the estimated image-capable camera;
A display step in which the computer outputs to the display device the captured video of the estimated shootable camera received in the captured video receiving step and the estimated arrival time for each estimated shootable camera calculated in the estimated arrival time calculating step. The monitoring method characterized by having.
監視対象空間に配置されている複数のカメラから撮影映像を受信する撮影映像受信処理と、
前記監視対象空間に移動体が侵入した際に、前記移動体が近時に撮影可能範囲に到達し前記移動体の撮影が可能と推定されるカメラを推定撮影可能カメラとして一つ以上選択する推定撮影可能カメラ選択処理と、
前記移動体が推定撮影可能カメラの撮影可能範囲に到達すると推定される時刻を推定到達時刻として推定撮影可能カメラごとに算出する推定到達時刻算出処理と、
前記撮影映像受信処理により受信された前記推定撮影可能カメラの撮影映像と、前記推定到達時刻算出処理により算出された推定撮影可能カメラごとの推定到達時刻とを表示装置に出力する表示処理とをコンピュータに実行させることを特徴とするプログラム。
Captured video reception processing for receiving captured video from a plurality of cameras arranged in the monitoring target space;
Estimated shooting that selects one or more cameras that are estimated to be able to shoot the moving body when the moving body enters the monitoring target space and the moving body reaches the shootable range in the near future. Possible camera selection process,
Estimated arrival time calculation processing for calculating for each estimated photographable camera, as the estimated arrival time, the estimated time when the mobile body reaches the photographing possible range of the estimated photographing camera;
A display process for outputting, to a display device, a captured image of the estimated photographable camera received by the captured image reception process and an estimated arrival time for each estimated photographable camera calculated by the estimated arrival time calculation process. A program characterized by being executed.
JP2007179144A 2007-07-09 2007-07-09 Monitoring device, monitoring method and program Expired - Fee Related JP4937016B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007179144A JP4937016B2 (en) 2007-07-09 2007-07-09 Monitoring device, monitoring method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007179144A JP4937016B2 (en) 2007-07-09 2007-07-09 Monitoring device, monitoring method and program

Publications (2)

Publication Number Publication Date
JP2009017416A JP2009017416A (en) 2009-01-22
JP4937016B2 true JP4937016B2 (en) 2012-05-23

Family

ID=40357714

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007179144A Expired - Fee Related JP4937016B2 (en) 2007-07-09 2007-07-09 Monitoring device, monitoring method and program

Country Status (1)

Country Link
JP (1) JP4937016B2 (en)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102388608B (en) * 2009-04-10 2014-07-02 欧姆龙株式会社 Monitoring system, and monitoring terminal
JP5325337B2 (en) * 2010-03-15 2013-10-23 オムロン株式会社 Surveillance camera terminal
GB2485969A (en) * 2010-11-12 2012-06-06 Sony Corp Video surveillance with anticipated arrival time of object in another camera view
JP5664161B2 (en) * 2010-11-16 2015-02-04 住友電気工業株式会社 Monitoring system and monitoring device
JP5782387B2 (en) * 2012-01-05 2015-09-24 株式会社 日立産業制御ソリューションズ Entrance / exit management system
JP6195287B2 (en) * 2012-09-06 2017-09-13 日本電気株式会社 DEVICE CONTROL DEVICE, DEVICE CONTROL SYSTEM, DEVICE CONTROL METHOD, AND PROGRAM
AU2013339935A1 (en) 2012-10-29 2015-05-07 Nec Corporation Information processing system, information processing method, and program
KR101933153B1 (en) 2012-11-06 2018-12-27 에스케이 텔레콤주식회사 Control Image Relocation Method and Apparatus according to the direction of movement of the Object of Interest
JPWO2014097699A1 (en) * 2012-12-20 2017-01-12 日本電気株式会社 Information processing system, information processing method, and program
JP6233624B2 (en) 2013-02-13 2017-11-22 日本電気株式会社 Information processing system, information processing method, and program
WO2014125882A1 (en) * 2013-02-15 2014-08-21 日本電気株式会社 Information processing system, information processing method, and program
WO2014171258A1 (en) * 2013-04-16 2014-10-23 日本電気株式会社 Information processing system, information processing method, and program
JP5438861B1 (en) * 2013-07-11 2014-03-12 パナソニック株式会社 Tracking support device, tracking support system, and tracking support method
JP5976237B2 (en) * 2013-12-26 2016-08-23 株式会社日立国際電気 Video search system and video search method
JP6465600B2 (en) 2014-09-19 2019-02-06 キヤノン株式会社 Video processing apparatus and video processing method
CN107148643A (en) * 2014-12-22 2017-09-08 株式会社技术未来 Digital search security system, methods and procedures
JP6441067B2 (en) * 2014-12-22 2018-12-19 セコム株式会社 Monitoring system
KR101678004B1 (en) * 2015-02-24 2016-11-21 주식회사세오 node-link based camera network monitoring system and method of monitoring the same
JP6492890B2 (en) * 2015-03-31 2019-04-03 富士通株式会社 Information collection program, information collection method, and information collection apparatus
WO2017099037A1 (en) * 2015-12-09 2017-06-15 ソニー株式会社 Information processing device, information processing method, and program
JP2017211929A (en) * 2016-05-27 2017-11-30 ダイワ通信株式会社 Security system, management device, security method, and program
CN107426532B (en) * 2017-05-18 2019-12-13 华侨大学 Multi-camera cooperative relay monitoring method based on known track
JP7190820B2 (en) * 2018-04-02 2022-12-16 パナソニックホールディングス株式会社 Intrusion detection system and intrusion detection method
US20210400240A1 (en) * 2018-11-07 2021-12-23 Nec Corporation Image processing apparatus, image processing method, and computer readable medium
CA3165133A1 (en) * 2019-10-25 2021-04-29 Sailesh Bharathwaaj Krishnamurthy Tracking positions using a scalable position tracking system
JP7034391B2 (en) * 2019-12-23 2022-03-11 三菱電機株式会社 Inter-camera distance estimation device, inter-camera distance estimation method, and inter-camera distance estimation program
US20230143741A1 (en) * 2020-03-31 2023-05-11 Nec Corporation Remote monitoring system, apparatus, and method
JP6935545B1 (en) * 2020-06-18 2021-09-15 三菱電機ビルテクノサービス株式会社 Person tracking support device and person tracking support system
JP7415848B2 (en) * 2020-08-17 2024-01-17 横河電機株式会社 Apparatus, system, method and program
JP7564147B2 (en) 2022-03-23 2024-10-08 パナソニック ネットソリューションズ株式会社 VIDEO DISPLAY SYSTEM, VIDEO DISPLAY METHOD, AND PROGRAM

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092751A (en) * 2000-09-18 2002-03-29 Matsushita Electric Ind Co Ltd Monitoring system
JP4572099B2 (en) * 2004-09-13 2010-10-27 三菱電機株式会社 Mobile tracking support system
JP2006093955A (en) * 2004-09-22 2006-04-06 Matsushita Electric Ind Co Ltd Video processing apparatus
JP4759988B2 (en) * 2004-11-17 2011-08-31 株式会社日立製作所 Surveillance system using multiple cameras

Also Published As

Publication number Publication date
JP2009017416A (en) 2009-01-22

Similar Documents

Publication Publication Date Title
JP4937016B2 (en) Monitoring device, monitoring method and program
US7646401B2 (en) Video-based passback event detection
KR101387628B1 (en) Entrance control integrated video recorder
US7801330B2 (en) Target detection and tracking from video streams
US7751647B2 (en) System and method for detecting an invalid camera in video surveillance
EP1435170B1 (en) Video tripwire
US8285044B2 (en) Image-processing device, surveillance system, method for establishing a scene reference image, and computer program
Alshammari et al. Intelligent multi-camera video surveillance system for smart city applications
US20030053659A1 (en) Moving object assessment system and method
KR100962529B1 (en) Method for tracking object
JP2007334623A (en) Face authentication device, face authentication method, and access control device
JP2006221355A (en) Monitoring device and monitoring system
CN110852148B (en) Visitor destination verification method and system based on target tracking
WO2003003309A1 (en) Method for monitoring a moving object and system regarding same
EP1405504A1 (en) Surveillance system and methods regarding same
JP6013923B2 (en) System and method for browsing and searching for video episodes
KR101019384B1 (en) Apparatus and method for unmanned surveillance using omni-directional camera and pan/tilt/zoom camera
JP2007128390A (en) Monitor system
JP2018067755A (en) Detection data management device
US20130293721A1 (en) Imaging apparatus, imaging method, and program
JP2018182705A (en) Identification system, identification method and program
JP2006236260A (en) Face authentication device, face authentication method, and entrance/exit management device
US10586130B2 (en) Method, system and apparatus for providing access to videos
JP6621092B1 (en) Risk determination program and system
JP2019114213A (en) Intruder detection device, intruder detection program, and intruder detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120221

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees