Nothing Special   »   [go: up one dir, main page]

JP2021087031A - Information processing device, information processing method, monitoring system, and program - Google Patents

Information processing device, information processing method, monitoring system, and program Download PDF

Info

Publication number
JP2021087031A
JP2021087031A JP2019212525A JP2019212525A JP2021087031A JP 2021087031 A JP2021087031 A JP 2021087031A JP 2019212525 A JP2019212525 A JP 2019212525A JP 2019212525 A JP2019212525 A JP 2019212525A JP 2021087031 A JP2021087031 A JP 2021087031A
Authority
JP
Japan
Prior art keywords
predetermined area
information processing
situation
image
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019212525A
Other languages
Japanese (ja)
Inventor
智大 佐藤
Tomohiro Sato
智大 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019212525A priority Critical patent/JP2021087031A/en
Publication of JP2021087031A publication Critical patent/JP2021087031A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

To reduce the effort required to train a discriminator to perform a detection process on an image.SOLUTION: An information processing device acquires a plurality of images obtained by an imaging apparatus taking images of a predetermined area, acquires information indicating a change in a situation of the predetermined area from a detection device, classifies the plurality of images based on the information indicating the change in the situation of the predetermined area, and trains a discriminator for determining the situation of the predetermined area from the images using at least a part of the plurality of images according to the classification results.SELECTED DRAWING: Figure 4

Description

本発明は、情報処理装置、情報処理方法、監視システム、及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, a monitoring system, and a program.

近年、ネットワークカメラ(以下、カメラと呼ぶ)の撮像画像をコンピュータで解析し、私有地への不法侵入や通行人の転倒などを自動で検知し、及び警備員に通知を行う監視システムが提案されている。従来、監視システムとしては、画面内でのどのような動きが私有地への不法侵入や通行人の転倒を意味するのかを、人が一つずつルールとして定義する、ルールベースの方式が採用されている。さらに、最近では、人がルールを定義せずとも、機械学習や深層学習と呼ばれる技術によって、コンピュータが大量の学習データと呼ばれる撮像画像を解析し、自動的に状況を理解してルールを自ら定義する技術も実用化され始めている。 In recent years, a surveillance system has been proposed that analyzes images captured by a network camera (hereinafter referred to as a camera) with a computer, automatically detects illegal intrusion into private land and falls of passersby, and notifies security guards. There is. Conventionally, as a monitoring system, a rule-based method has been adopted in which each person defines as a rule one by one what kind of movement on the screen means trespassing into private land or falling of a passerby. There is. Furthermore, recently, even if a person does not define a rule, a computer analyzes a large amount of captured images called learning data by a technology called machine learning or deep learning, automatically understands the situation, and defines the rule by itself. The technology to do so is also beginning to be put into practical use.

特開2015−070401号公報JP 2015-070401

上述したようなルールベースの撮像画像解析システムは、定義すべきルールが明確であれば、比較的簡単にルールを定義できる。例えば、私有地への不法侵入を検知したい場合は、私有地の境界である塀やフェンスの場所をカメラの撮像画像上に重ねるように線で指定し、及び、その線を一方向に通過する物体がある場合に何者かが不法侵入したことを意味するようにルールを定義すればよい。ただし、そのような場合、鳥などの動物による誤検知を防ぐために、物体の大きさや移動速度などの必要最低限のルールを定義する必要がある。 In the rule-based image analysis system as described above, if the rules to be defined are clear, the rules can be defined relatively easily. For example, if you want to detect trespassing on private land, specify the location of the fence or fence that is the boundary of the private land with a line so that it overlaps the image captured by the camera, and an object that passes through that line in one direction You can define the rules to mean that someone has trespassed in some cases. However, in such a case, it is necessary to define the minimum necessary rules such as the size and moving speed of the object in order to prevent false detection by animals such as birds.

一方で、通行人の転倒を検知したい場合では、ルールが複雑となり、様々な場面での様々な転倒の仕方(異常状態)を検知するようにルールが定義されなければならない。この問題は、機械学習や深層学習によって、検知すべき異常な動作の撮像画像と、検知すべきでない正常な動作の撮像画像と、をそれぞれ用意し、及び、それらの撮像画像をコンピュータに学習を行わせることで解決することができる。しかし、大量の撮像画像の中から異常な動作と正常な動作とにより分ける分類作業は人が行う必要があり、多大な労力が必要であるという課題は残されている(特許文献1)。 On the other hand, when it is desired to detect a passerby's fall, the rule becomes complicated, and the rule must be defined so as to detect various fall methods (abnormal states) in various situations. This problem is solved by preparing captured images of abnormal movements that should be detected and images of normal movements that should not be detected by machine learning or deep learning, and learning the captured images from a computer. It can be solved by letting them do it. However, there remains the problem that it is necessary for a person to perform the classification work of classifying a large number of captured images into abnormal movements and normal movements, which requires a great deal of labor (Patent Document 1).

本発明は、画像に対する検知処理を行う識別器の学習に必要な労力を減らすことを目的とする。 An object of the present invention is to reduce the labor required for learning a classifier that performs detection processing on an image.

本発明の目的を達成するために、例えば、一実施形態に係る情報処理装置は以下の構成を備える。すなわち、撮像装置が所定区域を撮像することにより得られた複数の画像を取得する第1の取得手段と、前記所定区域の状況の変化を示す情報を検知装置から取得する第2の取得手段と、前記所定区域の状況の変化を示す情報に基づいて、前記複数の画像を分類する分類手段と、前記分類手段による分類結果に従って、前記複数の画像の少なくとも一部を用いて、画像から前記所定区域の状況を判定する識別器の学習を行う学習手段と、を備えることを特徴とする。 In order to achieve the object of the present invention, for example, the information processing apparatus according to one embodiment has the following configurations. That is, a first acquisition means for acquiring a plurality of images obtained by the imaging device imaging a predetermined area, and a second acquisition means for acquiring information indicating a change in the situation of the predetermined area from the detection device. A classification means for classifying the plurality of images based on information indicating a change in the situation of the predetermined area, and at least a part of the plurality of images according to the classification result by the classification means, the predetermined image is used. It is characterized by comprising a learning means for learning a classifier for determining the situation of an area.

画像に対する検知処理を行う識別器の学習に必要な労力を減らすことができる。 It is possible to reduce the labor required for learning the classifier that performs the detection process for the image.

実施形態1に係る情報処理装置の機能構成の一例を示す図。The figure which shows an example of the functional structure of the information processing apparatus which concerns on Embodiment 1. FIG. 実施形態1に係る情報処理装置のハードウェア構成の一例を示す図。The figure which shows an example of the hardware configuration of the information processing apparatus which concerns on Embodiment 1. FIG. 実施形態1に係る情報処理装置が判断を行う状況の一例を示す図。The figure which shows an example of the situation which the information processing apparatus which concerns on Embodiment 1 makes a judgment. 実施形態1に係る学習フェーズ及び運用フェーズの一例を示す図。The figure which shows an example of the learning phase and the operation phase which concerns on Embodiment 1. 実施形態1に係る情報処理方法における処理例のフローチャート。The flowchart of the processing example in the information processing method which concerns on Embodiment 1. 実施形態1に係る情報処理装置の学習データ分類UIの一例を示す図。The figure which shows an example of the learning data classification UI of the information processing apparatus which concerns on Embodiment 1. FIG. 実施形態2に係る情報処理装置の機能構成の一例を示す図。The figure which shows an example of the functional structure of the information processing apparatus which concerns on Embodiment 2. FIG. 実施形態2に係る情報処理装置が判断を行う状況の一例を示す図。The figure which shows an example of the situation which the information processing apparatus which concerns on Embodiment 2 makes a judgment. 実施形態2に係る情報処理装置が判断を行う状況の一例を示す図。The figure which shows an example of the situation which the information processing apparatus which concerns on Embodiment 2 makes a judgment. 実施形態2に係る情報処理方法における処理例のフローチャート。The flowchart of the processing example in the information processing method which concerns on Embodiment 2.

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate explanations are omitted.

[実施形態1]
[システム構成]
図1は、一実施形態に係る情報処理装置を有する監視システム101のシステム構成の一例を示すブロック図である。本発明に係る情報処理装置は、所定区域の状況の変化を示す情報を検知装置から取得し、その情報に基づいて所定区域の撮像画像を分類する。次いで、分類された所定区域の撮像画像を用いて、所定区域の状況を判定する識別器を生成する。つまり、識別器に学習データを入力する際に、撮像画像から異常動作画像を除外し、正常動作画像のみの学習データをより分ける分類の作業を自動的に行うことを可能にする。本実施形態に係る監視システム101は、取得部111、状態変化検知部112、撮像部121、録画部122、蓄積部123、生成部131、識別部141、及び発報部142から構成される。本実施形態に係る撮像部121はカメラによって実現される。また、撮像部121及び取得部111を除いた監視システム101の各構成要素は、1つ又は複数のサーバによって実現され、及びそれぞれがLAN又は専用ケーブルにより接続される。
[Embodiment 1]
[System configuration]
FIG. 1 is a block diagram showing an example of a system configuration of a monitoring system 101 having an information processing device according to an embodiment. The information processing device according to the present invention acquires information indicating a change in the situation of a predetermined area from the detection device, and classifies the captured image of the predetermined area based on the information. Then, using the captured image of the classified predetermined area, a classifier for determining the situation of the predetermined area is generated. That is, when inputting the learning data to the classifier, it is possible to exclude the abnormal operation image from the captured image and automatically perform the classification work of separating the learning data of only the normal operation image. The monitoring system 101 according to the present embodiment includes an acquisition unit 111, a state change detection unit 112, an imaging unit 121, a recording unit 122, a storage unit 123, a generation unit 131, an identification unit 141, and an alarm unit 142. The imaging unit 121 according to the present embodiment is realized by a camera. Further, each component of the monitoring system 101 excluding the imaging unit 121 and the acquisition unit 111 is realized by one or a plurality of servers, and each is connected by a LAN or a dedicated cable.

撮像部121は、画像を取得する。本実施形態において、撮像部121は、複数のカメラにより構成され、それらのカメラが所定区域について逐次的に撮像する画像で構成される映像を取得するものとするが、特にそのように限定されるわけではない。また、撮像部121は、例えば情報処理装置に対して遠隔地に配置されたネットワークカメラであってもよい。録画部122は、撮像部121が取得した画像を蓄積部123へと蓄積する。図1の例においては、録画部122は、撮像画像を、例えばLAN151を介して蓄積部123へと蓄積する。取得部111は、所定区域の状況の変化を示す情報を検知し、その情報を状態変化検知部112へと出力する。本実施形態においては、取得部111は、複数のセンサから構成され、及び、例えばセンサが所定区域の異常状態を検知した場合に、状態変化が生じたことを示す情報を有する信号を状態変化検知部112へと発信することができる。また、取得部111は、例えば情報処理装置に対して遠隔地に設置されたセンサであってもよい。状態変化検知部112は、取得部111(この例ではセンサ)からの信号に応じて、所定区域に状況の変化が生じたかどうかを判断する。次いで、状態変化検知部112は、信号が発信された時刻の状況において状態変化が生じたかどうかを示す状態変化情報を蓄積部123へと蓄積する。以下においては、状態変化検知部112によって状態変化が生じたと判断された状況を異常状態とし、そうでない状況を正常状態とする。本実施形態においては、状態変化検知部112は、LAN151を介して状態変化情報を蓄積部123へと蓄積する。 The imaging unit 121 acquires an image. In the present embodiment, the imaging unit 121 is composed of a plurality of cameras, and acquires an image composed of images sequentially captured by those cameras in a predetermined area, but is particularly limited to that. Do not mean. Further, the imaging unit 121 may be, for example, a network camera arranged at a remote location with respect to the information processing device. The recording unit 122 stores the image acquired by the imaging unit 121 in the storage unit 123. In the example of FIG. 1, the recording unit 122 stores the captured image in the storage unit 123 via, for example, LAN 151. The acquisition unit 111 detects information indicating a change in the situation in a predetermined area, and outputs the information to the state change detection unit 112. In the present embodiment, the acquisition unit 111 is composed of a plurality of sensors, and when, for example, the sensors detect an abnormal state in a predetermined area, the state change detection detects a signal having information indicating that a state change has occurred. It is possible to transmit to the unit 112. Further, the acquisition unit 111 may be, for example, a sensor installed at a remote location with respect to the information processing device. The state change detection unit 112 determines whether or not a change in the situation has occurred in a predetermined area in response to a signal from the acquisition unit 111 (sensor in this example). Next, the state change detection unit 112 stores the state change information indicating whether or not the state change has occurred in the storage unit 123 in the situation at the time when the signal is transmitted. In the following, a situation in which the state change detection unit 112 determines that a state change has occurred is defined as an abnormal state, and a situation in which the state change is not determined is defined as a normal state. In the present embodiment, the state change detection unit 112 stores the state change information in the storage unit 123 via the LAN 151.

蓄積部123は、撮像部121から取得された撮像画像と、状態変化検知部112から取得された状態変化情報と、を格納及び蓄積する。また、また、蓄積部123は、蓄積した撮像画像と状態変化情報とを関連付けることができる。つまり、蓄積部123は、状態変化検知部112から取得された状態変化情報に基づいて、撮像部121から取得された撮像画像を分類する。蓄積部123は、撮像部121から取得された撮像画像を、例えば正常状態を捉えた画像と、異常状態を捉えた画像と、に分類することができる。以下においては、特に指定がない場合、画像を、正常状態を捉えた画像又は異常状態を捉えた画像に分類することを指して、画像を分類すると呼ぶものとする。 The storage unit 123 stores and stores the captured image acquired from the image pickup unit 121 and the state change information acquired from the state change detection unit 112. Further, the storage unit 123 can associate the stored captured image with the state change information. That is, the storage unit 123 classifies the captured image acquired from the imaging unit 121 based on the state change information acquired from the state change detecting unit 112. The storage unit 123 can classify the captured image acquired from the imaging unit 121 into, for example, an image that captures a normal state and an image that captures an abnormal state. In the following, unless otherwise specified, it refers to classifying an image into an image that captures a normal state or an image that captures an abnormal state, and is referred to as classifying an image.

生成部131は、蓄積部123に蓄積された画像を読み取り、及び、読み取った画像に基づいて、識別部141の内部で動作する識別器を生成する。生成部131が識別器を生成する際に読み取る画像は特に限定されないが、この例においては説明のため、蓄積部123によって分類された、正常状態を捉えた画像を選択的に用いて識別器を生成するものとする。識別器とは、コンピュータが、大量の学習データと呼ばれる画像を解析することにより、それらの学習データについて状況を自動的に理解し及びルールを定義したものである。本実施形態においては、識別器とは、画像を入力することにより、その画像が異常状態を捉えているかどうかを分類することができるアルゴリズムを意味している。識別器は、例えば識別器に入力された画像データから抽出される特徴ベクトルに基づいて、上述の分類を行ってもよい。以上が、カメラを設置し及び異常状態を識別するための準備に用いられる構成である。 The generation unit 131 reads the image stored in the storage unit 123, and based on the read image, generates a classifier that operates inside the identification unit 141. The image read by the generation unit 131 when generating the classifier is not particularly limited, but in this example, for the sake of explanation, the classifier is selected by selectively using the images that capture the normal state classified by the storage unit 123. It shall be generated. A classifier is a computer that analyzes a large amount of images called training data to automatically understand the situation and define rules for the training data. In the present embodiment, the classifier means an algorithm that can classify whether or not an image captures an abnormal state by inputting an image. The classifier may perform the above classification based on, for example, a feature vector extracted from the image data input to the classifier. The above is the configuration used for installing the camera and preparing to identify the abnormal state.

実際に異常状態が発生した場合、監視システム101は、上述の識別器を用いることでその異常状態を検知し、及びその検知結果の通知を行う。識別部141は、録画部122から画像を取得し、及び、生成部131が生成した識別器を使用することによりその画像が異常を捉えているかどうかの分類を行う。識別部141は、識別部141に入力された画像において異常状態が発生していると分類された場合、発報部142へと通知処理を実行する指示を送信する。発報部142は、識別部141からの指示に応じて、通知処理を行う。発報部142が行う通知処理は特に限定されず、例えば正常状態にあることを示す情報を通知してもよいが、以下においては、発報部142はアラートの発報を行うものとする。 When an abnormal state actually occurs, the monitoring system 101 detects the abnormal state by using the above-mentioned classifier and notifies the detection result. The identification unit 141 acquires an image from the recording unit 122, and classifies whether or not the image captures an abnormality by using the classifier generated by the generation unit 131. When the identification unit 141 is classified as having an abnormal state in the image input to the identification unit 141, the identification unit 141 transmits an instruction to execute the notification process to the alarm unit 142. The alarm unit 142 performs notification processing in response to an instruction from the identification unit 141. The notification process performed by the alarm unit 142 is not particularly limited, and for example, information indicating that the status is normal may be notified, but in the following, the alarm unit 142 shall issue an alert.

[ハードウェア構成]
図2は、一実施形態に係る、サービス利用者が操作するコンピュータのハードウェア構成の一例を示すブロック図である。撮像画像データ、解析済みデータの閲覧、及び各種設定などの操作は、オペレーションシステム(OS)上で動作するアプリケーションプログラムで実行される。そのようなアプリケーションプログラムは、HDD202又はROM203に保存されている。CPU205は、OSとアプリケーションプログラムとを、HDD202又はROM203からRAMへとロードし、及び実行することにより、撮像画像データ及び解析済みデータの閲覧、並びに各種設定などの操作を実現する。アプリケーションプログラムは、コンピュータに接続されている入力装置207から、サービス利用者の入力を取得する。さらに、出力装置206に対して情報を出力し、処理結果を表示する。さらに、アプリケーションプログラムは、通信装置208を介して、ネットワークに接続された他のコンピュータ、サーバ、又はデバイスなどと通信を行う。これらのハードウェアはバス201で互いに接続されていて、アプリケーションプログラムから操作できるように構成されている。状態変化検知部112、録画部122、蓄積部123、生成部131、識別部141、及び発報部142などの監視システム101が有する各構成も、同様に、図2に示すようなコンピュータのプロセッサがメモリ上のプログラムを実行することにより実現できる。
[Hardware configuration]
FIG. 2 is a block diagram showing an example of the hardware configuration of the computer operated by the service user according to the embodiment. Operations such as viewing captured image data and analyzed data, and performing various settings are executed by an application program running on an operating system (OS). Such application programs are stored in HDD 202 or ROM 203. The CPU 205 loads and executes the OS and the application program from the HDD 202 or the ROM 203 to the RAM, thereby realizing operations such as viewing captured image data and analyzed data, and performing various settings. The application program acquires the input of the service user from the input device 207 connected to the computer. Further, the information is output to the output device 206 and the processing result is displayed. Further, the application program communicates with another computer, server, device, or the like connected to the network via the communication device 208. These hardware are connected to each other by bus 201 and are configured to be operated by an application program. Similarly, each configuration of the monitoring system 101 such as the state change detection unit 112, the recording unit 122, the storage unit 123, the generation unit 131, the identification unit 141, and the alarm unit 142 is also a computer processor as shown in FIG. Can be achieved by executing a program in memory.

[異常状態と分類される状況例]
図3は、本実施形態に係る生成部131が生成する識別器によって異常状態であると識別される状況の一例である。図3の例においては、状態変化検知部112は、センサ及び通報ボタンなどを含む取得部111からの信号に基づいて、状態変化が生じたか否かを判断する。図3(A)は、立ち入り禁止エリアに仮設した通過センサが反応した場合において状態変化が生じたと判断される状況の一例である。図3(A)の例においては、通路301への入り口の両側に、侵入検知用の通過センサ302が設置されている。状態変化検知部112は、例えば通過センサ302が反応した場合において、反応したセンサの付近に設置されたカメラ303及び304がその時に取得した撮像画像を、異常状態を捉えた撮像画像であるとして扱うことができる。センサの付近として設定される領域は特に限定されず、所望の条件に応じて適宜設定されるものとする。以下においては、センサの付近の領域は、そのセンサの位置に基づいてセンサ毎に定められる所定の範囲内の領域のことを指すものとする。
[Example of situation classified as abnormal state]
FIG. 3 is an example of a situation in which an abnormal state is identified by a classifier generated by the generation unit 131 according to the present embodiment. In the example of FIG. 3, the state change detection unit 112 determines whether or not a state change has occurred based on the signal from the acquisition unit 111 including the sensor and the notification button. FIG. 3A is an example of a situation in which it is determined that a state change has occurred when a passage sensor temporarily installed in the exclusion zone reacts. In the example of FIG. 3A, intrusion detection passage sensors 302 are installed on both sides of the entrance to the passage 301. For example, when the passage sensor 302 reacts, the state change detection unit 112 treats the captured images acquired by the cameras 303 and 304 installed in the vicinity of the responding sensor as captured images that capture the abnormal state. be able to. The area set as the vicinity of the sensor is not particularly limited, and is appropriately set according to desired conditions. In the following, the area near the sensor shall refer to the area within a predetermined range determined for each sensor based on the position of the sensor.

図3(B)は、首振り及びズームができるPTZ(Pan Tilt Zoom)カメラ311が設置されている状況の一例である。図3(B)の例においては、警備員室に設置されたライブ映像画面を見ている警備員が、PTZカメラ311が取得する映像の隅に不審な人物312を発見する可能性がある。そのような場合において、警備員は、操作盤を操作してPTZカメラ311の首振り及びズームを操作し、及び不審な人物312の顔や手元を観察する動作を起こすことが考えられる。このように警備員が何かしらの異常に気付いてPTZカメラ311を操作したことに応じて、その時に何らかの異常が発生したとみなすことにより、取得部111は、状態変化が生じたことを示す信号を状態変化検知部112へと送信することができる。次いで、状態変化検知部112は、取得部111からの信号に基づいて、そのような時にPTZカメラ311が取得する画像を、異常状態を捉えた撮像画像であるとして扱うことができる。 FIG. 3B is an example of a situation in which a PTZ (Pan Til Zoom) camera 311 capable of swinging and zooming is installed. In the example of FIG. 3B, a guard looking at a live video screen installed in the guard room may find a suspicious person 312 in the corner of the video acquired by the PTZ camera 311. In such a case, it is conceivable that the guard operates the operation panel to operate the swing and zoom of the PTZ camera 311 and to observe the face and hand of the suspicious person 312. In response to the security guard noticing some abnormality and operating the PTZ camera 311 in this way, it is considered that some abnormality has occurred at that time, and the acquisition unit 111 outputs a signal indicating that the state change has occurred. It can be transmitted to the state change detection unit 112. Next, the state change detection unit 112 can treat the image acquired by the PTZ camera 311 at that time as an captured image capturing the abnormal state based on the signal from the acquisition unit 111.

なお、取得部111が異常状態であると判断し及び状態変化検知部112へと信号を送信する状況(つまり、その時刻に取得される画像が異常状態を捉えた画像とされる状況)は、特に図3の例に限定されるものではない。取得部111は、所定区域に関連する検知区域の状況を検知するセンサが反応した場合、又は検知区域に関連する通報スイッチが操作された場合に、所定区域の状況が異常状態であると判断してもよい。具体的には、取得部111は、警備員室が緊急電話を受けた時、ライブ映像画面を見ていた警備員が異常に気付き現場の警備員に無線で指示を出した時、エスカレータが非常停止した時、又は火災報知機のボタンが押された時なども異常状態であると判断してもよい。 The situation in which the acquisition unit 111 determines that the abnormal state is in an abnormal state and transmits a signal to the state change detection unit 112 (that is, the image acquired at that time is regarded as an image in which the abnormal state is captured) is described. In particular, it is not limited to the example of FIG. The acquisition unit 111 determines that the status of the predetermined area is abnormal when the sensor that detects the status of the detection area related to the predetermined area reacts or when the notification switch related to the detection area is operated. You may. Specifically, when the security guard room receives an emergency call, the security guard who was watching the live video screen notices an abnormality and gives a wireless instruction to the security guard at the site, the escalator is emergency. It may be determined that the abnormal state is also when the fire alarm is stopped or the button of the fire alarm is pressed.

[学習フェーズ及び運用フェーズ]
図4は、本実施形態に係る監視システム101が行う、学習フェーズ及び運用フェーズのデータフローダイアグラムの一例を示す。監視システム101は、以下に説明する学習フェーズのフローと運用フェーズのフローをそれぞれ別々に行うことができる。図4(A)の学習フェーズでは、撮像部121が取得したすべての画像データと、取得部111から取得されたセンサの信号と、に基づいて、生成部131が識別器を生成する流れが示されている。撮像部121が得たすべての画像データは、画像の録画のため、蓄積部123に蓄積される。また、状態変化検知部112は、取得部111から取得されたセンサの信号に対して、その信号が状態変化が生じたことを示しているかの判断を行い、及びその判断の結果である状態変化情報を蓄積部123に蓄積する。次いで、蓄積部123は、蓄積されたすべての画像データ及び状態変化情報に基づいて、各画像から、状態変化が生じた時刻の画像を、状態変化が生じた画像であると分類する。さらに、蓄積部123は、蓄積された画像データの内、状態変化が生じたと分類された画像データに、学習データ除外フラグを付与する。生成部131は、蓄積部123に蓄積された画像データの内、学習データ除外フラグが付与されていない画像データを用いて異常状態の学習を行い、及び、上述した識別器を生成する。次いで生成部131は、生成した学習後の識別器を識別部141へと適用する。
[Learning phase and operation phase]
FIG. 4 shows an example of a data flow diagram of a learning phase and an operation phase performed by the monitoring system 101 according to the present embodiment. The monitoring system 101 can separately perform the flow of the learning phase and the flow of the operation phase described below. In the learning phase of FIG. 4A, a flow in which the generation unit 131 generates a classifier is shown based on all the image data acquired by the imaging unit 121 and the sensor signal acquired from the acquisition unit 111. Has been done. All the image data obtained by the imaging unit 121 is stored in the storage unit 123 for recording the image. Further, the state change detection unit 112 determines whether or not the signal of the sensor acquired from the acquisition unit 111 indicates that a state change has occurred, and the state change which is the result of the determination. Information is stored in the storage unit 123. Next, the storage unit 123 classifies the image at the time when the state change occurs from each image as the image in which the state change has occurred, based on all the accumulated image data and the state change information. Further, the storage unit 123 adds a learning data exclusion flag to the image data classified as having a state change among the stored image data. The generation unit 131 learns the abnormal state using the image data to which the learning data exclusion flag is not added among the image data stored in the storage unit 123, and generates the above-mentioned classifier. Next, the generation unit 131 applies the generated discriminator after learning to the identification unit 141.

図4(B)の運用フェーズでは、撮像部121から取得された画像データが異常状態を捉えていると識別された場合に、発報部142がアラートを発報する流れが示されている。識別部141は、撮像部121から取得されたすべての画像データ、又は蓄積部123に蓄積された画像データの内から指定された画像データを取得し、並びに、取得した画像データが異常状態を捉えているかどうかの分類を行う。図4(B)の例においては、識別部141は、学習フェーズによって生成された識別器を用いて、取得した画像データが異常状態を捉えているかどうかの識別を行う。識別部141は、例えば取得した画像データが異常状態を捉えていると識別された場合に、発報部142に、アラートを発報する指示を含む信号を送信してもよい。また、本実施形態に係る識別部141は、撮像部121が取得する撮像画像をリアルタイムで識別してもよく、蓄積された撮像画像から逐次的に取得される撮像画像を識別してもよい。 In the operation phase of FIG. 4B, when it is identified that the image data acquired from the imaging unit 121 captures the abnormal state, the alarm unit 142 issues an alert. The identification unit 141 acquires the designated image data from all the image data acquired from the imaging unit 121 or the image data stored in the storage unit 123, and the acquired image data captures the abnormal state. Classify whether or not it is. In the example of FIG. 4B, the identification unit 141 identifies whether or not the acquired image data captures the abnormal state by using the classifier generated in the learning phase. For example, when the acquired image data is identified as capturing an abnormal state, the identification unit 141 may transmit a signal including an instruction to issue an alert to the alarm unit 142. Further, the identification unit 141 according to the present embodiment may identify the captured images acquired by the imaging unit 121 in real time, or may identify the captured images sequentially acquired from the accumulated captured images.

本実施形態においては、上記のような分類結果に従い、状態変化が生じていない正常状態の画像データを用いて識別器の学習が行われる。しかしながら、別の実施形態においては、状態変化が生じている異常状態の画像データを用いて識別器の学習が行われてもよい。また、正常状態の画像データ及び異常状態の画像データの双方、並びに上記の分類結果を用いて識別器の学習が行われてもよい。 In the present embodiment, the discriminator is learned using the image data in the normal state in which the state change has not occurred, according to the classification result as described above. However, in another embodiment, the discriminator may be trained using the image data of the abnormal state in which the state change occurs. Further, the discriminator may be learned by using both the image data in the normal state and the image data in the abnormal state, and the above classification result.

[学習フェーズの動作]
図5は、本実施形態に係る監視システム101が学習フェーズにおいて行う処理の一例を示すフローチャートである。(A)メインルーチン及び(B)サブルーチンは、そのような処理のメインルーチン及びサブルーチンをそれぞれ示す。
[Learning phase operation]
FIG. 5 is a flowchart showing an example of processing performed by the monitoring system 101 according to the present embodiment in the learning phase. The (A) main routine and (B) subroutine indicate the main routine and the subroutine of such processing, respectively.

(A)メインルーチンのステップS501において、蓄積部123は、画像データの分類及び学習データの収集を継続するかどうかの判定を行う。蓄積部123は、例えば、正常状態と分類された画像データが十分な量収集できた場合又はユーザによる中断操作が行われた場合には、処理を継続せず、及び処理はステップS503に進む。処理を継続する場合は、処理はステップS502へと進む。ステップS502において蓄積部123は、画像データを分類して、及び状態変化が生じたと分類された画像に学習データ除外フラグを付与するため、サブルーチンを呼び出し、処理は後述するステップS511へと進む。ステップS503において生成部131は、学習データ除外フラグが付与されていない画像データを用いて学習を行い、及び識別器を生成する。 (A) In step S501 of the main routine, the storage unit 123 determines whether to continue the classification of the image data and the collection of the learning data. The storage unit 123 does not continue the process when, for example, a sufficient amount of image data classified as a normal state can be collected or the interruption operation is performed by the user, and the process proceeds to step S503. If the process is to be continued, the process proceeds to step S502. In step S502, the storage unit 123 calls a subroutine to classify the image data and assign a learning data exclusion flag to the image classified as having a state change, and the process proceeds to step S511 described later. In step S503, the generation unit 131 performs learning using the image data to which the learning data exclusion flag is not added, and generates a classifier.

(B)サブルーチンのステップS511において状態変化検知部112は、図3において説明した方法によりセンサなどから信号を取得する。ステップS512において状態変化検知部112は、その信号が発信された時刻の状況において状態変化が生じたかどうかを判断する。状態変化が生じたと判断された場合は、処理はステップS513へと進む。そうでない場合は、処理はサブルーチン呼び出し元に戻り、ステップS501へと進む。ステップS513において蓄積部123は、反応したセンサの付近にあるカメラの、その信号が発信された時刻の画像に対して、学習データ除外フラグを付与する。次いで、処理はサブルーチン呼び出し元に戻り、ステップS501へと進む。 (B) In step S511 of the subroutine, the state change detection unit 112 acquires a signal from a sensor or the like by the method described in FIG. In step S512, the state change detection unit 112 determines whether or not a state change has occurred in the situation at the time when the signal was transmitted. If it is determined that the state change has occurred, the process proceeds to step S513. If not, the process returns to the subroutine caller and proceeds to step S501. In step S513, the storage unit 123 adds a learning data exclusion flag to the image of the camera near the responding sensor at the time when the signal is transmitted. Then, the process returns to the subroutine caller and proceeds to step S501.

[学習データの確認]
図6は、本実施形態に係る監視システム101が学習フェーズにおいて用いる学習データの分類結果を確認する確認UIの一例を示す図である。図6の例においては、学習データの分類結果の確認UI601は、カメラを選択するタブ602と、画像の再生パネル603と、画像のコントロールパネル604と、画像時刻を確認するシークバー605と、から構成される。
[Confirmation of learning data]
FIG. 6 is a diagram showing an example of a confirmation UI for confirming the classification result of the learning data used by the monitoring system 101 according to the present embodiment in the learning phase. In the example of FIG. 6, the confirmation UI601 of the classification result of the learning data is composed of a tab 602 for selecting a camera, an image reproduction panel 603, an image control panel 604, and a seek bar 605 for confirming the image time. Will be done.

タブ602は、識別器の学習対象である画像について、カメラ毎の分類を表示している。ユーザは、UI601上のタブ602を選択することにより、再生パネル603上に表示される画像を、選択したタブのカメラが取得する画像に切り替えることができる。再生パネル603は、画像を表示する。再生パネル603は、例えば、上述のように選択されたタブが表示しているカメラの画像を表示する。ユーザは、コントロールパネル604を操作することにより、再生パネル603上の画像について、再生若しくは停止、及び早送り若しくは巻き戻しを行うことができる。シークバー605は、現在再生している画像の時刻と、学習データ除外フラグが設定された異常状態の画像の時刻と、を視覚的に表示している。ここでは、異常状態の画像の時刻の期間が、シークバー605中の黒い塗りつぶしとして表現されている。 The tab 602 displays the classification for each camera for the image to be learned by the classifier. By selecting tab 602 on UI601, the user can switch the image displayed on the playback panel 603 to the image acquired by the camera of the selected tab. The playback panel 603 displays an image. The playback panel 603 displays, for example, an image of the camera displayed by the tab selected as described above. By operating the control panel 604, the user can play or stop, and fast forward or rewind the image on the playback panel 603. The seek bar 605 visually displays the time of the image currently being played back and the time of the image in the abnormal state in which the learning data exclusion flag is set. Here, the time period of the abnormal state image is represented as a black fill in the seek bar 605.

このような構成によれば、所定区域を撮像した複数の画像を取得し及び所定区域の状況の変化を示す情報を検知することにより、所定区域の画像を分類することができる。次いで、分類された画像を用いて、画像から所定区域の状況を判定する識別器の学習を行うことができる。したがって、複数の画像から、正常状態を捉えている画像を学習データとしてよりわける分類の作業を自動的に行うことができる。 According to such a configuration, the images of the predetermined area can be classified by acquiring a plurality of images of the predetermined area and detecting the information indicating the change of the situation of the predetermined area. Then, using the classified images, it is possible to learn a classifier that determines the situation of a predetermined area from the images. Therefore, it is possible to automatically perform the work of classifying the images that capture the normal state from the plurality of images as learning data.

[実施形態2]
実施形態1においては、現場でのセンサの反応、及びカメラの首振り操作を状態変化として検知し、並びに、その時刻における画像が異常状態を捉えていると直接的に判断及び分類する方法を説明した。ここでは、例えば警備員の行動をセンサ又は画像により認識し、その警備員の行動から状態変化を検知し、並びに間接的に異常状態が生じていると判断及び分類する方法を説明する。
[Embodiment 2]
In the first embodiment, a method of detecting the reaction of the sensor in the field and the swinging operation of the camera as a state change, and directly determining and classifying that the image at that time captures an abnormal state will be described. did. Here, for example, a method of recognizing the behavior of a guard by a sensor or an image, detecting a state change from the behavior of the guard, and indirectly determining and classifying that an abnormal state has occurred will be described.

[システム構成]
図7は、本実施形態に係る情報処理装置701を有する監視システムのシステム構成の一例を示すブロック図である。本発明に係る監視システムは、取得部111の代わりに発信部711及び信号検知部712を有することを除き図1と同様の構成を有し、重複する説明は省略する。発信部711は、信号検知部712が人物の位置情報を認識するためのデバイスである。発信部711は、例えば、警備員が常に携帯する、電波若しくは赤外線などを発する発信機であってもよく、又は他のデバイス(例えば、信号検知部712)と双方向の通信を行う無線デバイスであってもよい。信号検知部712は、発信部711に基づいて、一定エリア内の人物の位置情報を正確に認識することができる。
[System configuration]
FIG. 7 is a block diagram showing an example of a system configuration of a monitoring system having the information processing device 701 according to the present embodiment. The monitoring system according to the present invention has the same configuration as that of FIG. 1 except that it has a transmission unit 711 and a signal detection unit 712 instead of the acquisition unit 111, and redundant description will be omitted. The transmission unit 711 is a device for the signal detection unit 712 to recognize the position information of a person. The transmitter 711 may be, for example, a transmitter that is always carried by a security guard and emits radio waves or infrared rays, or is a wireless device that performs two-way communication with another device (for example, signal detector 712). There may be. The signal detection unit 712 can accurately recognize the position information of a person in a certain area based on the transmission unit 711.

[異常状態と分類される状況例]
図8は、本実施形態に係る情報処理装置701によって異常状態であると識別される状況を説明するための図である。センサである信号検知部803及び804、又は信号検知部823及び824は、事前に指定された人物の特定の行動を検知することにより、所定区域において状態変化が生じたか否かを判断する。図8の例においては、各信号検知部は、警備員の行動を検知することにより、所定区域において状態変化が生じたか否かを判断することができる。
[Example of situation classified as abnormal state]
FIG. 8 is a diagram for explaining a situation identified as an abnormal state by the information processing apparatus 701 according to the present embodiment. The signal detection units 803 and 804, which are sensors, or the signal detection units 823 and 824, detect whether or not a state change has occurred in a predetermined area by detecting a specific action of a person designated in advance. In the example of FIG. 8, each signal detection unit can determine whether or not a state change has occurred in a predetermined area by detecting the behavior of the guard.

図8(A)は、警備員が歩いている状況であり、並びに、状態変化検知部112が各信号検知部が警備員の行動を検知することにより、状態変化が生じていないと判断され及び異常状態とはみなされない状況の一例である。左側のカメラ801は警備員812及び813を画角に捉えており、並びに、右側のカメラ802は人物811を画角に捉えている。さらに、警備員812は発信機(発信部711)を所持しており、並びに、その発信機の位置は、2つの信号検知部803及び804を用いた三角測量によって検出されることができる。この例においては、警備員812は、人物811が視界に入っているが、緊急を要する状況ではないと認識したため、813へと徒歩で移動している。状態変化検知部112は、警備員のそのような行動を検知することにより、所定区域の状況が異常状態ではないと判断する。 FIG. 8A shows a situation in which the guard is walking, and the state change detection unit 112 determines that the state change has not occurred because each signal detection unit detects the behavior of the guard. This is an example of a situation that is not considered an abnormal condition. The camera 801 on the left captures the guards 812 and 813 at the angle of view, and the camera 802 on the right captures the person 811 at the angle of view. Further, the guard 812 possesses a transmitter (transmitter 711), and the position of the transmitter can be detected by triangulation using two signal detection units 803 and 804. In this example, guard 812 is walking to 813 because he recognizes that person 811 is in sight but not in an urgent situation. By detecting such an action of the guard, the state change detection unit 112 determines that the situation in the predetermined area is not an abnormal state.

図8(B)は、警備員が走っている状況であり、並びに、状態変化検知部112が各信号検知部が警備員の行動を検知することにより、状態変化が生じていると判断され及び異常状態であるとみなされる状況の一例である。左側のカメラ821は警備員832及び833を画角に捉えており、並びに、右側のカメラ822は人物831を画角に捉えている。さらに、各警備員832は発信機を所持しており、及び、その発信機の位置は、2つの信号検知部823及び824を用いた三角測量によって検出されることができる。この例においては、警備員832は、倒れている人物831を見つけ、緊急を要する状況であると認識したため、833へと走って移動している。状態変化検知部112は、信号検知部823及び824が警備員のそのような行動を検知することにより、所定区域の状況が異常状態であると判断する。 FIG. 8B shows a situation in which the guard is running, and it is determined that the state change has occurred due to the state change detection unit 112 detecting the behavior of the guard by each signal detection unit. This is an example of a situation that is considered to be an abnormal condition. The camera 821 on the left captures the guards 832 and 833 at the angle of view, and the camera 822 on the right captures the person 831 at the angle of view. Further, each guard 832 possesses a transmitter, and the position of the transmitter can be detected by triangulation using two signal detectors 823 and 824. In this example, guard 832 finds the fallen person 831 and recognizes that it is an urgent situation, so he runs to 833 and moves. The state change detection unit 112 determines that the situation in the predetermined area is in an abnormal state when the signal detection units 823 and 824 detect such an action of the guard.

図9は、図8と同様に、本実施形態に係る情報処理装置701によって異常状態であると識別される状況を説明するための図である。図9の例においては、状態変化検知部112は、カメラ901及び902、又はカメラ921及び922が撮像する画像を用いた簡易的な画像解析によって警備員の行動を検知することにより、所定区域において状態変化が生じたか否かを判断する。 FIG. 9 is a diagram for explaining a situation identified as an abnormal state by the information processing apparatus 701 according to the present embodiment, similarly to FIG. In the example of FIG. 9, the state change detection unit 112 detects the behavior of the guard by simple image analysis using the images captured by the cameras 901 and 902, or the cameras 921 and 922, in a predetermined area. Determine if a state change has occurred.

図9(A)は、警備員が歩いている状況であり、並びに、状態変化検知部112が警備員の行動を検知することにより、状態変化が生じていないと判断され及び異常状態とはみなされない状況の一例である。また、左側のカメラ901は警備員912及び913を画角に捉えており、及び、右側のカメラ902は人物911を画角に捉えている。状態変化検知部112は、例えば、顔認証又は服装に基づいて警備員か否かを判断する画像解析の機能と、人物追尾の機能と、によって、カメラ901及び902の画像から、警備員の位置を検知することができる。警備員912は、人物911が視界に入っているが、緊急を要する状況ではないと認識したため、913へと徒歩で移動している。状態変化検知部112は、警備員のそのような行動を検知することにより、所定区域の状況は異常状態ではないと判断する。 FIG. 9A shows a situation in which the guard is walking, and when the state change detection unit 112 detects the action of the guard, it is determined that no state change has occurred and it is regarded as an abnormal state. This is an example of a situation where it is not done. Further, the camera 901 on the left side captures the guards 912 and 913 at the angle of view, and the camera 902 on the right side captures the person 911 at the angle of view. The state change detection unit 112 uses, for example, an image analysis function for determining whether or not a guard is based on face recognition or clothing, and a person tracking function, from the images of the cameras 901 and 902 to the position of the guard. Can be detected. Guard 912 is walking to 913 because he recognizes that person 911 is in sight but not in an urgent situation. By detecting such an action of the guard, the state change detection unit 112 determines that the situation in the predetermined area is not an abnormal state.

図9(B)は、警備員が走っている状況であり、並びに、状態変化検知部112が警備員の行動を検知することにより、状態変化が生じていると判断され及び異常状態であるとみなされる状況の一例である。また、左側のカメラ921は警備員932及び933を画角に捉えており、及び、右側のカメラ922は人物931を画角に捉えている。警備員912は、人物911が視界に入っているが、緊急を要する状況であると認識したため、913へと走って移動している。状態変化検知部112は、警備員のそのような行動を検知することにより、所定区域の状況が異常状態であると判断する。 FIG. 9B shows a situation in which the guard is running, and the state change detection unit 112 detects the behavior of the guard, so that it is determined that the state change has occurred and the state is abnormal. This is an example of a situation that is considered. Further, the camera 921 on the left side captures the guards 932 and 933 at the angle of view, and the camera 922 on the right side captures the person 931 at the angle of view. Guard 912 is running to 913 because he recognizes that the person 911 is in sight but is in an urgent situation. The state change detection unit 112 determines that the situation in the predetermined area is an abnormal state by detecting such an action of the guard.

また、警備員の人物追尾の方法は特に限定されない。警備員の人物追尾は、単純な背景分離による追尾では複数人物が重なった場合又は人物以外の動体が写り込んだ場合などに誤検知をする可能性が高いことを考えて、人物の形状を認識することにより行われてもよい。例えば、状態変化検知部112は、人物の顔又は全身などの形状を、輪郭線の輝度勾配又はオプティカルフローなどの公知の技術を組み合わせて認識し、及び、さらに複数フレーム間でその動きを追尾してもよい。そのような処理によれば、上述の誤検知の可能性を低減することができる。 In addition, the method of tracking the person of the guard is not particularly limited. The guard's person tracking recognizes the shape of the person, considering that there is a high possibility of false detection when multiple people overlap or when a moving object other than the person is reflected in the tracking by simple background separation. It may be done by doing. For example, the state change detection unit 112 recognizes the shape of a person's face or whole body by combining known techniques such as the brightness gradient of the contour line or the optical flow, and further tracks the movement between a plurality of frames. You may. According to such processing, the possibility of the above-mentioned false detection can be reduced.

[学習フェーズの動作]
図10は、本実施形態に係る監視システムが学習フェーズにおいて行う処理の一例を示すフローチャートである。(A)メインルーチン、並びに(B)サブルーチン及び(C)サブルーチンは、そのような処理のメインルーチン及びサブルーチンをそれぞれ示す。この例においては、情報処理装置701は、(B)サブルーチンにおける警備員が駆け寄ったかを認識するS1011、及びS1011での詳細な処理を示す(C)サブルーチンを除き、図5と同様の処理を行うため、重複する説明は省略する。
[Learning phase operation]
FIG. 10 is a flowchart showing an example of processing performed in the learning phase by the monitoring system according to the present embodiment. The (A) main routine, and the (B) and (C) subroutines indicate the main routine and the subroutine of such processing, respectively. In this example, the information processing apparatus 701 performs the same processing as in FIG. 5 except for (B) S1011 that recognizes whether the guard in the subroutine has rushed and (C) the subroutine that shows the detailed processing in S1011. Therefore, the duplicate description will be omitted.

(B)サブルーチンのステップS1011において、状態変化検知部112は、警備員が駆け寄ったかを認識するために(C)サブルーチンのステップS1021(後述)を呼び出し、次いでステップS512へと進む。ステップS512において状態変化検知部112は、(C)サブルーチンの出力に応じて、状態変化が生じたかどうかを判断し、及び、実施形態1と同様に処理を行う。 (B) In step S1011 of the subroutine, the state change detection unit 112 calls step S1021 (described later) of (C) the subroutine in order to recognize whether the guard has rushed, and then proceeds to step S512. In step S512, the state change detection unit 112 determines whether or not a state change has occurred according to the output of the subroutine (C), and performs processing in the same manner as in the first embodiment.

ステップS1021において状態変化検知部112は、警備員が、カメラの付近にいるかどうか、又はカメラの撮像範囲内に存在するかどうかを判断する。状態変化検知部112は、例えば図8で説明した発信機によって警備員がいずれかのカメラの付近にいることを検知したか否かを判断できる。カメラの付近として設定される領域は特に限定されず、所望の条件に応じて適宜設定される。以下においては、カメラの付近の区域は、そのカメラの位置に基づいてカメラ毎に定められる所定の範囲内の区域のことを指すものとする。また、状態変化検知部112は、図9で説明した画像解析によっていずれかのカメラの撮像範囲に警備員がいることを検知したか否かを判断できる。状態変化検知部112は、警備員がカメラの付近にいない、又はカメラの撮像範囲内にいないと判断した場合においては、所定区域の状況は正常状態であると判断し、及び、その状況を捉えている画像に学習データ除外フラグを付与しない。次いで、処理はサブルーチン呼び出し元に戻り、ステップS1012へと進む。そうでない場合においては、その画像は異常状態を捉えている可能性があるため、次の条件を確認するために処理がステップS1022へと進む。 In step S1021, the state change detection unit 112 determines whether the guard is in the vicinity of the camera or within the imaging range of the camera. The state change detection unit 112 can determine, for example, whether or not the transmitter described with reference to FIG. 8 has detected that the guard is in the vicinity of any of the cameras. The area set as the vicinity of the camera is not particularly limited, and is appropriately set according to desired conditions. In the following, the area near the camera shall refer to the area within a predetermined range determined for each camera based on the position of the camera. In addition, the state change detection unit 112 can determine whether or not it has detected that a guard is in the imaging range of any of the cameras by the image analysis described with reference to FIG. When the state change detection unit 112 determines that the guard is not near the camera or within the imaging range of the camera, the state change detection unit 112 determines that the situation in the predetermined area is normal, and captures the situation. Do not add the training data exclusion flag to the image. Then, the process returns to the subroutine caller and proceeds to step S1012. If this is not the case, the image may capture an abnormal state, and the process proceeds to step S1022 to confirm the next condition.

ステップS1022において状態変化検知部112は、警備員が駆け寄っている状況が異常状態であると判断するために、警備員の移動速度が所定の閾値を超えているかを判断する。状態変化検知部112は、警備員の移動速度が閾値を超えている場合では、所定区域の状況は異常状態であると判断し、その状況を捉えている画像に学習データ除外フラグを付与する。ここで閾値として設定される移動速度の値は特に限定されない。例えば、徒歩の平均的な速度が時速4km程度と言われていることから、状態変化検知部112は、警備員の移動速度がその2倍の時速8kmを超えた場合に、警備員が目視で異常を見つけ、及び走って駆け付けた状況であると判断してもよい。つまり、所定区域の状況が異常状態であると判断してもよい。状態変化検知部112は、警備員の移動速度が閾値以下である場合においては、所定区域の状況は正常状態であると判断し、及びその映像に学習データフラグを付与しない。次いで、処理はサブルーチン呼び出し元に戻り、ステップS512へと進む。 In step S1022, the state change detection unit 112 determines whether the moving speed of the guard exceeds a predetermined threshold value in order to determine that the situation in which the guard is running up is an abnormal state. When the movement speed of the guard exceeds the threshold value, the state change detection unit 112 determines that the situation in the predetermined area is an abnormal state, and adds a learning data exclusion flag to the image capturing the situation. The value of the moving speed set as the threshold value here is not particularly limited. For example, since it is said that the average speed of walking is about 4 km / h, the state change detection unit 112 is visually checked by the guard when the moving speed of the guard exceeds twice that speed of 8 km / h. You may find an anomaly and determine that you are in a rushing situation. That is, it may be determined that the condition of the predetermined area is abnormal. When the movement speed of the guard is equal to or less than the threshold value, the state change detection unit 112 determines that the situation in the predetermined area is a normal state, and does not add the learning data flag to the image. Then, the process returns to the subroutine caller and proceeds to step S512.

状態変化検知部112が警備員の行動を検知するにあたり、その警備員を認識する方法は特に限定されない。状態変化検知部112は、例えば、撮像画像から、服装又は帽子などを認識することにより、撮像画像中の人物が警備員であるかどうかの認識を行ってもよい。また、状態変化検知部112は、警備員が携帯するビーコン(発信器)に基づいて、人物が警備員であるかどうかの識別を行ってもよい。 When the state change detection unit 112 detects the behavior of a guard, the method of recognizing the guard is not particularly limited. The state change detection unit 112 may recognize whether or not the person in the captured image is a security guard by recognizing clothes, a hat, or the like from the captured image, for example. Further, the state change detection unit 112 may identify whether or not the person is a security guard based on a beacon (transmitter) carried by the security guard.

また、状態変化検知部112が警備員の移動速度を測定する方法は特に限定されない。状態変化検知部112は、例えば、分類を行う画像を撮像する撮像装置と、それとは別の撮像装置と、に基づいた人物追尾技術によって警備員の移動速度を算出してもよい。また、状態変化検知部112は、警備員が携帯する速度センサによって警備員の移動速度を測定してもよい。 Further, the method in which the state change detection unit 112 measures the moving speed of the guard is not particularly limited. The state change detection unit 112 may calculate the moving speed of the guard by, for example, a person tracking technique based on an image pickup device that captures an image to be classified and another image pickup device. Further, the state change detection unit 112 may measure the moving speed of the guard by a speed sensor carried by the guard.

このような構成によれば、センサ又は画像により認識される警備員の位置及び行動に基づいて、撮像画像中の光景に変化が生じているか否かを判断し、並びに正常状態を捉えていると判断された画像を学習データとして識別器を生成することができる。 According to such a configuration, it is determined whether or not there is a change in the scene in the captured image based on the position and action of the guard recognized by the sensor or the image, and the normal state is captured. A classifier can be generated using the determined image as training data.

(その他の実施形態)
本実施例では、システムに直接接続並びに常設されているセンサ、カメラ、通報設備、及び通信設備からの状態変化の信号を元に異常状態かを判断することにより異常状態の画像を分類する方法を説明したが、特にこれに限定されるわけではない。例えば、仮設のセンサ、カメラ、通報設備、及び通信設備を元に、上述の判断及び分類を行ってもよい。また、状態変化が生じたことを示す信号として、システムに直接接続されていない来店客の個人所有の通信端末などからの通報、又は行政機関が発表する緊急地震速報及び気象警報などを監視システムが受け取る方法を用いてもよい。
(Other embodiments)
In this embodiment, a method of classifying an image of an abnormal state by determining whether it is an abnormal state based on a state change signal from a sensor, a camera, a reporting facility, and a communication facility that are directly connected to the system and permanently installed. Although explained, it is not particularly limited to this. For example, the above-mentioned judgment and classification may be performed based on temporary sensors, cameras, reporting equipment, and communication equipment. In addition, as a signal indicating that a state change has occurred, the monitoring system monitors reports from personal communication terminals of customers who are not directly connected to the system, or earthquake early warnings and weather warnings announced by government agencies. You may use the receiving method.

また、本実施例では、カメラの撮像範囲内に警備員がいるか否かを判断する方法として、施設に設置した信号検知部が警備員が保持する発信機の信号を検知する方法と、顔又は服装によって映像解析を行う方法とを説明した。しかし、カメラの撮像範囲内に警備員がいるか否かを判断する方法は特にこれらには限定されない。例えば、状態変化検知部112は、足音又は声紋などの映像以外の情報に基づいて、カメラの撮像範囲内に警備員がいるか否かを判断してもよい。また、発信と受信を逆にする、つまり、施設に発信機を設置し、警備員が通信機能を併せ持つ信号検知部を保持する方法によって判断してもよい。 Further, in the present embodiment, as a method of determining whether or not there is a guard within the imaging range of the camera, a method of detecting the signal of the transmitter held by the guard by the signal detection unit installed in the facility and the face or He explained how to analyze images by clothes. However, the method of determining whether or not there is a guard within the imaging range of the camera is not particularly limited to these. For example, the state change detection unit 112 may determine whether or not there is a guard within the imaging range of the camera based on information other than the image such as footsteps or voiceprints. Further, transmission and reception may be reversed, that is, a determination may be made by a method in which a transmitter is installed in the facility and a guard holds a signal detection unit having a communication function.

さらに、本実施例では、カメラの撮像範囲内に警備員がいるか否かを判断する際に、映像解析で検出する対象が警備員であるとして説明したが、特にこれに限定されるわけではない。例えば、警察官又は店員などの、識別が容易な制服を着用している人物を検出する対象としてもよい。また、本実施例においては警備員が駆け寄っている状態が異常状態であると判断されると説明したが、ここで駆け寄る人物は特に警備員に限定されるわけではない。例えば、緊急を要する状況だと判断して駆け寄る行動を起こした一般の通行人を検知することにより、所定区域が異常状態であるか否かの判断を行ってもよい。さらに、これらの処理において認識されるのは人物に限らず、人物(警備員)の代わりに適宜設定される所望の物体について、上述の処理を行ってもよい。 Further, in the present embodiment, it has been described that the target to be detected by the video analysis is the guard when determining whether or not there is a guard within the imaging range of the camera, but the present invention is not particularly limited to this. .. For example, it may be a target for detecting a person wearing an easily identifiable uniform such as a police officer or a clerk. Further, in the present embodiment, it has been explained that the state in which the guards are running up is determined to be an abnormal state, but the person running up here is not particularly limited to the guards. For example, it may be determined whether or not the predetermined area is in an abnormal state by detecting a general passerby who has determined that the situation is urgent and has taken a rushing action. Further, what is recognized in these processes is not limited to the person, and the above-mentioned process may be performed on a desired object appropriately set instead of the person (guard).

また、状態変化検知部112、録画部122、蓄積部123、生成部131、及び識別部141は、カメラを意味する撮像部121とは別に用意されたサーバで処理を行うとして説明したが、特にそのように限定されるわけではない。例えば、それらの一部又は全てがカメラ内に内蔵されていてもよい。 Further, the state change detection unit 112, the recording unit 122, the storage unit 123, the generation unit 131, and the identification unit 141 have been described as performing processing by a server prepared separately from the image pickup unit 121 which means a camera. It is not limited to that. For example, some or all of them may be built into the camera.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.

101:監視システム、111:取得部、112:状態変化検知部、121:撮像部、122:録画部、123:蓄積部、131:生成部、141:識別部、142:発報部、151:LAN 101: Monitoring system, 111: Acquisition unit, 112: State change detection unit, 121: Imaging unit, 122: Recording unit, 123: Storage unit, 131: Generation unit, 141: Identification unit, 142: Notification unit, 151: LAN

Claims (19)

撮像装置が所定区域を撮像することにより得られた複数の画像を取得する第1の取得手段と、
前記所定区域の状況の変化を示す情報を検知装置から取得する第2の取得手段と、
前記所定区域の状況の変化を示す情報に基づいて、前記複数の画像を分類する分類手段と、
前記分類手段による分類結果に従って、前記複数の画像の少なくとも一部を用いて、画像から前記所定区域の状況を判定する識別器の学習を行う学習手段と、
を備えることを特徴とする情報処理装置。
A first acquisition means for acquiring a plurality of images obtained by the imaging device imaging a predetermined area, and
A second acquisition means for acquiring information indicating a change in the situation in the predetermined area from the detection device, and
A classification means for classifying the plurality of images based on information indicating changes in the situation of the predetermined area, and
A learning means for learning a classifier that determines the situation of the predetermined area from the images by using at least a part of the plurality of images according to the classification result by the classification means.
An information processing device characterized by being equipped with.
前記分類手段は、前記複数の画像から、前記所定区域が正常状態にある際に前記撮像装置により撮像された画像、又は前記所定区域が異常状態にある際に前記撮像装置により撮像された画像を分離することを特徴とする、請求項1に記載の情報処理装置。 From the plurality of images, the classification means obtains an image captured by the imaging device when the predetermined area is in a normal state, or an image captured by the imaging device when the predetermined area is in an abnormal state. The information processing apparatus according to claim 1, wherein the information processing apparatus is separated. 前記学習手段は、前記所定区域が正常状態にある際に前記撮像装置により撮像された画像を選択的に用いて、前記識別器の学習を行うことを特徴とする、請求項1又は2に記載の情報処理装置。 The first or second aspect of the present invention, wherein the learning means selectively uses an image captured by the imaging device when the predetermined area is in a normal state to learn the classifier. Information processing equipment. 前記所定区域の状況の変化を示す情報は、前記所定区域に関連する検知区域にある物体の位置情報を含み、
前記分類手段は、前記物体の位置に基づいて、前記所定区域が正常状態にあるか異常状態にあるかを判定することを特徴とする、請求項1乃至3の何れか一項に記載の情報処理装置。
The information indicating the change in the situation of the predetermined area includes the position information of the object in the detection area related to the predetermined area.
The information according to any one of claims 1 to 3, wherein the classification means determines whether the predetermined area is in a normal state or an abnormal state based on the position of the object. Processing equipment.
前記検知装置が、前記物体の位置情報を含む信号を発信する発信装置であり、
前記第2の取得手段は、前記信号を受信することにより、前記物体の位置情報を取得することを特徴とする、請求項4に記載の情報処理装置。
The detection device is a transmission device that transmits a signal including position information of the object.
The information processing apparatus according to claim 4, wherein the second acquisition means acquires the position information of the object by receiving the signal.
前記分類手段は、前記物体の位置が前記検知区域の内から検出されない場合に、前記所定区域が正常状態であると判定することを特徴とする、請求項4又は5に記載の情報処理装置。 The information processing apparatus according to claim 4 or 5, wherein the classification means determines that the predetermined area is in a normal state when the position of the object is not detected in the detection area. 前記分類手段は、前記物体の速度に基づいて、前記所定区域が正常状態にあるか異常状態にあるかを判定することを特徴とする、請求項4乃至6の何れか一項に記載の情報処理装置。 The information according to any one of claims 4 to 6, wherein the classification means determines whether the predetermined area is in a normal state or an abnormal state based on the speed of the object. Processing equipment. 前記分類手段は、前記物体の速度を検知する速度センサ、又は前記第1の取得手段により取得された複数の画像に基づいて、前記物体の速度を取得することを特徴とする、請求項7に記載の情報処理装置。 7. The classification means is characterized in that the speed of the object is acquired based on a speed sensor that detects the speed of the object or a plurality of images acquired by the first acquisition means. The information processing device described. 前記所定区域の状況の変化を示す情報は、人物の行動を示す情報を含み、
前記分類手段は、事前に指定された人物が特定の行動を行っている場合に、前記所定区域が異常状態にあると判定することを特徴とする、請求項1乃至8の何れか一項に記載の情報処理装置。
The information indicating the change in the situation in the predetermined area includes information indicating the behavior of the person.
The classification means according to any one of claims 1 to 8, wherein the predetermined area is determined to be in an abnormal state when a person designated in advance is performing a specific action. The information processing device described.
前記検知装置が、人物の服装に基づいて、前記事前に指定された人物を検出することを特徴とする、請求項9に記載の情報処理装置。 The information processing device according to claim 9, wherein the detection device detects the person specified in advance based on the clothes of the person. 前記検知装置は、前記所定区域に関連する検知区域の状況を検知するセンサ、前記検知区域に関連する通報スイッチ、又は前記検知区域を撮像する前記撮像装置とは別の撮像装置であることを特徴とする、請求項1乃至10の何れか一項に記載の情報処理装置。 The detection device is characterized by being a sensor that detects the status of the detection area related to the predetermined area, a notification switch related to the detection area, or an image pickup device different from the image pickup device that images the detection area. The information processing device according to any one of claims 1 to 10. 前記画像と、前記画像が撮像された際の前記所定区域の状況の変化を示す情報と、を関連付けて蓄積する格納手段をさらに備え、
前記学習手段は、前記格納手段に蓄積された前記画像を用いて前記識別器の学習を行うことを特徴とする、請求項1乃至11の何れか一項に記載の情報処理装置。
A storage means for accommodating and accumulating the image and information indicating a change in the situation of the predetermined area when the image is captured is further provided.
The information processing apparatus according to any one of claims 1 to 11, wherein the learning means learns the classifier using the image stored in the storage means.
学習後の前記識別器と前記画像とを用いて、前記所定区域の状況を判定する判定手段をさらに備えることを特徴とする、請求項1乃至12の何れか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 12, further comprising a determination means for determining a situation in the predetermined area by using the discriminator after learning and the image. 前記判定手段の判定に応じて通知処理を実行する通知手段をさらに備えることを特徴とする、請求項13に記載の情報処理装置。 The information processing apparatus according to claim 13, further comprising a notification means that executes a notification process in response to a determination of the determination means. 前記通知処理がアラートであることを特徴とする、請求項14に記載の情報処理装置。 The information processing apparatus according to claim 14, wherein the notification process is an alert. 請求項1乃至15の何れか一項に記載の情報処理装置を備える監視システムであって、
前記撮像装置は、前記情報処理装置の遠隔地に配置されたネットワークカメラであることを特徴とする、監視システム。
A monitoring system including the information processing device according to any one of claims 1 to 15.
The monitoring system is characterized in that the imaging device is a network camera arranged at a remote location of the information processing device.
前記検知装置は、前記情報処理装置の遠隔地に設置されていることを特徴とする、請求項16に記載の監視システム。 The monitoring system according to claim 16, wherein the detection device is installed at a remote location of the information processing device. 撮像装置が所定区域を撮像することにより得られた複数の画像を取得する工程と、
前記所定区域の状況の変化を示す情報を検知装置から取得する工程と、
前記所定区域の状況の変化を示す情報に基づいて、前記複数の画像を分類する工程と、
前記複数の画像の分類結果に従って、前記複数の画像の少なくとも一部を用いて、画像から前記所定区域の状況を判定する識別器の学習を行う工程と、
を備えることを特徴とする情報処理方法。
The process of acquiring a plurality of images obtained by the image pickup device capturing a predetermined area, and
The process of acquiring information indicating a change in the situation in the predetermined area from the detection device, and
A step of classifying the plurality of images based on information indicating a change in the situation of the predetermined area, and
A step of learning a classifier that determines the situation of the predetermined area from the images by using at least a part of the plurality of images according to the classification result of the plurality of images.
An information processing method characterized by being provided with.
コンピュータを、請求項1乃至15の何れか一項に記載の情報処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the information processing apparatus according to any one of claims 1 to 15.
JP2019212525A 2019-11-25 2019-11-25 Information processing device, information processing method, monitoring system, and program Pending JP2021087031A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019212525A JP2021087031A (en) 2019-11-25 2019-11-25 Information processing device, information processing method, monitoring system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019212525A JP2021087031A (en) 2019-11-25 2019-11-25 Information processing device, information processing method, monitoring system, and program

Publications (1)

Publication Number Publication Date
JP2021087031A true JP2021087031A (en) 2021-06-03

Family

ID=76088582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019212525A Pending JP2021087031A (en) 2019-11-25 2019-11-25 Information processing device, information processing method, monitoring system, and program

Country Status (1)

Country Link
JP (1) JP2021087031A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12106643B2 (en) 2021-12-10 2024-10-01 Toyota Jidosha Kabushiki Kaisha Security system, security method, and non-transitory computer-readable storage medium storing security program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12106643B2 (en) 2021-12-10 2024-10-01 Toyota Jidosha Kabushiki Kaisha Security system, security method, and non-transitory computer-readable storage medium storing security program

Similar Documents

Publication Publication Date Title
JP4803376B2 (en) Camera tampering detection method
CN101025825B (en) Abnormal action detecting device
KR101464344B1 (en) Surveillance camera and image managing system, and method for detecting abnormal state by training normal state of surveillance image
KR101425505B1 (en) The monitering method of Intelligent surveilance system by using object recognition technology
KR102195706B1 (en) Method and Apparatus for Detecting Intruder
JP5644097B2 (en) Image processing apparatus, image processing method, and program
KR101980551B1 (en) System For Detecting An Action Through Real-Time Intelligent CCTV Image Analysis Using Machine Learning Object Detection And Method For Detecting An Action Through Real-Time Intelligent CCTV Image Analysis Using Machine Learning Object Detection
CN109377697A (en) Rapid Alarm method of disposal under a kind of intensive camera head environment
KR20070029760A (en) Monitoring devices
KR101467352B1 (en) location based integrated control system
JP6336709B2 (en) Security device, security method and program
KR20190035186A (en) Intelligent unmanned security system using deep learning technique
JP2006287884A (en) Intelligent video monitoring system
KR101442669B1 (en) Method and apparatus for criminal acts distinction using intelligent object sensing
KR101075550B1 (en) Image sensing agent and security system of USN complex type
KR20160074208A (en) System and method for providing safety service using beacon signals
KR20210043960A (en) Behavior Recognition Based Safety Monitoring System and Method using Artificial Intelligence Technology and IoT
KR102046591B1 (en) Image Monitoring System and Method for Monitoring Image
KR101046819B1 (en) Method and system for watching an intrusion by software fence
JP2021087031A (en) Information processing device, information processing method, monitoring system, and program
KR20100004706A (en) Security image monitoring system and method using rfid reader
KR20100077662A (en) Inteligent video surveillance system and method thereof
KR20120068150A (en) Obfect tracking system and method thereof
JP5580686B2 (en) Reporting device
JP5520675B2 (en) Reporting device

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113