JP6098963B1 - MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM - Google Patents
MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM Download PDFInfo
- Publication number
- JP6098963B1 JP6098963B1 JP2016122094A JP2016122094A JP6098963B1 JP 6098963 B1 JP6098963 B1 JP 6098963B1 JP 2016122094 A JP2016122094 A JP 2016122094A JP 2016122094 A JP2016122094 A JP 2016122094A JP 6098963 B1 JP6098963 B1 JP 6098963B1
- Authority
- JP
- Japan
- Prior art keywords
- camera
- mask
- captured
- video
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 214
- 238000012544 monitoring process Methods 0.000 title claims description 55
- 238000004590 computer program Methods 0.000 title claims description 5
- 238000012545 processing Methods 0.000 claims abstract description 338
- 238000003384 imaging method Methods 0.000 claims abstract description 106
- 230000000873 masking effect Effects 0.000 claims abstract description 35
- 230000010365 information processing Effects 0.000 claims abstract description 25
- 230000008569 process Effects 0.000 claims description 170
- 102100031437 Cell cycle checkpoint protein RAD1 Human genes 0.000 description 33
- 101001130384 Homo sapiens Cell cycle checkpoint protein RAD1 Proteins 0.000 description 33
- 238000010586 diagram Methods 0.000 description 33
- 230000006870 function Effects 0.000 description 31
- 238000003860 storage Methods 0.000 description 28
- 238000009826 distribution Methods 0.000 description 17
- 230000004044 response Effects 0.000 description 17
- 101000855847 Mus musculus Cytohesin-3 Proteins 0.000 description 12
- 238000004891 communication Methods 0.000 description 12
- 102100029380 CMRF35-like molecule 2 Human genes 0.000 description 10
- 102100033934 DNA repair protein RAD51 homolog 2 Human genes 0.000 description 10
- 101001132307 Homo sapiens DNA repair protein RAD51 homolog 2 Proteins 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 10
- 108010036356 cytohesin-2 Proteins 0.000 description 10
- 101100412103 Arabidopsis thaliana REC3 gene Proteins 0.000 description 9
- 101100528972 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) RPD3 gene Proteins 0.000 description 9
- 238000007726 management method Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- AJICOSVECOHRCM-UHFFFAOYSA-N 2-[2-[2-[2-[bis(carboxymethyl)amino]-5-[2-(3-ethyl-1,3-benzothiazol-3-ium-2-yl)ethenyl]phenoxy]ethoxy]-n-(carboxymethyl)-4-methylanilino]acetic acid;iodide Chemical compound [I-].S1C2=CC=CC=C2[N+](CC)=C1\C=C\C(C=1)=CC=C(N(CC(O)=O)CC(O)=O)C=1OCCOC1=CC(C)=CC=C1N(CC(O)=O)CC(O)=O AJICOSVECOHRCM-UHFFFAOYSA-N 0.000 description 5
- 230000006399 behavior Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 101100384033 Mus musculus Cd300ld gene Proteins 0.000 description 4
- 230000006866 deterioration Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000009434 installation Methods 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 238000001454 recorded image Methods 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 101100384031 Mus musculus Cd300c2 gene Proteins 0.000 description 3
- 102220534424 Pseudouridylate synthase 7 homolog-like protein_S34A_mutation Human genes 0.000 description 3
- 102220472113 Transmembrane protein_S67A_mutation Human genes 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000012806 monitoring device Methods 0.000 description 3
- 102220560887 Aldehyde dehydrogenase family 16 member A1_S36A_mutation Human genes 0.000 description 2
- 102100031264 Choriogonadotropin subunit beta variant 1 Human genes 0.000 description 2
- 101000776621 Homo sapiens Choriogonadotropin subunit beta variant 1 Proteins 0.000 description 2
- 101000945096 Homo sapiens Ribosomal protein S6 kinase alpha-5 Proteins 0.000 description 2
- 102220534543 Pseudouridylate synthase 7 homolog-like protein_S35A_mutation Human genes 0.000 description 2
- 102100033645 Ribosomal protein S6 kinase alpha-5 Human genes 0.000 description 2
- 102220490404 S-adenosylhomocysteine hydrolase-like protein 1_S66A_mutation Human genes 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- CDFKCKUONRRKJD-UHFFFAOYSA-N 1-(3-chlorophenoxy)-3-[2-[[3-(3-chlorophenoxy)-2-hydroxypropyl]amino]ethylamino]propan-2-ol;methanesulfonic acid Chemical compound CS(O)(=O)=O.CS(O)(=O)=O.C=1C=CC(Cl)=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC(Cl)=C1 CDFKCKUONRRKJD-UHFFFAOYSA-N 0.000 description 1
- 102100029390 CMRF35-like molecule 1 Human genes 0.000 description 1
- 101000990055 Homo sapiens CMRF35-like molecule 1 Proteins 0.000 description 1
- 101000870135 Mus musculus Cytohesin-1 Proteins 0.000 description 1
- 102220468073 Trafficking protein particle complex subunit 5_S52A_mutation Human genes 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 102220198146 rs1057519886 Human genes 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
Abstract
【課題】複数種類の異なる撮像映像をモニタに分割して表示する際に、個々の撮像映像に対するマスク処理の実行又は不実行の設定を撮像映像毎に簡易に設定し、ユーザの使い勝手を向上する。【解決手段】情報処理装置は、個々のカメラにより撮像された撮像エリアの撮像映像に現れる移動体の少なくとも一部をマスク画像に変更するためのマスク処理の実行又は不実行の設定情報をカメラごとに保持する。情報処理装置は、マスク処理の実行が設定された複数のカメラにより撮像された個々の撮像映像をマスク処理して得た個々の編集映像、又はマスク処理の実行が設定された1つのカメラにより撮像された個々の撮像映像をマスク処理して得た編集映像とマスク処理の不実行が設定された少なくとも1つのカメラにより撮像された個々の撮像映像と、をモニタに分割表示する。【選択図】図15To divide and display a plurality of different types of captured images on a monitor and to easily set the execution or non-execution of mask processing for each captured image for each captured image to improve user convenience. . An information processing apparatus includes setting information on execution or non-execution of mask processing for changing at least a part of a moving body appearing in a captured image of an imaging area captured by an individual camera into a mask image for each camera. Hold on. The information processing apparatus captures an individual edited video obtained by performing mask processing on individual captured images captured by a plurality of cameras set to perform mask processing or a single camera configured to perform mask processing. The edited video obtained by masking the individual captured video and the individual captured video captured by at least one camera set not to execute the mask processing are divided and displayed on the monitor. [Selection] Figure 15
Description
本発明は、監視エリアの撮像映像において検知された移動体(例えば人物)の画像領域を、その移動体が誰であるかを特定不能とするためのマスク画像に変更するマスク処理後の編集映像を出力するモニタリングシステム、映像表示方法及びコンピュータプログラムに関する。 The present invention relates to an edited video after mask processing for changing an image area of a moving body (for example, a person) detected in a captured image of a monitoring area to a mask image for making it impossible to specify who the moving body is. The present invention relates to a monitoring system , a video display method, and a computer program .
コンビニエンスストア等の店舗においては、店舗内を撮影するカメラが設置され、そのカメラの撮像により得られた映像(以下、「撮像映像」という)を用いて店舗内の人物を監視する監視システムが広く普及している。このような監視システムの運用において、監視以外の目的(例えば店舗内の人物の動線を把握してマーケティング分析やサービス向上を図るという目的)に撮影映像を利用する場合、カメラにより映し出される人物(例えば顧客)のプライバシーを保護する必要がある。 In stores such as convenience stores, cameras that shoot inside the store are installed, and there are a wide variety of monitoring systems that monitor people in the store using video (hereinafter referred to as “captured video”) obtained by imaging with the camera. It is popular. In the operation of such a monitoring system, when using a photographed image for purposes other than monitoring (for example, the purpose of grasping the flow of people in a store and promoting marketing analysis and service improvement), the person shown by the camera ( For example, customers' privacy needs to be protected.
ここで、店舗内の人物の属性別に人物の行動の傾向を把握する先行技術として、例えば特許文献1に示すモニタリングシステムが知られている。特許文献1のモニタリングシステムは、監視エリアを撮影した動画映像から検知された人物の画像領域をマスク画像に変更したマスク映像を生成して出力するモニタリング装置を有する。モニタリング装置は、撮像画像から検知された人物毎の領域情報を取得し、撮像映像から検知された人物毎の属性を判定し、属性別のマスク画像を設定する。モニタリング装置は、人物毎の領域情報及び属性を基に、人物毎の輪郭線を生成し、この輪郭線内部を属性別に指定されたマスク画像に変更したマスク映像を生成して出力する。 Here, for example, a monitoring system disclosed in Patent Document 1 is known as a prior art for grasping a tendency of a person's action for each attribute of a person in a store. The monitoring system of Patent Literature 1 includes a monitoring device that generates and outputs a mask video in which a person's image area detected from a moving image captured in a monitoring area is changed to a mask image. The monitoring device acquires area information for each person detected from the captured image, determines an attribute for each person detected from the captured video, and sets a mask image for each attribute. The monitoring device generates a contour line for each person based on the region information and attributes for each person, and generates and outputs a mask video in which the inside of the contour line is changed to a mask image designated for each attribute.
特許文献1によれば、監視エリアにおいて検知された人物の動画映像内の位置情報及び人物の属性(例えば性別、年齢)毎にマスク画像が生成されるため、そのマスク画像により、プライバシーを確保した上で店舗内の人物の行動が把握可能となる。 According to Patent Document 1, since a mask image is generated for each position information and person attribute (for example, gender, age) in a moving image of a person detected in a monitoring area, privacy is ensured by the mask image. The behavior of the person in the store can be grasped above.
しかしながら、特許文献1では、動画映像において検知された人物の画像領域をマスク画像に変更するのはカメラであり、カメラからの動画映像を受信する受信装置(例えばユーザが使用するクライアントPC)によりマスク処理が行われることは考慮されていない。 However, in Patent Document 1, it is a camera that changes the image area of a person detected in a moving image to a mask image, and the mask is set by a receiving device (for example, a client PC used by a user) that receives the moving image from the camera. It is not taken into account that processing is performed.
このため、クライアントPCが複数のカメラにより撮像されたそれぞれ異なる撮像映像を受信してモニタに分割表示している間、それぞれの撮像映像毎にマスク処理の実行又は不実行の有無の設定を個々に行うことができず、ユーザの使い勝手が良くなかった。例えば、カメラにてマスク処理が行われるように予め設定されている場合、そのカメラから配信された映像がクライアントPCのモニタに表示されている間では、カメラの撮像処理を一旦停止させ、カメラのマスク処理を不実行とする設定に変更しない限り、モニタでの表示途中でクライアントPCにより、カメラにおけるマスク処理を不実行とする設定に変更することはできなかった。 For this reason, while the client PC receives different captured images captured by a plurality of cameras and separately displays them on the monitor, the setting of whether or not to perform mask processing is individually set for each captured image. It was not possible to do this, and the user-friendliness was not good. For example, when the camera is set in advance to perform mask processing, while the video distributed from the camera is displayed on the monitor of the client PC, the camera imaging process is temporarily stopped and the camera Unless the mask processing is changed to the setting that does not execute, the client PC cannot be changed to the setting that disables the mask processing in the camera during the display on the monitor.
本発明は、上述した従来の状況に鑑みて案出され、複数種類の異なる撮像映像をモニタに分割して表示する際に、個々の撮像映像に対するマスク処理の実行又は不実行の設定を撮像映像毎に簡易に設定し、ユーザの使い勝手を向上するモニタリングシステム、映像表示方法及びコンピュータプログラムを提供することを目的とする。 The present invention has been devised in view of the above-described conventional situation, and when a plurality of different types of captured images are divided and displayed on a monitor, the setting of execution or non-execution of mask processing for each captured image is captured. It is an object of the present invention to provide a monitoring system , a video display method, and a computer program that are easily set for each user and improve user convenience.
本発明は、撮像エリアを撮像する複数のカメラと、個々の前記カメラにより撮像された前記撮像エリアの撮像映像に現れる移動体の少なくとも一部をマスク画像に変更するためのマスク処理の実行又は不実行の設定情報を前記カメラごとに保持する情報処理装置と、を備え、前記情報処理装置は、前記マスク処理の実行が設定された複数のカメラにより撮像された個々の撮像映像を前記情報処理装置でマスク処理して得た個々の編集映像、又は前記マスク処理の実行が設定された少なくとも1つのカメラにより撮像された個々の撮像映像を前記情報処理装置でマスク処理して得た編集映像と前記マスク処理の不実行が設定された少なくとも1つのカメラにより撮像された個々の撮像映像と、をモニタに分割表示する、モニタリングシステムを提供する。 The present invention performs execution or non-execution of a mask process for changing a plurality of cameras that capture an imaging area and at least a part of a moving body that appears in the captured image of the imaging area captured by each of the cameras to a mask image. the setting information of the execution and a processing device for holding for each of the camera, the information processing apparatus, the information processing apparatus of the individual captured image captured by multiple cameras execution of the masking process is set wherein in each edited video obtained by masking, or as the mask processing edited video imaging picture obtained by mask processing by the information processing apparatus each execution is imaged by the at least one camera is set in A monitoring system that divides and displays, on a monitor, individual captured images captured by at least one camera for which non-execution of mask processing is set Subjected to.
また、本発明は、撮像エリアを撮像する複数のカメラにより撮像された前記撮像エリアの撮像映像をモニタに表示する情報処理装置を用いて映像を表示する映像表示方法であって、前記情報処理装置は、個々の前記カメラにより撮像された前記撮像エリアの撮像映像に現れる移動体の少なくとも一部をマスク画像に変更するためのマスク処理の実行又は不実行の設定情報を前記カメラごとに保持し、前記情報処理装置は、前記マスク処理の実行が設定された複数のカメラにより撮像された個々の撮像映像を前記情報処理装置でマスク処理して得た個々の編集映像、又は前記マスク処理の実行が設定された少なくとも1つのカメラにより撮像された個々の撮像映像を前記情報処理装置でマスク処理して得た編集映像と前記マスク処理の不実行が設定された少なくとも1つのカメラにより撮像された個々の撮像映像と、を前記モニタに分割表示する、映像表示方法を提供する。 Further, the present invention is a video display method for displaying an image using an information processing apparatus for displaying a captured image of the imaging area which is more imaging a plurality of cameras for imaging the imaging area to the monitor, the information The processing apparatus holds, for each camera, setting information for performing or not executing mask processing for changing at least a part of the moving body appearing in the captured image of the imaging area captured by each camera to a mask image. The information processing device is configured to perform individual editing video obtained by performing mask processing on each captured image captured by a plurality of cameras set to execute the mask processing by the information processing device or the mask processing. execution is set at least one camera by non-execution of the mask processing and editing images obtained by masking individual captured image captured by the information processing apparatus And individual captured image captured by the constant has been at least one camera, the dividing displayed on the monitor, to provide an image display method.
本発明によれば、複数種類の異なる撮像映像をモニタに分割して表示する際に、個々の撮像映像に対するマスク処理の実行又は不実行の設定を撮像映像毎に簡易に設定し、ユーザの使い勝手を向上できる。 According to the present invention, when a plurality of different types of captured images are divided and displayed on the monitor, the execution or non-execution of mask processing for each captured image is simply set for each captured image, and the user-friendliness is improved. Can be improved.
(第1の実施形態の内容に至る経緯)
上述した特許文献1によれば、監視エリアにおいて検知された人物の動画映像内の位置情報及び人物の属性(例えば性別、年齢)毎にマスク画像が生成されるため、そのマスク画像により、プライバシーを確保した上で店舗内の人物の行動が把握可能となる。
(Background to the contents of the first embodiment)
According to Patent Document 1 described above, a mask image is generated for each position information and person attribute (for example, gender, age) in a moving image of a person detected in a monitoring area. Once secured, the behavior of the person in the store can be grasped.
しかしながら、特許文献1では、ユーザ(例えば監視者)がカメラの撮像映像に対して直接的に指定する監視エリア内の任意の領域に存在する人物をマスク画像に変更するという思想は考慮されていない。撮像映像内に存在する人物のプライバシーを保護することは重要ではあるが、カメラの設置環境によっては、撮像映像内の全ての領域に存在する1人以上の人物が全てマスク画像となってしまうと撮像映像の視認性が劣化する。このため、人物のプライバシー保護と撮像映像の視認性の劣化の抑制を両立することが望まれる。 However, Patent Document 1 does not consider the idea of changing a person existing in an arbitrary area in a monitoring area directly designated by a user (for example, a monitor) to a captured image of a camera to a mask image. . Although it is important to protect the privacy of a person existing in the captured video, depending on the installation environment of the camera, when one or more persons existing in all areas in the captured video all become mask images. The visibility of the captured image deteriorates. For this reason, it is desired to achieve both the protection of the privacy of a person and the suppression of deterioration of the visibility of the captured image.
そこで、以下の第1の実施形態では、カメラが設置された場所の環境に適合するように、カメラの撮像映像内に映る人物のプライバシーの保護とカメラの撮像映像の視認性の劣化の抑制とを両立し、ユーザの使い勝手を向上するモニタリングシステム及びマスク処理設定方法の例について説明する。 Therefore, in the following first embodiment, the privacy of a person shown in the captured image of the camera is protected and the deterioration of the visibility of the captured image of the camera is suppressed so as to suit the environment of the place where the camera is installed. An example of a monitoring system and a mask processing setting method that improve the usability of the user will be described.
以下、適宜図面を参照しながら、本発明に係るモニタリングシステムを具体的に開示した各実施形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるものであり、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 Hereinafter, each embodiment specifically disclosing the monitoring system according to the present invention will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of already well-known matters and repeated descriptions for substantially the same configuration may be omitted. This is to avoid the following description from becoming unnecessarily redundant and to facilitate understanding by those skilled in the art. The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims.
以下、本発明に係るモニタリングシステム、監視エリア(例えば店舗、工場、営業所、図書館やイベント会場等の公共施設、事務所、銀行)に少なくとも一つの監視用途のカメラが設置される監視カメラシステム(有人監視カメラシステム、無人監視カメラシステムのどちらも可)を例示して説明する。 Hereinafter, a monitoring camera system according to the present invention, a monitoring camera system in which at least one surveillance camera is installed in a monitoring area (for example, a store, a factory, a sales office, a public facility such as a library or an event venue, an office, or a bank). An example of a manned surveillance camera system or an unmanned surveillance camera system is possible.
なお、本発明は、モニタリングシステムにおけるマスク処理設定方法として表現することも可能である。また、本発明は、モニタリングシステムを構成するコンピュータであるクライアントPC(Personal Computer)に、マスク処理設定方法により規定される動作を実行させるためのプログラム、又はマスク処理設定方法により規定される動作を実行させるためのプログラムが記録された記録媒体として表現することも可能である。 The present invention can also be expressed as a mask processing setting method in the monitoring system. Further, the present invention executes a program for causing a client PC (Personal Computer), which is a computer constituting the monitoring system, to execute an operation specified by the mask processing setting method, or an operation specified by the mask processing setting method. It can also be expressed as a recording medium on which a program for causing the program to be recorded is recorded.
以下、モニタリングシステムの一例としての監視カメラシステムの使用者(例えば、監視エリアの撮像映像を閲覧する監視員)を、単に「ユーザ」という。また、以下の説明において、「全方位カメラ」、「PTZカメラ」及び「固定カメラ」を総称として、単に「カメラ」という。従って、以下の説明において、単に「カメラ」と記載されている場合、そのカメラは、全方位カメラ、PTZカメラ及び固定カメラのうち少なくとも一つを指すものとする。 Hereinafter, a user of a monitoring camera system as an example of a monitoring system (for example, a monitoring person browsing a captured image of a monitoring area) is simply referred to as a “user”. In the following description, “omnidirectional camera”, “PTZ camera”, and “fixed camera” are simply referred to as “camera”. Therefore, in the following description, when simply described as “camera”, the camera indicates at least one of an omnidirectional camera, a PTZ camera, and a fixed camera.
(第1の実施形態)
図1は、各実施形態の監視カメラシステム100のシステム構成の一例を示す図である。監視カメラシステム100では、レコーダREC1,REC4と、ルータRUT2,RUT3,RUT4とがネットワークNWを介してそれぞれ接続されている。監視カメラシステム100は、ユーザにより使用されるクライアントPC10と、複数のカメラ(後述する全方位カメラ、PTZ(Pan Tilt Zoom)カメラ、固定カメラを参照)と、複数のレコーダ(後述参照)とを含む構成である。
(First embodiment)
FIG. 1 is a diagram illustrating an example of a system configuration of a monitoring camera system 100 according to each embodiment. In the surveillance camera system 100, recorders REC1 and REC4 and routers RUT2, RUT3 and RUT4 are connected via a network NW. The surveillance camera system 100 includes a client PC 10 used by a user, a plurality of cameras (refer to an omnidirectional camera, a PTZ (Pan Tilt Zoom) camera, and a fixed camera described later), and a plurality of recorders (refer to a later description). It is a configuration.
レコーダREC1は、公知のルーティング機能を有するルータRUT1を介して、全方位カメラCAM11、PTZカメラCAM12,CAM13及び固定カメラCAM14にそれぞれ接続されている。これらの全方位カメラCAM11、PTZカメラCAM12,CAM13及び固定カメラCAM14によりそれぞれ撮像された撮像映像は、ルータRUT1を介してレコーダREC1において該当するカメラの識別情報及び撮像日時と関連付けて録画映像として記憶される。全方位カメラCAM11、PTZカメラCAM12,CAM13及び固定カメラCAM14は、それぞれ同一の撮像エリア又は異なる撮像エリアを撮像しても構わない。このように、本実施形態を含む各実施形態では、レコーダREC1に対して、複数のカメラ(つまり、全方位カメラCAM11、PTZカメラCAM12,CAM13及び固定カメラCAM14)が対応付けられている。 The recorder REC1 is connected to the omnidirectional camera CAM11, the PTZ cameras CAM12 and CAM13, and the fixed camera CAM14 via a router RUT1 having a known routing function. The captured images captured by these omnidirectional cameras CAM11, PTZ cameras CAM12, CAM13, and fixed camera CAM14 are stored as recorded images in the recorder REC1 via the router RUT1 in association with the corresponding camera identification information and imaging date / time. The The omnidirectional camera CAM11, the PTZ cameras CAM12, CAM13, and the fixed camera CAM14 may each capture the same imaging area or different imaging areas. Thus, in each embodiment including this embodiment, a plurality of cameras (that is, the omnidirectional camera CAM11, the PTZ cameras CAM12, CAM13, and the fixed camera CAM14) are associated with the recorder REC1.
レコーダREC4は、オンラインストレージとしての機能を有し、ネットワークNWの接続先機器(例えば他のレコーダ、クライアントPC10)から録画の要求があった撮像映像等のデータを記憶する。 The recorder REC4 has a function as an online storage, and stores data such as a captured video requested to be recorded from a connection destination device (for example, another recorder, the client PC 10) of the network NW.
レコーダREC2は、公知のルーティング機能を有するルータRUT2を介して、ネットワークNWや、PTZカメラCAM21及び固定カメラCAM22にそれぞれ接続されている。PTZカメラCAM21及び固定カメラCAM22によりそれぞれ撮像された撮像映像は、ルータRUT2を介してレコーダREC2において該当するカメラの識別情報及び撮像日時と関連付けて録画映像として記憶される。PTZカメラCAM21及び固定カメラCAM22は、それぞれ同一の撮像エリア又は異なる撮像エリアを撮像しても構わない。このように、本実施形態を含む各実施形態では、レコーダREC2に対して、複数のカメラ(つまり、PTZカメラCAM21及び固定カメラCAM22)が対応付けられている。 The recorder REC2 is connected to the network NW, the PTZ camera CAM21, and the fixed camera CAM22 via a router RUT2 having a known routing function. The captured images captured by the PTZ camera CAM21 and the fixed camera CAM22 are stored as recorded images in the recorder REC2 via the router RUT2 in association with the corresponding camera identification information and imaging date / time. The PTZ camera CAM21 and the fixed camera CAM22 may each capture the same imaging area or different imaging areas. Thus, in each embodiment including the present embodiment, a plurality of cameras (that is, the PTZ camera CAM21 and the fixed camera CAM22) are associated with the recorder REC2.
レコーダREC3は、公知のルーティング機能を有するルータRUT3を介して、ネットワークNWや、全方位カメラCAM31、PTZカメラCAM32,CAM33及び固定カメラCAM34にそれぞれ接続されている。これらの全方位カメラCAM31、PTZカメラCAM32,CAM33及び固定カメラCAM34によりそれぞれ撮像された撮像映像は、ルータRUT3を介してレコーダREC3において該当するカメラの識別情報及び撮像日時と関連付けて録画映像として記憶される。全方位カメラCAM31、PTZカメラCAM32,CAM33及び固定カメラCAM34は、それぞれ同一の撮像エリア又は異なる撮像エリアを撮像しても構わない。このように、本実施形態を含む各実施形態では、レコーダREC3に対して、複数のカメラ(つまり、全方位カメラCAM31、PTZカメラCAM32,CAM33及び固定カメラCAM34)が対応付けられている。 The recorder REC3 is connected to the network NW, the omnidirectional camera CAM31, the PTZ cameras CAM32, CAM33, and the fixed camera CAM34 via a router RUT3 having a known routing function. The captured images respectively captured by these omnidirectional cameras CAM31, PTZ cameras CAM32, CAM33, and fixed camera CAM34 are stored as recorded images in the recorder REC3 via the router RUT3 in association with the corresponding camera identification information and imaging date / time. The The omnidirectional camera CAM31, the PTZ cameras CAM32, CAM33, and the fixed camera CAM34 may each capture the same imaging area or different imaging areas. Thus, in each embodiment including this embodiment, a plurality of cameras (that is, the omnidirectional camera CAM31, the PTZ cameras CAM32, CAM33, and the fixed camera CAM34) are associated with the recorder REC3.
情報処理装置の一例としてのクライアントPC10は、上述したカメラ(具体的には、全方位カメラCAM11,CAM31、PTZカメラCAM12,CAM13,CAM21,CAM32,CAM33、固定カメラCAM14,CAM22,CAM34)により撮像されたそれぞれの撮像映像を用いて、その撮像映像に現れる移動体(例えば人物。以下同様。)の少なくとも一部又は全体をマスク画像に変更するためのマスク処理を行う機能を有する。クライアントPC10は、各種のカメラ又はレコーダから送信(配信)された撮像映像をモニタDPに表示したり、各種のカメラ又はレコーダから送信(配信)された撮像映像をマスク処理した後の編集映像をモニタDPに表示したりする。なお、以下の説明において、移動体は、人物に限定されず、自動車又はロボット等でも構わない。 The client PC 10 as an example of the information processing apparatus is imaged by the above-described cameras (specifically, omnidirectional cameras CAM11 and CAM31, PTZ cameras CAM12, CAM13, CAM21, CAM32, CAM33, fixed cameras CAM14, CAM22, and CAM34). Each of the captured images has a function of performing a mask process for changing at least a part or the whole of a moving body (for example, a person, the same applies hereinafter) appearing in the captured image to a mask image. The client PC 10 displays the captured video transmitted (distributed) from various cameras or recorders on the monitor DP, or monitors the edited video after masking the captured video transmitted (distributed) from various cameras or recorders. Or display on DP. In the following description, the moving body is not limited to a person, and may be an automobile or a robot.
ここで、マスク画像とは、撮像映像に現れる人物のプライバシーを保護するために、その人物が誰であるかの具体的な特定を困難にするための画像処理(つまり、マスク処理)が施された画像である。マスク画像は、例えば撮像映像に現れる人物の輪郭線内部が半透明に画像処理された画像である。また、以下の説明では、マスク処理をMOR(Moving Object Remover)処理と称することもある。MOR処理とは、詳細は図11及び図12を参照して後述するが、撮像映像に現れる移動体が存在する動体領域を、マスク画像(例えば半透明画像)に置き換える処理を示す。これにより、撮像映像中に現れる人物が誰であるかの具体的な特定が困難となり、その人物のプライバシーを保護することが可能となる。 Here, the mask image is subjected to image processing (that is, mask processing) for making it difficult to specifically identify who the person is in order to protect the privacy of the person appearing in the captured video. It is an image. The mask image is, for example, an image in which the inside of a contour line of a person appearing in a captured video is processed to be translucent. In the following description, the mask process may be referred to as a MOR (Moving Object Remover) process. The MOR process, which will be described in detail later with reference to FIGS. 11 and 12, shows a process of replacing a moving object region where a moving object appears in a captured image with a mask image (for example, a translucent image). As a result, it is difficult to specifically identify who the person appears in the captured video, and the privacy of the person can be protected.
また、以下の説明において、カメラにより撮像された映像を「撮像映像」といい、撮像映像が例えばクライアントPC10又はマスク機能を有するマスクカメラ(後述参照)によってマスク処理された後のマスク画像が撮像映像に重畳された映像を「編集映像」という。 In the following description, an image captured by the camera is referred to as “captured image”, and a mask image after the captured image is masked by, for example, the client PC 10 or a mask camera having a mask function (see later) is captured image. The video superimposed on is called “edited video”.
クライアントPC10は、公知のルーティング機能を有するルータRUT4を介して、ネットワークNWやシステムコントローラ5に接続されている。システムコントローラ5には、ユーザの操作を支援するために設けられたジョイスティックJ1が接続されている。システムコントローラ5は、例えば監視カメラシステム100を構成する機器の動作に関連する各種設定を行う。 The client PC 10 is connected to the network NW and the system controller 5 via a router RUT 4 having a known routing function. The system controller 5 is connected to a joystick J1 provided to support user operations. For example, the system controller 5 performs various settings related to the operation of the devices constituting the surveillance camera system 100.
ネットワークNWは、有線ネットワーク(例えばイントラネット、インターネット、有線LAN(Local Area Network)でもよいし、無線ネットワーク(例えば無線LAN)でもよい。なお、例えばレコーダREC1,REC2,REC3,REC4はネットワークNWを介することなく、直接にクライアントPC10と接続されてもよい。また、図1ではモニタDPはクライアントPCとは別体として設けられたものとして図示されている。但し、モニタDPは、図4に示すように、クライアントPC10の内部に含まれるように設けられても構わない。システムコントローラ5、ジョイスティックJ1及びクライアントPC10は、例えばユーザが監視時において常駐する監視室内に設置される。 The network NW may be a wired network (for example, an intranet, the Internet, a wired LAN (Local Area Network), or a wireless network (for example, a wireless LAN), for example, the recorders REC1, REC2, REC3, and REC4 are connected via the network NW. The monitor DP may be directly connected to the client PC 10. In addition, the monitor DP is illustrated as being provided separately from the client PC in Fig. 1. However, the monitor DP is shown in Fig. 4. The system controller 5, the joystick J1, and the client PC 10 may be installed in, for example, a monitoring room where a user resides during monitoring.
また、ネットワークNWは広域通信網であるWAN(Wide Area Network)であってもよく、この場合には、例えば会社内の複数の拠点毎又は複数の店舗毎にそれぞれレコーダが設けられ、拠点毎又は店舗毎に撮像された撮像映像がそれぞれのレコーダに記憶される。 The network NW may be a wide area network (WAN), and in this case, for example, a recorder is provided for each of a plurality of bases or a plurality of stores in a company, The picked-up image picked up for each store is stored in each recorder.
図2は、全方位カメラCAM11,…又は固定カメラCAM14,…の内部構成の一例を詳細に示すブロック図である。全方位カメラCAM11,CAM31及び固定カメラCAM14,CAM22,CAM34の内部構成は同一であり、ここでは説明を簡単にするために、例えば全方位カメラCAM11の内部構成として説明する。図2の説明において、全方位カメラCAM11を、他の全方位カメラ(例えば全方位カメラCAM31)、又は他の固定カメラ(例えば固定カメラCAM14)に読み替えても構わない。但し、図2の説明において、全方位カメラCAM11と固定カメラとで異なる構成の内容については説明する。図2に示す全方位カメラCAM11は、プロセッサC11、通信部C12、レンズC13、イメージセンサC14、メモリC15及び電源管理部C16を含む構成である。 2 is a block diagram showing in detail an example of the internal configuration of the omnidirectional camera CAM11,... Or the fixed camera CAM14,. The internal configurations of the omnidirectional cameras CAM11 and CAM31 and the fixed cameras CAM14, CAM22, and CAM34 are the same. Here, for the sake of simplicity of description, for example, the internal configuration of the omnidirectional camera CAM11 will be described. In the description of FIG. 2, the omnidirectional camera CAM11 may be read as another omnidirectional camera (for example, the omnidirectional camera CAM31) or another fixed camera (for example, the fixed camera CAM14). However, in the description of FIG. 2, the contents of different configurations of the omnidirectional camera CAM11 and the fixed camera will be described. The omnidirectional camera CAM11 shown in FIG. 2 includes a processor C11, a communication unit C12, a lens C13, an image sensor C14, a memory C15, and a power management unit C16.
プロセッサC11は、全方位カメラCAM11の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。プロセッサC11は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)又はFPGA(field-programmable gate array)を用いて構成される。 The processor C11 performs signal processing for overall control of operations of each unit of the omnidirectional camera CAM11, data input / output processing with other units, data calculation processing, and data storage processing. The processor C11 is configured using, for example, a central processing unit (CPU), a micro processing unit (MPU), a digital signal processor (DSP), or a field-programmable gate array (FPGA).
例えばプロセッサC11は、システムコントローラ5又はクライアントPC10を使用するユーザの操作に応じて、イメージセンサC14における撮像により得られた全方位画像データを取得し、更に、その全方位画像データのうち特定の範囲(方向)の画像を切り出した2次元パノラマ画像データ(つまり、2次元パノラマ変換した画像データ)を生成してメモリC15に記憶する。また、プロセッサC11は、システムコントローラ5又はクライアントPC10を使用するユーザの操作に応じて、イメージセンサC14における撮像により得られた固定画角の撮像画像データを取得してメモリC15に記憶する。 For example, the processor C11 acquires omnidirectional image data obtained by imaging in the image sensor C14 in accordance with a user operation using the system controller 5 or the client PC 10, and further, a specific range of the omnidirectional image data. Two-dimensional panoramic image data (that is, image data obtained by two-dimensional panorama conversion) obtained by cutting out an image of (direction) is generated and stored in the memory C15. Further, the processor C11 acquires captured image data having a fixed angle of view obtained by imaging by the image sensor C14 in accordance with a user operation using the system controller 5 or the client PC 10, and stores it in the memory C15.
通信部C12は、ルータRUT1との間のデータ通信を制御するネットワークインタフェース(I/F)であり、全方位画像データ、2次元パノラマ画像データ又は固定画角の撮像画像データを、ルータRUT1を介してレコーダREC1に送信する。また、通信部C12は、全方位画像データ、2次元パノラマ画像データ又は固定画角の撮像画像データを、ルータRUT1及びレコーダREC1を介して、カメラの識別情報及び撮像日時と関連付けてクライアントPC10に送信しても構わない。 The communication unit C12 is a network interface (I / F) that controls data communication with the router RUT1, and transmits omnidirectional image data, two-dimensional panoramic image data, or captured image data with a fixed angle of view via the router RUT1. To the recorder REC1. Further, the communication unit C12 transmits the omnidirectional image data, the two-dimensional panoramic image data, or the captured image data with a fixed angle of view to the client PC 10 in association with the camera identification information and the imaging date and time via the router RUT1 and the recorder REC1. It doesn't matter.
レンズC13は、例えば全方位カメラCAM11では広画角なレンズ又は魚眼レンズを用いて構成され、全方位カメラCAM11の撮像対象となる撮像エリアの全方位からの被写体光を入射して集光し、イメージセンサC14の受光面(撮像面)に被写体光の光学像を結像する。一方、レンズC13は、例えば固定カメラCAM14では固定画角のレンズを用いて構成され、固定カメラCAM14の撮像対象となる撮像エリアの画角方向からの被写体光を入射して集光し、イメージセンサC14の受光面(撮像面)に被写体光の光学像を結像する。 For example, in the omnidirectional camera CAM11, the lens C13 is configured by using a lens having a wide angle of view or a fisheye lens. An optical image of the subject light is formed on the light receiving surface (imaging surface) of the sensor C14. On the other hand, the lens C13 is configured by using, for example, a lens having a fixed angle of view in the fixed camera CAM14. The lens C13 receives and collects subject light from the angle of view of the imaging area to be imaged by the fixed camera CAM14, and collects it. An optical image of the subject light is formed on the light receiving surface (imaging surface) of C14.
イメージセンサC14は、例えばCMOS(Complementary Metal Oxide Semiconductor)センサ又はCCD(Charge Coupled Device)センサを用いて構成され、レンズC13により集光された撮像エリアからの被写体光の光学像を受光面(撮像面)において撮像処理することで、撮像エリアの全方位画像データ又は固定画角の撮像画像データを取得する。この全方位画像データ又は固定画角の撮像画像データは、プロセッサC11により取得される。 The image sensor C14 is configured by using, for example, a complementary metal oxide semiconductor (CMOS) sensor or a charge coupled device (CCD) sensor, and receives an optical image of subject light from the imaging area collected by the lens C13 as a light receiving surface (imaging surface). ), The omnidirectional image data of the imaging area or the captured image data of a fixed angle of view is acquired. The omnidirectional image data or the captured image data having a fixed angle of view is acquired by the processor C11.
メモリC15は、全方位カメラCAM11又は固定カメラCAM14の動作を規定するためのプログラムや設定値のデータが格納されたROM15zと、固定画角の撮像画像データ、全方位画像データ又はその一部の範囲が切り出された切り出し画像データやワークデータを記憶するRAM15yと、全方位カメラCAM11又は固定カメラCAM14に挿抜自在に接続され、各種データが記憶されるメモリカード15xとを有する。 The memory C15 includes a ROM 15z in which programs for setting the operation of the omnidirectional camera CAM11 or the fixed camera CAM14 and data of setting values are stored, captured image data having a fixed angle of view, omnidirectional image data, or a partial range thereof. A RAM 15y that stores cut-out image data and work data obtained by cutting out, and a memory card 15x that is detachably connected to the omnidirectional camera CAM11 or the fixed camera CAM14 and stores various data.
電源管理部C16は、全方位カメラCAM11又は固定カメラCAM14の各部に直流電源を供給する。また、電源管理部C16は、ルータRUT1に接続される他の機器(例えばPTZカメラCAM12,CAM13)に直流電源を供給してもよい。 The power management unit C16 supplies DC power to each unit of the omnidirectional camera CAM11 or the fixed camera CAM14. The power management unit C16 may supply DC power to other devices (for example, PTZ cameras CAM12 and CAM13) connected to the router RUT1.
図3は、PTZカメラCAM12,CAM13,…の内部構成の一例を詳細に示すブロック図である。PTZカメラCAM12,CAM13,CAM21,CAM32,CAM33の内部構成は同一であり、ここでは説明を簡単にするために、例えばPTZカメラCAM12の内部構成として説明する。図3の説明において、PTZカメラCAM12を、他のPTZカメラ(例えばPTZカメラCAM13)に読み替えても構わない。また、全方位カメラCAM11や固定カメラCAM14と同様の各部については、図2の各部に対応する符号を付すことでその説明を省略する。PTZカメラCAM12は、例えばユーザが使用するシステムコントローラ5又はクライアントPC10からの画角変更指示により、光軸方向(撮像方向)を調整可能なカメラである。 FIG. 3 is a block diagram showing in detail an example of the internal configuration of the PTZ cameras CAM12, CAM13,. The internal configurations of the PTZ cameras CAM12, CAM13, CAM21, CAM32, and CAM33 are the same. Here, for the sake of simplicity of description, for example, the internal configuration of the PTZ camera CAM12 will be described. In the description of FIG. 3, the PTZ camera CAM12 may be replaced with another PTZ camera (for example, the PTZ camera CAM13). Moreover, about each part similar to the omnidirectional camera CAM11 and the fixed camera CAM14, the code | symbol corresponding to each part of FIG. 2 is attached | subjected, and the description is abbreviate | omitted. The PTZ camera CAM 12 is a camera that can adjust the optical axis direction (imaging direction), for example, according to a view angle change instruction from the system controller 5 or the client PC 10 used by the user.
PTZカメラCAM12は、例えば全方位カメラCAM11と同様、プロセッサC21、通信部C22、レンズC23、イメージセンサC24、メモリC25を有する他、撮像方向制御部C27及びレンズ駆動モータC28を有する。プロセッサC21は、例えばシステムコントローラ5又はクライアントPC10の画角変更指示があると、撮像方向制御部C27に画角変更指示を通知する。 The PTZ camera CAM12 includes, for example, a processor C21, a communication unit C22, a lens C23, an image sensor C24, and a memory C25 as well as the omnidirectional camera CAM11, and also includes an imaging direction control unit C27 and a lens drive motor C28. For example, when there is a view angle change instruction from the system controller 5 or the client PC 10, the processor C21 notifies the imaging direction control unit C27 of the view angle change instruction.
撮像方向制御部C27は、プロセッサC21から通知された画角変更指示に従い、PTZカメラCAM12の撮像方向をパン方向及びチルト方向のうち少なくとも1つを制御し、更に必要に応じて、ズーム倍率を変更するための制御信号をレンズ駆動モータC28に出力する。レンズ駆動モータC28は、この制御信号に従って、レンズC23を駆動し、その撮像方向(つまり、光軸方向)を変更するとともに、レンズC23の焦点距離を調節してズーム倍率を変更する。 The imaging direction control unit C27 controls the imaging direction of the PTZ camera CAM12 in at least one of the pan direction and the tilt direction according to the view angle change instruction notified from the processor C21, and further changes the zoom magnification as necessary. A control signal for this is output to the lens drive motor C28. The lens drive motor C28 drives the lens C23 in accordance with this control signal, changes the imaging direction (that is, the optical axis direction), and adjusts the focal length of the lens C23 to change the zoom magnification.
レンズC23は、1又は2以上のレンズを用いて構成される。レンズC23では、撮像方向制御部C27からの制御信号に応じたレンズ駆動モータC28の駆動により、パン回転、チルト回転の光軸方向が変更される。 The lens C23 is configured using one or two or more lenses. In the lens C23, the optical axis directions of pan rotation and tilt rotation are changed by driving the lens driving motor C28 according to the control signal from the imaging direction control unit C27.
図4は、クライアントPC10の内部構成の一例を詳細に示すブロック図である。図4に示すクライアントPC10は、プロセッサ11、通信部12、操作部13、ストレージ15、メモリ16及び電源管理部17を含む構成である。 FIG. 4 is a block diagram showing an example of the internal configuration of the client PC 10 in detail. The client PC 10 illustrated in FIG. 4 includes a processor 11, a communication unit 12, an operation unit 13, a storage 15, a memory 16, and a power management unit 17.
プロセッサ11は、クライアントPC10の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。プロセッサ11は、例えばCPU、MPU、DSP又はFPGAを用いて構成される。プロセッサ11は、画像入力部111、背景画像処理部112、マスク処理設定部113、マスク処理部114及び映像出力制御部115を有する。 The processor 11 performs signal processing for overall control of operations of each unit of the client PC 10, data input / output processing with other units, data calculation processing, and data storage processing. The processor 11 is configured using, for example, a CPU, MPU, DSP, or FPGA. The processor 11 includes an image input unit 111, a background image processing unit 112, a mask processing setting unit 113, a mask processing unit 114, and a video output control unit 115.
画像入力部111は、各種のカメラやレコーダから送信されてかつ通信部12により受信された撮像映像を入力する。 The image input unit 111 inputs captured images transmitted from various cameras and recorders and received by the communication unit 12.
背景画像処理部112は、図11及び図12を参照して詳述するが、画像入力部111により取得された撮像映像を用いて、クライアントPC10におけるマスク処理(MOR処理)において行われる背景画像の生成や更新の各種処理を行う。背景画像の生成や更新の詳細については後述する。 The background image processing unit 112 will be described in detail with reference to FIG. 11 and FIG. 12. The background image processing unit 112 uses the captured video acquired by the image input unit 111 to perform background image processing performed in mask processing (MOR processing) in the client PC 10. Perform various generation and update processes. Details of generation and update of the background image will be described later.
マスク処理設定部113は、ユーザ操作(後述参照)に応じて、クライアントPC10が実行可能なマスク処理(MOR処理)に関する設定を行う。 The mask process setting unit 113 performs settings related to a mask process (MOR process) that can be executed by the client PC 10 in response to a user operation (described later).
マスク処理設定部113は、例えば画像入力部111により取得された撮像映像に対してマスク処理を実行するか又は実行しないかを指定するユーザ操作に応じて、その撮像映像の配信元(送信元)であるカメラ(つまり、全方位カメラ、PTZカメラ、固定カメラ)に関連付けてマスク処理の実行又は不実行を示すマスク設定情報を生成してストレージ15又はメモリ16に保存する。 The mask processing setting unit 113, for example, in response to a user operation that specifies whether or not to perform mask processing on the captured video acquired by the image input unit 111, the distribution source (transmission source) of the captured video Is generated in association with a camera (that is, an omnidirectional camera, a PTZ camera, or a fixed camera), and mask setting information indicating execution or non-execution of mask processing is generated and stored in the storage 15 or the memory 16.
また、マスク処理設定部113は、例えば画像入力部111により取得された撮像映像の中でマスク処理の対象外領域を指定するユーザ操作に応じて、指定された領域の位置情報(例えば座標情報)をマスク処理の対象外領域とするマスク設定情報を生成してストレージ15又はメモリ16に保存する。マスク設定情報の生成の詳細については後述するが、マスク設定情報はカメラごとに、マスク処理の実行又は不実行の指定、マスク処理の対象外領域の位置情報を少なくとも保持する。 Further, the mask processing setting unit 113, for example, position information (for example, coordinate information) of the designated area in response to a user operation that designates a non-target area for mask processing in the captured video acquired by the image input unit 111, for example. Is generated and stored in the storage 15 or the memory 16. Although details of generation of the mask setting information will be described later, the mask setting information holds at least the position information of the mask processing execution / non-execution area and the mask processing non-target area for each camera.
マスク処理部114は、マスク処理設定部113により生成されるマスク設定情報を基に、画像入力部111により取得された撮像映像の中から、マスク設定情報により指定されるマスク処理の対象外領域を除外した領域をマスク処理の対象領域として選択する。マスク処理部114は、選択したマスク処理の対象領域において、移動体(例えば人物)の輪郭線をマスク画像(例えば半透明画像)に変更したマスク画像を生成する。マスク処理の詳細については後述する。 Based on the mask setting information generated by the mask processing setting unit 113, the mask processing unit 114 selects a region not to be masked specified by the mask setting information from the captured video acquired by the image input unit 111. The excluded area is selected as a mask process target area. The mask processing unit 114 generates a mask image in which the outline of the moving body (for example, a person) is changed to a mask image (for example, a translucent image) in the selected mask processing target region. Details of the mask processing will be described later.
映像出力制御部115は、マスク処理の不実行が設定されたカメラからの撮像映像、又はカメラにより既にマスク処理(後述参照)された編集映像をそのままモニタDPに表示する。また、映像出力制御部115は、クライアントPC10におけるマスク処理の実行が設定されたカメラからの撮像映像と、この撮像映像に対してマスク処理部114により生成されたマスク画像とを用いて、撮像映像中の移動体(例えば人物)の位置にマスク画像を重畳した編集映像を生成する。映像出力制御部115は、この編集映像をモニタDPに表示する。 The video output control unit 115 displays the captured video from the camera set not to execute the mask process or the edited video already masked (see later) by the camera as it is on the monitor DP. In addition, the video output control unit 115 uses the captured video from the camera set to execute the mask process in the client PC 10 and the mask image generated by the mask processing unit 114 for the captured video. An edited video in which a mask image is superimposed on the position of the moving body (for example, a person) inside is generated. The video output control unit 115 displays the edited video on the monitor DP.
通信部12は、各種のカメラやレコーダから送信された撮像映像又は編集映像(後述参照)を、ルータRUT4を介して受信してプロセッサ11に出力する。 The communication unit 12 receives captured video or edited video (described later) transmitted from various cameras and recorders via the router RUT 4 and outputs the received video to the processor 11.
操作部13は、ユーザの入力操作の内容をプロセッサ11に通知するためのユーザインターフェース(UI:User Interface)であり、例えばマウス、キーボード等のポインティングデバイスで構成される。また、操作部13は、例えばモニタDPの表示画面に対応して配置され、ユーザの指やスタイラスペンによって直接入力操作が可能なタッチパネル又はタッチパッドを用いて構成されてもよい。 The operation unit 13 is a user interface (UI) for notifying the processor 11 of the contents of a user input operation, and is configured by a pointing device such as a mouse or a keyboard. The operation unit 13 may be configured using, for example, a touch panel or a touch pad that is arranged corresponding to the display screen of the monitor DP and can be directly input by a user's finger or stylus pen.
表示部の一例としてのモニタDPは、例えばLCD(Liquid Crystal Display)又は有機EL(Electroluminescence)を用いて構成され、マスク処理設定部113により設定されるカメラ設定画面(図6参照)や領域設定画面(図7参照)を表示したり、映像出力制御部115により出力された撮像映像又は編集映像を表示したりする。 The monitor DP as an example of a display unit is configured using, for example, an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence), and is set by a mask processing setting unit 113 (see FIG. 6) or an area setting screen. (See FIG. 7) or a captured image or an edited video output by the video output control unit 115 is displayed.
記憶部の一例としてのストレージ15は、例えばマスク処理設定部113により生成されるマスク設定情報を記憶し、更に、各種のカメラやレコーダから配信(送信)された撮像映像やプロセッサ11により生成された編集映像のデータを記憶する。 The storage 15 as an example of a storage unit stores, for example, mask setting information generated by the mask processing setting unit 113, and is further generated by a captured image distributed from (transmitted to) various cameras and recorders or the processor 11. Stores edited video data.
メモリ16は、クライアントPC10の動作を規定するためのプログラムや設定値のデータが格納されたROM161と、プロセッサ11が生成した各種のデータや処理途中のワークデータを記憶するRAM162とを含む。また、図4には図示されていないが、メモリ16は、クライアントPC10に挿抜自在に接続され、各種データが記憶されるメモリカード(不図示)を更に有しても構わない。 The memory 16 includes a ROM 161 that stores a program for specifying the operation of the client PC 10 and data of setting values, and a RAM 162 that stores various data generated by the processor 11 and work data being processed. Although not shown in FIG. 4, the memory 16 may further include a memory card (not shown) that is connected to the client PC 10 so as to be freely inserted and removed and that stores various data.
電源管理部17は、クライアントPC10の各部に直流電源を供給する。 The power management unit 17 supplies DC power to each unit of the client PC 10.
図5は、レコーダREC1,…の内部構成の一例を詳細に示すブロック図である。レコーダREC1,REC2,REC3,REC4の内部構成は同一であり、ここでは説明を簡単にするために、例えばレコーダREC1の内部構成として説明する。図5の説明において、レコーダREC1を、他のレコーダ(例えばレコーダREC2)に読み替えても構わない。図5に示すレコーダREC1は、プロセッサR11、通信部R12、メモリR13、ストレージR14及び電源管理部R16を含む構成である。 FIG. 5 is a block diagram showing in detail an example of the internal configuration of the recorders REC1,. The internal configuration of the recorders REC1, REC2, REC3, and REC4 is the same. For the sake of simplicity, the recorder REC1, REC2, REC3, and REC4 will be described as the internal configuration of the recorder REC1, for example. In the description of FIG. 5, the recorder REC1 may be replaced with another recorder (for example, the recorder REC2). The recorder REC1 shown in FIG. 5 includes a processor R11, a communication unit R12, a memory R13, a storage R14, and a power management unit R16.
プロセッサR11は、レコーダREC1の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。プロセッサR11は、例えばCPU、MPU、DSP又はFPGAを用いて構成される。 The processor R11 performs signal processing for overall control of operations of each unit of the recorder REC1, data input / output processing with other units, data calculation processing, and data storage processing. The processor R11 is configured using, for example, a CPU, MPU, DSP, or FPGA.
例えばプロセッサR11は、システムコントローラ5又はクライアントPC10を使用するユーザの操作に応じて、各種のカメラ(例えば全方位カメラCAM11、PTZカメラCAM12,CAM13、固定カメラCAM14)により撮像された撮像映像のデータを受信し、この撮像映像のデータを録画映像として撮像日時及びカメラの識別情報と関連付けてストレージR14に保存する。 For example, the processor R11 captures image data captured by various cameras (for example, the omnidirectional camera CAM11, the PTZ cameras CAM12, CAM13, and the fixed camera CAM14) in accordance with a user operation using the system controller 5 or the client PC 10. The captured video data is stored as a recorded video in the storage R14 in association with the imaging date and camera identification information.
通信部R12は、各種のカメラ(例えば全方位カメラCAM11、PTZカメラCAM12,CAM13、固定カメラCAM14)により撮像された撮像映像のデータ又はこの撮像映像がマスク処理されて得られた編集映像(後述参照)を、ルータRUT1を介して受信してプロセッサR11に出力する。また、通信部R12は、クライアントPC10からの指示に応じて、プロセッサR11がストレージR14から読み出した録画映像のデータをクライアントPC10に送信する。 The communication unit R12 captures captured image data captured by various cameras (for example, the omnidirectional camera CAM11, the PTZ cameras CAM12, CAM13, and the fixed camera CAM14) or an edited image obtained by masking the captured image (see below). ) Is received via the router RUT1 and output to the processor R11. Further, the communication unit R12 transmits the recorded video data read from the storage R14 by the processor R11 to the client PC 10 in response to an instruction from the client PC 10.
メモリR13は、レコーダREC1の動作を規定するためのプログラムや設定値のデータが格納されたROM131と、プロセッサR11が生成した各種のデータや処理途中のワークデータを記憶するRAM132とを含む。また、図5には図示されていないが、メモリR13は、レコーダREC1に挿抜自在に接続され、各種データが記憶されるメモリカード(不図示)を更に有しても構わない。 The memory R13 includes a ROM 131 that stores a program for defining the operation of the recorder REC1 and data of set values, and a RAM 132 that stores various data generated by the processor R11 and work data being processed. Although not shown in FIG. 5, the memory R13 may further include a memory card (not shown) that is detachably connected to the recorder REC1 and stores various data.
ストレージR14は、例えば各種のカメラから配信(送信)された撮像映像のデータを記憶する。また、ストレージR14は、クライアントPC10により生成された編集映像のデータがクライアントPC10からレコーダREC1に送信された場合に、その編集映像のデータを記憶しても構わない。 The storage R14 stores captured video data distributed (transmitted) from various cameras, for example. The storage R14 may store the edited video data when the edited video data generated by the client PC 10 is transmitted from the client PC 10 to the recorder REC1.
電源管理部R15は、レコーダREC1の各部に直流電源を供給する。 The power management unit R15 supplies DC power to each unit of the recorder REC1.
次に、本実施形態の監視カメラシステム100の動作について、図6〜図10を参照して詳細に説明する。 Next, the operation of the monitoring camera system 100 of the present embodiment will be described in detail with reference to FIGS.
図6は、カメラ設定画面WD1の一例を示す図である。図7は、領域設定画面WD2の一例を示す図である。図8は、マスク処理(MOR処理)の設定に関するユーザオペレーションに伴う画面の時系列遷移の第1例を示す説明図である。図9は、マスク処理(MOR処理)の設定に関するユーザオペレーションに伴う画面の時系列遷移の第1例を示す説明図である。図10は、第1の実施形態における、マスク処理(MOR処理)の設定に関するユーザオペレーションに伴うクライアントPC10の動作手順の一例を詳細に説明するフローチャートである。 FIG. 6 is a diagram illustrating an example of the camera setting screen WD1. FIG. 7 is a diagram illustrating an example of the area setting screen WD2. FIG. 8 is an explanatory diagram showing a first example of time-series transition of a screen accompanying a user operation related to setting of mask processing (MOR processing). FIG. 9 is an explanatory diagram illustrating a first example of time-series transition of a screen accompanying a user operation regarding setting of mask processing (MOR processing). FIG. 10 is a flowchart for explaining in detail an example of an operation procedure of the client PC 10 in accordance with a user operation regarding the setting of the mask process (MOR process) in the first embodiment.
先ず、図6に示すカメラ設定画面WD1について説明する。 First, the camera setting screen WD1 shown in FIG. 6 will be described.
図6では、カメラ設定画面WD1の一部が抜粋して示されている。マスク処理設定部113は、例えばユーザ操作により、カメラ設定画面WD1をモニタDPに表示する。このカメラ設定画面WD1では、ユーザの操作部13を用いた操作により、例えば最大64台のカメラ(つまり、全方位カメラ、PTZカメラ、固定カメラにより構成)の個々のカメラに対し、少なくともIP(Internet Protocol)アドレス、マスク処理(MOR処理)、マスク処理(MOR処理)の設定、初期学習期間、通常学習期間が関連付けられて設定可能となる。また、カメラ設定画面WD1に設けられた4つのタブ(カメラ1−16,カメラ17−32,カメラ33−48,カメラ49−64)を切り替えることで、カメラ16台単位で、該当するカメラについて、少なくともIP(Internet Protocol)アドレス、マスク処理(MOR処理)、マスク処理(MOR処理)の設定、初期学習期間、通常学習期間の情報を設定可能である。 In FIG. 6, a part of the camera setting screen WD1 is extracted and shown. The mask processing setting unit 113 displays the camera setting screen WD1 on the monitor DP, for example, by a user operation. In this camera setting screen WD1, at least IP (Internet) is provided to individual cameras of, for example, a maximum of 64 cameras (that is, composed of an omnidirectional camera, a PTZ camera, and a fixed camera) by the user's operation using the operation unit 13. Protocol) address, mask processing (MOR processing), setting of mask processing (MOR processing), initial learning period, and normal learning period can be associated and set. In addition, by switching the four tabs (camera 1-16, camera 17-32, camera 33-48, camera 49-64) provided on the camera setting screen WD1, about the corresponding camera in units of 16 cameras, Information on at least an IP (Internet Protocol) address, mask processing (MOR processing), setting of mask processing (MOR processing), initial learning period, and normal learning period can be set.
IPアドレスの列CLM1では、該当するカメラのIPアドレスが入力される。 In the IP address column CLM1, the IP address of the corresponding camera is input.
マスク処理(MOR処理)の列CLM2では、クライアントPC10でのマスク処理(MOR処理)の実行(ON)又は不実行(OFF)の2つのうちいずれかが選択される(枠WK2参照)。 In the column CLM2 of mask processing (MOR processing), either of execution (ON) or non-execution (OFF) of mask processing (MOR processing) in the client PC 10 is selected (see frame WK2).
マスク処理(MOR処理)の設定の列CLM3では、マスク処理(MOR処理)の対象外領域を設定させるための領域設定画面WD2を表示させる設定ボタン(枠WK1参照)が表示される。但し、列CLM2においてONが選択されたカメラについては列CLM3の設定ボタンが押下可能に表示されるが、列CLM2においてOFFが選択されたカメラについては列CLM3の設定ボタンは押下可能に表示されない(例えば列CLM3の図6の紙面上から5段目,8段目,10段目,15段目の点線参照)。 In the column CLM3 for setting the mask process (MOR process), a setting button (see frame WK1) for displaying an area setting screen WD2 for setting a non-target area for the mask process (MOR process) is displayed. However, the setting button of the column CLM3 is displayed so that it can be pressed for a camera for which ON is selected in the column CLM2, but the setting button of the column CLM3 is not displayed so that it can be pressed for a camera for which OFF is selected in the column CLM2. (For example, refer to the dotted lines on the fifth, eighth, tenth, and fifteenth stages from the top of FIG. 6 in the row CLM3).
初期学習期間の列CLM4では、後述するマスク処理(MOR処理)における初期学習期間が入力される(枠WK3参照)。同様に、列CLM2においてONが選択されたカメラについては列CLM4の初期学習期間は入力可能であるが、列CLM2においてOFFが選択されたカメラについては列CLM4の初期学習期間は入力不可である(例えば列CLM4の図6の紙面上から5段目,8段目,10段目,15段目の点線参照)。 In an initial learning period column CLM4, an initial learning period in a mask process (MOR process) described later is input (see frame WK3). Similarly, the initial learning period of the column CLM4 can be input for a camera whose ON is selected in the column CLM2, but the initial learning period of the column CLM4 cannot be input for a camera whose OFF is selected in the column CLM2. For example, see the fifth, eighth, tenth, and fifteenth dotted lines from the top of the page of FIG.
通常学習期間の列CLM5では、後述するマスク処理(MOR処理)に
おける通常学習期間が入力される(枠WK3参照)。同様に、列CLM2においてONが選択されたカメラについては列CLM5の通常学習期間は入力可能であるが、列CLM2においてOFFが選択されたカメラについては列CLM5の通常学習期間は入力不可である(例えば列CLM5の図6の紙面上から5段目,8段目,10段目,15段目の点線参照)。
In the normal learning period column CLM5, a normal learning period in a mask process (MOR process) described later is input (see frame WK3). Similarly, the normal learning period of the column CLM5 can be input for a camera whose ON is selected in the column CLM2, but the normal learning period of the column CLM5 cannot be input for a camera whose OFF is selected in the column CLM2. (For example, refer to the dotted lines on the fifth, eighth, tenth, and fifteenth tiers from the top of FIG. 6 of the row CLM5).
次に、図7に示す領域設定画面WD2について説明する。 Next, the area setting screen WD2 shown in FIG. 7 will be described.
図7では、領域設定画面WD2の全体が示されている。マスク処理設定部113は、ユーザ操作により、カメラ設定画面WD1の列CLM2においてONが選択されたカメラについて列CLM3の設定ボタンが押下されると、領域設定画面WD2をモニタDPに切り替えて表示する。なお、マスク処理設定部113は、カメラ設定画面WD1と領域設定画面WD2とを別個にモニタDPに表示しても構わない。この領域設定画面WD2では、ユーザの操作部13を用いた操作により、カメラにより撮像された撮像映像MV1が映し出されながら、マスク処理(MOR処理)の対象外領域がカメラと関連付けて設定可能となる。 In FIG. 7, the entire area setting screen WD2 is shown. When the setting button of the column CLM3 is pressed for a camera whose ON is selected in the column CLM2 of the camera setting screen WD1, the mask processing setting unit 113 switches the region setting screen WD2 to the monitor DP and displays it. The mask processing setting unit 113 may display the camera setting screen WD1 and the region setting screen WD2 separately on the monitor DP. In this area setting screen WD2, a non-target area for mask processing (MOR processing) can be set in association with the camera while the captured video MV1 captured by the camera is displayed by the user's operation using the operation unit 13. .
領域設定画面WD2では、デバイス名TM1、視覚領域TM2、非視覚領域TM3、削除TM4、画像呼出TM5の各項目と、映像用の表示領域と、設定完了用のセットボタンSTBTとが示されている。映像用の表示領域は、デバイス名TM1により指定されているカメラ(例えばPTZカメラCAM13)により現在撮像されている撮像映像MV1(つまり、ライブ映像)の表示領域である。但し、領域設定画面WD2の映像用の表示領域に映し出される映像は、カメラ(例えばPTZカメラCAM13)により現在撮像されている撮像映像MV1(つまり、ライブ映像)に限定されず、例えばレコーダREC1において既に記憶されている過去の録画映像であっても構わない。この場合には、クライアントPC10は、レコーダREC1から配信(送信)された過去の録画映像を受信して領域設定画面WD2の映像用の表示領域に表示する。 On the area setting screen WD2, items of device name TM1, visual area TM2, non-visual area TM3, deletion TM4, and image call TM5, a display area for video, and a set button STBT for setting completion are shown. . The display area for video is a display area of the captured video MV1 (that is, live video) currently captured by the camera (for example, PTZ camera CAM13) specified by the device name TM1. However, the video displayed in the video display area of the area setting screen WD2 is not limited to the captured video MV1 (that is, live video) currently captured by the camera (for example, the PTZ camera CAM13), and is already in the recorder REC1, for example. It may be a recorded video recorded in the past. In this case, the client PC 10 receives the past recorded video distributed (transmitted) from the recorder REC1, and displays it in the video display area of the area setting screen WD2.
デバイス名TM1では、例えばPTZカメラCAM13が示されている。 In the device name TM1, for example, a PTZ camera CAM13 is shown.
視覚領域TM2には、マスク処理の対象外領域を指定するための領域選択ボタンVA1、VA2,VA3が表示されている。言い換えると、マスク処理の対象外領域に指定されると、その領域内に移動する人物がいても、マスク処理されず、映像中に映し出されることになる。領域選択ボタンVA1は、マスク処理の対象外領域を四角形(例えば矩形状)で指定するために使用される(図8参照)。領域選択ボタンVA2は、マスク処理の対象外領域を多角形(例えば五角形)で指定するために使用される(図9参照)。領域選択ボタンVA3は、領域選択ボタンVA1又は領域選択ボタンVA2の操作によって指定されたマスク処理の対象外領域を選択するために使用される。 In the visual area TM2, area selection buttons VA1, VA2, and VA3 for designating areas not to be masked are displayed. In other words, if a region that is not subject to mask processing is designated, even if there is a person who moves within that region, the mask processing is not performed and the image is displayed in the video. The area selection button VA1 is used to designate a non-target area for mask processing with a rectangle (for example, a rectangular shape) (see FIG. 8). The area selection button VA2 is used for designating a non-maskable area as a polygon (for example, a pentagon) (see FIG. 9). The area selection button VA3 is used to select a mask processing non-target area designated by operating the area selection button VA1 or the area selection button VA2.
非視覚領域TM3には、撮像映像から隠す領域(隠し領域)を指定するための領域選択ボタンIVA1、IVA2,IVA3が表示されている。言い換えると、隠し領域に指定されると、その隠し領域内は例えば黒色で塗りつぶされて、映像中に映し出されなくなる。領域選択ボタンIVA1は、隠し領域を四角形(例えば矩形状)で指定するために使用される。領域選択ボタンIVA2は、隠し領域を多角形(例えば五角形)で指定するために使用される。領域選択ボタンIVA3は、領域選択ボタンIVA1又は領域選択ボタンIVA2の操作によって指定された隠し領域を選択するために使用される。 In the non-visual area TM3, area selection buttons IVA1, IVA2, and IVA3 for designating an area (hidden area) to be hidden from the captured image are displayed. In other words, when a hidden area is designated, the hidden area is filled with, for example, black, and is not displayed in the video. The area selection button IVA1 is used to designate a hidden area with a quadrangle (for example, a rectangular shape). The area selection button IVA2 is used to designate a hidden area with a polygon (for example, a pentagon). The area selection button IVA3 is used to select a hidden area designated by the operation of the area selection button IVA1 or the area selection button IVA2.
削除TM4には、選択された一つのマスク処理の対象外領域又は選択された一つの隠し領域を削除するための選択ボタンDL1と、選択された全てのマスク処理の対象外領域又は選択された全ての隠し領域を削除するための選択ボタンDL2とが表示されている。なお、マスク処理の対象外領域又は隠し領域において一つだけが選択されている場合には、撮像映像MV1中において、該当する領域部分が点線で示される。 The deletion TM4 includes a selection button DL1 for deleting one selected mask processing non-target area or one selected hidden area, and all selected mask processing non-target areas or all selected mask processing. A selection button DL2 for deleting the hidden area is displayed. Note that, when only one of the non-masking target areas or the hidden areas is selected, the corresponding area portion is indicated by a dotted line in the captured video MV1.
セットボタンSTBTは、マスク処理の対象外領域や隠し領域が指定された場合に、その指定されたマスク処理の対象外領域や隠し領域を確定するために、ユーザ操作によって押下される。従って、マスク処理設定部113は、セットボタンSTBTの押下により、指定されたマスク処理の対象外領域や隠し領域の位置情報(より具体的には、撮像映像MV1中の位置情報)をデバイス名TM1により特定されるカメラに関連付けてストレージ15又はメモリ16に保存する。 The set button STBT is pressed by a user operation when a non-masking target area or a hidden area is designated and the designated mask processing non-target area or hidden area is determined. Accordingly, the mask processing setting unit 113 displays the position information (more specifically, the position information in the captured video MV1) of the specified non-target mask processing area and the hidden area by pressing the set button STBT. The data is stored in the storage 15 or the memory 16 in association with the camera specified by the above.
ここで、マスク処理の対象外領域の設定について、例えば図8及び図10を参照して説明する。カメラ設定画面WD1(図6参照)を表示するためのユーザ操作により、マスク処理設定部113は、カメラ設定画面WD1をモニタDPに表示する(S1)。 Here, the setting of the non-target area for the mask process will be described with reference to FIGS. 8 and 10, for example. By a user operation for displaying the camera setting screen WD1 (see FIG. 6), the mask processing setting unit 113 displays the camera setting screen WD1 on the monitor DP (S1).
ユーザ操作により、カメラ設定画面WD1(図6参照)のPTZカメラCAM13のレコードの列CLM2がONに選択され、かつ同レコードの列CLM3の設定ボタン(枠WK1参照)が押下されると(S2、YES)、マスク処理設定部113は、PTZカメラCAM13に対応する領域設定画面WD2をモニタDPに表示する(S3)。列CLM3の設定ボタンが押下されない限り(S2、NO)、クライアントPC10のプロセッサ11の処理はステップS3に進まない。 When a user operation selects the column CLM2 of the record of the PTZ camera CAM13 on the camera setting screen WD1 (see FIG. 6) and the setting button (see the frame WK1) of the column CLM3 of the record is pressed (S2, YES), the mask processing setting unit 113 displays an area setting screen WD2 corresponding to the PTZ camera CAM13 on the monitor DP (S3). Unless the setting button of the column CLM3 is pressed (S2, NO), the processing of the processor 11 of the client PC 10 does not proceed to step S3.
図8の領域設定画面WD2において、ユーザ操作により、視覚領域TM2の領域選択ボタンVA1(例えば四角形状の領域選択ボタンVA1)が押下され(S4)、かつ、人物JB1,JB2,JB3が映っている撮像映像MV1中のテレビ装置の周囲をドラッグ操作等によって囲むように指定されたとする(S5)。マスク処理設定部113は、領域設定画面WD3において、領域選択ボタンVA1により指定されたテレビ装置の周囲に四角形状の枠JGA1を描画する。更に、マスク処理設定部113は、領域設定画面WD3において、ユーザ操作によってセットボタンSTBTが押下されたことを契機に(S6)、枠JGA1の位置情報(例えば座標情報)をマスク処理の対象外領域として、PTZカメラCAM13と関連付けたカメラ設定情報を生成してストレージ15又はメモリ16に保存する(S7)。マスク処理部114は、マスク処理設定部113により生成されたカメラ設定情報を参照し、撮像映像MV1中の枠JGA1の内部以外の移動体(例えば人物JB1,JB2,JB3)をマスク画像MK1,MK2,MK3に変更するためのマスク処理を行う。映像出力制御部115は、マスク処理部114により生成されたマスク画像MK1,MK2,MK3と撮像映像MV1とを用いた編集映像を生成してモニタDPの映像表示画面WD4に表示する。 In the area setting screen WD2 of FIG. 8, the area selection button VA1 (for example, a rectangular area selection button VA1) of the visual area TM2 is pressed by a user operation (S4), and the persons JB1, JB2, and JB3 are shown. It is assumed that the television apparatus in the captured video MV1 is designated to be surrounded by a drag operation or the like (S5). The mask processing setting unit 113 draws a rectangular frame JGA1 around the television device designated by the region selection button VA1 on the region setting screen WD3. Further, the mask processing setting unit 113 uses the position information (for example, coordinate information) of the frame JGA1 as a region not to be masked when the set button STBT is pressed by a user operation on the region setting screen WD3 (S6). Then, camera setting information associated with the PTZ camera CAM 13 is generated and stored in the storage 15 or the memory 16 (S7). The mask processing unit 114 refers to the camera setting information generated by the mask processing setting unit 113 and masks moving bodies (for example, persons JB1, JB2, JB3) other than the inside of the frame JGA1 in the captured video MV1 as mask images MK1, MK2. , MK3 to perform mask processing. The video output control unit 115 generates an edited video using the mask images MK1, MK2, and MK3 generated by the mask processing unit 114 and the captured video MV1, and displays the edited video on the video display screen WD4 of the monitor DP.
これにより、枠JGA1の内部はマスク処理の対象外領域であるためにマスク処理は行われず、例えば映像表示画面WD4の枠NMK1内のテレビ装置に移動する人物が映し出されたとしても、その人物はマスク画像(例えばマスク画像MK1)に変更されず、映像表示画面WD4に映し出される編集映像の視認性の劣化を抑制できる。 Thereby, since the inside of the frame JGA1 is a non-masking target area, the masking process is not performed. For example, even if a person moving to the television set in the frame NMK1 of the video display screen WD4 is displayed, It is possible to suppress the deterioration of the visibility of the edited video displayed on the video display screen WD4 without being changed to the mask image (for example, the mask image MK1).
なお、映像出力制御部115は、マスク処理部114におけるマスク処理の中で実行される通常学習(後述参照)を実行している時は、マスク処理(より具体的には通常学習)を実行していることを示す「MOR Running」のインジケータID1を映像表示画面WD4の左上端(Upper left)に表示する。これにより、ユーザは、クライアントPC10においてマスク処理が実行されている状態をモニタDPの映像表示画面WD4を閲覧することで、視覚的かつ簡単に把握できる。 Note that the video output control unit 115 executes mask processing (more specifically, normal learning) when performing normal learning (see below) executed during mask processing in the mask processing unit 114. “MOR Running” indicator ID1 indicating that the image is displayed on the upper left of the video display screen WD4. Accordingly, the user can visually and easily grasp the state in which the mask process is being executed in the client PC 10 by browsing the video display screen WD4 of the monitor DP.
ここで、マスク処理の対象外領域の設定について、例えば図9及び図10を参照して説明する。カメラ設定画面WD1(図6参照)を表示するためのユーザ操作により、マスク処理設定部113は、カメラ設定画面WD1をモニタDPに表示する(S1)。 Here, the setting of the non-target area for mask processing will be described with reference to FIGS. 9 and 10, for example. By a user operation for displaying the camera setting screen WD1 (see FIG. 6), the mask processing setting unit 113 displays the camera setting screen WD1 on the monitor DP (S1).
ユーザ操作により、カメラ設定画面WD1(図6参照)のPTZカメラCAM13のレコードの列CLM2がONに選択され、かつ同レコードの列CLM3の設定ボタン(枠WK1参照)が押下されると(S2、YES)、マスク処理設定部113は、PTZカメラCAM13に対応する領域設定画面WD2をモニタDPに表示する(S3)。列CLM3の設定ボタンが押下されない限り(S2、NO)、クライアントPC10のプロセッサ11の処理はステップS3に進まない。 When a user operation selects the column CLM2 of the record of the PTZ camera CAM13 on the camera setting screen WD1 (see FIG. 6) and the setting button (see the frame WK1) of the column CLM3 of the record is pressed (S2, YES), the mask processing setting unit 113 displays an area setting screen WD2 corresponding to the PTZ camera CAM13 on the monitor DP (S3). Unless the setting button of the column CLM3 is pressed (S2, NO), the processing of the processor 11 of the client PC 10 does not proceed to step S3.
図9の領域設定画面WD2において、ユーザ操作により、視覚領域TM2の領域選択ボタンVA2(例えば五角形状の領域選択ボタンVA2)が押下され(S4)、かつ、人物JB1,JB2,JB3が映っている撮像映像MV1中の人物JB1の頭部周辺が囲まれるように五角形の頂点PT1,PT2,PT3の選択及び頂点間の辺がドラッグ操作等によって指定されたとする(S5)。マスク処理設定部113は、領域設定画面WD3において、領域選択ボタンVA2により指定された人物JB1の頭部周辺に五角形状の枠JGA2を描画する。更に、マスク処理設定部113は、領域設定画面WD3において、ユーザ操作によってセットボタンSTBTが押下されたことを契機に(S6)、枠JGA2の位置情報(例えば座標情報)をマスク処理の対象外領域として、PTZカメラCAM13と関連付けたカメラ設定情報を生成してストレージ15又はメモリ16に保存する(S7)。マスク処理部114は、マスク処理設定部113により生成されたカメラ設定情報を参照し、撮像映像MV1中の枠JGA2の内部以外の移動体(例えば人物JB2,JB3)をマスク画像MK2,MK3(図8参照)に変更するためのマスク処理を行う。映像出力制御部115は、マスク処理部114により生成されたマスク画像MK2,MK3と撮像映像MV1とを用いた編集映像を生成してモニタDPの映像表示画面(不図示)に表示する。 In the area setting screen WD2 of FIG. 9, the area selection button VA2 (for example, the pentagonal area selection button VA2) of the visual area TM2 is pressed by the user operation (S4), and the persons JB1, JB2, and JB3 are shown. It is assumed that the pentagonal vertices PT1, PT2, PT3 are selected and the sides between the vertices are designated by a drag operation or the like so that the head periphery of the person JB1 in the captured video MV1 is surrounded (S5). The mask processing setting unit 113 draws a pentagonal frame JGA2 around the head of the person JB1 designated by the region selection button VA2 on the region setting screen WD3. Furthermore, the mask processing setting unit 113 uses the position information (for example, coordinate information) of the frame JGA2 as an area not to be masked when the set button STBT is pressed by a user operation on the area setting screen WD3 (S6). Then, camera setting information associated with the PTZ camera CAM 13 is generated and stored in the storage 15 or the memory 16 (S7). The mask processing unit 114 refers to the camera setting information generated by the mask processing setting unit 113 and masks moving bodies (for example, persons JB2, JB3) other than the inside of the frame JGA2 in the captured video MV1 as mask images MK2, MK3 (FIG. 8)) is performed. The video output control unit 115 generates an edited video using the mask images MK2 and MK3 generated by the mask processing unit 114 and the captured video MV1 and displays it on a video display screen (not shown) of the monitor DP.
これにより、枠JGA2の内部はマスク処理の対象外領域であるためにマスク処理は行われず、例えば映像表示画面(不図示)内の人物JB1の頭部周辺で移動する人物が映し出されたとしても、その人物はマスク画像(例えばマスク画像MK1)に変更されず、映像表示画面に映し出される編集映像の視認性の劣化を抑制できる。 Thereby, since the inside of the frame JGA2 is a non-masking target area, the masking process is not performed. For example, even if a person moving around the head of the person JB1 in the video display screen (not shown) is projected. The person is not changed to the mask image (for example, the mask image MK1), and the degradation of the visibility of the edited video displayed on the video display screen can be suppressed.
次に、クライアントPC10のプロセッサ11におけるマスク処理(MOR処理)の動作内容の詳細について、図11及び図12を参照して説明する。図11は、各実施形態に共通するマスク処理(MOR処理)の動作手順の一例を詳細に説明するフローチャートである。図12は、図11のステップS15,S16における背景画像の更新処理の動作手順の一例を詳細に説明するフローチャートである。 Next, details of the operation contents of the mask process (MOR process) in the processor 11 of the client PC 10 will be described with reference to FIGS. 11 and 12. FIG. 11 is a flowchart illustrating in detail an example of an operation procedure of mask processing (MOR processing) common to the embodiments. FIG. 12 is a flowchart illustrating in detail an example of the operation procedure of the background image update process in steps S15 and S16 of FIG.
図11において、プロセッサ11の背景画像処理部112は、画像入力部111により取得された撮像映像(例えばカメラにより撮像開始されてから一定時間分の撮像映像)を分析し、この撮像映像中で動きの無い領域(以下、「静止領域」という)からなる背景画像を生成する(S11)。以下、このステップS11の処理を、マスク処理(MOR処理)における「初期学習」と定義する。 In FIG. 11, the background image processing unit 112 of the processor 11 analyzes a captured video (for example, a captured video for a certain period of time after the start of imaging by the camera) acquired by the image input unit 111 and moves in the captured video. A background image made up of a region without an image (hereinafter referred to as “still region”) is generated (S11). Hereinafter, the process of step S11 is defined as “initial learning” in the mask process (MOR process).
図13は、初期学習による背景画像の生成手順を模式的に示す説明図である。背景画像処理部112は、一定時間分の撮像映像を取得し、撮像映像を構成する複数の撮像画像(図13の紙面左側参照)において、公知の画像処理(例えばフレーム間差分の演算)により、撮像画像のフレーム間において静止領域と動きのある領域(以下、「動体領域」という)とを検知する。図13では人物JB4が移動体として示されている。背景画像処理部112は、上述した画像処理により、動きの無い領域(つまり、静止領域)からなる背景画像BG1を生成する。 FIG. 13 is an explanatory diagram schematically showing a procedure for generating a background image by initial learning. The background image processing unit 112 acquires captured video for a certain period of time, and in a plurality of captured images constituting the captured video (see the left side of the paper in FIG. 13), by known image processing (for example, calculation of difference between frames), A still area and a moving area (hereinafter referred to as “moving body area”) are detected between frames of the captured image. In FIG. 13, the person JB4 is shown as a moving object. The background image processing unit 112 generates a background image BG1 including a region without motion (that is, a still region) by the above-described image processing.
なお、ステップS11の初期学習の処理中では、背景画像処理部112は撮像映像中において静止領域と動体領域との分離を行うことができない。このため、初期学習の期間中の撮像映像はモニタDPに表示されない。言い換えると、映像出力制御部115は、初期学習の期間中は、カメラから配信(送信)された撮像映像をモニタDPに表示しない。 Note that during the initial learning process of step S11, the background image processing unit 112 cannot separate the still area and the moving object area in the captured video. For this reason, the captured image during the initial learning period is not displayed on the monitor DP. In other words, the video output control unit 115 does not display the captured video distributed (transmitted) from the camera on the monitor DP during the initial learning period.
図14は、マスク処理(MOR処理)の概念を模式的に示す説明図である。ステップS11の初期学習の終了後、プロセッサ11のマスク処理部114は、ステップS11において生成された背景画像BG1の画素値(例えば輝度値又はRGB(Red Green Blue)値。以下同様。)とカメラから配信(送信)された現在の撮像映像AA1の画素値とを、背景画像や撮像映像を構成する画素の単位又は複数の画素からなる所定画素領域の単位(例えば4画素×4画素の単位)で比較する。 FIG. 14 is an explanatory diagram schematically showing the concept of mask processing (MOR processing). After the completion of the initial learning in step S11, the mask processing unit 114 of the processor 11 uses the pixel value (for example, luminance value or RGB (Red Green Blue) value, etc.) of the background image BG1 generated in step S11 and the camera. The pixel value of the current captured video AA1 distributed (transmitted) is determined in units of pixels constituting a background image or captured video or a unit of a predetermined pixel area composed of a plurality of pixels (for example, a unit of 4 pixels × 4 pixels). Compare.
マスク処理部114は、上述した比較の結果として、画素値が一定の閾値(既知)より大きな差異がある撮像映像中の領域を動体領域OB1と判断する(S12)。マスク処理部114は、動体領域と判断した撮像映像中の該当部分の画像をマスク画像MSK1(例えば半透明画像)に変更し、マスク画像MSK1を撮像映像AA1中の動体領域に重畳した編集映像BB1を生成してモニタDPに表示する(S13)。なお、編集映像BB1をモニタDPに表示する処理は、映像出力制御部115により行われても構わない。また、マスク処理部114は、生成した編集映像BB1を、カメラの識別番号(例えばカメラID)と関連付けて、ストレージ15又はメモリ16に保存してもよいしレコーダ(例えばレコーダREC1)に送信して記憶させても構わない。 As a result of the comparison described above, the mask processing unit 114 determines that the region in the captured image having a pixel value larger than a certain threshold (known) is the moving object region OB1 (S12). The mask processing unit 114 changes the image of the corresponding part in the captured video determined to be the moving object region to the mask image MSK1 (for example, a translucent image), and the edited video BB1 in which the mask image MSK1 is superimposed on the moving object region in the captured video AA1. Is generated and displayed on the monitor DP (S13). The process of displaying the edited video BB1 on the monitor DP may be performed by the video output control unit 115. Further, the mask processing unit 114 may store the generated edited video BB1 in the storage 15 or the memory 16 in association with the camera identification number (for example, camera ID) or transmit it to the recorder (for example, the recorder REC1). You may memorize it.
一方、マスク処理部114は、上述した比較の結果として、画素値が一定の閾値(既知)より小さな差異となった撮像映像中の領域を静止領域と判断する(S14)。マスク処理部114は、静止領域と判断した撮像映像中の該当部分の画像を現在の撮像映像又は背景画像としてそのままモニタDPに表示する(S14)。なお、静止領域と判断された撮像映像中の該当部分の画像をモニタDPに表示する処理は、映像出力制御部115により行われても構わない。また、マスク処理部114は、静止領域と判断した撮像映像中の該当部分の画像を、カメラの識別番号(例えばカメラID)と関連付けて、ストレージ15又はメモリ16に保存してもよいしレコーダ(例えばレコーダREC1)に送信して記憶させても構わない。また、ステップS12,S13,S14は時系列の順に沿って行われるものではなく、並行してほぼ同時又は同時に行われる。ステップS15,S16についても同様である。 On the other hand, as a result of the comparison described above, the mask processing unit 114 determines an area in the captured image in which the pixel value is smaller than a certain threshold (known) as a still area (S14). The mask processing unit 114 displays the image of the corresponding part in the captured image determined to be a still area as it is on the monitor DP as the current captured image or background image (S14). Note that the video output control unit 115 may perform the process of displaying the image of the corresponding part in the captured video determined to be a still region on the monitor DP. Further, the mask processing unit 114 may store the image of the corresponding part in the captured video determined to be a still area in the storage 15 or the memory 16 in association with the camera identification number (for example, camera ID) or the recorder ( For example, it may be transmitted and stored in the recorder REC1). Steps S12, S13, and S14 are not performed in the order of time series, but are performed substantially simultaneously or simultaneously in parallel. The same applies to steps S15 and S16.
ステップS14の後、背景画像処理部112は、ステップS14において静止領域と判断された映像領域について、その映像領域とステップS11において生成された背景画像とを用いて背景画像を更新する(S15)。例えば背景画像に対して1秒に1回の更新処理(図12参照)を行い、新しい撮像映像の情報を1%、現在の背景画像の情報を99%使用する場合には、およそ100秒後に背景画像は全面的に更新される。ステップS15の処理の詳細については、図12を参照して後述する。 After step S14, the background image processing unit 112 updates the background image of the video area determined as the still area in step S14 using the video area and the background image generated in step S11 (S15). For example, when the background image is updated once per second (see FIG. 12) and 1% of the information of the new captured video is used and 99% of the information of the current background image is used, about 100 seconds later. The background image is completely updated. Details of the processing in step S15 will be described later with reference to FIG.
ステップS14の後、背景画像処理部112は、ステップS12において動体領域と判断された映像領域について、その映像領域とステップS11において生成された背景画像とを用いて背景画像を更新する(S16)。以下、これらのステップS15,S16の処理を、マスク処理(MOR処理)における「通常学習」を定義する。例えば背景画像に対して1秒に1回の更新処理(図12参照)を行い、新しい撮像映像の情報を0.1%、現在の背景画像の情報を99.9%使用する場合には、およそ1000秒後に背景画像は全面的に更新される。この場合、通常学習の期間は、上述したステップS15で例示した100秒と、ステップS16で例示した1000秒のうち長い方の期間(つまり、1000秒=およそ17分程度)となる。ステップS16の処理の詳細については、図12を参照して後述する。 After step S14, the background image processing unit 112 updates the background image of the video area determined as the moving object area in step S12 using the video area and the background image generated in step S11 (S16). Hereinafter, “normal learning” in the mask process (MOR process) is defined as the process in steps S15 and S16. For example, when updating the background image once a second (see FIG. 12) and using 0.1% of new captured video information and 99.9% of current background image information, The background image is completely updated after about 1000 seconds. In this case, the normal learning period is the longer period (ie, 1000 seconds = about 17 minutes) of the 100 seconds exemplified in step S15 and the 1000 seconds exemplified in step S16. Details of the processing in step S16 will be described later with reference to FIG.
ステップS15,S16の後、マスク処理(MOR処理)が終了する場合には(S17、YES)、図11に示すプロセッサ11の処理は終了する。一方、ステップS15,S16の後、マスク処理(MOR処理)が終了しない場合には(S17、YES)、プロセッサ11の処理はステップS12に戻る。 If the mask process (MOR process) ends after steps S15 and S16 (S17, YES), the process of the processor 11 shown in FIG. 11 ends. On the other hand, if the mask process (MOR process) does not end after steps S15 and S16 (S17, YES), the process of the processor 11 returns to step S12.
ステップS15,S16の各処理は、図12に示す処理の順に行われる。ステップS15の処理とステップS16の処理との違いは、後述する背景画像更新比率Xの値である。図12の説明では、例えば、ステップS15の処理に関しては背景画像更新比率X=0.01(=1%)とし、ステップS16の処理に関しては背景画像更新比率X=0.001(=0.1%)とする。 Each process of step S15 and S16 is performed in the order of the process shown in FIG. The difference between the process of step S15 and the process of step S16 is a value of a background image update ratio X described later. In the description of FIG. 12, for example, the background image update ratio X = 0.01 (= 1%) for the process of step S15, and the background image update ratio X = 0.001 (= 0.1) for the process of step S16. %).
具体的に説明すると、背景画像更新比率X=0.01(=1%)とは、背景画像の更新において、新しい撮像映像の情報を1%使用し、現在の背景画像の情報を99%使用することを意味する。同様に、背景画像更新比率X=0.001(=0.1%)とは、背景画像の更新において、新しい撮像映像の情報を0.1%使用し、現在の背景画像を99.9%使用することを意味する。いずれにせよ、背景画像の更新では、背景画像更新比率Xの値に応じて、新しい撮像映像の情報を取り入れることを意味する。 More specifically, the background image update ratio X = 0.01 (= 1%) means that 1% of new captured video information is used and 99% of current background image information is used in the background image update. It means to do. Similarly, the background image update ratio X = 0.001 (= 0.1%) means that 0.1% of the information of the new captured video is used in the update of the background image, and the current background image is 99.9%. Means to use. In any case, updating the background image means taking in information of a new captured video in accordance with the value of the background image update ratio X.
図12の説明では画素値をRGB値(つまり、画像中の画素における赤色、緑色、青色の強さを示す値)とする。なお、カラーテーブルが24ビットRGBの場合、(R,G,B)=(255,255,255)は白色を示し、(R,G,B)=(0,0,0)は黒色を示し、(R,G,B)=(255,0,0)は赤色を示し、(R,G,B)=(0,255,0)は緑色を示し、(R,G,B)=(0,0,255)は青色を示す。 In the description of FIG. 12, the pixel value is an RGB value (that is, a value indicating the intensity of red, green, and blue in the pixel in the image). When the color table is 24-bit RGB, (R, G, B) = (255, 255, 255) indicates white, and (R, G, B) = (0, 0, 0) indicates black. , (R, G, B) = (255, 0, 0) indicates red, (R, G, B) = (0, 255, 0) indicates green, and (R, G, B) = ( 0, 0, 255) indicates blue.
図12において、背景画像処理部112は、更新対象となる背景画像を構成する画素の座標(x,y)を(0,0)に設定する(S21)。背景画像処理部112は、現在の撮像映像から座標(x,y)の画素における画素値(R0,G0,B0)を取得する(S22)。背景画像処理部112は、現在の背景画像(例えばステップS11の初期学習において生成された背景画像)から座標(x,y)の画素における画素値(R1,G1,B1)を取得する(S23)。 In FIG. 12, the background image processing unit 112 sets the coordinates (x, y) of the pixels constituting the background image to be updated to (0, 0) (S21). The background image processing unit 112 acquires the pixel value (R0, G0, B0) at the pixel at coordinates (x, y) from the current captured video (S22). The background image processing unit 112 acquires the pixel values (R1, G1, B1) at the pixel at coordinates (x, y) from the current background image (for example, the background image generated in the initial learning in step S11) (S23). .
背景画像処理部112は、ステップS22において取得した画素値(R0,G0,B0)とステップS23において取得した画素値(R1,G1,B1)とを用いて、数式(1)〜数式(3)に従って、更新後の背景画像を構成する画素の座標(x,y)における画素値(R2,G2,B2)を算出する(S24)。 The background image processing unit 112 uses the pixel values (R0, G0, B0) acquired in step S22 and the pixel values (R1, G1, B1) acquired in step S23, and formulas (1) to (3). Accordingly, the pixel values (R2, G2, B2) at the coordinates (x, y) of the pixels constituting the updated background image are calculated (S24).
R2=R0×X+R1×(1.0−X)・・・(1)
G2=G0×X+G1×(1.0−X)・・・(2)
B2=B0×X+B1×(1.0−X)・・・(3)
R2 = R0 × X + R1 × (1.0−X) (1)
G2 = G0 × X + G1 × (1.0−X) (2)
B2 = B0 × X + B1 × (1.0−X) (3)
例えばR0=100、R1=50、X=0.1(=10%)の場合には、数式(1)により、R2=100×0.1+50×0.9=55と算出される。これにより、背景画像処理部112は、該当する画素のR(要素)値は50(=R1)から55(=R2)に更新することができる。 For example, in the case of R0 = 100, R1 = 50, and X = 0.1 (= 10%), R2 = 100 × 0.1 + 50 × 0.9 = 55 is calculated by Equation (1). Thereby, the background image processing unit 112 can update the R (element) value of the corresponding pixel from 50 (= R1) to 55 (= R2).
ステップS24の後、背景画像処理部112が更新対象となる背景画像の全ての画素の座標(x,y)について数式(1)〜数式(3)を用いた算出により画素値が更新された場合には(S25、YES)、図12に示す背景画像処理部112の処理は終了する。 After step S24, when the background image processing unit 112 updates the pixel values by calculation using the equations (1) to (3) for the coordinates (x, y) of all the pixels of the background image to be updated. (S25, YES), the processing of the background image processing unit 112 shown in FIG. 12 ends.
一方、ステップS24の後、背景画像処理部112が更新対象となる背景画像の全ての画素の座標(x,y)について数式(1)〜数式(3)を用いた算出により画素値が更新されていない場合には(S25、NO)、背景画像処理部112は、画素の座標(x,y)を次の座標に設定する(S26)。ステップS26の後、背景画像処理部112の処理はステップS22に戻る。 On the other hand, after step S24, the pixel value is updated by calculation using Equations (1) to (3) for the coordinates (x, y) of all the pixels of the background image to be updated by the background image processing unit 112. If not (S25, NO), the background image processing unit 112 sets the coordinates (x, y) of the pixel to the next coordinates (S26). After step S26, the background image processing unit 112 returns to step S22.
これにより、プロセッサ11は、図11及び図12に示すマスク処理(MOR)を行うことで、撮像映像中において動きのある領域(例えば人物)についてマスク画像に変更することで、その動体領域中の人物等が誰であるかの特定を困難にする編集映像を生成してモニタDPに表示することができ、その人物のプライバシーの保護を図ることができる。また、プロセッサ11は、例えば撮像エリアに新しい固定物が設置されたり、電灯が消灯したり点灯したりする等の環境変化が生じた場合でも、その環境変化に追従した背景画像に更新することができる。例えば、プロセッサ11は、新しく設置された固定物を背景画像に取り込む更新を行うことが可能となり、環境変化に即した適切な編集映像を生成してモニタDPに映し出すことも可能である。 Accordingly, the processor 11 performs the mask process (MOR) shown in FIGS. 11 and 12 to change a moving area (for example, a person) in the captured image into a mask image, so that An edited video that makes it difficult to identify who the person is can be generated and displayed on the monitor DP, and the privacy of the person can be protected. Further, the processor 11 can update the background image to follow the environmental change even when an environmental change occurs, for example, when a new fixed object is installed in the imaging area, or the light is turned off or turned on. it can. For example, the processor 11 can update a newly-installed fixed object in the background image, and can also generate an appropriate edited video corresponding to the environmental change and display it on the monitor DP.
なお、ステップS16の処理では、新しい固定物が静止領域であることを背景画像処理部112が判断するための十分な時間が経過した後に、背景画像として取り込まれるために、環境に即した適切な背景追従時間の経過後に背景画像に取り込まれることが好ましい。背景追従時間は、通常学習の期間に相当するものである。例えば道路上の人物等、停止する可能性が低い環境(例えば場所)では、背景追従時間は短めの通常学習の期間(例えば5分=300秒)が設定されることが好ましい。一方、例えば図書館、オフィス、工場の人物等、停止する可能性が高い環境(例えば場所)では、背景追従時間は長めの通常学習の期間(例えば20分=1200秒)が設定されることが好ましい。 In the process of step S16, after a sufficient time for the background image processing unit 112 to determine that the new fixed object is a static region has elapsed, it is captured as a background image. It is preferable that the background image is captured after the background follow-up time has elapsed. The background follow-up time corresponds to a normal learning period. For example, in an environment (for example, a place) where the possibility of stopping is low, such as a person on a road, it is preferable to set a normal learning period (for example, 5 minutes = 300 seconds) with a short background following time. On the other hand, in an environment (for example, a place) where there is a high possibility of stopping such as a person in a library, office, factory, etc., the background follow-up time is preferably set to a longer normal learning period (for example, 20 minutes = 1200 seconds). .
以上により、第1の実施形態の監視カメラシステム100は、撮像エリアを撮像する少なくとも一つのカメラ(例えば全方位カメラCAM11,…)と、カメラにより撮像された撮像エリアの撮像映像AA1、又は撮像映像AA1に現れる人物の動体領域OB1の少なくとも一部又は全体をマスク画像に変更するためのマスク処理を行って得た編集映像BB1をモニタDPに表示するクライアントPC10と、を備える。また、クライアントPC10は、撮像映像MV1の表示領域を含む、マスク処理の対象外領域を設定するための領域設定画面WD2をモニタDPに表示する(図7参照)。クライアントPC10は、ユーザ操作に応じて、領域設定画面WD2内の撮像映像MV1の表示領域の中で指定された領域(例えば図8に示す枠JGA1参照)をマスク処理の対象外領域とするカメラ設定情報を、撮像映像MV1に対応するカメラ(例えばその撮像映像を配信したカメラ)と関連付けてストレージ15又はメモリ16に記憶する。 As described above, the surveillance camera system 100 according to the first embodiment includes at least one camera (for example, the omnidirectional camera CAM11,...) That images the imaging area, and the captured image AA1 or the captured image of the imaging area captured by the camera. A client PC 10 that displays on the monitor DP an edited video BB1 obtained by performing a mask process for changing at least part or all of the moving object region OB1 of the person appearing in AA1 into a mask image. In addition, the client PC 10 displays an area setting screen WD2 for setting a non-masking target area including the display area of the captured video MV1 on the monitor DP (see FIG. 7). In response to a user operation, the client PC 10 performs camera setting in which an area specified in the display area of the captured video MV1 in the area setting screen WD2 (see, for example, the frame JGA1 illustrated in FIG. 8) is not subjected to mask processing. The information is stored in the storage 15 or the memory 16 in association with the camera corresponding to the captured video MV1 (for example, the camera that distributed the captured video).
これにより、クライアントPC10は、各種のカメラが設置された場所の環境に適合するように、ユーザの簡単な操作によって、クライアントPC10において行われるマスク処理(MOR処理)の対象外領域をカメラごとに個別に設定することができる。従って、監視カメラシステム100は、何かのトラブルがあった場合にそのトラブルの原因究明を効率的に行うために、カメラ(例えばPTZカメラCAM13)から配信された撮像映像MV1やレコーダ(例えばレコーダREC1)から配信されたカメラの撮像映像MV1内に映る人物をマスク画像に変更できるのでその人物のプライバシーを保護できるとともに、マスク処理(MOR処理)の対象外領域に映ったカメラの撮像映像の視認性の劣化を抑制できる。つまり、監視カメラシステム100は、カメラが設置された場所の環境に適合するように、カメラの撮像映像内に映る人物のプライバシーの保護とカメラの撮像映像の視認性の劣化の抑制とを両立し、ユーザの使い勝手を向上することができる。 As a result, the client PC 10 individually sets the non-target area of the mask process (MOR process) performed in the client PC 10 for each camera by a simple operation of the user so as to suit the environment of the place where the various cameras are installed. Can be set to Therefore, in order to efficiently investigate the cause of the trouble when there is any trouble, the surveillance camera system 100 captures the captured video MV1 or recorder (for example, the recorder REC1) distributed from the camera (for example, the PTZ camera CAM13). ) Can be changed to a mask image so that the person's privacy can be protected, and the visibility of the camera's captured image displayed in an area not subject to mask processing (MOR processing) can be changed. Can be prevented. In other words, the surveillance camera system 100 achieves both the protection of the privacy of the person shown in the captured image of the camera and the suppression of the deterioration of the visibility of the captured image of the camera so as to suit the environment of the place where the camera is installed. User convenience can be improved.
また、クライアントPC10は、カメラごとに生成されたカメラ設定情報を用いて、撮像映像MV1の全体領域からマスク処理の対象外領域(例えば図8に示す枠JGA1参照)を除くマスク処理の対象領域に対してマスク処理を行って得た編集映像をモニタDPに表示する。これにより、クライアントPC10は、例えばユーザが撮像映像中で注目している映像領域部分の視認性を確保した上で映像出力でき、更に、マスク処理の対象領域の映像中に現れる人物をマスク画像に置き換えて表示できるので、マスク処理の対象領域内の人物が誰であるかの特定を困難にでき、プライバシーの確保を図ることができる。 Further, the client PC 10 uses the camera setting information generated for each camera to set the mask processing target area excluding the non-mask processing target area (see, for example, the frame JGA1 shown in FIG. 8) from the entire area of the captured video MV1. The edited video obtained by performing the masking process is displayed on the monitor DP. As a result, the client PC 10 can output video after ensuring the visibility of the video area portion that the user is paying attention to in the captured video, for example, and the person appearing in the video of the mask processing target area is used as the mask image. Since the display can be replaced, it is difficult to specify who is in the mask processing target area, and privacy can be ensured.
また、クライアントPC10は、少なくともマスク処理の実行又は不実行をカメラごとに設定するためのカメラ設定画面WD1をモニタDPに表示し、ユーザ操作に応じて、カメラ設定画面WD1の中でいずれかのカメラに対応するマスク処理の実行が指定された場合に、カメラ設定画面WD1から、指定されたカメラに対応する領域設定画面WD2に切り替えてモニタDPに表示する。これにより、ユーザは、カメラ設定画面WD1においていずれかのカメラにより撮像された撮像映像に対してマスク処理(MOR処理)の実行又は不実行を簡易に設定できる。更に、ユーザは、カメラ設定画面WD1においてマスク処理(MOR処理)の実行を設定しかつ設定ボタンを押下することで領域設定画面WD2がモニタDPに表示されるので、マスク処理(MOR処理)の実行と対象外領域の設定とを連続的に行うことができる。 Further, the client PC 10 displays a camera setting screen WD1 for setting at least execution or non-execution of mask processing for each camera on the monitor DP, and any of the cameras in the camera setting screen WD1 according to a user operation. When the execution of the mask processing corresponding to is designated, the camera setting screen WD1 is switched to the region setting screen WD2 corresponding to the designated camera and displayed on the monitor DP. Thereby, the user can easily set execution or non-execution of the mask process (MOR process) on the captured image captured by any camera on the camera setting screen WD1. Furthermore, when the user sets execution of mask processing (MOR processing) on the camera setting screen WD1 and presses the setting button, the region setting screen WD2 is displayed on the monitor DP, so execution of mask processing (MOR processing) is performed. And the setting of the non-target region can be performed continuously.
また、クライアントPC10は、ユーザ操作により、領域設定画面WD2内の撮像映像MV1の表示領域の中で指定された四角形領域をマスク処理の対象外領域に設定する。これにより、ユーザは、領域設定画面WD2に表示される撮像映像MV1を閲覧しながら、マスク処理の対象外領域とすることで視認性を確保したい部分を四角形状で選択することができる。 Further, the client PC 10 sets a rectangular area designated in the display area of the captured video MV1 in the area setting screen WD2 as a non-maskable area by a user operation. As a result, the user can select a portion of which the visibility is to be ensured by making it a non-target area of the mask process while viewing the captured video MV1 displayed on the area setting screen WD2.
また、クライアントPC10は、ユーザ操作により、領域設定画面WD2内の撮像映像MV1の表示領域の中で指定された多角形領域(例えば五角形領域)をマスク処理の対象外領域に設定する。これにより、ユーザは、領域設定画面WD2に表示される撮像映像MV1を閲覧しながら、マスク処理の対象外領域とすることで視認性を確保したい部分を多角形状(例えば五角形領域)で選択することができる。 Further, the client PC 10 sets a polygonal area (for example, a pentagonal area) designated in the display area of the captured video MV1 in the area setting screen WD2 as a non-maskable area by a user operation. As a result, the user can select a portion whose visibility is to be ensured by making it a non-target area of the mask process while viewing the captured image MV1 displayed on the area setting screen WD2 in a polygonal shape (for example, a pentagonal area). Can do.
また、クライアントPC10は、少なくともマスク処理の実行又は不実行をカメラごとに設定するためのカメラ設定画面WD1をモニタDPに表示し、カメラ設定画面WD1に対するユーザ操作に応じて、マスク処理の中で撮像映像MV1の背景画像を生成するための初期学習の期間と、マスク処理の中で背景画像を更新するための通常学習の期間とをカメラごとに関連付けてストレージ15又はメモリ16に保存する。 In addition, the client PC 10 displays a camera setting screen WD1 for setting at least execution or non-execution of the mask processing for each camera on the monitor DP, and performs imaging in the mask processing in accordance with a user operation on the camera setting screen WD1. The initial learning period for generating the background image of the video MV1 and the normal learning period for updating the background image in the mask process are stored in the storage 15 or the memory 16 in association with each camera.
これにより、ユーザは、各種のカメラが設置された場所の環境に適合するように、ユーザの簡単な操作によって、クライアントPC10において行われるマスク処理(MOR処理)の背景画像の初期学習及び通常学習の期間をカメラごとに個別に設定することができ、ユーザの使い勝手を向上できる。従って、クライアントPC10は、カメラ(例えばPTZカメラCAM13)が設定された環境(例えば場所)に応じて、その周辺に存在する人物の行動特性(例えば人物の移動が多い場所、人物の移動が少ない場所)に適合するように背景画像の生成及び更新を行うことができ、環境に即した適切なマスク処理後の編集映像を生成、表示することができる。 As a result, the user can perform initial learning and normal learning of the background image of the mask processing (MOR processing) performed in the client PC 10 by a simple operation of the user so as to suit the environment of the place where the various cameras are installed. The period can be individually set for each camera, and user convenience can be improved. Therefore, the client PC 10 determines the behavioral characteristics of a person existing in the vicinity (for example, a place where the movement of the person is large, a place where the movement of the person is small, depending on the environment (for example, the place) where the camera (for example, the PTZ camera CAM 13) is set The background image can be generated and updated so as to conform to (2), and the edited video after the mask processing suitable for the environment can be generated and displayed.
(第2の実施形態の内容に至る経緯)
特許文献1によれば、監視エリアにおいて検知された人物の動画映像内の位置情報及び人物の属性(例えば性別、年齢)毎にマスク画像が生成されるため、そのマスク画像により、プライバシーを確保した上で店舗内の人物の行動が把握可能となる。
(Background to the contents of the second embodiment)
According to Patent Document 1, since a mask image is generated for each position information and person attribute (for example, gender, age) in a moving image of a person detected in a monitoring area, privacy is ensured by the mask image. The behavior of the person in the store can be grasped above.
しかしながら、特許文献1では、動画映像において検知された人物の画像領域をマスク画像に変更するのはカメラであり、カメラからの動画映像を受信する受信装置(例えばユーザが使用するクライアントPC)によりマスク処理が行われることは考慮されていない。 However, in Patent Document 1, it is a camera that changes the image area of a person detected in a moving image to a mask image, and the mask is set by a receiving device (for example, a client PC used by a user) that receives the moving image from the camera. It is not taken into account that processing is performed.
このため、クライアントPCが複数のカメラにより撮像されたそれぞれ異なる撮像映像を受信してモニタに分割表示している間、それぞれの撮像映像毎にマスク処理の実行又は不実行の有無の設定を個々に行うことができず、ユーザの使い勝手が良くなかった。例えば、カメラにてマスク処理が行われるように予め設定されている場合、そのカメラから配信された映像がクライアントPCのモニタに表示されている間では、カメラの撮像処理を一旦停止させ、カメラのマスク処理を不実行とする設定に変更しない限り、モニタでの表示途中でクライアントPCにより、カメラにおけるマスク処理を不実行とする設定に変更することはできなかった。 For this reason, while the client PC receives different captured images captured by a plurality of cameras and separately displays them on the monitor, the setting of whether or not to perform mask processing is individually set for each captured image. It was not possible to do this, and the user-friendliness was not good. For example, when the camera is set in advance to perform mask processing, while the video distributed from the camera is displayed on the monitor of the client PC, the camera imaging process is temporarily stopped and the camera Unless the mask processing is changed to the setting that does not execute, the client PC cannot be changed to the setting that disables the mask processing in the camera during the display on the monitor.
そこで、第2の実施形態では、複数種類の異なる撮像映像をモニタに分割して表示する際に、個々の撮像映像に対するマスク処理の実行又は不実行の設定を撮像映像毎に簡易に設定し、ユーザの使い勝手を向上するモニタリングシステム及び映像表示方法の例を説明する。 Therefore, in the second embodiment, when a plurality of different types of captured images are divided and displayed on a monitor, the execution or non-execution of mask processing for each captured image is simply set for each captured image, An example of a monitoring system and a video display method for improving user convenience will be described.
(第2の実施形態)
第2の実施形態のモニタリングシステムとして、第1の実施形態で説明した監視カメラシステム100を例示して説明する。第2の実施形態の監視カメラシステム100の内部構成は第1の実施形態の監視カメラシステム100と同一であるため、同一の内容の説明は簡略化又は省略し、異なる内容について説明する。
(Second Embodiment)
As a monitoring system according to the second embodiment, the surveillance camera system 100 described in the first embodiment will be described as an example. Since the internal configuration of the surveillance camera system 100 of the second embodiment is the same as that of the surveillance camera system 100 of the first embodiment, description of the same contents is simplified or omitted, and different contents are described.
図15(A)及び図15(B)は、複数のカメラの撮像映像を3分割した表示例を示す図である。図15(C)は、複数のカメラの撮像映像を4分割した表示例を示す図である。 FIG. 15A and FIG. 15B are diagrams illustrating a display example in which captured images of a plurality of cameras are divided into three. FIG. 15C is a diagram illustrating a display example in which captured images of a plurality of cameras are divided into four.
クライアントPC10は、複数のカメラ(例えば全方位カメラCAM11、PTZカメラCAM12,CAM13)から配信(送信)された個々の異なる撮像映像を受信したとする。それぞれのカメラにおいてマスク処理(MOR処理)が実行されることがカメラ設定画面WD1(図6参照)において設定されている場合、プロセッサ11は、マスク処理部114において、図11及び図12に示す処理に従ってそれぞれの撮像映像中の人物をマスク画像に変更した(置き換えた)マスク処理後の編集映像MV2,MV3,MV4を生成する。プロセッサ11は、映像出力制御部115において、マスク処理部114により生成された編集映像MV2,MV3,MV4を3分割して映した映像表示画面WD5a又は映像表示画面5bをモニタDPに表示することができる(図15(A)又は図15(B)参照)。 Assume that the client PC 10 receives different captured images distributed (transmitted) from a plurality of cameras (for example, the omnidirectional camera CAM11, the PTZ cameras CAM12, and CAM13). When it is set on the camera setting screen WD1 (see FIG. 6) that the mask processing (MOR processing) is performed in each camera, the processor 11 performs processing shown in FIGS. 11 and 12 in the mask processing unit 114. Then, the edited video MV2, MV3, and MV4 after mask processing in which the person in each captured video is changed (replaced) to a mask image is generated. In the video output control unit 115, the processor 11 can display the video display screen WD5a or the video display screen 5b in which the edited videos MV2, MV3, and MV4 generated by the mask processing unit 114 are divided into three and displayed on the monitor DP. Yes (see FIG. 15A or FIG. 15B).
図15(A)の映像表示画面WD5aでは、編集映像の表示領域全体3DV1のうち、編集映像MV2の表示領域は、他の編集映像MV3,MV4の表示領域に比べて大きくなっている。図15(B)の映像表示画面WD5bでは、編集映像の表示領域全体3DV2のうち、編集映像MV4の表示領域は、他の編集映像MV2,MV3の表示領域に比べて大きくなっている。プロセッサ11は、図15(A)、図15(B)又は図15(C)に示す表示切替ボックスCGB1に対するユーザ操作に応じて、図15(A)に示す3分割の表示形態を、指定された表示形態(例えば図15(B)に示す3分割の表示形態、又は図15(C)に示す4分割の表示形態)に切り替えできる。但し、図15(A)及び図15(B)の図面の複雑化を避けるために、図15(A)及び図15(B)において表示切替ボックスCGB1の図示は省略されている。また、プロセッサ11は、図15(A)や図15(B)に示す3分割の表示形態において、どの編集映像の表示領域を最も大きくできるかをユーザ操作により設定できる。 In the video display screen WD5a of FIG. 15A, the display area of the edited video MV2 out of the entire display area 3DV1 of the edited video is larger than the display areas of the other edited videos MV3 and MV4. In the video display screen WD5b of FIG. 15B, the display area of the edited video MV4 out of the entire display area 3DV2 of the edited video is larger than the display areas of the other edited videos MV2 and MV3. The processor 11 is designated with the three-divided display form shown in FIG. 15A in response to a user operation on the display switching box CGB1 shown in FIG. 15A, FIG. 15B, or FIG. The display mode (for example, the 3-part display mode shown in FIG. 15B or the 4-part display mode shown in FIG. 15C) can be switched. However, in order to avoid complication of the drawings of FIGS. 15A and 15B, the display switching box CGB1 is not shown in FIGS. 15A and 15B. In addition, the processor 11 can set by user operation which edit video display area can be maximized in the three-divided display mode shown in FIGS. 15A and 15B.
クライアントPC10は、複数のカメラ(例えば全方位カメラCAM11、PTZカメラCAM12,CAM13、固定カメラCAM14)から配信(送信)された個々の異なる撮像映像を受信したとする。それぞれのカメラにおいてマスク処理(MOR処理)が実行されることがカメラ設定画面WD1(図6参照)において設定されている場合、プロセッサ11は、マスク処理部114において、図11及び図12に示す処理に従ってそれぞれの撮像映像中の人物をマスク画像に変更した(置き換えた)マスク処理後の編集映像MV2,MV3,MV4,MV5を生成する。プロセッサ11は、映像出力制御部115において、マスク処理部114により生成された編集映像MV2,MV3,MV4,MV5を4分割して映した映像表示画面WD6をモニタDPに表示することができる(図15(C)参照)。 Assume that the client PC 10 receives different captured images distributed (transmitted) from a plurality of cameras (for example, the omnidirectional camera CAM11, the PTZ cameras CAM12, CAM13, and the fixed camera CAM14). When it is set on the camera setting screen WD1 (see FIG. 6) that the mask processing (MOR processing) is performed in each camera, the processor 11 performs processing shown in FIGS. 11 and 12 in the mask processing unit 114. Then, the edited video MV2, MV3, MV4, and MV5 after mask processing in which the person in each captured video is changed (replaced) to a mask image are generated. In the video output control unit 115, the processor 11 can display on the monitor DP a video display screen WD6 in which the edited videos MV2, MV3, MV4, and MV5 generated by the mask processing unit 114 are divided into four (FIG. 5). 15 (C)).
図15(C)の映像表示画面WD6では、編集映像の表示領域全体4DV1のうち、4つの編集映像MV2,MV3,MV4,MV5の表示領域が均等である。 In the video display screen WD6 in FIG. 15C, the display areas of the four edited videos MV2, MV3, MV4, and MV5 are equal in the entire edited video display area 4DV1.
なお、図15(A)、図15(B)、図15(C)では、映像表示画面WD5a,WD5b,WD6に表示される映像は全てプロセッサ11によりマスク処理が施された後の編集映像が示されている。但し、少なくとも一つの映像は、マスク処理が施されていない撮像映像であっても構わない。これは、カメラ設定画面WD1において、カメラごとにマスク処理(MOR処理)の実行又は不実行の設定情報に起因する。言い換えると、クライアントPC10は、複数の映像を分割表示する際に、カメラ設定画面WD1でユーザにより設定されたカメラ設定情報に従って、それぞれのカメラに対応するマスク処理を実行した編集映像やマスク処理を実行しないで受信したままの撮像映像を用いて分割表示すればよい。 In FIG. 15A, FIG. 15B, and FIG. 15C, all the images displayed on the image display screens WD5a, WD5b, and WD6 are the edited images after the processor 11 performs the masking process. It is shown. However, at least one video may be a captured video that has not been subjected to mask processing. This is caused by setting information on whether or not to perform mask processing (MOR processing) for each camera on the camera setting screen WD1. In other words, when the client PC 10 displays a plurality of videos in a divided manner, the client PC 10 executes an edited video or a mask process in which a mask process corresponding to each camera is executed according to the camera setting information set by the user on the camera setting screen WD1. It is only necessary to divide and display the captured video as it is received.
例えば4分割の表示形態の際、ユーザの会社の入り口付近に設置されたカメラから配信された1つの撮像映像は、クライアントPC10によりマスク処理がなされずにそのまま映像表示画面(例えば映像表示画面WD6)に表示される。更に、会社の建物内に設置された他の複数(3つ)のカメラから配信された3つの撮像映像は、それぞれマスク処理がなされ、マスク処理により得られた複数の編集映像が同じ映像表示画面の残りの表示領域に表示されてもよい。これにより、ユーザ(例えば監視者)は、それぞれのカメラの設置場所の事情に合わせて、それぞれの場所に現れた人物の特定の要否を適宜決定して設定できる。例えば、ユーザは、顔を把握したい場所の撮像映像中の人物の顔を把握できるし、一方、顔を把握する必要がない場所又は顔を把握してはいけない場所では人物の顔がマスク画像になっているのでその人物のプライバシー保護を遵守できる。 For example, in the case of a four-divided display mode, one captured image distributed from a camera installed near the entrance of the user's company is not subjected to mask processing by the client PC 10 and is directly displayed as a video display screen (for example, a video display screen WD6). Is displayed. Furthermore, the three captured images distributed from other (three) cameras installed in the company building are each subjected to mask processing, and the plurality of edited videos obtained by the mask processing are the same image display screen. May be displayed in the remaining display area. Accordingly, a user (for example, a supervisor) can appropriately determine and set the specific necessity of the person appearing at each location according to the circumstances of the installation location of each camera. For example, the user can grasp the face of the person in the captured image of the place where the user wants to grasp the face. On the other hand, the person's face becomes a mask image in a place where the face does not need to be grasped or where the face should not be grasped. Therefore, the privacy protection of the person can be observed.
次に、本実施形態のクライアントPC10の分割表示の第1動作手順について、図16を参照して説明する。図16は、第2の実施形態における、複数のカメラの撮像映像の表示の際にクライアントPC10において行われる動作手順の一例を詳細に説明するフローチャートである。図16に示す処理は、クライアントPC10に撮像映像を配信するカメラごとに、クライアントPC10において行われる。 Next, a first operation procedure of split display of the client PC 10 of this embodiment will be described with reference to FIG. FIG. 16 is a flowchart illustrating in detail an example of an operation procedure performed in the client PC 10 when displaying captured images of a plurality of cameras according to the second embodiment. The process illustrated in FIG. 16 is performed in the client PC 10 for each camera that distributes the captured video to the client PC 10.
図16において、プロセッサ11のマスク処理設定部113は、クライアントPC10が受信した、分割表示の対象となるカメラの撮像映像を取得しているかどうかを判断する(S31)。マスク処理設定部113は、分割表示の対象となるカメラの撮像映像を取得していないと判断した場合には(S31、NO)、分割表示の対象となるカメラの撮像映像を取得するまで待機する(S32)。この場合には、映像出力制御部115は、分割表示の対象となるカメラからの撮像映像を取得していないので、モニタDPには何も表示しない。つまり、モニタDPの映像表示画面内の表示領域はブランクとなる。又は、クライアントPC10が既に受信している撮像映像があれば、映像出力制御部115は、その撮像映像をモニタDPの映像表示画面内の表示領域に表示してもよい。 In FIG. 16, the mask processing setting unit 113 of the processor 11 determines whether or not the client PC 10 has acquired the captured video of the camera to be divided and displayed (S31). If the mask processing setting unit 113 determines that the captured video of the camera that is the target of split display has not been acquired (NO in S31), the mask processing setting unit 113 waits until the captured video of the camera that is the target of split display is acquired. (S32). In this case, the video output control unit 115 does not display the captured video from the camera that is the target of the split display, and therefore displays nothing on the monitor DP. That is, the display area in the video display screen of the monitor DP is blank. Alternatively, if there is a captured video that the client PC 10 has already received, the video output control unit 115 may display the captured video in a display area in the video display screen of the monitor DP.
マスク処理設定部113は、分割表示の対象となるカメラの撮像映像を取得したと判断した場合には(S31、YES)、撮像映像に含まれるカメラの識別情報を基に、ストレージ15又はメモリ16に記憶しているカメラ設定情報の該当するカメラのレコードを参照して読み出す(S33)。マスク処理設定部113は、読み出したレコードにおいて撮像映像に対してマスク処理(MOR処理)を実行する旨の設定がなされているかどうかを判断する(S34)。 When the mask processing setting unit 113 determines that the captured video of the camera to be divided is acquired (S31, YES), the storage 15 or the memory 16 is based on the camera identification information included in the captured video. Is read with reference to the record of the corresponding camera in the camera setting information stored in (S33). The mask process setting unit 113 determines whether or not the setting to execute the mask process (MOR process) is performed on the captured video in the read record (S34).
マスク処理設定部113は、読み出したレコードにおいてマスク処理(MOR処理)を実行する旨の設定がなされていると判断した場合(S34、YES)、その旨をマスク処理部114に通知する。マスク処理部114は、マスク処理設定部113からの通知に応じて、該当するカメラからの撮像映像に対して図11及び図12に示したマスク処理(MOR処理)を実行し、マスク処理後の編集映像を生成する(S35)。映像出力制御部115は、ステップS35において生成された編集映像をモニタDPの映像表示画面内の該当表示領域(例えば図15(A)の編集映像MV2の表示領域)に表示する(S35)。 When it is determined that the mask record (MOR process) is set to be executed in the read record (S34, YES), the mask process setting unit 113 notifies the mask process unit 114 to that effect. In response to the notification from the mask processing setting unit 113, the mask processing unit 114 performs the mask processing (MOR processing) shown in FIGS. 11 and 12 on the captured image from the corresponding camera, and performs the mask processing after the mask processing. An edited video is generated (S35). The video output control unit 115 displays the edited video generated in step S35 in a corresponding display area (for example, the display area of the edited video MV2 in FIG. 15A) in the video display screen of the monitor DP (S35).
一方、マスク処理設定部113は、読み出したレコードにおいてマスク処理(MOR処理)を実行する旨の設定がなされていないと判断した場合(S34、NO)、オリジナルの撮像映像(つまり、マスク処理されていない撮像により得られた撮像映像。以下同様。)を表示する旨を映像出力制御部115に通知する(S36)。映像出力制御部115は、マスク処理設定部113からの通知に応じて、クライアントPC10がカメラから受信したオリジナルの撮像映像をモニタDPの映像表示画面内の該当表示領域(例えば図15(A)の編集映像MV2の表示領域)に表示する(S36)。 On the other hand, when the mask processing setting unit 113 determines that the mask record (MOR process) is not set in the read record (S34, NO), the original captured image (that is, the mask process is performed). The image output control unit 115 is notified that an imaged image obtained by non-imaging imaging (the same applies hereinafter) is displayed (S36). In response to the notification from the mask processing setting unit 113, the video output control unit 115 converts the original captured video received from the camera by the client PC 10 from the corresponding display area (for example, FIG. 15A) in the video display screen of the monitor DP. It is displayed on the display area of the edited video MV2 (S36).
ステップS35又はステップS36の後、クライアントPC10の分割表示が終了する場合には(S37、YES)、図16に示すプロセッサ11の処理は終了する。一方、ステップS35,S36の後、クライアントPC10の分割表示が終了しない場合には(S37、NO)、プロセッサ11の処理はステップS31に戻る。 If the divided display of the client PC 10 is finished after step S35 or step S36 (S37, YES), the processing of the processor 11 shown in FIG. 16 is finished. On the other hand, if the divided display of the client PC 10 does not end after steps S35 and S36 (S37, NO), the processing of the processor 11 returns to step S31.
図17は、カメラの撮像映像とその同じカメラの過去の複数の異なる撮像映像とを4分割した表示例を示す図である。クライアントPC10は、一つのカメラ(例えば固定カメラCAM14)から配信(送信)された現在の撮像映像(ライブ映像)を受信し、更に、一つのレコーダ(例えばレコーダREC1)から配信された複数の異なる録画映像を受信したとする。複数の異なる録画映像は、現在の撮像映像(ライブ映像)を配信しているカメラ(例えば固定カメラCAM14)により過去に撮像された録画映像である。このカメラにおいてマスク処理(MOR処理)が実行されることがカメラ設定画面WD1(図6参照)において設定されている場合、プロセッサ11は、マスク処理部114において、図11及び図12に示す処理に従ってそれぞれの撮像映像及び録画映像中の人物をマスク画像に変更した(置き換えた)マスク処理後の編集映像MV6,編集録画映像MV7,MV8,MV9を生成する。プロセッサ11は、映像出力制御部115において、マスク処理部114により生成された編集映像MV6,編集録画映像MV7,MV8,MV9を4分割して映した映像表示画面WD7をモニタDPに表示することができる(図17参照)。 FIG. 17 is a diagram illustrating a display example in which a captured image of a camera and a plurality of different captured images of the same camera are divided into four. The client PC 10 receives the current captured video (live video) distributed (transmitted) from one camera (for example, the fixed camera CAM 14), and further, a plurality of different recordings distributed from one recorder (for example, the recorder REC1). Assume that video is received. The plurality of different recorded videos are recorded videos captured in the past by a camera (for example, the fixed camera CAM 14) that distributes the current captured video (live video). When it is set on the camera setting screen WD1 (see FIG. 6) that the mask process (MOR process) is performed in this camera, the processor 11 causes the mask processing unit 114 to follow the processes shown in FIGS. Edited video MV6, edited video MV7, MV8, and MV9 after mask processing in which a person in each captured video and recorded video is changed (replaced) to a mask image are generated. In the video output control unit 115, the processor 11 can display on the monitor DP a video display screen WD7 that is obtained by dividing the edited video MV6, edited video MV7, MV8, and MV9 generated by the mask processing unit 114 into four. Yes (see FIG. 17).
図17の映像表示画面WD7では、編集映像や編集録画映像の表示領域全体4DV2のうち、4つの映像(具体的には、編集映像MV6,編集録画映像MV7,MV8,MV9)の表示領域が均等である。編集録画映像MV7,MV8,MV9は、例えば編集録画映像MV7、編集録画映像MV8、編集録画映像MV9の順に撮像日時が古い又は新しいものである。これにより、クライアントPC10は、同一のカメラにより撮像された現在の撮像映像と過去に撮像された録画映像とがそれぞれマスク処理(MOR処理)された編集映像や編集録画映像をモニタDPに分割表示できるので、ユーザの人物の追跡や行動把握等を効果的に支援することができる。 In the video display screen WD7 of FIG. 17, the display area of four videos (specifically, the edited video MV6, the edited video MV7, MV8, and MV9) out of the entire display area 4DV2 of the edited video and the edited video. It is. The edited recording videos MV7, MV8, and MV9 are, for example, those having the oldest or newest shooting date in the order of the edited recording video MV7, the edited recording video MV8, and the edited recording video MV9. As a result, the client PC 10 can divide and display on the monitor DP the edited video and the edited recorded video obtained by masking (MOR processing) the current captured video captured by the same camera and the recorded video captured in the past. Therefore, it is possible to effectively support the tracking of the user's person and the grasping of the action.
次に、本実施形態のクライアントPC10の分割表示の第2動作手順について、図18を参照して説明する。図18は、第2の実施形態における、カメラの撮像映像及びレコーダから録画映像の表示の際にクライアントPC10において行われる動作手順の一例を詳細に説明するフローチャートである。図18に示す処理は、クライアントPC10に現在の撮像映像(ライブ映像)を配信するカメラ、又はそのカメラにより撮像された過去の録画映像を配信するレコーダ毎に、クライアントPC10において行われる。 Next, a second operation procedure of split display of the client PC 10 of this embodiment will be described with reference to FIG. FIG. 18 is a flowchart illustrating in detail an example of an operation procedure performed in the client PC 10 when displaying a captured image of a camera and a recorded image from a recorder in the second embodiment. The process illustrated in FIG. 18 is performed in the client PC 10 for each camera that distributes the current captured video (live video) to the client PC 10 or for each recorder that distributes past recorded video captured by the camera.
また、図18に示す処理と図16に示す処理とが同一である場合には、図16に示す処理のステップ番号と同一のステップ番号を付与して説明を簡略化又は省略し、異なる内容について説明する。 Further, when the process shown in FIG. 18 and the process shown in FIG. 16 are the same, the same step number as the step number of the process shown in FIG. explain.
図18において、プロセッサ11のマスク処理設定部113は、クライアントPC10が受信した、分割表示の対象となるカメラからの撮像映像又はレコーダからの録画映像を取得しているかどうかを判断する(S31A)。マスク処理設定部113は、カメラからの撮像映像又はレコーダからの録画映像を取得していないと判断した場合には(S31A、NO)、カメラからの撮像映像又はレコーダからの録画映像を取得するまで待機する(S32)。なお、クライアントPC10は、ユーザの撮像日時の指定により、レコーダに対して該当する録画映像を要求すると、レコーダから配信された該当する録画映像を受信して取得することができ、各実施形態でも同様である。 In FIG. 18, the mask processing setting unit 113 of the processor 11 determines whether the client PC 10 has acquired the captured video from the camera that is the target of split display or the recorded video from the recorder (S31A). When it is determined that the captured video from the camera or the recorded video from the recorder is not acquired (S31A, NO), the mask processing setting unit 113 acquires the captured video from the camera or the recorded video from the recorder. Wait (S32). The client PC 10 can receive and acquire the corresponding recorded video distributed from the recorder when requesting the corresponding recorded video from the recorder by the user's designation of the imaging date and time. The same applies to each embodiment. It is.
マスク処理設定部113は、分割表示の対象となるカメラからの撮像映像又はレコーダからの録画映像を取得したと判断した場合には(S31A、YES)、撮像映像や録画映像に含まれるカメラの識別情報を基に、ストレージ15又はメモリ16に記憶しているカメラ設定情報の該当するカメラのレコードを参照して読み出す(S33A)。マスク処理設定部113は、読み出したレコードにおいて撮像映像や録画映像に対してマスク処理(MOR処理)を実行する旨の設定がなされているかどうかを判断する(S34A)。 When the mask processing setting unit 113 determines that the captured video from the camera that is the target of split display or the recorded video from the recorder is acquired (S31A, YES), identification of the camera included in the captured video or the recorded video Based on the information, the camera setting information stored in the storage 15 or the memory 16 is read with reference to the corresponding camera record (S33A). The mask process setting unit 113 determines whether or not the setting to execute the mask process (MOR process) is performed on the captured video or the recorded video in the read record (S34A).
マスク処理設定部113は、読み出したレコードにおいてマスク処理(MOR処理)を実行する旨の設定がなされていると判断した場合(S34A、YES)、その旨をマスク処理部114に通知する。マスク処理部114は、マスク処理設定部113からの通知に応じて、該当するカメラからの撮像映像又はレコーダからの録画映像に対して図11及び図12に示したマスク処理(MOR処理)を実行し、マスク処理後の編集映像又は編集録画映像を生成する(S35A)。映像出力制御部115は、ステップS35において生成された編集映像又は編集録画映像をモニタDPの映像表示画面内の該当表示領域(例えば図17の編集映像MV6又は編集録画映像MV7の表示領域)に表示する(S35A)。 When it is determined that the mask record (MOR process) is set to be executed in the read record (S34A, YES), the mask process setting unit 113 notifies the mask process unit 114 to that effect. In response to the notification from the mask processing setting unit 113, the mask processing unit 114 performs the mask processing (MOR processing) illustrated in FIGS. 11 and 12 on the captured video from the corresponding camera or the recorded video from the recorder. Then, the edited video or edited video recorded after the mask process is generated (S35A). The video output control unit 115 displays the edited video or the edited recorded video generated in step S35 in a corresponding display area in the video display screen of the monitor DP (for example, the display area of the edited video MV6 or the edited recorded video MV7 in FIG. 17). (S35A).
一方、マスク処理設定部113は、読み出したレコードにおいてマスク処理(MOR処理)を実行する旨の設定がなされていないと判断した場合(S34A、NO)、オリジナルの撮像映像又は録画映像を表示する旨を映像出力制御部115に通知する(S36A)。映像出力制御部115は、マスク処理設定部113からの通知に応じて、クライアントPC10がカメラから受信したオリジナルの撮像映像又は録画映像をモニタDPの映像表示画面内の該当表示領域(例えば図17の編集映像MV6又は編集録画映像MV7の表示領域)に表示する(S36A)。 On the other hand, when it is determined that the mask record (MOR process) is not set to be executed in the read record (S34A, NO), the mask process setting unit 113 displays the original captured video or recorded video. Is notified to the video output control unit 115 (S36A). In response to the notification from the mask processing setting unit 113, the video output control unit 115 displays the original captured video or recorded video received by the client PC 10 from the camera in a corresponding display area (for example, FIG. 17) in the video display screen of the monitor DP. It is displayed in the display area of the edited video MV6 or edited video MV7 (S36A).
以上により、第2の実施形態の監視カメラシステム100は、撮像エリアを撮像する複数のカメラ(例えば全方位カメラCAM11,…)と、個々のカメラにより撮像された撮像エリアの撮像映像に現れる移動体(例えば人物)の少なくとも一部をマスク画像に変更するためのマスク処理の実行又は不実行の設定情報をカメラごとに保持するクライアントPC10と、を備える。また、クライアントPC10は、マスク処理の実行が設定された複数のカメラにより撮像された個々の撮像映像をマスク処理して得た個々の編集映像、又はマスク処理の実行が設定された1つのカメラにより撮像された個々の撮像映像をマスク処理して得た編集映像とマスク処理の不実行が設定された少なくとも1つのカメラにより撮像された個々の撮像映像と、をモニタDPに分割表示する。 As described above, the surveillance camera system 100 according to the second embodiment includes a plurality of cameras (for example, the omnidirectional cameras CAM11,...) That capture an imaging area and a moving body that appears in the captured images of the imaging areas captured by the individual cameras. A client PC 10 that holds setting information for execution or non-execution of mask processing for changing at least a part of (for example, a person) into a mask image. In addition, the client PC 10 uses an individual edited video obtained by performing mask processing on individual captured images captured by a plurality of cameras set to execute mask processing, or a single camera set to execute mask processing. The edited video obtained by masking the individual captured video and the individual captured video captured by at least one camera set not to execute the mask processing are divided and displayed on the monitor DP.
第2の実施形態のクライアントPC10も、第1の実施形態と同様に、撮像映像に現れる移動中の人物の少なくとも一部又は全部をマスク画像に置き換えるマスク処理を行うことができる。これにより、クライアントPC10は、複数の異なる撮像映像をモニタDPに分割表示する際に、クライアントPC10が受信した個々の撮像映像の配信元(送信元)としてのカメラごとに、マスク処理の実行又は不実行の設定を簡易に設定できるので、ユーザの使い勝手を向上することができる。従って、クライアントPC10は、カメラの設置場所の事情に適合するように、分割表示の対象となる撮像映像毎に、マスク処理を行ったり行わなかったりする設定を可変にできるので、ユーザの適切な監視業務や高精度なマーケティング分析に資することができる。 Similarly to the first embodiment, the client PC 10 according to the second embodiment can also perform mask processing that replaces at least a part or all of the moving person appearing in the captured image with a mask image. As a result, when the client PC 10 divides and displays a plurality of different captured images on the monitor DP, the masking process is executed or not performed for each camera as a distribution source (transmission source) of each captured image received by the client PC 10. Since execution settings can be easily set, user convenience can be improved. Accordingly, the client PC 10 can change the setting for performing mask processing for each captured image to be divided and displayed so as to adapt to the circumstances of the camera installation location. It can contribute to business and high-precision marketing analysis.
また、第2の実施形態の監視カメラシステム100は、個々のカメラにより撮像された撮像エリアの撮像映像を録画映像として撮像日時と関連付けて記憶するレコーダ(例えばREC1)を更に備える。クライアントPC10は、マスク処理の実行が設定されたカメラにより撮像された撮像映像をマスク処理して得た編集映像とマスク処理の実行が設定されたカメラにより過去の異なる撮像日時に撮像されてレコーダに記憶された複数の録画映像をマスク処理して得た個々の編集録画映像と、をモニタDPに分割表示する。 The surveillance camera system 100 according to the second embodiment further includes a recorder (for example, REC1) that stores a captured image of an imaging area captured by each camera in association with an imaging date and time as a recorded video. The client PC 10 captures an edited image obtained by masking the captured image captured by the camera set to execute the mask process and an image captured at different past imaging dates and times by the camera set to execute the mask process. Individual edited and recorded videos obtained by masking a plurality of recorded videos are divided and displayed on the monitor DP.
これにより、クライアントPC10は、同一のカメラにより撮像された現在の撮像映像と過去に撮像された録画映像とがそれぞれマスク処理(MOR処理)された編集映像や編集録画映像をモニタDPに分割表示できるので、例えば監視業務やマーケティング分析においてカメラの設置場所付近に現れた人物の追跡や行動把握等を効果的に支援することができる。 As a result, the client PC 10 can divide and display on the monitor DP the edited video and the edited recorded video obtained by masking (MOR processing) the current captured video captured by the same camera and the recorded video captured in the past. Therefore, it is possible to effectively support, for example, tracking of a person appearing in the vicinity of the installation location of the camera or grasping an action in monitoring work or marketing analysis.
(第3の実施形態の内容に至る経緯)
特許文献1によれば、監視エリアにおいて検知された人物の動画映像内の位置情報及び人物の属性(例えば性別、年齢)毎にマスク画像が生成されるため、そのマスク画像により、プライバシーを確保した上で店舗内の人物の行動が把握可能となる。
(Background to the contents of the third embodiment)
According to Patent Document 1, since a mask image is generated for each position information and person attribute (for example, gender, age) in a moving image of a person detected in a monitoring area, privacy is ensured by the mask image. The behavior of the person in the store can be grasped above.
しかしながら、特許文献1では、動画映像において検知された人物の画像領域をマスク画像に変更するのはカメラであり、カメラからの動画映像を受信する受信装置(例えばユーザが使用するクライアントPC)によりマスク処理が行われることは考慮されていない。 However, in Patent Document 1, it is a camera that changes the image area of a person detected in a moving image to a mask image, and the mask is set by a receiving device (for example, a client PC used by a user) that receives the moving image from the camera. It is not taken into account that processing is performed.
クライアントPCにおいてマスク処理ができない場合、マスク処理を実行する機能(以下、「マスク機能」という)が無いカメラにより撮像された撮像映像についてマスク処理を行うことはできなかった。マスク機能が無い既設のカメラにマスク機能を追加することは困難を伴う。このため、監視効率の向上やマーケティング分析精度の向上を図ることが困難であった。 When the mask processing cannot be performed in the client PC, the mask processing cannot be performed on a captured image captured by a camera without a function for executing the mask processing (hereinafter referred to as “mask function”). It is difficult to add a mask function to an existing camera without a mask function. For this reason, it was difficult to improve monitoring efficiency and marketing analysis accuracy.
そこで、第3の実施形態では、マスク機能を有さないカメラに対してマスク機能を別途追加すること無く、マスク機能を有さないカメラにより撮像された撮像映像に対してマスク処理を適切に施し、監視効率やマーケティング分析精度の向上を図るモニタリングシステム及び映像表示方法の例を説明する。 Therefore, in the third embodiment, mask processing is appropriately performed on a captured image captured by a camera that does not have a mask function without adding a mask function separately to a camera that does not have a mask function. An example of a monitoring system and a video display method for improving monitoring efficiency and marketing analysis accuracy will be described.
(第3の実施形態)
第3の実施形態のモニタリングシステムとして、第1の実施形態で説明した監視カメラシステム100を例示して説明する。第3の実施形態の監視カメラシステム100の内部構成は第1の実施形態の監視カメラシステム100と同一であるため、同一の内容の説明は簡略化又は省略し、異なる内容について説明する。
(Third embodiment)
The monitoring camera system 100 described in the first embodiment will be described as an example of a monitoring system according to the third embodiment. Since the internal configuration of the surveillance camera system 100 of the third embodiment is the same as that of the surveillance camera system 100 of the first embodiment, description of the same contents is simplified or omitted, and different contents are described.
第3,第4の各実施形態では、図1に示す監視カメラシステム100において、少なくとも固定カメラCAM14は、上述したマスク機能を有する。つまり、固定カメラCAM14は、自ら撮像した撮像映像に対し、図11及び図12に示すマスク処理(MOR処理)を実行することができる。言い換えると、第3,第4の各実施形態では、固定カメラCAM14のプロセッサC11には、図3に示すクライアントPC10のプロセッサ11内の画像入力部111、背景画像処理部112、マスク処理設定部113及びマスク処理部114と同じ各部が含まれるように構成されているとする。 In the third and fourth embodiments, in the surveillance camera system 100 shown in FIG. 1, at least the fixed camera CAM 14 has the mask function described above. That is, the fixed camera CAM 14 can execute the mask process (MOR process) shown in FIGS. 11 and 12 on the captured image captured by itself. In other words, in each of the third and fourth embodiments, the processor C11 of the fixed camera CAM 14 includes the image input unit 111, the background image processing unit 112, and the mask processing setting unit 113 in the processor 11 of the client PC 10 illustrated in FIG. In addition, it is assumed that the same components as the mask processing unit 114 are included.
なお、固定カメラCAM14は、クライアントPC10におけるマスク処理と同等のマスク処理(つまり、第1の実施形態で説明した、ユーザ操作に基づくマスク処理の対象外領域を除いた領域において行うマスク処理)を行うことができなくても、例えば特許文献1に記載したマスク処理を行うことができても構わない。また、第3,第4の各実施形態ではマスクカメラは1台として説明しているが、1台だけに限定されず、複数のカメラがマスクカメラとして動作するものであっても構わない。 Note that the fixed camera CAM 14 performs a mask process equivalent to the mask process in the client PC 10 (that is, the mask process performed in the region excluding the non-target region for the mask process based on the user operation described in the first embodiment). Even if it cannot be performed, for example, the mask processing described in Patent Document 1 may be performed. Further, in each of the third and fourth embodiments, the mask camera is described as one unit. However, the present invention is not limited to only one unit, and a plurality of cameras may operate as a mask camera.
また、第3,第4の各実施形態において、固定カメラCAM14のように、マスク機能を有するカメラを便宜的に「マスクカメラ」といい、固定カメラCAM14を除く他のカメラのように、マスク機能を有さないカメラを便宜的に「通常カメラ」という。 In each of the third and fourth embodiments, a camera having a mask function like the fixed camera CAM14 is referred to as a “mask camera” for convenience, and a mask function like other cameras excluding the fixed camera CAM14. For convenience, a camera that does not have a camera is called a “normal camera”.
次に、本実施形態のクライアントPC10のマスク処理の設定及び撮像映像の表示に関する動作手順について、図19〜図21を参照して説明する。図19は、第3の実施形態における、マスクカメラ及び通常カメラに対するクライアントPC10のマスク処理(MOR処理)の設定及び撮像映像の表示の動作手順の一例を詳細に説明するシーケンス図である。図20は、第3,第4の各実施形態におけるカメラ設定画面の一例を示す図である。図21は、クライアントPC10のモニタDPに表示される、撮像映像がマスク処理された編集映像の4分割表示例を示す図である。 Next, an operation procedure related to setting of mask processing and display of captured video of the client PC 10 according to the present embodiment will be described with reference to FIGS. FIG. 19 is a sequence diagram illustrating in detail an example of an operation procedure for setting a mask process (MOR process) of the client PC 10 for the mask camera and the normal camera and displaying a captured image in the third embodiment. FIG. 20 is a diagram illustrating an example of a camera setting screen in the third and fourth embodiments. FIG. 21 is a diagram illustrating an example of four-division display of an edited video that is displayed on the monitor DP of the client PC 10 and in which the captured video is masked.
図19において、ユーザ操作により、クライアントPC10の運用が開始される操作があると(S41)、クライアントPC10は、例えばカメラ設定画面WD1A(図20参照)に対するユーザ操作によりマスクカメラにおけるマスク処理の実行(ON)又は不実行(OFF)が指定された場合に、マスクカメラにおけるマスク処理の実行又は不実行が指定されたカメラ設定情報とカメラ設定情報を設定する旨の指示とをマスクカメラに送信する(S42)。 In FIG. 19, when there is an operation for starting operation of the client PC 10 by a user operation (S41), the client PC 10 executes mask processing in the mask camera by a user operation on the camera setting screen WD1A (see FIG. 20), for example ( When ON or non-execution (OFF) is designated, the camera setting information in which the mask process is designated to be executed or non-execution in the mask camera and an instruction to set the camera setting information are transmitted to the mask camera ( S42).
ここで、図20に示すカメラ設定画面WD1Aについて説明する。図6に示すカメラ設定画面WD1と重複する項目又は同様な項目の説明は簡略化又は省略し、異なる内容について説明する。 Here, the camera setting screen WD1A shown in FIG. 20 will be described. Descriptions of items overlapping or similar to the camera setting screen WD1 shown in FIG. 6 are simplified or omitted, and different contents will be described.
図20では、カメラ設定画面WD1Aの一部が抜粋して示されている。マスク処理設定部113は、例えばユーザ操作により、カメラ設定画面WD1AをモニタDPに表示する。このカメラ設定画面WD1Aでは、ユーザの操作部13を用いた操作により、例えば最大64台のカメラ(つまり、全方位カメラ、PTZカメラ、固定カメラにより構成)の個々のカメラに対し、少なくともIPアドレス、マスク処理(MOR処理)、マスク処理(MOR処理)の設定、初期学習期間、通常学習期間が関連付けられて設定可能となる。また、カメラ設定画面WD1Aに設けられた4つのタブ(カメラ1−16,カメラ17−32,カメラ33−48,カメラ49−64)を切り替えることで、カメラ16台単位で、該当するカメラについて、少なくともIPアドレス、マスク処理(MOR処理)、マスク処理(MOR処理)の設定、初期学習期間、通常学習期間の情報を設定可能である。 In FIG. 20, a part of the camera setting screen WD1A is extracted and shown. The mask processing setting unit 113 displays the camera setting screen WD1A on the monitor DP, for example, by a user operation. In this camera setting screen WD1A, at least an IP address, for each individual camera of, for example, a maximum of 64 cameras (that is, an omnidirectional camera, a PTZ camera, and a fixed camera) is operated by the user using the operation unit 13. The mask process (MOR process), the setting of the mask process (MOR process), the initial learning period, and the normal learning period can be set in association with each other. Further, by switching the four tabs (camera 1-16, camera 17-32, camera 33-48, camera 49-64) provided on the camera setting screen WD1A, for the corresponding camera in units of 16 cameras, Information on at least an IP address, mask processing (MOR processing), setting of mask processing (MOR processing), initial learning period, and normal learning period can be set.
マスク処理(MOR処理)の列CLM2Aでは、マスク処理の不実行(OFF)、マスクカメラでのマスク処理(CAM−MOR)の実行、又はクライアントPC10でのマスク処理(PC−MOR)の実行(ON)の3つのうちいずれかが選択される(枠WK2A参照)。言い換えると、図6のカメラ設定画面WD1におけるマスク処理の実行(ON)は、図20のカメラ設定画面WD1においては、マスクカメラでのマスク処理(CAM−MOR)の実行、又はクライアントPC10でのマスク処理(PC−MOR)の実行(ON)に該当する。 In the mask process (MOR process) column CLM2A, the mask process is not executed (OFF), the mask process (CAM-MOR) is executed by the mask camera, or the mask process (PC-MOR) is executed by the client PC 10 (ON). ) Is selected (see frame WK2A). In other words, execution (ON) of the mask process on the camera setting screen WD1 in FIG. 6 is executed on the camera setting screen WD1 in FIG. 20 by executing the mask process (CAM-MOR) on the mask camera or on the client PC 10. This corresponds to execution (ON) of processing (PC-MOR).
マスク処理(MOR処理)の設定の列CLM3では、列CLM2Aにおいて、マスクカメラでのマスク処理(CAM−MOR)又はクライアントPC10でのマスク処理(PC−MOR)が選択された場合に、マスク処理の対象外領域を設定させるための領域設定画面WD2を表示させる設定ボタン(枠WK1参照)が表示される。但し、列CLM2Aにおいてマスク処理の不実行(OFF)が選択されたカメラについては列CLM3の設定ボタンは押下可能に表示されない(例えば列CLM3の図20の紙面上から5段目,8段目,10段目,15段目の点線参照)。 In the column CLM3 for setting the mask process (MOR process), when the mask process (CAM-MOR) in the mask camera or the mask process (PC-MOR) in the client PC 10 is selected in the column CLM2A, the mask process is performed. A setting button (see frame WK1) for displaying an area setting screen WD2 for setting the non-target area is displayed. However, the setting button of the column CLM3 is not displayed so as to be able to be pressed for a camera for which non-execution of mask processing (OFF) is selected in the column CLM2A (for example, the fifth column, the eighth column from the page of FIG. 20 in the column CLM3, (See the dotted lines on the 10th and 15th stages).
図19において、マスクカメラは、ステップS42においてクライアントPC10から送信された指示に従い、その指示とともに送信されたカメラ設定情報を基に、そのカメラ設定情報により指定されるマスク処理の実行(ON)又は不実行(OFF)を設定し、設定した旨の応答をクライアントPC10に返す(S43)。 In FIG. 19, the mask camera follows the instruction transmitted from the client PC 10 in step S42, and executes (ON) or disables mask processing specified by the camera setting information based on the camera setting information transmitted together with the instruction. Execution (OFF) is set, and a response to the effect is returned to the client PC 10 (S43).
クライアントPC10は、通常カメラ及びマスクカメラに対し、それぞれ撮像の開始と撮像映像の配信とを指示する(S44)。通常カメラは、クライアントPC10からの指示に従い、撮像を開始し(S45)、以後、撮像により得られた撮像映像の配信を継続する(S47)。クライアントPC10は、通常カメラから配信された撮像映像を受信する。 The client PC 10 instructs the normal camera and the mask camera to start imaging and distribute the captured video (S44). The normal camera starts imaging in accordance with an instruction from the client PC 10 (S45), and thereafter continues to distribute the captured video obtained by imaging (S47). The client PC 10 receives a captured image distributed from a normal camera.
マスクカメラは、クライアントPC10からの指示に従い、撮像を開始し(S46)、更に、ステップS43において設定されたマスク処理の実行(ON)又は不実行(OFF)を判断する。つまり、マスクカメラは、ステップS43においてマスク処理の実行(ON)を設定した場合には、撮像により得られた撮像映像をマスク処理(図11及び図12参照)することで得た編集映像をクライアントPC10に向けて配信し、その配信を継続する(S48)。一方、マスクカメラは、ステップS43においてマスク処理の不実行(OFF)を設定した場合には、撮像により得られた撮像映像をそのままクライアントPC10に向けて配信し、その配信を継続する(S48)。 The mask camera starts imaging in accordance with an instruction from the client PC 10 (S46), and further determines whether the mask process set in step S43 is executed (ON) or not executed (OFF). That is, when the mask camera is set to execute (ON) in step S43, the mask camera displays the edited video obtained by performing mask processing (see FIGS. 11 and 12) on the captured video obtained by imaging. Distribution is performed toward the PC 10 and the distribution is continued (S48). On the other hand, if the mask process is set to non-execution (OFF) in step S43, the mask camera distributes the captured image obtained by the imaging as it is to the client PC 10, and continues the distribution (S48).
クライアントPC10は、通常カメラ又はマスクカメラに対応したカメラ設定情報の中で、マスクカメラがマスク処理を実行する旨もしくはマスク処理自体が不実行である旨が設定されている場合には、受信した撮像映像をそのままモニタDPに表示する(S49、図21参照)。 The client PC 10 receives the received image when it is set in the camera setting information corresponding to the normal camera or the mask camera that the mask camera executes the mask process or the mask process itself is not executed. The video is displayed on the monitor DP as it is (S49, see FIG. 21).
一方、クライアントPC10は、通常カメラ又はマスクカメラに対応したカメラ設定情報の中で、クライアントPC10がマスク処理を実行する旨が設定されている場合には、受信した撮像映像に対してマスク処理(図11及び図12参照)を行い、マスク処理により得た編集映像をモニタDPに表示する(S49、図21参照)。 On the other hand, if the client PC 10 is set to execute the mask process in the camera setting information corresponding to the normal camera or the mask camera, the client PC 10 performs the mask process (see FIG. 11 and FIG. 12), and the edited video obtained by the mask process is displayed on the monitor DP (S49, see FIG. 21).
図21の映像表示画面WD7Aでは、編集映像の表示領域全体(図17参照)のうち、4つの映像(具体的には、編集映像MV6A,MV7A,MV8A,MV9A)の表示領域が均等である。編集映像MV6A,MV9Aは、例えばマスクカメラにおいて撮像された撮像映像がマスクカメラにおいてマスク処理された結果として得られた編集映像がクライアントPC10においてそのまま表示されたものである。編集映像MV7Aは、例えばマスクカメラにおいて撮像された撮像映像がマスクカメラにおいてマスク処理されずクライアントPC10においてマスク処理された結果として得られた編集映像が表示されたものである。編集映像MV8Aは、例えば通常カメラにおいて撮像された撮像映像がクライアントPC10においてマスク処理された結果として得られた編集映像が表示されたものである。これにより、クライアントPC10は、マスク機能を有さない通常カメラやマスク機能を有するマスクカメラに対応したマスク処理の実行(ON)又は不実行(OFF)の設定に応じて、マスクカメラ又はクライアントPC10自身によりマスク処理された編集映像をモニタDPに分割表示できるので、個々のカメラで撮像された撮像映像中の人物のプライバシーを確保した上で、監視業務やマーケティング分析の効率化に資することができる。 In the video display screen WD7A of FIG. 21, the display areas of four videos (specifically, the edited videos MV6A, MV7A, MV8A, and MV9A) are equal in the entire display area of the edited video (see FIG. 17). The edited videos MV6A and MV9A are, for example, the edited videos obtained as a result of the masked image captured by the mask camera being displayed on the client PC 10 as they are. The edited video MV7A is, for example, displayed on the edited video obtained as a result of the captured video captured by the mask camera being masked by the client PC 10 without being masked by the mask camera. The edited video MV8A is displayed, for example, as an edited video obtained as a result of masking the captured video captured by the normal camera in the client PC 10. As a result, the client PC 10 can select the mask camera or the client PC 10 itself according to the execution (ON) or non-execution (OFF) setting of the mask process corresponding to the normal camera having no mask function or the mask camera having the mask function. Since the edited video that has undergone the mask processing can be divided and displayed on the monitor DP, it is possible to contribute to the efficiency of monitoring work and marketing analysis while ensuring the privacy of the person in the captured video captured by each camera.
以上により、第3の実施形態の監視カメラシステム100は、撮像エリアを撮像し、撮像エリアの撮像映像に現れる移動体(例えば人物)の少なくとも一部をマスク画像に変更するためのマスク処理を実行不能な通常カメラ(例えば全方位カメラCAM11)と、撮像映像に対するマスク処理の実行又は不実行の設定情報を保持するクライアントPC10と、を備える。クライアントPC10は、撮像映像に対するクライアントPC10でのマスク処理の実行が設定されている場合に、撮像映像をマスク処理するとともに、マスク処理により得た編集映像をモニタDPに表示する。一方、クライアントPC10は、撮像映像に対するクライアントPC10でのマスク処理の不実行が設定されている場合に、撮像映像をそのままモニタDPに表示する。 As described above, the surveillance camera system 100 according to the third embodiment captures an imaging area, and executes a mask process for changing at least a part of a moving body (for example, a person) appearing in a captured image of the imaging area to a mask image. A normal camera (for example, an omnidirectional camera CAM11) that cannot be performed, and a client PC 10 that holds setting information on whether or not to perform mask processing on a captured image. When the client PC 10 is set to execute mask processing on the captured video, the client PC 10 performs mask processing on the captured video and displays the edited video obtained by the mask processing on the monitor DP. On the other hand, the client PC 10 displays the captured image as it is on the monitor DP when the non-execution of the mask processing in the client PC 10 for the captured image is set.
第3の実施形態のクライアントPC10も、第1の実施形態と同様に、撮像映像に現れる移動中の人物の少なくとも一部又は全部をマスク画像に置き換えるマスク処理を行うことができる。これにより、クライアントPC10は、マスク機能を有さない通常カメラに対してマスク機能を別途追加すること無く、マスク機能を有さない通常カメラにより撮像された撮像映像に対してマスク処理を適切に施し、監視効率やマーケティング分析精度の向上を図ることができる。 Similarly to the first embodiment, the client PC 10 of the third embodiment can also perform mask processing that replaces at least a part or all of the moving person appearing in the captured image with a mask image. As a result, the client PC 10 appropriately performs mask processing on the captured image captured by the normal camera not having the mask function without separately adding a mask function to the normal camera not having the mask function. , Monitoring efficiency and marketing analysis accuracy can be improved.
また、第3の実施形態の監視カメラシステム100は、撮像エリアを撮像し、撮像エリアの撮像映像に現れる移動体(例えば人物)の少なくとも一部をマスク画像に変更するためのマスク処理を実行可能なマスクカメラ(例えば固定カメラCAM14)、を更に備える。クライアントPC10は、マスクカメラにおけるマスク処理の実行又は不実行の設定情報を保持し、マスクカメラにおけるマスク処理の実行が設定されている場合に、マスクカメラにおけるマスク処理に基づく編集映像をモニタDPにそのまま表示する。 Further, the surveillance camera system 100 according to the third embodiment can execute a mask process for capturing an imaging area and changing at least a part of a moving body (for example, a person) appearing in a captured image of the imaging area into a mask image. A mask camera (for example, a fixed camera CAM14). The client PC 10 holds setting information indicating whether or not to execute mask processing in the mask camera, and when the execution of mask processing in the mask camera is set, the edited video based on the mask processing in the mask camera is directly displayed on the monitor DP. indicate.
これにより、クライアントPC10は、マスク機能を既に有するマスクカメラに対するマスク処理の実行の設定によってマスク処理がなされた場合には、マスクカメラにより生成されたマスク処理後の編集映像を受信してそのまま表示することで、クライアントPC10におけるマスク処理の実行を省略できて処理負荷を軽減でき、負荷分散を図ることができる。 As a result, when the mask processing is performed by setting the execution of the mask processing for the mask camera that already has the mask function, the client PC 10 receives the edited video after the mask processing generated by the mask camera and displays it as it is. As a result, the execution of mask processing in the client PC 10 can be omitted, the processing load can be reduced, and load distribution can be achieved.
また、第3の実施形態の監視カメラシステム100は、撮像エリアを撮像し、撮像エリアの撮像映像に現れる移動体(例えば人物)の少なくとも一部をマスク画像に変更するためのマスク処理を実行可能なマスクカメラ(例えば固定カメラCAM14)、を更に備える。クライアントPC10は、マスクカメラにおけるマスク処理の実行又は不実行の設定情報を保持し、マスクカメラにおけるマスク処理の不実行が設定されている場合に、撮像映像をマスク処理し、このマスク処理により得た編集映像をモニタDPに表示する。 Further, the surveillance camera system 100 according to the third embodiment can execute a mask process for capturing an imaging area and changing at least a part of a moving body (for example, a person) appearing in a captured image of the imaging area into a mask image. A mask camera (for example, a fixed camera CAM14). The client PC 10 holds setting information on whether or not to execute mask processing in the mask camera, and when the mask processing in the mask camera is set not to be executed, the captured image is masked and obtained by this mask processing. The edited video is displayed on the monitor DP.
これにより、クライアントPC10は、例えばマスクカメラにおけるマスク処理よりも優れたマスク機能を有している場合(例えば、第1の実施形態で説明した、ユーザ操作に基づくマスク処理の対象外領域を除いた領域において行うマスク処理を行える場合)には、マスクカメラで行われるマスク処理により得られる編集映像よりも、ユーザの嗜好に沿うマスク処理後の編集映像を得ることができ、ユーザの使い勝手を向上できる。 Thereby, the client PC 10 has a mask function superior to the mask processing in the mask camera, for example (for example, excluding the non-maskable area for the mask processing based on the user operation described in the first embodiment) When the mask processing performed in the area can be performed), the edited video after the mask processing according to the user's preference can be obtained rather than the edited video obtained by the mask processing performed by the mask camera, and user convenience can be improved. .
(第4の実施形態の内容に至る経緯)
特許文献1によれば、監視エリアにおいて検知された人物の動画映像内の位置情報及び人物の属性(例えば性別、年齢)毎にマスク画像が生成されるため、そのマスク画像により、プライバシーを確保した上で店舗内の人物の行動が把握可能となる。
(Background to the contents of the fourth embodiment)
According to Patent Document 1, since a mask image is generated for each position information and person attribute (for example, gender, age) in a moving image of a person detected in a monitoring area, privacy is ensured by the mask image. The behavior of the person in the store can be grasped above.
しかしながら、特許文献1では、動画映像において検知された人物の画像領域をマスク画像に変更するのはカメラであり、カメラからの動画映像を受信する受信装置(例えばユーザが使用するクライアントPC)によりマスク処理が行われることは考慮されていない。 However, in Patent Document 1, it is a camera that changes the image area of a person detected in a moving image to a mask image, and the mask is set by a receiving device (for example, a client PC used by a user) that receives the moving image from the camera. It is not taken into account that processing is performed.
つまり、特許文献1では、マスク処理はカメラでしか行えなかったため、現在撮像中のライブ映像(撮像映像)はカメラにおいてマスク処理が可能であるが、レコーダに既に記憶されている過去の撮像映像(以下、「録画映像」という)に対してはマスク処理を行うことはできなかった。 That is, in Patent Document 1, since the mask process can be performed only by the camera, the live image (captured image) currently being captured can be masked by the camera, but the past captured image (which is already stored in the recorder) Hereinafter, the mask process could not be performed on “recorded video”.
このため、何かしらのイベントの録画映像を事後的に検証する際、被写体の人物のプライバシーを保護するために、例えば権限のある人(マネージャ等)と権限のない人(一般ユーザ)とがそれぞれアクセス可能な録画映像を2種類用意する必要があった。例えば権限のある人は録画映像中の人物がマスク処理されていない録画映像を閲覧可能であり、一般ユーザは録画映像中の人物がマスク処理された録画映像を閲覧する。このような運用下では、同じ場面の撮像映像を録画するためにレコーダの記憶容量の増大が避けられなかった。特に近年、撮像映像の画質が高画質化(例えば4K化)していることもあり、レコーダに記憶される撮像映像のデータ量は膨大である。 For this reason, when a recorded video of an event is verified afterwards, for example, an authorized person (manager, etc.) and an unauthorized person (general user) access to protect the privacy of the subject person. It was necessary to prepare two types of recorded video. For example, an authorized person can browse a recorded video in which a person in the recorded video is not masked, and a general user browses a recorded video in which a person in the recorded video is masked. Under such an operation, the recording capacity of the recorder is inevitably increased in order to record the captured image of the same scene. Particularly in recent years, the image quality of captured images has been improved (for example, 4K), and the amount of captured image data stored in the recorder is enormous.
言い換えると、上述した2種類の録画映像を用意するためには、1台のカメラでは足りず、例えば2台のカメラ(具体的には、マスク処理を実行する機能(以下、「マスク機能」という)を有するカメラと、マスク機能を有さないカメラ)が必要となる。このため、システム構築において部品点数が増加するのでコストアップが避けられず、システム構成も煩雑であった。また、上述したクライアントPCにおいてマスク処理ができないと、権限の有無(上述したマネージャと、一般ユーザのような権限の有無)だけで2種類の録画映像が必要となる場合に限定されず、例えばイベントの内容や種類によってもマスク処理された録画映像とマスク処理されていない録画映像との2種類の録画映像が必要となることもあった。 In other words, in order to prepare the two types of recorded video described above, one camera is not sufficient, for example, two cameras (specifically, a function for executing mask processing (hereinafter referred to as “mask function”). ) And a camera that does not have a mask function. For this reason, since the number of parts increases in system construction, the cost increase cannot be avoided, and the system configuration is complicated. Further, if the above-described client PC cannot perform mask processing, the present invention is not limited to the case where two types of recorded video are required only by the presence / absence of authority (whether or not the authority is the same as that of the above-mentioned manager and general user). Depending on the content and type of the recorded video, two types of recorded video, that is, a recorded video that has been masked and a recorded video that has not been masked, may be required.
そこで、第4の実施形態では、過去にカメラに撮像されてレコーダに既に記憶されているイベントの録画映像を閲覧する際に、その録画映像1つのデータを用いて、マスク処理を行うか又はマスク処理を行わないかを簡単に選択し、監視効率やマーケティング分析精度の向上を図るモニタリングシステム及び映像表示方法の例を説明する。 Therefore, in the fourth embodiment, when browsing a recorded video of an event that has been captured by the camera and is already stored in the recorder in the past, a mask process is performed or masked using one data of the recorded video. An example of a monitoring system and an image display method for easily selecting whether to perform processing and improving the monitoring efficiency and marketing analysis accuracy will be described.
(第4の実施形態)
第4の実施形態のモニタリングシステムとして、第3の実施形態で説明した監視カメラシステム100を例示して説明する。第4の実施形態の監視カメラシステム100の内部構成は第3の実施形態の監視カメラシステム100と同一であるため、同一の内容の説明は簡略化又は省略し、異なる内容について説明する。
(Fourth embodiment)
The monitoring camera system 100 described in the third embodiment will be described as an example of a monitoring system according to the fourth embodiment. Since the internal configuration of the monitoring camera system 100 of the fourth embodiment is the same as that of the monitoring camera system 100 of the third embodiment, the description of the same contents will be simplified or omitted, and different contents will be described.
第4の実施形態では、図1に示す監視カメラシステム100において、少なくとも一つのカメラが接続されている各レコーダ(つまり、レコーダREC1,REC2,REC3)には、各レコーダに接続されている少なくとも一つのカメラとの間でペアリング(言い換えると、紐付け)されている。より具体的には、レコーダREC1には、全方位カメラCAM11、PTZカメラCAM12,CAM13及び固定カメラCAM14がペアリング(紐付け)されている。レコーダREC2には、PTZカメラCAM21及び固定カメラCAM22がペアリング(紐付け)されている。レコーダREC3には、全方位カメラCAM31、PTZカメラCAM32,CAM33及び固定カメラCAM34がペアリング(紐付け)されている。この少なくとも一つのカメラとレコーダとのペアリングの関係は第4の実施形態に限定されず、上述した第1,第2,第3の各実施形態においても同様に適用されても構わない。 In the fourth embodiment, in the surveillance camera system 100 shown in FIG. 1, each recorder to which at least one camera is connected (that is, the recorders REC1, REC2, and REC3) has at least one connected to each recorder. Paired (in other words, tied) with two cameras. More specifically, an omnidirectional camera CAM11, PTZ cameras CAM12, CAM13, and a fixed camera CAM14 are paired (linked) to the recorder REC1. A PTZ camera CAM21 and a fixed camera CAM22 are paired (linked) to the recorder REC2. The recorder REC3 is paired (linked) with an omnidirectional camera CAM31, a PTZ camera CAM32, a CAM33, and a fixed camera CAM34. The pairing relationship between the at least one camera and the recorder is not limited to the fourth embodiment, and may be similarly applied to the first, second, and third embodiments described above.
図22は、レコーダ設定画面WD8の一例を示す図である。クライアントPC10のプロセッサ11は、レコーダ設定画面WD8を表示するためのユーザ操作に応じて、モニタDPにレコーダ設定画面WD8を表示する。 FIG. 22 is a diagram showing an example of the recorder setting screen WD8. The processor 11 of the client PC 10 displays the recorder setting screen WD8 on the monitor DP in response to a user operation for displaying the recorder setting screen WD8.
レコーダ設定画面WD8では、ユーザ操作により、レコーダの設定が行われる。例えば、レコーダのIPアドレス、レコーダのHTTP(Hypertext Transfer Protocol)ポート番号、名称、FTP(File Transfer Protocol)ポート番号、タイムゾーン、ペアリングされている少なくとも一つのカメラの設定(setup)が行われる。図22では、例えば4つのレコーダに関して、それぞれのデバイス、モデル、IPアドレスが例示的に示されている。 On the recorder setting screen WD8, the recorder is set by a user operation. For example, the IP address of the recorder, the HTTP (Hypertext Transfer Protocol) port number, the name, the FTP (File Transfer Protocol) port number, the time zone, and the setup of at least one paired camera are performed. FIG. 22 exemplarily shows respective devices, models, and IP addresses for four recorders, for example.
モニタDPに表示されたレコーダ設定画面WD8において、ユーザ操作により、「Device mng.」(デバイスマネージャ、枠WK4参照)、「Recorder」(枠WK5参照)、いずれかのレコーダを特定するレコード(枠WK6参照)の順に押下されて選択されると、プロセッサ11は、その選択前には押下不可であったEditボタン(枠WK7参照)を押下可能に表示切替する。 In the recorder setting screen WD8 displayed on the monitor DP, a record (frame WK6) for specifying one of the recorders “Device mng.” (Device manager, see frame WK4), “Recorder” (see frame WK5), by user operation. When the selection is made by pressing in the order of “reference”, the processor 11 switches the display so that the Edit button (see the frame WK7) that cannot be pressed before the selection can be pressed.
ユーザ操作により、Editボタン(枠WK7参照)が押下されると、プロセッサ11は、選択されたレコード(枠WK6参照)のレコーダにペアリングされている少なくとも一つのカメラに関するカメラ設定画面(図20参照)をモニタDPに表示する。このカメラ設定画面(図20参照)において設定可能な項目は第3の実施形態(図20参照)において説明した内容と同一であるため、詳細な説明は省略する。 When the Edit button (see frame WK7) is pressed by a user operation, the processor 11 sets a camera setting screen (see FIG. 20) related to at least one camera paired with the recorder of the selected record (see frame WK6). ) Is displayed on the monitor DP. Items that can be set on the camera setting screen (see FIG. 20) are the same as those described in the third embodiment (see FIG. 20), and thus detailed description thereof is omitted.
次に、本実施形態のクライアントPC10のマスク処理の設定に関する動作手順について、図23(A)及び図23(B)を参照して説明する。図23(A)は、第4の実施形態における、マスク処理(MOR処理)の設定の動作手順の第1例を詳細に説明するシーケンス図である。図23(B)は、第4の実施形態における、マスク処理(MOR処理)の設定の動作手順の第2例を詳細に説明するシーケンス図である。 Next, an operation procedure related to the mask processing setting of the client PC 10 of the present embodiment will be described with reference to FIGS. 23 (A) and 23 (B). FIG. 23A is a sequence diagram illustrating in detail a first example of an operation procedure for setting mask processing (MOR processing) in the fourth embodiment. FIG. 23B is a sequence diagram illustrating in detail a second example of the operation procedure for setting mask processing (MOR processing) in the fourth embodiment.
図23(A)において、ユーザ操作により、クライアントPC10の機器設定が開始される操作があると(S51)、クライアントPC10は、例えばレコーダ設定画面WD8のEditボタン(枠WK7参照)の押下に基づいて表示されるカメラ設定画面(図20参照)をモニタDPに表示する。クライアントPC10は、このカメラ設定画面に対するユーザ操作により、レコーダ(例えばレコーダREC1)とペアリングされているマスクカメラ(つまり、マスク機能を実行可能な固定カメラCAM14)に対するマスク処理の実行(ON)又は不実行(OFF)の設定をそのレコーダに指示する(S52)。 In FIG. 23A, when there is an operation for starting device setting of the client PC 10 by a user operation (S51), the client PC 10 is based on, for example, pressing the Edit button (see frame WK7) on the recorder setting screen WD8. The displayed camera setting screen (see FIG. 20) is displayed on the monitor DP. The client PC 10 executes (ON) or does not perform mask processing on the mask camera (that is, the fixed camera CAM 14 capable of executing the mask function) paired with the recorder (for example, the recorder REC1) by a user operation on the camera setting screen. The recorder is instructed to execute (OFF) (S52).
レコーダ(例えばレコーダREC1)は、ステップS52のクライアントPC10からの指示に従い、自己(例えばレコーダREC1)とペアリングされているマスクカメラ(つまり、固定カメラCAM14)に対するマスク処理の実行(ON)又は不実行(OFF)の設定をマスクカメラに指示する(S53)。マスクカメラは、ステップS53のレコーダからの指示に従い、マスク処理の実行(ON)又は不実行(OFF)を設定し(S54)、設定を完了した旨の応答をレコーダに返す。レコーダは、マスクカメラからの設定完了の旨の応答を受信すると、同様に設定完了の旨の応答をクライアントPC10に返す。 The recorder (for example, the recorder REC1) executes (ON) or does not execute the mask processing for the mask camera (that is, the fixed camera CAM14) paired with itself (for example, the recorder REC1) in accordance with the instruction from the client PC 10 in step S52. The mask camera is instructed to set (OFF) (S53). The mask camera sets execution (ON) or non-execution (OFF) of the mask process according to the instruction from the recorder in step S53 (S54), and returns a response to the effect that the setting is completed to the recorder. When the recorder receives a response indicating the completion of setting from the mask camera, the recorder similarly returns a response indicating the completion of setting to the client PC 10.
これにより、例えばクライアントPC10とマスクカメラとが同一の拠点又は店舗に存在しない場合には、クライアントPC10はマスクカメラに対して直接のマスク処理の設定を行うことができないが、クライアントPC10とマスクカメラとのデータ送受信を仲介するレコーダを介在させることで、クライアントPC10からマスクカメラへのマスク処理の設定を円滑に行うことができる。 Thereby, for example, when the client PC 10 and the mask camera do not exist in the same base or store, the client PC 10 cannot set the mask processing directly for the mask camera, but the client PC 10 and the mask camera By interposing a recorder that mediates the data transmission / reception, the mask processing from the client PC 10 to the mask camera can be set smoothly.
図23(B)において、ユーザ操作により、クライアントPC10の機器設定が開始される操作があると(S51)、クライアントPC10は、例えばレコーダ設定画面WD8のEditボタン(枠WK7参照)の押下に基づいて表示されるカメラ設定画面(図20参照)をモニタDPに表示する。クライアントPC10は、このカメラ設定画面に対するユーザ操作により、レコーダ(例えばレコーダREC1)とペアリングされているマスクカメラ(つまり、マスク機能を実行可能な固定カメラCAM14)に対するマスク処理の実行(ON)又は不実行(OFF)の設定をマスクカメラに対して直接に指示する(S52A)。 In FIG. 23B, when there is an operation for starting device setting of the client PC 10 by a user operation (S51), the client PC 10 is based on, for example, pressing the Edit button (see frame WK7) on the recorder setting screen WD8. The displayed camera setting screen (see FIG. 20) is displayed on the monitor DP. The client PC 10 executes (ON) or does not perform mask processing on the mask camera (that is, the fixed camera CAM 14 capable of executing the mask function) paired with the recorder (for example, the recorder REC1) by a user operation on the camera setting screen. The execution (OFF) setting is instructed directly to the mask camera (S52A).
マスクカメラは、ステップS52AのクライアントPC10からの指示に従い、マスク処理の実行(ON)又は不実行(OFF)を設定し(S54A)、設定を完了した旨の応答をクライアントPC10に直接に返す。 The mask camera sets execution (ON) or non-execution (OFF) of mask processing in accordance with the instruction from the client PC 10 in step S52A (S54A), and directly returns a response indicating that the setting has been completed to the client PC 10.
これにより、例えばクライアントPC10とマスクカメラとが同一の拠点又は店舗に存在する場合には、クライアントPC10は、レコーダを介することなく、マスクカメラに対して直接のマスク処理の設定を円滑かつ簡易に行うことができる。 Thereby, for example, when the client PC 10 and the mask camera exist in the same base or store, the client PC 10 smoothly and easily sets the mask processing directly on the mask camera without going through the recorder. be able to.
次に、本実施形態のクライアントPC10のマスク処理の設定後における撮像映像の表示に関する動作手順について、図24〜図26を参照して説明する。図24は、第4の実施形態における、運用開始後のクライアントPCにおける撮像画像の取得及び表示に関する動作手順の第1例を詳細に説明するシーケンス図である。図25は、第4の実施形態における、運用開始後のクライアントPCにおける撮像画像の取得及び表示に関する動作手順の第2例を詳細に説明するシーケンス図である。図26は、図24,図25のステップS69における、クライアントPCの表示の動作手順の一例を詳細に説明するフローチャートである。 Next, an operation procedure related to display of a captured image after setting of mask processing of the client PC 10 of the present embodiment will be described with reference to FIGS. FIG. 24 is a sequence diagram illustrating in detail a first example of an operation procedure regarding acquisition and display of a captured image in a client PC after the start of operation according to the fourth embodiment. FIG. 25 is a sequence diagram illustrating in detail a second example of an operation procedure regarding acquisition and display of a captured image in a client PC after the start of operation according to the fourth embodiment. FIG. 26 is a flowchart for explaining in detail an example of the operation procedure of the display of the client PC in step S69 of FIGS.
図25の説明において、図25に示す処理と図24に示す処理とが同一である場合には、同一のステップ番号を付与して説明を簡略化又は省略し、異なる内容について説明する。 In the description of FIG. 25, when the process shown in FIG. 25 and the process shown in FIG. 24 are the same, the same step number is assigned and the description is simplified or omitted, and different contents will be described.
図24において、ユーザ操作により、クライアントPC10の運用が開始される操作があると(S61)、クライアントPC10は、映像の配信開始(つまり、録画をレコーダに指示する(S62)。 In FIG. 24, when there is an operation for starting the operation of the client PC 10 by a user operation (S61), the client PC 10 instructs the recorder to start distributing video (that is, to record (S62)).
レコーダは、ステップS62のクライアントPC10の指示に従い、撮像映像もしくは編集映像の配信を開始するか、又は撮像映像もしくは編集映像の配信の開始をマスクカメラ及び通常カメラに対してそれぞれ指示する(S63)。マスクカメラは、ステップS63のレコーダの指示に従い、撮像を開始する(S64)。同様に、通常カメラは、ステップS63のレコーダの指示に従い、撮像を開始する(S65)。 In accordance with the instruction of the client PC 10 in step S62, the recorder starts distributing the captured video or edited video, or instructs the mask camera and the normal camera to start distributing the captured video or edited video (S63). The mask camera starts imaging in accordance with the instruction of the recorder in step S63 (S64). Similarly, the normal camera starts imaging according to the instruction of the recorder in step S63 (S65).
通常カメラは、マスク処理を行うことができないので、撮像を開始した後、撮像により得た撮像映像のレコーダへの配信を継続する(S66)。なお、レコーダは、ステップS66において通常カメラから配信された撮像映像(ライブ映像)を受信すると、ストレージR14に保存する(S68)。 Since the normal camera cannot perform the masking process, after starting imaging, distribution of the captured video obtained by imaging to the recorder is continued (S66). When the recorder receives the captured video (live video) distributed from the normal camera in step S66, the recorder stores it in the storage R14 (S68).
マスクカメラは、撮像を開始した後、図23(A)又は図23(B)においてマスク処理の実行(ON)が設定されている場合には、ステップS64の撮像開始により得た撮像映像をマスク処理(例えば図11及び図12参照)して得た編集映像のレコーダへの配信を継続する(S67)。一方、マスクカメラは、撮像を開始した後、図23(A)又は図23(B)においてマスク処理の不実行(OFF)が設定されている場合には、ステップS64の撮像開始により得た撮像映像のレコーダへの配信を継続する(S67)。なお、レコーダは、ステップS67においてマスクカメラから配信された撮像映像(ライブ映像)又は編集映像を受信すると、ストレージR14に保存する(S68)。 After the start of imaging, the mask camera masks the captured image obtained by the start of imaging in step S64 when the execution (ON) of the mask process is set in FIG. 23 (A) or FIG. 23 (B). Distribution of the edited video obtained by the processing (for example, see FIGS. 11 and 12) to the recorder is continued (S67). On the other hand, the mask camera, after starting imaging, when the non-execution (OFF) of the mask processing is set in FIG. 23A or FIG. 23B, imaging obtained by starting imaging in step S64. Distribution of the video to the recorder is continued (S67). Note that when the recorder receives the captured video (live video) or the edited video distributed from the mask camera in step S67, the recorder stores it in the storage R14 (S68).
ステップS62において、例えば過去にレコーダに記憶された録画映像を配信するためのユーザ操作がなされた場合には、このユーザ操作により、映像の配信開始の指示には、ユーザが希望する撮像日時(言い換えると、録画日時)の指定情報が含まれる。この場合、レコーダは、クライアントPC10から送信された撮像日時に撮像された録画映像をストレージR14から読み出してクライアントPC10に配信する(S68)。 In step S62, for example, when a user operation for distributing a recorded video stored in the recorder in the past is performed, an instruction to start video distribution is given by the user operation (in other words, an imaging date and time desired by the user). And recording date and time) are included. In this case, the recorder reads from the storage R14 the recorded video imaged at the imaging date and time transmitted from the client PC 10 and distributes it to the client PC 10 (S68).
ステップS62において、例えばカメラにより撮像された撮像映像を配信するためのユーザ操作がなされた場合には、映像の配信開始の指示により、カメラが現在撮像している撮像映像(ライブ映像)が配信される。この場合、レコーダは、ステップS66において通常カメラから配信された撮像映像、及びステップS67においてマスクカメラから配信された撮像映像又は編集映像をクライアントPC10に配信し、その配信を継続する(S68)。 In step S62, for example, when a user operation for distributing a captured image captured by the camera is performed, the captured image (live image) currently captured by the camera is distributed in accordance with an instruction to start distributing the image. The In this case, the recorder distributes the captured video distributed from the normal camera in step S66 and the captured video or edited video distributed from the mask camera in step S67 to the client PC 10, and continues the distribution (S68).
クライアントPC10は、ステップS68においてレコーダから配信された撮像映像(ライブ映像)、録画映像又は編集映像を、レコーダとペアリング(紐付け)されているカメラの種別毎に設定されたマスク処理の実行(ON)又は不実行(OFF)の設定に従って、映像をモニタDPに表示する(S69)。ステップS69の詳細については、図26を参照して後述する。 The client PC 10 executes the mask processing set for each type of camera paired (linked) with the captured video (live video), recorded video, or edited video distributed from the recorder in step S68 ( The video is displayed on the monitor DP according to the setting of ON or non-execution (OFF) (S69). Details of step S69 will be described later with reference to FIG.
図25において、通常カメラは、マスク処理を行うことができないので、撮像を開始した後、撮像により得た撮像映像のレコーダ及びクライアントPC10へのそれぞれの配信を継続する(S66A)。なお、レコーダは、ステップS66Aにおいて通常カメラから配信された撮像映像(ライブ映像)を受信すると、ストレージR14に保存する(S68A)。 In FIG. 25, since the normal camera cannot perform the masking process, after starting the imaging, the distribution of the captured video obtained by the imaging to the recorder and the client PC 10 is continued (S66A). When the recorder receives the captured video (live video) distributed from the normal camera in step S66A, the recorder stores it in the storage R14 (S68A).
マスクカメラは、撮像を開始した後、図23(A)又は図23(B)においてマスク処理の実行(ON)が設定されている場合には、ステップS64の撮像開始により得た撮像映像をマスク処理(例えば図11及び図12参照)して得た編集映像のレコーダ及びクライアントPC10へのそれぞれの配信を継続する(S67A)。一方、マスクカメラは、撮像を開始した後、図23(A)又は図23(B)においてマスク処理の不実行(OFF)が設定されている場合には、ステップS64の撮像開始により得た撮像映像のレコーダ及びクライアントPC10へのそれぞれの配信を継続する(S67A)。なお、レコーダは、ステップS67Aにおいてマスクカメラから配信された撮像映像(ライブ映像)又は編集映像を受信すると、ストレージR14に保存する(S68A)。 After the start of imaging, the mask camera masks the captured image obtained by the start of imaging in step S64 when the execution (ON) of the mask process is set in FIG. 23 (A) or FIG. 23 (B). The distribution of the edited video obtained by the processing (for example, see FIGS. 11 and 12) to the recorder and the client PC 10 is continued (S67A). On the other hand, the mask camera, after starting imaging, when the non-execution (OFF) of the mask processing is set in FIG. 23A or FIG. 23B, imaging obtained by starting imaging in step S64. The distribution of the video to the recorder and the client PC 10 is continued (S67A). When the recorder receives the captured video (live video) or edited video distributed from the mask camera in step S67A, the recorder stores it in the storage R14 (S68A).
ステップS62において、例えば過去にレコーダに記憶された録画映像を配信するためのユーザ操作がなされた場合には、このユーザ操作により、映像の配信開始の指示には、ユーザが希望する撮像日時(言い換えると、録画日時)の指定情報が含まれる。この場合、レコーダは、クライアントPC10から送信された撮像日時に撮像された録画映像をストレージR14から読み出してクライアントPC10に配信する(S68A)。 In step S62, for example, when a user operation for distributing a recorded video stored in the recorder in the past is performed, an instruction to start video distribution is given by the user operation (in other words, an imaging date and time desired by the user). And recording date and time) are included. In this case, the recorder reads out the recorded video imaged at the imaging date and time transmitted from the client PC 10 from the storage R14 and distributes it to the client PC 10 (S68A).
クライアントPC10は、ステップS68においてレコーダから配信された撮像映像(ライブ映像)、録画映像又は編集映像を、レコーダとペアリング(紐付け)されているカメラの種別毎に設定されたマスク処理の実行(ON)又は不実行(OFF)の設定に従って、映像をモニタDPに表示する(S69)。ステップS69の詳細については、図26を参照して後述する。 The client PC 10 executes the mask processing set for each type of camera paired (linked) with the captured video (live video), recorded video, or edited video distributed from the recorder in step S68 ( The video is displayed on the monitor DP according to the setting of ON or non-execution (OFF) (S69). Details of step S69 will be described later with reference to FIG.
図26において、クライアントPC10は、ステップS68又はステップS68Aにおいてレコーダ、マスクカメラ又は通常カメラのいずれかから配信された映像を受信して取得する(S71)。 In FIG. 26, the client PC 10 receives and acquires the video distributed from any of the recorder, the mask camera, and the normal camera in step S68 or step S68A (S71).
クライアントPC10は、ストレージ15又はメモリ16に記憶されているカメラ設定情報(図22及び図20参照)を読み出し、ステップS71において取得した映像の配信元のレコーダとペアリングされているカメラ又はその映像の配信元のカメラに対するマスク処理の実行又は不実行の設定を参照する(S72)。 The client PC 10 reads the camera setting information (see FIGS. 22 and 20) stored in the storage 15 or the memory 16, and the camera paired with the recorder of the video distribution source acquired in step S71 or the video of the video. Reference is made to the setting of execution or non-execution of mask processing for the distribution source camera (S72).
クライアントPC10は、カメラ設定情報においてマスク処理の不実行(OFF)が設定されていると判断した場合には、ステップS71において取得した映像(具体的には、撮像映像又は録画映像)をそのままモニタDPに表示する(S73)。 If the client PC 10 determines that the mask processing non-execution (OFF) is set in the camera setting information, the video (specifically, the captured video or the recorded video) acquired in step S71 is directly monitored DP (S73).
クライアントPC10は、カメラ設定情報において該当するカメラでのマスク処理の実行(ON)が設定されていると判断した場合には、ステップS71において取得した映像(具体的には、マスクカメラによりマスク処理が施されて生成された編集映像)をそのままモニタDPに表示する(S73)。 If the client PC 10 determines that the execution (ON) of the mask process in the corresponding camera is set in the camera setting information, the image acquired in step S71 (specifically, the mask process is performed by the mask camera). The edited video that has been applied is displayed on the monitor DP as it is (S73).
クライアントPC10は、カメラ設定情報において該当するカメラに関してクライアントPC10でのマスク処理の実行が設定されていると判断した場合には、ステップS71において取得した映像(具体的には、撮像映像又は編集映像)をマスク処理(図11及び図12)し、このマスク処理により得た編集映像をモニタDPに表示する(S74)。但し、クライアントPC10がステップS71においてレコーダから配信された編集映像を受信した場合に、この編集映像のデータにマスクカメラによってマスク処理が施された旨の情報が含まれている場合には、クライアントPC10は、現在のカメラ設定情報の内容を加味することなく、受信した編集映像をマスク処理することなく優先的にそのままモニタDPに表示しても構わない。これにより、クライアントPC10は、他のデバイス(つまり、マスクカメラ)において既にマスク処理された編集映像に対し、更なるマスク処理の実行を省略することができ、クライアントPC10の処理負荷を軽減できるとともに、その編集映像の視認性の劣化を抑制できる。 If the client PC 10 determines that execution of mask processing in the client PC 10 is set for the corresponding camera in the camera setting information, the video (specifically, captured video or edited video) acquired in step S71. Is masked (FIGS. 11 and 12), and the edited video obtained by the masking is displayed on the monitor DP (S74). However, when the client PC 10 receives the edited video distributed from the recorder in step S71, if the edited video data includes information indicating that the mask processing has been performed by the mask camera, the client PC 10 May be preferentially displayed on the monitor DP without masking the received edited video without taking into account the contents of the current camera setting information. As a result, the client PC 10 can omit the execution of further mask processing on the edited video that has already been masked in another device (that is, the mask camera), and can reduce the processing load on the client PC 10. Degradation of the visibility of the edited video can be suppressed.
以上により、第4の実施形態の監視カメラシステム100は、撮像エリアを撮像する少なくとも一つのカメラ(例えば全方位カメラCAM11,固定カメラCAM14,…)と、このカメラと対応付けられ、撮像エリアの撮像映像を録画映像として撮像日時と関連付けて記憶するレコーダ(例えばレコーダREC1)と、撮像エリアの撮像映像に現れる移動体(例えば人物)の少なくとも一部をマスク画像に変更するためのマスク処理の実行又は不実行の設定情報を、レコーダに対応付けられるカメラごとに保持するクライアントPC10と、を備える。クライアントPC10は、例えばユーザ操作による撮像日時の指定に応じて、マスク処理の実行が設定されている場合に、指定された撮像日時に撮像された録画映像をマスク処理して得た編集録画映像をモニタDPに表示する。一方、クライアントPC10は、マスク処理の不実行が設定されている場合に、指定された撮像日時に撮像された録画映像をそのままモニタDPに表示する。 As described above, the surveillance camera system 100 according to the fourth embodiment is associated with at least one camera (for example, the omnidirectional camera CAM11, the fixed camera CAM14,...) That images the imaging area, and captures the imaging area. Execution of mask processing for changing at least a part of a moving object (for example, a person) appearing in the captured image in the imaging area to a mask image, or a recorder (for example, the recorder REC1) that stores the video as a recorded video in association with the imaging date And a client PC 10 that holds non-executable setting information for each camera associated with the recorder. For example, when execution of mask processing is set in response to designation of an imaging date and time by a user operation, the client PC 10 displays an edited video image obtained by masking a recorded video imaged at the designated imaging date and time. Display on monitor DP. On the other hand, when the non-execution of the mask process is set, the client PC 10 displays the recorded video captured at the designated imaging date and time as it is on the monitor DP.
第4の実施形態のクライアントPC10も、第1の実施形態と同様に、撮像映像に現れる移動中の人物の少なくとも一部又は全部をマスク画像に置き換えるマスク処理を行うことができる。これにより、クライアントPC10は、過去にカメラに撮像されてレコーダに既に記憶されているイベントの録画映像を閲覧する際に、その録画映像1つのデータを用いて、クライアントPC10においてマスク処理を行うか又はマスク処理を行わないかを簡単に選択することができ、監視効率やマーケティング分析精度の向上を図ることができる。 Similarly to the first embodiment, the client PC 10 of the fourth embodiment can also perform mask processing that replaces at least a part or all of the moving person appearing in the captured image with a mask image. As a result, when the client PC 10 browses a recorded video of an event that has been captured by the camera in the past and is already stored in the recorder, the client PC 10 performs a mask process in the client PC 10 using one piece of the recorded video. It is possible to easily select whether or not to perform mask processing, and it is possible to improve monitoring efficiency and marketing analysis accuracy.
また、第4の実施形態の監視カメラシステム100において、少なくとも一つのカメラは、マスク処理を実行不能な通常カメラ(例えば全方位カメラCAM11)を含む。クライアントPC10は、通常カメラにより撮像された撮像映像に対するマスク処理の実行(ON)が設定されている場合に、撮像映像をマスク処理して得た編集映像をモニタDPに表示する。一方、クライアントPC10は、通常カメラにより撮像された撮像映像に対するマスク処理の不実行(OFF)が設定されている場合に、撮像映像をそのままモニタDPに表示する。 In the surveillance camera system 100 of the fourth embodiment, at least one camera includes a normal camera (for example, an omnidirectional camera CAM11) that cannot perform mask processing. The client PC 10 displays the edited video obtained by masking the captured video on the monitor DP when the execution (ON) of the mask processing for the captured video captured by the normal camera is set. On the other hand, the client PC 10 displays the captured image as it is on the monitor DP when the non-execution (OFF) of the mask processing for the captured image captured by the normal camera is set.
これにより、クライアントPC10は、通常カメラにより撮像されている現在の撮像映像(ライブ映像)を受信している場合に、通常カメラでの撮像映像に対するマスク処理の実行又は不実行の設定に応じて、ユーザの嗜好に適合する撮像映像又は編集映像をモニタDPに表示することができ、ユーザの監視業務やマーケティング分析の精度向上に資することができる。 Thereby, when the client PC 10 receives the current captured video (live video) captured by the normal camera, depending on the setting of execution or non-execution of the mask processing on the captured image by the normal camera, Captured video or edited video that matches the user's preference can be displayed on the monitor DP, which can contribute to improving the accuracy of user monitoring operations and marketing analysis.
また、第4の実施形態の監視カメラシステム100において、少なくとも一つのカメラは、マスク処理を実行可能なマスクカメラ(例えば固定カメラCAM14)を含む。クライアントPC10は、マスクカメラにより撮像された撮像映像に対するマスクカメラにおけるマスク処理の実行が設定されている場合に、マスクカメラにより撮像映像がマスク処理された編集映像をそのままモニタDPに表示する。一方、クライアントPC10は、マスクカメラにより撮像された撮像映像に対するクライアントPC10におけるマスク処理の実行が設定されている場合に、撮像映像をマスク処理し、その結果として得た編集映像をモニタDPに表示する。 In the surveillance camera system 100 of the fourth embodiment, at least one camera includes a mask camera (for example, a fixed camera CAM 14) capable of performing mask processing. When execution of mask processing in the mask camera is set for the captured image captured by the mask camera, the client PC 10 directly displays the edited image in which the captured image is masked by the mask camera on the monitor DP. On the other hand, when execution of mask processing in the client PC 10 is set for the captured image captured by the mask camera, the client PC 10 masks the captured image and displays the resulting edited image on the monitor DP. .
これにより、クライアントPC10は、マスク機能を既に有するマスクカメラに対するマスク処理の実行の設定によってマスク処理がなされた場合、マスクカメラにより生成されたマスク処理後の編集映像を受信してそのまま表示することで、クライアントPC10におけるマスク処理の実行を省略できて処理負荷を軽減でき、負荷分散を図ることができる。また、クライアントPC10は、クライアントPC10におけるマスク処理の実行の設定によってマスク処理がなされた場合には、例えばマスクカメラにおけるマスク処理よりも優れたマスク機能(例えば、第1の実施形態で説明した、ユーザ操作に基づくマスク処理の対象外領域を除いた領域において行うマスク処理を行える場合)によって得た編集映像を得ることができ、ユーザのニーズに適合した映像を確認させることができる。 As a result, when the mask process is performed by setting the execution of the mask process for the mask camera that already has the mask function, the client PC 10 receives the edited video after the mask process generated by the mask camera and displays it as it is. The execution of the mask process in the client PC 10 can be omitted, the processing load can be reduced, and the load can be distributed. Further, when the mask processing is performed by setting the execution of the mask processing in the client PC 10, the client PC 10 has a mask function superior to, for example, the mask processing in the mask camera (for example, the user described in the first embodiment, The edited video obtained by performing mask processing in a region excluding the non-target region for mask processing based on the operation) can be obtained, and the video suitable for the user's needs can be confirmed.
また、クライアントPC10は、マスクカメラにより撮像されている現在の撮像映像(ライブ映像)に対するマスク処理の不実行が設定されている場合に、撮像映像をそのままモニタDPに表示する。これにより、ユーザは、例えばイベントの条件や制約によって、現在のライブ映像をそのまま閲覧する必要がある場合に、現在のライブ映像を確認することができ、ユーザのニーズに適合した映像を確認させることができる。 Further, the client PC 10 displays the captured image as it is on the monitor DP when the non-execution of the mask process for the current captured image (live image) captured by the mask camera is set. This allows the user to check the current live video when it is necessary to view the current live video as it is due to, for example, event conditions or restrictions, and to check the video that meets the user's needs. Can do.
以上、図面を参照しながら各種の実施形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、上述した各実施形態を組み合わせた事項についても当然に本発明の技術的範囲に属するものと了解される。 While various embodiments have been described above with reference to the drawings, it goes without saying that the present invention is not limited to such examples. It is obvious for those skilled in the art that various changes or modifications can be conceived within the scope of the claims, and it is obvious that the present invention also applies to the combination of the above-described embodiments. It is understood that it belongs to the technical scope of
本発明は、複数種類の異なる撮像映像をモニタに分割して表示する際に、個々の撮像映像に対するマスク処理の実行又は不実行の設定を撮像映像毎に簡易に設定し、ユーザの使い勝手を向上できるモニタリングシステム、映像表示方法及びコンピュータプログラムとして有用である。 In the present invention, when a plurality of different types of captured images are divided and displayed on a monitor, the setting of execution or non-execution of mask processing for each captured image is easily set for each captured image to improve user convenience. It is useful as a monitoring system , a video display method, and a computer program .
10 クライアントPC
11 プロセッサ
12 通信部
13 操作部
14 モニタ
15 ストレージ
16 メモリ
17 電源管理部
100 監視カメラシステム(モニタリングシステム)
111 画像入力部
112 背景画像処理部
113 マスク処理設定部
114 マスク処理部
115 映像出力制御部
161 ROM
162 RAM
CAM11、CAM31 全方位カメラ
CAM12、CAM13、CAM21、CAM32、CAM33 PTZカメラ
CAM14、CAM22、CAM34 固定カメラ
NW ネットワーク
REC1、REC2、REC3、REC4 レコーダ
10 Client PC
11 Processor 12 Communication Unit 13 Operation Unit 14 Monitor 15 Storage 16 Memory 17 Power Management Unit 100 Surveillance Camera System (Monitoring System)
111 Image Input Unit 112 Background Image Processing Unit 113 Mask Processing Setting Unit 114 Mask Processing Unit 115 Video Output Control Unit 161 ROM
162 RAM
CAM11, CAM31 Omnidirectional camera CAM12, CAM13, CAM21, CAM32, CAM33 PTZ camera CAM14, CAM22, CAM34 Fixed camera NW Network REC1, REC2, REC3, REC4 Recorder
Claims (4)
個々の前記カメラにより撮像された前記撮像エリアの撮像映像に現れる移動体の少なくとも一部をマスク画像に変更するためのマスク処理の実行又は不実行の設定情報を前記カメラごとに保持する情報処理装置と、を備え、
前記情報処理装置は、前記マスク処理の実行が設定された複数のカメラにより撮像された個々の撮像映像を前記情報処理装置でマスク処理して得た個々の編集映像、又は、
前記マスク処理の実行が設定された少なくとも1つのカメラにより撮像された個々の撮像映像を前記情報処理装置でマスク処理して得た編集映像と前記マスク処理の不実行が設定された少なくとも1つのカメラにより撮像された個々の撮像映像とを、モニタに分割表示する、
モニタリングシステム。 A plurality of cameras for imaging the imaging area;
Information processing apparatus for holding setting information on execution or non-execution of mask processing for changing at least a part of a moving body appearing in a captured image of the imaging area captured by each individual camera into a mask image for each camera And comprising
The information processing apparatus is an individual edited video obtained by performing mask processing on the individual captured video captured by a plurality of cameras set to execute the masking process on the information processing apparatus , or
At least one camera to the non-execution of the masking process and obtained editing video the mask processing by the mask at least one camera information processing apparatus individual captured image captured by the execution is set in the process is set The individual captured images captured by the
Monitoring system.
個々の前記カメラにより撮像された前記撮像エリアの撮像映像を録画映像として撮像日時と関連付けて記憶するレコーダ、を更に備え、
前記情報処理装置は、前記マスク処理の実行が設定されたカメラにより撮像された撮像映像を前記情報処理装置でマスク処理して得た編集映像と前記マスク処理の実行が設定されたカメラにより過去の異なる撮像日時に撮像されて前記レコーダに記憶された複数の前記録画映像を前記情報処理装置でマスク処理して得た個々の編集録画映像と、を前記モニタに分割表示する、
モニタリングシステム。 The monitoring system according to claim 1,
A recorder that stores the captured video of the imaging area captured by each of the cameras in association with the imaging date and time as a recorded video;
The information processing apparatus of the past by the camera in which the image pickup image captured by the mask processing camera execution is set in the information processing apparatus executing the edited video obtained by masking the mask processing with is set Dividing and displaying on the monitor the individual edited and recorded videos obtained by masking the plurality of recorded videos captured at different imaging dates and times and stored in the recorder with the information processing device ;
Monitoring system.
前記情報処理装置は、個々の前記カメラにより撮像された前記撮像エリアの撮像映像に現れる移動体の少なくとも一部をマスク画像に変更するためのマスク処理の実行又は不実行の設定情報を前記カメラごとに保持し、
前記情報処理装置は、
前記マスク処理の実行が設定された複数のカメラにより撮像された個々の撮像映像を前記情報処理装置でマスク処理して得た個々の編集映像、又は
前記マスク処理の実行が設定された少なくとも1つのカメラにより撮像された個々の撮像映像を前記情報処理装置でマスク処理して得た編集映像と前記マスク処理の不実行が設定された少なくとも1つのカメラにより撮像された個々の撮像映像とを、前記モニタに分割表示する、
映像表示方法。 A video display method of displaying an image using an information processing apparatus for displaying a captured image of the imaging area which is more imaging a plurality of cameras for imaging the imaging area to the monitor,
The information processing apparatus sets execution information or non-execution setting information of a mask process for changing at least a part of a moving body appearing in a captured image of the imaging area captured by each camera to a mask image for each camera. Hold on
The information processing apparatus includes:
An individual edited video obtained by performing mask processing on the individual imaged images captured by a plurality of cameras set to execute the mask process by the information processing apparatus , or at least one set to execute the mask process An edited video obtained by masking each captured video imaged by a camera with the information processing apparatus and an individual captured video imaged by at least one camera in which non-execution of the mask processing is set, Split display on monitor,
Video display method.
個々の前記カメラにより撮像された前記撮像エリアの撮像映像に現れる移動体の少なくとも一部をマスク画像に変更するためのマスク処理の実行又は不実行の設定情報を前記カメラごとに保持するステップと、Holding setting information on execution or non-execution of mask processing for changing at least a part of a moving body appearing in a captured image of the imaging area captured by each of the cameras into a mask image;
前記マスク処理の実行が設定された複数のカメラにより撮像された個々の撮像映像を前記情報処理装置でマスク処理して得た個々の編集映像、又はIndividual edited videos obtained by masking individual captured videos captured by a plurality of cameras set to execute the masking process by the information processing apparatus, or
前記マスク処理の実行が設定された少なくとも1つのカメラにより撮像された個々の撮像映像を前記情報処理装置でマスク処理して得た編集映像と前記マスク処理の不実行が設定された少なくとも1つのカメラにより撮像された個々の撮像映像とを、前記モニタに分割表示するステップと、を実行させるための、An edited video obtained by performing mask processing on the individual captured video captured by the at least one camera set to execute the mask processing by the information processing apparatus and at least one camera set to not execute the mask processing The step of splitting and displaying individual captured images captured by the above-mentioned on the monitor,
コンピュータプログラム。Computer program.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016122094A JP6098963B1 (en) | 2016-06-20 | 2016-06-20 | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM |
DE102017109106.8A DE102017109106B4 (en) | 2016-06-20 | 2017-04-27 | Surveillance system and video display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016122094A JP6098963B1 (en) | 2016-06-20 | 2016-06-20 | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6098963B1 true JP6098963B1 (en) | 2017-03-22 |
JP2017228854A JP2017228854A (en) | 2017-12-28 |
Family
ID=58363152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016122094A Active JP6098963B1 (en) | 2016-06-20 | 2016-06-20 | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6098963B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004080669A (en) * | 2002-08-22 | 2004-03-11 | Hitachi Kokusai Electric Inc | Monitor camera unit |
JP2009225398A (en) * | 2008-03-19 | 2009-10-01 | Secom Co Ltd | Image distribution system |
JP2010028265A (en) * | 2008-07-16 | 2010-02-04 | Mitsubishi Electric Corp | Monitoring system and monitoring device |
JP2011130271A (en) * | 2009-12-18 | 2011-06-30 | Canon Inc | Imaging device and video processing apparatus |
JP2016032141A (en) * | 2014-07-28 | 2016-03-07 | パナソニックIpマネジメント株式会社 | Monitoring device, monitoring system and monitoring method |
-
2016
- 2016-06-20 JP JP2016122094A patent/JP6098963B1/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004080669A (en) * | 2002-08-22 | 2004-03-11 | Hitachi Kokusai Electric Inc | Monitor camera unit |
JP2009225398A (en) * | 2008-03-19 | 2009-10-01 | Secom Co Ltd | Image distribution system |
JP2010028265A (en) * | 2008-07-16 | 2010-02-04 | Mitsubishi Electric Corp | Monitoring system and monitoring device |
JP2011130271A (en) * | 2009-12-18 | 2011-06-30 | Canon Inc | Imaging device and video processing apparatus |
JP2016032141A (en) * | 2014-07-28 | 2016-03-07 | パナソニックIpマネジメント株式会社 | Monitoring device, monitoring system and monitoring method |
Also Published As
Publication number | Publication date |
---|---|
JP2017228854A (en) | 2017-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6399356B2 (en) | Tracking support device, tracking support system, and tracking support method | |
JP4140567B2 (en) | Object tracking device and object tracking method | |
US9591364B2 (en) | Image processing apparatus, image processing method, and program | |
CN109691084A (en) | Information processing unit and method and program | |
JP2016048834A (en) | Monitoring device, monitoring system and monitoring method | |
JP6465600B2 (en) | Video processing apparatus and video processing method | |
JP2006245649A (en) | Information processing system, apparatus, and method, program, and recording medium | |
JP6381265B2 (en) | Information processing apparatus, display method, and program | |
JP6544996B2 (en) | Control device and control method | |
CN103813094A (en) | Electronic device and related method capable of capturing images, and machine readable storage medium | |
CN106797429A (en) | Control device, the methods and procedures being controlled to control device | |
JP6112436B1 (en) | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM | |
JP6099025B1 (en) | MONITORING SYSTEM, MASK PROCESSING SETTING METHOD, AND COMPUTER PROGRAM | |
JP2017162432A (en) | Image processing system, information processing apparatus, information terminal, and program | |
JP6098964B1 (en) | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM | |
KR20180075506A (en) | Information processing apparatus, information processing method, and program | |
JP6099026B1 (en) | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM | |
US10817709B2 (en) | Similar image search system | |
JP6098963B1 (en) | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM | |
JP6099027B1 (en) | MONITORING SYSTEM, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM | |
JP2018005091A (en) | Display control program, display control method and display controller | |
JP6252921B1 (en) | Surveillance camera system and playback method | |
JP2020021437A (en) | Device, method, and program for processing information | |
DE102017109106A1 (en) | Surveillance system and video display method | |
WO2022168515A1 (en) | Information processing device, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170209 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6098963 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
SZ03 | Written request for cancellation of trust registration |
Free format text: JAPANESE INTERMEDIATE CODE: R313Z03 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |