Nothing Special   »   [go: up one dir, main page]

JP5707561B1 - MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD - Google Patents

MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD Download PDF

Info

Publication number
JP5707561B1
JP5707561B1 JP2014020515A JP2014020515A JP5707561B1 JP 5707561 B1 JP5707561 B1 JP 5707561B1 JP 2014020515 A JP2014020515 A JP 2014020515A JP 2014020515 A JP2014020515 A JP 2014020515A JP 5707561 B1 JP5707561 B1 JP 5707561B1
Authority
JP
Japan
Prior art keywords
image
person
time
video
mask image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014020515A
Other languages
Japanese (ja)
Other versions
JP2015149558A (en
Inventor
藤井 博文
博文 藤井
岩井 和彦
和彦 岩井
哲郎 柿沢
哲郎 柿沢
細井 康丞
康丞 細井
麻理恵 桑原
麻理恵 桑原
和麻 吉田
和麻 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2014020515A priority Critical patent/JP5707561B1/en
Priority to US14/613,612 priority patent/US9693023B2/en
Priority to EP15153883.2A priority patent/EP2905738A1/en
Application granted granted Critical
Publication of JP5707561B1 publication Critical patent/JP5707561B1/en
Publication of JP2015149558A publication Critical patent/JP2015149558A/en
Priority to US15/601,091 priority patent/US10178356B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】日時別の人物の行動傾向を把握する作業をユーザが効率的に行うことができるようにする。【解決手段】監視エリアの撮影映像から検出された人物の画像領域をマスク画像に変更した出力映像を生成して出力するモニタリング装置を、撮影日時を指定するユーザの入力操作に応じて、複数の撮影日時を設定する日時設定部71と、撮影映像から人物を検出して人物ごとの領域情報を取得する人物検出部を有する人物画像解析部32と、撮影日時別のマスク画像を設定するマスク画像設定部35と、人物画像解析部から出力された人物ごとの領域情報に基づき、人物の画像領域を撮影日時別のマスク画像に変更した出力映像を生成して出力する映像出力制御部34と、を備えたものとする。【選択図】図7An object of the present invention is to enable a user to efficiently perform a task of grasping a behavior tendency of a person by date and time. A monitoring device that generates and outputs an output video in which an image area of a person detected from a captured video in a monitoring area is changed to a mask image is output in accordance with a user input operation for specifying a shooting date and time. A date and time setting unit 71 that sets the shooting date and time, a person image analysis unit 32 that has a person detection unit that detects a person from the shot video and acquires area information for each person, and a mask image that sets a mask image for each shooting date and time A video output control unit 34 that generates and outputs an output video in which the image area of the person is changed to a mask image for each shooting date and time based on the area information for each person output from the human image analysis unit; Shall be provided. [Selection] Figure 7

Description

本発明は、監視エリアの撮影映像から検出された人物の画像領域をマスク画像に変更した出力映像を生成して出力するモニタリング装置、モニタリングシステムおよびモニタリング方法に関するものである。   The present invention relates to a monitoring apparatus, a monitoring system, and a monitoring method for generating and outputting an output video in which an image area of a person detected from a captured video in a monitoring area is changed to a mask image.

コンビニエンスストアなどの店舗においては、店舗内を撮影するカメラを設置して、そのカメラの映像で店舗内の人物を監視する監視システムが広く普及しているが、監視目的以外、すなわち、マーケティング分析やサービス向上を目的として撮影映像を利用する場合には、顧客のプライバシーを保護する必要がある。   In stores such as convenience stores, a monitoring system that installs a camera that captures the inside of the store and monitors the person in the store with the image of the camera is widely used. When using captured images for the purpose of improving services, it is necessary to protect the privacy of customers.

このような中、カメラで撮影された映像の各画像内の人物領域全体が、所定の色で塗りつぶされた画像に変換された画像に特徴点が表示させ、人物がどのように動いているかを把握するようにした技術が知られている(特許文献1参照)。また、人物の前景画像がない状態の背景画像を生成し、前景画像に対しては一部または全体的に透過性を有するマスク処理もしくはフィルタ処理を行って、人物の顔や姿が特定できない画像を生成する技術も知られている(特許文献2参照)。   Under such circumstances, the whole person area in each image of the video shot by the camera is displayed on the image converted into an image filled with a predetermined color, and the feature point is displayed to determine how the person moves. A technique for grasping is known (see Patent Document 1). In addition, a background image without a foreground image of a person is generated, and the foreground image is subjected to mask processing or filter processing that is partially or wholly transparent so that the face or figure of the person cannot be specified. There is also known a technique for generating (see Patent Document 2).

特開2013−186838号公報JP 2013-186838 A 特許第5159381号公報Japanese Patent No. 5159381

さて、映像から人物の行動を把握するには、人物を背景と区別しながら人物を見ることになるが、前記従来の技術のように、人物の画像領域を特定の画像に置き換えることで、背景と人物とを容易に識別することができるため、人物の行動を把握することが容易になる。   Now, in order to grasp the action of a person from the video, the person is seen while distinguishing the person from the background. However, as in the conventional technique, by replacing the image area of the person with a specific image, And a person can be easily identified, and it becomes easy to grasp the behavior of the person.

一方、日時(曜日や時間帯など)別に人物の行動にどのような傾向があるかを把握する要望があるが、前記従来の技術では、このような要望に対する配慮はなんらなされておらず、日時別の人物の行動傾向を把握する作業を効率的に行うことができないという問題があった。特に、日時別の人物の行動傾向を把握するには、日時が異なる映像を比較しながら、人物の行動を見る必要があるため、映像が長時間に及ぶ場合のユーザの負担が大きく、日時別の人物の行動傾向を把握する作業を効率的に行うことができる技術が望まれる。   On the other hand, there is a request for grasping the tendency of a person's behavior according to date and time (day of the week, time zone, etc.), but the conventional technology does not give any consideration to such a request. There was a problem that it was not possible to efficiently perform the work of grasping the behavior tendency of another person. In particular, in order to grasp the behavioral behavior of a person by date and time, it is necessary to see the behavior of the person while comparing videos with different dates and times. A technique that can efficiently perform the work of grasping the behavior tendency of a person is desired.

本発明は、このような従来技術の問題点を解消するべく案出されたものであり、日時別の人物の行動傾向を把握する作業をユーザが効率的に行うことが可能なモニタリング装置、モニタリングシステムおよびモニタリング方法を提供することを主な目的とする。   The present invention has been devised to solve such problems of the prior art, and a monitoring device and a monitoring device that enable a user to efficiently perform a task of grasping a behavior tendency of a person by date and time. The main purpose is to provide a system and monitoring method.

本発明のモニタリング装置は、監視エリアの撮影映像から検出された人物の画像領域をマスク画像に変更した出力映像を生成して出力するモニタリング装置であって、撮影日時を指定するユーザの入力操作に応じて、複数の撮影日時を設定する日時設定部と、この日時設定部により設定された複数の撮影日時の前記撮影映像から人物ごとの領域情報を前記撮影日時ごとに取得する人物画像解析部と、前記撮影日時別の前記マスク画像を設定するマスク画像設定部と、前記人物画像解析部により前記撮影日時ごとに取得した人物ごとの前記領域情報に基づき、各撮影日時の撮影映像内にある人物の画像領域を前記撮影日時別の前記マスク画像に変更し、これらのマスク画像を背景画像上の対応する位置に重ね合わせた前記出力映像を生成して出力する映像出力制御部と、を備えた構成とする。 A monitoring device according to the present invention is a monitoring device that generates and outputs an output video in which a person's image area detected from a video shot in a monitoring area is changed to a mask image, and is used for a user's input operation for specifying a shooting date and time. Accordingly, a date and time setting unit for setting a plurality of shooting dates and times, and a person image analysis unit for acquiring region information for each person from the captured images at a plurality of shooting dates and times set by the date and time setting unit for each shooting date and time A mask image setting unit for setting the mask image according to the shooting date and time, and a person in the shot video of each shooting date and time based on the area information for each person acquired by the person image analysis unit for each shooting date and time change the image area on the imaging date and time-of the mask image, out to generate said corresponding output image superimposed on a position on the background image these mask images A video output control unit that is configured to include a.

また、本発明のモニタリングシステムは、監視エリアの撮影映像から検出された人物の画像領域をマスク画像に変更した出力映像を生成して出力するモニタリングシステムであって、監視エリアを撮影するカメラと、複数の情報処理装置と、を有し、前記複数の情報処理装置のいずれかが、撮影日時を指定するユーザの入力操作に応じて、複数の撮影日時を設定する日時設定部と、この日時設定部により設定された複数の撮影日時の前記撮影映像から人物ごとの領域情報を前記撮影日時ごとに取得する人物画像解析部と、前記撮影日時別の前記マスク画像を設定するマスク画像設定部と、前記人物画像解析部により前記撮影日時ごとに取得した人物ごとの前記領域情報に基づき、各撮影日時の撮影映像内にある人物の画像領域を前記撮影日時別の前記マスク画像に変更し、これらのマスク画像を背景画像上の対応する位置に重ね合わせた前記出力映像を生成して出力する映像出力制御部と、を備えた構成とする。 In addition, the monitoring system of the present invention is a monitoring system that generates and outputs an output video in which a person's image area detected from a video shot in the monitoring area is changed to a mask image, and a camera that shoots the monitoring area; includes a plurality of information processing apparatuses, and any of the plurality of information processing apparatuses, in accordance with the input operation of the user to specify the shooting date and time, the date and time setting unit that sets a plurality of photographing date, the time setting A person image analysis unit that acquires region information for each person from the captured video at a plurality of shooting dates and times set by the shooting unit for each shooting date and time, a mask image setting unit that sets the mask image for each shooting date and time, the person on the basis of the area information of each person obtained for each of the shooting date and time by the image analysis unit, the shooting date and time the image area of the person in the photographed image of the photographing date and time The change in the mask image, and a video output controller for generating and outputting a corresponding said output image superimposed on a position on the background image these mask images, and configurations with the.

また、本発明のモニタリング方法は、監視エリアの撮影映像から検出された人物の画像領域をマスク画像に変更した出力映像を生成して出力する処理を情報処理装置に行わせるモニタリング方法であって、撮影日時を指定するユーザの入力操作に応じて、複数の撮影日時を設定する第1のステップと、この第1のステップにより設定された複数の撮影日時の前記撮影映像から人物ごとの領域情報を前記撮影日時ごとに取得する第2のステップと、前記撮影日時別の前記マスク画像を設定する第3のステップと、前記第2のステップにより前記撮影日時ごとに取得した人物ごとの前記領域情報に基づき、各撮影日時の撮影映像内にある人物の画像領域を前記撮影日時別の前記マスク画像に変更し、これらのマスク画像を背景画像上の対応する位置に重ね合わせた前記出力映像を生成して出力する第4のステップと、を有する構成とする。 The monitoring method of the present invention is a monitoring method for causing an information processing apparatus to perform processing for generating and outputting an output video in which an image area of a person detected from a captured video in a monitoring area is changed to a mask image, in response to an input operation of the user to specify the shooting date and time, a first step of setting a plurality of shooting date and time, the area information of each person from the captured image of the plurality of shooting date and time set by the first step In the second step of acquiring for each shooting date and time, the third step of setting the mask image for each shooting date and time, and the region information for each person acquired for each shooting date and time by the second step. based, change the image area of the person in the photographed image of the shooting date and time on the photographing date and time-of the mask image, the corresponding position on the background image these mask images A fourth step of the output image generated by an output superimposed to be configured to have.

本発明によれば、複数の撮影日時別にマスク画像が表示されるため、映像に登場する人物の撮影日時を簡単に把握することができ、これにより、日時別の人物の行動傾向を把握する作業を効率的に行うことができる。   According to the present invention, since mask images are displayed for a plurality of shooting dates and times, it is possible to easily grasp the shooting date and time of a person appearing in a video, thereby grasping the behavior tendency of a person by date and time. Can be performed efficiently.

第1実施形態に係るモニタリングシステムの全体構成図Overall configuration diagram of the monitoring system according to the first embodiment 店舗のレイアウト、およびカメラ1の設置状況を説明する店舗の平面図Floor plan of the store explaining the layout of the store and the installation status of the camera 1 PC3の概略構成を示す機能ブロック図Functional block diagram showing schematic configuration of PC3 モニタ4に表示されるモニタリング画面を示す説明図Explanatory drawing which shows the monitoring screen displayed on the monitor 4 モニタ4に表示されるマスク画像設定画面を示す説明図Explanatory drawing which shows the mask image setting screen displayed on the monitor 4 モニタリング画面の映像表示部48に表示される映像の要部を示す説明図Explanatory drawing which shows the principal part of the image | video displayed on the video display part 48 of a monitoring screen. 第2実施形態に係るモニタリングシステムにおけるPC3の概略構成を示す機能ブロック図Functional block diagram which shows schematic structure of PC3 in the monitoring system which concerns on 2nd Embodiment. モニタ4に表示されるモニタリング画面を示す説明図Explanatory drawing which shows the monitoring screen displayed on the monitor 4 モニタ4に表示されるマスク画像設定画面を示す説明図Explanatory drawing which shows the mask image setting screen displayed on the monitor 4 2つの撮影日時の映像を示す説明図Explanatory drawing showing images of two shooting dates and times モニタリング画面の映像表示部48の要部を示す説明図Explanatory drawing which shows the principal part of the video display part 48 of a monitoring screen. 第3実施形態に係るモニタリングシステムにおけるPC3の概略構成を示す機能ブロック図Functional block diagram which shows schematic structure of PC3 in the monitoring system which concerns on 3rd Embodiment. モニタ4に表示されるモニタリング画面を示す説明図Explanatory drawing which shows the monitoring screen displayed on the monitor 4 モニタ4に表示されるマスク画像設定画面を示す説明図Explanatory drawing which shows the mask image setting screen displayed on the monitor 4 モニタリング画面の映像表示部48の要部を示す説明図Explanatory drawing which shows the principal part of the video display part 48 of a monitoring screen. モニタリング画面の映像表示部48の要部を示す説明図Explanatory drawing which shows the principal part of the video display part 48 of a monitoring screen. モニタ4に表示されるモニタリング画面の別の例を示す説明図Explanatory drawing which shows another example of the monitoring screen displayed on the monitor 4

前記課題を解決するためになされた第1の発明は、監視エリアの撮影映像から検出された人物の画像領域をマスク画像に変更した出力映像を生成して出力するモニタリング装置であって、撮影日時を指定するユーザの入力操作に応じて、複数の撮影日時を設定する日時設定部と、この日時設定部により設定された複数の撮影日時の前記撮影映像から人物ごとの領域情報を前記撮影日時ごとに取得する人物画像解析部と、前記撮影日時別の前記マスク画像を設定するマスク画像設定部と、前記人物画像解析部により前記撮影日時ごとに取得した人物ごとの前記領域情報に基づき、各撮影日時の撮影映像内にある人物の画像領域を前記撮影日時別の前記マスク画像に変更し、これらのマスク画像を背景画像上の対応する位置に重ね合わせた前記出力映像を生成して出力する映像出力制御部と、を備えた構成とする。 A first invention made to solve the above-described problem is a monitoring device that generates and outputs an output video in which an image area of a person detected from a captured video in a monitoring area is changed to a mask image, A date and time setting unit for setting a plurality of shooting dates and times according to a user's input operation, and region information for each person from the shot images of the plurality of shooting dates and times set by the date and time setting unit for each shooting date and time A person image analysis unit to be acquired, a mask image setting unit for setting the mask image for each shooting date and time , and each shooting based on the region information for each person acquired by the person image analysis unit for each shooting date and time. change the image area of the person within the date and time of shooting image on the imaging date and time-of the mask image, the output of these mask image superimposed on the corresponding position on the background image A configuration with a video output controller for generating and outputting an image.

これによると、複数の撮影日時別にマスク画像が表示されるため、映像に登場する人物の撮影日時を簡単に把握することができ、これにより、日時別の人物の行動傾向を把握する作業を効率的に行うことができる。   According to this, since mask images are displayed for multiple shooting dates and times, it is possible to easily grasp the shooting date and time of the person appearing in the video, thereby making it possible to efficiently grasp the behavior tendency of the person by date and time. Can be done automatically.

また、第2の発明は、前記人物画像解析部は、前記撮影映像から検出された人物ごとの属性を判定する属性判定部を有し、前記マスク画像設定部は、前記撮影日時および前記属性ごとに前記マスク画像を選択するユーザの入力操作に応じて、前記撮影日時および前記属性別の前記マスク画像を設定する構成とする。   In the second invention, the person image analysis unit includes an attribute determination unit that determines an attribute for each person detected from the captured video, and the mask image setting unit includes the shooting date and time and the attribute. In addition, according to the input operation of the user who selects the mask image, the mask image according to the shooting date and the attribute is set.

これによると、ユーザが自由にマスク画像を設定することができるため、ユーザの利便性を高めることができる。また、属性別にマスク画像が表示されるため、映像に登場する人物の属性を簡単に把握することができ、これにより、人物の属性ごとに人物の行動傾向を把握する作業を効率的に行うことができる。   According to this, since the user can freely set the mask image, the convenience for the user can be improved. In addition, since mask images are displayed for each attribute, it is possible to easily grasp the attributes of the person appearing in the video, thereby efficiently performing the task of grasping the person's behavior tendency for each attribute of the person. Can do.

また、第3の発明は、前記映像出力制御部は、複数の人物ごとの前記マスク画像が互いに重なり合う場合に、その重なり合う部分を、前記マスク画像における他の部分と識別可能に表示する構成とする。   In addition, according to a third aspect of the present invention, when the mask image for each of a plurality of persons overlaps with each other, the video output control unit displays the overlapping portion so as to be distinguishable from other portions in the mask image. .

これによると、マスク画像の重なり合う部分がわかりやすく表示されるため、複数の撮影日時で多数の人物が滞在するエリアでの人物の状態を詳しく把握することができる。   According to this, since the overlapping part of the mask image is displayed in an easy-to-understand manner, it is possible to grasp in detail the state of the person in an area where a large number of persons stay at a plurality of shooting dates and times.

また、第4の発明は、前記日時設定部は、複数の撮影日時に優先順位を付与し、前記映像出力制御部は、複数の人物ごとの前記マスク画像が互いに重なり合う場合に、その重なり合う部分を、前記優先順位が高い撮影日時の前記マスク画像が、前記優先順位が低い撮影日時の前記マスク画像を覆い隠すように表示する構成とする。   According to a fourth aspect of the present invention, the date and time setting unit assigns priorities to a plurality of shooting dates and times, and the video output control unit determines the overlapping portions when the mask images for a plurality of persons overlap each other. The mask image with the shooting date and time with the higher priority is displayed so as to cover the mask image with the shooting date and time with the lower priority.

これによると、注目する撮影日時の優先順位を高く設定することで、注目する撮影日時のマスク画像がわかりやすく表示されるため、注目する撮影日時の人物の行動傾向を把握する作業が容易になる。   According to this, by setting the priority of the shooting date and time of interest to a high priority, the mask image of the shooting date and time of interest is displayed in an easy-to-understand manner, so it becomes easier to grasp the behavior tendency of the person at the shooting date and time of interest. .

また、第5の発明は、前記マスク画像は、前記撮影日時に応じて、色、濃淡、パターン、および輪郭線の少なくともいずれかの表示要素を変更することで、前記撮影日時を識別可能にした構成とする。   According to a fifth aspect of the present invention, the mask image can be identified by changing the display element of at least one of color, shading, pattern, and contour line according to the shooting date and time. The configuration.

これによると、マスク画像の違いにより、撮影日時の異なる人物を容易に識別することができる。   According to this, persons with different shooting dates and times can be easily identified due to the difference in mask images.

また、第6の発明は、前記撮影映像から前記背景画像を生成する背景画像処理部をさらに備え、前記映像出力制御部は、前記背景画像上に透過性の前記マスク画像を重畳した前記出力映像を生成する構成とする。 Further, the sixth invention, the provided from captured image further background image processing unit for generating the background image, the video output control unit, the output image obtained by superimposing the mask image of permeability on the background image Is generated.

これによると、マスク画像が透過性であることから、背景画像が透けて見えるため、背景画像に写る監視エリアの状況を見ながら人物の行動を観察することができる。   According to this, since the mask image is transmissive, the background image can be seen through, so that the behavior of the person can be observed while observing the situation of the monitoring area that appears in the background image.

また、第7の発明は、監視エリアの撮影映像から検出された人物の画像領域をマスク画像に変更した出力映像を生成して出力するモニタリングシステムであって、監視エリアを撮影するカメラと、複数の情報処理装置と、を有し、前記複数の情報処理装置のいずれかが、撮影日時を指定するユーザの入力操作に応じて、複数の撮影日時を設定する日時設定部と、この日時設定部により設定された複数の撮影日時の前記撮影映像から人物ごとの領域情報を前記撮影日時ごとに取得する人物画像解析部と、前記撮影日時別の前記マスク画像を設定するマスク画像設定部と、前記人物画像解析部により前記撮影日時ごとに取得した人物ごとの前記領域情報に基づき、各撮影日時の撮影映像内にある人物の画像領域を前記撮影日時別の前記マスク画像に変更し、これらのマスク画像を背景画像上の対応する位置に重ね合わせた前記出力映像を生成して出力する映像出力制御部と、を備えた構成とする。 The seventh invention is a monitoring system that generates and outputs an output video in which a person's image area detected from a video shot in the monitoring area is changed to a mask image, and a camera that shoots the monitoring area; A date and time setting unit for setting a plurality of shooting dates and times according to a user input operation for specifying the shooting date and time, and the date and time setting unit. and the mask image setting unit that sets a person image analysis unit for acquiring region information for each person for each of the shooting date and time from the captured image of the plurality of shooting date and time is set, the shooting date and time-of the mask image by the based on the area information of each person obtained for each of the shooting date and time by the person image analysis unit, the mask image an image area of a person in the shooting image by the shooting date and time of each shooting date Change to a video output control unit that generates and outputs the output image superimposed on the corresponding position on the background image these mask images, and configurations with.

これによると、第1の発明と同様に、日時別の人物の行動傾向を把握する作業をユーザが効率的に行うことができる。   According to this, similarly to the first invention, the user can efficiently perform the work of grasping the behavior tendency of the person by date and time.

また、第8の発明は、監視エリアの撮影映像から検出された人物の画像領域をマスク画像に変更した出力映像を生成して出力する処理を情報処理装置に行わせるモニタリング方法であって、撮影日時を指定するユーザの入力操作に応じて、複数の撮影日時を設定する第1のステップと、この第1のステップにより設定された複数の撮影日時の前記撮影映像から人物ごとの領域情報を前記撮影日時ごとに取得する第2のステップと、前記撮影日時別の前記マスク画像を設定する第3のステップと、前記第2のステップにより前記撮影日時ごとに取得した人物ごとの前記領域情報に基づき、各撮影日時の撮影映像内にある人物の画像領域を前記撮影日時別の前記マスク画像に変更し、これらのマスク画像を背景画像上の対応する位置に重ね合わせた前記出力映像を生成して出力する第4のステップと、を有する構成とする。 The eighth invention is a monitoring method for causing an information processing device to perform processing for generating and outputting an output video in which a person's image area detected from a captured video in a monitoring area is changed to a mask image. in response to an input operation of a user to specify a date, the a first step of setting a plurality of shooting date and time, the area information of each person from the captured image of the plurality of shooting date and time set by the first step Based on the second step acquired for each shooting date and time, the third step for setting the mask image for each shooting date and time, and the area information for each person acquired for each shooting date and time by the second step. changes the image area of the person in the photographed image of the shooting date and time on the photographing date and time-of the mask image, by superimposing these mask image at the corresponding position on the background image A structure having a fourth step of generating and outputting the output image.

これによると、第1の発明と同様に、日時別の人物の行動傾向を把握する作業をユーザが効率的に行うことができる。   According to this, similarly to the first invention, the user can efficiently perform the work of grasping the behavior tendency of the person by date and time.

以下、本発明の実施の形態を、図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1実施形態)
図1は、第1実施形態に係るモニタリングシステムの全体構成図である。このモニタリングシステムは、コンビニエンスストアなどの小売チェーン店などを対象にして構築されるものであり、複数の店舗ごとに設けられたカメラ(撮像装置)1、レコーダ(画像記録装置)2、PC(モニタリング装置)3、およびモニタ(表示装置)4と、複数の店舗を総括する本部に設けられたPC11、およびモニタ12と、を備えている。
(First embodiment)
FIG. 1 is an overall configuration diagram of a monitoring system according to the first embodiment. This monitoring system is constructed for a retail chain store such as a convenience store. A camera (imaging device) 1, a recorder (image recording device) 2, a PC (monitoring) provided for each of a plurality of stores. Device) 3 and a monitor (display device) 4, and a PC 11 and a monitor 12 provided in a headquarters for generalizing a plurality of stores.

カメラ1は店舗内の適所に設置され、カメラ1により店舗内が撮像され、これにより得られた画像情報がレコーダ2に録画される。店舗に設けられたPC3や本部に設けられたPC11では、カメラ1で撮像された店舗内の画像をリアルタイムで閲覧することができ、また、レコーダ2に録画された過去の店舗内の画像を閲覧することができ、これにより店舗や本部で店舗内の状況を確認することができる。   The camera 1 is installed at an appropriate place in the store, the inside of the store is imaged by the camera 1, and image information obtained thereby is recorded in the recorder 2. With the PC 3 provided in the store and the PC 11 provided in the headquarters, the store image captured by the camera 1 can be viewed in real time, and the past store image recorded in the recorder 2 can be viewed. It is possible to check the situation in the store at the store or the headquarters.

店舗に設置されたPC3は、店舗内での人物や商品の状態を監視するモニタリング装置として構成され、このPC3で生成したモニタリング情報を、PC3自身で閲覧することができ、さらに、本部に設置されたPC11に送信されて、このPC11でも閲覧することができ、PC3,11がモニタリング情報を閲覧する閲覧装置として構成される。 The PC 3 installed in the store is configured as a monitoring device that monitors the state of persons and products in the store, and the monitoring information generated by the PC 3 can be browsed by the PC 3 itself, and further installed in the headquarters. Sent to the PC 11 and can be browsed by the PC 11 , and the PCs 3 and 11 are configured as browsing devices for browsing the monitoring information.

次に、コンビニエンスストアを例にして店舗のレイアウト、およびカメラ1の設置状況について説明する。図2は、店舗のレイアウト、およびカメラ1の設置状況を説明する店舗の平面図である。   Next, the store layout and the installation status of the camera 1 will be described using a convenience store as an example. FIG. 2 is a plan view of the store explaining the store layout and the installation status of the camera 1.

店舗には、出入口と、陳列棚(陳列エリア)と、レジカウンタと、が設けられている。陳列棚は、弁当、ペットボトル、おにぎりなどの商品の種類に分けて設置されている。レジカウンタの隣にはファーストフードの陳列棚が設置されている。   The store is provided with an entrance, a display shelf (display area), and a cashier counter. Display shelves are divided into different types of products such as bento boxes, plastic bottles, and rice balls. Next to the checkout counter is a fast food display shelf.

顧客は、出入口から入店し、陳列棚の間の通路を通って店舗内を移動し、所望の商品が見つかると、その商品を持ってレジカウンタに向かい、レジカウンタで会計(代金の支払い)を済ませた後に出入口から退店する。   The customer enters the store from the entrance, moves through the passage between the display shelves, finds the desired product, and goes to the checkout counter with the product and pays at the checkout counter (payment). After exiting, exit from the entrance.

また、店舗には、店舗内(監視エリア)を撮像する複数のカメラ1が設置されている。特に、図2に示す例では、カメラ1に、魚眼レンズを用いて360度の撮影範囲を有する全方位カメラが採用され、このカメラ1により、陳列棚に陳列された商品を撮像することができ、また、陳列棚やレジカウンタの前などに滞在する人物を撮像することができる。   In the store, a plurality of cameras 1 that capture images of the store (monitoring area) are installed. In particular, in the example shown in FIG. 2, an omnidirectional camera having a 360-degree shooting range using a fish-eye lens is adopted as the camera 1, and the camera 1 can image products displayed on the display shelf, It is also possible to take an image of a person staying in front of a display shelf or a cashier counter.

次に、図1に示したPC3で行われる処理を機能ブロック図に基づいて説明する。図3は、PC3の概略構成を示す機能ブロック図である。   Next, processing performed by the PC 3 shown in FIG. 1 will be described based on a functional block diagram. FIG. 3 is a functional block diagram showing a schematic configuration of the PC 3.

PC3は、監視部31を備えている。この監視部31は、PC3を店舗内を監視する監視システムとして機能させるものであり、この監視部31により、カメラ1およびレコーダ2の動作が制御され、また、カメラ1で撮像された店舗内の画像をリアルタイムで閲覧し、また、レコーダ2に録画された店舗内の画像を閲覧することができる。   The PC 3 includes a monitoring unit 31. The monitoring unit 31 causes the PC 3 to function as a monitoring system for monitoring the inside of the store. The operation of the camera 1 and the recorder 2 is controlled by the monitoring unit 31, and the inside of the store imaged by the camera 1 is controlled. The image can be browsed in real time, and the in-store image recorded in the recorder 2 can be browsed.

また、PC3は、人物画像解析部32と、背景画像処理部33と、映像出力制御部34と、マスク画像設定部35と、を備えている。   The PC 3 includes a person image analysis unit 32, a background image processing unit 33, a video output control unit 34, and a mask image setting unit 35.

人物画像解析部32は、カメラ1による撮影映像を解析して人物に関する情報を取得するものであり、人物検出部37と、属性判定部38と、を備えている。   The person image analysis unit 32 analyzes information captured by the camera 1 and acquires information about a person, and includes a person detection unit 37 and an attribute determination unit 38.

人物検出部37では、撮影映像から人物を検出して人物ごとの領域情報(人物の画像領域の位置情報)を取得する処理が行われる。属性判定部38では、撮影映像から検出された人物ごとの属性(性別および年齢など)を判定する処理が行われる。この人物検出部37および属性判定部38で行われる処理は、公知の画像認識技術を用いればよい。なお、この人物画像解析部32では、撮影映像のフレームごとの人物検出結果を関連付ける人物追跡処理を行うことが望ましく、これにより精度の高い属性判定を行うことができる。   The person detection unit 37 performs processing for detecting a person from the captured video and acquiring area information for each person (position information of the person's image area). The attribute determination unit 38 performs processing for determining attributes (such as gender and age) for each person detected from the captured video. The processing performed by the person detection unit 37 and the attribute determination unit 38 may use a known image recognition technique. The person image analysis unit 32 desirably performs person tracking processing for associating a person detection result for each frame of the captured video, thereby enabling highly accurate attribute determination.

マスク画像設定部35では、属性別のマスク画像を設定する処理が行われる。特に本実施形態では、人物の属性ごとにマスク画像を選択するユーザの入力操作に応じて、属性別のマスク画像を設定する処理が行われる。なお、属性別のマスク画像を予め設定しておくようにしてもよい。   The mask image setting unit 35 performs processing for setting a mask image for each attribute. In particular, in the present embodiment, processing for setting a mask image for each attribute is performed in accordance with an input operation of a user who selects a mask image for each attribute of a person. A mask image for each attribute may be set in advance.

背景画像処理部33では、撮影映像から背景画像を生成する処理が行われる。この背景画像は、撮影映像から人物の画像(前景画像)を除去したものであり、直近に撮影された複数の映像からそれぞれ人物の画像を除去して、その複数の画像から背景画像を合成するようすればよい。また、人物が存在しないときの撮影映像、例えば開店前の撮影映像を背景画像として予め用意しておくようにしてもよい。   In the background image processing unit 33, processing for generating a background image from the captured video is performed. This background image is obtained by removing a person image (foreground image) from a photographed video, removes a person image from each of the most recently photographed videos, and synthesizes the background image from the plurality of images. You can do that. Moreover, you may make it prepare previously as a background image the picked-up image when a person does not exist, for example, the picked-up image before a store opening.

映像出力制御部34では、人物画像解析部32から出力された人物ごとの領域情報および属性に基づき、人物の画像領域をマスク画像に変更した出力映像を生成して出力する処理が行われる。本実施形態では、撮影映像内にある人物の画像領域に対応する輪郭を有するマスク画像を生成し、このマスク画像を、背景画像処理部33で生成した背景画像上に重ね合わせる処理が行われる。   The video output control unit 34 generates and outputs an output video in which the person's image area is changed to a mask image based on the area information and attributes for each person output from the person image analysis unit 32. In the present embodiment, a mask image having an outline corresponding to an image area of a person in a captured video is generated, and a process of superimposing the mask image on the background image generated by the background image processing unit 33 is performed.

マスク画像は、属性に応じて、色、濃淡、パターン(模様)、および輪郭線の少なくともいずれかの表示要素を変更することで、属性を識別可能にしたものであり、特に本実施形態では、人物ごとの領域情報(人物の画像領域の位置情報)から、人物の画像領域の輪郭線を生成し、その輪郭線の内部を透過性の画像で塗り潰したものとする。なお、輪郭線を表示しないようにしてもよく、また、色や濃淡などを変えることで輪郭線を塗り潰し領域と識別可能に表示するようにしてもよい。   The mask image is one in which attributes can be identified by changing display elements of at least one of color, shading, pattern (pattern), and outline according to the attributes. It is assumed that an outline of a person image area is generated from area information for each person (position information of the person image area), and the inside of the outline is filled with a transparent image. Note that the contour line may not be displayed, and the contour line may be displayed so as to be distinguishable from the filled region by changing the color, shading, or the like.

次に、図1に示したモニタ4に表示されるモニタリング画面について説明する。図4は、モニタ4に表示されるモニタリング画面を示す説明図である。   Next, the monitoring screen displayed on the monitor 4 shown in FIG. 1 will be described. FIG. 4 is an explanatory diagram showing a monitoring screen displayed on the monitor 4.

このモニタリング画面は、マーケティング分析やサービス向上などの目的で店舗内の状況をユーザが確認するものであり、このモニタリング画面には、店舗選択部41と、開始ボタン42と、設定ボタン43と、動作モード選択部44と、日時表示部45と、日時設定ボタン46と、凡例表示部47と、映像表示部48と、表示時刻操作部49と、が設けられている。   This monitoring screen is used by the user to check the situation in the store for the purpose of marketing analysis and service improvement. The monitoring screen includes a store selection unit 41, a start button 42, a setting button 43, and an operation. A mode selection unit 44, a date display unit 45, a date setting button 46, a legend display unit 47, a video display unit 48, and a display time operation unit 49 are provided.

店舗選択部41では、プルダウンメニューにより店舗をユーザが選択する。開始ボタン42は、PCでのモニタリング処理を開始させるものである。設定ボタン43は、モニタリング処理での各種の条件を設定するものであり、本実施形態では、設定ボタン43を操作すると、ポップアップでマスク画像設定画面(図5参照)が表示される。動作モード選択部44は、動作モードを選択するものであり、売場モニタリング、商品モニタリング、陳列アラート、および欠品アラートなどの動作モードが用意されており、ここでは売場モニタリングが選択されている。   In the store selection unit 41, the user selects a store from a pull-down menu. The start button 42 is used to start the monitoring process on the PC. The setting button 43 is used to set various conditions in the monitoring process. In this embodiment, when the setting button 43 is operated, a mask image setting screen (see FIG. 5) is displayed in a pop-up. The operation mode selection unit 44 selects an operation mode, and operation modes such as sales floor monitoring, product monitoring, display alert, and shortage alert are prepared. Here, sales floor monitoring is selected.

日時表示部45は、日時を表示するものである。日時設定ボタン46は、日時を設定するものである。日時設定ボタン46を操作すると、図示しない日時設定画面が表示され、ここで日時を選択することで、選択した日時が日時表示部45に表示され、また、選択した日時の映像が映像表示部48に表示される。   The date and time display unit 45 displays the date and time. The date and time setting button 46 is for setting the date and time. When the date / time setting button 46 is operated, a date / time setting screen (not shown) is displayed. By selecting a date / time here, the selected date / time is displayed on the date / time display unit 45, and a video of the selected date / time is displayed on the video display unit 48. Is displayed.

凡例表示部47は、映像表示部48に表示されるマスク画像を説明するものである。本実施形態では、凡例表示部47に、人物の属性(性別および年齢など)ごとに設定されたマスク画像が表示される。なお、図4に示す例では、年齢を全世代としているが、例えば10代〜60代の各世代にマスク画像を設定した場合、凡例表示部47は、各世代のマスク画像が表示される。   The legend display unit 47 is for explaining a mask image displayed on the video display unit 48. In the present embodiment, a mask image set for each person attribute (such as gender and age) is displayed on the legend display unit 47. In the example shown in FIG. 4, the ages are all generations. However, when a mask image is set for each generation, for example, teens to 60s, the legend display unit 47 displays a mask image of each generation.

映像表示部48には、店舗の映像(動画)が表示される。特に図4に示す例では、全方位カメラであるカメラ1により撮像された映像をパノラマ展開した2つの映像が表示されている。この2つの映像に店舗全体が映り、店舗全体の状況を確認することができる。この映像表示部48には、通常再生モードでは、カメラ1による撮影映像がそのまま表示され、マスク再生モードでは、人物の画像領域をマスク画像に変更した映像が表示される。この映像表示部48に表示される映像については後に詳しく説明する。   The video display unit 48 displays store videos (moving images). In particular, in the example shown in FIG. 4, two images obtained by panoramic development of an image captured by the camera 1 that is an omnidirectional camera are displayed. The entire store is reflected in these two images, and the status of the entire store can be confirmed. On the video display unit 48, the video captured by the camera 1 is displayed as it is in the normal playback mode, and the video in which the image area of the person is changed to a mask image is displayed in the mask playback mode. The video displayed on the video display unit 48 will be described in detail later.

表示時刻操作部49は、映像表示部48に表示される映像の時刻を調整するものである。この表示時刻操作部49を操作することで、映像を所望の時刻の映像に切り替えることができる。具体的には、マウスなどの入力デバイス6を用いてスライダ50をずらすと、そのスライダ50が指し示す時刻の映像が映像表示部48に表示される。これにより、所要の時刻における店舗の状況を映像表示部48の映像で確認することができる。また、映像表示部48の映像を再生する場合、操作ボタン51を用いることで、通常再生のほか、早送り再生や巻き戻し再生が可能となる。この場合、長時間に渡って録画された映像をマスク再生モードで再生する際にも、効率的な映像確認ができるようになる。   The display time operation unit 49 adjusts the time of the video displayed on the video display unit 48. By operating the display time operation unit 49, the video can be switched to a video at a desired time. Specifically, when the slider 50 is shifted using the input device 6 such as a mouse, an image at the time indicated by the slider 50 is displayed on the video display unit 48. Thereby, the situation of the store at the required time can be confirmed on the video of the video display unit 48. In addition, when the video on the video display unit 48 is played, the operation button 51 is used to enable fast-forward playback and rewind playback in addition to normal playback. In this case, even when a video recorded for a long time is played back in the mask playback mode, the video can be confirmed efficiently.

次に、属性別にマスク画像を設定する操作について説明する。図5は、モニタ4に表示されるマスク画像設定画面を示す説明図である。   Next, an operation for setting a mask image for each attribute will be described. FIG. 5 is an explanatory diagram showing a mask image setting screen displayed on the monitor 4.

このマスク画像設定画面は、人物の属性ごとのマスク画像をユーザが指定するものであり、このマスク画像設定画面には、人物属性選択部61と、マスク画像選択部62と、設定ボタン63と、設定内容表示部64と、が設けられている。   In this mask image setting screen, a user specifies a mask image for each attribute of a person. In this mask image setting screen, a person attribute selecting unit 61, a mask image selecting unit 62, a setting button 63, A setting content display section 64 is provided.

人物属性選択部61では、人物の属性(性別および年齢)をプルダウンメニューからユーザが選択する。この人物属性選択部61では、例えば10代〜60代の各世代および全世代のいずれかを選択することができる。なお、人物の属性を大人および子供とすることも可能である。マスク画像選択部72では、人物属性選択部61で選択した属性に対応するマスク画像をタイルメニューからユーザが選択する。   In the person attribute selection unit 61, the user selects a person attribute (gender and age) from a pull-down menu. The person attribute selection unit 61 can select, for example, each generation of teens to 60s and all generations. It should be noted that the attributes of the person can be adults and children. In the mask image selection unit 72, the user selects a mask image corresponding to the attribute selected by the person attribute selection unit 61 from the tile menu.

この人物属性選択部61およびマスク画像選択部62で人物の属性とこれに対応するマスク画像を選択して、設定ボタン63を操作すると、設定内容表示部64に、設定内容、すなわち属性別のマスク画像が表示される。図5に示す例では、年齢を全世代として、男性および女性のマスク画像が設定されている。   When the person attribute selection unit 61 and the mask image selection unit 62 select a person attribute and the corresponding mask image and operate the setting button 63, the setting content display unit 64 displays the setting content, that is, the mask for each attribute. An image is displayed. In the example shown in FIG. 5, mask images of men and women are set for all generations.

次に、図4に示したモニタリング画面の映像表示部48に表示される映像について説明する。図6は、図4に示したモニタリング画面の映像表示部48に表示される映像の要部を示す説明図である。   Next, the video displayed on the video display unit 48 of the monitoring screen shown in FIG. 4 will be described. FIG. 6 is an explanatory diagram showing the main part of the video displayed on the video display unit 48 of the monitoring screen shown in FIG.

図6(A)に示すように、通常再生モードでは、カメラ1による撮影映像がそのまま表示される。一方、マスク画像設定を行った後のマスク再生モードでは、図6(B)に示すように、人物の画像領域をマスク画像に変更した映像が表示される。この映像では、図6(A)の撮影映像において人物の画像領域が、属性(ここでは男性および女性)別のマスク画像に置き換えられている。また、マスク画像は透過性であるため、背景画像が透けて見える状態となっている。   As shown in FIG. 6A, in the normal playback mode, a video image taken by the camera 1 is displayed as it is. On the other hand, in the mask reproduction mode after setting the mask image, as shown in FIG. 6B, an image in which the person's image area is changed to a mask image is displayed. In this video, the image area of the person in the captured video of FIG. 6A is replaced with a mask image for each attribute (here, male and female). Further, since the mask image is transmissive, the background image can be seen through.

なお、撮影映像を再生する際には、ユーザがいずれの再生モードで再生されているのかを識別できるように、再生モード識別用のアイコンを映像と重畳表示させると良い。また、マスク再生モードの映像表示枠の色を通常再生モードでの映像表示枠の色と異なる表示を行うなどして、再生モードの識別ができるようにしても良い。   When playing back a captured video, a playback mode identification icon may be superimposed on the video so that the user can identify which playback mode is being played back. Further, the playback mode may be identified by displaying the video display frame in the mask playback mode in a different color from the color of the video display frame in the normal playback mode.

以上のように第1実施形態では、属性別、例えば男性と女性とで別のマスク画像が表示されるため、映像に登場する人物の属性を簡単に把握することができ、これにより、人物の属性ごとに人物の行動傾向を把握する作業を効率的に行うことができる。   As described above, in the first embodiment, since different mask images are displayed for each attribute, for example, men and women, it is possible to easily grasp the attributes of the person appearing in the video. It is possible to efficiently perform a task of grasping a person's behavior tendency for each attribute.

なお、人物の属性として、性別と年齢を例に説明したが、公知の人物認識技術を用いて得られる属性として、人物の向き、人種、大人/子供、タイプ(OLやサラリーマン)など、各種の属性の設定が可能である。特に、人物の向きの属性を利用すると、マスク再生モードにおいても、人物ごとの商品に対する嗜好などを把握することができる。   In addition, although sex and age were demonstrated as an example of a person's attribute, various directions, such as a person's direction, a race, an adult / child, a type (OL and office worker), etc. can be acquired as an attribute obtained using a well-known person recognition technique. It is possible to set the attribute. In particular, if the attribute of the direction of the person is used, it is possible to grasp the preference for the product for each person even in the mask reproduction mode.

(第2実施形態)
次に、第2実施形態について説明する。なお、ここで特に言及しない点は第1実施形態と同様である。
(Second Embodiment)
Next, a second embodiment will be described. The points not particularly mentioned here are the same as in the first embodiment.

図7は、第2実施形態に係るモニタリングシステムにおけるPC3の概略構成を示す機能ブロック図である。この第2実施形態では、PC3が、第1実施形態と同様に、監視部31と、人物画像解析部32と、背景画像処理部33と、映像出力制御部34と、マスク画像設定部35と、を備えており、さらにこの第2実施形態では、PC3が、日時設定部71を備えている。   FIG. 7 is a functional block diagram showing a schematic configuration of the PC 3 in the monitoring system according to the second embodiment. In the second embodiment, similarly to the first embodiment, the PC 3 includes a monitoring unit 31, a person image analysis unit 32, a background image processing unit 33, a video output control unit 34, a mask image setting unit 35, and the like. Further, in the second embodiment, the PC 3 includes a date / time setting unit 71.

この第2実施形態では、第1実施形態と同様に、人物の属性(性別および年齢など)別のマスク画像を表示させることができるが、さらに、日時別のマスク画像を表示させることができる。なお、人物の属性別のマスク画像の表示を行わずに日時別のマスク画像のみの表示とする構成も可能である。   In the second embodiment, similarly to the first embodiment, it is possible to display mask images by person attributes (such as sex and age), but it is also possible to display mask images by date and time. Note that it is possible to display only mask images by date and time without displaying mask images by person attributes.

日時設定部71では、撮影日時を指定するユーザの入力操作に応じて、複数の日時を設定する処理が行われる。マスク画像設定部35では、撮影日時および人物の属性ごとにマスク画像を選択するユーザの入力操作に応じて、撮影日時別および人物の属性別のマスク画像を設定する処理が行われる。人物画像解析部32では、日時設定部71で設定された複数の撮影日時の撮影映像を取得して、人物ごとの人物領域情報(人物の画像領域の位置情報)を撮影日時ごとに取得する処理が行われる。   The date and time setting unit 71 performs a process of setting a plurality of dates and times in accordance with a user input operation that specifies the shooting date and time. The mask image setting unit 35 performs a process of setting a mask image for each shooting date and time and for each person attribute according to a user input operation for selecting a mask image for each shooting date and time and a person attribute. The person image analysis unit 32 acquires captured images of a plurality of shooting dates and times set by the date and time setting unit 71 and acquires person area information (position information of person image areas) for each person for each shooting date and time. Is done.

映像出力制御部34では、人物画像解析部32から出力された人物ごとの領域情報に基づき、複数の撮影日時ごとの人物の画像領域を、撮影日時別および人物の属性別のマスク画像に変更した出力映像を生成して出力する処理が行われ、出力映像は、複数の日時における人物ごとのマスク画像が、1つの背景画像上に撮影日時および人物の属性を識別可能に表示されたものとなる。   In the video output control unit 34, based on the region information for each person output from the person image analysis unit 32, the person image region for each of a plurality of shooting dates and times is changed to a mask image for each shooting date and time and for each person attribute. Processing to generate and output an output video is performed, and the output video is a mask image for each person at a plurality of dates and times displayed on one background image so that the shooting date and time and the attributes of the people can be identified. .

この第2実施形態では、マスク画像が、属性および撮影日時に応じて、色、濃淡、パターン、および輪郭線の少なくともいずれかの表示要素を変更することで、属性および撮影日時を識別可能にしたものであり、特に本実施形態では、人物の画像領域の輪郭線の内部を透過性の画像で塗り潰したものとする。   In the second embodiment, the mask image can identify the attribute and the shooting date / time by changing the display element of at least one of color, shading, pattern, and contour line according to the attribute and the shooting date / time. In particular, in this embodiment, it is assumed that the inside of the outline of the person's image area is filled with a transparent image.

次に、モニタ4に表示されるモニタリング画面について説明する。図8は、モニタ4に表示されるモニタリング画面を示す説明図である。   Next, the monitoring screen displayed on the monitor 4 will be described. FIG. 8 is an explanatory diagram showing a monitoring screen displayed on the monitor 4.

この第2実施形態でも、第1実施形態(図4参照)と略同様のモニタリング画面がモニタ4に表示され、このモニタリング画面では、凡例表示部47に、複数の撮影日時および人物の属性ごとに設定されたマスク画像が表示される。   Also in the second embodiment, a monitoring screen that is substantially the same as that of the first embodiment (see FIG. 4) is displayed on the monitor 4. In this monitoring screen, the legend display unit 47 displays a plurality of shooting dates and times and individual attributes. The set mask image is displayed.

次に、属性および撮影日時別にマスク画像を設定する操作について説明する。図9は、モニタ4に表示されるマスク画像設定画面を示す説明図である。   Next, an operation for setting a mask image for each attribute and shooting date / time will be described. FIG. 9 is an explanatory diagram showing a mask image setting screen displayed on the monitor 4.

このマスク画像設定画面は、人物の属性および撮影日時ごとにマスク画像をユーザが指定するものであり、このマスク画像設定画面には、人物属性選択部81と、日時選択部82と、マスク画像選択部83と、設定ボタン84と、設定内容表示部85と、が設けられている。   In this mask image setting screen, the user designates a mask image for each person attribute and shooting date / time. This mask image setting screen includes a person attribute selection unit 81, a date / time selection unit 82, and a mask image selection. A section 83, a setting button 84, and a setting content display section 85 are provided.

人物属性選択部81では、人物の属性(性別および年齢)をプルダウンメニューによりユーザが選択する。日時選択部82では、日時(年、月、日および時間帯)をプルダウンメニューによりユーザが選択する。また、日時選択部82では、優先順位をプルダウンメニューによりユーザが選択する。マスク画像選択部83では、人物属性選択部81で選択した属性および日時選択部82で選択した撮影日時に対応するマスク画像をタイルメニューからユーザが選択する。   In the person attribute selection unit 81, the user selects a person attribute (gender and age) from a pull-down menu. In the date and time selection unit 82, the user selects the date and time (year, month, day and time zone) from the pull-down menu. In the date and time selection unit 82, the user selects a priority order from a pull-down menu. In the mask image selection unit 83, the user selects a mask image corresponding to the attribute selected by the person attribute selection unit 81 and the shooting date / time selected by the date / time selection unit 82 from the tile menu.

この人物属性選択部81、日時選択部82およびマスク画像選択部83で人物の属性および撮影日時とこれに対応するマスク画像を選択して、設定ボタン84を操作すると、設定内容表示部85に、設定内容、すなわち属性および撮影日時別のマスク画像が表示される。この設定操作は少なくとも2回行われ、複数の撮影日時のマスク画像を設定する。図9に示す例では、2つの撮影日時として異なる日の同一の時間帯が設定されている。   When the person attribute selection unit 81, the date and time selection unit 82, and the mask image selection unit 83 select a person attribute and shooting date and time and a corresponding mask image and operate the setting button 84, the setting content display unit 85 is displayed. The setting contents, that is, mask images for each attribute and shooting date / time are displayed. This setting operation is performed at least twice, and a plurality of mask images with shooting dates and times are set. In the example shown in FIG. 9, the same time zone of different dates is set as the two shooting dates and times.

次に、映像出力制御部34で行われる処理の概要、およびモニタリング画面の映像表示部48に表示される映像について説明する。図10は、2つの撮影日時の映像を示す説明図である。図11は、図8に示したモニタリング画面の映像表示部48の要部を示す説明図である。   Next, an outline of processing performed in the video output control unit 34 and video displayed on the video display unit 48 of the monitoring screen will be described. FIG. 10 is an explanatory diagram showing images of two shooting dates and times. FIG. 11 is an explanatory diagram showing a main part of the video display unit 48 of the monitoring screen shown in FIG.

図10(A)は、第1の撮影日時での撮影映像を示す。図10(B)は、第2の撮影日時での撮影映像を示す。映像出力制御部34では、第1の撮影日時の撮影映像内にある人物の画像領域に対応する輪郭を有するマスク画像を生成するとともに、第2の撮影日時の撮影映像内にある人物の画像領域に対応する輪郭を有するマスク画像を生成し、このマスク画像を、背景画像処理部33で生成した背景画像上の対応する位置に重ね合わせる処理が行われる。これにより、図11に示すように、モニタリング画面の映像表示部48にマスク画像が表示される。   FIG. 10A shows a photographed image at the first photographing date and time. FIG. 10B shows a photographed image at the second photographing date and time. The video output control unit 34 generates a mask image having a contour corresponding to the image area of the person in the captured image at the first shooting date and time, and the image area of the person in the captured image at the second shooting date and time. A mask image having an outline corresponding to is generated, and a process of superimposing the mask image on a corresponding position on the background image generated by the background image processing unit 33 is performed. As a result, as shown in FIG. 11, the mask image is displayed on the video display section 48 of the monitoring screen.

ここで、この第2実施形態では、撮影日時が異なるマスク画像を同時に表示させるようにしており、撮影日時が異なるマスク画像が互いに重なり合う場合があり、この撮影日時が異なるマスク画像の表示方法として、この第2実施形態では、図11(A)に示すように、優先順位に基づく表示を行わない通常表示モードと、図11(B)に示すように、優先順位に基づく表示を行う優先表示モードとを選択することができる。   Here, in this second embodiment, mask images with different shooting dates and times are displayed at the same time. Mask images with different shooting dates and times may overlap each other. As a method for displaying mask images with different shooting dates and times, In the second embodiment, as shown in FIG. 11A, a normal display mode in which display based on priority is not performed, and a priority display mode in which display based on priority is performed as shown in FIG. 11B. And can be selected.

図11(A)に示すように、優先順位に基づく表示を行わない通常表示モードでは、日時が異なるマスク画像の重なり合う部分を、マスク画像における他の部分、すなわち別人のマスク画像と重なり合わない部分と識別可能に表示する。図11(A)に示す例では、マスク画像の重なり合う部分を、各マスク画像を合成した画像で表示している。例えば、赤色のマスク画像と青色のマスク画像とが重なり合う部分を紫色で表示し、また、マスク画像の重なり合う部分を、各マスク画像の透過率を加算した透過率で表示する。   As shown in FIG. 11A, in the normal display mode in which display based on the priority order is not performed, an overlapping portion of mask images having different dates and times is a portion that does not overlap another portion of the mask image, that is, another person's mask image. And identifiable. In the example shown in FIG. 11A, the overlapping portion of the mask image is displayed as an image obtained by combining the mask images. For example, the overlapping portion of the red mask image and the blue mask image is displayed in purple, and the overlapping portion of the mask image is displayed with a transmittance obtained by adding the transmittance of each mask image.

図11(B)に示すように、優先順位に基づく表示を行う優先表示モードでは、日時が異なるマスク画像が重なり合う部分を、優先順位が高い日時のマスク画像が、優先順位が低い日時のマスク画像を覆い隠すように表示される。   As shown in FIG. 11B, in the priority display mode in which the display based on the priority order is performed, the mask image with the higher priority date and the mask image with the lower priority date and time are the parts where the mask images with different date and time overlap. Is displayed so as to cover up.

以上のように第2実施形態では、複数の撮影日時別、例えば今日と昨日とで別のマスク画像が表示されるため、映像に登場する人物の撮影日時を簡単に把握することができ、これにより、日時別の人物の行動傾向を把握する作業を効率的に行うことができる。ここで、複数の撮影日時を異なる日の同一時刻とすれば、日ごとの人物の行動傾向を比較することができ、複数の撮影日時を同一の日の朝および夕方の時間帯とすれば、朝および夕方の時間帯ごとの人物の行動傾向を比較することができる。   As described above, in the second embodiment, since different mask images are displayed for a plurality of shooting dates and times, for example, today and yesterday, it is possible to easily grasp the shooting date and time of the person appearing in the video. Thus, it is possible to efficiently perform the work of grasping the behavior tendency of the person by date and time. Here, if a plurality of shooting dates and times are set to the same time on different days, it is possible to compare a person's behavior tendency for each day, and if a plurality of shooting dates and times are set to morning and evening time zones on the same day, It is possible to compare a person's behavior tendency in the morning and evening time zones.

(第3実施形態)
次に、第3実施形態について説明する。なお、ここで特に言及しない点は第1実施形態と同様である。
(Third embodiment)
Next, a third embodiment will be described. The points not particularly mentioned here are the same as in the first embodiment.

図12は、第3実施形態に係るモニタリングシステムにおけるPC3の概略構成を示す機能ブロック図である。この第3実施形態では、PC3が、第1実施形態と同様に、監視部31と、人物画像解析部32と、背景画像処理部33と、映像出力制御部34と、マスク画像設定部35と、を備えており、さらにこの第3実施形態では、PC3が、背景画像解析部91を備えている。   FIG. 12 is a functional block diagram showing a schematic configuration of the PC 3 in the monitoring system according to the third embodiment. In the third embodiment, the PC 3 is similar to the first embodiment in that the monitoring unit 31, the person image analysis unit 32, the background image processing unit 33, the video output control unit 34, the mask image setting unit 35, and the like. Further, in the third embodiment, the PC 3 includes a background image analysis unit 91.

背景画像解析部91では、撮影映像における背景の画像領域における商品の消失および出現に関する物品変化情報を取得する処理が行われる。この背景画像解析処理では、撮影映像から人物の画像(前景画像)を除去した背景画像を複数比較することで、商品の変化状態(消失または出現)を検知し、変化した商品の領域情報(商品の画像領域の位置情報)を取得する。   The background image analysis unit 91 performs a process of acquiring article change information related to the disappearance and appearance of the product in the background image area in the captured video. In this background image analysis processing, a change state (disappearance or appearance) of a product is detected by comparing a plurality of background images obtained by removing a person image (foreground image) from a captured video, and region information (product Position information of the image area).

映像出力制御部34では、背景画像解析部91から出力された物体変化情報に基づき、背景の画像領域における商品の変化(消失または出現)を識別可能に表示した出力映像を生成して出力する処理が行われる。ここで、商品が消失した場合には、消失する以前の映像において商品が存在した画像領域を透過性のマスク画像に変更するようにすればよく、商品が出現した場合には、商品の画像領域に強調表示(ハイライト表示)するようにすればよい。   The video output control unit 34 generates and outputs an output video in which the change (disappearance or appearance) of the product in the background image area is identifiable based on the object change information output from the background image analysis unit 91. Is done. Here, when the product disappears, the image area where the product existed in the video before disappearing may be changed to a transparent mask image. When the product appears, the image area of the product Should be highlighted (highlighted).

なお、商品が出現した場合の強調表示には、適宜な種々の手法を用いればよいが、例えば商品の画像領域の輪郭線を表示するようにしてもよく、さらに、商品が小さくてわかりにくい場合には、点滅などのアニメーション表示を行うようにしてもよい。また、商品が出現した場合に、商品が消失した場合と同様に、商品の画像領域を透過性のマスク画像に変更するようにしてもよい。また、変化(消失または出現)した商品の位置に適宜なマーク画像、例えば○や×などの記号の画像を表示するようにしてもよい。   For highlighting when a product appears, various appropriate methods may be used. For example, the outline of the image area of the product may be displayed, and the product is small and difficult to understand. Alternatively, an animation such as blinking may be displayed. Further, when a product appears, the image area of the product may be changed to a transmissive mask image in the same manner as when the product disappears. In addition, an appropriate mark image, for example, an image of a symbol such as ○ or × may be displayed at the position of the product that has changed (disappeared or appeared).

また、この第3実施形態では、商品の変化状況(消失または出現)を識別可能に表示させるとともに、第1実施形態と同様に、属性別に人物のマスク画像を表示させることができ、マスク画像設定部35において、人物の属性ごとにマスク画像を選択するユーザの入力操作に応じて、マスク画像を設定する処理が行われ、属性判定部38において、撮影映像から検出された人物ごとの属性(性別および年齢など)を判定する処理が行われ、映像出力制御部34において、人物の画像領域を属性別のマスク画像に変更した出力映像を生成して出力する処理が行われる。   In the third embodiment, the change state (disappearance or appearance) of the product can be displayed in an identifiable manner, and a mask image of a person can be displayed for each attribute, as in the first embodiment. In the unit 35, a process of setting a mask image is performed in response to a user's input operation for selecting a mask image for each attribute of the person. In the attribute determination unit 38, the attribute (gender) of each person detected from the captured video is processed. In addition, the video output control unit 34 generates and outputs an output video in which the person's image area is changed to a mask image for each attribute.

次に、モニタ4に表示されるモニタリング画面について説明する。図13は、モニタ4に表示されるモニタリング画面を示す説明図である。   Next, the monitoring screen displayed on the monitor 4 will be described. FIG. 13 is an explanatory diagram showing a monitoring screen displayed on the monitor 4.

この第3実施形態でも、第1実施形態(図4参照)と略同様のモニタリング画面がモニタ4に表示され、このモニタリング画面では、凡例表示部47に、人物の属性ごとに設定されたマスク画像と、消失した商品を表すマスク画像が表示される。   Also in the third embodiment, a monitoring screen that is substantially the same as that of the first embodiment (see FIG. 4) is displayed on the monitor 4. In this monitoring screen, the mask image set for each attribute of the person on the legend display unit 47. Then, a mask image representing the lost product is displayed.

次に、人物の属性別のマスク画像および商品の変化状態(消失および出現)のマスク画像を設定する操作について説明する。図14は、モニタ4に表示されるマスク画像設定画面を示す説明図である。   Next, an operation for setting a mask image for each person attribute and a mask image for a change state (disappearance and appearance) of a product will be described. FIG. 14 is an explanatory diagram showing a mask image setting screen displayed on the monitor 4.

このマスク画像設定画面は、人物の属性別にマスク画像を設定するとともに、商品の変化状態(消失および出現)のマスク画像を設定するものであり、このマスク画像設定画面には、人物設定部101と、商品設定部102と、設定内容表示部103と、が設けられている。   This mask image setting screen sets a mask image for each attribute of a person and sets a mask image of a change state (disappearance and appearance) of a product. The mask image setting screen includes a person setting unit 101 and a mask image setting screen. A product setting unit 102 and a setting content display unit 103 are provided.

人物設定部101には、第1実施形態(図5参照)と同様に、人物属性選択部104と、マスク画像選択部105と、設定ボタン106と、が設けられており、人物属性選択部104で人物の属性(性別および年齢)を選択し、マスク画像選択部105で人物の属性に対応するマスク画像を選択して、設定ボタン106を操作すると、設定内容表示部103に、設定内容、すなわち属性別のマスク画像が表示される。   As in the first embodiment (see FIG. 5), the person setting unit 101 is provided with a person attribute selection unit 104, a mask image selection unit 105, and a setting button 106, and the person attribute selection unit 104 is provided. When the person's attributes (gender and age) are selected with the button, the mask image corresponding to the person's attribute is selected by the mask image selection unit 105 and the setting button 106 is operated, the setting content display unit 103 displays the setting contents, A mask image for each attribute is displayed.

商品設定部102には、変化状態選択部107と、マスク画像選択部108と、設定ボタン109と、が設けられている。変化状態選択部107では、変化状態(消失および出現)をプルダウンメニューによりユーザが選択する。マスク画像選択部108では、変化状態選択部107で選択した変化状態に対応するマスク画像をタイルメニューによりユーザが選択する。この変化状態選択部107およびマスク画像選択部108で変化状態とこれに対応するマスク画像を選択して、設定ボタン109を操作すると、設定内容表示部103に、設定内容、すなわち商品の変化状態のマスク画像が表示される。   The product setting unit 102 includes a change state selection unit 107, a mask image selection unit 108, and a setting button 109. In the change state selection unit 107, the user selects a change state (disappearance and appearance) from a pull-down menu. In the mask image selection unit 108, the user selects a mask image corresponding to the change state selected by the change state selection unit 107 from the tile menu. When the change state and the mask image selection unit 108 select the change state and the corresponding mask image and operate the setting button 109, the setting content display unit 103 displays the setting content, that is, the change state of the product. A mask image is displayed.

次に、映像出力制御部34で行われる処理の概要、および図13に示したモニタリング画面の映像表示部48に表示される映像について説明する。図15および図16は、図13に示したモニタリング画面の映像表示部48の要部を示す説明図である。   Next, an outline of processing performed in the video output control unit 34 and video displayed on the video display unit 48 of the monitoring screen illustrated in FIG. 13 will be described. FIGS. 15 and 16 are explanatory diagrams showing the main part of the video display unit 48 of the monitoring screen shown in FIG.

この第3実施形態では、第1実施形態(図6(A)参照)と同様に、通常再生モードでは、カメラ1による撮影映像がそのまま映像表示部48に表示され、マスク画像設定を行った後のマスク再生モードでは、図15(A),(B)に示すように、人物の画像領域をマスク画像に変更した出力映像が表示される。   In the third embodiment, similarly to the first embodiment (see FIG. 6A), in the normal playback mode, the video image taken by the camera 1 is displayed as it is on the video display unit 48, and the mask image is set. In the mask reproduction mode, as shown in FIGS. 15A and 15B, an output video in which a person's image area is changed to a mask image is displayed.

ここで、図16(A−1)に示すように、陳列棚の前の顧客が商品を持ち去り、図16(A−2)に示すように、陳列棚から商品が消失すると、背景画像解析部91において商品の消失を検知し、映像出力制御部34において、背景画像上の消失した商品の画像領域をマスク画像に変更する処理が行われる。これにより、マスク再生モードでは、図16(B)に示すように、商品が存在した位置にマスク画像が表示される。   Here, when the customer in front of the display shelf takes away the product as shown in FIG. 16A-1 and the product disappears from the display shelf as shown in FIG. 16A-2, background image analysis is performed. The unit 91 detects the disappearance of the product, and the video output control unit 34 performs a process of changing the image area of the disappeared product on the background image to a mask image. Thereby, in the mask reproduction mode, as shown in FIG. 16B, the mask image is displayed at the position where the product is present.

なお、商品の変化状態(消失および出現)を表すマスク画像や強調表示は、商品の変化(消失および出現)の時点から所定の時間が経過したところで表示を終了するようにするとよい。また、商品のマスク画像は、人物のマスク画像と同様に、商品の領域情報(商品の画像領域の位置情報)から、商品の画像領域の輪郭線を生成し、その輪郭線の内部を透過性の画像で塗り潰したものとする。   It should be noted that the display of the mask image and the highlight display indicating the change state (disappearance and appearance) of the product may be terminated when a predetermined time has elapsed from the time of the change (disappearance and appearance) of the product. Similarly to the mask image of a person, the product mask image generates an outline of the product image area from the product area information (position information of the product image area), and the inside of the outline is transparent. It is assumed that the image is filled with

以上のように第3実施形態では、属性別にマスク画像が表示されるため、映像に登場する人物の属性を簡単に把握することができ、これにより、人物の属性ごとに人物の行動傾向を把握する作業を効率的に行うことができる。そして、物品の変化(消失および出現の少なくともいずれか)が識別可能に表示されるため、変化する物品をユーザが識別することができ、これにより、人物の行動とともに商品の変化状況を把握する作業をユーザが効率的に行うことができる。   As described above, in the third embodiment, since the mask image is displayed for each attribute, it is possible to easily grasp the attribute of the person appearing in the video, thereby grasping the behavior tendency of the person for each attribute of the person. Work can be performed efficiently. And since the change (at least one of disappearance and appearance) of the article is displayed in an identifiable manner, the user can identify the changing article, thereby grasping the change status of the article together with the behavior of the person. Can be performed efficiently by the user.

なお、この第3実施形態では、商品の消失および出現の双方を検知して、消失および出現の双方を識別可能に表示した出力映像を生成するようにしたが、商品の消失および出現のいずれか一方のみを対象としてもよい。   In the third embodiment, both the disappearance and appearance of the product are detected, and the output video is displayed so that both the disappearance and appearance can be identified. It is good also considering only one side.

図17は、モニタ4に表示されるモニタリング画面の別の例を示す説明図である。前記の例では、全方位カメラであるカメラ1による撮影映像をパノラマ展開した映像を映像表示部48に表示させるようにしたが、この図17に示す例では、全方位カメラであるカメラ1による撮影映像をそのまま表示させるようにしている。   FIG. 17 is an explanatory diagram illustrating another example of the monitoring screen displayed on the monitor 4. In the above example, the panoramic image of the image captured by the camera 1 that is an omnidirectional camera is displayed on the image display unit 48. In the example shown in FIG. 17, the image is captured by the camera 1 that is an omnidirectional camera. The video is displayed as it is.

以上、本発明を特定の実施形態に基づいて説明したが、これらの実施形態はあくまでも例示であって、本発明はこれらの実施形態によって限定されるものではない。また、上記実施形態に示した本発明に係るモニタリング装置、モニタリングシステムおよびモニタリング方法の各構成要素は、必ずしも全てが必須ではなく、少なくとも本発明の範囲を逸脱しない限りにおいて適宜取捨選択することが可能である。   As mentioned above, although this invention was demonstrated based on specific embodiment, these embodiment is an illustration to the last, Comprising: This invention is not limited by these embodiment. In addition, each component of the monitoring device, the monitoring system, and the monitoring method according to the present invention described in the above embodiment is not necessarily essential, and can be appropriately selected as long as it does not depart from the scope of the present invention. It is.

例えば、第1〜第3の各実施形態では、コンビニエンスストアなどの小売店舗の例について説明したが、このような小売店舗に限定されるものではなく、小売店舗以外の業務形態の店舗に適用することも可能である。さらに、店舗以外の監視エリアを対象とした用途も可能である。   For example, in each of the first to third embodiments, an example of a retail store such as a convenience store has been described. However, the present invention is not limited to such a retail store, and is applied to a store having a business form other than a retail store. It is also possible. Furthermore, it is possible to use for monitoring areas other than stores.

また、第1〜第3の各実施形態では、図2に示したように、カメラ1を、魚眼レンズを用いて360度の撮影範囲を有する全方位カメラとしたが、所定の画角を有するカメラ、いわゆるボックスカメラでも可能である。   In each of the first to third embodiments, as shown in FIG. 2, the camera 1 is an omnidirectional camera having a 360-degree shooting range using a fisheye lens, but a camera having a predetermined angle of view. A so-called box camera is also possible.

また、第1〜第3の各実施形態では、背景画像上に人物ごとのマスク画像を重畳した出力映像を生成するようにしたが、マスク画像のみを表示させ、背景画像を表示させない構成も可能である。   In each of the first to third embodiments, the output video is generated by superimposing the mask image for each person on the background image. However, only the mask image is displayed and the background image is not displayed. It is.

また、第1〜第3の各実施形態では、必要な設定事項をプルダウンメニューやタイルメニューの選択により入力するようにしたが、これに限定されるものではなく、適宜な入力部を画面に設ければよく、ラジオボタンなどで選択するようにしたり、数値を直接入力することができるようにしたりしてもよい。   In the first to third embodiments, necessary setting items are input by selecting a pull-down menu or a tile menu. However, the present invention is not limited to this, and an appropriate input unit is provided on the screen. What is necessary is just to be able to select with a radio button etc., or to be able to input a numerical value directly.

また、第1〜第3の各実施形態では、それぞれに特徴のある種々の構成を示したが、これらの構成は、第1〜第3の各実施形態で示した組み合わせに限定されるものではなく、第1〜第3の各実施形態で別々に示した構成を適宜に組み合わせることも可能である。   Moreover, in each of the first to third embodiments, various configurations having characteristics are shown, but these configurations are not limited to the combinations shown in the first to third embodiments. It is also possible to appropriately combine the configurations shown separately in the first to third embodiments.

また、第1〜第3の各実施形態では、モニタリングに必要な処理を、店舗に設けられたPC3に行わせるようにしたが、この必要な処理を、図1に示したように、本部に設けられたPC11や、クラウドコンピューティングシステムを構成するクラウドコンピュータ21に行わせるようにしてもよい。また、必要な処理を複数の情報処理装置で分担し、IPネットワークやLANなどの通信媒体を介して、複数の情報処理装置の間で情報を受け渡すようにしてもよい。この場合、必要な処理を分担する複数の情報処理装置でモニタリングシステムが構成される。   Further, in each of the first to third embodiments, the processing necessary for monitoring is performed by the PC 3 provided in the store, but this necessary processing is performed in the headquarters as shown in FIG. You may make it carry out to the cloud computer 21 which comprises provided PC11 and a cloud computing system. In addition, necessary processing may be shared by a plurality of information processing apparatuses, and information may be transferred between the plurality of information processing apparatuses via a communication medium such as an IP network or a LAN. In this case, the monitoring system is composed of a plurality of information processing apparatuses that share necessary processing.

このような構成では、モニタリングに必要な処理のうち、少なくとも演算量が大きな処理、例えば人物検出処理を、店舗に設けられたPC3に行わせるようにするとよい。このように構成すると、残りの処理で必要となる情報のデータ量が少なくて済むため、残りの処理を店舗とは異なる場所に設置された情報処理装置、例えば本部に設置されたPC11に行わせるようにしても、通信負荷を軽減することができるため、広域ネットワーク接続形態によるシステムの運用が容易になる。   In such a configuration, it is preferable to cause the PC 3 provided in the store to perform at least a process with a large calculation amount among processes necessary for monitoring, for example, a person detection process. With this configuration, the amount of information required for the remaining processing can be reduced, so that the remaining processing is performed by an information processing apparatus installed at a location different from the store, for example, the PC 11 installed at the headquarters. Even if it does in this way, since communication load can be reduced, operation of the system by a wide area network connection form becomes easy.

また、モニタリングに必要な処理のうち、少なくとも演算量が大きな処理、例えば人物検出処理を、クラウドコンピュータ21に行わせるようにしてもよい。このように構成すると、残りの処理は演算量が小さくて済むため、店舗などのユーザ側に高速な情報処理装置が不要となり、ユーザが負担するコストを軽減することができる。   In addition, among the processes necessary for monitoring, at least a process with a large calculation amount, for example, a person detection process may be performed by the cloud computer 21. If comprised in this way, since the amount of calculations of the remaining processes may be small, a high-speed information processing apparatus will become unnecessary for users, such as a shop, and the cost which a user will bear can be reduced.

また、クラウドコンピュータ21に必要な処理の全部を行わせ、あるいは、必要な処理のうちの少なくとも映像出力制御処理をクラウドコンピュータ21に分担させるようにしてもよく、このように構成すると、店舗や本部に設けられたPC3,11の他に、スマートフォン22やタブレット端末23などの携帯型端末でも映像を表示させることができるようになり、これにより店舗や本部の他に外出先などの任意の場所で店舗内の状況を確認することができる。   In addition, the cloud computer 21 may perform all the necessary processes, or at least the video output control process among the necessary processes may be shared by the cloud computer 21. With this configuration, the store or the head office In addition to the PCs 3 and 11 provided in the mobile phone, the mobile terminal such as the smartphone 22 or the tablet terminal 23 can display the video. You can check the situation in the store.

また、本実施形態では、店舗に設置されたPC3にモニタリングに必要な処理を行わせるとともに、PC3のモニタ4にモニタリング画面やマスク画像設定画面を表示させて、PC3で必要な入力および出力を行うようにしたが、モニタリングに必要な処理を行う情報処理装置とは別の情報処理装置、例えば本部に設置されたPC11やタブレット端末23などの携帯型端末で必要な入力および出力を行うようにしてもよい。   In the present embodiment, the PC 3 installed in the store performs processing necessary for monitoring, and the monitoring screen and mask image setting screen are displayed on the monitor 4 of the PC 3 to perform necessary input and output on the PC 3. However, the necessary input and output are performed on an information processing apparatus different from the information processing apparatus that performs processing necessary for monitoring, for example, a portable terminal such as the PC 11 or the tablet terminal 23 installed in the headquarters. Also good.

また、近年、モニタとして高画質化を追及した4Kテレビなどが開発されており、このような4Kテレビに対応したカメラを採用することで、人物の識別性能を高めることができ、人物が多数存在するような環境下でも、ユーザはマスク再生映像から人物の行動傾向を容易に把握することができる。   In recent years, 4K televisions and the like that have pursued high image quality have been developed as monitors, and by employing a camera that supports such 4K televisions, the ability to identify people can be improved, and there are many people. Even in such an environment, the user can easily grasp the person's behavior tendency from the mask reproduction video.

本発明にかかるモニタリング装置、モニタリングシステムおよびモニタリング方法は、日時別の人物の行動傾向を把握する作業をユーザが効率的に行うことができる効果を有し、監視エリアの撮影映像から検出された人物の画像領域をマスク画像に変更した出力映像を生成して出力するモニタリング装置、モニタリングシステムおよびモニタリング方法などとして有用である。   The monitoring device, the monitoring system, and the monitoring method according to the present invention have the effect that the user can efficiently perform the task of grasping the behavior tendency of the person according to the date and time, and the person detected from the captured video in the monitoring area It is useful as a monitoring device, a monitoring system, a monitoring method, and the like that generate and output an output video in which the image area is changed to a mask image.

1 カメラ
2 レコーダ
3 PC
4 モニタ
6 入力デバイス
12 モニタ
21 クラウドコンピュータ
22 スマートフォン
23 タブレット端末
32 人物画像解析部
33 背景画像処理部
34 映像出力制御部
35 マスク画像設定部
37 人物検出部
38 属性判定部
71 日時設定部
91 背景画像解析部
1 Camera 2 Recorder 3 PC
4 monitor 6 input device 12 monitor 21 cloud computer 22 smartphone 23 tablet terminal 32 human image analysis unit 33 background image processing unit 34 video output control unit 35 mask image setting unit 37 human detection unit 38 attribute determination unit 71 date and time setting unit 91 background image Analysis part

Claims (8)

監視エリアの撮影映像から検出された人物の画像領域をマスク画像に変更した出力映像を生成して出力するモニタリング装置であって、
撮影日時を指定するユーザの入力操作に応じて、複数の撮影日時を設定する日時設定部と、
この日時設定部により設定された複数の撮影日時の前記撮影映像から人物ごとの領域情報を前記撮影日時ごとに取得する人物画像解析部と、
前記撮影日時別の前記マスク画像を設定するマスク画像設定部と、
前記人物画像解析部により前記撮影日時ごとに取得した人物ごとの前記領域情報に基づき、各撮影日時の撮影映像内にある人物の画像領域を前記撮影日時別の前記マスク画像に変更し、これらのマスク画像を背景画像上の対応する位置に重ね合わせた前記出力映像を生成して出力する映像出力制御部と、
を備えたことを特徴とするモニタリング装置。
A monitoring device that generates and outputs an output video in which an image area of a person detected from a captured video in a monitoring area is changed to a mask image,
A date and time setting unit for setting a plurality of shooting dates and times according to a user input operation for specifying shooting dates and times,
A person image analysis unit that acquires area information for each person from the captured video at a plurality of shooting dates and times set by the date and time setting unit for each shooting date and time ;
A mask image setting unit for setting the mask image for each shooting date and time;
Based on the area information for each person acquired by the person image analysis unit for each shooting date and time, the image area of the person in the shooting video for each shooting date and time is changed to the mask image for each shooting date and time , A video output control unit that generates and outputs the output video in which the mask image is superimposed on a corresponding position on the background image; and
A monitoring device comprising:
前記人物画像解析部は、前記撮影映像から検出された人物ごとの属性を判定する属性判定部を有し、
前記マスク画像設定部は、前記撮影日時および前記属性ごとに前記マスク画像を選択するユーザの入力操作に応じて、前記撮影日時および前記属性別の前記マスク画像を設定することを特徴とする請求項1に記載のモニタリング装置。
The person image analysis unit includes an attribute determination unit that determines an attribute for each person detected from the captured video,
The mask image setting unit sets the mask image according to the shooting date and time and the attribute according to an input operation of a user who selects the mask image for each of the shooting date and time and the attribute. The monitoring apparatus according to 1.
前記映像出力制御部は、複数の人物ごとの前記マスク画像が互いに重なり合う場合に、その重なり合う部分を、前記マスク画像における他の部分と識別可能に表示することを特徴とする請求項1または請求項2に記載のモニタリング装置。   2. The video output control unit according to claim 1, wherein when the mask images for a plurality of persons overlap each other, the overlapping portion is displayed so as to be distinguishable from other portions in the mask image. 2. The monitoring device according to 2. 前記日時設定部は、複数の撮影日時に優先順位を付与し、
前記映像出力制御部は、複数の人物ごとの前記マスク画像が互いに重なり合う場合に、その重なり合う部分を、前記優先順位が高い撮影日時の前記マスク画像が、前記優先順位が低い撮影日時の前記マスク画像を覆い隠すように表示することを特徴とする請求項1または請求項2に記載のモニタリング装置。
The date and time setting unit gives priority to a plurality of shooting dates and times,
When the mask images for a plurality of persons overlap each other, the video output control unit is configured such that the mask image at the shooting date with the higher priority is the mask image at the shooting date with the lower priority at the overlapping portion. The monitoring device according to claim 1, wherein the monitoring device is displayed so as to cover the screen.
前記マスク画像は、前記撮影日時に応じて、色、濃淡、パターン、および輪郭線の少なくともいずれかの表示要素を変更することで、前記撮影日時を識別可能にしたことを特徴とする請求項1から請求項4のいずれかに記載のモニタリング装置。   2. The mask image can be identified by changing display elements of at least one of color, shading, pattern, and contour line according to the shooting date and time. The monitoring device according to claim 4. 前記撮影映像から前記背景画像を生成する背景画像処理部をさらに備え、
前記映像出力制御部は、前記背景画像上に透過性の前記マスク画像を重畳した前記出力映像を生成することを特徴とする請求項1から請求項5のいずれかに記載のモニタリング装置。
Further comprising a background image processing unit configured to generate the background image from the captured image,
6. The monitoring apparatus according to claim 1, wherein the video output control unit generates the output video in which the transparent mask image is superimposed on the background image.
監視エリアの撮影映像から検出された人物の画像領域をマスク画像に変更した出力映像を生成して出力するモニタリングシステムであって、
監視エリアを撮影するカメラと、
複数の情報処理装置と、
を有し、
前記複数の情報処理装置のいずれかが、
撮影日時を指定するユーザの入力操作に応じて、複数の撮影日時を設定する日時設定部と、
この日時設定部により設定された複数の撮影日時の前記撮影映像から人物ごとの領域情報を前記撮影日時ごとに取得する人物画像解析部と、
前記撮影日時別の前記マスク画像を設定するマスク画像設定部と、
前記人物画像解析部により前記撮影日時ごとに取得した人物ごとの前記領域情報に基づき、各撮影日時の撮影映像内にある人物の画像領域を前記撮影日時別の前記マスク画像に変更し、これらのマスク画像を背景画像上の対応する位置に重ね合わせた前記出力映像を生成して出力する映像出力制御部と、
を備えたことを特徴とするモニタリングシステム。
A monitoring system that generates and outputs an output video in which an image area of a person detected from a captured video in a monitoring area is changed to a mask image,
A camera that captures the surveillance area;
A plurality of information processing devices;
Have
Any of the plurality of information processing devices
A date and time setting unit for setting a plurality of shooting dates and times according to a user input operation for specifying shooting dates and times,
A person image analysis unit that acquires area information for each person from the captured video at a plurality of shooting dates and times set by the date and time setting unit for each shooting date and time ;
A mask image setting unit for setting the mask image for each shooting date and time;
Based on the area information for each person acquired by the person image analysis unit for each shooting date and time, the image area of the person in the shooting video for each shooting date and time is changed to the mask image for each shooting date and time , A video output control unit that generates and outputs the output video in which the mask image is superimposed on a corresponding position on the background image; and
A monitoring system characterized by comprising
監視エリアの撮影映像から検出された人物の画像領域をマスク画像に変更した出力映像を生成して出力する処理を情報処理装置に行わせるモニタリング方法であって、
撮影日時を指定するユーザの入力操作に応じて、複数の撮影日時を設定する第1のステップと、
この第1のステップにより設定された複数の撮影日時の前記撮影映像から人物ごとの領域情報を前記撮影日時ごとに取得する第2のステップと、
前記撮影日時別の前記マスク画像を設定する第3のステップと、
前記第2のステップにより前記撮影日時ごとに取得した人物ごとの前記領域情報に基づき、各撮影日時の撮影映像内にある人物の画像領域を前記撮影日時別の前記マスク画像に変更し、これらのマスク画像を背景画像上の対応する位置に重ね合わせた前記出力映像を生成して出力する第4のステップと、
を有することを特徴とするモニタリング方法。
A monitoring method for causing an information processing device to perform processing for generating and outputting an output video in which an image area of a person detected from a captured video in a monitoring area is changed to a mask image,
A first step of setting a plurality of shooting dates and times in accordance with a user input operation for specifying shooting dates and times;
A second step of acquiring region information for each person from each of the plurality of shooting dates and times set by the first step for each shooting date and time ;
A third step of setting the mask image for each photographing date and time;
Based on the area information for each person acquired for each shooting date and time in the second step, the image area of the person in the shooting video for each shooting date and time is changed to the mask image for each shooting date and time , A fourth step of generating and outputting the output video in which the mask image is superimposed at a corresponding position on the background image;
The monitoring method characterized by having.
JP2014020515A 2014-02-05 2014-02-05 MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD Active JP5707561B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014020515A JP5707561B1 (en) 2014-02-05 2014-02-05 MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD
US14/613,612 US9693023B2 (en) 2014-02-05 2015-02-04 Monitoring apparatus, monitoring system, and monitoring method
EP15153883.2A EP2905738A1 (en) 2014-02-05 2015-02-05 Monitoring apparatus, monitoring system, and monitoring method
US15/601,091 US10178356B2 (en) 2014-02-05 2017-05-22 Monitoring apparatus, and moving image output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014020515A JP5707561B1 (en) 2014-02-05 2014-02-05 MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD

Publications (2)

Publication Number Publication Date
JP5707561B1 true JP5707561B1 (en) 2015-04-30
JP2015149558A JP2015149558A (en) 2015-08-20

Family

ID=53277135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014020515A Active JP5707561B1 (en) 2014-02-05 2014-02-05 MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD

Country Status (1)

Country Link
JP (1) JP5707561B1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5915960B1 (en) 2015-04-17 2016-05-11 パナソニックIpマネジメント株式会社 Flow line analysis system and flow line analysis method
JP6624852B2 (en) * 2015-08-27 2019-12-25 キヤノン株式会社 Image information generation device, image information generation method, image processing system, and program
JP6558579B2 (en) 2015-12-24 2019-08-14 パナソニックIpマネジメント株式会社 Flow line analysis system and flow line analysis method
JP6665591B2 (en) * 2016-03-03 2020-03-13 沖電気工業株式会社 Information processing apparatus, information processing method, program, and information processing system
US10497130B2 (en) 2016-05-10 2019-12-03 Panasonic Intellectual Property Management Co., Ltd. Moving information analyzing system and moving information analyzing method
JP7039208B2 (en) * 2016-11-02 2022-03-22 キヤノン株式会社 Image processing equipment, image processing methods and programs
JP7280495B2 (en) * 2019-04-01 2023-05-24 日本電信電話株式会社 Information processing system, content generation device, content presentation device, content generation method, content presentation method, and program

Also Published As

Publication number Publication date
JP2015149558A (en) 2015-08-20

Similar Documents

Publication Publication Date Title
JP5834193B2 (en) MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD
JP5707562B1 (en) MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD
JP5834196B2 (en) MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD
US10178356B2 (en) Monitoring apparatus, and moving image output method
JP5866564B1 (en) MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD
JP5707561B1 (en) MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD
US10304032B2 (en) Product monitoring device, product monitoring system, and product monitoring method
JP6256885B2 (en) Facility activity analysis apparatus, facility activity analysis system, and facility activity analysis method
JP6008339B1 (en) Product monitoring device, product monitoring system and product monitoring method
JP5907362B1 (en) Activity status analysis apparatus, activity status analysis system, and activity status analysis method
TWI779343B (en) Method of a state recognition, apparatus thereof, electronic device and computer readable storage medium
US10235574B2 (en) Image-capturing device, recording device, and video output control device
CN105210144B (en) Display control unit, display control method and recording medium
JP6024999B2 (en) Imaging device, recording device, and video output control device
US20190295300A1 (en) Method and Apparatus for Generating Image by Using Multi-Sticker
JP5866542B1 (en) Facility management support apparatus, facility management support system, and facility management support method
JP6176619B2 (en) IMAGING DEVICE, RECORDING DEVICE, VIDEO DISPLAY METHOD, AND COMPUTER PROGRAM
JP6508482B2 (en) Activity situation analysis system and activity situation analysis method
JP2017184288A (en) Imaging device, video recording device, video display method, and computer program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141209

R151 Written notification of patent or utility model registration

Ref document number: 5707561

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151