Nothing Special   »   [go: up one dir, main page]

JP7540307B2 - Image processing device and image processing program - Google Patents

Image processing device and image processing program Download PDF

Info

Publication number
JP7540307B2
JP7540307B2 JP2020189227A JP2020189227A JP7540307B2 JP 7540307 B2 JP7540307 B2 JP 7540307B2 JP 2020189227 A JP2020189227 A JP 2020189227A JP 2020189227 A JP2020189227 A JP 2020189227A JP 7540307 B2 JP7540307 B2 JP 7540307B2
Authority
JP
Japan
Prior art keywords
person
image
area
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020189227A
Other languages
Japanese (ja)
Other versions
JP2022052681A (en
Inventor
亮行 永井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to EP21871907.8A priority Critical patent/EP4220548A4/en
Priority to CN202180061374.2A priority patent/CN116157833A/en
Priority to PCT/JP2021/020804 priority patent/WO2022064774A1/en
Publication of JP2022052681A publication Critical patent/JP2022052681A/en
Priority to US18/187,739 priority patent/US20230230294A1/en
Application granted granted Critical
Publication of JP7540307B2 publication Critical patent/JP7540307B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮像部により撮像された映像を処理する画像処理装置、及び画像処理プログラムに関する。 The present invention relates to an image processing device that processes images captured by an imaging unit, and an image processing program.

2020年現在、COVID-19(以下、新型コロナウイルスという)の感染が世界的に拡大している。新型コロナウイルスの感染予防対策として、マスク、手洗い、ソーシャルディスタンスの確保などが挙げられている。また、物を介した感染を予防するために、人が触れた物をこまめに消毒することが求められている。 As of 2020, COVID-19 (hereafter referred to as the novel coronavirus) infections are spreading worldwide. Measures to prevent infection with the novel coronavirus include wearing masks, washing hands, and maintaining social distance. In addition, to prevent infection through objects, it is recommended that objects that people have touched be frequently disinfected.

会議室やコンベンションホールには大勢の人が集まることがあり、クラスタ感染の危険がある。会議室やコンベンションホールの使用終了後には、念入りに清掃・消毒する必要がある。 Conference rooms and convention halls can attract large numbers of people, posing the risk of cluster infection. After use, conference rooms and convention halls must be thoroughly cleaned and disinfected.

特開2011-257849号公報JP 2011-257849 A

しかしながら、短時間で清掃・消毒する必要がある場合、部屋全体を念入りに清掃・消毒することが難しい。部屋を清掃・消毒する際、ウイルスが付着している可能性がある場所が分かれば、その場所を優先的に消毒することができ、消毒作業を効率化することができる。 However, when cleaning and disinfection are required in a short period of time, it is difficult to thoroughly clean and disinfect the entire room. When cleaning and disinfecting a room, if it is possible to identify areas where the virus may be present, those areas can be disinfected as a priority, making the disinfection process more efficient.

本実施形態はこうした状況に鑑みてなされたものであり、その目的は、ウイルスがどこかに付着している可能性がある空間の効率的な消毒を支援する技術を提供することにある。 This embodiment was made in consideration of these circumstances, and its purpose is to provide technology that assists in the efficient disinfection of spaces where viruses may be present.

上記課題を解決するために、本実施形態のある態様の画像処理装置は、撮像部により撮像された、人物が存在する空間の映像を取得する映像取得部と、取得された映像を解析して、前記空間内で前記人物の検出領域と当該人物の周囲に設定される付随領域を合わせた行動領域を検出する映像解析部と、前記撮像部による撮像開始から、前記人物の移動に伴う全ての行動領域を認識できる表示用画像を生成する画像生成部と、を備える。前記画像生成部は、発話した人物の周囲に設定される付随領域を、発話していない人物の検出領域に付随する付随領域より、目立つ表示態様で表示させる表示用画像を生成する。 In order to solve the above problem, an image processing device according to one aspect of the present embodiment includes an image acquisition unit that acquires an image of a space in which a person exists, captured by an imaging unit, an image analysis unit that analyzes the acquired image to detect an action area in the space that is a combination of a detection area of the person and an associated area set around the person, and an image generation unit that generates a display image that can recognize all action areas associated with the movement of the person from the start of imaging by the imaging unit. The image generation unit generates a display image that displays the associated area set around a person who has spoken in a more noticeable display manner than the associated area associated with the detection area of a person who has not spoken.

なお、以上の構成要素の任意の組合せ、本実施形態の表現を、装置、方法、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本実施形態の態様として有効である。 In addition, any combination of the above components and expressions of this embodiment converted between devices, methods, systems, recording media, computer programs, etc. are also valid aspects of this embodiment.

本実施形態によれば、ウイルスがどこかに付着している可能性がある空間の効率的な消毒を支援することができる。 This embodiment can assist in the efficient disinfection of spaces where viruses may be present.

車両内の撮像装置の設置例を示す図である。FIG. 1 is a diagram illustrating an example of installation of an imaging device in a vehicle. 実施の形態1に係る人物監視システムの構成例を示す図である。1 is a diagram showing a configuration example of a person monitoring system according to a first embodiment; 実施の形態1に係る、車両の走行中に撮像されたフレーム画像の一例を示す図である。4 is a diagram showing an example of a frame image captured while a vehicle is traveling in the first embodiment; FIG. 実施の形態1に係る接触場所画像の一例を示す図である。FIG. 11 is a diagram showing an example of a contact location image according to the first embodiment; 実施の形態1に係る接触場所画像の別の例を示す図である。FIG. 11 is a diagram showing another example of a contact place image according to the first embodiment. 実施の形態2に係る滞在場所画像の第1の例を示す図である。FIG. 13 is a diagram showing a first example of a stay place image according to the second embodiment. 実施の形態2に係る滞在場所画像の第2の例を示す図である。FIG. 13 is a diagram showing a second example of a stay place image according to the second embodiment. 図8(a)-(c)は、実施の形態2に係る滞在場所画像の第3の例を示す図である。8A to 8C are diagrams showing a third example of a stay place image according to the second embodiment. 実施の形態2に係る滞在場所画像の第4の例を示す図である。FIG. 13 is a diagram showing a fourth example of a stay place image according to the second embodiment. 実施の形態2に係る滞在場所画像の第5の例を示す図である。FIG. 13 is a diagram showing a fifth example of a stay place image according to the second embodiment. 実施の形態3に係る人物監視システムの構成例を示す図である。FIG. 13 is a diagram illustrating a configuration example of a person monitoring system according to a third embodiment.

本発明の実施の形態1は、車室内に設置されたカメラで乗員を撮影し、乗員が手で触った場所を監視・記録する人物監視システムに関する。 The first embodiment of the present invention relates to a person monitoring system that captures images of occupants using a camera installed inside the vehicle cabin and monitors and records the places that the occupants touch with their hands.

図1は、車両C1内の撮像装置10の設置例を示す図である。図1では撮像装置10は、ルームミラーに取り付けられている。なお撮像装置10は、センタバイザーやセンタコンソール上に設置されてもよい。また撮像装置10は車室内の天井に、車室内を上から俯瞰するように設置されてもよい。例えば円周魚眼レンズを使用すれば、車室内の半球状の全周囲を画角に収めることができる。 Figure 1 is a diagram showing an example of installation of an imaging device 10 inside a vehicle C1. In Figure 1, the imaging device 10 is attached to the rearview mirror. The imaging device 10 may also be installed on the center visor or center console. The imaging device 10 may also be installed on the ceiling inside the vehicle cabin so as to overlook the interior of the vehicle cabin from above. For example, if a circular fisheye lens is used, the entire hemispherical circumference of the vehicle cabin can be captured in the angle of view.

撮像装置10として、専用のカメラを設置してもよいし、ドライブレコーダや車室内モニタリングシステムのカメラを使用してもよい。車室内モニタリングシステムは、助手席や後部座席を含む車室全体を監視するシステムであり、ドライバの居眠りや脇見に加えて、助手席や後部座席に座っている乗員の数、ドライバを含む乗員全員のシートベルトの着用の有無などを検知することができる。 As the imaging device 10, a dedicated camera may be installed, or a camera from a drive recorder or an in-vehicle monitoring system may be used. The in-vehicle monitoring system is a system that monitors the entire vehicle interior, including the passenger seat and rear seats, and can detect not only whether the driver is dozing or looking away, but also the number of passengers sitting in the passenger seat or rear seats, and whether all passengers, including the driver, are wearing seat belts.

撮像装置10は、レンズ、固体撮像素子、信号処理回路を備える。固体撮像素子には例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサまたはCCD(Charge Coupled Devices)イメージセンサを使用することができる。固体撮像素子は、レンズを介して入射される光を、電気的な映像信号に変換し、信号処理回路に出力する。信号処理回路は、固体撮像素子から入力される映像信号に対して、A/D変換、ノイズ除去などの信号処理を施し、画像処理装置20に出力する。 The imaging device 10 includes a lens, a solid-state imaging element, and a signal processing circuit. For example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor or a CCD (Charge Coupled Devices) image sensor can be used as the solid-state imaging element. The solid-state imaging element converts light incident through the lens into an electrical video signal and outputs it to the signal processing circuit. The signal processing circuit performs signal processing such as A/D conversion and noise removal on the video signal input from the solid-state imaging element, and outputs it to the image processing device 20.

撮像装置10は、距離画像を生成するための深度センサを備えていてもよい。深度センサとして例えば、3D-LiDAR(Light Detection and Ranging)を使用することができる。LiDARは撮影方向にレーザ光を照射し、その反射光を受光するまでの時間を計測して撮影方向にある物体までの距離を検出する。また撮像装置10は2眼のステレオカメラで構成されていてもよい。この場合、深度センサを設けなくても、2つの画像の視差をもとに距離画像を生成することができる。 The imaging device 10 may be equipped with a depth sensor for generating a distance image. For example, a 3D LiDAR (Light Detection and Ranging) can be used as the depth sensor. LiDAR emits laser light in the shooting direction, measures the time it takes to receive the reflected light, and detects the distance to an object in the shooting direction. The imaging device 10 may also be configured with a two-lens stereo camera. In this case, a distance image can be generated based on the parallax of the two images, even without providing a depth sensor.

図2は、実施の形態1に係る人物監視システム1の構成例を示す図である。人物監視システム1は、画像処理装置20、表示装置30、記録媒体40及び音声出力装置50を備える。画像処理装置20は、映像取得部21、映像解析部22、画像保持部23、画像生成部24、及び警告制御部25を含む。これらの構成要素は、ハードウェア資源とソフトウェア資源の協働、またはハードウェア資源のみにより実現できる。ハードウェア資源として、CPU、ROM、RAM、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、ISP(Image Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、その他のLSIを利用できる。ソフトウェア資源としてファームウェアなどのプログラムを利用できる。 Figure 2 is a diagram showing an example of the configuration of a person monitoring system 1 according to the first embodiment. The person monitoring system 1 includes an image processing device 20, a display device 30, a recording medium 40, and an audio output device 50. The image processing device 20 includes a video acquisition unit 21, a video analysis unit 22, an image storage unit 23, an image generation unit 24, and a warning control unit 25. These components can be realized by a combination of hardware resources and software resources, or by hardware resources alone. As hardware resources, a CPU, ROM, RAM, GPU (Graphics Processing Unit), DSP (Digital Signal Processor), ISP (Image Signal Processor), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), and other LSIs can be used. As software resources, programs such as firmware can be used.

画像処理装置20は、専用のIC基板上に実装されてもよいし、カーナビゲーションシステムやドライブレコーダシステムと統合されて実装されてもよい。また画像処理装置20は、スマートフォン、タブレットなどの汎用の情報端末装置の一機能として構成されてもよい。撮像装置10と画像処理装置20間は有線または無線で接続される。画像処理装置20が専用のIC基板上に実装される場合、画像処理装置20と撮像装置10は、同じ筐体内に設置されてもよいし、別々の筐体内に設置されてもよい。 The image processing device 20 may be implemented on a dedicated IC board, or may be integrated with a car navigation system or a drive recorder system. The image processing device 20 may also be configured as one function of a general-purpose information terminal device such as a smartphone or tablet. The imaging device 10 and the image processing device 20 are connected by wire or wirelessly. When the image processing device 20 is implemented on a dedicated IC board, the image processing device 20 and the imaging device 10 may be installed in the same housing or in separate housings.

映像取得部21は、撮像装置10により撮像された映像を取得する。映像解析部22は、映像取得部21により取得された映像を解析する。実施の形態1では映像解析部22は、車室内で乗員が手で触った場所を検出する。 The video acquisition unit 21 acquires the video captured by the imaging device 10. The video analysis unit 22 analyzes the video acquired by the video acquisition unit 21. In the first embodiment, the video analysis unit 22 detects the location in the vehicle cabin that the occupant touched with his/her hand.

映像解析部22は、対象物認識部22a、対象物追尾部22b及び三次元空間認識部22cを含む。対象物認識部22aは、映像取得部21により取得された映像のフレーム内において対象物を探索する。対象物認識部22aは辞書データとして、特定の対象物が写った多数の画像を学習して生成された特定の対象物の識別器を有する。実施の形態1では人物の手の識別器を用意する。人物の手の識別器は少なくとも、手の甲が開いた状態の識別器を含む。なお手の識別器として、様々な状態の手を様々な角度から見た複数の識別器を用意することが好ましい。 The video analysis unit 22 includes an object recognition unit 22a, an object tracking unit 22b, and a three-dimensional space recognition unit 22c. The object recognition unit 22a searches for an object within a frame of the video acquired by the video acquisition unit 21. The object recognition unit 22a has a classifier for a specific object generated by learning a large number of images in which the specific object appears as dictionary data. In the first embodiment, a classifier for a person's hand is prepared. The classifier for the person's hand includes at least a classifier for the back of the hand in an open state. Note that it is preferable to prepare a plurality of classifiers for the hand, which view hands in various states from various angles.

また人物の手の識別器に加えて、車室内に存在する様々な装備品の識別器を用意しておいてもよい。例えば、ステアリング、シートベルト、シフトレバーなどの識別器を用意しておいてもよい。 In addition to the hand identifier, identifiers for various equipment present in the vehicle cabin may also be prepared. For example, identifiers for the steering wheel, seat belt, shift lever, etc. may be prepared.

対象物認識部22aは、映像のフレーム内を各対象物の識別器を用いて探索する。対象物の認識には例えば、HOG(Histograms of Oriented Gradients)特徴量を用いることができる。なお、Haar-like特徴量やLBP(Local Binary Patterns)特徴量などを用いてもよい。フレーム内に対象物が存在する場合、対象物認識部22aは、矩形の検出枠で当該対象物を補足する。 The object recognition unit 22a searches within the video frame using a classifier for each object. For example, HOG (Histograms of Oriented Gradients) features can be used to recognize objects. Haar-like features and LBP (Local Binary Patterns) features may also be used. If an object is present within the frame, the object recognition unit 22a captures the object within a rectangular detection frame.

対象物追尾部22bは、対象物認識部22aが認識した対象物を、後続するフレーム内において追尾する。対象物の追尾には、例えば、パーティクルフィルタやミーンシフト法を使用することができる。実施の形態1では追尾する対象物は、対象物認識部22aにより認識された人物の手である。 The object tracking unit 22b tracks the object recognized by the object recognition unit 22a in the subsequent frames. For example, a particle filter or a mean shift method can be used to track the object. In the first embodiment, the object to be tracked is the hand of a person recognized by the object recognition unit 22a.

三次元空間認識部22cは、撮像装置10から取得された距離画像により特定される三次元空間内に、対象物認識部22aにより検出された対象物をマッピングする。実施の形態1では三次元空間認識部22cは、三次元空間内で、乗員の手が触れた場所を検出する。車室内に存在する装備品も対象物として認識している場合、乗員の手が触れた装備品も特定することができる。 The three-dimensional space recognition unit 22c maps the object detected by the object recognition unit 22a in the three-dimensional space specified by the distance image acquired from the imaging device 10. In the first embodiment, the three-dimensional space recognition unit 22c detects the location in the three-dimensional space touched by the occupant's hand. If equipment present in the vehicle cabin is also recognized as an object, the equipment touched by the occupant's hand can also be identified.

三次元空間認識部22cは、乗員の手が装備品に触れた状態のフレーム画像を検出すると、検出したフレーム画像を画像保持部23に一時保存する。画像保持部23は、フレーム画像を一時的に格納するための揮発性メモリである。 When the three-dimensional space recognition unit 22c detects a frame image in which the occupant's hand is touching an equipment item, it temporarily stores the detected frame image in the image storage unit 23. The image storage unit 23 is a volatile memory for temporarily storing frame images.

画像生成部24は、画像保持部23に格納されたフレーム画像をもとに、撮像装置10による撮像開始から、車室内で乗員が触った全ての接触場所をユーザが認識できる接触場所表示用の画像(以下、接触場所画像という)を生成する。画像生成部24は、接触場所画像として、乗員が手で触った可能性が高い場所ほど目立つ色で表示されるヒートマップ画像を生成してもよい。例えば、接触可能性にもとづき3段階に分類されたヒートマップ画像を生成してもよい。例えば、乗員の手が接触した領域を赤色、接触した可能性がある領域を黄色、接触していない領域を緑色で表示したヒートマップ画像を生成してもよい。なお、接触していない領域は無色としてもよい。 Based on the frame images stored in the image storage unit 23, the image generation unit 24 generates an image for displaying contact locations (hereinafter referred to as a contact location image) that allows the user to recognize all contact locations touched by the occupant in the vehicle cabin from the start of imaging by the imaging device 10. The image generation unit 24 may generate a heat map image as the contact location image, in which the more likely the location is to have been touched by the occupant's hand, the more noticeable the color. For example, a heat map image classified into three levels based on the possibility of contact may be generated. For example, a heat map image may be generated in which areas touched by the occupant's hand are displayed in red, areas that may have been touched in yellow, and areas that have not been touched in green. Note that areas that have not been touched may be colorless.

画像生成部24は、乗員の手が接触した領域の明るさを最も明るく表示させ、接触した可能性がある領域の明るさを次に明るく表示させ、接触していない領域の明るさを最も暗く表示した接触場所画像を生成してもよい。また乗員の手が接触した領域が点滅している接触場所画像を生成してもよい。 The image generating unit 24 may generate a contact location image in which the area touched by the occupant's hand is displayed the brightest, the area that may have been touched is displayed the next brightest, and the area that has not been touched is displayed the darkest. The image generating unit 24 may also generate a contact location image in which the area touched by the occupant's hand is flashing.

表示態様を目立たせる領域は装備品単位であってもよいし、実際に触った領域単位であってもよい。装備品単位で目立たせる場合、例えばシートベルトの一部しか触っていない場合でも、シートベルト全体を目立たせる。 The area in which the display is highlighted may be on an equipment unit basis, or on an area that is actually touched. When highlighting on an equipment unit basis, for example, even if only part of a seat belt is touched, the entire seat belt will be highlighted.

画像生成部24は、乗員が手で触った回数が多い接触場所ほど目立つ表示態様の接触場所画像を生成してもよい。例えば、接触回数が多い接触場所ほど彩度を高くしてもよい。 The image generating unit 24 may generate a contact location image in a display manner that is more noticeable for contact locations that have been touched by the occupant's hands more frequently. For example, the saturation of a contact location may be increased for contact locations that have been touched more frequently.

画像生成部24は、画像保持部23に格納された、乗員の手がどこかに触れている状態の複数のフレーム画像をつなぎ合わせて、接触場所表示用のダイジェスト動画を生成してもよい。また画像生成部24は、乗員の手がどこかに触れている状態の複数のフレーム画像を重畳して、一枚の静止画を生成してもよい。 The image generating unit 24 may connect multiple frame images stored in the image holding unit 23, each showing a state in which the occupant's hand is touching something, to generate a digest video for displaying the contact location. The image generating unit 24 may also superimpose multiple frame images, each showing a state in which the occupant's hand is touching something, to generate a single still image.

なお画像生成部24は、車室内において乗員が手で触った装備品を、テキスト情報で単純に羅列した画像を生成してもよい。この場合、乗員の手が装備品に触れた状態のフレーム画像を画像保持部23に蓄積する必要はなく、乗員の手が触れた装備品を特定するための管理情報を保持しておけばよい。 The image generating unit 24 may generate an image that simply lists, in text information, the equipment that the occupant has touched in the vehicle cabin. In this case, it is not necessary to store in the image storage unit 23 a frame image of the occupant's hand touching the equipment, and it is sufficient to store management information for identifying the equipment that the occupant's hand has touched.

車室内を清掃・消毒しようとしているユーザにより操作部(不図示)に対して、接触場所画像の表示指示操作がなされると、画像生成部24は、接触場所画像を生成し、生成した接触場所画像を表示装置30に表示させる。 When a user who is about to clean and disinfect the interior of the vehicle issues a command to display an image of a contacted place on an operation unit (not shown), the image generation unit 24 generates an image of a contacted place and displays the generated image of a contacted place on the display device 30.

表示装置30は、車両C1内に設置されているカーナビゲーションシステム、ディスプレイオーディオシステムまたはドライブレコーダシステムのディスプレイ(例えば、液晶ディスプレイ、有機ELディスプレイ)であってもよい。また表示装置30は、カーナビゲーションシステム、ディスプレイオーディオシステムまたはドライブレコーダシステムと連携した、スマートフォンまたはタブレットのディスプレイであってもよい。また表示装置30は、車両内に設置されているメータパネル内のディスプレイであってもよい。なお表示装置30は、本実施の形態に係る人物監視システム1に専用のディスプレイであってもよい。 The display device 30 may be a display (e.g., a liquid crystal display, an organic EL display) of a car navigation system, a display audio system, or a drive recorder system installed in the vehicle C1. The display device 30 may also be a display of a smartphone or a tablet linked to the car navigation system, the display audio system, or the drive recorder system. The display device 30 may also be a display in a meter panel installed in the vehicle. The display device 30 may also be a display dedicated to the person monitoring system 1 according to this embodiment.

なお画像生成部24は、車両C1の走行中にリアルタイムに接触場所画像を生成し、表示装置30に表示させてもよい。この場合、乗員が車室内の何かを触ると、接触場所画像が更新される。画像生成部24は、接触場所画像として、撮像装置10により撮像されている映像上に、接触場所を示す注目マーカが重畳されたAR画像を表示装置30に表示させてもよい。 The image generating unit 24 may generate a contact location image in real time while the vehicle C1 is traveling and display it on the display device 30. In this case, when an occupant touches something inside the vehicle cabin, the contact location image is updated. The image generating unit 24 may display, on the display device 30, an AR image in which a focus marker indicating the contact location is superimposed on the video captured by the imaging device 10 as the contact location image.

記録媒体40は、撮像装置10により撮像された映像を記録するための不揮発性の記録媒体である。例えば、半導体メモリカード(例えば、SDカード)や光ディスクを使用することができる。画像生成部24により生成された接触場所画像も記録媒体40に記録することができる。 The recording medium 40 is a non-volatile recording medium for recording the video captured by the imaging device 10. For example, a semiconductor memory card (e.g., an SD card) or an optical disk can be used. The contact location image generated by the image generation unit 24 can also be recorded on the recording medium 40.

以上の説明では、映像解析部22が撮像装置10から距離画像を取得できることを前提とした。撮像装置10に深度センサを設けたり、撮像装置10を二眼構成としたりするとコストが上昇する。以下の説明では、映像解析部22が撮像装置10から距離画像を取得できない場合の処理例を説明する。この処理例では、三次元空間認識部22cは設けられず、二次元の映像のみから車室内で乗員が手で触った場所を検出する。 The above explanation is based on the premise that the video analysis unit 22 can acquire distance images from the imaging device 10. Providing a depth sensor in the imaging device 10 or configuring the imaging device 10 to have a twin-lens configuration increases costs. In the following explanation, a processing example will be described in which the video analysis unit 22 cannot acquire distance images from the imaging device 10. In this processing example, the three-dimensional space recognition unit 22c is not provided, and the location in the vehicle cabin that the occupant has touched with his or her hand is detected from only the two-dimensional image.

この処理例では、車室内において装備品ごとに、乗員が装備品を様々な格好で触っている多数の画像を学習して、乗員が装備品を触っている状態を認識するための複数の識別器を辞書データとして用意する。乗員が装備品を触っている状態を認識するための識別器のセットは、車種ごとに用意されてもよい。この場合、撮像された映像内において各装備品の位置を高精度に特定できるとともに、乗員が装備品を触っているか否かを高精度に判定することができる。 In this processing example, for each piece of equipment in the vehicle cabin, a large number of images of occupants touching the equipment in various positions are learned, and multiple classifiers for recognizing when an occupant is touching the equipment are prepared as dictionary data. A set of classifiers for recognizing when an occupant is touching an equipment item may be prepared for each vehicle model. In this case, the position of each piece of equipment in the captured video can be identified with high accuracy, and it can be determined with high accuracy whether or not an occupant is touching the equipment item.

さらに辞書データとして、マスクをしている人物の顔を認識するための識別器を用意してもよい。また乗員が咳き込んでいる状態を認識するための識別器を用意してもよい。 Furthermore, as dictionary data, a classifier for recognizing the faces of people wearing masks may be prepared. Also, a classifier for recognizing when a passenger is coughing may be prepared.

対象物認識部22aはフレーム画像内において、マスクをしていない乗員を検出した場合、マスク未着用の検出信号を警告制御部25に出力する。対象物認識部22aはフレーム画像内において、咳き込んでいる乗員を検出した場合、咳の検出信号を警告制御部25に出力する。対象物認識部22aはフレーム画像内において、後部座席に座っている二人の乗員間の距離が設定値以下のとき、距離接近の検出信号を警告制御部25に出力する。警告制御部25は、対象物認識部22aからマスク未着用、咳、または距離接近の検出信号を受けると、音声出力装置50に警告音または警告メッセージを出力させる。 When the object recognition unit 22a detects an occupant not wearing a mask in the frame image, it outputs a detection signal of not wearing a mask to the warning control unit 25. When the object recognition unit 22a detects an occupant coughing in the frame image, it outputs a cough detection signal to the warning control unit 25. When the distance between two occupants sitting in the back seat in the frame image is equal to or less than a set value, the object recognition unit 22a outputs a detection signal of approaching to the warning control unit 25. When the warning control unit 25 receives a detection signal of not wearing a mask, coughing, or approaching from the object recognition unit 22a, it causes the audio output device 50 to output a warning sound or warning message.

音声出力装置50は、車両C1内に設置されているカーナビゲーションシステムまたはディスプレイオーディオシステムのスピーカであってもよい。また音声出力装置50は、カーナビゲーションシステム、ディスプレイオーディオシステムまたはドライブレコーダシステムと連携した、スマートフォンまたはタブレットのスピーカであってもよい。なお音声出力装置50は、本実施の形態に係る人物監視システム1に専用のスピーカであってもよい。 The audio output device 50 may be a speaker of a car navigation system or a display audio system installed in the vehicle C1. The audio output device 50 may also be a speaker of a smartphone or a tablet connected to a car navigation system, a display audio system, or a drive recorder system. The audio output device 50 may also be a speaker dedicated to the person monitoring system 1 according to this embodiment.

警告制御部25は、映像解析部22からマスク未着用の検出信号が入力されると、「マスクを着用してください。」といった注意喚起メッセージを音声出力装置50に出力させる。また警告制御部25は、咳の検出信号が入力されると、「換気してください。」、「窓を開けてください。」、「エアコンを外気導入モードにしてください。」、「マイナスイオン発生器を稼働させてください。」といった注意喚起メッセージを音声出力装置50に出力させる。なお本実施の形態に係る人物監視システム1と、車両C1内のエアーコンディショナシステムを連携させてもよい。その場合、警告制御部25は咳の検出信号が入力されると、エアーコンディショナシステムを外気導入モードに自動的に切り替えることができる。 When a detection signal indicating that a mask is not being worn is input from the video analysis unit 22, the warning control unit 25 outputs a warning message such as "Please wear a mask" to the audio output device 50. When a cough detection signal is input, the warning control unit 25 outputs a warning message such as "Please ventilate the room," "Please open a window," "Please set the air conditioner to outside air introduction mode," or "Please operate the negative ion generator" to the audio output device 50. The person monitoring system 1 according to this embodiment may be linked to an air conditioning system in the vehicle C1. In that case, when a cough detection signal is input, the warning control unit 25 can automatically switch the air conditioning system to outside air introduction mode.

警告制御部25は、映像解析部22から距離接近の検出信号が入力されると、「もう少し席の間隔を明けてください。」といった注意喚起メッセージを音声出力装置50に出力させる。なお映像解析部22が後部座席に三人の乗員を検出し、助手席に乗員を検出しない場合、席移動の指示信号を警告制御部25に出力してよい。警告制御部25は、映像解析部22から席移動の指示信号が入力されると、「一人、助手席に移動してください。」といった注意喚起メッセージを音声出力装置50に出力させる。 When a detection signal of approaching distance is input from the video analysis unit 22, the warning control unit 25 outputs a warning message such as "Please move a little more space between seats" to the audio output device 50. If the video analysis unit 22 detects three occupants in the back seat but no occupant in the passenger seat, it may output a seat change instruction signal to the warning control unit 25. When a seat change instruction signal is input from the video analysis unit 22, the warning control unit 25 outputs a warning message such as "One person, please move to the passenger seat" to the audio output device 50.

特定の人物の画像を登録することにより、手で触った場所の監視処理の対象から特定の人物を除外することができる。具体的には、監視処理の対象から除外したい人物の顔を撮像装置10で撮像し、対象物認識部22aの辞書データとして登録する。なお当該人物の顔が写った静止画を、外部から画像処理装置20に入力してもよい。 By registering an image of a specific person, the specific person can be excluded from the monitoring process of places touched by the hand. Specifically, the face of the person to be excluded from the monitoring process is captured by the imaging device 10 and registered as dictionary data in the object recognition unit 22a. Note that a still image showing the face of the person may be input to the image processing device 20 from outside.

対象物認識部22aは、フレーム画像内において人物の顔を認識した場合、当該人物の顔が、除外対象として登録されている人物の顔であるか否か判定する。除外対象の人物の顔である場合、対象物認識部22aまたは三次元空間認識部22cは、当該人物の手を監視対象から除外する。フレーム画像内において認識した人物の顔が、除外対象の人物の顔でない場合、上述した手が触れた場所の検出・記録処理が適用される。 When the object recognition unit 22a recognizes the face of a person in the frame image, it determines whether or not the face of the person is the face of a person registered as an excluded person. If the face is the face of a person to be excluded, the object recognition unit 22a or the three-dimensional space recognition unit 22c excludes the hand of the person from the monitoring target. If the face of a person recognized in the frame image is not the face of a person to be excluded, the above-mentioned process of detecting and recording the location where the hand touched is applied.

除外対象として登録する人物として、車両C1の所有者、及びその家族が考えられる。また、PCR検査、抗原検査または抗体検査の結果から、感染している可能性が低いと判定された人物を登録してもよい。例えば、車両C1の所有者、及びその家族を除外対象として登録することにより、画像処理装置20の負荷を軽減することができる。 The owner of vehicle C1 and his/her family members may be registered as people to be excluded. In addition, people who are determined to be unlikely to be infected based on the results of a PCR test, antigen test, or antibody test may be registered. For example, by registering the owner of vehicle C1 and his/her family members as people to be excluded, the load on the image processing device 20 can be reduced.

図3は、実施の形態1に係る、車両C1の走行中に撮像されたフレーム画像F1の一例を示す図である。このフレーム画像F1では人物として、運転者P1、助手席の同乗者P2、後部座席の二人の同乗者P3、P4が検出されている。車室内にある装備品として、ステアリングO1、センタコンソールO2上にあるボトルホルダO2aなどが検出されている。また、運転者P1の手Dh1が監視対象として追尾されている。なお図示しないが、同乗者P2、P3、P4の手も監視対象となる。 Figure 3 is a diagram showing an example of a frame image F1 captured while a vehicle C1 is traveling according to the first embodiment. In this frame image F1, the following people are detected: a driver P1, a passenger P2 in the front passenger seat, and two passengers P3 and P4 in the rear seats. The steering wheel O1 and a bottle holder O2a on the center console O2 are detected as equipment in the vehicle cabin. In addition, the hand Dh1 of the driver P1 is tracked as a monitoring target. Although not shown, the hands of passengers P2, P3, and P4 are also monitored.

図4は、実施の形態1に係る接触場所画像Ft1の一例を示す図である。車室内を清掃・消毒しようとしているユーザにより接触場所画像Ft1の表示が指示されると、表示装置30に接触場所画像Ft1が表示される。図4では、運転者P1が運転中に、ステアリングO1とボトルホルダO2aを触った例を示している。図4ではステアリングO1と、ボトルホルダO2aを含むセンタコンソールO2全体の領域が赤色でマークされている。 Figure 4 is a diagram showing an example of a contact place image Ft1 according to embodiment 1. When a user who is about to clean and disinfect the vehicle interior issues an instruction to display the contact place image Ft1, the contact place image Ft1 is displayed on the display device 30. Figure 4 shows an example in which the driver P1 touches the steering wheel O1 and the bottle holder O2a while driving. In Figure 4, the steering wheel O1 and the entire area of the center console O2, including the bottle holder O2a, are marked in red.

図5は、実施の形態1に係る接触場所画像Ft2の別の例を示す図である。図5ではステアリングO1とボトルホルダO2aが赤色でマークされ、ボトルホルダO2aが設置されているセンタコンソールO2全体の領域(ボトルホルダO2aの領域を除く)が黄色でマークされている。 Figure 5 is a diagram showing another example of a contact location image Ft2 according to embodiment 1. In Figure 5, the steering wheel O1 and the bottle holder O2a are marked in red, and the entire area of the center console O2 where the bottle holder O2a is installed (excluding the area of the bottle holder O2a) is marked in yellow.

なお接触場所画像Ftは、実際に撮像された車室内の画像上に、ウイルスが存在する可能性がある領域を示す注意マーカが重畳されたものであってもよいし、簡略化された車室内の模式図上に注意マーカが重畳されたものであってもよい。なお乗員が必ず手で触れる装備品(例えば、ステアリング、シフトレバー、ウインカレバー、ドアノブなど)に関しては、デフォルトで注意マーカが重畳されていてもよい。なお接触場所画像Ftは、ヒートマップ画像で生成されてもよい。 The contact location image Ft may be an image of the interior of the vehicle cabin that has a warning marker superimposed on it, indicating areas where the virus may be present, or a simplified schematic diagram of the interior of the vehicle cabin that has a warning marker superimposed on it. For equipment that passengers will always touch with their hands (e.g., steering wheel, shift lever, turn signal lever, door handles, etc.), warning markers may be superimposed by default. The contact location image Ft may be generated using a heat map image.

以上説明したように実施の形態1によれば、乗員が触った可能性がある領域を示す接触場所画像を生成して表示することにより、清掃・消毒しようとしているユーザがどこを優先的に消毒すればよいかを直感的に把握することができる。特に、レンタカー事業者の清掃担当者やガソリンスタンドの店員など、車両C1に乗車していなかった人で、短時間で効率的に車室内を清掃・消毒する必要がある人にとって有効である。もちろん、車両C1に乗車していた人にとっても、乗員全員分の触った場所を把握して記憶していることは困難であるため、接触場所画像を見ながら清掃・消毒することが有用である。 As described above, according to the first embodiment, a contact location image showing areas that may have been touched by occupants is generated and displayed, allowing a user who is about to clean and disinfect to intuitively understand which areas should be disinfected as a priority. This is particularly useful for people who were not in the vehicle C1, such as cleaning staff at rental car companies or gas station attendants, who need to clean and disinfect the interior of the vehicle efficiently in a short amount of time. Of course, it is also difficult for people who were in the vehicle C1 to understand and remember the areas touched by all occupants, so it is useful for them to clean and disinfect while looking at the contact location image.

次に、実施の形態2に係る人物監視システム1を説明する。実施の形態1では、車室内に設置されたカメラで乗員を撮影し、乗員の手を検出して、乗員が手で触った場所を監視・記録する人物監視システム1を説明した。これに対して実施の形態2は、建物内の部屋に設置されたカメラで部屋の中の人物を検出し、人物が滞在した場所を監視・記録する人物監視システム1に関する。 Next, a person monitoring system 1 according to embodiment 2 will be described. In embodiment 1, a person monitoring system 1 was described that captures images of occupants with a camera installed in the vehicle cabin, detects the occupants' hands, and monitors and records the places the occupants touch with their hands. In contrast, embodiment 2 relates to a person monitoring system 1 that detects people in a room in a building with a camera installed in the room, and monitors and records the places where the people are staying.

実施の形態2に係る人物監視システム1は、会議室やコンベンションホールなど、広い室内空間の部屋を監視する例を想定している。一般的に屋内の監視カメラは部屋の天井に設置される。一台の監視カメラで広い部屋を監視する場合、広角に撮影する必要があり、フレーム画像内における人物のサイズが小さくなる。またフレーム画像内に大勢の人物が含まれる場合がある。これに対して実施の形態1では、狭い車室空間を撮影しているため、フレーム画像内の人物のサイズが一定サイズ以下になることがない。また普通車の場合、フレーム画像に含まれる人物の数は最大で5人である。 The person monitoring system 1 according to the second embodiment is assumed to be used to monitor a large indoor space such as a conference room or convention hall. Indoor surveillance cameras are generally installed on the ceiling of a room. When monitoring a large room with a single surveillance camera, wide-angle shooting is required, which reduces the size of people in the frame image. Also, there are cases where a large number of people are included in the frame image. In contrast, in the first embodiment, the narrow vehicle interior space is shot, so the size of people in the frame image never falls below a certain size. Also, for a standard vehicle, the maximum number of people included in the frame image is five.

このように、会議室やコンベンションホールなどに設置される撮像装置10で撮像されたフレーム画像から画像認識により各人物の手を検出し、検出した手を追尾することは難しい。そこで実施の形態2では、人物の頭部または全身を検出し、検出した頭部または全身を追尾する。 As such, it is difficult to detect the hands of each person by image recognition from frame images captured by the imaging device 10 installed in a conference room, convention hall, etc., and to track the detected hands. Therefore, in the second embodiment, the head or entire body of a person is detected, and the detected head or entire body is tracked.

以下の説明では、撮像装置10が部屋の天井の中央に設置され、部屋全体を俯瞰するように撮影する例を想定する。この場合、監視対象は上から見た人物の頭部となる。なお撮像装置10が天井と壁の角に設置され、部屋全体を斜めに見下ろすように撮影してもよい。その場合、監視対象は斜めから見た人物の頭部または全身となる。 In the following explanation, we will assume an example in which the imaging device 10 is installed in the center of the ceiling of a room and captures an image from above of the entire room. In this case, the monitoring target is a person's head as viewed from above. Note that the imaging device 10 may also be installed at the corner of the ceiling and a wall and capture the entire room from an angle looking down. In that case, the monitoring target is a person's head or entire body as viewed from an angle.

画像処理装置20は、PC、タブレット、スマートフォンなどの汎用の情報端末装置の一機能として構成される。画像処理装置20と撮像装置10は有線(例えば、LANケーブルやUSBケーブル)または無線(例えば、無線LAN)で接続され、映像取得部21は撮像装置10から映像を取得する。 The image processing device 20 is configured as one function of a general-purpose information terminal device such as a PC, tablet, or smartphone. The image processing device 20 and the imaging device 10 are connected by wire (e.g., a LAN cable or a USB cable) or wirelessly (e.g., wireless LAN), and the image acquisition unit 21 acquires images from the imaging device 10.

実施の形態2では映像解析部22は、部屋の中で人物が滞在した場所を検出する。対象物認識部22aは辞書データとして、人物の頭部または全身の識別器を有している。また人物の頭部または全身の識別器に加えて、室内に存在する様々な備品の識別器を用意しておいてもよい。例えば、机、椅子などの識別器を用意しておいてもよい。 In the second embodiment, the video analysis unit 22 detects the location in the room where the person has stayed. The object recognition unit 22a has a classifier for the person's head or whole body as dictionary data. In addition to the classifier for the person's head or whole body, classifiers for various furniture present in the room may also be prepared. For example, classifiers for desks, chairs, etc. may be prepared.

対象物認識部22aはフレーム画像内において、人物の検出領域の周囲に付随領域を設定してもよい。例えば、人物を中心として半径1m~2m程度の円に相当する、画像内の領域を付随領域に設定してもよい。以下、人物の検出領域と当該人物の周囲に設定される付随領域を合わせた領域を行動領域と呼ぶ。なお、実空間における距離と画像内における距離の換算比率、及び付随領域の設定範囲は、ユーザが変更可能である。 The object recognition unit 22a may set an associated region around the detection region of the person in the frame image. For example, an area in the image equivalent to a circle with a radius of about 1 m to 2 m centered on the person may be set as the associated region. Hereinafter, the area consisting of the detection region of the person and the associated region set around the person will be referred to as the behavior region. Note that the conversion ratio between the distance in real space and the distance in the image, and the setting range of the associated region can be changed by the user.

対象物追尾部22bは、対象物認識部22aにより認識された人物の頭部または全身を追尾する。フレーム画像内において複数の人物が認識されている場合、人物ごとに追尾する。 The object tracking unit 22b tracks the head or whole body of a person recognized by the object recognition unit 22a. If multiple people are recognized in a frame image, each person is tracked separately.

三次元空間認識部22cは、撮像装置10から取得された距離画像により特定される三次元空間内で、人物が滞在した場所を検出する。室内に存在する備品も対象物として認識している場合、人物が触れたと推定される備品も特定することができる。例えば、人物の行動領域と備品の検出領域に重複部分が発生した場合、当該人物が当該備品に触れたと推定する。 The three-dimensional space recognition unit 22c detects the location where the person stayed within the three-dimensional space identified by the distance image acquired from the imaging device 10. If furniture present in the room is also recognized as an object, it can also identify the furniture that is presumed to have been touched by the person. For example, if there is an overlap between the person's activity area and the detection area of the furniture, it is presumed that the person touched the furniture.

三次元空間認識部22cは、人物が備品に触れたと推定される状態のフレーム画像を検出すると、検出したフレーム画像を画像保持部23に一時保存する。なお実施の形態2では、人物が検出されている全てのフレーム画像を、画像保持部23に一時保存するようにしてもよい。 When the three-dimensional space recognition unit 22c detects a frame image in which it is estimated that a person has touched furniture, it temporarily stores the detected frame image in the image storage unit 23. Note that in the second embodiment, all frame images in which a person is detected may be temporarily stored in the image storage unit 23.

画像生成部24は、画像保持部23に格納されたフレーム画像をもとに、撮像装置10による撮像開始から、室内において人物が滞在した全ての滞在場所をユーザが認識できる滞在場所表示用の画像(以下、滞在場所画像という)を生成する。画像生成部24は、室内における人物の移動軌跡を認識できる滞在場所画像を生成してもよい。また画像生成部24は、室内における人物の移動に伴う、行動領域の軌跡を認識できる滞在場所画像を生成してもよい。 The image generating unit 24 generates, based on the frame images stored in the image holding unit 23, images for displaying stay locations (hereinafter referred to as stay location images) that enable the user to recognize all the stay locations where the person has stayed in the room from the start of imaging by the imaging device 10. The image generating unit 24 may generate a stay location image that enables the user to recognize the movement trajectory of the person in the room. The image generating unit 24 may also generate a stay location image that enables the user to recognize the trajectory of the activity area accompanying the movement of the person in the room.

画像生成部24は、滞在場所画像として、人物が滞在した場所に近い場所ほど目立つ色で表示されるヒートマップ画像を生成してもよい。例えば、人物が滞在した領域を赤色で表示し、付随領域を黄色で表示し、それ以外の領域を緑色(または無色)で表示したヒートマップ画像を生成してもよい。また、人物が滞在した領域を赤色で表示し、人物が滞在した領域から遠ざかるにつれ赤色→黄色→緑色(または無色)と徐々に変化していくヒートマップ画像を生成してもよい。 The image generating unit 24 may generate a heat map image as the stay location image in which areas closer to the places where the person stayed are displayed in more prominent colors. For example, a heat map image may be generated in which the areas where the person stayed are displayed in red, associated areas in yellow, and other areas in green (or colorless). Alternatively, a heat map image may be generated in which the areas where the person stayed are displayed in red, and the color gradually changes from red to yellow to green (or colorless) as the area moves away from the area where the person stayed.

また画像生成部24は、人物が滞在した領域の明るさを最も明るくし、人物が滞在した領域から遠ざかるにつれ明るさを暗くした滞在場所画像を生成してもよい。また人物が滞在した領域が点滅している滞在場所画像を生成してもよい。 The image generating unit 24 may also generate a stay place image in which the brightness of the area where the person stayed is the brightest, and the brightness becomes darker as the person moves away from the area where the person stayed. Also, a stay place image may be generated in which the area where the person stayed blinks.

人物の行動領域と備品の検出領域に重複部分が発生した場合、画像生成部24は、当該備品全体を目立つ表示態様としてもよいし、当該重複部分のみを目立つ表示態様としてもよい。当該備品の床からの高さが推定できる場合、画像生成部24は当該備品の床からの高さが、人物が座った状態または立った状態の手の高さに近いほど、当該備品を目立つ表示態様としてもよい。 When an overlap occurs between a person's activity area and a fixture detection area, the image generation unit 24 may display the entire fixture in a prominent manner, or may display only the overlapping area in a prominent manner. When the height of the fixture from the floor can be estimated, the image generation unit 24 may display the fixture in a prominent manner the closer the height of the fixture from the floor is to the height of the person's hands when seated or standing.

画像生成部24は、複数の人物の検出領域の重複が多い領域ほど、目立つ表示態様としてもよい。例えば、検出領域の重複数が多い領域ほど、彩度を高くしてもよい。なお画像生成部24は、複数の人物の行動領域の重複が多い領域ほど、目立つ表示態様としてもよい。 The image generating unit 24 may display an area in a more noticeable manner, the greater the overlap between the detection areas of multiple people. For example, the greater the overlap between the detection areas, the higher the saturation may be. The image generating unit 24 may display an area in a more noticeable manner, the greater the overlap between the activity areas of multiple people.

画像生成部24は、画像保持部23に格納された、人物の行動領域と備品の検出領域に重複部分が発生している複数のフレーム画像をつなぎ合わせて、滞在場所表示用のダイジェスト動画を生成してもよい。また画像生成部24は、人物の行動領域と備品の検出領域に重複部分が発生している複数のフレーム画像を重畳して、一枚の静止画を生成してもよい。 The image generating unit 24 may generate a digest video for displaying the place of stay by stitching together a plurality of frame images stored in the image holding unit 23, in which there are overlapping areas between the person's activity area and the equipment detection area. The image generating unit 24 may also superimpose a plurality of frame images, in which there are overlapping areas between the person's activity area and the equipment detection area, to generate a single still image.

なお画像生成部24は、室内において人物が触れたと推定される備品を、テキスト情報で単純に羅列した画像を生成してもよい。この場合、フレーム画像を画像保持部23に蓄積する必要はなく、人物が触れたと推定される備品を特定するための管理情報を保持しておけばよい。 The image generating unit 24 may generate an image that simply lists, in text information, the furniture in the room that is presumed to have been touched by the person. In this case, it is not necessary to store the frame image in the image holding unit 23, and it is sufficient to hold management information for identifying the furniture that is presumed to have been touched by the person.

室内を清掃・消毒しようとしているユーザにより操作部(不図示)に対して、滞在場所画像の表示指示操作がなされると、画像生成部24は、滞在場所画像を生成し、生成した滞在場所画像を表示装置30に表示させる。 When a user who is about to clean and disinfect the room issues an instruction to display an image of the place of stay via an operation unit (not shown), the image generation unit 24 generates an image of the place of stay and displays the generated image of the place of stay on the display device 30.

表示装置30は、PC、タブレット、スマートフォンなどの汎用の情報端末装置のディスプレイであってもよい。また表示装置30は当該情報端末装置に接続されたプロジェクタであってよい。その場合、プロジェクタは滞在場所画像をスクリーンに投影させる。また表示装置30は当該情報端末装置に接続されたヘッドマウントディスプレイであってもよい。その場合、ヘッドマウントディスプレイは、滞在場所画像をVR画像で表示させることができる。なお接触場所用の表示映像が立体映像で生成される場合、ヘッドマウントディスプレイは、立体VR映像を表示させることができる。 The display device 30 may be a display of a general-purpose information terminal device such as a PC, tablet, or smartphone. The display device 30 may also be a projector connected to the information terminal device. In this case, the projector projects the image of the place of stay onto a screen. The display device 30 may also be a head-mounted display connected to the information terminal device. In this case, the head-mounted display can display the image of the place of stay as a VR image. Note that if the display image for the contact location is generated as a stereoscopic image, the head-mounted display can display the stereoscopic VR image.

なお画像生成部24は、部屋の使用中(例えば、会議中)に、リアルタイムに滞在場所画像を生成し、表示装置30(例えば、プロジェクタ)に表示させてもよい。この場合、人物が入室または退室したり、部屋の中で人物が場所を移動したりすると滞在場所画像が更新される。画像生成部24は、滞在場所画像として、撮像装置10により撮像されている映像上に、人物の滞在場所を示す注目マーカが重畳されたAR画像を表示装置30に表示させてもよい。 The image generating unit 24 may generate a stay location image in real time while the room is in use (e.g., during a meeting) and display it on the display device 30 (e.g., a projector). In this case, the stay location image is updated when a person enters or leaves the room, or when a person moves within the room. The image generating unit 24 may display, on the display device 30, an AR image in which an attention marker indicating the person's stay location is superimposed on the video captured by the imaging device 10 as the stay location image.

実施の形態2においても、対象物認識部22aはフレーム画像内において、人物間の距離が設定値以下のとき、距離接近の検出信号を警告制御部25に出力することができる。警告制御部25は、対象物認識部22aから距離接近の検出信号を受けると、音声出力装置50に警告音または警告メッセージを出力させる。なお、マスク未着用の人物、または咳き込んでいる人物を検出した場合も、音声出力装置50に警告音または警告メッセージを出力させることができる。 Also in the second embodiment, the object recognition unit 22a can output a distance approach detection signal to the warning control unit 25 when the distance between people in the frame image is equal to or less than a set value. When the warning control unit 25 receives a distance approach detection signal from the object recognition unit 22a, it causes the audio output device 50 to output a warning sound or warning message. Note that, even if a person not wearing a mask or a person coughing is detected, the warning control unit 25 can cause the audio output device 50 to output a warning sound or warning message.

また実施の形態2においても、特定の人物の画像を登録することにより、滞在場所の監視処理の対象から、登録した人物を除外することができる。 Also in the second embodiment, by registering an image of a specific person, the registered person can be excluded from the monitoring process of the place of stay.

図6は、実施の形態2に係る滞在場所画像Fs1の第1の例を示す図である。室内を清掃・消毒しようとしているユーザにより滞在場所画像Fs1の表示が指示されると、表示装置30に滞在場所画像Fs1が表示される。図6では、部屋の使用中に、三人の人物P1、P2、P3が左側の第1の机D1を使用していた場合の滞在場所画像Fs1を示している。右側の第2の机D2は使用されていない。図6では、左側の第1の机D1が注意領域として赤色でマークされる。 Figure 6 is a diagram showing a first example of a stay place image Fs1 according to embodiment 2. When a user who is about to clean and disinfect the room issues an instruction to display the stay place image Fs1, the stay place image Fs1 is displayed on the display device 30. Figure 6 shows a stay place image Fs1 in which three people P1, P2, and P3 are using the first desk D1 on the left side while the room is in use. The second desk D2 on the right side is not in use. In Figure 6, the first desk D1 on the left side is marked in red as an attention area.

対象物認識部22aは各フレーム画像内において、各人物P1、P2、P3の検出領域と第1の机D1の検出領域が重複したか否か、及び各人物P1、P2、P3の検出領域と第2の机D2の検出領域が重複したか否かを判定する。対象物認識部22aは、重複がある机を使用された机(図6では第1の机D1)と判定する。 The object recognition unit 22a determines whether the detection area of each person P1, P2, P3 overlaps with the detection area of the first desk D1 in each frame image, and whether the detection area of each person P1, P2, P3 overlaps with the detection area of the second desk D2. The object recognition unit 22a determines that the desk with the overlap is the desk that has been used (the first desk D1 in FIG. 6).

図7は、実施の形態2に係る滞在場所画像Fs2の第2の例を示す図である。図7では、室内における人物P1の移動軌跡を表示した滞在場所画像Fs2を示している。図7に示す画像において、部屋の出入口が右側にあり、人物P1が第2の机D2及び第1の机D1の下側を左に移動し、第1の机D1の左側を上に移動し、第1の机D1の上側を右に移動して、現在の場所に到達したことを示している。なお、人物P1の周囲に付随領域が付加された行動領域の移動軌跡を表示してもよい。 Fig. 7 is a diagram showing a second example of a stay location image Fs2 according to the second embodiment. Fig. 7 shows a stay location image Fs2 displaying the movement trajectory of person P1 inside a room. In the image shown in Fig. 7, the entrance to the room is on the right side, and person P1 moves left under the second desk D2 and first desk D1, moves up the left side of the first desk D1, and moves right above the first desk D1 to reach the current location. Note that the movement trajectory of the action area with an associated area added around person P1 may also be displayed.

図8(a)-(c)は、実施の形態2に係る滞在場所画像Fs3の第3の例を示す図である。第3の例は、試験会場や大教室など、机と椅子の位置が固定されている部屋の例である。図8(a)に示す滞在場所画像Fs3aでは、左側の第1の椅子S1に第1の人物P1が座っている。右側の第2の椅子S2は空席である。この場合、左側の第1の椅子S1と第1の机D1が注意領域として赤色でマークされる。 Figures 8(a)-(c) are diagrams showing a third example of a stay place image Fs3 according to embodiment 2. The third example is an example of a room where the positions of desks and chairs are fixed, such as an exam hall or a large classroom. In the stay place image Fs3a shown in Figure 8(a), a first person P1 is sitting in the first chair S1 on the left. The second chair S2 on the right is vacant. In this case, the first chair S1 on the left and the first desk D1 are marked in red as attention areas.

図8(b)に示す滞在場所画像Fs3bでは、左側の第1の椅子S1に第1の人物P1が座っており、右側の第2の椅子S2に第2の人物P2が座っている。この場合、左側の第1の椅子S1と第1の机D1、及び右側の第2の椅子S2と第2の机D2の両方が注意領域として赤色でマークされる。 In the stay location image Fs3b shown in FIG. 8(b), a first person P1 is sitting in a first chair S1 on the left side, and a second person P2 is sitting in a second chair S2 on the right side. In this case, both the first chair S1 and the first desk D1 on the left side, and the second chair S2 and the second desk D2 on the right side are marked in red as attention areas.

図8(c)に示す滞在場所画像Fs3cは、右側の第2の椅子S2に座っていた第2の人物P2が退席した後の状態を示している。第2の人物P2が右側の第2の椅子S2と第2の机D2の位置に滞在していたため、第2の人物P2が退席した後も、右側の第2の椅子S2と第2の机D2は注意領域として赤色でマークされる。 The stay location image Fs3c shown in FIG. 8(c) shows the state after the second person P2, who was sitting in the second chair S2 on the right side, has left. Because the second person P2 was staying at the position of the second chair S2 on the right side and the second desk D2, the second chair S2 on the right side and the second desk D2 are marked in red as attention areas even after the second person P2 has left.

図9は、実施の形態2に係る滞在場所画像Fs4の第4の例を示す図である。図6-図8(a)-(c)に示した例では、人物が触れたと推定される机全体の領域を赤色でマークした。これに対して図9に示す第4の例では、机全体の領域のうち、人物が触れた可能性が高い領域のみを注意領域として赤色でマークする。図9では、第1の人物P1の位置から所定距離の第1範囲R1、及び第2の人物P2の位置から所定距離の第2範囲R2が注意領域として赤色でマークされる。このマークされる領域は、人物P1、P2の移動に伴い拡大する。 Figure 9 is a diagram showing a fourth example of a stay location image Fs4 according to the second embodiment. In the examples shown in Figures 6 to 8(a)-(c), the entire area of the desk that is presumed to have been touched by a person is marked in red. In contrast, in the fourth example shown in Figure 9, only the area of the entire desk that is likely to have been touched by a person is marked in red as an attention area. In Figure 9, a first range R1 at a predetermined distance from the position of a first person P1, and a second range R2 at a predetermined distance from the position of a second person P2 are marked in red as attention areas. This marked area expands as the persons P1 and P2 move.

所定距離はソーシャルディスタンスを考慮して、例えば2mに設定される。この所定距離は、マスクの着用の有無により切り替えられてもよい。その場合、マスク未着用の人物の所定距離は、マスク着用の人物の所定距離より長く設定される。 The specified distance is set to, for example, 2 m, taking social distancing into consideration. This specified distance may be switched depending on whether or not a mask is being worn. In that case, the specified distance for a person not wearing a mask is set longer than the specified distance for a person wearing a mask.

また対象物認識部22aが人物の手の動きを検出できる場合、机全体の領域の中で手が動いた範囲を注意領域として赤色でマークしてもよい。その際、机全体の領域の中でマークされる領域は、実際に手の動きを検出した範囲に所定のバッファ領域を加えた領域であってもよい。また机全体の領域の中でマークされる領域は、人物P1、P2の行動領域と重複する領域であってもよい。 In addition, if the object recognition unit 22a can detect the movement of a person's hand, the area within the entire desk where the hand moved may be marked in red as an attention area. In this case, the area marked within the entire desk may be an area where the actual hand movement was detected plus a predetermined buffer area. In addition, the area marked within the entire desk may be an area that overlaps with the activity areas of persons P1 and P2.

なお、第1範囲R1と第2範囲R2の重複範囲R3を、よりレベルの高い注意領域として相対的に目立つ色でマークしてもよい。例えば、第1範囲R1と第2範囲R2のうち、両者が重複していない範囲を緑色でマークし、両者の重複範囲R3を赤色でマークしてもよい。また、一人の人物の所定距離の範囲を緑色でマークし、二人の人物の所定距離の範囲の重複領域を黄色でマークし、三人以上の人物の所定距離の範囲の重複領域を赤色でマークしてもよい。 The overlapping range R3 of the first range R1 and the second range R2 may be marked in a relatively conspicuous color as a higher level attention area. For example, the ranges of the first range R1 and the second range R2 where they do not overlap may be marked in green, and the overlapping range R3 between them may be marked in red. Also, the range of a specified distance for one person may be marked in green, the overlapping range of a specified distance for two people may be marked in yellow, and the overlapping range of a specified distance for three or more people may be marked in red.

図10は、実施の形態2に係る滞在場所画像Fs5の第5の例を示す図である。図10に示す滞在場所画像Fs5では、部屋の中で人物の移動が多い通路の領域R5が注意領域として赤色でマークされている。なお、人物が通路を通った回数に応じて色を変えてもよい。例えば、1~5回は緑色でマークし、6~10回は黄色でマークし、11回以上は赤色でマークしてもよい。なお、図10では通路全体の領域R5を注意領域としてマークしているが、実際に人物が通った移動軌跡、すなわち人物と通路が重複した部分のみをマークしてもよい。 Figure 10 is a diagram showing a fifth example of a stay place image Fs5 according to the second embodiment. In the stay place image Fs5 shown in Figure 10, an area R5 of a passageway in a room where people move around a lot is marked in red as an attention area. Note that the color may be changed depending on the number of times a person has passed through the passageway. For example, 1 to 5 times may be marked in green, 6 to 10 times in yellow, and 11 or more times in red. Note that although the entire passageway area R5 is marked as an attention area in Figure 10, only the actual movement trajectory of the person, i.e., only the part where the person and the passageway overlap, may be marked.

以上説明したように実施の形態2によれば、人物が滞在した領域を示す滞在場所画像を生成して表示することにより、清掃・消毒しようとしているユーザがどこを優先的に消毒すればよいかを直感的に把握することができる。特に、外部の清掃業者など、部屋を使用していなかった(例えば、会議に参加していなかった)人で、短時間で効率的に部屋の中を清掃・消毒する必要がある人にとって有効である。もちろん、部屋を使用していた人にとっても、部屋の中にいた人全員分の動きを把握し記憶していることは困難であるため、滞在場所画像を見ながら清掃・消毒することが有用である。 As described above, according to the second embodiment, by generating and displaying a place-of-stay image showing the area where a person has stayed, a user who is about to clean and disinfect can intuitively understand which areas should be disinfected as a priority. This is particularly useful for people who did not use the room (e.g., did not participate in a meeting), such as external cleaning companies, and who need to clean and disinfect the room efficiently in a short amount of time. Of course, it is also difficult for people who used the room to keep track of and remember the movements of everyone who was in the room, so cleaning and disinfecting while looking at the place-of-stay image is useful.

次に、実施の形態3に係る人物監視システム1を説明する。実施の形態2では、画像生成部24は、室内における人物の移動軌跡を認識できる滞在場所画像を生成し、表示装置30に表示させる例を説明した。実施の形態3ではさらに、室内における人物が発話しているか否かを考慮する。室内でマスクを着用していない人物が発話した場合、飛沫が飛んでいる可能性があり、当該人物の周辺領域にウイルスが存在する可能性が増加する。 Next, a person monitoring system 1 according to a third embodiment will be described. In the second embodiment, an example was described in which the image generating unit 24 generates a stay location image that allows the movement trajectory of a person in a room to be recognized, and displays the image on the display device 30. In the third embodiment, further consideration is given to whether or not a person in the room is speaking. When a person without a mask speaks indoors, droplets may be flying, increasing the possibility that viruses are present in the area surrounding the person.

図11は、実施の形態3に係る人物監視システム1の構成例を示す図である。実施の形態3に係る人物監視システム1は、画像処理装置20、表示装置30、記録媒体40、音声出力装置50、及び集音装置60を備える。画像処理装置20は、映像取得部21、映像解析部22、画像保持部23、画像生成部24、警告制御部25、音声取得部26、及び音声解析部27を含む。以下、実施の形態2との相違点を説明する。 Figure 11 is a diagram showing an example configuration of a person monitoring system 1 according to embodiment 3. The person monitoring system 1 according to embodiment 3 includes an image processing device 20, a display device 30, a recording medium 40, an audio output device 50, and a sound collection device 60. The image processing device 20 includes a video acquisition unit 21, a video analysis unit 22, an image storage unit 23, an image generation unit 24, a warning control unit 25, an audio acquisition unit 26, and an audio analysis unit 27. The differences from embodiment 2 are described below.

集音装置60は、撮像装置10が監視対象としている空間内の音を収集するためのマイクを含む。集音装置60は、撮像装置10に内蔵されていてもよい。集音装置60は、収集した空気振動を電気的な音声信号に変換し、変換した音声信号を画像処理装置20に出力する。 The sound collection device 60 includes a microphone for collecting sounds within the space being monitored by the imaging device 10. The sound collection device 60 may be built into the imaging device 10. The sound collection device 60 converts the collected air vibrations into an electrical audio signal and outputs the converted audio signal to the image processing device 20.

音声取得部26は、集音装置60から音声信号を取得する。音声解析部27は、音声取得部26により取得された音声信号を解析する。音声解析部27は、音声信号のスペクトルを解析して、人間の発話音の有無を検出する。人間の発話音が検出された場合、音声解析部27は、発話者の人数を検出する。さらに音声解析部27は、各発話者の発話回数、累積発話時間、及び声の大きさの少なくとも一つを検出して保持する。なお本実施の形態では、発話内容を認識する必要はないため、音響モデルや言語モデルを使用した解析は不要である。 The voice acquisition unit 26 acquires a voice signal from the sound collection device 60. The voice analysis unit 27 analyzes the voice signal acquired by the voice acquisition unit 26. The voice analysis unit 27 analyzes the spectrum of the voice signal to detect the presence or absence of human speech sounds. If human speech sounds are detected, the voice analysis unit 27 detects the number of speakers. Furthermore, the voice analysis unit 27 detects and retains at least one of the number of times each speaker has spoken, the cumulative speaking time, and the volume of the voice. Note that in this embodiment, there is no need to recognize the content of the speech, and therefore no analysis using an acoustic model or a language model is required.

上述したように映像解析部22は、人物がマスクを着用しているか否かを認識することができる。実施の形態3ではさらに、映像解析部22は、人物の口の種々の状態の識別器を有している。マスクを着用していない人物が検出された場合、映像解析部22は、フレーム画像ごとに人物の口の形を認識し、一連のフレーム画像における口の動きを判別する。映像解析部22は、人物の口の動きから、その人物が発話しているか否か判定する。映像解析部22は、発話者の人数を検出する。さらに映像解析部22は、各発話者の口の開き具合を検出する。 As described above, the video analysis unit 22 can recognize whether or not a person is wearing a mask. In the third embodiment, the video analysis unit 22 further has a classifier for various states of a person's mouth. When a person not wearing a mask is detected, the video analysis unit 22 recognizes the shape of the person's mouth for each frame image and determines the movement of the mouth in a series of frame images. The video analysis unit 22 determines whether or not the person is speaking from the movement of the person's mouth. The video analysis unit 22 detects the number of speakers. Furthermore, the video analysis unit 22 detects the degree to which each speaker's mouth is open.

音声解析部27により検出された発話者の人数より、映像解析部22により発話者と認定された人数が少ない場合、撮像装置10の画角に収まっていない人物が発話している可能性、撮像装置10の方向を向いていない人物が発話している可能性、またはマスクを着用している人物が発話している可能性が考えられる。その場合、映像解析部22は、撮像装置10の方向を向いていない人物とマスクを着用している人物の全てを、発話者とみなしてもよい。 If the number of speakers identified by the video analysis unit 22 is less than the number of speakers detected by the audio analysis unit 27, it is possible that the speaker is not within the field of view of the imaging device 10, that the speaker is not facing the imaging device 10, or that the speaker is wearing a mask. In this case, the video analysis unit 22 may consider all of the speakers who are not facing the imaging device 10 and all of the speakers who are wearing masks.

画像生成部24は、撮像装置10により撮像された人物の内、各人物の発話回数、発話時間、声の大きさ、及び口の開き具合の少なくとも一つを参照して、滞在場所画像内における、各人物の検出領域に付随する付随領域の表示態様を決定する。 The image generation unit 24 determines the display mode of the associated area associated with the detection area of each person in the staying place image by referring to at least one of the number of times each person speaks, the duration of the speech, the volume of the voice, and the degree of mouth opening of each person among the people imaged by the imaging device 10.

画像生成部24は、発話した人物の検出領域に付随する付随領域の面積を、発話していない人物の検出領域に付随する付随領域より大きく設定してもよい。その際、画像生成部24は、当該人物の発話回数が多いほど、当該人物の累積発話時間が長いほど、当該人物の声が大きいほど、または当該人物の口の開き具合が大きいほど、当該人物の検出領域に付随する付随領域の面積を大きく設定してもよい。なお、面積を大きくする付随領域は、当該人物の顔が向いている方向の領域(例えば、180度の領域)だけとしてもよい。 The image generating unit 24 may set the area of the associated area associated with the detection area of a person who has spoken to be larger than the associated area associated with the detection area of a person who has not spoken. In this case, the image generating unit 24 may set the area of the associated area associated with the detection area of the person to be larger the more times the person speaks, the longer the cumulative speaking time of the person, the louder the person's voice, or the wider the opening of the person's mouth. Note that the associated area to be increased in area may only be the area in the direction in which the person's face is facing (for example, the 180-degree area).

画像生成部24は、発話していない人物の検出領域に付随する付随領域の面積を、発話した人物の検出領域に付随する付随領域より小さく設定してもよい。 The image generating unit 24 may set the area of the associated region associated with the detection region of a person who is not speaking to be smaller than the area of the associated region associated with the detection region of a person who is speaking.

画像生成部24は、発話した人物の検出領域に付随する付随領域を、発話していない人物の検出領域に付随する付随領域の色より目立つ色(例えば、赤色や紫色)でマークしてもよい。その際、画像生成部24は、当該人物の発話回数が多いほど、当該人物の累積発話時間が長いほど、当該人物の声が大きいほど、または当該人物の口の開き具合が大きいほど、当該人物の検出領域に付随する付随領域の色を濃くしてもよい。なお、色を濃くする付随領域は、当該人物の顔が向いている方向の領域だけとしてもよい。 The image generating unit 24 may mark the associated area associated with the detection area of a person who has spoken in a color (e.g., red or purple) that stands out more than the color of the associated area associated with the detection area of a person who has not spoken. In this case, the image generating unit 24 may darken the color of the associated area associated with the detection area of the person the more times the person speaks, the longer the cumulative speaking time of the person, the louder the person's voice, or the wider the opening of the person's mouth. Note that the associated areas that are darkened may only be areas in the direction in which the person's face is facing.

例えば、上記図6において、人物P2が第2の机D2の方向に顔を向けて、発話したり、咳き込んだりした場合、画像生成部24は、第2の机D2を赤色でマークする。上記図7においても同様に、人物P1が移動途中に、第2の机D2の方向に顔を向けて、発話したり、咳き込んだりした場合、画像生成部24は、第2の机D2を赤色でマークする。 For example, in FIG. 6 above, if person P2 turns his face toward the second desk D2 and speaks or coughs, the image generation unit 24 marks the second desk D2 in red. Similarly, in FIG. 7 above, if person P1 turns his face toward the second desk D2 and speaks or coughs while moving, the image generation unit 24 marks the second desk D2 in red.

画像生成部24は、発話した人物の検出領域に付随する付随領域の重複が多い領域ほど、色を濃くしてもよい。画像生成部24は、発話していない人物の検出領域に付随する付随領域を、発話した人物の検出領域に付随する付随領域の色より目立たない色(例えば、緑色や無色)でマークしてもよい。 The image generating unit 24 may make the color of an area darker the more overlapping the associated area associated with the detection area of the person who has spoken is. The image generating unit 24 may mark the associated area associated with the detection area of the person who has not spoken in a color (e.g., green or colorless) that is less noticeable than the color of the associated area associated with the detection area of the person who has spoken.

上記図9では、第1の人物P1の位置から所定距離の第1範囲R1、及び第2の人物P2の位置から所定距離の第2範囲R2が注意領域(付随領域)として赤色でマークされる。所定距離は例えば、人物が発話していない場合は1mに設定され、人物が発話した場合は2mに設定されてもよい。発話していない人物の注意領域は、当該人物の手が届く範囲を考慮して1mに設定される。発話した人物の注意領域は、当該人物の飛沫が届く範囲を考慮して2mに設定される。 In FIG. 9 above, a first range R1 at a predetermined distance from the position of a first person P1, and a second range R2 at a predetermined distance from the position of a second person P2 are marked in red as attention areas (attached areas). The predetermined distance may be set to 1 m, for example, when a person is not speaking, and set to 2 m when a person is speaking. The attention area of a person who is not speaking is set to 1 m, taking into account the range that the person's hands can reach. The attention area of a person who is speaking is set to 2 m, taking into account the range that the person's droplets can reach.

画像生成部24は、第1の人物P1と第2の人物P2が会話していない場合、第1範囲R1と第2範囲R2の重複範囲R3を赤色でマークし、第1の人物P1と第2の人物P2が会話した場合、重複範囲R3を紫色でマークしてもよい。ここで、紫色は赤色より注意レベルが上とする。 The image generating unit 24 may mark the overlapping range R3 between the first range R1 and the second range R2 in red when the first person P1 and the second person P2 are not talking, and may mark the overlapping range R3 in purple when the first person P1 and the second person P2 are talking. Here, purple is considered to be a more cautionary color than red.

以上説明したように実施の形態3によれば、人物が滞在した領域を示す滞在場所画像を生成して表示する際、飛沫が飛んだ可能性がある領域を目立つ態様で表示することにより、優先的に清掃・消毒すべき領域を適切に、ユーザに提示することができる。 As described above, according to the third embodiment, when a stay location image showing the area where a person has stayed is generated and displayed, areas where droplets may have spread are prominently displayed, thereby making it possible to appropriately present to the user areas that should be cleaned and disinfected as a priority.

以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described above based on an embodiment. This embodiment is merely an example, and it will be understood by those skilled in the art that various modifications are possible in the combination of each component and each processing process, and that such modifications are also within the scope of the present invention.

実施の形態1において、例えば運転者は運転中、基本的にステアリングを手で握っている。一方で、それ以外の動き(例えば、水を飲むためにボトルホルダを触る動きなど)をしている状態では、ステアリングを握っている通常の状態の画像とは大きく異なる画像となる。対象物認識部22aは、フレーム画像内において運転者がステアリングを手で握っていないフレーム画像を全て画像保持部23に保存してもよい。画像生成部24は、画像保持部23に格納されている複数のフレーム画像をつなぎ合わせて、接触場所表示用のダイジェスト動画を生成してもよい。また画像生成部24は、画像保持部23に格納されている複数のフレーム画像を重畳して、一枚の静止画を生成してもよい。この場合、正確性は低下するが、簡易的に接触場所画像を生成することができる。 In the first embodiment, for example, while driving, the driver basically holds the steering wheel with his/her hands. On the other hand, when the driver is making other movements (for example, touching a bottle holder to drink water), the image is significantly different from the image of the normal state in which the driver is holding the steering wheel. The object recognition unit 22a may store all frame images in which the driver is not holding the steering wheel with his/her hands in the image storage unit 23. The image generation unit 24 may connect multiple frame images stored in the image storage unit 23 to generate a digest video for displaying the contact location. The image generation unit 24 may also superimpose multiple frame images stored in the image storage unit 23 to generate a single still image. In this case, the accuracy is reduced, but the contact location image can be generated simply.

実施の形態2において、対象物認識部22aは、フレーム画像内で人物が検出されたフレーム画像を全て画像保持部23に保存してもよい。画像生成部24は、画像保持部23に格納されている複数のフレーム画像をつなぎ合わせて、滞在場所表示用のダイジェスト動画を生成してもよい。また画像生成部24は、画像保持部23に格納されている複数のフレーム画像を重畳して、一枚の静止画を生成してもよい。この場合、正確性は低下するが、簡易的に滞在場所画像を生成することができる。 In the second embodiment, the object recognition unit 22a may store all frame images in which a person is detected in the frame image in the image storage unit 23. The image generation unit 24 may connect multiple frame images stored in the image storage unit 23 to generate a digest video for displaying the stay location. The image generation unit 24 may also superimpose multiple frame images stored in the image storage unit 23 to generate a single still image. In this case, although accuracy decreases, it is possible to simply generate a stay location image.

実施の形態1では、人物の手を監視対象とし、車室内を監視する例を説明した。この点、人物の手を検出しやすい狭い空間の監視であれば、車室内を監視する例に限定されるものではない。建物内の部屋であっても、数人しか入れない狭い部屋の監視であれば、実施の形態1に係る人物監視システム1が有効に機能する。 In the first embodiment, an example of monitoring the interior of a vehicle is described, with a person's hands as the monitoring target. In this regard, the monitoring is not limited to the example of monitoring the interior of a vehicle, as long as it is a small space where a person's hands are easily detected. Even if it is a room in a building, the person monitoring system 1 according to the first embodiment functions effectively if it is a small room that only a few people can enter.

実施の形態2では、人物自体を監視対象とし、建物内の部屋の中を監視する例を説明した。この点、電車、バス、飛行機、船舶などの移動体の中の室内空間の監視にも、実施の形態2に係る人物監視システム1を適用することができる。また一定範囲の屋外空間の監視にも適用可能である。 In the second embodiment, an example was described in which the person itself is the monitoring target, and the inside of a room in a building is monitored. In this regard, the person monitoring system 1 according to the second embodiment can also be applied to monitoring indoor spaces inside moving objects such as trains, buses, airplanes, and ships. It can also be applied to monitoring outdoor spaces within a certain range.

また新型コロナウイルスは、付着している物質や環境条件に依存するが、最長で7日程度で死滅する。したがって、車両や部屋の使用終了後、設定時間以上が経過している場合は、画像内に注意領域を表示する必要はない。 The new coronavirus also dies in about seven days at the longest, depending on the material it is attached to and the environmental conditions. Therefore, if more than the set time has passed since the vehicle or room was last used, there is no need to display a warning area in the image.

C1 車両、 1 人物監視システム、 10 撮像装置、 20 画像処理装置、 21 映像取得部、 22 映像解析部、 22a 対象物認識部、 22b 対象物追尾部、 22c 三次元空間認識部、 23 画像保持部、 24 画像生成部、 25 警告制御部、 26 音声取得部、 27 音声解析部、 30 表示装置、 40 記録媒体、 50 音声出力装置、 60 集音装置。 C1 vehicle, 1 person monitoring system, 10 imaging device, 20 image processing device, 21 video acquisition section, 22 video analysis section, 22a object recognition section, 22b object tracking section, 22c three-dimensional space recognition section, 23 image storage section, 24 image generation section, 25 warning control section, 26 audio acquisition section, 27 audio analysis section, 30 display device, 40 recording medium, 50 audio output device, 60 audio collection device.

Claims (6)

撮像部により撮像された、人物が存在する空間の映像を取得する映像取得部と、
取得された映像を解析して、前記空間内で前記人物の検出領域と当該人物の周囲に設定される付随領域を合わせた行動領域を検出する映像解析部と、
前記撮像部による撮像開始から、前記人物の移動に伴う全ての行動領域を認識できる表示用画像を生成する画像生成部と、
を備え
前記画像生成部は、発話した人物の周囲に設定される付随領域を、発話していない人物の周囲に設定される付随領域より、目立つ表示態様で表示させる表示用画像を生成する、
画像処理装置。
an image acquisition unit that acquires an image of a space in which a person is present, the image being captured by the imaging unit;
A video analysis unit that analyzes the acquired video and detects a behavior area that is a combination of a detection area of the person and an associated area set around the person in the space;
an image generating unit that generates a display image that allows recognition of an entire action area accompanying the movement of the person from the start of imaging by the imaging unit;
Equipped with
The image generating unit generates a display image in which an associated region set around a person who has spoken is displayed in a more prominent display manner than an associated region set around a person who has not spoken.
Image processing device.
前記画像生成部は、前記人物の行動領域の軌跡が認識できる表示用画像を生成する、
請求項1に記載の画像処理装置。
the image generation unit generates a display image in which a trajectory of the person's activity area can be recognized;
The image processing device according to claim 1 .
前記画像生成部は、人物の行動領域の重複が多い領域ほど、目立つ表示態様で表示させる表示用画像を生成する、
請求項1または2に記載の画像処理装置。
the image generation unit generates a display image in such a manner that an area having a greater overlap of the person's action areas is displayed in a more conspicuous manner;
3. The image processing device according to claim 1 or 2.
前記画像生成部は、前記撮像部により撮像された人物の内、各人物の発話回数、及び口の開き具合の少なくとも一つを参照して、前記表示用画像内における、各人物の検出領域に付随する付随領域の表示態様を決定する、
請求項1から3のいずれか1項に記載の画像処理装置。
the image generation unit determines a display mode of an associated area associated with a detection area of each person in the display image by referring to at least one of the number of times each person speaks and the degree of opening of the mouth of each person among the people imaged by the imaging unit;
The image processing device according to claim 1 .
前記撮像部は、建物内または移動体内に設置され、当該建物内または当該移動体内の一定空間を撮像するための撮像部である、
請求項1から4のいずれか1項に記載の画像処理装置。
The imaging unit is installed in a building or a moving body and is an imaging unit for imaging a certain space in the building or the moving body.
The image processing device according to claim 1 .
撮像部により撮像された、人物が存在する空間の映像を取得する処理と、
取得された映像を解析して、前記空間内で前記人物の検出領域と当該人物の周囲に設定される付随領域を合わせた行動領域を検出する処理と、
前記撮像部による撮像開始から、前記人物の移動に伴う全ての行動領域を認識できる表示用画像を生成する処理と、
をコンピュータに実行させ
前記表示用画像を生成する処理は、発話した人物の周囲に設定される付随領域を、発話していない人物の周囲に設定される随領域より、目立つ表示態様で表示させる表示用画像を生成する、
画像処理プログラム。
A process of acquiring an image of a space in which a person is present, the image being captured by an imaging unit;
A process of analyzing the acquired video to detect a behavior area in the space that is a combination of a detection area of the person and an associated area set around the person ;
A process of generating a display image in which all behavioral areas associated with the movement of the person can be recognized from the start of imaging by the imaging unit;
on the computer ,
The process of generating the display image generates a display image in which an auxiliary region set around a person who has spoken is displayed in a more prominent display manner than an auxiliary region set around a person who has not spoken.
Image processing program.
JP2020189227A 2020-09-23 2020-11-13 Image processing device and image processing program Active JP7540307B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP21871907.8A EP4220548A4 (en) 2020-09-23 2021-06-01 Image processing device and image processing program
CN202180061374.2A CN116157833A (en) 2020-09-23 2021-06-01 Image processing device and image processing program
PCT/JP2021/020804 WO2022064774A1 (en) 2020-09-23 2021-06-01 Image processing device and image processing program
US18/187,739 US20230230294A1 (en) 2020-09-23 2023-03-22 Picture processing device, picture processing method and non-transitory computer-readable recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020158427 2020-09-23
JP2020158427 2020-09-23

Publications (2)

Publication Number Publication Date
JP2022052681A JP2022052681A (en) 2022-04-04
JP7540307B2 true JP7540307B2 (en) 2024-08-27

Family

ID=80948775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020189227A Active JP7540307B2 (en) 2020-09-23 2020-11-13 Image processing device and image processing program

Country Status (1)

Country Link
JP (1) JP7540307B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017122258A1 (en) 2016-01-12 2017-07-20 株式会社日立国際電気 Congestion-state-monitoring system
JP2018022284A (en) 2016-08-02 2018-02-08 パナソニックIpマネジメント株式会社 Customer service monitoring device, customer service monitoring system, and customer service monitoring method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017122258A1 (en) 2016-01-12 2017-07-20 株式会社日立国際電気 Congestion-state-monitoring system
JP2018022284A (en) 2016-08-02 2018-02-08 パナソニックIpマネジメント株式会社 Customer service monitoring device, customer service monitoring system, and customer service monitoring method

Also Published As

Publication number Publication date
JP2022052681A (en) 2022-04-04

Similar Documents

Publication Publication Date Title
US20230079783A1 (en) System, method, and computer program for enabling operation based on user authorization
US11295179B2 (en) Sensor fusion for monitoring an object-of-interest in a region
US7680295B2 (en) Hand-gesture based interface apparatus
DE102018130115B4 (en) Device and method for context-based suppression and amplification of acoustic signals in acoustic environments
IT201900011403A1 (en) DETECTING ILLEGAL USE OF PHONE TO PREVENT THE DRIVER FROM GETTING A FINE
US7183944B2 (en) Vehicle tracking and identification of emergency/law enforcement vehicles
US20150078632A1 (en) Feeling monitoring system
WO2018046015A1 (en) Alarm method, device and terminal for vehicle
CN101326546A (en) image processing device
WO2021189641A1 (en) Left-behind subject detection
WO2004004320A1 (en) Digital processing of video images
CN109636924A (en) Vehicle multi-mode formula augmented reality system based on real traffic information three-dimensional modeling
CN109448409A (en) Method, apparatus, equipment and the computer storage medium of traffic information interaction
JP2014199546A (en) Driving support device and driving support method
CN110238858A (en) A kind of more perception intelligence nurse robots
Martin et al. Real time driver body pose estimation for novel assistance systems
US20230230294A1 (en) Picture processing device, picture processing method and non-transitory computer-readable recording medium
JP7618990B2 (en) Image processing device and image processing program
JP7540307B2 (en) Image processing device and image processing program
Ghidoni et al. A distributed perception infrastructure for robot assisted living
CN103565399B (en) Pupil detection device
JP2012121387A (en) Vehicle interior monitoring device
JP7403196B2 (en) Information processing systems and programs, etc.
WO2020090516A1 (en) Image processing device, image processing method, and program
CN116486383A (en) Smoking behavior recognition method, smoking detection model, device, vehicle, and medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240729

R150 Certificate of patent or registration of utility model

Ref document number: 7540307

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150