JP7540307B2 - Image processing device and image processing program - Google Patents
Image processing device and image processing program Download PDFInfo
- Publication number
- JP7540307B2 JP7540307B2 JP2020189227A JP2020189227A JP7540307B2 JP 7540307 B2 JP7540307 B2 JP 7540307B2 JP 2020189227 A JP2020189227 A JP 2020189227A JP 2020189227 A JP2020189227 A JP 2020189227A JP 7540307 B2 JP7540307 B2 JP 7540307B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- image
- area
- unit
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 33
- 238000003384 imaging method Methods 0.000 claims description 56
- 238000001514 detection method Methods 0.000 claims description 41
- 238000004458 analytical method Methods 0.000 claims description 30
- 238000000034 method Methods 0.000 claims description 10
- 230000000694 effects Effects 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 8
- 230000009471 action Effects 0.000 claims description 5
- 230000003542 behavioural effect Effects 0.000 claims 1
- 238000012544 monitoring process Methods 0.000 description 35
- 238000010586 diagram Methods 0.000 description 23
- 206010011224 Cough Diseases 0.000 description 9
- 241000700605 Viruses Species 0.000 description 5
- 238000004140 cleaning Methods 0.000 description 5
- 208000015181 infectious disease Diseases 0.000 description 4
- 239000003550 marker Substances 0.000 description 4
- 238000004659 sterilization and disinfection Methods 0.000 description 4
- 241000711573 Coronaviridae Species 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000004378 air conditioning Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000249 desinfective effect Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 208000025721 COVID-19 Diseases 0.000 description 1
- 239000000427 antigen Substances 0.000 description 1
- 102000036639 antigens Human genes 0.000 description 1
- 108091007433 antigens Proteins 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Time Recorders, Dirve Recorders, Access Control (AREA)
- Image Analysis (AREA)
Description
本発明は、撮像部により撮像された映像を処理する画像処理装置、及び画像処理プログラムに関する。 The present invention relates to an image processing device that processes images captured by an imaging unit, and an image processing program.
2020年現在、COVID-19(以下、新型コロナウイルスという)の感染が世界的に拡大している。新型コロナウイルスの感染予防対策として、マスク、手洗い、ソーシャルディスタンスの確保などが挙げられている。また、物を介した感染を予防するために、人が触れた物をこまめに消毒することが求められている。 As of 2020, COVID-19 (hereafter referred to as the novel coronavirus) infections are spreading worldwide. Measures to prevent infection with the novel coronavirus include wearing masks, washing hands, and maintaining social distance. In addition, to prevent infection through objects, it is recommended that objects that people have touched be frequently disinfected.
会議室やコンベンションホールには大勢の人が集まることがあり、クラスタ感染の危険がある。会議室やコンベンションホールの使用終了後には、念入りに清掃・消毒する必要がある。 Conference rooms and convention halls can attract large numbers of people, posing the risk of cluster infection. After use, conference rooms and convention halls must be thoroughly cleaned and disinfected.
しかしながら、短時間で清掃・消毒する必要がある場合、部屋全体を念入りに清掃・消毒することが難しい。部屋を清掃・消毒する際、ウイルスが付着している可能性がある場所が分かれば、その場所を優先的に消毒することができ、消毒作業を効率化することができる。 However, when cleaning and disinfection are required in a short period of time, it is difficult to thoroughly clean and disinfect the entire room. When cleaning and disinfecting a room, if it is possible to identify areas where the virus may be present, those areas can be disinfected as a priority, making the disinfection process more efficient.
本実施形態はこうした状況に鑑みてなされたものであり、その目的は、ウイルスがどこかに付着している可能性がある空間の効率的な消毒を支援する技術を提供することにある。 This embodiment was made in consideration of these circumstances, and its purpose is to provide technology that assists in the efficient disinfection of spaces where viruses may be present.
上記課題を解決するために、本実施形態のある態様の画像処理装置は、撮像部により撮像された、人物が存在する空間の映像を取得する映像取得部と、取得された映像を解析して、前記空間内で前記人物の検出領域と当該人物の周囲に設定される付随領域を合わせた行動領域を検出する映像解析部と、前記撮像部による撮像開始から、前記人物の移動に伴う全ての行動領域を認識できる表示用画像を生成する画像生成部と、を備える。前記画像生成部は、発話した人物の周囲に設定される付随領域を、発話していない人物の検出領域に付随する付随領域より、目立つ表示態様で表示させる表示用画像を生成する。 In order to solve the above problem, an image processing device according to one aspect of the present embodiment includes an image acquisition unit that acquires an image of a space in which a person exists, captured by an imaging unit, an image analysis unit that analyzes the acquired image to detect an action area in the space that is a combination of a detection area of the person and an associated area set around the person, and an image generation unit that generates a display image that can recognize all action areas associated with the movement of the person from the start of imaging by the imaging unit. The image generation unit generates a display image that displays the associated area set around a person who has spoken in a more noticeable display manner than the associated area associated with the detection area of a person who has not spoken.
なお、以上の構成要素の任意の組合せ、本実施形態の表現を、装置、方法、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本実施形態の態様として有効である。 In addition, any combination of the above components and expressions of this embodiment converted between devices, methods, systems, recording media, computer programs, etc. are also valid aspects of this embodiment.
本実施形態によれば、ウイルスがどこかに付着している可能性がある空間の効率的な消毒を支援することができる。 This embodiment can assist in the efficient disinfection of spaces where viruses may be present.
本発明の実施の形態1は、車室内に設置されたカメラで乗員を撮影し、乗員が手で触った場所を監視・記録する人物監視システムに関する。 The first embodiment of the present invention relates to a person monitoring system that captures images of occupants using a camera installed inside the vehicle cabin and monitors and records the places that the occupants touch with their hands.
図1は、車両C1内の撮像装置10の設置例を示す図である。図1では撮像装置10は、ルームミラーに取り付けられている。なお撮像装置10は、センタバイザーやセンタコンソール上に設置されてもよい。また撮像装置10は車室内の天井に、車室内を上から俯瞰するように設置されてもよい。例えば円周魚眼レンズを使用すれば、車室内の半球状の全周囲を画角に収めることができる。
Figure 1 is a diagram showing an example of installation of an
撮像装置10として、専用のカメラを設置してもよいし、ドライブレコーダや車室内モニタリングシステムのカメラを使用してもよい。車室内モニタリングシステムは、助手席や後部座席を含む車室全体を監視するシステムであり、ドライバの居眠りや脇見に加えて、助手席や後部座席に座っている乗員の数、ドライバを含む乗員全員のシートベルトの着用の有無などを検知することができる。
As the
撮像装置10は、レンズ、固体撮像素子、信号処理回路を備える。固体撮像素子には例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサまたはCCD(Charge Coupled Devices)イメージセンサを使用することができる。固体撮像素子は、レンズを介して入射される光を、電気的な映像信号に変換し、信号処理回路に出力する。信号処理回路は、固体撮像素子から入力される映像信号に対して、A/D変換、ノイズ除去などの信号処理を施し、画像処理装置20に出力する。
The
撮像装置10は、距離画像を生成するための深度センサを備えていてもよい。深度センサとして例えば、3D-LiDAR(Light Detection and Ranging)を使用することができる。LiDARは撮影方向にレーザ光を照射し、その反射光を受光するまでの時間を計測して撮影方向にある物体までの距離を検出する。また撮像装置10は2眼のステレオカメラで構成されていてもよい。この場合、深度センサを設けなくても、2つの画像の視差をもとに距離画像を生成することができる。
The
図2は、実施の形態1に係る人物監視システム1の構成例を示す図である。人物監視システム1は、画像処理装置20、表示装置30、記録媒体40及び音声出力装置50を備える。画像処理装置20は、映像取得部21、映像解析部22、画像保持部23、画像生成部24、及び警告制御部25を含む。これらの構成要素は、ハードウェア資源とソフトウェア資源の協働、またはハードウェア資源のみにより実現できる。ハードウェア資源として、CPU、ROM、RAM、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、ISP(Image Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、その他のLSIを利用できる。ソフトウェア資源としてファームウェアなどのプログラムを利用できる。
Figure 2 is a diagram showing an example of the configuration of a
画像処理装置20は、専用のIC基板上に実装されてもよいし、カーナビゲーションシステムやドライブレコーダシステムと統合されて実装されてもよい。また画像処理装置20は、スマートフォン、タブレットなどの汎用の情報端末装置の一機能として構成されてもよい。撮像装置10と画像処理装置20間は有線または無線で接続される。画像処理装置20が専用のIC基板上に実装される場合、画像処理装置20と撮像装置10は、同じ筐体内に設置されてもよいし、別々の筐体内に設置されてもよい。
The
映像取得部21は、撮像装置10により撮像された映像を取得する。映像解析部22は、映像取得部21により取得された映像を解析する。実施の形態1では映像解析部22は、車室内で乗員が手で触った場所を検出する。
The
映像解析部22は、対象物認識部22a、対象物追尾部22b及び三次元空間認識部22cを含む。対象物認識部22aは、映像取得部21により取得された映像のフレーム内において対象物を探索する。対象物認識部22aは辞書データとして、特定の対象物が写った多数の画像を学習して生成された特定の対象物の識別器を有する。実施の形態1では人物の手の識別器を用意する。人物の手の識別器は少なくとも、手の甲が開いた状態の識別器を含む。なお手の識別器として、様々な状態の手を様々な角度から見た複数の識別器を用意することが好ましい。
The
また人物の手の識別器に加えて、車室内に存在する様々な装備品の識別器を用意しておいてもよい。例えば、ステアリング、シートベルト、シフトレバーなどの識別器を用意しておいてもよい。 In addition to the hand identifier, identifiers for various equipment present in the vehicle cabin may also be prepared. For example, identifiers for the steering wheel, seat belt, shift lever, etc. may be prepared.
対象物認識部22aは、映像のフレーム内を各対象物の識別器を用いて探索する。対象物の認識には例えば、HOG(Histograms of Oriented Gradients)特徴量を用いることができる。なお、Haar-like特徴量やLBP(Local Binary Patterns)特徴量などを用いてもよい。フレーム内に対象物が存在する場合、対象物認識部22aは、矩形の検出枠で当該対象物を補足する。
The
対象物追尾部22bは、対象物認識部22aが認識した対象物を、後続するフレーム内において追尾する。対象物の追尾には、例えば、パーティクルフィルタやミーンシフト法を使用することができる。実施の形態1では追尾する対象物は、対象物認識部22aにより認識された人物の手である。
The
三次元空間認識部22cは、撮像装置10から取得された距離画像により特定される三次元空間内に、対象物認識部22aにより検出された対象物をマッピングする。実施の形態1では三次元空間認識部22cは、三次元空間内で、乗員の手が触れた場所を検出する。車室内に存在する装備品も対象物として認識している場合、乗員の手が触れた装備品も特定することができる。
The three-dimensional space recognition unit 22c maps the object detected by the
三次元空間認識部22cは、乗員の手が装備品に触れた状態のフレーム画像を検出すると、検出したフレーム画像を画像保持部23に一時保存する。画像保持部23は、フレーム画像を一時的に格納するための揮発性メモリである。
When the three-dimensional space recognition unit 22c detects a frame image in which the occupant's hand is touching an equipment item, it temporarily stores the detected frame image in the
画像生成部24は、画像保持部23に格納されたフレーム画像をもとに、撮像装置10による撮像開始から、車室内で乗員が触った全ての接触場所をユーザが認識できる接触場所表示用の画像(以下、接触場所画像という)を生成する。画像生成部24は、接触場所画像として、乗員が手で触った可能性が高い場所ほど目立つ色で表示されるヒートマップ画像を生成してもよい。例えば、接触可能性にもとづき3段階に分類されたヒートマップ画像を生成してもよい。例えば、乗員の手が接触した領域を赤色、接触した可能性がある領域を黄色、接触していない領域を緑色で表示したヒートマップ画像を生成してもよい。なお、接触していない領域は無色としてもよい。
Based on the frame images stored in the
画像生成部24は、乗員の手が接触した領域の明るさを最も明るく表示させ、接触した可能性がある領域の明るさを次に明るく表示させ、接触していない領域の明るさを最も暗く表示した接触場所画像を生成してもよい。また乗員の手が接触した領域が点滅している接触場所画像を生成してもよい。
The
表示態様を目立たせる領域は装備品単位であってもよいし、実際に触った領域単位であってもよい。装備品単位で目立たせる場合、例えばシートベルトの一部しか触っていない場合でも、シートベルト全体を目立たせる。 The area in which the display is highlighted may be on an equipment unit basis, or on an area that is actually touched. When highlighting on an equipment unit basis, for example, even if only part of a seat belt is touched, the entire seat belt will be highlighted.
画像生成部24は、乗員が手で触った回数が多い接触場所ほど目立つ表示態様の接触場所画像を生成してもよい。例えば、接触回数が多い接触場所ほど彩度を高くしてもよい。
The
画像生成部24は、画像保持部23に格納された、乗員の手がどこかに触れている状態の複数のフレーム画像をつなぎ合わせて、接触場所表示用のダイジェスト動画を生成してもよい。また画像生成部24は、乗員の手がどこかに触れている状態の複数のフレーム画像を重畳して、一枚の静止画を生成してもよい。
The
なお画像生成部24は、車室内において乗員が手で触った装備品を、テキスト情報で単純に羅列した画像を生成してもよい。この場合、乗員の手が装備品に触れた状態のフレーム画像を画像保持部23に蓄積する必要はなく、乗員の手が触れた装備品を特定するための管理情報を保持しておけばよい。
The
車室内を清掃・消毒しようとしているユーザにより操作部(不図示)に対して、接触場所画像の表示指示操作がなされると、画像生成部24は、接触場所画像を生成し、生成した接触場所画像を表示装置30に表示させる。
When a user who is about to clean and disinfect the interior of the vehicle issues a command to display an image of a contacted place on an operation unit (not shown), the
表示装置30は、車両C1内に設置されているカーナビゲーションシステム、ディスプレイオーディオシステムまたはドライブレコーダシステムのディスプレイ(例えば、液晶ディスプレイ、有機ELディスプレイ)であってもよい。また表示装置30は、カーナビゲーションシステム、ディスプレイオーディオシステムまたはドライブレコーダシステムと連携した、スマートフォンまたはタブレットのディスプレイであってもよい。また表示装置30は、車両内に設置されているメータパネル内のディスプレイであってもよい。なお表示装置30は、本実施の形態に係る人物監視システム1に専用のディスプレイであってもよい。
The
なお画像生成部24は、車両C1の走行中にリアルタイムに接触場所画像を生成し、表示装置30に表示させてもよい。この場合、乗員が車室内の何かを触ると、接触場所画像が更新される。画像生成部24は、接触場所画像として、撮像装置10により撮像されている映像上に、接触場所を示す注目マーカが重畳されたAR画像を表示装置30に表示させてもよい。
The
記録媒体40は、撮像装置10により撮像された映像を記録するための不揮発性の記録媒体である。例えば、半導体メモリカード(例えば、SDカード)や光ディスクを使用することができる。画像生成部24により生成された接触場所画像も記録媒体40に記録することができる。
The
以上の説明では、映像解析部22が撮像装置10から距離画像を取得できることを前提とした。撮像装置10に深度センサを設けたり、撮像装置10を二眼構成としたりするとコストが上昇する。以下の説明では、映像解析部22が撮像装置10から距離画像を取得できない場合の処理例を説明する。この処理例では、三次元空間認識部22cは設けられず、二次元の映像のみから車室内で乗員が手で触った場所を検出する。
The above explanation is based on the premise that the
この処理例では、車室内において装備品ごとに、乗員が装備品を様々な格好で触っている多数の画像を学習して、乗員が装備品を触っている状態を認識するための複数の識別器を辞書データとして用意する。乗員が装備品を触っている状態を認識するための識別器のセットは、車種ごとに用意されてもよい。この場合、撮像された映像内において各装備品の位置を高精度に特定できるとともに、乗員が装備品を触っているか否かを高精度に判定することができる。 In this processing example, for each piece of equipment in the vehicle cabin, a large number of images of occupants touching the equipment in various positions are learned, and multiple classifiers for recognizing when an occupant is touching the equipment are prepared as dictionary data. A set of classifiers for recognizing when an occupant is touching an equipment item may be prepared for each vehicle model. In this case, the position of each piece of equipment in the captured video can be identified with high accuracy, and it can be determined with high accuracy whether or not an occupant is touching the equipment item.
さらに辞書データとして、マスクをしている人物の顔を認識するための識別器を用意してもよい。また乗員が咳き込んでいる状態を認識するための識別器を用意してもよい。 Furthermore, as dictionary data, a classifier for recognizing the faces of people wearing masks may be prepared. Also, a classifier for recognizing when a passenger is coughing may be prepared.
対象物認識部22aはフレーム画像内において、マスクをしていない乗員を検出した場合、マスク未着用の検出信号を警告制御部25に出力する。対象物認識部22aはフレーム画像内において、咳き込んでいる乗員を検出した場合、咳の検出信号を警告制御部25に出力する。対象物認識部22aはフレーム画像内において、後部座席に座っている二人の乗員間の距離が設定値以下のとき、距離接近の検出信号を警告制御部25に出力する。警告制御部25は、対象物認識部22aからマスク未着用、咳、または距離接近の検出信号を受けると、音声出力装置50に警告音または警告メッセージを出力させる。
When the
音声出力装置50は、車両C1内に設置されているカーナビゲーションシステムまたはディスプレイオーディオシステムのスピーカであってもよい。また音声出力装置50は、カーナビゲーションシステム、ディスプレイオーディオシステムまたはドライブレコーダシステムと連携した、スマートフォンまたはタブレットのスピーカであってもよい。なお音声出力装置50は、本実施の形態に係る人物監視システム1に専用のスピーカであってもよい。
The
警告制御部25は、映像解析部22からマスク未着用の検出信号が入力されると、「マスクを着用してください。」といった注意喚起メッセージを音声出力装置50に出力させる。また警告制御部25は、咳の検出信号が入力されると、「換気してください。」、「窓を開けてください。」、「エアコンを外気導入モードにしてください。」、「マイナスイオン発生器を稼働させてください。」といった注意喚起メッセージを音声出力装置50に出力させる。なお本実施の形態に係る人物監視システム1と、車両C1内のエアーコンディショナシステムを連携させてもよい。その場合、警告制御部25は咳の検出信号が入力されると、エアーコンディショナシステムを外気導入モードに自動的に切り替えることができる。
When a detection signal indicating that a mask is not being worn is input from the
警告制御部25は、映像解析部22から距離接近の検出信号が入力されると、「もう少し席の間隔を明けてください。」といった注意喚起メッセージを音声出力装置50に出力させる。なお映像解析部22が後部座席に三人の乗員を検出し、助手席に乗員を検出しない場合、席移動の指示信号を警告制御部25に出力してよい。警告制御部25は、映像解析部22から席移動の指示信号が入力されると、「一人、助手席に移動してください。」といった注意喚起メッセージを音声出力装置50に出力させる。
When a detection signal of approaching distance is input from the
特定の人物の画像を登録することにより、手で触った場所の監視処理の対象から特定の人物を除外することができる。具体的には、監視処理の対象から除外したい人物の顔を撮像装置10で撮像し、対象物認識部22aの辞書データとして登録する。なお当該人物の顔が写った静止画を、外部から画像処理装置20に入力してもよい。
By registering an image of a specific person, the specific person can be excluded from the monitoring process of places touched by the hand. Specifically, the face of the person to be excluded from the monitoring process is captured by the
対象物認識部22aは、フレーム画像内において人物の顔を認識した場合、当該人物の顔が、除外対象として登録されている人物の顔であるか否か判定する。除外対象の人物の顔である場合、対象物認識部22aまたは三次元空間認識部22cは、当該人物の手を監視対象から除外する。フレーム画像内において認識した人物の顔が、除外対象の人物の顔でない場合、上述した手が触れた場所の検出・記録処理が適用される。
When the
除外対象として登録する人物として、車両C1の所有者、及びその家族が考えられる。また、PCR検査、抗原検査または抗体検査の結果から、感染している可能性が低いと判定された人物を登録してもよい。例えば、車両C1の所有者、及びその家族を除外対象として登録することにより、画像処理装置20の負荷を軽減することができる。
The owner of vehicle C1 and his/her family members may be registered as people to be excluded. In addition, people who are determined to be unlikely to be infected based on the results of a PCR test, antigen test, or antibody test may be registered. For example, by registering the owner of vehicle C1 and his/her family members as people to be excluded, the load on the
図3は、実施の形態1に係る、車両C1の走行中に撮像されたフレーム画像F1の一例を示す図である。このフレーム画像F1では人物として、運転者P1、助手席の同乗者P2、後部座席の二人の同乗者P3、P4が検出されている。車室内にある装備品として、ステアリングO1、センタコンソールO2上にあるボトルホルダO2aなどが検出されている。また、運転者P1の手Dh1が監視対象として追尾されている。なお図示しないが、同乗者P2、P3、P4の手も監視対象となる。 Figure 3 is a diagram showing an example of a frame image F1 captured while a vehicle C1 is traveling according to the first embodiment. In this frame image F1, the following people are detected: a driver P1, a passenger P2 in the front passenger seat, and two passengers P3 and P4 in the rear seats. The steering wheel O1 and a bottle holder O2a on the center console O2 are detected as equipment in the vehicle cabin. In addition, the hand Dh1 of the driver P1 is tracked as a monitoring target. Although not shown, the hands of passengers P2, P3, and P4 are also monitored.
図4は、実施の形態1に係る接触場所画像Ft1の一例を示す図である。車室内を清掃・消毒しようとしているユーザにより接触場所画像Ft1の表示が指示されると、表示装置30に接触場所画像Ft1が表示される。図4では、運転者P1が運転中に、ステアリングO1とボトルホルダO2aを触った例を示している。図4ではステアリングO1と、ボトルホルダO2aを含むセンタコンソールO2全体の領域が赤色でマークされている。
Figure 4 is a diagram showing an example of a contact place image Ft1 according to
図5は、実施の形態1に係る接触場所画像Ft2の別の例を示す図である。図5ではステアリングO1とボトルホルダO2aが赤色でマークされ、ボトルホルダO2aが設置されているセンタコンソールO2全体の領域(ボトルホルダO2aの領域を除く)が黄色でマークされている。
Figure 5 is a diagram showing another example of a contact location image Ft2 according to
なお接触場所画像Ftは、実際に撮像された車室内の画像上に、ウイルスが存在する可能性がある領域を示す注意マーカが重畳されたものであってもよいし、簡略化された車室内の模式図上に注意マーカが重畳されたものであってもよい。なお乗員が必ず手で触れる装備品(例えば、ステアリング、シフトレバー、ウインカレバー、ドアノブなど)に関しては、デフォルトで注意マーカが重畳されていてもよい。なお接触場所画像Ftは、ヒートマップ画像で生成されてもよい。 The contact location image Ft may be an image of the interior of the vehicle cabin that has a warning marker superimposed on it, indicating areas where the virus may be present, or a simplified schematic diagram of the interior of the vehicle cabin that has a warning marker superimposed on it. For equipment that passengers will always touch with their hands (e.g., steering wheel, shift lever, turn signal lever, door handles, etc.), warning markers may be superimposed by default. The contact location image Ft may be generated using a heat map image.
以上説明したように実施の形態1によれば、乗員が触った可能性がある領域を示す接触場所画像を生成して表示することにより、清掃・消毒しようとしているユーザがどこを優先的に消毒すればよいかを直感的に把握することができる。特に、レンタカー事業者の清掃担当者やガソリンスタンドの店員など、車両C1に乗車していなかった人で、短時間で効率的に車室内を清掃・消毒する必要がある人にとって有効である。もちろん、車両C1に乗車していた人にとっても、乗員全員分の触った場所を把握して記憶していることは困難であるため、接触場所画像を見ながら清掃・消毒することが有用である。 As described above, according to the first embodiment, a contact location image showing areas that may have been touched by occupants is generated and displayed, allowing a user who is about to clean and disinfect to intuitively understand which areas should be disinfected as a priority. This is particularly useful for people who were not in the vehicle C1, such as cleaning staff at rental car companies or gas station attendants, who need to clean and disinfect the interior of the vehicle efficiently in a short amount of time. Of course, it is also difficult for people who were in the vehicle C1 to understand and remember the areas touched by all occupants, so it is useful for them to clean and disinfect while looking at the contact location image.
次に、実施の形態2に係る人物監視システム1を説明する。実施の形態1では、車室内に設置されたカメラで乗員を撮影し、乗員の手を検出して、乗員が手で触った場所を監視・記録する人物監視システム1を説明した。これに対して実施の形態2は、建物内の部屋に設置されたカメラで部屋の中の人物を検出し、人物が滞在した場所を監視・記録する人物監視システム1に関する。
Next, a
実施の形態2に係る人物監視システム1は、会議室やコンベンションホールなど、広い室内空間の部屋を監視する例を想定している。一般的に屋内の監視カメラは部屋の天井に設置される。一台の監視カメラで広い部屋を監視する場合、広角に撮影する必要があり、フレーム画像内における人物のサイズが小さくなる。またフレーム画像内に大勢の人物が含まれる場合がある。これに対して実施の形態1では、狭い車室空間を撮影しているため、フレーム画像内の人物のサイズが一定サイズ以下になることがない。また普通車の場合、フレーム画像に含まれる人物の数は最大で5人である。
The
このように、会議室やコンベンションホールなどに設置される撮像装置10で撮像されたフレーム画像から画像認識により各人物の手を検出し、検出した手を追尾することは難しい。そこで実施の形態2では、人物の頭部または全身を検出し、検出した頭部または全身を追尾する。
As such, it is difficult to detect the hands of each person by image recognition from frame images captured by the
以下の説明では、撮像装置10が部屋の天井の中央に設置され、部屋全体を俯瞰するように撮影する例を想定する。この場合、監視対象は上から見た人物の頭部となる。なお撮像装置10が天井と壁の角に設置され、部屋全体を斜めに見下ろすように撮影してもよい。その場合、監視対象は斜めから見た人物の頭部または全身となる。
In the following explanation, we will assume an example in which the
画像処理装置20は、PC、タブレット、スマートフォンなどの汎用の情報端末装置の一機能として構成される。画像処理装置20と撮像装置10は有線(例えば、LANケーブルやUSBケーブル)または無線(例えば、無線LAN)で接続され、映像取得部21は撮像装置10から映像を取得する。
The
実施の形態2では映像解析部22は、部屋の中で人物が滞在した場所を検出する。対象物認識部22aは辞書データとして、人物の頭部または全身の識別器を有している。また人物の頭部または全身の識別器に加えて、室内に存在する様々な備品の識別器を用意しておいてもよい。例えば、机、椅子などの識別器を用意しておいてもよい。
In the second embodiment, the
対象物認識部22aはフレーム画像内において、人物の検出領域の周囲に付随領域を設定してもよい。例えば、人物を中心として半径1m~2m程度の円に相当する、画像内の領域を付随領域に設定してもよい。以下、人物の検出領域と当該人物の周囲に設定される付随領域を合わせた領域を行動領域と呼ぶ。なお、実空間における距離と画像内における距離の換算比率、及び付随領域の設定範囲は、ユーザが変更可能である。
The
対象物追尾部22bは、対象物認識部22aにより認識された人物の頭部または全身を追尾する。フレーム画像内において複数の人物が認識されている場合、人物ごとに追尾する。
The
三次元空間認識部22cは、撮像装置10から取得された距離画像により特定される三次元空間内で、人物が滞在した場所を検出する。室内に存在する備品も対象物として認識している場合、人物が触れたと推定される備品も特定することができる。例えば、人物の行動領域と備品の検出領域に重複部分が発生した場合、当該人物が当該備品に触れたと推定する。
The three-dimensional space recognition unit 22c detects the location where the person stayed within the three-dimensional space identified by the distance image acquired from the
三次元空間認識部22cは、人物が備品に触れたと推定される状態のフレーム画像を検出すると、検出したフレーム画像を画像保持部23に一時保存する。なお実施の形態2では、人物が検出されている全てのフレーム画像を、画像保持部23に一時保存するようにしてもよい。
When the three-dimensional space recognition unit 22c detects a frame image in which it is estimated that a person has touched furniture, it temporarily stores the detected frame image in the
画像生成部24は、画像保持部23に格納されたフレーム画像をもとに、撮像装置10による撮像開始から、室内において人物が滞在した全ての滞在場所をユーザが認識できる滞在場所表示用の画像(以下、滞在場所画像という)を生成する。画像生成部24は、室内における人物の移動軌跡を認識できる滞在場所画像を生成してもよい。また画像生成部24は、室内における人物の移動に伴う、行動領域の軌跡を認識できる滞在場所画像を生成してもよい。
The
画像生成部24は、滞在場所画像として、人物が滞在した場所に近い場所ほど目立つ色で表示されるヒートマップ画像を生成してもよい。例えば、人物が滞在した領域を赤色で表示し、付随領域を黄色で表示し、それ以外の領域を緑色(または無色)で表示したヒートマップ画像を生成してもよい。また、人物が滞在した領域を赤色で表示し、人物が滞在した領域から遠ざかるにつれ赤色→黄色→緑色(または無色)と徐々に変化していくヒートマップ画像を生成してもよい。
The
また画像生成部24は、人物が滞在した領域の明るさを最も明るくし、人物が滞在した領域から遠ざかるにつれ明るさを暗くした滞在場所画像を生成してもよい。また人物が滞在した領域が点滅している滞在場所画像を生成してもよい。
The
人物の行動領域と備品の検出領域に重複部分が発生した場合、画像生成部24は、当該備品全体を目立つ表示態様としてもよいし、当該重複部分のみを目立つ表示態様としてもよい。当該備品の床からの高さが推定できる場合、画像生成部24は当該備品の床からの高さが、人物が座った状態または立った状態の手の高さに近いほど、当該備品を目立つ表示態様としてもよい。
When an overlap occurs between a person's activity area and a fixture detection area, the
画像生成部24は、複数の人物の検出領域の重複が多い領域ほど、目立つ表示態様としてもよい。例えば、検出領域の重複数が多い領域ほど、彩度を高くしてもよい。なお画像生成部24は、複数の人物の行動領域の重複が多い領域ほど、目立つ表示態様としてもよい。
The
画像生成部24は、画像保持部23に格納された、人物の行動領域と備品の検出領域に重複部分が発生している複数のフレーム画像をつなぎ合わせて、滞在場所表示用のダイジェスト動画を生成してもよい。また画像生成部24は、人物の行動領域と備品の検出領域に重複部分が発生している複数のフレーム画像を重畳して、一枚の静止画を生成してもよい。
The
なお画像生成部24は、室内において人物が触れたと推定される備品を、テキスト情報で単純に羅列した画像を生成してもよい。この場合、フレーム画像を画像保持部23に蓄積する必要はなく、人物が触れたと推定される備品を特定するための管理情報を保持しておけばよい。
The
室内を清掃・消毒しようとしているユーザにより操作部(不図示)に対して、滞在場所画像の表示指示操作がなされると、画像生成部24は、滞在場所画像を生成し、生成した滞在場所画像を表示装置30に表示させる。
When a user who is about to clean and disinfect the room issues an instruction to display an image of the place of stay via an operation unit (not shown), the
表示装置30は、PC、タブレット、スマートフォンなどの汎用の情報端末装置のディスプレイであってもよい。また表示装置30は当該情報端末装置に接続されたプロジェクタであってよい。その場合、プロジェクタは滞在場所画像をスクリーンに投影させる。また表示装置30は当該情報端末装置に接続されたヘッドマウントディスプレイであってもよい。その場合、ヘッドマウントディスプレイは、滞在場所画像をVR画像で表示させることができる。なお接触場所用の表示映像が立体映像で生成される場合、ヘッドマウントディスプレイは、立体VR映像を表示させることができる。
The
なお画像生成部24は、部屋の使用中(例えば、会議中)に、リアルタイムに滞在場所画像を生成し、表示装置30(例えば、プロジェクタ)に表示させてもよい。この場合、人物が入室または退室したり、部屋の中で人物が場所を移動したりすると滞在場所画像が更新される。画像生成部24は、滞在場所画像として、撮像装置10により撮像されている映像上に、人物の滞在場所を示す注目マーカが重畳されたAR画像を表示装置30に表示させてもよい。
The
実施の形態2においても、対象物認識部22aはフレーム画像内において、人物間の距離が設定値以下のとき、距離接近の検出信号を警告制御部25に出力することができる。警告制御部25は、対象物認識部22aから距離接近の検出信号を受けると、音声出力装置50に警告音または警告メッセージを出力させる。なお、マスク未着用の人物、または咳き込んでいる人物を検出した場合も、音声出力装置50に警告音または警告メッセージを出力させることができる。
Also in the second embodiment, the
また実施の形態2においても、特定の人物の画像を登録することにより、滞在場所の監視処理の対象から、登録した人物を除外することができる。 Also in the second embodiment, by registering an image of a specific person, the registered person can be excluded from the monitoring process of the place of stay.
図6は、実施の形態2に係る滞在場所画像Fs1の第1の例を示す図である。室内を清掃・消毒しようとしているユーザにより滞在場所画像Fs1の表示が指示されると、表示装置30に滞在場所画像Fs1が表示される。図6では、部屋の使用中に、三人の人物P1、P2、P3が左側の第1の机D1を使用していた場合の滞在場所画像Fs1を示している。右側の第2の机D2は使用されていない。図6では、左側の第1の机D1が注意領域として赤色でマークされる。
Figure 6 is a diagram showing a first example of a stay place image Fs1 according to embodiment 2. When a user who is about to clean and disinfect the room issues an instruction to display the stay place image Fs1, the stay place image Fs1 is displayed on the
対象物認識部22aは各フレーム画像内において、各人物P1、P2、P3の検出領域と第1の机D1の検出領域が重複したか否か、及び各人物P1、P2、P3の検出領域と第2の机D2の検出領域が重複したか否かを判定する。対象物認識部22aは、重複がある机を使用された机(図6では第1の机D1)と判定する。
The
図7は、実施の形態2に係る滞在場所画像Fs2の第2の例を示す図である。図7では、室内における人物P1の移動軌跡を表示した滞在場所画像Fs2を示している。図7に示す画像において、部屋の出入口が右側にあり、人物P1が第2の机D2及び第1の机D1の下側を左に移動し、第1の机D1の左側を上に移動し、第1の机D1の上側を右に移動して、現在の場所に到達したことを示している。なお、人物P1の周囲に付随領域が付加された行動領域の移動軌跡を表示してもよい。 Fig. 7 is a diagram showing a second example of a stay location image Fs2 according to the second embodiment. Fig. 7 shows a stay location image Fs2 displaying the movement trajectory of person P1 inside a room. In the image shown in Fig. 7, the entrance to the room is on the right side, and person P1 moves left under the second desk D2 and first desk D1, moves up the left side of the first desk D1, and moves right above the first desk D1 to reach the current location. Note that the movement trajectory of the action area with an associated area added around person P1 may also be displayed.
図8(a)-(c)は、実施の形態2に係る滞在場所画像Fs3の第3の例を示す図である。第3の例は、試験会場や大教室など、机と椅子の位置が固定されている部屋の例である。図8(a)に示す滞在場所画像Fs3aでは、左側の第1の椅子S1に第1の人物P1が座っている。右側の第2の椅子S2は空席である。この場合、左側の第1の椅子S1と第1の机D1が注意領域として赤色でマークされる。 Figures 8(a)-(c) are diagrams showing a third example of a stay place image Fs3 according to embodiment 2. The third example is an example of a room where the positions of desks and chairs are fixed, such as an exam hall or a large classroom. In the stay place image Fs3a shown in Figure 8(a), a first person P1 is sitting in the first chair S1 on the left. The second chair S2 on the right is vacant. In this case, the first chair S1 on the left and the first desk D1 are marked in red as attention areas.
図8(b)に示す滞在場所画像Fs3bでは、左側の第1の椅子S1に第1の人物P1が座っており、右側の第2の椅子S2に第2の人物P2が座っている。この場合、左側の第1の椅子S1と第1の机D1、及び右側の第2の椅子S2と第2の机D2の両方が注意領域として赤色でマークされる。 In the stay location image Fs3b shown in FIG. 8(b), a first person P1 is sitting in a first chair S1 on the left side, and a second person P2 is sitting in a second chair S2 on the right side. In this case, both the first chair S1 and the first desk D1 on the left side, and the second chair S2 and the second desk D2 on the right side are marked in red as attention areas.
図8(c)に示す滞在場所画像Fs3cは、右側の第2の椅子S2に座っていた第2の人物P2が退席した後の状態を示している。第2の人物P2が右側の第2の椅子S2と第2の机D2の位置に滞在していたため、第2の人物P2が退席した後も、右側の第2の椅子S2と第2の机D2は注意領域として赤色でマークされる。 The stay location image Fs3c shown in FIG. 8(c) shows the state after the second person P2, who was sitting in the second chair S2 on the right side, has left. Because the second person P2 was staying at the position of the second chair S2 on the right side and the second desk D2, the second chair S2 on the right side and the second desk D2 are marked in red as attention areas even after the second person P2 has left.
図9は、実施の形態2に係る滞在場所画像Fs4の第4の例を示す図である。図6-図8(a)-(c)に示した例では、人物が触れたと推定される机全体の領域を赤色でマークした。これに対して図9に示す第4の例では、机全体の領域のうち、人物が触れた可能性が高い領域のみを注意領域として赤色でマークする。図9では、第1の人物P1の位置から所定距離の第1範囲R1、及び第2の人物P2の位置から所定距離の第2範囲R2が注意領域として赤色でマークされる。このマークされる領域は、人物P1、P2の移動に伴い拡大する。 Figure 9 is a diagram showing a fourth example of a stay location image Fs4 according to the second embodiment. In the examples shown in Figures 6 to 8(a)-(c), the entire area of the desk that is presumed to have been touched by a person is marked in red. In contrast, in the fourth example shown in Figure 9, only the area of the entire desk that is likely to have been touched by a person is marked in red as an attention area. In Figure 9, a first range R1 at a predetermined distance from the position of a first person P1, and a second range R2 at a predetermined distance from the position of a second person P2 are marked in red as attention areas. This marked area expands as the persons P1 and P2 move.
所定距離はソーシャルディスタンスを考慮して、例えば2mに設定される。この所定距離は、マスクの着用の有無により切り替えられてもよい。その場合、マスク未着用の人物の所定距離は、マスク着用の人物の所定距離より長く設定される。 The specified distance is set to, for example, 2 m, taking social distancing into consideration. This specified distance may be switched depending on whether or not a mask is being worn. In that case, the specified distance for a person not wearing a mask is set longer than the specified distance for a person wearing a mask.
また対象物認識部22aが人物の手の動きを検出できる場合、机全体の領域の中で手が動いた範囲を注意領域として赤色でマークしてもよい。その際、机全体の領域の中でマークされる領域は、実際に手の動きを検出した範囲に所定のバッファ領域を加えた領域であってもよい。また机全体の領域の中でマークされる領域は、人物P1、P2の行動領域と重複する領域であってもよい。
In addition, if the
なお、第1範囲R1と第2範囲R2の重複範囲R3を、よりレベルの高い注意領域として相対的に目立つ色でマークしてもよい。例えば、第1範囲R1と第2範囲R2のうち、両者が重複していない範囲を緑色でマークし、両者の重複範囲R3を赤色でマークしてもよい。また、一人の人物の所定距離の範囲を緑色でマークし、二人の人物の所定距離の範囲の重複領域を黄色でマークし、三人以上の人物の所定距離の範囲の重複領域を赤色でマークしてもよい。 The overlapping range R3 of the first range R1 and the second range R2 may be marked in a relatively conspicuous color as a higher level attention area. For example, the ranges of the first range R1 and the second range R2 where they do not overlap may be marked in green, and the overlapping range R3 between them may be marked in red. Also, the range of a specified distance for one person may be marked in green, the overlapping range of a specified distance for two people may be marked in yellow, and the overlapping range of a specified distance for three or more people may be marked in red.
図10は、実施の形態2に係る滞在場所画像Fs5の第5の例を示す図である。図10に示す滞在場所画像Fs5では、部屋の中で人物の移動が多い通路の領域R5が注意領域として赤色でマークされている。なお、人物が通路を通った回数に応じて色を変えてもよい。例えば、1~5回は緑色でマークし、6~10回は黄色でマークし、11回以上は赤色でマークしてもよい。なお、図10では通路全体の領域R5を注意領域としてマークしているが、実際に人物が通った移動軌跡、すなわち人物と通路が重複した部分のみをマークしてもよい。 Figure 10 is a diagram showing a fifth example of a stay place image Fs5 according to the second embodiment. In the stay place image Fs5 shown in Figure 10, an area R5 of a passageway in a room where people move around a lot is marked in red as an attention area. Note that the color may be changed depending on the number of times a person has passed through the passageway. For example, 1 to 5 times may be marked in green, 6 to 10 times in yellow, and 11 or more times in red. Note that although the entire passageway area R5 is marked as an attention area in Figure 10, only the actual movement trajectory of the person, i.e., only the part where the person and the passageway overlap, may be marked.
以上説明したように実施の形態2によれば、人物が滞在した領域を示す滞在場所画像を生成して表示することにより、清掃・消毒しようとしているユーザがどこを優先的に消毒すればよいかを直感的に把握することができる。特に、外部の清掃業者など、部屋を使用していなかった(例えば、会議に参加していなかった)人で、短時間で効率的に部屋の中を清掃・消毒する必要がある人にとって有効である。もちろん、部屋を使用していた人にとっても、部屋の中にいた人全員分の動きを把握し記憶していることは困難であるため、滞在場所画像を見ながら清掃・消毒することが有用である。 As described above, according to the second embodiment, by generating and displaying a place-of-stay image showing the area where a person has stayed, a user who is about to clean and disinfect can intuitively understand which areas should be disinfected as a priority. This is particularly useful for people who did not use the room (e.g., did not participate in a meeting), such as external cleaning companies, and who need to clean and disinfect the room efficiently in a short amount of time. Of course, it is also difficult for people who used the room to keep track of and remember the movements of everyone who was in the room, so cleaning and disinfecting while looking at the place-of-stay image is useful.
次に、実施の形態3に係る人物監視システム1を説明する。実施の形態2では、画像生成部24は、室内における人物の移動軌跡を認識できる滞在場所画像を生成し、表示装置30に表示させる例を説明した。実施の形態3ではさらに、室内における人物が発話しているか否かを考慮する。室内でマスクを着用していない人物が発話した場合、飛沫が飛んでいる可能性があり、当該人物の周辺領域にウイルスが存在する可能性が増加する。
Next, a
図11は、実施の形態3に係る人物監視システム1の構成例を示す図である。実施の形態3に係る人物監視システム1は、画像処理装置20、表示装置30、記録媒体40、音声出力装置50、及び集音装置60を備える。画像処理装置20は、映像取得部21、映像解析部22、画像保持部23、画像生成部24、警告制御部25、音声取得部26、及び音声解析部27を含む。以下、実施の形態2との相違点を説明する。
Figure 11 is a diagram showing an example configuration of a
集音装置60は、撮像装置10が監視対象としている空間内の音を収集するためのマイクを含む。集音装置60は、撮像装置10に内蔵されていてもよい。集音装置60は、収集した空気振動を電気的な音声信号に変換し、変換した音声信号を画像処理装置20に出力する。
The
音声取得部26は、集音装置60から音声信号を取得する。音声解析部27は、音声取得部26により取得された音声信号を解析する。音声解析部27は、音声信号のスペクトルを解析して、人間の発話音の有無を検出する。人間の発話音が検出された場合、音声解析部27は、発話者の人数を検出する。さらに音声解析部27は、各発話者の発話回数、累積発話時間、及び声の大きさの少なくとも一つを検出して保持する。なお本実施の形態では、発話内容を認識する必要はないため、音響モデルや言語モデルを使用した解析は不要である。
The
上述したように映像解析部22は、人物がマスクを着用しているか否かを認識することができる。実施の形態3ではさらに、映像解析部22は、人物の口の種々の状態の識別器を有している。マスクを着用していない人物が検出された場合、映像解析部22は、フレーム画像ごとに人物の口の形を認識し、一連のフレーム画像における口の動きを判別する。映像解析部22は、人物の口の動きから、その人物が発話しているか否か判定する。映像解析部22は、発話者の人数を検出する。さらに映像解析部22は、各発話者の口の開き具合を検出する。
As described above, the
音声解析部27により検出された発話者の人数より、映像解析部22により発話者と認定された人数が少ない場合、撮像装置10の画角に収まっていない人物が発話している可能性、撮像装置10の方向を向いていない人物が発話している可能性、またはマスクを着用している人物が発話している可能性が考えられる。その場合、映像解析部22は、撮像装置10の方向を向いていない人物とマスクを着用している人物の全てを、発話者とみなしてもよい。
If the number of speakers identified by the
画像生成部24は、撮像装置10により撮像された人物の内、各人物の発話回数、発話時間、声の大きさ、及び口の開き具合の少なくとも一つを参照して、滞在場所画像内における、各人物の検出領域に付随する付随領域の表示態様を決定する。
The
画像生成部24は、発話した人物の検出領域に付随する付随領域の面積を、発話していない人物の検出領域に付随する付随領域より大きく設定してもよい。その際、画像生成部24は、当該人物の発話回数が多いほど、当該人物の累積発話時間が長いほど、当該人物の声が大きいほど、または当該人物の口の開き具合が大きいほど、当該人物の検出領域に付随する付随領域の面積を大きく設定してもよい。なお、面積を大きくする付随領域は、当該人物の顔が向いている方向の領域(例えば、180度の領域)だけとしてもよい。
The
画像生成部24は、発話していない人物の検出領域に付随する付随領域の面積を、発話した人物の検出領域に付随する付随領域より小さく設定してもよい。
The
画像生成部24は、発話した人物の検出領域に付随する付随領域を、発話していない人物の検出領域に付随する付随領域の色より目立つ色(例えば、赤色や紫色)でマークしてもよい。その際、画像生成部24は、当該人物の発話回数が多いほど、当該人物の累積発話時間が長いほど、当該人物の声が大きいほど、または当該人物の口の開き具合が大きいほど、当該人物の検出領域に付随する付随領域の色を濃くしてもよい。なお、色を濃くする付随領域は、当該人物の顔が向いている方向の領域だけとしてもよい。
The
例えば、上記図6において、人物P2が第2の机D2の方向に顔を向けて、発話したり、咳き込んだりした場合、画像生成部24は、第2の机D2を赤色でマークする。上記図7においても同様に、人物P1が移動途中に、第2の机D2の方向に顔を向けて、発話したり、咳き込んだりした場合、画像生成部24は、第2の机D2を赤色でマークする。
For example, in FIG. 6 above, if person P2 turns his face toward the second desk D2 and speaks or coughs, the
画像生成部24は、発話した人物の検出領域に付随する付随領域の重複が多い領域ほど、色を濃くしてもよい。画像生成部24は、発話していない人物の検出領域に付随する付随領域を、発話した人物の検出領域に付随する付随領域の色より目立たない色(例えば、緑色や無色)でマークしてもよい。
The
上記図9では、第1の人物P1の位置から所定距離の第1範囲R1、及び第2の人物P2の位置から所定距離の第2範囲R2が注意領域(付随領域)として赤色でマークされる。所定距離は例えば、人物が発話していない場合は1mに設定され、人物が発話した場合は2mに設定されてもよい。発話していない人物の注意領域は、当該人物の手が届く範囲を考慮して1mに設定される。発話した人物の注意領域は、当該人物の飛沫が届く範囲を考慮して2mに設定される。 In FIG. 9 above, a first range R1 at a predetermined distance from the position of a first person P1, and a second range R2 at a predetermined distance from the position of a second person P2 are marked in red as attention areas (attached areas). The predetermined distance may be set to 1 m, for example, when a person is not speaking, and set to 2 m when a person is speaking. The attention area of a person who is not speaking is set to 1 m, taking into account the range that the person's hands can reach. The attention area of a person who is speaking is set to 2 m, taking into account the range that the person's droplets can reach.
画像生成部24は、第1の人物P1と第2の人物P2が会話していない場合、第1範囲R1と第2範囲R2の重複範囲R3を赤色でマークし、第1の人物P1と第2の人物P2が会話した場合、重複範囲R3を紫色でマークしてもよい。ここで、紫色は赤色より注意レベルが上とする。
The
以上説明したように実施の形態3によれば、人物が滞在した領域を示す滞在場所画像を生成して表示する際、飛沫が飛んだ可能性がある領域を目立つ態様で表示することにより、優先的に清掃・消毒すべき領域を適切に、ユーザに提示することができる。 As described above, according to the third embodiment, when a stay location image showing the area where a person has stayed is generated and displayed, areas where droplets may have spread are prominently displayed, thereby making it possible to appropriately present to the user areas that should be cleaned and disinfected as a priority.
以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described above based on an embodiment. This embodiment is merely an example, and it will be understood by those skilled in the art that various modifications are possible in the combination of each component and each processing process, and that such modifications are also within the scope of the present invention.
実施の形態1において、例えば運転者は運転中、基本的にステアリングを手で握っている。一方で、それ以外の動き(例えば、水を飲むためにボトルホルダを触る動きなど)をしている状態では、ステアリングを握っている通常の状態の画像とは大きく異なる画像となる。対象物認識部22aは、フレーム画像内において運転者がステアリングを手で握っていないフレーム画像を全て画像保持部23に保存してもよい。画像生成部24は、画像保持部23に格納されている複数のフレーム画像をつなぎ合わせて、接触場所表示用のダイジェスト動画を生成してもよい。また画像生成部24は、画像保持部23に格納されている複数のフレーム画像を重畳して、一枚の静止画を生成してもよい。この場合、正確性は低下するが、簡易的に接触場所画像を生成することができる。
In the first embodiment, for example, while driving, the driver basically holds the steering wheel with his/her hands. On the other hand, when the driver is making other movements (for example, touching a bottle holder to drink water), the image is significantly different from the image of the normal state in which the driver is holding the steering wheel. The
実施の形態2において、対象物認識部22aは、フレーム画像内で人物が検出されたフレーム画像を全て画像保持部23に保存してもよい。画像生成部24は、画像保持部23に格納されている複数のフレーム画像をつなぎ合わせて、滞在場所表示用のダイジェスト動画を生成してもよい。また画像生成部24は、画像保持部23に格納されている複数のフレーム画像を重畳して、一枚の静止画を生成してもよい。この場合、正確性は低下するが、簡易的に滞在場所画像を生成することができる。
In the second embodiment, the
実施の形態1では、人物の手を監視対象とし、車室内を監視する例を説明した。この点、人物の手を検出しやすい狭い空間の監視であれば、車室内を監視する例に限定されるものではない。建物内の部屋であっても、数人しか入れない狭い部屋の監視であれば、実施の形態1に係る人物監視システム1が有効に機能する。
In the first embodiment, an example of monitoring the interior of a vehicle is described, with a person's hands as the monitoring target. In this regard, the monitoring is not limited to the example of monitoring the interior of a vehicle, as long as it is a small space where a person's hands are easily detected. Even if it is a room in a building, the
実施の形態2では、人物自体を監視対象とし、建物内の部屋の中を監視する例を説明した。この点、電車、バス、飛行機、船舶などの移動体の中の室内空間の監視にも、実施の形態2に係る人物監視システム1を適用することができる。また一定範囲の屋外空間の監視にも適用可能である。
In the second embodiment, an example was described in which the person itself is the monitoring target, and the inside of a room in a building is monitored. In this regard, the
また新型コロナウイルスは、付着している物質や環境条件に依存するが、最長で7日程度で死滅する。したがって、車両や部屋の使用終了後、設定時間以上が経過している場合は、画像内に注意領域を表示する必要はない。 The new coronavirus also dies in about seven days at the longest, depending on the material it is attached to and the environmental conditions. Therefore, if more than the set time has passed since the vehicle or room was last used, there is no need to display a warning area in the image.
C1 車両、 1 人物監視システム、 10 撮像装置、 20 画像処理装置、 21 映像取得部、 22 映像解析部、 22a 対象物認識部、 22b 対象物追尾部、 22c 三次元空間認識部、 23 画像保持部、 24 画像生成部、 25 警告制御部、 26 音声取得部、 27 音声解析部、 30 表示装置、 40 記録媒体、 50 音声出力装置、 60 集音装置。 C1 vehicle, 1 person monitoring system, 10 imaging device, 20 image processing device, 21 video acquisition section, 22 video analysis section, 22a object recognition section, 22b object tracking section, 22c three-dimensional space recognition section, 23 image storage section, 24 image generation section, 25 warning control section, 26 audio acquisition section, 27 audio analysis section, 30 display device, 40 recording medium, 50 audio output device, 60 audio collection device.
Claims (6)
取得された映像を解析して、前記空間内で前記人物の検出領域と当該人物の周囲に設定される付随領域を合わせた行動領域を検出する映像解析部と、
前記撮像部による撮像開始から、前記人物の移動に伴う全ての行動領域を認識できる表示用画像を生成する画像生成部と、
を備え、
前記画像生成部は、発話した人物の周囲に設定される付随領域を、発話していない人物の周囲に設定される付随領域より、目立つ表示態様で表示させる表示用画像を生成する、
画像処理装置。 an image acquisition unit that acquires an image of a space in which a person is present, the image being captured by the imaging unit;
A video analysis unit that analyzes the acquired video and detects a behavior area that is a combination of a detection area of the person and an associated area set around the person in the space;
an image generating unit that generates a display image that allows recognition of an entire action area accompanying the movement of the person from the start of imaging by the imaging unit;
Equipped with
The image generating unit generates a display image in which an associated region set around a person who has spoken is displayed in a more prominent display manner than an associated region set around a person who has not spoken.
Image processing device.
請求項1に記載の画像処理装置。 the image generation unit generates a display image in which a trajectory of the person's activity area can be recognized;
The image processing device according to claim 1 .
請求項1または2に記載の画像処理装置。 the image generation unit generates a display image in such a manner that an area having a greater overlap of the person's action areas is displayed in a more conspicuous manner;
3. The image processing device according to claim 1 or 2.
請求項1から3のいずれか1項に記載の画像処理装置。 the image generation unit determines a display mode of an associated area associated with a detection area of each person in the display image by referring to at least one of the number of times each person speaks and the degree of opening of the mouth of each person among the people imaged by the imaging unit;
The image processing device according to claim 1 .
請求項1から4のいずれか1項に記載の画像処理装置。 The imaging unit is installed in a building or a moving body and is an imaging unit for imaging a certain space in the building or the moving body.
The image processing device according to claim 1 .
取得された映像を解析して、前記空間内で前記人物の検出領域と当該人物の周囲に設定される付随領域を合わせた行動領域を検出する処理と、
前記撮像部による撮像開始から、前記人物の移動に伴う全ての行動領域を認識できる表示用画像を生成する処理と、
をコンピュータに実行させ、
前記表示用画像を生成する処理は、発話した人物の周囲に設定される付随領域を、発話していない人物の周囲に設定される随領域より、目立つ表示態様で表示させる表示用画像を生成する、
画像処理プログラム。 A process of acquiring an image of a space in which a person is present, the image being captured by an imaging unit;
A process of analyzing the acquired video to detect a behavior area in the space that is a combination of a detection area of the person and an associated area set around the person ;
A process of generating a display image in which all behavioral areas associated with the movement of the person can be recognized from the start of imaging by the imaging unit;
on the computer ,
The process of generating the display image generates a display image in which an auxiliary region set around a person who has spoken is displayed in a more prominent display manner than an auxiliary region set around a person who has not spoken.
Image processing program.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP21871907.8A EP4220548A4 (en) | 2020-09-23 | 2021-06-01 | Image processing device and image processing program |
CN202180061374.2A CN116157833A (en) | 2020-09-23 | 2021-06-01 | Image processing device and image processing program |
PCT/JP2021/020804 WO2022064774A1 (en) | 2020-09-23 | 2021-06-01 | Image processing device and image processing program |
US18/187,739 US20230230294A1 (en) | 2020-09-23 | 2023-03-22 | Picture processing device, picture processing method and non-transitory computer-readable recording medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020158427 | 2020-09-23 | ||
JP2020158427 | 2020-09-23 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022052681A JP2022052681A (en) | 2022-04-04 |
JP7540307B2 true JP7540307B2 (en) | 2024-08-27 |
Family
ID=80948775
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020189227A Active JP7540307B2 (en) | 2020-09-23 | 2020-11-13 | Image processing device and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7540307B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017122258A1 (en) | 2016-01-12 | 2017-07-20 | 株式会社日立国際電気 | Congestion-state-monitoring system |
JP2018022284A (en) | 2016-08-02 | 2018-02-08 | パナソニックIpマネジメント株式会社 | Customer service monitoring device, customer service monitoring system, and customer service monitoring method |
-
2020
- 2020-11-13 JP JP2020189227A patent/JP7540307B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017122258A1 (en) | 2016-01-12 | 2017-07-20 | 株式会社日立国際電気 | Congestion-state-monitoring system |
JP2018022284A (en) | 2016-08-02 | 2018-02-08 | パナソニックIpマネジメント株式会社 | Customer service monitoring device, customer service monitoring system, and customer service monitoring method |
Also Published As
Publication number | Publication date |
---|---|
JP2022052681A (en) | 2022-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230079783A1 (en) | System, method, and computer program for enabling operation based on user authorization | |
US11295179B2 (en) | Sensor fusion for monitoring an object-of-interest in a region | |
US7680295B2 (en) | Hand-gesture based interface apparatus | |
DE102018130115B4 (en) | Device and method for context-based suppression and amplification of acoustic signals in acoustic environments | |
IT201900011403A1 (en) | DETECTING ILLEGAL USE OF PHONE TO PREVENT THE DRIVER FROM GETTING A FINE | |
US7183944B2 (en) | Vehicle tracking and identification of emergency/law enforcement vehicles | |
US20150078632A1 (en) | Feeling monitoring system | |
WO2018046015A1 (en) | Alarm method, device and terminal for vehicle | |
CN101326546A (en) | image processing device | |
WO2021189641A1 (en) | Left-behind subject detection | |
WO2004004320A1 (en) | Digital processing of video images | |
CN109636924A (en) | Vehicle multi-mode formula augmented reality system based on real traffic information three-dimensional modeling | |
CN109448409A (en) | Method, apparatus, equipment and the computer storage medium of traffic information interaction | |
JP2014199546A (en) | Driving support device and driving support method | |
CN110238858A (en) | A kind of more perception intelligence nurse robots | |
Martin et al. | Real time driver body pose estimation for novel assistance systems | |
US20230230294A1 (en) | Picture processing device, picture processing method and non-transitory computer-readable recording medium | |
JP7618990B2 (en) | Image processing device and image processing program | |
JP7540307B2 (en) | Image processing device and image processing program | |
Ghidoni et al. | A distributed perception infrastructure for robot assisted living | |
CN103565399B (en) | Pupil detection device | |
JP2012121387A (en) | Vehicle interior monitoring device | |
JP7403196B2 (en) | Information processing systems and programs, etc. | |
WO2020090516A1 (en) | Image processing device, image processing method, and program | |
CN116486383A (en) | Smoking behavior recognition method, smoking detection model, device, vehicle, and medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240312 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240716 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240729 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7540307 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |