Nothing Special   »   [go: up one dir, main page]

JP2011198161A - Object recognition system, and monitoring system and watching system using the same - Google Patents

Object recognition system, and monitoring system and watching system using the same Download PDF

Info

Publication number
JP2011198161A
JP2011198161A JP2010065333A JP2010065333A JP2011198161A JP 2011198161 A JP2011198161 A JP 2011198161A JP 2010065333 A JP2010065333 A JP 2010065333A JP 2010065333 A JP2010065333 A JP 2010065333A JP 2011198161 A JP2011198161 A JP 2011198161A
Authority
JP
Japan
Prior art keywords
dimensional
sensor
state
equal
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010065333A
Other languages
Japanese (ja)
Inventor
Hiromitsu Hama
裕光 濱
Tin Pyke
ティン パイ
Kiichiro Shibuya
喜一郎 渋谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Asahi Engineering Co Ltd Fukuoka
Original Assignee
Asahi Engineering Co Ltd Fukuoka
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asahi Engineering Co Ltd Fukuoka filed Critical Asahi Engineering Co Ltd Fukuoka
Priority to JP2010065333A priority Critical patent/JP2011198161A/en
Publication of JP2011198161A publication Critical patent/JP2011198161A/en
Pending legal-status Critical Current

Links

Landscapes

  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an object recognition system capable of improving segmentation and position estimating accuracy, improving recognition accuracy of attitude and operation as a result, and detecting the occurrence of an abnormal situation with high reliability, and to provide a monitoring system and a watching system.SOLUTION: The object recognition system includes a plurality of same kind or different kinds of observing device including at least two of a one-dimensional sensor for acquiring one-dimensional data of an object, a two-dimensional sensor for acquiring two-dimensional data of the object, and a three-dimensional sensor for acquiring three-dimensional data of the object, and a recognizing device for recognizing the object in association with the one-dimensional data, two-dimensional data and three-dimensional data obtained from the observing device.

Description

地下鉄、駅、空港等の公共の場における、拳銃、刀等の不法所持者、テロリスト、尾行、スリ、喧嘩等怪しい人物(不審者)の発見と追跡及び不審物の発見等セキュリティ確保のための監視システム、あるいは家庭や学校等建物内における老人や子供、病人等の見守りシステムに必須技術として、人の姿勢・動作・動きや持ち主不在の物体を検出及び認識して、異常を検知するためのマルチセンサー情報統合技術を用いた監視システム及び見守りシステムに関する。   To ensure security, such as the discovery and tracking of suspicious persons (suspicious persons) such as terrorists, tails, pickles, fights, etc. in public places such as subways, stations, airports, etc. In order to detect abnormalities by detecting and recognizing human postures / motions / movements and absence of owners as an essential technology for surveillance systems or monitoring systems for elderly people, children, sick people, etc. in buildings such as homes and schools The present invention relates to a monitoring system and a monitoring system using multi-sensor information integration technology.

従来の監視システムはほとんどが固定的に設置された監視カメラを使用したものが大半である。一方、携帯型センサーを用いた老人や子供の見守りシステムに関するものは、GPS搭載の携帯電話を子供に持たせたものがある程度で、他には見当たらない。複数台のカメラを設置した例はたくさんあるが、異なるメディアタイプのモダリティ、例えば可視光カメラと加速度計等を用いて相補的に信頼性を向上させるような方法は実用的には利用されてこなかった。ほとんどの従来型監視技術は一つのメディアタイプ(主には、ビデオカメラ)だけを用いているために、広い範囲はカバーできても、不審者、不審物の発見や異常事態の検出は人の目視に頼らざるを得なかった。本発明は、これらの欠点を補強し、信頼性の高い自動監視システム及び見守りシステムの実現を目指したものである。   Most conventional surveillance systems use fixedly installed surveillance cameras. On the other hand, with regard to the monitoring system for elderly people and children using portable sensors, there are some that have children equipped with GPS-equipped mobile phones, and there are no others. There are many examples where multiple cameras are installed, but there is no practical use of a modality of different media types, for example, a method that complementarily improves reliability using a visible light camera and an accelerometer, etc. It was. Most conventional surveillance technologies use only one media type (mainly a video camera), so even if it can cover a wide range, detection of suspicious persons, suspicious objects, and detection of abnormal situations is human. I had to rely on visual inspection. The present invention reinforces these drawbacks and aims to realize a highly reliable automatic monitoring system and watching system.

不審者、不審物の発見には監視カメラ以外では、空港等におけるX線検査や係官による目視によるもの、発熱を感知するサーモグラフィ検査、顔写真や指紋照合によるもの等が代表的なものである。カメラや加速度計等の異種メディアからの情報を効果的に統合する方法は、まだ緒についてばかりで、過去の研究では画像処理アルゴリズムを用いた静止物体や特定の動きをする人の自動検出については、それほど複雑でない比較的安定した環境の中での動作認識(歩く、走る、転倒等)に限られており、実用的な24時間監視システム及び見守りシステムを実現できるレベルには至っていない。   Other than surveillance cameras, suspicious persons and suspicious objects are typically detected by X-ray inspection at airports, visual inspection by officials, thermography inspection to detect fever, facial photographs and fingerprint verification. The method of effectively integrating information from dissimilar media such as cameras and accelerometers is still just the beginning, and past research has focused on the automatic detection of stationary objects and specific moving people using image processing algorithms. It is limited to motion recognition (walking, running, falling, etc.) in a relatively stable environment that is not so complicated, and has not yet reached a level where a practical 24-hour monitoring system and watching system can be realized.

Teddy Ko, “A survey on behavior analysis in videosurveillance for homeland security applications,” 37th IEEEApplied Imagery Pattern RecognitionWorkshop, Washington, DC, USA, pp.1-8, Oct. 15-17, 2008.Teddy Ko, “A survey on behavior analysis in videosurveillance for homeland security applications,” 37th IEEE Applied Imagery Pattern RecognitionWorkshop, Washington, DC, USA, pp.1-8, Oct. 15-17, 2008.

しかしながら、従来の監視システム及び見守りシステムには以下に示す問題点があった。すなわち、単一のメディア情報を用いただけでは、セグメンテイションが難しかったり、不正確になるケース、あるいは人物追跡に失敗すること等が多々あり、対象物を検出する精度や信頼性に欠けるという問題があった。   However, the conventional monitoring system and watching system have the following problems. In other words, there are many cases where segmentation is difficult, inaccurate, or person tracking fails when only a single piece of media information is used, and there is a problem that accuracy and reliability for detecting an object are lacking. there were.

また、対象物の位置推定において高い精度が要求される場合は多々あるが、高価な機材を使用することなく実現するのは困難であった。さらに、人の姿勢・動作認識システムにおいて、カメラ情報がよく使われるが、監視と見守りを含めて考えるとき、画像からだけでは判断しにくい場面はよく出現し、そのようなときに認識システムの高精度・高信頼性の確保は大きな課題である。 In addition, there are many cases where high accuracy is required in the position estimation of the object, but it has been difficult to achieve without using expensive equipment. In addition, camera information is often used in human posture / motion recognition systems, but when it is considered including monitoring and watching, scenes that are difficult to judge from images often appear. Ensuring accuracy and high reliability is a major issue.

本発明は、このような問題点を解決するために提案された対象物の認識システムであって、監視領域及び/又は見守り領域(以下、観測領域という)を観測する同種及び/又は異種の複数の観測手段と、上記各観測手段から得られる複数のデータを対応付けて観測領域内の対象物を認識する認識手段を備える。上記観測手段には、1次元データを取得する1次元センサー、2次元データを取得する2次元センサーと、3次元データを取得する3次元センサーを用いることができる。上記1次元センサーの例として、加速度計、角加速度計、傾斜計が挙げられる。上記2次元センサーの例として、対象物の画像を撮影するカメラが挙げられる。一般的には可視光カメラが多く使われるが、近赤外線カメラ、遠赤外線カメラ、サーモグラフィ等を用いることもできる。上記3次元センサーの例として、3次元空間上の距離画像データを取得するレンジセンサー、3次元位置センサー、3次元モーションセンサー、又は3次元測距センサーが挙げられる。 The present invention is an object recognition system proposed to solve such problems, and is a plurality of the same type and / or different types for observing a monitoring area and / or a monitoring area (hereinafter referred to as an observation area). And a recognizing unit for recognizing an object in the observation region by associating a plurality of data obtained from the respective observation units. As the observation means, a one-dimensional sensor that acquires one-dimensional data, a two-dimensional sensor that acquires two-dimensional data, and a three-dimensional sensor that acquires three-dimensional data can be used. Examples of the one-dimensional sensor include an accelerometer, an angular accelerometer, and an inclinometer. An example of the two-dimensional sensor is a camera that captures an image of an object. In general, a visible light camera is often used, but a near-infrared camera, a far-infrared camera, a thermography, or the like can also be used. Examples of the three-dimensional sensor include a range sensor that acquires distance image data in a three-dimensional space, a three-dimensional position sensor, a three-dimensional motion sensor, or a three-dimensional distance measuring sensor.

単一のメディア情報を用いただけでは、セグメンテイションが難しかったり不正確になるケース、あるいは人物追跡に失敗すること等が多々あったが、本発明によれば、より精度よくセグメンテイションを実行したい要求に応えることができる。1次元データ、2次元データ、3次元データを対応付けて対象物領域を抽出し、その結果を用いて対象物を認識することによりこの問題を解決する。ここで、対象物領域を切り出すことをセグメンテイションという。   There were many cases where segmentation was difficult or inaccurate with a single piece of media information, or people tracking failed, but according to the present invention, a request to execute segmentation with higher accuracy is required. Can respond. This problem is solved by extracting the object region by associating the one-dimensional data, the two-dimensional data, and the three-dimensional data, and recognizing the object using the result. Here, cutting out the object region is called segmentation.

また、本発明は、上記複数の観測手段が、データの種類、設置場所、観測方向のうち少なくともいずれか1つが異なり、上記認識手段が、上記複数の観測手段から得られる、誤差分布が異なる複数の位置データを対応付けて重畳する重畳手段と、上記重畳手段が重畳した結果、複数の位置データが重なる部分に基づいて、対象物の位置を検出する位置検出手段とを含むようにしてもよい。これによれば、センサーを複数台用いることで、1台では不可能であった高精度の位置推定を達成することができ、より精度の高い監視システム及び見守りシステムが実現でき、多くの応用分野が広がる。 Further, according to the present invention, the plurality of observation means are different from each other in at least one of data type, installation location, and observation direction, and the recognition means is obtained from the plurality of observation means. There may be included superimposing means for associating and superimposing the position data, and position detecting means for detecting the position of the object based on a portion where a plurality of position data overlap as a result of the superimposing means being superimposed. According to this, by using a plurality of sensors, it is possible to achieve high-accuracy position estimation, which was impossible with a single sensor, and to realize a more accurate monitoring system and monitoring system. Spread.

また、本発明は、上記観測手段が、上記1次元センサー又は上記2次元センサー又は上記3次元センサーを含み、
上記認識手段が、1次元センサーから得られる1次元データに基づいて、対象物の向き及び/又は動きを検出する向き等検出手段と、2次元センサー又は3次元センサーから得られる2次元データ又は3次元データに基づいて、対象物の姿勢及び/又は向き及び/又は動作を検出する姿勢等検出手段と、向き等検出手段が検出した向きと動きの状態と、姿勢等検出手段が検出した向き及び/又は姿勢及び/又は動作から、対象物の状態を検出する状態検出手段とを含むようにしてもよい。人の姿勢・動作認識システムにおいて、カメラ情報がよく使われるが、監視と見守りを含めて考えるとき、画像からだけでは判断しにくい場面であっても、高精度・高信頼性の認識システムを確保することができる。
In the present invention, the observation means includes the one-dimensional sensor, the two-dimensional sensor, or the three-dimensional sensor.
Based on the one-dimensional data obtained from the one-dimensional sensor, the recognition means detects the direction and / or movement of the object, and the like, and the two-dimensional data or 3 obtained from the two-dimensional sensor or the three-dimensional sensor. Based on the dimensional data, a posture detecting means for detecting the posture and / or orientation and / or motion of the object, a direction and a state of movement detected by the orientation detecting means, a direction detected by the posture detecting means and the like And / or state detection means for detecting the state of the object from the posture and / or movement. Camera information is often used in human posture / motion recognition systems, but when monitoring and watching are taken into consideration, a high-accuracy and high-reliability recognition system is ensured even in situations where it is difficult to judge from images alone. can do.

また、本発明は、1次元センサー又は2次元センサー又は3次元センサーから得られたデータに基づいて、対象物となっている人間が立っている状態であるか否かを判定する起立状態判定手段と、起立状態判定手段が立っている状態であると判定した場合、各センサーから得られる移動速度に基づいて、人が静止状態であるか、歩行状態であるか、走行状態であるかを判定する移動状態判定手段と、を備えることもできる。1次元センサー又は2次元センサー又は3次元センサーから移動速度を求めることができる。 Further, the present invention provides an upright state determination unit that determines whether or not a person who is an object is standing based on data obtained from a one-dimensional sensor, a two-dimensional sensor, or a three-dimensional sensor. When the standing state determination means is determined to be in a standing state, it is determined whether the person is stationary, walking or running based on the moving speed obtained from each sensor. Moving state determination means for performing the above-described operation. The moving speed can be obtained from the one-dimensional sensor, the two-dimensional sensor, or the three-dimensional sensor.

さらに、本発明は、2次元データ又は3次元データに基づいて、観測領域内の一定の範囲内で近くに人が1人いるか、2人以上いるかを判定する人数判定手段と、人数判定手段が1人であると判定した場合であって、かつ上記移動状態判定手段が歩行状態であると判定した場合、移動効率を算出する移動効率算出手段と、上記移動効率が、1以下で第1の閾値以上であるか、第1の閾値以下で第2の閾値以上であるか、第2の閾値以下であるかを判定する移動効率判定手段と、移動効率判定手段が、1以下で第1の閾値以上であると判定した場合は正常状態であると判断し、第1の閾値以下で第2の閾値以上であると判定した場合は飲酒状態であると判断し、第2の閾値以下であると判定した場合は徘徊状態であると判断する動作認識手段と、を備えることもできる。 Further, according to the present invention, based on two-dimensional data or three-dimensional data, a number determination unit that determines whether there is one person or two or more people within a certain range in the observation area, and a number determination unit When it is determined that the person is one and the movement state determination unit determines that the person is in a walking state, the movement efficiency calculation unit that calculates the movement efficiency, and the movement efficiency is 1 or less and the first The movement efficiency determination means for determining whether the movement efficiency determination means is less than or equal to the threshold, is less than or equal to the first threshold and is greater than or equal to the second threshold, and is less than or equal to the second threshold. If it is determined that the threshold value is greater than or equal to the threshold value, it is determined that the state is normal, and if it is determined that the threshold value is equal to or less than the second threshold value and is equal to or greater than the second threshold value, it is determined that the person is drinking, If it is determined that the movement recognition means It can also be provided with.

ここで、移動効率は、第一義的にはどれだけ効率的に移動したかを示すパラメータであって0〜1の範囲の値をとり、具体的には、変位距離に対する走行距離の比(以下、SRという)やT フレーム前の位置と現在位置との差とその間に移動した総距離の比(以下、DRという)等を用いることもできる。SRとDRの意味についての詳細は後述する。また、手足の不用な動きや不規則性、腰を曲げたり、頭、首を振る等の無駄な動作、上半身、下半身の動作から意味のない動作を抽出してその割合を用いることもできる。 Here, the movement efficiency is a parameter that indicates how efficiently the movement is primarily performed, and takes a value in the range of 0 to 1. Specifically, the ratio of the travel distance to the displacement distance ( (Hereinafter referred to as SR), the difference between the position before the T frame and the current position, and the ratio of the total distance moved between them (hereinafter referred to as DR) can also be used. Details of the meanings of SR and DR will be described later. It is also possible to extract the meaningless movements from unnecessary movements and irregularities of the limbs, useless movements such as bending the waist, shaking the head and neck, and movements of the upper and lower bodies, and using the ratio.

上記人数判定手段が2人以上であると判定した場合あって、かつ上記移動状態判定手段が歩行状態であると判定した場合、移動効率を算出する第2の移動効率算出手段と、上記移動効率が、1以下で第1の閾値以上であるか、第1の閾値以下であるかを判定する第2の移動効率判定手段と、上記第2の移動効率判定手段が、1以下で第1の閾値以上であると判定した場合は、「横に並んで歩いていれば、一緒に歩いている正常状態」か、「後ろの人が先頭の人から一定の距離だけ離れて歩いていれば、尾行状態又は不審者の可能性がある異常状態」であると判断し、第1の閾値以下であると判定した場合は、「遊んでいる、喧嘩、殴り合い」のいずれかの可能性があると判断する第2の動作認識手段と、を備えてもよい。 When it is determined that the number of persons determination means is two or more and the movement state determination means is determined to be a walking state, a second movement efficiency calculation means for calculating movement efficiency, and the movement efficiency Is less than or equal to the first threshold or less than or equal to the first threshold, and the second movement efficiency determination means and the second movement efficiency determination means are less than or equal to 1 If it is determined that it is greater than or equal to the threshold, "If you are walking side by side, you are walking together" or "If the person behind is walking a certain distance from the first person, If it is determined that it is a “tailing state or an abnormal state that may be a suspicious person” and it is determined to be less than or equal to the first threshold value, there is a possibility of “playing, fighting, fighting” Second motion recognition means for determining.

上記人数判定手段が2人以上であると判定した場合あって、かつ上記移動状態判定手段が走行状態であると判定した場合、移動効率を算出する第3の移動効率算出手段と、上記移動効率が、1以下で第1の閾値以上であるか、第1の閾値以下であるかを判定する第3の移動効率判定手段と、上記第3の移動効率判定手段が、1以下で第1の閾値以上であると判定した場合は、「近くに並んで走っていれば、ジョギング等で一緒に走って正常状態」か、「後ろの人が先頭の人から一定の距離だけ離れて走っていれば、追いかけている状態、又は不審者の可能性がある異常状態」であると判断し、第1の閾値以下であると判定した場合は、「逃げたり、追いかけたりしている状態」遊んでいる、喧嘩、殴り合い」のいずれかの可能性があると判断する第3の動作認識手段と、を備えてもよい When it is determined that the number of persons determination means is two or more and the movement state determination means is determined to be in a running state, a third movement efficiency calculation means for calculating movement efficiency, and the movement efficiency Is less than or equal to the first threshold or less than or equal to the first threshold, and the third movement efficiency determination means and the third movement efficiency determination means are less than or equal to 1 If it is judged that it is above the threshold, “If you are running side by side, run together with jogging etc. to be in a normal state” or “Run behind the person at a certain distance from the first person. If it is determined that it is a chasing state or an abnormal state that may be a suspicious person, and if it is determined to be less than or equal to the first threshold value, play a state of “running or chasing” Judging that there is a possibility of `` fighting, fighting, fighting '' A third operation recognition means that may comprise

さらに、本発明は、起立状態判定手段が立っている状態ではないと判定した場合、形状測度及び/又は動き測度を算出する形状測度等算出手段と、形状測度等算出手段が算出した形状測度及び/又は動き測度に基づいて、人間の姿勢を検出する姿勢検出手段とを備えることもできる。 Furthermore, the present invention, when it is determined that the standing state determination means is not in a standing state, the shape measure and the like calculation means for calculating the shape measure and / or the motion measure, and the shape measure calculated by the shape measure etc. It is also possible to provide posture detecting means for detecting a human posture based on the motion measure.

家庭内、公共の建物内や通学路などにおいては、病人、子供や老人等が急に転倒したり、うずくまったり、したりの異常がないか、周辺に怪しい人がいないか、等を検知し通報する見守りシステムの構築に利用できる。 In homes, public buildings, school routes, etc., detect whether there are abnormalities such as sudden fall, cramping, or illness of sick people, children, elderly people, etc. It can be used to build a monitoring system for reporting.

不審者の発見や追跡、見守り対象者の異常事態発見等のためには、人の候補領域が検出された後処理として簡便で高精度な姿勢・動作の認識方法の開発が強く望まれており、24時間自動監視システム及び見守りシステムを実現することができる。 In order to detect and track suspicious individuals, discover abnormal situations in the person being watched over, etc., it is strongly desired to develop a simple and highly accurate posture / motion recognition method as a post-processing after human candidate areas are detected. , A 24-hour automatic monitoring system and a monitoring system can be realized.

複数センサーの使用により、セグメンテイション及び位置推定精度の向上を図ることができ、結果として姿勢・動作の認識精度も向上し、より信頼性の高い異常事態発生の検知が可能となる。また、3次元的な位置を捉えられるので、正確な追跡が可能となる。 By using a plurality of sensors, segmentation and position estimation accuracy can be improved. As a result, posture / motion recognition accuracy is improved, and it is possible to detect an abnormal situation with higher reliability. In addition, since a three-dimensional position can be captured, accurate tracking is possible.

一定の動きをする人や物を検出する際に、人混みの多いところでは、遮蔽が頻繁に発生し、照明変動の影響等でうまく検出できない場合が多々あるが、そのような場合でも柔軟性の高い頑健な対象物検出が可能となる。前処理が安定的に高精度で行われることにより、人の姿勢・動作の認識精度及び位置推定精度が向上し、不審者等の正しい追跡が可能となる。 When detecting a person or object that moves a certain amount of time, in a crowded place, shielding often occurs, and there are many cases where it cannot be detected well due to the effects of lighting fluctuations. Highly robust object detection is possible. Since the preprocessing is stably performed with high accuracy, recognition accuracy and position estimation accuracy of the posture / motion of a person are improved, and correct tracking of a suspicious person or the like becomes possible.

処理手段を含むシステム全体の構成図Overall system configuration including processing means システム全体の処理フローダイアグラムProcess flow diagram of the entire system バウンディングボックスに関連するパラメータを示す図Diagram showing parameters related to bounding box すれ違ったとたんに向きを変えた場合と変えない場合の追跡Tracking when you change direction as soon as you pass 第1の実施形態における3次元測距センサーの説明図Explanatory drawing of the three-dimensional distance measuring sensor in the first embodiment 第1の実施形態における画像と3次元測距センサーとの併用によるセグメンテイションを説明する図The figure explaining the segmentation by combined use of the image and 3D ranging sensor in a 1st embodiment 複数のセンサーによる遮蔽領域の違いを説明する図The figure explaining the difference of the shielding area by a plurality of sensors 第2の実施形態における位置推定の原理を示す図The figure which shows the principle of the position estimation in 2nd Embodiment 第3の実施形態における姿勢・動作を示す図The figure which shows the attitude | position and operation | movement in 3rd Embodiment 第3の実施形態における固定センサーと携帯センサーを併用する場合の説明図Explanatory drawing in the case of using together the fixed sensor and portable sensor in 3rd Embodiment 第4の実施形態における人の起立状態の判定方法を示す図The figure which shows the determination method of the standing state of the person in 4th Embodiment 第4の実施形態における人の起立状態の分類方法を示す図The figure which shows the classification | category method of the standing state of the person in 4th Embodiment 第4の実施形態における人の起立状態でない場合の分類方法を示す図The figure which shows the classification | category method when it is not the standing state of the person in 4th Embodiment 第4の実施形態における人の動きの違いを示す図The figure which shows the difference in the movement of the person in 4th Embodiment

以下、本発明の第1の実施形態について、図面と数式に基づいて説明する。図1は、本実施形態における処理手段を含むシステム全体の構成図である。本システム100は、対象物を観測する同種又は異種の複数のセンサー101、102と、センサー101、102から得られる複数のデータを対応付けて観測領域内の対象物を認識する認識手段103を備えている。センサー101、102は、一定時間内に、背景や対象物を観測する観測手段としての機能を有し、固定センサー101、携帯センサー102等で構成される。   Hereinafter, a first embodiment of the present invention will be described based on the drawings and mathematical formulas. FIG. 1 is a configuration diagram of the entire system including processing means in the present embodiment. The system 100 includes a plurality of sensors 101 and 102 of the same type or different types that observe an object, and a recognition unit 103 that recognizes the object in the observation region by associating a plurality of data obtained from the sensors 101 and 102. ing. The sensors 101 and 102 have a function as observation means for observing a background and an object within a certain time, and are composed of a fixed sensor 101, a portable sensor 102, and the like.

一定時間内、監視及び見守り対象となる場面を観測する観測手段として、次に挙げるセンサーを用いてもよい。センサーの種類は、「0次元:位置計測GPS、温度、湿度」、「1次元:加速度計(3軸)、角加速度計(3軸)、傾斜計(3方向、角加速度計に含ませ得る)、マイク(音響)」、「2次元:通常の可視光カメラ、近赤外線カメラ、遠赤外線カメラ、サーモグラフィ」、「3次元:3次元データ(レンジセンサー、3次元位置センサー、3次元モーションセンサー、3次元測距センサー)」等から選ばれる。ここでは、本来の使用目的と直感的な分かりやすさのために主に画像を用いて説明するが、その他のメディア(3次元データ等)等の観測データに欠落がある場合にも同様に適用できる。また、種々の変動等に対応するために0次近似だけでなく、線形近似あるいは高次近似等も使え、誤差を最小にするために、最小二乗平均誤差(LMS: Least Mean Square)、あるいは最大誤差を最小にして最適値を得る手法等も必要に応じて使い分ければよい。認識手段103は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)等を備えたパーソナルコンピュータで構成され、CPUが、ROMやHDD等に記憶されているプログラムを実行することで、認識手段としての機能が果たされる。   The following sensors may be used as observation means for observing scenes to be monitored and watched over within a certain period of time. The types of sensors are “0 dimension: position measurement GPS, temperature, humidity”, “1 dimension: accelerometer (3 axes), angular accelerometer (3 axes), inclinometer (3 directions, can be included in the angular accelerometer. ), Microphone (acoustic) ”,“ 2D: normal visible light camera, near infrared camera, far infrared camera, thermography ”,“ 3D: 3D data (range sensor, 3D position sensor, 3D motion sensor, 3D ranging sensor) ”and the like. Here, we will explain mainly using images for the purpose of original use and intuitive understanding, but the same applies to cases where observation data such as other media (such as 3D data) is missing. it can. Also, not only zero-order approximation but also linear approximation or higher-order approximation can be used to cope with various fluctuations, and the least mean square error (LMS) or maximum is used to minimize the error. A technique for obtaining an optimum value by minimizing an error may be properly used as necessary. The recognizing means 103 is composed of, for example, a personal computer including a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), an HDD (Hard Disk Drive), etc., and the CPU is a ROM or HDD. A function as a recognition unit is performed by executing a program stored in the above.

次に、本実施形態の対象物認識システム(又は監視システム、見守りシステム)におけるシステム全体の流れについて簡単に説明する。図2は、本実施形態におけるシステム全体の処理フローダイアグラムである。まず、観測に入る前に初期値としての背景を求める。ここで、背景とは、人、物に関わらず、観測開始より前から観測が始まってからも一定期間静止しているものを意味し、初期背景とは観測開始時の背景、短時間背景と長時間背景は静止時間の長短により区別する。すなわち、途中から現れても、ある一定時間以上場面中に存在し、静止し続けているものを指すこともある。   Next, the flow of the entire system in the object recognition system (or monitoring system, watching system) of this embodiment will be briefly described. FIG. 2 is a processing flow diagram of the entire system in the present embodiment. First, the background as the initial value is obtained before the observation. Here, the background means a thing that is stationary for a certain period after the observation starts before the start of observation, regardless of the person or object, and the initial background is the background at the start of observation, the short-time background. A long-time background is distinguished by the length of stationary time. That is, even if it appears from the middle, it may be present in the scene for a certain period of time and remain stationary.

図2に示すように、センサー200からのデータを受けとり(S201)、背景の抽出と更新をする(S202)。まず、背景差分やフレーム間差分等により対象物領域を抽出し(S203)、さらに位置と大きさの微調整を行い(S204)、セグメンテイションを行い(S205)、領域特徴を抽出する(S206)。3次元実空間上での位置推定を行い(S207)、対象となる静止物体や一定の動きをする動物体の姿勢・動作の認識、不審物の検出を行う(S208~S213)。具体的には、物か、人かの判別を行い(S208)、物ならば不審物と判断して(S209)、この不審物を持ってきた人の追跡を始める(S210)。人ならば姿勢・動作の認識結果から異常事態の検出を行い(S211、S212)、異常が発見されたら通報等の対応をする(S213)。これらの手順により一連の処理を終わるが、監視及び見守り時間中は上の処理を繰り返す。 As shown in FIG. 2, the data from the sensor 200 is received (S201), and the background is extracted and updated (S202). First, an object region is extracted based on a background difference, an inter-frame difference or the like (S203), finely adjusted in position and size (S204), segmented (S205), and region features are extracted (S206). . Position estimation in a three-dimensional real space is performed (S207), and the posture and movement of a target stationary object or a moving object that moves in a certain manner are detected, and a suspicious object is detected (S208 to S213). Specifically, it is determined whether it is an object or a person (S208). If it is an object, it is determined as a suspicious object (S209), and tracking of the person who brought this suspicious object is started (S210). If it is a person, an abnormal situation is detected from the recognition result of posture / motion (S211 and S212), and if an abnormality is found, a notification or the like is taken (S213). A series of processing is completed by these procedures, but the above processing is repeated during monitoring and watching time.

本実施形態では、対象物とは静止物体あるいは一定の動きをする物体で検出・認識の対象となっているものであり、人と物を含む。対象となる静止物体とは、人、物を問わず、ある時刻、例えば、最初観測を始めた時には存在していなくて、それ以後、途中から場面中に存在し、静止し続けているものを指す。例えば、誰かが置き忘れたもの、故意に置いて行ったもの、および歩いてきて椅子に座っている人等を指す。観測の最初から存在していたものは対象としない。また、途中から現れても、ある一定時間以上場面中に存在し、静止し続けているものを指すこともある。 In the present embodiment, the object is a stationary object or an object that moves in a certain manner and is a target of detection / recognition, and includes a person and an object. The target stationary object is a thing that does not exist at a certain time, for example, at the beginning of observation, regardless of a person or an object, and has existed in the scene from the middle and has been stationary since then. Point to. For example, it refers to something that someone has left behind, deliberately left behind, or a person who walks and sits in a chair. Those that existed from the beginning of the observation are not included. In addition, even if it appears from the middle, it may be present in the scene for a certain period of time and remain stationary.

バウンディングボックスは、図3に示すように、ある対象物を囲む最小の長方形、あるいは直方体領域のことであるが、必ずしも最小のものが抽出できるとは限らない。また、重心は対象物候補領域の位置を表す一つのパラメータであり、他にも対象物候補領域の位置を表す一つのパラメータとしてはバウンディングボックスの左上隅の点の位置、最上点、最下点等を選ぶことも可能である。シルエットとは、背景差分等によって抽出された対象物(人、物)領域を白黒で表現したものである。3次元データは、3次元空間上の距離画像データ等を総称していい、レンジセンサーや3次元位置センサー、3次元モーションセンサー、3次元測距センサー等から取得することができる。
ここで、対象物候補領域は対象物領域であると判断される前の領域であって、この候補領域を基に対象物領域が決められる。対象物の存在位置や動きを反映するパラメータとしては、対象物のシルエットやバウンディンボックスの重心や領域の最大値、最小値、背景差分の絶対値や後述する動き測度等がある。画像を例に取ると、このパラメータに対応する画像上の領域を求めると対象物の存在位置や大きさを知ることができる。また、対象物パラメータは対象物を反映するパラメータ、背景パラメータは背景を反映するパラメータのことで、具体的な例として画素値や3D位置データ等である。両方を総称して領域パラメータという。また、画像を例に取ると、対象物存在位置パラメータに対応する画像上の領域を求めると対象物の存在位置、対象物領域や大きさ等を知ることができる。
As shown in FIG. 3, the bounding box is a minimum rectangle or a rectangular parallelepiped region surrounding a certain object, but the minimum one cannot always be extracted. The center of gravity is one parameter that represents the position of the candidate object region, and other parameters that represent the position of the candidate object region include the position of the upper left corner of the bounding box, the top point, and the bottom point. It is also possible to select etc. The silhouette is a black and white representation of an object (person, object) region extracted by background difference or the like. The three-dimensional data may collectively refer to distance image data in a three-dimensional space, and can be acquired from a range sensor, a three-dimensional position sensor, a three-dimensional motion sensor, a three-dimensional distance sensor, or the like.
Here, the object candidate area is an area before it is determined to be the object area, and the object area is determined based on the candidate area. Parameters that reflect the position and motion of the object include the silhouette of the object, the center of gravity of the bounding box, the maximum and minimum values of the area, the absolute value of the background difference, and a motion measure described later. Taking an image as an example, if an area on the image corresponding to this parameter is obtained, the position and size of the object can be known. The object parameter is a parameter that reflects the object, and the background parameter is a parameter that reflects the background. Specific examples include pixel values and 3D position data. Both are collectively referred to as region parameters. Taking an image as an example, if the area on the image corresponding to the target object position parameter is obtained, the target position, the target area, the size, and the like can be known.

上記複数のセンサーから得られる複数のデータを対応付けて利用すれば、図4は画像では追跡が難しい場合でも3D測距センサーを使えば簡単に行える例を示している。   If a plurality of data obtained from the plurality of sensors are used in association with each other, FIG. 4 shows an example that can be easily performed using a 3D distance measuring sensor even when tracking is difficult with an image.

上記複数のセンサーから得られる複数のデータを対応付けて対象物を認識する認識手段について説明する。複数のセンサーを用いる場合、対象物領域を切り出す、いわゆるセグメンテイションが重要となる。図5は3次元測距センサーの説明図であり、図6は、本実施形態における画像と3次元測距センサーとの併用によるセグメンテイションを説明する図である。まず、セグメンテイションには、複数センサーからのデータ間の対応付けを行うことで、両方のデータを相補的に利用することができる。今の例では、形状と画像の両方を利用することで高精度でのセグメンテイションが可能となる。例えば、図6(a)の有効データ範囲は同図(b)の少女の位置に対応しており、仮に服の色が周辺の壁の色と同じであっても正確なセグメンテイションが行える。そのときに、双方向の空間マッピングが考えられる。具体的には、例えば2次元画像データを3次元曲面データ上に重畳する場合や、3次元測距画像データを2次元画像上に重畳する場合がある。図6では画像上の実線がスキャン点を示している。   A recognition unit that recognizes an object by associating a plurality of data obtained from the plurality of sensors will be described. When using a plurality of sensors, so-called segmentation, which cuts out an object region, is important. FIG. 5 is an explanatory diagram of a three-dimensional distance sensor, and FIG. 6 is a diagram for explaining segmentation by using an image and a three-dimensional distance sensor in combination with this embodiment. First, in the segmentation, by associating data from a plurality of sensors, both data can be used complementarily. In the present example, segmentation can be performed with high accuracy by using both the shape and the image. For example, the valid data range in FIG. 6A corresponds to the position of the girl in FIG. 6B, and accurate segmentation can be performed even if the color of the clothes is the same as the color of the surrounding wall. At that time, bidirectional spatial mapping can be considered. Specifically, for example, 2D image data may be superimposed on 3D curved surface data, or 3D ranging image data may be superimposed on a 2D image. In FIG. 6, the solid line on the image indicates the scan point.

カメラと3次元測距センサーが同じ位置にない場合には、図7に示すように違う位置に遮蔽が発生することがあるが、セグメント領域に余裕を持たせることで、対応できる。また、事前にお互いの相対的位置が分かっていれば遮蔽位置は計算により分かる。3次元測距センサーのような3次元データが得られるセンサーを用いれば、ステレオ視を用いずに距離データを直接求めることができるため、高い信頼性で高速に結果が得られる。遮蔽の発生は同じ場所に設置されたセンサーから得られた観測値であれば、基本的には同時に発生する。   When the camera and the three-dimensional distance measuring sensor are not at the same position, shielding may occur at different positions as shown in FIG. 7, but this can be dealt with by giving a margin to the segment area. Further, if the relative positions of each other are known in advance, the shielding position can be found by calculation. If a sensor capable of obtaining three-dimensional data such as a three-dimensional distance measuring sensor is used, distance data can be obtained directly without using stereo vision, and a result can be obtained at high speed with high reliability. Shielding occurs basically at the same time as long as it is an observation value obtained from a sensor installed at the same location.

場所が違えば、遮蔽の発生は、時間、場所が異なるので、相補的な利用が可能となる。すなわち、あるセンサーS1で遮蔽が発生し(データの消失、あるいは不連続が観測される場合も含む)、センサーS2で遮蔽が観測されなければ(観測データは連続)、対象物体は連続的な動きをしており、S1の遮蔽は一時的なものと解釈して、線形補間等により、遮蔽発生区間のデータを予測により求めることができる。また、一方のセンサー(S1)情報から他方のセンサー(S2)の遮蔽の発生が推定できるときは、その区間のS2のデータを除外して、近似を行うことで精度が向上する。一般には線形近似が簡単で効果的である。 If the place is different, the occurrence of the shielding is different in time and place, so that complementary use is possible. In other words, shielding occurs at a certain sensor S 1 (including cases where data loss or discontinuity is observed), and if shielding is not observed at sensor S 2 (observation data is continuous), the target object is continuous. The shielding of S 1 is interpreted as temporary, and the data of the shielding occurrence section can be obtained by prediction by linear interpolation or the like. Further, when the occurrence of shielding of the other sensor (S 2 ) can be estimated from the information of one sensor (S 1 ), the accuracy is improved by excluding the data of S 2 in that section and performing approximation. In general, linear approximation is simple and effective.

図6において、実線は3次元測距センサーからのデータが有効な範囲、破線は半径方向に沿っており無効な範囲(未決定)を示している。正確なセグメンテイションは認識の前処理には必要不可欠であり、複数方向からのデータがあればさらに細かく対応が付けられ、より正確なセグメンテイションが可能となる。このように組み合わせることで、人の居る位置が分かり、3D形状も取得できることから、画像からの情報と3次元測距センサーからの情報により異常判定が可能となる。例えば、急に高さが変化して、半分以下になれば、スリップして転倒した可能性が大きく、このことを画像により確認することもできる。3次元測距センサーの代わりにレンジセンサー等の3次元データが得られるもので置き換えることもできるが、一般的にはより高価なシステムとなる。また、転倒等では急激な移動を伴うので、加速度計、角加速度計、傾斜計等からも変化が観測できる。 In FIG. 6, a solid line indicates a valid range of data from the three-dimensional distance measuring sensor, and a broken line indicates an invalid range (undecided) along the radial direction. Accurate segmentation is indispensable for preprocessing of recognition, and if there is data from a plurality of directions, more precise correspondence can be made, and more accurate segmentation is possible. By combining in this way, the position where a person is present can be known, and a 3D shape can also be acquired. Therefore, it is possible to determine abnormality based on information from an image and information from a three-dimensional distance measuring sensor. For example, if the height suddenly changes and becomes half or less, the possibility of slipping and falling is large, and this can be confirmed by an image. Although it can be replaced by a three-dimensional data such as a range sensor instead of the three-dimensional distance measuring sensor, it is generally a more expensive system. Further, since a sudden movement is caused by a fall or the like, a change can be observed from an accelerometer, an angular accelerometer, an inclinometer or the like.

安全運転支援の観点からの応用も考えられる。例えば、車載カメラを用いて車のピラーや木立等による死角領域を抽出し、自車の近くにある他車両の3次元位置、向きを検出し、車外カメラや固定カメラ等からの画像を用いて死角にある画像を合成し、ドライバーに提示することができれば、安全性向上に役立つ。同様の考え方に基づいて、死角のない画像取得・認識システムの構築が可能となる。 Applications from the perspective of safe driving support are also conceivable. For example, an in-vehicle camera is used to extract a blind spot area such as a car pillar or a tree, and a three-dimensional position and direction of another vehicle near the own vehicle is detected, and an image from an outside camera or a fixed camera is used. If the image in the blind spot can be synthesized and presented to the driver, it will help improve safety. Based on the same idea, it is possible to construct an image acquisition / recognition system without a blind spot.

背景画像を入れ替えることで画像合成ができる。クロマキーでは背景として青色を使うことが多いので青い物体は背景と解釈されるが、距離画像の無限遠点あるいは一定の距離以上の点を背景と見なせば、このような失敗はなく画像合成が可能となる。 Image composition is possible by replacing the background image. In the chroma key, blue is often used as the background, so blue objects are interpreted as the background.However, if a point at an infinite distance or a distance above a certain distance is considered as the background, there is no such failure, and image composition can be performed. It becomes possible.

次に、本発明の第2の実施形態について説明する。主として第1の実施形態と異なる点について説明し、共通する点については説明を省略する。本実施形態では、複数のセンサーが、データの種類、設置場所、観測方向のうち少なくともいずれか1つが異なっている。認識手段は、後述する重畳手段及び位置検出手段を備えている。 Next, a second embodiment of the present invention will be described. Differences from the first embodiment will be mainly described, and description of common points will be omitted. In the present embodiment, the plurality of sensors are different in at least one of data type, installation location, and observation direction. The recognizing means includes superimposing means and position detecting means to be described later.

一般にセンサーの設置場所、種類により誤差の分布(広がり方)が異なるので、その違いを利用して精度の高い位置推定方法を行う。まず重畳手段が、複数のセンサーから得られる、誤差分布が異なる複数の位置データを対応付けて重畳する。図8は、本実施形態における複数センサーからの推定位置の誤差の少ない領域の重なり部分を採用することで高精度を達成する様子を示したものである。破線はImg1からの位置推定値、点線はImg2からの位置推定値を示しており、両方の共通部分としてより正確な位置が求まる。ただし、楕円は推定誤差がある範囲内にある領域を示している。また、複数センサーからの共通領域を採用することで精度は高まる。この例は、画像同士の例であるが、画像と3次元データの間にも拡張可能である。可視光と赤外線画像間、解像度の異なる画像間、さらには複数のセンサー間のデータにも同様に適用できる。特に、図8の例に見るように対象物搭載センサーと周辺に設置されたセンサーとの相互認識(計測)により位置推定精度向上を図る方法は有効である。こうすることで、一般には誤差の広がりの方向が異なるので精度が上がる。言い換えれば、わざわざ、分布が異なるようなセンサーの設置状況を作り出すことが重要である。位置推定は対象物の追跡には必要不可欠である。以上のように、位置検出手段によって、重畳手段が重畳した複数の位置データが重なる部分に基づいて、対象物の位置を検出することができる。 In general, the error distribution (spreading method) varies depending on the installation location and type of the sensor, and a highly accurate position estimation method is performed using the difference. First, the superimposing means superimposes a plurality of position data obtained from a plurality of sensors with different error distributions in association with each other. FIG. 8 shows a state in which high accuracy is achieved by adopting an overlapping portion of regions where there are few errors in estimated positions from a plurality of sensors in the present embodiment. A broken line indicates a position estimated value from Img 1 , and a dotted line indicates a position estimated value from Img 2. A more accurate position is obtained as a common part of both. However, the ellipse indicates a region within an estimation error range. In addition, the accuracy is increased by adopting a common area from a plurality of sensors. This example is an example of images, but can be extended between an image and three-dimensional data. The present invention can be similarly applied to data between visible light and infrared images, between images having different resolutions, and between a plurality of sensors. In particular, as shown in the example of FIG. 8, a method of improving the position estimation accuracy by mutual recognition (measurement) between the object-mounted sensor and the sensors installed in the vicinity is effective. By doing so, the accuracy increases because the direction of error spread is generally different. In other words, it is important to create sensor installations that have different distributions. Position estimation is indispensable for tracking an object. As described above, the position of the target object can be detected by the position detection unit based on the overlapping portion of the plurality of position data superimposed by the superimposition unit.

次に、本発明の第3の実施形態について説明する。主として第1及び第2の実施形態と異なる点について説明し、共通する点については説明を省略する。本実施形態では、加速度計や角加速度計や傾斜計等の一次元センサーと、カメラ又は3次元測距センサー等を併用することで、対象物の姿勢状態を検出することができる。 Next, a third embodiment of the present invention will be described. Differences from the first and second embodiments will be mainly described, and description of common points will be omitted. In the present embodiment, the posture state of an object can be detected by using a one-dimensional sensor such as an accelerometer, an angular accelerometer, or an inclinometer and a camera or a three-dimensional distance measuring sensor in combination.

本実施形態では、遮蔽や照明変動に強く、頑健で高精度な人の姿勢・動作認識システムの実現のために、画像だけでなく違うメディアタイプのセンサー情報とを併用して用いている。例えば、転倒したときに仰向けか、うつ伏せか、画像だけでは分かりにくいが、加速度計や角加速度計や傾斜計と併用することで、確実に判定できる。対象者が装着していたセンサーからのデータが得られれば、簡単にどちら向きに倒れたのか、どちら向きに倒れているのか、等の情報が得られる。一方、複数箇所に設置されたカメラや3次元測距センサーからの情報を統合すれば、同様に多くの情報が得られる。ここではこのような同種及び/又は異種センサーを相補的に用いて精度・信頼性の向上を図るために情報統合を行うことを特徴とする。向き等検出手段は加速度計や角加速度計や傾斜計等のデータから対象物の向き及び/又は動きを検出し、姿勢等検出手段はカメラや3次元センサーのデータを処理することにより対象物の姿勢及び/又は向き及び/又は動作を検出する。状態検出手段はこれらの情報を相補的に用いて対象物の状態を検出するが、以下に例を挙げて説明する。   In this embodiment, in order to realize a robust and highly accurate human posture / motion recognition system that is resistant to shielding and illumination fluctuations, not only images but also different media type sensor information is used in combination. For example, it is difficult to determine whether it is lying on its back or lying down when it falls, but it can be reliably determined by using it in combination with an accelerometer, angular accelerometer, or inclinometer. If the data from the sensor worn by the subject is obtained, information such as which direction the body has fallen easily and which direction it has fallen can be obtained. On the other hand, if information from cameras and three-dimensional ranging sensors installed at a plurality of locations are integrated, much information can be obtained in the same manner. Here, information integration is performed in order to improve accuracy and reliability by using the same type and / or different types of sensors in a complementary manner. The orientation detection means detects the orientation and / or movement of the object from data such as an accelerometer, an angular accelerometer, and an inclinometer, and the orientation detection means processes the data of the camera or the three-dimensional sensor to process the object. Detect posture and / or orientation and / or movement. The state detection means detects the state of the object by using these pieces of information in a complementary manner, and will be described below with an example.

以下、対象物の姿勢状態を検出する姿勢検出方法について説明する。加速度計、角加速度計、傾斜計を上半身に装着すると「腰を曲げる、腰を低くする、上半身を曲げる、上体を倒す、かがむ」等の姿勢の変化や動作等の認識はしやすい。しかし、動作によっては、よろめく、つまずく、足を引きずる、のろのろ進む、等のようにそれほどはっきりした違いが現れないものもあり、画像あるいは3次元データと併用する必要がある。加速度計、角加速度計、傾斜計には遮蔽がないので見る方向や場所を問わず、検出可能である。図9は、本実施形態における姿勢・動作を示したものであるが、上段の「歩く、走る、つまずく、腰を曲げる、座る」については、画像や3次元データから、移動速度の「停止、ゆっくり、速い」、形状測度「アスペクト比、モーメント比、高さ(H)、Top」等で区別できる。ここで、形状測度とはモノの形を計るモノサシのことで、例えば、形そのもの、大きさ、円形度、伸長度、縦横高さ、モーメント、アスペクト比、モーメント比、輪郭線、フーリエ記述子、ヒストグラム、HOG等がある。また、HOG(Histgrams of Oriented Gradients)特徴量は勾配ベースの特徴量であり、フーリエ記述子(Fourier Descriptor)は物体の境界曲線の形状を表す特徴量となる。動き測度とは、動きの違いを図るモノサシのことで、速度、加速度、角速度、角加速度、傾斜角、移動効率(詳細は後述)等がある。以上のようにして、加速度計、角加速度計、傾斜計等のデータに基づいて、対象物の向き及び/又は動きを検出することができる。   Hereinafter, a posture detection method for detecting the posture state of an object will be described. When an accelerometer, angular accelerometer, or inclinometer is attached to the upper body, it is easy to recognize posture changes and movements such as “bend the waist, lower the waist, bend the upper body, tilt the upper body, and crouch.” However, there are some operations that do not appear so distinct, such as staggering, stumble, dragging, and slowing down, and must be used in combination with images or 3D data. Since accelerometers, angular accelerometers, and inclinometers are not shielded, they can be detected regardless of viewing direction or location. FIG. 9 shows the posture and movement in the present embodiment. For “walking, running, stumbling, bending the waist, sitting” in the upper stage, from the image and the three-dimensional data, the movement speed is “stop, It can be distinguished by “slow and fast”, shape measure “aspect ratio, moment ratio, height (H), Top”. Here, the shape measure is a monosashi that measures the shape of a thing, for example, the shape itself, size, circularity, elongation, height and width, moment, aspect ratio, moment ratio, contour line, Fourier descriptor, There are histograms, HOG, etc. A HOG (Histgrams of Oriented Gradients) feature is a gradient-based feature, and a Fourier descriptor (Fourier Descriptor) is a feature representing the shape of a boundary curve of an object. A motion measure is a monosashi that seeks a difference in motion, and includes speed, acceleration, angular velocity, angular acceleration, inclination angle, movement efficiency (details will be described later), and the like. As described above, the direction and / or movement of the object can be detected based on data such as an accelerometer, an angular accelerometer, and an inclinometer.

また、上段と下段の区別は簡単であるが、同図下段の「転倒(うつ伏せ)、転倒(仰向け)、転倒(横向け)、休息」については転倒したのか、休息しているのか、どちら向きか、等は判断し難いが、加速度計、角加速度計や傾斜計のデータから簡単に知ることができる。画像や3次元データだけを用いるときでも、対象物の姿勢や動作、すなわち転倒か休息しているのかはこの状態に至る経過から判断ができる。急激に状態が変化したのであれば、転倒であり、ゆっくりであれば、休息のために横たわっただけである。転んだときは、回転が加わるので大きな角加速度が観測される。ただ単に向きを変えたときは、回転はあるが、高さは不変であり(画像、3次元データから分かる)、観測される角加速度データ等も違ってくる。また、静止しているときは、「立っているか、座っているか、横になっているか」等は静止状態なので画像や3次元データから比較的容易に判断できるが、加速度計や角加速度計や傾斜計からは判断できない。 In addition, although it is easy to distinguish between the upper and lower tiers, in the lower part of the figure, for “falling (downside down), falling (facing up), falling (sideways), resting”, whether you have fallen or are resting? It is difficult to determine whether or not, but it can be easily known from the data of accelerometers, angular accelerometers and inclinometers. Even when only images and three-dimensional data are used, it is possible to determine the posture and motion of the object, that is, whether it falls or rests from the progress to this state. If it suddenly changed, it was a fall, and if it was slow, it just lay down for rest. When it falls, a large angular acceleration is observed due to the rotation. However, if the orientation is simply changed, the rotation will occur, but the height will remain unchanged (as seen from the image and 3D data), and the observed angular acceleration data will also differ. In addition, when standing still, “whether standing, sitting, or lying” is still, so it can be judged relatively easily from images and 3D data, but accelerometers, angular accelerometers, It cannot be judged from the inclinometer.

図9に示したのは例示であり、センサーにはこのように長所短所があり、違ったセンサー情報を統合的に用いることで弱点を補い合い信頼性高い認識結果が得られる。以上のようにして、加速度計、角加速度計、傾斜形等のデータと、画像や3次元データ等の複数の異なるデータに基づいて対象物の状態を検出することができる。 FIG. 9 shows an example, and the sensor has such advantages and disadvantages. By using different sensor information in an integrated manner, a weak recognition can be compensated and a highly reliable recognition result can be obtained. As described above, the state of the object can be detected based on data such as an accelerometer, an angular accelerometer, and an inclined shape, and a plurality of different data such as images and three-dimensional data.

センサー情報統合にはもう一つの側面がある。即ち、前述は異種センサー情報の統合であったが、同種センサーの統合により高精度認識を実現できる。図10は一つの実施形態における例であるが、固定と携帯カメラの2つの画像から状況の認識ができる。例えば、転倒すると両方のカメラに急激な変化が観測され、異常事態が発生したことが分かる。携帯カメラ画像は劇的に変化し、何が映っているかで、人の向き、位置が分かる。同時にセンサーからも異常事態の発生が確認される。1次元センサーの情報からもこの状況は観測される。このように「固定、携帯」×「同種、異種」×「複数台センサー」の組合せで情報統合を行うことにより、転倒の検出を確かなものとすることができる。ここでは分かり易さのために転倒の例をあげたが、その他の異常事態の検出にも同様に適用可能である。このとき、歩行中のセンサーデータにおける前後加速度から異常発生が分かる。例えば、図10は、「正常に歩いているときは周期的な変化(1)、角を曲がり終わって走り出した(2)トタンに転んだ(3)⇒異常発生した。異常事態が発生したことは携帯及び/又は固定カメラ画像と合わせて判断することで信頼性が向上する。」ことを示している。   There is another aspect to sensor information integration. That is, the above-described integration of different types of sensor information can realize high-accuracy recognition by integrating the same type of sensors. FIG. 10 is an example in one embodiment, but the situation can be recognized from two images of a fixed camera and a portable camera. For example, when the camera falls, a sudden change is observed in both cameras, indicating that an abnormal situation has occurred. Mobile camera images change dramatically, and the direction and position of people can be determined by what is reflected. At the same time, an abnormal situation is confirmed from the sensor. This situation is also observed from the information of the one-dimensional sensor. In this way, by performing information integration with a combination of “fixed, mobile” × “same type / different type” × “multiple sensors”, it is possible to reliably detect a fall. Here, an example of a fall was given for the sake of simplicity, but the present invention can be similarly applied to detection of other abnormal situations. At this time, the occurrence of abnormality can be understood from the longitudinal acceleration in the sensor data during walking. For example, Fig. 10 shows, “When you are walking normally, a periodic change (1), after turning around the corner and running (2) turning to tin (3) ⇒ an abnormality occurred. Indicates that the reliability is improved by making a judgment together with the portable and / or fixed camera image. "

次式は、よく使われる形状特徴として一般に用いられているモーメントの定義を示すが、ある点、又はある軸の回りの分散を表現できるパラメータであれば、モーメントの代わりに利用することができる。例えば、ある軸に沿ってのヒストグラムの分散等を用いることもできる。
The following equation shows the definition of a moment that is generally used as a commonly used shape feature, but any parameter that can express the dispersion around a point or an axis can be used instead of the moment. For example, histogram dispersion along a certain axis can be used.

重心回りのモーメントを次式のように表す。
The moment around the center of gravity is expressed as

重心を通る垂直軸、水平軸回りモーメントを次式のように表す。
The vertical and horizontal moments passing through the center of gravity are expressed as follows:

ここで、全てのモーメントに関するパラメータは単独で用いることもできるが、比((4), (8))を用いた方が効果が高い。上の2種類のモーメントに関するパラメータにおいて、(2), (3), (6), (7) のモーメント計算においてここでは上下に分けたが、人の検知に使うときには、高さの比を設定し、その比で、頭、胴体、脚の3つの部分(腰を中心に2つに分けることも可能、何らかの意味のある部分に分ける)に分けて、それぞれの範囲で計算する(各区間の高さ:k1*H〜k2*H、0≦k1<k2≦1)。このようにすると一部分遮蔽があっても、見えている部分を利用でき、ある程度の判断ができるので、遮蔽に強い頑健なシステムが構築できる。前述のようにモーメントは分散等で代用することもできる。 Here, all moment parameters can be used independently, but the ratio ((4), (8)) is more effective. In the above two types of moment parameters, the moment calculation of (2), (3), (6), (7) is divided into upper and lower here, but when using for human detection, the ratio of height is set The ratio is divided into three parts (head, torso, leg) (can be divided into two parts around the waist, or divided into some meaningful parts) and calculated for each range (for each interval) Height: k 1 * H to k 2 * H, 0 ≦ k 1 <k 2 ≦ 1). In this way, even if there is partial shielding, the visible portion can be used and a certain degree of judgment can be made, so that a robust system that is strong against shielding can be constructed. As described above, the moment can be substituted by dispersion or the like.

また、次式に動き測度として用いられるものを挙げる。
In addition, the following equation is used as a motion measure.

以上は2次元上での話であるが、3次元空間上でも同様に定義することができる。SR及びDRは、式(8)、(9)の逆数を用いて定義されることもあるが、ここでは0から1の範囲の値をとる(0≦SR≦1、0≦DR≦1)ように上式のように定義する。なお、一般にフレームは画像を意味するが、3次元データ等その他マルチメディアコンテンツにも適用できる。コンテンツは、センサーから得られたデータの総称をいい、コンテンツが時間的に変化する場合に各時刻におけるデータをフレームと呼ぶ。例えば、動画を例に取ると、複数枚のフレーム(静止画)が集まって一つの動画を構成する。一般にはフレームは画像に用いられる場合が多いが、ここではその他のコンテンツにも同じ用語を用いることにする。 The above is a two-dimensional story, but it can be similarly defined in a three-dimensional space. SR and DR may be defined using the reciprocals of equations (8) and (9), but here take values in the range of 0 to 1 (0 ≦ SR ≦ 1, 0 ≦ DR ≦ 1). Define as above. In general, a frame means an image, but it can also be applied to other multimedia contents such as three-dimensional data. Content is a general term for data obtained from sensors, and when content changes with time, data at each time is called a frame. For example, taking a moving image as an example, a plurality of frames (still images) are collected to form one moving image. In general, a frame is often used for an image, but here, the same term is used for other contents.

次に、本発明の第4の実施形態について説明する。主として上述の実施形態と異なる点について説明し、共通する点については説明を省略する。本実施形態では、カメラからの画像データに基づいて、対象物となっている人が立っている状態であるか否かを判定する起立状態判定手段を備えている。   Next, a fourth embodiment of the present invention will be described. Differences from the above-described embodiment will be mainly described, and description of common points will be omitted. In the present embodiment, an upright state determination unit is provided that determines whether or not a person who is an object is standing based on image data from a camera.

まず、起立状態判定手段による判定方法について説明する。人の姿勢・動作の認識手段はまず「立っている」と「それ以外」に大分類する。ここでは「立っている」状態を起立状態と呼ぶ。背景差分等から2値化されたシルエット等を用いて、図11に示すようにまず立っている姿勢とそれ以外に大分類する。この処理は、動きを考慮に入れずに、一目見て分かるもので、1枚のシルエットから簡単に精度よく判別できる。ノイズ゛除去、精度向上等の目的で複数枚用いることはあり得るが、1枚のシルエットからでも識別できる。その後、複数センサーの情報を相補的・統合的に用いて、各姿勢・動作に合致する詳細判別ルール(詳細後述)を設定することで、立っているとそれ以外の状態をさらに細かく類別(小分類)することを特徴とし、このようにして可能性を絞ることで精度を上げ、同時に高速化を達成し、また複数センサーから得られるパラメータの組合せによって信頼性を確保することを特徴とする。図12及び図13は、それぞれ本実施形態における、立っている状態とそれ以外の詳細分類の項目例をあげたものである。ここでは、シルエットを用いて説明したが、画像に限らず3次元データ等にも適用できる。 First, the determination method by the standing state determination means will be described. Human posture / motion recognition means are broadly classified into “standing” and “other”. Here, the “standing” state is called the standing state. First, using the silhouette binarized from the background difference or the like, the posture is first classified into the standing posture and the rest as shown in FIG. This process can be understood at a glance without taking the movement into consideration, and can be easily and accurately discriminated from one silhouette. Although it is possible to use a plurality of sheets for the purpose of removing noise and improving accuracy, they can be identified from a single silhouette. After that, by using the information of multiple sensors in a complementary and integrated manner and setting detailed discrimination rules (details will be described later) that match each posture and movement, the other states can be further classified (small) In this way, it is characterized by improving the accuracy by narrowing down the possibilities, at the same time achieving high speed, and ensuring reliability by combining parameters obtained from a plurality of sensors. FIGS. 12 and 13 show examples of standing items and other detailed classification items in this embodiment, respectively. Here, a description has been given using silhouettes, but the present invention can be applied not only to images but also to three-dimensional data.

上記起立状態判定手段が人が立っている状態であると判定した場合について説明する。本実施形態における実施例として「立っている」状態の詳細判別ルールの例を示す。「立ち止まる」は動かないことで、「歩く、走る」はスピードの違いで、区別でき、「駆け足、全力疾走」等もスピード(動きの準周期)の違いで、区別できる。すなわち、移動速度に基づいて、人が静止状態であるか、歩行状態であるか、走行状態であるかを判定することができる。「立っている」は、「じっと立ち止まっている、歩く、走る、等」(正常)、「徘徊状態(うろうろする)」、「泥酔状態(酔っ払っている状態)」(異常)に分類でき、図14にその様子を示す。移動状態判定手段は、上記1次元センサー、あるいはカメラ画像3次元センサーからのデータから動き測度を用いて動きを分類する。ここでは直感的な分かりやすさのために画像を用いて説明するが、その他のメディア(3次元データや加速度計等)からのデータを利用してもよい。「うろうろする、酔っ払っている」を厳密に区別する論文は見かけないが、ここでは、次のように定義する。「徘徊状態(うろうろする)」は、同じことを目的無しに繰り返し、意味もなく、何回も同じ人が同じ場所に登場する動作のことを言い、首をよく回す場合が多い。また、「泥酔状態(酔っ払っている)」は、「うろうろ」ほど何回も繰り返さないが、安定せず、手を振ったり、一瞬止まったように見えてまた歩き出したりして、移動速度の平均値からの差がかなり大きい。   A case where the standing state determination unit determines that a person is standing will be described. As an example of the present embodiment, an example of a detailed determination rule in a “standing” state is shown. “Stop” does not move, “walk, run” can be distinguished by the difference in speed, and “running, full power” can be distinguished by the difference in speed (quasi-cycle of movement). That is, based on the moving speed, it can be determined whether the person is in a stationary state, a walking state, or a traveling state. “Standing” can be categorized as “Standing, Walking, Running, etc.” (Normal), “Drowsy” (Wandering), “Drunk (Drunken)” (Abnormal), The situation is shown in FIG. The movement state determination means classifies the movement from the data from the one-dimensional sensor or the camera image three-dimensional sensor using a movement measure. Here, an image is used for intuitive understanding, but data from other media (such as three-dimensional data and an accelerometer) may be used. I haven't seen any paper that strictly distinguishes “walking, drunk”, but here we define it as follows: “Wandering” means repeating the same thing without the purpose, meaningless, and the action of the same person appearing in the same place many times, often turning the neck well. In addition, “drunk state (drunk)” does not repeat as many times as “uro”, but it is not stable, shakes hands, seems to stop for a moment, and starts walking again. The difference from the average is quite large.

典型的な動きの軌跡のイラスト図を同図(a)に示す。一例として、次のような動作を区別するルールが作れる。
(1)
普通に歩く、走る :SR≒1か少し1を下回る程度 1≧SR≧Th1
歩くと走る(駆け足、全力疾走等)は移動速度での違いで区別できる。
(2)
酔っ払っている :・・・・・ Th1≧SR≧Th2
(3) うろうろしている :・・・・・ Th2≧SR≧0
An illustration of a typical trajectory of movement is shown in Figure (a). As an example, a rule that distinguishes the following operations can be created.
(1)
Normal walking, running: SR ≒ 1 or slightly less than 1 1 ≧ SR ≧ Th 1
When you walk, you can distinguish running (running, full power, etc.) by the difference in moving speed.
(2)
Drunk: …… Th 1 ≧ SR ≧ Th 2
(3) Wandering: ... Th 2 ≧ SR ≧ 0

ただし、SRは原理的に1より大きくはならない(SR≦1)。移動距離は画像上でなく、3次元実空間上に換算した方がより正確であり、3次元データや加速度計等のデータを利用してもよい。閾値は実験より決められる。SRの替わりに、Tフレーム前の位置と現在位置との差(D)、その間に移動した総距離(S)の比(DR=D/S )を用いてもよい。以上のように、SRが、1以下で第1の閾値(Th1)以上であるか、第1の閾値以下で第2の閾値(Th2)以上であるか、第2の閾値以下であるかを判定することで、「正常状態」「泥酔状態」「徘徊状態」を判断することができる。 However, SR should not be greater than 1 in principle (SR ≦ 1). The movement distance is more accurate when converted to a three-dimensional real space rather than an image, and data such as three-dimensional data or an accelerometer may be used. The threshold is determined by experiment. Instead of SR, the difference (D) between the position before the T frame and the current position, and the ratio of the total distance (S) moved between them (DR = D / S) may be used. As described above, SR is equal to or less than 1 and equal to or greater than the first threshold (Th 1 ), equal to or less than the first threshold and equal to or greater than the second threshold (Th 2 ), or equal to or less than the second threshold. It is possible to determine “normal state”, “drunk state”, and “drinking state”.

上記起立状態判定手段が人が立っている状態でないと判定した場合について説明する。この場合は、対象物の形状測度や動き測度を算出し、算出した形状測度等に基づいて、人間の姿勢を認識することができる。本実施形態では、形状測度としてバウンディングボックスのアスペクト比、モーメント比、高さ、幅、及びヒストグラムの重心位置からなるパラメータを用いている。以下、詳細に説明する。 A case where the standing state determination means determines that the person is not standing will be described. In this case, the shape measure and the motion measure of the object can be calculated, and the human posture can be recognized based on the calculated shape measure and the like. In the present embodiment, parameters including the bounding box aspect ratio, moment ratio, height, width, and histogram gravity center position are used as the shape measure. Details will be described below.

本形態における実施例として「立っている以外」の詳細判別ルールの例を次に挙げる。立っている状態からしゃがむと、全体のバウンディングボックスあるいはシルエットの重心Gy(t)は下がり(例えば、Gyから約半分の1/2Gyに変化)、飛び上がると上がる(例えば、約2倍の2*Gy に変化)。実際の使用時には適当な閾値を設定する。図13に見るように、最初のバウンディングボックスの上の部分、あるいは下の部分からシルエットがなくなることでも判断できる。このことは、3次元測距センサーを用いると、しゃがむと上(上半身部分)のデータがなくなり、ジャンプすると下(下半身部分)のデータがなくなる。ここで、データがなくなるということは背景が現れることを意味する。 As an example of the present embodiment, an example of a detailed determination rule of “other than standing” is given below. When squat from standing state, the center of gravity G y of the entire bounding box, or silhouette (t) is lowered (e.g., change from G y in about half 1 / 2G y), jumping the up (e.g., about twice 2 * G y ). An appropriate threshold is set in actual use. As can be seen from FIG. 13, it can also be determined that the silhouette disappears from the upper part or the lower part of the first bounding box. This means that if a three-dimensional distance measuring sensor is used, the upper (upper body part) data disappears when squatting, and the lower (lower body part) data disappears when jumping. Here, the loss of data means that a background appears.

瞬間的な動きの認識には姿勢を表わすパラメータの変化を用いるが、いくつかの例を次に挙げる。
立上がる MR:中→小、AR:中→小、H:中→大、W:中→小、Gy:中→高(急)
回れ右 MR:小、 AR:小、 H:大、 W:小、 Gy:高
座る MR:小→中、AR:小→中 H:大→中、W:小→中、Gy:高→中
横たわる MR:中→大、AR:中→大、H:中→小、W:中→大、Gy:中→低(緩)
ジャンプ Top、Bottom:中→高(急)、 Gy:→高(急)
バウンディングボックスの重心等と共に、高い位置へ急激に移動する。
足をどのように上げるかで、種々の姿勢が取れるので、上げ方に対応して決める。
しゃがむ MR:高→中、AR:高→中、H:大→中、W:小→中、Gy :高→中(普通)
Top、Bottom:高→中(普通)
バウンディングボックスの重心等と共に、低い位置へ普通の速度で移動する。
正面向きか横向きかで異なるルールを適用する。
Changes in parameters representing posture are used for instantaneous motion recognition, and some examples are given below.
MR: Medium to small, AR: Medium to small, H: Medium to large, W: Medium to small, Gy : Medium to high (sudden)
Turn right MR: Small, AR: Small, H: Large, W: Small, Gy : High Sit MR: Small → Medium, AR: Small → Medium H: Large → Medium, W: Small → Medium, Gy : High → Middle Lying MR: Medium → Large, AR: Medium → Large, H: Medium → Small, W: Medium → Large, Gy : Medium → Low (slow)
Jump Top, Bottom: Medium → High (Sudden), G y : → High (Sudden)
It moves rapidly to a higher position along with the center of gravity of the bounding box.
Depending on how you raise your feet, you can take various postures, so decide how to raise your feet.
MR: High → Medium, AR: High → Medium, H: Large → Medium, W: Small → Medium, Gy : High → Medium (Normal)
Top, Bottom: High → Medium (Normal)
Along with the center of gravity of the bounding box, it moves to a low position at a normal speed.
Apply different rules depending on whether you are facing front or side.

ここで、全身のバウンディングボックスの幅をW、高さをH、アスペクト比をAR、モーメント比をMR、ヒストグラムのy方向重心位置をGyで表わしている。また、変化速度は、急は急激な変化、緩はゆっくりとした変化、普通は普通の速さでの変化を表わす。同様に、バウンディングボックスやシルエット特徴を用いてルールを作ることができる。ここでは、相対的な値を表現するために「大中小、高中低、緩急普通」のような定性的な表現をしたが、実際には具体的に閾値を設ける。一般的に言って、バウンディングボックスのアスペクト比(AR:W/H)とモーメント比(MR:m20/m02、mi(90)/mi(0))は常に同じ傾向を示すが、モーメント比を用いた方が安定した結果が得られる場合が多い。また、同じ立っている状態ではMRやARが小であることにより判定できるが、そのための閾値は正面向きと横向きで違ってくる。正面か、横向きかは、(1) シルエットのヒストグラム、(2) シルエット形状、(3) 対象性、等を用いて調べることができる。 Here, represents the width of the whole body of the bounding box is W, the height H, the aspect ratio AR, the moment ratio MR, or y-direction center of gravity of the histogram in G y. The change speed represents a sudden change, a slow change, and a normal change at a normal speed. Similarly, rules can be created using bounding boxes and silhouette features. Here, in order to express relative values, qualitative expressions such as “large, medium, small, high, medium, low, and normal” are used, but actually, a threshold value is specifically set. Generally speaking, the aspect ratio of the bounding box (AR: W / H) and the moment ratio (MR: m 20 / m 02 , m i (90) / m i (0)) is always show the same trend, More stable results are often obtained using the moment ratio. In addition, in the same standing state, it can be determined that MR and AR are small, but the threshold value for that is different depending on the front direction and the horizontal direction. Whether it is front or sideways can be investigated using (1) silhouette histogram, (2) silhouette shape, (3) objectivity, etc.

垂直軸に関する対称性の測度として、次式数5の相互相関係数等が使える。正面向きの画像は対称性が高く(相互相関係数が大きく、1に近くなる)、横向きでは対称性が正面に比べて低い(相互相関係数が小さく0に近くなる)。バウンディングボックスの中の2値画像X(i,j) を左右反転した画像X’を平行移動しながら、正規化相互相関係数の最大値Maxを求め、その値がある閾値より大きければ対称性が高いとする。対称性が高ければ、正面向きと判断し、そうでなければ横向きと判断する。他のパラメータとの併用により信頼性を高めることができる。 As a measure of symmetry with respect to the vertical axis, a cross-correlation coefficient of the following equation 5 can be used. A front-facing image has high symmetry (a large cross-correlation coefficient is close to 1), and in a horizontal direction, the symmetry is lower than the front (the cross-correlation coefficient is small and close to 0). The maximum value Max of the normalized cross-correlation coefficient is obtained while translating the image X ′ obtained by horizontally inverting the binary image X (i, j) in the bounding box. If the value is larger than a certain threshold, the symmetry is obtained. Is high. If the symmetry is high, it is determined to face forward, otherwise it is determined to face sideways. Reliability can be increased by using in combination with other parameters.

上記人数判定手段が2人以上であると判定した場合で、かつ上記移動状態判定手段が歩行状態であると判定した場合、移動効率判定手段が移動効率を算出し、動作認識手段がその値が1以下で第1の閾値以上であると判定した場合は、「一緒に歩いている正常状態」か、「尾行状態又は不審者の可能性がある異常状態」であると判断し、第1の閾値以下であると判定した場合は、「遊んでいる、喧嘩、殴り合い」のいずれかの可能性があると判断する。さらに、上記の形状測度や動き測度と合わせて判断する。例えば、手足を早く動かしていれば喧嘩や殴り合いの可能性が高いと判断し、警戒を呼びかける。 When it is determined that the number of persons determination means is two or more and when the movement state determination means is determined to be a walking state, the movement efficiency determination means calculates the movement efficiency, and the motion recognition means determines the value. If it is determined that the value is equal to or less than 1 and equal to or greater than the first threshold, it is determined that the condition is “a normal state walking together” or “an abnormal state that may be a tailing state or a suspicious person”. If it is determined that the value is equal to or less than the threshold value, it is determined that there is a possibility of “playing, fighting, fighting”. Further, the determination is made together with the shape measure and the motion measure. For example, if you move your limbs quickly, it is judged that there is a high possibility of fighting and fighting, and alerts are called.

上記人数判定手段が2人以上であると判定した場合で、かつ上記移動状態判定手段が走行状態であると判定した場合、移動効率判定手段が移動効率を算出し、動作認識手段がその値が1以下で第1の閾値以上であると判定した場合は、「一緒に走っている正常状態」か、「追いかけている状態、又は不審者の可能性がある異常状態」であると判断し、第1の閾値以下であると判定した場合は、「遊んでいる、逃げ回っている」のいずれかの可能性があると判断する。さらに、上記の形状測度や動き測度と合わせて判断する。例えば、同じ場所をぐるぐる回っていれば追いかけっこをして遊んでいるので放置し、少し離れて直線的に高速で移動していれば、「逃げている/追いかけている」可能性が高いと判断し、警戒を呼びかける。 When it is determined that the number of persons determination means is two or more and the movement state determination means is determined to be in a running state, the movement efficiency determination means calculates the movement efficiency, and the motion recognition means determines the value. If it is determined that the value is equal to or less than 1 and equal to or greater than the first threshold, it is determined that the state is “normal state running together”, “following state, or abnormal state with possibility of suspicious person”, When it is determined that the value is equal to or less than the first threshold value, it is determined that there is a possibility of “playing or running away”. Further, the determination is made together with the shape measure and the motion measure. For example, if you go around the same place, you are chasing and playing, so if you leave it a little away and move linearly at high speed, there is a high possibility of “running / chasing” Judge and call for vigilance.

上記起立状態判定手段が立っている状態ではないと判定した場合、形状測度等算出手段が形状測度及び/又は動き測度を算出し、姿勢検出手段が形状測度等算出手段と、形状測度等算出手段が算出した形状測度及び/又は動き測度に基づいて、人間の姿勢を検出する。 When it is determined that the standing state determination unit is not in a standing state, the shape measure calculation unit calculates the shape measure and / or the motion measure, and the posture detection unit calculates the shape measure calculation unit and the shape measure calculation unit. The human posture is detected based on the shape measure and / or the motion measure calculated by.

なお、位置推定に関しては、各センサーの誤差の分布の形が異なること、例えば、一方は東西方向、もう一方は南北方向に広がっていれば、同じ誤差分散を持っていても、両方の共通領域としてより精度の高い位置推定が可能となる。 Regarding position estimation, the difference in the error distribution of each sensor is different.For example, if one is spread in the east-west direction and the other is in the north-south direction, both areas have the same error variance. As a result, the position can be estimated with higher accuracy.

複数人の検出及び追跡に関しては、できるだけ重ならないように、カメラやセンサー等をできるだけ高い位置に設置することで、分離しやすくなる。   Regarding the detection and tracking of a plurality of people, it is easy to separate them by installing a camera, a sensor, etc. as high as possible so as not to overlap as much as possible.

小型カメラ、GPS、加速度計・角加速度計・傾斜計等の携帯型センサーは、できるだけ身体的な拘束を感じさせることなく装着でき、小型、省電力、安価であることが必要であり、3次元測距センサー等の固定での使用が想定されているセンサーについては遮蔽を少なく、高い精度での検出が可能になるように最適な位置に設置場所が確保できることが必要である。   Portable sensors such as small cameras, GPS, accelerometers, angular accelerometers, and inclinometers can be worn with as little physical restraint as possible, and must be small, power-saving, and inexpensive. For sensors that are assumed to be used fixedly, such as distance measuring sensors, it is necessary that the installation location be ensured at an optimal position so that detection is possible with high accuracy with less shielding.

100 ネットワーク
101 固定センサー
102 携帯センサー
103 認識手段


100 network 101 fixed sensor 102 portable sensor 103 recognition means


Claims (12)

監視領域及び/又は見守り領域(以下、観測領域という)を観測する同種及び/又は異種の複数の観測手段と、
上記各観測手段から得られる複数のデータを対応付けて観測領域内の対象物を認識する認識手段
を備える対象物の認識システム。
A plurality of same and / or different observation means for observing a monitoring area and / or a monitoring area (hereinafter referred to as an observation area);
An object recognition system comprising recognition means for recognizing an object in an observation region by associating a plurality of data obtained from each of the observation means.
上記観測手段が、対象物の1次元データを取得する1次元センサーと、対象物の2次元データを取得する2次元センサーと、対象物の3次元データを取得する3次元センサーのなかの少なくとも2つ以上を含み、
上記認識手段が、上記観測手段から得られる1次元データ、2次元データ、3次元データのなかの少なくとも2つ以上を対応付けて対象物を認識する
請求項1記載の対象物の認識システム。
At least two of the one-dimensional sensor that acquires the one-dimensional data of the object, the two-dimensional sensor that acquires the two-dimensional data of the object, and the three-dimensional sensor that acquires the three-dimensional data of the object. Including more than one,
2. The object recognition system according to claim 1, wherein the recognition means recognizes the object by associating at least two or more of one-dimensional data, two-dimensional data, and three-dimensional data obtained from the observation means.
上記1次元センサーが、加速度計、又は角加速度計、又は傾斜計からなり、
上記2次元センサーが、観測領域を撮影するカメラからなり、
上記3次元センサーが、レンジセンサー、3次元位置センサー、3次元モーションセンサー、又は3次元測距センサーからなり、
上記認識手段が、加速度計又は角加速度計又は傾斜計から得られた1次元データと、カメラで撮影された画像と、レンジセンサー、3次元位置センサー、3次元モーションセンサー、又は3次元測距センサーから得られる3次元空間上の位置データの少なくとも2つ以上を対応付けて認識する
請求項2記載の対象物の認識システム。
The one-dimensional sensor is an accelerometer, an angular accelerometer, or an inclinometer,
The two-dimensional sensor consists of a camera that captures the observation area,
The 3D sensor consists of a range sensor, 3D position sensor, 3D motion sensor, or 3D ranging sensor.
The recognition means includes one-dimensional data obtained from an accelerometer, an angular accelerometer, or an inclinometer, an image captured by a camera, a range sensor, a three-dimensional position sensor, a three-dimensional motion sensor, or a three-dimensional distance sensor. The object recognition system according to claim 2, wherein at least two or more pieces of position data in a three-dimensional space obtained from are recognized in association with each other.
上記複数の観測手段が、データの種類、設置場所、観測方向のうち少なくともいずれか1つが異なり、
上記認識手段が、上記複数の観測手段から得られる、誤差分布が異なる複数の位置データを対応付けて重畳する重畳手段と、上記重畳手段が重畳した結果、複数の位置データが重なる部分に基づいて、対象物の位置を検出する位置検出手段とを含む
請求項1から3いずれかに記載の対象物の認識システム。
The plurality of observation means are different in at least one of data type, installation location, and observation direction,
The recognition means is based on a portion obtained by superimposing and superimposing a plurality of position data having different error distributions obtained from the plurality of observation means, and a portion where the plurality of position data overlap as a result of the superimposition means being superimposed. The object recognition system according to claim 1, further comprising position detection means for detecting the position of the object.
上記観測手段が、上記1次元センサーと、上記2次元センサー又は上記3次元センサーを含み、
上記認識手段が、
1次元センサーから得られる1次元データに基づいて、対象物の向き及び/又は動きを検出する向き等検出手段と、
2次元センサー又は3次元センサーから得られる2次元データ又は3次元データに基づいて、対象物の姿勢及び/又は向き及び/又は動作を検出する姿勢等検出手段と、
向き等検出手段が検出した向きと動きの状態と、移動等検出手段が検出した姿勢及び/又は向き及び/又は動作から、対象物の状態を検出する状態検出手段とを含む
請求項1から4のいずれかに記載の対象物の認識システム。
The observation means includes the one-dimensional sensor and the two-dimensional sensor or the three-dimensional sensor,
The recognition means is
Detecting means for detecting the direction and / or movement of the object based on the one-dimensional data obtained from the one-dimensional sensor;
A detection means for detecting the posture and / or orientation and / or movement of an object based on two-dimensional data or three-dimensional data obtained from a two-dimensional sensor or a three-dimensional sensor;
5. A state detection unit that detects a state of an object from a direction and a state of movement detected by the direction detection unit and a posture and / or direction and / or movement detected by the movement detection unit. The object recognition system according to any one of the above.
上記2次元センサー又は上記3次元センサーから得られたデータに基づいて、対象物となっている人間が立っている状態であるか否かを判定する起立状態判定手段と、
起立状態判定手段が立っている状態であると判定した場合、各センサーから得られる移動速度に基づいて、人が静止状態であるか、歩行状態であるか、走行状態であるかを判定する移動状態判定手段と、
を備える請求項1から5のいずれかに記載の対象物の認識システム。
Based on the data obtained from the two-dimensional sensor or the three-dimensional sensor, standing state determination means for determining whether or not the person who is the object is standing;
When it is determined that the standing state determination means is in a standing state, based on the moving speed obtained from each sensor, it is determined whether the person is in a stationary state, a walking state, or a traveling state. State determination means;
An object recognition system according to any one of claims 1 to 5.
2次元データ又は3次元データに基づいて、観測領域内の一定の範囲内で近くに人が1人いるか、2人以上いるかを判定する人数判定手段と
人数判定手段が1人であると判定した場合であって、かつ上記移動状態判定手段が歩行状態であると判定した場合、人がどれだけ無駄なく移動したかを示すパラメータ(以下、移動効率という)を算出する移動効率算出手段と、上記移動効率が、1以下で第1の閾値以上であるか、第1の閾値以下で第2の閾値以上であるか、第2の閾値以下であるかを判定する移動効率判定手段と、
移動効率判定手段が、1以下で第1の閾値以上であると判定した場合は正常状態であると判断し、第1の閾値以下で第2の閾値以上であると判定した場合は泥酔状態であると判断し、第2の閾値以下であると判定した場合は徘徊状態であると判断する動作認識手段と、
を備える請求項6記載の対象物の認識システム。
Based on two-dimensional data or three-dimensional data, it is determined that there is one person determination means and one person determination means for determining whether one person is nearby or two or more persons within a certain range in the observation area. A movement efficiency calculation means for calculating a parameter (hereinafter referred to as movement efficiency) indicating how much a person has moved when the movement state determination means is in a walking state. A movement efficiency determination means for determining whether the movement efficiency is equal to or less than 1 and equal to or greater than the first threshold, equal to or less than the first threshold, equal to or greater than the second threshold, and equal to or less than the second threshold;
When the movement efficiency determination means determines that the moving efficiency determination means is 1 or less and is equal to or greater than the first threshold, it is determined to be in a normal state, and when it is determined that the movement efficiency determination means is equal to or less than the first threshold and is equal to or greater than the second threshold, An action recognizing means for determining that there is a heel state when it is determined that there is a second threshold or less;
An object recognition system according to claim 6.
上記人数判定手段が2人以上であると判定した場合であって、かつ上記移動状態判定手段が歩行状態であると判定した場合、移動効率を算出する第2の移動効率算出手段と、
上記移動効率が、1以下で第1の閾値以上であるか、第1の閾値以下であるかを判定する第2の移動効率判定手段と、
上記第2の移動効率判定手段が、1以下で第1の閾値以上であると判定した場合は、「一緒に歩いている正常状態」か、「尾行状態又は不審者の可能性がある異常状態」であると判断し、第1の閾値以下であると判定した場合は、「遊んでいる、喧嘩、殴り合い」のいずれかの可能性があると判断する第2の動作認識手段と、
を備える請求項6記載の対象物の認識システム。
A second movement efficiency calculating means for calculating movement efficiency when the number of persons determining means is determined to be two or more and the moving state determining means is determined to be a walking state;
A second movement efficiency determination means for determining whether the movement efficiency is equal to or less than 1 and equal to or greater than a first threshold, or equal to or less than a first threshold;
When the second movement efficiency determination means determines that the value is equal to or less than 1 and equal to or greater than the first threshold, it is “normal state walking together” or “an abnormal state that may be a tail state or a suspicious person” And the second motion recognition means for determining that there is a possibility of "playing, fighting, fighting",
An object recognition system according to claim 6.
上記人数判定手段が2人以上であると判定した場合であって、かつ上記移動状態判定手段が走行状態であると判定した場合、移動効率を算出する第3の移動効率算出手段と、
上記移動効率が、1以下で第1の閾値以上であるか、第1の閾値以下であるかを判定する第3の移動効率判定手段と、
上記第3の移動効率判定手段が、1以下で第1の閾値以上であると判定した場合は、「一緒に走っている正常状態」か、「追いかけている状態、又は不審者の可能性がある異常状態」であると判断し、第1の閾値以下であると判定した場合は、「遊んでいる、逃げ回っている」のいずれかの可能性があると判断する第3の動作認識手段と、
を備える請求項6記載の対象物の認識システム。
A third movement efficiency calculating means for calculating the movement efficiency when the number of persons determining means is determined to be two or more and the moving state determining means is determined to be in a running state;
Third movement efficiency determination means for determining whether the movement efficiency is equal to or less than 1 and equal to or greater than a first threshold, or equal to or less than a first threshold;
If the third movement efficiency determination means determines that the value is equal to or less than 1 and equal to or greater than the first threshold, the “normal state running together”, “the state of chasing, or the possibility of a suspicious person” Third action recognition means for determining that there is a possibility of “playing or running away” when it is determined that the state is “a certain abnormal state” and is equal to or less than the first threshold; ,
An object recognition system according to claim 6.
上記起立状態判定手段が立っている状態ではないと判定した場合、形状測度及び/又は動き測度を算出する形状測度等算出手段と、
形状測度等算出手段が算出した形状測度及び/又は動き測度に基づいて、人間の姿勢を検出する姿勢検出手段と、
を備える請求項6又は7記載の対象物の認識システム。
When it is determined that the standing state determination means is not in a standing state, a shape measure and the like calculation means for calculating a shape measure and / or a motion measure;
Posture detecting means for detecting a human posture based on the shape measure and / or the motion measure calculated by the shape measure calculation means;
An object recognition system according to claim 6 or 7.
請求項1から10の何れかに記載の対象物の認識システムを用いた監視システム。 A monitoring system using the object recognition system according to claim 1. 請求項1から10の何れかに記載の対象物の認識システムを用いた見守りシステム。


A watching system using the object recognition system according to claim 1.


JP2010065333A 2010-03-22 2010-03-22 Object recognition system, and monitoring system and watching system using the same Pending JP2011198161A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010065333A JP2011198161A (en) 2010-03-22 2010-03-22 Object recognition system, and monitoring system and watching system using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010065333A JP2011198161A (en) 2010-03-22 2010-03-22 Object recognition system, and monitoring system and watching system using the same

Publications (1)

Publication Number Publication Date
JP2011198161A true JP2011198161A (en) 2011-10-06

Family

ID=44876249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010065333A Pending JP2011198161A (en) 2010-03-22 2010-03-22 Object recognition system, and monitoring system and watching system using the same

Country Status (1)

Country Link
JP (1) JP2011198161A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014010203A1 (en) * 2012-07-13 2014-01-16 日本電気株式会社 Fall detection device, fall detection method, fall detection camera, and computer program
CN104252765A (en) * 2014-09-18 2014-12-31 北京明科全讯技术有限公司 Intelligent residence monitoring service equipment and system, and method implemented in service equipment
JP2015226757A (en) * 2014-04-10 2015-12-17 ザ・ボーイング・カンパニーTheBoeing Company Identifying movements using motion sensing device coupled with associative memory
JP2017016271A (en) * 2015-06-29 2017-01-19 株式会社オプティム Radio aircraft, position information output method, and program for radio aircraft
JP2017216006A (en) * 2017-08-10 2017-12-07 パラマウントベッド株式会社 Watching support device
CN107843891A (en) * 2017-11-22 2018-03-27 易娜 A kind of detector, detecting system and method
CN109635617A (en) * 2017-10-09 2019-04-16 富士通株式会社 Recognition methods, device and the electronic equipment of action state
KR101975967B1 (en) * 2018-04-10 2019-05-07 주식회사 이엠따블유 System and method for detecting crime risk using heat sensor
KR20190076380A (en) * 2017-12-22 2019-07-02 한국전자통신연구원 Apparatus and method for detecting action based on multi-modal
JP2020043521A (en) * 2018-09-12 2020-03-19 東京瓦斯株式会社 Remote control server and remote control system
CN112200088A (en) * 2020-10-10 2021-01-08 普联技术有限公司 Sitting posture monitoring method, device, equipment and system
JP2021106019A (en) * 2014-06-27 2021-07-26 日本電気株式会社 Image processor, method for detecting abnormality, and program
JP2021163371A (en) * 2020-04-02 2021-10-11 首都高技術株式会社 Portable safety management system and portable safety management method

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014010203A1 (en) * 2012-07-13 2014-01-16 日本電気株式会社 Fall detection device, fall detection method, fall detection camera, and computer program
JPWO2014010203A1 (en) * 2012-07-13 2016-06-20 日本電気株式会社 Fall detection device, fall detection method, fall detection camera, and computer program
JP2015226757A (en) * 2014-04-10 2015-12-17 ザ・ボーイング・カンパニーTheBoeing Company Identifying movements using motion sensing device coupled with associative memory
JP7396436B2 (en) 2014-06-27 2023-12-12 日本電気株式会社 Image processing device, image processing method, and program
JP2023022015A (en) * 2014-06-27 2023-02-14 日本電気株式会社 Image processing device, image processing method, and program
JP7173196B2 (en) 2014-06-27 2022-11-16 日本電気株式会社 Image processing device, image processing method, and program
JP2021106019A (en) * 2014-06-27 2021-07-26 日本電気株式会社 Image processor, method for detecting abnormality, and program
CN104252765A (en) * 2014-09-18 2014-12-31 北京明科全讯技术有限公司 Intelligent residence monitoring service equipment and system, and method implemented in service equipment
JP2017016271A (en) * 2015-06-29 2017-01-19 株式会社オプティム Radio aircraft, position information output method, and program for radio aircraft
JP2017216006A (en) * 2017-08-10 2017-12-07 パラマウントベッド株式会社 Watching support device
CN109635617A (en) * 2017-10-09 2019-04-16 富士通株式会社 Recognition methods, device and the electronic equipment of action state
CN107843891A (en) * 2017-11-22 2018-03-27 易娜 A kind of detector, detecting system and method
KR102241705B1 (en) * 2017-12-22 2021-04-19 한국전자통신연구원 Apparatus and method for detecting action based on multi-modal
KR20190076380A (en) * 2017-12-22 2019-07-02 한국전자통신연구원 Apparatus and method for detecting action based on multi-modal
KR101975967B1 (en) * 2018-04-10 2019-05-07 주식회사 이엠따블유 System and method for detecting crime risk using heat sensor
JP7027285B2 (en) 2018-09-12 2022-03-01 東京瓦斯株式会社 Remote control server and remote control system
JP2020043521A (en) * 2018-09-12 2020-03-19 東京瓦斯株式会社 Remote control server and remote control system
JP2021163371A (en) * 2020-04-02 2021-10-11 首都高技術株式会社 Portable safety management system and portable safety management method
CN112200088A (en) * 2020-10-10 2021-01-08 普联技术有限公司 Sitting posture monitoring method, device, equipment and system

Similar Documents

Publication Publication Date Title
JP2011198161A (en) Object recognition system, and monitoring system and watching system using the same
Zhang et al. A survey on vision-based fall detection
US10095930B2 (en) System and method for home health care monitoring
KR101788269B1 (en) Method and apparatus for sensing innormal situation
Zhang et al. A viewpoint-independent statistical method for fall detection
Zhang et al. Evaluating depth-based computer vision methods for fall detection under occlusions
Kepski et al. Fall detection using ceiling-mounted 3d depth camera
CN105283129B (en) Information processor, information processing method
Stone et al. Evaluation of an inexpensive depth camera for in-home gait assessment
Vaidehi et al. Video based automatic fall detection in indoor environment
JP6780641B2 (en) Image analysis device, image analysis method, and image analysis program
JP2009009413A (en) Operation detector and operation detection program, and operation basic model generator and operation basic model generation program
JP2011209794A (en) Object recognition system, monitoring system using the same, and watching system
TW201415415A (en) Target object detection device, method for detecting target object, and program
Albawendi et al. Video based fall detection using features of motion, shape and histogram
TW201506808A (en) Human image tracking system and human image detection and human image tracking method thereof
JP2017038777A (en) Motion recognition apparatus
JP4507243B2 (en) Behavior analysis method and system
JP2011198244A (en) Object recognition system, monitoring system using the same, and watching system
JP4056813B2 (en) Obstacle detection device
Shoaib et al. View-invariant fall detection for elderly in real home environment
WO2020217812A1 (en) Image processing device that recognizes state of subject and method for same
JP6607253B2 (en) Image analysis apparatus, image analysis method, and image analysis program
Bansal et al. Elderly people fall detection system using skeleton tracking and recognition
Nizam et al. Development of human fall detection system using joint height, joint velocity, and joint position from depth maps