JP2007128513A - シーン解析 - Google Patents
シーン解析 Download PDFInfo
- Publication number
- JP2007128513A JP2007128513A JP2006296401A JP2006296401A JP2007128513A JP 2007128513 A JP2007128513 A JP 2007128513A JP 2006296401 A JP2006296401 A JP 2006296401A JP 2006296401 A JP2006296401 A JP 2006296401A JP 2007128513 A JP2007128513 A JP 2007128513A
- Authority
- JP
- Japan
- Prior art keywords
- edge
- image
- value
- template
- edge angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 42
- 238000000034 method Methods 0.000 claims abstract description 72
- 238000012545 processing Methods 0.000 claims description 25
- 230000001936 parietal effect Effects 0.000 claims description 12
- 238000012795 verification Methods 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 7
- 230000007423 decrease Effects 0.000 claims description 5
- 238000001514 detection method Methods 0.000 description 23
- 239000002245 particle Substances 0.000 description 16
- 230000006870 function Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 230000004044 response Effects 0.000 description 7
- 238000013139 quantization Methods 0.000 description 6
- 238000012706 support-vector machine Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 241000282412 Homo Species 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 244000144972 livestock Species 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000003936 working memory Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 210000000746 body region Anatomy 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- PICXIOQBANWBIZ-UHFFFAOYSA-N zinc;1-oxidopyridine-2-thione Chemical class [Zn+2].[O-]N1C=CC=CC1=S.[O-]N1C=CC=CC1=S PICXIOQBANWBIZ-UHFFFAOYSA-N 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009118 appropriate response Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000008672 reprogramming Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012731 temporal analysis Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/162—Detection; Localisation; Normalisation using pixel segmentation or colour matching
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【解決手段】 個体数推定方法は、捕捉されたシーンの画像の少なくとも一部内の複数の画像位置について、個体の少なくとも部分的なアウトラインのテンプレート表現との位置及び角度の対応関係を示すエッジ対応値を生成するステップを有する。エッジ対応値を解析し、複数の画像位置のそれぞれが、個体の画像の少なくとも一部に貢献しているか否かを判定する。
【選択図】 図1
Description
1.個体は、移動している場合も静止している場合もある。
2.シーン内で個体が重なることが多い。
3.シーン内の他の要素を個体数に含めないことが望ましい。
水平エッジフィルタ及び垂直エッジフィルタを用いて、正規化されたブロックから水平エッジブロック及び垂直エッジブロックを生成する(S3.2)
水平エッジブロック又は垂直エッジブロックによって、適切に、原型マスクのそれぞれを畳み込む(S3.3)
これらの畳込みから、個体が入力画像内のブロックの中心に位置する確率になる最大出力値を選択する(S3.4)
入力画像の全体に亘って、ブロックをサンプリングし、画像内の個体の可能な位置を示す確率マップを生成する(S3.5)
ここまで、例示的な目的で、人間の検出に関連して、以下のような解析を説明した。
1.ブラーリングされたH−マップを水平テンプレートに照合することによる頭の頂部の検出
2.ブラーリングされたV−マップを垂直テンプレートに照合することによる頭の側部の検出
3.上述したテンプレートに対して所定の相対的な位置にある領域の垂直面を評価することによる体の検出
4.エッジマスク照合解析に基づく頭の検出
5.テンプレートの中心におけるエッジ特徴の検出
なお、他の特徴から個々の人々を区別するために、これらの解析のいずれか又は全てを単独で又は組み合わせて行うことが不十分である場合があることは当業者にとって明らかである。
1.頭頂得点>頭頂得点閾値
2.頭側得点>頭側得点閾値
3.下側の顔閾値>頭中心尤度得点>上側の顔閾値
4.体得点>体閾値
5.角度差得点<角度差閾値
条件5については、条件1〜条件4のいずれか又は全てを用いて、シーン内の所定のポイントが、頭の全て又は一部を表していることを判定してもよい。
第2のステップS5.2において、背景画像をローパスフィルタリングし、コントラストが低減されたブラーリングされたバージョンを生成する。
1.演算負荷が比較的小さいエッジ照合技術が提供される。
2.エッジ角度解析によって、ある種の個体に特有の任意のプロファイル特徴を識別できる。
3.個体は、移動していても静止していてもよい。
4.シーン内で個体が重なってもよい。
5.個体の種類に特有のプロファイル特徴を参照して、シーンの他の要素を除外することができる。
6.この技術は、例えば人間の移動等に限定されず、様々な種類の個体に適用できる。
7.体、頭及び顔解析によって、適切に個体を識別できる。
8.解析されたシーンにおける混雑及び/又は渋滞の指示に応じて、容易に、自動的に警告又は応答を行うことができる。
Claims (35)
- 画像内の個体の数を推定する個体数推定方法において、
捕捉されたシーンの画像の少なくとも一部内の複数の画像位置について、個体の少なくとも部分的なアウトラインのテンプレート表現との位置及び角度の対応関係を示すエッジ対応値を生成するステップと、
上記検出された対応したエッジ対応値に応じて、上記各画像位置の画像コンテンツが個体の画像の少なくとも一部に対応しているかを検出するステップとを有する個体数推定方法。 - 上記エッジ対応値を生成するステップは、
上記画像の画像位置について、捕捉された画像から導出された複数のエッジと、該画像位置に関して特定された少なくとも第1のエッジ角度テンプレートとを比較するステップとを含み、該エッジ角度テンプレートは、予測されたエッジ角度を、エッジ間の予想された相対的位置に関連付け、該エッジ間の予想された相対的位置は、上記個体の少なくとも部分的なアウトラインを代表することを特徴とする請求項1記載の個体数推定方法。 - 上記予測されたエッジ角度をエッジ間の予想された相対的位置に関連付けるエッジ角度テンプレートは、該エッジ角度テンプレートに亘る角度値の空間的分布を含み、該角度値は、存在する可能性が高い、個体の少なくとも部分的なアウトラインを代表している位置に関して特定されていることを特徴とする請求項1又は2記載の個体数推定方法。
- 上記個体の少なくとも部分的なアウトラインは、頭の少なくとも部分的なアウトラインであることを特徴とする請求項1乃至3いずれか1項記載の個体数推定方法。
- 上記捕捉された画像の一部に水平空間傾斜オペレータ及び垂直空間傾斜オペレータをそれぞれ適用することによって、水平エッジ値及び垂直エッジ値を取得するステップを更に有する請求項1乃至4いずれか1項記載の個体数推定方法。
- 上記水平エッジ値及び垂直エッジ値を処理し、これらを組み合わせてエッジ振幅値を生成するステップを更に有する請求項1乃至5いずれか1項記載の個体数推定方法。
- 対応する垂直エッジ値及び水平エッジ値の解析によって、エッジ角度推定値を推定するステップを更に有する請求項1乃至6いずれか1項記載の個体数推定方法。
- 対応する垂直エッジ値と水平エッジ値の商に逆正接関数を適用することによってエッジ角度推定値を推定することを特徴とする請求項7記載の個体数推定方法。
- 低い振幅エッジ値に対応するエッジ角度推定を削除するステップを更に有する請求項7又は8記載の個体数推定方法。
- エッジ角度テンプレート上の対応する位置にあるエッジ角度推定値及びエッジ角度値の間の相対的な平行度の関数として、該エッジ角度テンプレートに対するエッジ角度推定値を推定するステップを更に有する請求項7乃至9いずれか1項記載の個体数推定方法。
- 上記エッジ角度テンプレートの複数のゾーンのそれぞれにおいて、該エッジ角度テンプレート上の対応する位置においてエッジ角度値に最も平行なエッジ角度推定値を評価するステップと、
上記複数のゾーンについて、選択されたエッジ角度推定値と、対応するエッジ角度テンプレート値との間の角度値の差を組み合わせ、該エッジ角度テンプレートによる総合的な位置及び角度の対応関係を示すエッジ対応値を生成するステップとを更に有する請求項10記載の個体数推定方法。 - 上記エッジ角度推定値及びエッジ角度テンプレート値を量子化するステップを更に有する請求項7乃至11いずれか1項記載の個体数推定方法。
- 1.体尤度値が体値閾値を超えている場合、2.頭中心尤度値が頭中心閾値の上側及び下側の閾値によって定義される範囲内に収まっている場合、3.頭頂尤度値が頭頂値閾値を超えている場合、4.頭側尤度値が頭側値閾値を超えている場合、5.エッジマスク畳込み値がエッジマスク畳込み値閾値を超えている場合のうちの1つ以上の条件を満たす場合、複数の画像位置のそれぞれが、少なくとも個体の画像の一部を構成していると判定するステップを更に有する請求項1乃至12いずれか1項記載の個体数推定方法。
- シーン内のある画像位置について、該画像位置の下方の領域に出現する垂直エッジ値の総和によって体尤度値を生成するステップを更に有する請求項13記載の個体数推定方法。
- シーン内の画像位置について、該画像位置に関連して位置決めされ、頭中心テンプレートの中心領域のみに得点を加算する頭中心テンプレートにエッジ振幅を関連付けることによって頭中心尤度値を生成するステップを更に有する請求項13又は14記載の個体数推定方法。
- 水平エッジ及び垂直エッジをブラーリングし、エッジから離れるに従って減少するエッジに隣接する値を生成するステップを更に有する請求項13乃至15いずれか1項記載の個体数推定方法。
- シーン内の画像位置について、ブラーリングされた水平エッジを、該画像位置に関連付けて位置決めされた頭頂テンプレートに関連付け、該頭頂テンプレートの上部領域のみに得点を加算し、該頭頂テンプレートの中心領域のみから得点を減算することによって、頭頂尤度値を生成するステップを更に有する請求項16記載の個体数推定方法。
- シーン内のポイントについて、ブラーリングされた垂直エッジを、該画像位置に関連して位置決めされた頭側テンプレートに関連付け、該頭側テンプレートの側領域のみに得点を加算し該頭側テンプレートの中心領域から得点を減算することによって頭側尤度値を生成するステップを更に有する請求項16記載の個体数推定方法。
- シーン内のポイントについて、正規化された水平エッジ及び垂直エッジを1つ以上のそれぞれの水平エッジマスク及び垂直エッジマスクによって畳み込み、最大出力値をエッジマスク畳込み値として選択することによってエッジマスク畳込み値を生成するステップを更に有する請求項13乃至15いずれか1項記載の個体数推定方法。
- 上記捕捉された画像と背景画像の間の差分マップを生成し、
上記背景画像に低域通過フィルタを適用してブラーリングされた背景画像を生成し、
上記捕捉された画像からブラーリングされた背景画像を減算し、該減算の差に差分マップ値を乗算し、ブラーリングされた背景画像に該乗算の積を加算することによって該捕捉された画像を強調するステップを更に有する請求項1乃至19いずれか1項記載の個体数推定方法。 - 個体の画像の少なくとも一部に貢献していると検出された画像位置又は局所的な画像位置のグループを計数することによって、画像内の個体数を推定するステップを更に有する請求項1乃至20いずれか1項記載の個体数推定方法。
- 連続する画像のそれぞれにおいて、個体数の推定値を比較することによって、画像内の個体数の変化を推定するステップを更に有する請求項21記載の個体数推定方法。
- 画像内の個体の数を推定するデータ処理装置において、
捕捉されたシーンの画像の少なくとも一部内の複数の画像位置について、個体の少なくとも部分的なアウトラインのテンプレート表現との位置及び角度の対応関係を示すエッジ対応値を生成する解析手段と、
上記検出された対応したエッジ対応値に応じて、上記各画像位置の画像コンテンツが個体の画像の少なくとも一部に対応しているかを検出する検出手段とを備えるデータ処理装置。 - 上記画像から導出された複数のエッジと、上記画像位置に関して特定され、予測されたエッジ角度を、上記個体の少なくとも部分的なアウトラインを代表するエッジ間の予想された相対的位置に関連付ける、少なくとも第1のエッジ角度テンプレートとを比較する比較手段と、
上記比較に基づいて、エッジ対応値を出力するエッジ角度照合解析手段とを更に備える請求項23記載のデータ処理装置。 - 対応する水平エッジ値と垂直エッジ値の商に逆正接関数を適用するエッジ角度計算器を更に備える請求項23又は24記載のデータ処理装置。
- 上記エッジ角度照合解析手段は、エッジ角度テンプレート上の対応する位置にあるエッジ角度推定値及びエッジ角度値の間の相対的な平行度の関数として、該エッジ角度テンプレートに対するエッジ角度推定値を推定することを特徴とする請求項23乃至25いずれか1項記載のデータ処理装置。
- 上記エッジ角度照合解析手段は、上記エッジ角度テンプレートの複数のゾーン内で、該エッジ角度テンプレート上の対応する位置においてエッジ角度値に最も平行なエッジ角度推定値を選択し、該複数のゾーンの対応する位置について、該最も平行なエッジ角度推定値とエッジ角度値の差分を組み合わせ、該エッジ角度テンプレートによる総合的な位置及び角度の対応関係を示すエッジ対応値を生成することを特徴とする請求項23乃至26いずれか1項記載のデータ処理装置。
- コンピュータにロードされ、該コンピュータに請求項1乃至22いずれか1項記載の個体数推定方法を実行させるコンピュータにより読取可能な命令が格納されたデータ担体。
- コンピュータにロードされ、該コンピュータを請求項23乃至27いずれか1項記載のデータ処理装置として動作させるコンピュータにより読取可能な命令が格納されたデータ担体。
- コンピュータに供給され、該コンピュータに請求項1乃至22いずれか1項記載の個体数推定方法を実行させるコンピュータにより読取可能な命令を表すデータ信号。
- コンピュータに供給され、該コンピュータを請求項23乃至27いずれか1項記載のデータ処理装置として動作させるコンピュータにより読取可能な命令を表すデータ信号。
- コンピュータに供給され、該コンピュータに請求項1乃至22いずれか1項記載の個体数推定方法を実行させるコンピュータにより読取可能な命令。
- コンピュータに供給され、該コンピュータを請求項23乃至27いずれか1項記載のデータ処理装置として動作させるコンピュータにより読取可能な命令。
- 図面を参照して明細書において実質的に説明する、画像内の個体の数を推定する個体数推定方法。
- 図面を参照して明細書において実質的に説明するデータ処理装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB0522182A GB2431717A (en) | 2005-10-31 | 2005-10-31 | Scene analysis |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007128513A true JP2007128513A (ja) | 2007-05-24 |
JP2007128513A5 JP2007128513A5 (ja) | 2009-11-19 |
Family
ID=35516049
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006296401A Abandoned JP2007128513A (ja) | 2005-10-31 | 2006-10-31 | シーン解析 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20070098222A1 (ja) |
JP (1) | JP2007128513A (ja) |
GB (2) | GB2431717A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008305059A (ja) * | 2007-06-06 | 2008-12-18 | Yaskawa Information Systems Co Ltd | 物体認識装置および物体認識方法 |
JP2011134322A (ja) * | 2009-12-23 | 2011-07-07 | Intel Corp | モデル・ベースの競技場位置合わせ |
WO2012121137A1 (ja) * | 2011-03-04 | 2012-09-13 | 株式会社ニコン | 画像処理装置および画像処理プログラム |
JP2021039457A (ja) * | 2019-08-30 | 2021-03-11 | キヤノン株式会社 | 画像処理方法、エッジモデル作成方法、ロボットシステム、および物品の製造方法 |
Families Citing this family (86)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008286725A (ja) * | 2007-05-21 | 2008-11-27 | Mitsubishi Electric Corp | 人物検出装置および方法 |
US8682029B2 (en) * | 2007-12-14 | 2014-03-25 | Flashfoto, Inc. | Rule-based segmentation for objects with frontal view in color images |
US8320615B2 (en) * | 2008-02-27 | 2012-11-27 | Honeywell International Inc. | Systems and methods for recognizing a target from a moving platform |
US8133119B2 (en) * | 2008-10-01 | 2012-03-13 | Microsoft Corporation | Adaptation for alternate gaming input devices |
TWI394095B (zh) * | 2008-10-22 | 2013-04-21 | Ind Tech Res Inst | 影像偵測方法及其系統 |
US8294767B2 (en) | 2009-01-30 | 2012-10-23 | Microsoft Corporation | Body scan |
US8295546B2 (en) | 2009-01-30 | 2012-10-23 | Microsoft Corporation | Pose tracking pipeline |
US9652030B2 (en) * | 2009-01-30 | 2017-05-16 | Microsoft Technology Licensing, Llc | Navigation of a virtual plane using a zone of restriction for canceling noise |
US8866821B2 (en) | 2009-01-30 | 2014-10-21 | Microsoft Corporation | Depth map movement tracking via optical flow and velocity prediction |
US8773355B2 (en) * | 2009-03-16 | 2014-07-08 | Microsoft Corporation | Adaptive cursor sizing |
US8988437B2 (en) * | 2009-03-20 | 2015-03-24 | Microsoft Technology Licensing, Llc | Chaining animations |
US9256282B2 (en) | 2009-03-20 | 2016-02-09 | Microsoft Technology Licensing, Llc | Virtual object manipulation |
US20100277470A1 (en) * | 2009-05-01 | 2010-11-04 | Microsoft Corporation | Systems And Methods For Applying Model Tracking To Motion Capture |
US9498718B2 (en) * | 2009-05-01 | 2016-11-22 | Microsoft Technology Licensing, Llc | Altering a view perspective within a display environment |
US8942428B2 (en) | 2009-05-01 | 2015-01-27 | Microsoft Corporation | Isolate extraneous motions |
US9377857B2 (en) | 2009-05-01 | 2016-06-28 | Microsoft Technology Licensing, Llc | Show body position |
US8503720B2 (en) | 2009-05-01 | 2013-08-06 | Microsoft Corporation | Human body pose estimation |
US9898675B2 (en) | 2009-05-01 | 2018-02-20 | Microsoft Technology Licensing, Llc | User movement tracking feedback to improve tracking |
US8340432B2 (en) | 2009-05-01 | 2012-12-25 | Microsoft Corporation | Systems and methods for detecting a tilt angle from a depth image |
US8649554B2 (en) | 2009-05-01 | 2014-02-11 | Microsoft Corporation | Method to control perspective for a camera-controlled computer |
US9015638B2 (en) * | 2009-05-01 | 2015-04-21 | Microsoft Technology Licensing, Llc | Binding users to a gesture based system and providing feedback to the users |
US8253746B2 (en) * | 2009-05-01 | 2012-08-28 | Microsoft Corporation | Determine intended motions |
US8638985B2 (en) | 2009-05-01 | 2014-01-28 | Microsoft Corporation | Human body pose estimation |
US8181123B2 (en) * | 2009-05-01 | 2012-05-15 | Microsoft Corporation | Managing virtual port associations to users in a gesture-based computing environment |
US20100295771A1 (en) * | 2009-05-20 | 2010-11-25 | Microsoft Corporation | Control of display objects |
US8744121B2 (en) | 2009-05-29 | 2014-06-03 | Microsoft Corporation | Device for identifying and tracking multiple humans over time |
US20100306685A1 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | User movement feedback via on-screen avatars |
US20100302365A1 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | Depth Image Noise Reduction |
US20100306716A1 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | Extending standard gestures |
US8625837B2 (en) * | 2009-05-29 | 2014-01-07 | Microsoft Corporation | Protocol and format for communicating an image from a camera to a computing environment |
US8856691B2 (en) * | 2009-05-29 | 2014-10-07 | Microsoft Corporation | Gesture tool |
US8509479B2 (en) | 2009-05-29 | 2013-08-13 | Microsoft Corporation | Virtual object |
US9383823B2 (en) | 2009-05-29 | 2016-07-05 | Microsoft Technology Licensing, Llc | Combining gestures beyond skeletal |
US9182814B2 (en) * | 2009-05-29 | 2015-11-10 | Microsoft Technology Licensing, Llc | Systems and methods for estimating a non-visible or occluded body part |
US8418085B2 (en) * | 2009-05-29 | 2013-04-09 | Microsoft Corporation | Gesture coach |
US8320619B2 (en) * | 2009-05-29 | 2012-11-27 | Microsoft Corporation | Systems and methods for tracking a model |
US9400559B2 (en) | 2009-05-29 | 2016-07-26 | Microsoft Technology Licensing, Llc | Gesture shortcuts |
US20100302138A1 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | Methods and systems for defining or modifying a visual representation |
US8803889B2 (en) * | 2009-05-29 | 2014-08-12 | Microsoft Corporation | Systems and methods for applying animations or motions to a character |
US8176442B2 (en) * | 2009-05-29 | 2012-05-08 | Microsoft Corporation | Living cursor control mechanics |
US8542252B2 (en) * | 2009-05-29 | 2013-09-24 | Microsoft Corporation | Target digitization, extraction, and tracking |
US8379101B2 (en) * | 2009-05-29 | 2013-02-19 | Microsoft Corporation | Environment and/or target segmentation |
US8145594B2 (en) * | 2009-05-29 | 2012-03-27 | Microsoft Corporation | Localized gesture aggregation |
US7914344B2 (en) * | 2009-06-03 | 2011-03-29 | Microsoft Corporation | Dual-barrel, connector jack and plug assemblies |
US8452599B2 (en) * | 2009-06-10 | 2013-05-28 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system for extracting messages |
US8390680B2 (en) * | 2009-07-09 | 2013-03-05 | Microsoft Corporation | Visual representation expression based on player expression |
US9159151B2 (en) * | 2009-07-13 | 2015-10-13 | Microsoft Technology Licensing, Llc | Bringing a visual representation to life via learned input from the user |
US8269616B2 (en) * | 2009-07-16 | 2012-09-18 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system for detecting gaps between objects |
US20110025689A1 (en) * | 2009-07-29 | 2011-02-03 | Microsoft Corporation | Auto-Generating A Visual Representation |
US9141193B2 (en) * | 2009-08-31 | 2015-09-22 | Microsoft Technology Licensing, Llc | Techniques for using human gestures to control gesture unaware programs |
US8643777B2 (en) * | 2009-09-25 | 2014-02-04 | Vixs Systems Inc. | Pixel interpolation with edge detection based on cross-correlation |
US8337160B2 (en) * | 2009-10-19 | 2012-12-25 | Toyota Motor Engineering & Manufacturing North America, Inc. | High efficiency turbine system |
US20110109617A1 (en) * | 2009-11-12 | 2011-05-12 | Microsoft Corporation | Visualizing Depth |
US8237792B2 (en) | 2009-12-18 | 2012-08-07 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system for describing and organizing image data |
CN101872414B (zh) * | 2010-02-10 | 2012-07-25 | 杭州海康威视软件有限公司 | 可去除虚假目标的人流量统计的方法及系统 |
CN101872422B (zh) * | 2010-02-10 | 2012-11-21 | 杭州海康威视数字技术股份有限公司 | 可精确辨别目标的人流量统计的方法及系统 |
JP5505007B2 (ja) * | 2010-03-18 | 2014-05-28 | 富士通株式会社 | 画像処理装置、画像処理方法及び画像処理用コンピュータプログラム |
CN101833762B (zh) * | 2010-04-20 | 2012-02-15 | 南京航空航天大学 | 基于对象间粗大边缘和拟合的异源图像匹配的方法 |
US8424621B2 (en) | 2010-07-23 | 2013-04-23 | Toyota Motor Engineering & Manufacturing North America, Inc. | Omni traction wheel system and methods of operating the same |
US8942917B2 (en) | 2011-02-14 | 2015-01-27 | Microsoft Corporation | Change invariant scene recognition by an agent |
US8620113B2 (en) | 2011-04-25 | 2013-12-31 | Microsoft Corporation | Laser diode modes |
US8760395B2 (en) | 2011-05-31 | 2014-06-24 | Microsoft Corporation | Gesture recognition techniques |
JP5408205B2 (ja) * | 2011-08-25 | 2014-02-05 | カシオ計算機株式会社 | 制御点設定方法、制御点設定装置及びプログラム |
CN103136534A (zh) * | 2011-11-29 | 2013-06-05 | 汉王科技股份有限公司 | 自适应的区域行人计数方法及装置 |
US8635637B2 (en) | 2011-12-02 | 2014-01-21 | Microsoft Corporation | User interface presenting an animated avatar performing a media reaction |
US9100685B2 (en) | 2011-12-09 | 2015-08-04 | Microsoft Technology Licensing, Llc | Determining audience state or interest using passive sensor data |
ITVI20120041A1 (it) * | 2012-02-22 | 2013-08-23 | St Microelectronics Srl | Rilevazione di caratteristiche di un'immagine |
US8898687B2 (en) | 2012-04-04 | 2014-11-25 | Microsoft Corporation | Controlling a media program based on a media reaction |
CA2775700C (en) | 2012-05-04 | 2013-07-23 | Microsoft Corporation | Determining a future portion of a currently presented media program |
US9152881B2 (en) | 2012-09-13 | 2015-10-06 | Los Alamos National Security, Llc | Image fusion using sparse overcomplete feature dictionaries |
US9092692B2 (en) | 2012-09-13 | 2015-07-28 | Los Alamos National Security, Llc | Object detection approach using generative sparse, hierarchical networks with top-down and lateral connections for combining texture/color detection and shape/contour detection |
US9152888B2 (en) * | 2012-09-13 | 2015-10-06 | Los Alamos National Security, Llc | System and method for automated object detection in an image |
CN102982598B (zh) * | 2012-11-14 | 2015-05-20 | 三峡大学 | 基于单个摄像头场景配置的视频人数统计方法和系统 |
US10009579B2 (en) * | 2012-11-21 | 2018-06-26 | Pelco, Inc. | Method and system for counting people using depth sensor |
US9367733B2 (en) | 2012-11-21 | 2016-06-14 | Pelco, Inc. | Method and apparatus for detecting people by a surveillance system |
US9857470B2 (en) | 2012-12-28 | 2018-01-02 | Microsoft Technology Licensing, Llc | Using photometric stereo for 3D environment modeling |
CN103077398B (zh) * | 2013-01-08 | 2016-06-22 | 吉林大学 | 基于嵌入式的自然环境下家畜群体数目监测方法 |
US9940553B2 (en) | 2013-02-22 | 2018-04-10 | Microsoft Technology Licensing, Llc | Camera/object pose from predicted coordinates |
US9639747B2 (en) | 2013-03-15 | 2017-05-02 | Pelco, Inc. | Online learning method for people detection and counting for retail stores |
EP2804128A3 (en) | 2013-03-22 | 2015-04-08 | MegaChips Corporation | Human detection device |
CN103489107B (zh) * | 2013-08-16 | 2015-11-25 | 北京京东尚科信息技术有限公司 | 一种制作虚拟试衣模特图像的方法和装置 |
CN104463185B (zh) * | 2013-09-16 | 2018-02-27 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
TWI510953B (zh) * | 2013-12-20 | 2015-12-01 | Wistron Corp | 身份驗證防僞方法與應用此方法的身份驗證裝置 |
CN105306909B (zh) * | 2015-11-20 | 2018-04-03 | 中国矿业大学(北京) | 基于视觉的煤矿井下作业人员超员报警系统 |
US11004205B2 (en) | 2017-04-18 | 2021-05-11 | Texas Instruments Incorporated | Hardware accelerator for histogram of oriented gradients computation |
US11830274B2 (en) * | 2019-01-11 | 2023-11-28 | Infrared Integrated Systems Limited | Detection and identification systems for humans or objects |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5953055A (en) * | 1996-08-08 | 1999-09-14 | Ncr Corporation | System and method for detecting and analyzing a queue |
US6148115A (en) * | 1996-11-08 | 2000-11-14 | Sony Corporation | Image processing apparatus and image processing method |
US5953056A (en) * | 1996-12-20 | 1999-09-14 | Whack & Track, Inc. | System and method for enhancing display of a sporting event |
AU7171698A (en) * | 1997-05-05 | 1998-11-27 | Shell Oil Company | Visual recognition method |
EP1378862B1 (en) * | 2001-03-13 | 2010-10-20 | Ecchandes Inc. | Visual device, interlocking counter, and image sensor |
US7149356B2 (en) * | 2002-07-10 | 2006-12-12 | Northrop Grumman Corporation | System and method for template matching of candidates within a two-dimensional image |
WO2004053791A2 (en) * | 2002-12-11 | 2004-06-24 | Nielsen Media Research, Inc | Methods and apparatus to count people appearing in an image |
JP4046079B2 (ja) * | 2003-12-10 | 2008-02-13 | ソニー株式会社 | 画像処理装置 |
US7715589B2 (en) * | 2005-03-07 | 2010-05-11 | Massachusetts Institute Of Technology | Occluding contour detection and storage for digital photography |
-
2005
- 2005-10-31 GB GB0522182A patent/GB2431717A/en not_active Withdrawn
-
2006
- 2006-10-17 GB GB0620607A patent/GB2431718A/en not_active Withdrawn
- 2006-10-24 US US11/552,278 patent/US20070098222A1/en not_active Abandoned
- 2006-10-31 JP JP2006296401A patent/JP2007128513A/ja not_active Abandoned
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008305059A (ja) * | 2007-06-06 | 2008-12-18 | Yaskawa Information Systems Co Ltd | 物体認識装置および物体認識方法 |
JP2011134322A (ja) * | 2009-12-23 | 2011-07-07 | Intel Corp | モデル・ベースの競技場位置合わせ |
KR101232509B1 (ko) * | 2009-12-23 | 2013-02-12 | 인텔 코오퍼레이션 | 모델 기반의 플레이 필드 레지스트레이션 |
WO2012121137A1 (ja) * | 2011-03-04 | 2012-09-13 | 株式会社ニコン | 画像処理装置および画像処理プログラム |
JP6020439B2 (ja) * | 2011-03-04 | 2016-11-02 | 株式会社ニコン | 画像処理装置、撮像装置、および画像処理プログラム |
JP2021039457A (ja) * | 2019-08-30 | 2021-03-11 | キヤノン株式会社 | 画像処理方法、エッジモデル作成方法、ロボットシステム、および物品の製造方法 |
JP7508206B2 (ja) | 2019-08-30 | 2024-07-01 | キヤノン株式会社 | 画像処理方法、エッジモデル作成方法、ロボットシステム、および物品の製造方法 |
Also Published As
Publication number | Publication date |
---|---|
GB2431717A (en) | 2007-05-02 |
GB2431718A (en) | 2007-05-02 |
GB0620607D0 (en) | 2006-11-29 |
US20070098222A1 (en) | 2007-05-03 |
GB0522182D0 (en) | 2005-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007128513A (ja) | シーン解析 | |
Hsieh et al. | Shadow elimination for effective moving object detection by Gaussian shadow modeling | |
CN107527009B (zh) | 一种基于yolo目标检测的遗留物检测方法 | |
Denman et al. | An adaptive optical flow technique for person tracking systems | |
Santosh et al. | Tracking multiple moving objects using gaussian mixture model | |
US8675917B2 (en) | Abandoned object recognition using pedestrian detection | |
CN109583315A (zh) | 一种面向智能视频监控的多通道快速人体姿态识别方法 | |
Malhi et al. | Vision based intelligent traffic management system | |
CN112071084A (zh) | 一种利用深度学习判断违章停车的方法和系统 | |
CN105809954A (zh) | 交通事件检测方法以及系统 | |
Gaba et al. | Motion detection, tracking and classification for automated Video Surveillance | |
Su et al. | A new local-main-gradient-orientation HOG and contour differences based algorithm for object classification | |
Li et al. | A new method combining HOG and Kalman filter for video-based human detection and tracking | |
Zhao et al. | APPOS: An adaptive partial occlusion segmentation method for multiple vehicles tracking | |
Rao et al. | Abnormal activity detection in video sequences using learnt probability densities | |
Khan | Estimating Speeds and Directions of Pedestrians in Real-Time Videos: A solution to Road-Safety Problem. | |
Pathak et al. | Applying transfer learning to traffic surveillance videos for accident detection | |
Batapati et al. | Video analysis for traffic anomaly detection using support vector machines | |
Deepak et al. | Design and utilization of bounding box in human detection and activity identification | |
Phung et al. | A new image feature for fast detection of people in images | |
Sehairi et al. | A Real-Time Implementation of Moving Object Action Recognition System Based on Motion Analysis | |
Jehad et al. | Developing and validating a real time video based traffic counting and classification | |
Hradiš et al. | Real-time tracking of participants in meeting video | |
CN117058627B (zh) | 一种公共场所人群安全距离监测方法、介质及系统 | |
Teoh et al. | A deep regression convolutional neural network using whole image-based inferencing for dynamic visual crowd estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070412 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20070412 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20080418 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080422 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091005 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091005 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20110107 |