JP2017016593A - 画像処理装置、画像処理方法、及びプログラム - Google Patents
画像処理装置、画像処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2017016593A JP2017016593A JP2015135680A JP2015135680A JP2017016593A JP 2017016593 A JP2017016593 A JP 2017016593A JP 2015135680 A JP2015135680 A JP 2015135680A JP 2015135680 A JP2015135680 A JP 2015135680A JP 2017016593 A JP2017016593 A JP 2017016593A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- parts
- processing apparatus
- model
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
Description
以下、本発明の第1の実施形態について説明する。本実施形態では、対象物をオブジェクト、対象物の一部である部位をパーツ、対象物の各部位の位置関係を姿勢、全体的な姿勢をポーズと表現することもある。具体的なパーツの例としては、人体部位としての頭、胴、左右の上腕(肩−肘)、左右の前腕および手(肘−手の先)、左右の大腿(腰−膝)、左右の下腿および足(膝−足の先)等が挙げられる。また、本実施形態では、検出対象とするオブジェクトは人体として説明するが、本発明はこれに限らず、関節などの接続点により接続される複数の部位から構成され、それらの部位が同一カテゴリにおいて共通して存在する多関節物体でもよく、人体である必要はない。また、人体ではそれぞれの部位は隣接する接続点の間に存在するが、部位を接続点の周辺領域に存在するように構成してもよい。
ただし、数1式の第1項は学習によって得られるルートモデルおよびパーツモデルの重みベクトルFiと画像から得られた特徴ベクトルφ(H,pi)とから計算されるスコアを表す。以下の説明では、ルートモデルあるいはパーツモデルの重みベクトルFiは、ルートフィルタあるいはパーツフィルタと称す。特徴ベクトルφ(H,pi)は、各モデルに対応した解像度の画像内の矩形領域においてHOG特徴を走査順に連結して得られるベクトルである。なお、以下の説明では、ルートモデルに対応する矩形領域をルート領域、パーツモデルに対応する矩形領域をパーツ領域と称す。
pi=(xi,yi,li) ・・・数2式
数1式の第2項は、パーツモデルの位置変動に関するコスト関数に相当する。コスト関数は、パーツフィルタのルートフィルタに対する相対的な位置関係に基づいて定義されている。ここで、aiおよびbiは学習によって得られるコスト関数の係数である。また、x’iとy’iは、定義されるパーツ領域のルート領域に対する正規化した相対位置の変動を表し、数3式で定義される。
(x’i,y’i)=((xi,yi)−2(x,y)+vi)/si ・・・数3式
ただし、(x,y)はルート境界矩形の中心座標、viはルートモデルの基準中心座標とパーツモデルの基準中心座標との相対的な位置関係を表す。後述するが、基準中心座標は学習時に隠れ変数として決定される。また、siはpiに対応するパーツ領域のサイズである。なお、右辺の分子の第2項目の“2”は、ルートフィルタの座標スケールをパーツフィルタの座標スケールに合致させるための係数である。
z=(p0,...,pn) ・・・数7式
最後に、モデル学習部112で生成したモデルは出力部113に渡される。そして、出力部113は学習したモデルを記憶部101に格納する。以上が、本実施形態の学習部110による学習処理である。
ただし、cは肌属性を区別するための肌属性インデクス、PL(c)は肌属性cの事前確率、φL cは肌属性cごとに与えられた肌属性に関わる特徴量であり、ここではRGB値から成るベクトルである。また、μcとΣはそれぞれ肌属性特徴量(RGB値から成るベクトル)の平均および分散共分散である。そして、本実施形態の評価スコアは、以下の数9式として表わされる。
ここで、cは肌属性インデクス、piは着目パーツ領域(ここではインデクスiを持つものとする)、jはpi内部のピクセルを表すインデクス、Mはpi内部の総ピクセル数である。また、PL(c)は肌属性cの事前確率、φ’L ijは着目パーツi内部のピクセルj上で算出された肌属性特徴量、PL(φ’L ij|c)は肌属性特徴量φL ijの肌属性インデクスcに対する尤度である。本実施形態では、検出時の識別関数として以下の数10式を用いる。
また、weとwcは以下の数12式を満たす重み配分係数である。
we+wc=1 ・・・数12式
すなわち、数10式では、肌属性を考慮しない値(第1項)と肌属性を考慮した値(第2項)とを正規化し、その重み付き和を計算することになる。この式では、肌属性の合致度に応じて検出スコアがかさ上げされる。そのため、肌属性の影響がないか、あるいは肌属性の影響が小さい場合には、非特許文献1と同様に、HOG特徴に基づいて検出スコアを算出することになる。ステップS205において、候補検出部122は、数10式の識別関数の出力値が予め定めた閾値以上となるパーツ構成を候補として検出する。一般的に、各パーツについてパーツ構成候補は複数検出される。なお、非特許文献1では検出した複数のパーツ構成候補に対してNMS(Non Maximum Supression)処理を行っているが、本実施形態では、複数検出したパーツ構成候補を後段の処理で利用するため、この処理を行わない。
Ov=(R(p)∩R(p’))/(R(p)∪R(p’)) ・・・数13式
ただし、R(p)は着目高信頼パーツpのパーツ領域、R(p’)は着目高信頼パーツpに対して特定したパーツ構成候補p’のパーツ領域である。記号∩はR(p)とR(p’)とが重なる領域を示し、記号∪はR(p)とR(p’)の少なくともどちらかに含まれる領域を示す。
本実施形態では、画像処理装置100において、学習部110と検出部120との両方を備えるように構成したが、学習部110と検出部120とを別々の画像処理装置として構成してもよい。ただし、この場合は学習部110と検出部120との両方が記憶部101にアクセスできるよう構成する必要がある。
また、別の方法として、赤外線情報を利用してよい。例えば、赤外線強度の高い領域と重なるパーツは肌が露出している領域と重なるものと判断し、高信頼パーツとして選択するようにしてもよい。
また、別の方法として、特定領域に対する所定の評価指標の観測確率を計測するようにしてもよい。具体的な観測確率として、例えば、評価指標としてパーツ構成候補内の対応するパーツ位置を用いる場合、まず、パーツ別にラベル番号を設定する。次に、S205で検出したパーツ構成候補それぞれについて各パーツの内部領域内の画素にそのラベル番号を設定する。画素ごとに各ラベル番号の設定回数をカウントし、パーツ構成候補数に対するカウント数の割合が所定の閾値を超えた画素を高信頼パーツの領域として抽出する。特定の高信頼パーツの領域が複数ある場合には、例えば最も大きい領域を採用するようにすればよい。
[第2の実施形態]
次に、本発明の第2の実施形態を説明する。上述の第1の実施形態では、検出したパーツのそれぞれについて、複数の評価指標に基づき、誤検出の可能性が低いと判断されるパーツを高信頼パーツとして選択するように構成した。本実施形態では、パーツの一部の検出に専用の検出器を用いることにより、高信頼パーツを選択する構成について説明する。なお、第1の実施形態で既に説明した構成については同一の符号を付し、その説明を省略する。
ただし、S(pf)はステップS502の顔検出器から検出結果として出力される数値、piは検出結果として出力される領域に対応する着目パーツ領域(ここではインデクスiを持つものとする)である。なお、piの選択には上述の数13式を用い、顔検出器が検出結果として出力する領域と最も重複率の高いパーツ領域を選択する。また、we、wc、wfは数16式を満たす重み配分係数である。
we+wc+wf=1 ・・・数16式
以上のように、本実施形態では、第1の実施形態と同様にして高信頼パーツを選択するのに加えて、一部の特定パーツ(本実施形態の場合、顔)の検出に専用の検出器を用い、そのパーツを高信頼パーツとして選択する。これにより、高信頼パーツをさらに正確に選択できるようになり、オブジェクトのパーツ位置を精度よく検出することが可能になる。
次に、本発明の第3の実施形態について説明する。本実施形態は、パーツ構成候補の検出、高信頼パーツの選択、あるいはモデルの再構築において、パーツ間の制約を考慮するものである。なお、第1、第2の実施形態で既に説明した構成については同一の符号を付し、その説明は省略する。
ここで、bi tiはパーツiがタイプtiとなる度合いを数値化したものであり、bij ti,tjはパーツiがタイプti、パーツjがタイプtjとなる度合いを数値化したものである。また、VとEはパーツ構造をグラフ構造と捉えたときに、グラフのノード(V)とエッジ(E)に相当することを示す。bi tiおよびbij ti,tjは、学習部110の学習データ取得部111が取得する正例関心領域情報として与えられたタイプ情報から統計的に算出される。出力部113は、モデル学習部112が第1の実施形態と同様にして学習したモデルと、上述のようにして算出したbi tiおよびbij ti,tjを記憶部101に格納する。
次に、ステップS603において、高信頼パーツ選択部123は高信頼パーツの選択を行う。ステップS603における処理は、第1の実施形態のステップS208とほぼ同様の処理であるが、評価指標としてパーツ間の共起も考慮する。すなわち、隣接パーツとなるパーツiのタイプtiとパーツjのタイプtjとの組み合わせに投票を行い、各組み合わせに対して投票確率を算出する。そして、高信頼パーツ選択部123は、隣接パーツの分散共分散行列の所定の要素値が予め定めた閾値以下となり、かつ投票確率が所定の閾値以上となった場合に、その隣接パーツそれぞれを高信頼パーツとして選択する。
次に、本発明の第4の実施形態について説明する。本実施形態は、反復的に高信頼パーツを選択することでモデルを再構築するものである。なお、第1〜第3の実施形態において既に説明した構成については同一の符号を付し、その説明を省略する。
本発明は、上記実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、上述した各実施例及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
101 記憶部
110 学習部
111 学習データ取得部
112 モデル学習部
113 出力部
120 検出部
121 検出データ取得部
122 候補検出部
123 高信頼パーツ選択部
124 モデル再構築部
125 パーツ検出部
Claims (20)
- 複数のパーツにより構成される対象物体を含む画像を取得する取得手段と、
予め学習されたモデルを用いて、前記対象物体の複数のパーツそれぞれの候補領域を検出する第1の検出手段と、
前記第1の検出手段により検出された候補領域に基づいて、前記複数のパーツから相対的に信頼性が高い第1のパーツと相対的に信頼性の低い第2のパーツとを選択する選択手段と、
前記選択手段により選択された第1のパーツに基づいて前記第2のパーツの位置を決定することにより、前記モデルを再構築する再構築手段と、
前記再構築手段により再構築されたモデルを用いて、前記対象物体の複数のパーツの位置を検出する第2の検出手段と、
を有することを特徴とする画像処理装置。 - 前記選択手段は、前記複数のパーツそれぞれについて検出された候補領域の位置の変動に基づいて、前記第1のパーツと前記第2のパーツとを選択することを特徴とする請求項1に記載の画像処理装置。
- 前記選択手段は、前記複数のパーツそれぞれについて検出された候補領域の分散共分散行列を算出し、当該分散共分散行列の所定の要素値が第1の閾値以下となるパーツを第1のパーツとして選択することを特徴とする請求項1または2に記載の画像処理装置。
- 前記第1の検出手段は、前記候補領域の確からしさを示すスコアを算出し、
前記選択手段は、前記スコアが第2の閾値以上の候補領域を含むパーツを前記第1のパーツとして選択することを特徴とする請求項1に記載の画像処理装置。 - 前記画像を複数のセグメントに分割し、分割したセグメントの特徴量を抽出する抽出手段を更に有し、
前記選択手段は、前記抽出した特徴量の分散共分散行列の所定の要素値が第3の閾値以上となるパーツを前記第1のパーツとして選択することを特徴とする請求項1に記載の画像処理装置。 - 前記抽出手段は、前記特徴量としてRGBヒストグラムを抽出することを特徴する請求項5に記載の画像処理装置。
- 前記再構築手段は、前記第1のパーツについて検出された前記候補領域のうちの所定の候補領域に対する位置の平均および分散共分散行列に基づいて、前記第2のパーツの位置を決定することを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
- 前記第1の検出手段は、前記候補領域の確からしさを示すスコアを算出し、
前記所定の候補領域は、前記第1のパーツについて検出された前記候補領域のうちスコアが最も高い候補領域と、当該候補領域との重複率が第4の閾値以上の候補領域とからなることを特徴とする請求項7に記載の画像処理装置。 - 前記再構築手段は、前記第1のパーツに基づく補間により前記第2のパーツの位置を決定することを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
- 前記再構築手段は、前記第1のパーツと左右対称の関係にある前記第2のパーツについて、当該第1のパーツを対象軸に対して反転させることにより前記第2のパーツの位置を決定することを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
- 前記第1の検出手段は、特定のパーツの領域を検出する検出器を用いて前記特定のパーツの領域を検出し、
前記選択手段は、前記検出器を用いて検出された前記特定のパーツを前記第1のパーツとして選択することを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。 - 前記特定のパーツは人体の顔であることを特徴とする請求項11に記載の画像処理装置。
- 前記第1の検出手段、前記選択手段、前記再構築手段のうち少なくとも1つの手段は、前記複数のパーツにおける制約に基づいて処理を実行することを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。
- 前記複数のパーツにおける制約は、前記パーツ同士の共起により表現されることを特徴とする請求項13に記載の画像処理装置。
- 前記選択手段により選択される前記第1のパーツの差異が所定数以下となるまで、前記第1の検出手段、前記選択手段、前記再構築手段、前記第2の検出手段により処理を繰り返すことを特徴とする請求項1から14のいずれか1項に記載の画像処理装置。
- 学習データを用いて、前記モデルを予め学習するための学習手段を更に有することを特徴とする請求項1から15のいずれか1項に記載の画像処理装置。
- 前記対象物体は1以上の接続点を持つ多関節物体であり、前記パーツは隣接する前記接続点の間に存在することを特徴とする請求項1から16のいずれか1項に記載の画像処理装置。
- 前記対象物体は人体であり、前記パーツは前記人体の部位であることを特徴とする請求項1から17のいずれか1項に記載の画像処理装置。
- 複数のパーツにより構成される対象物体を含む画像を取得するステップと、
予め学習されたモデルを用いて、前記対象物体の複数のパーツそれぞれの候補領域を検出するステップと、
前記検出された候補領域に基づいて、前記複数のパーツから相対的に信頼性が高い第1のパーツと相対的に信頼性の低い第2のパーツとを選択するステップと、
前記選択された第1のパーツに基づいて前記第2のパーツの位置を決定することにより、前記モデルを再構築するステップと、
前記再構築されたモデルを用いて、前記対象物体の複数のパーツの位置を検出するステップと、
を有することを特徴とする画像処理方法。 - コンピュータを、請求項1から18のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015135680A JP6639123B2 (ja) | 2015-07-06 | 2015-07-06 | 画像処理装置、画像処理方法、及びプログラム |
US15/194,304 US10216979B2 (en) | 2015-07-06 | 2016-06-27 | Image processing apparatus, image processing method, and storage medium to detect parts of an object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015135680A JP6639123B2 (ja) | 2015-07-06 | 2015-07-06 | 画像処理装置、画像処理方法、及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017016593A true JP2017016593A (ja) | 2017-01-19 |
JP2017016593A5 JP2017016593A5 (ja) | 2018-08-16 |
JP6639123B2 JP6639123B2 (ja) | 2020-02-05 |
Family
ID=57731264
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015135680A Expired - Fee Related JP6639123B2 (ja) | 2015-07-06 | 2015-07-06 | 画像処理装置、画像処理方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10216979B2 (ja) |
JP (1) | JP6639123B2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200045884A (ko) * | 2018-10-23 | 2020-05-06 | 주식회사 케이티 | 볼류메트릭 비디오 생성 방법, 장치 및 컴퓨터 판독가능 매체 |
KR20200046178A (ko) * | 2018-10-18 | 2020-05-07 | 주식회사 케이티 | 머리 영역 검출 방법 및 머리 영역 검출 장치 |
US10868957B2 (en) | 2018-10-18 | 2020-12-15 | Samsung Electronics Co., Ltd. | Apparatus and method for processing image to reconstruct image |
WO2021229627A1 (ja) * | 2020-05-11 | 2021-11-18 | 三菱電機株式会社 | 情報処理装置、プログラム及び情報処理方法 |
WO2022168442A1 (ja) * | 2021-02-05 | 2022-08-11 | ソニーグループ株式会社 | 推論装置、推論方法およびプログラム |
WO2022168441A1 (ja) * | 2021-02-05 | 2022-08-11 | ソニーグループ株式会社 | 推論装置、推論方法およびプログラム |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6126437B2 (ja) | 2013-03-29 | 2017-05-10 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
JP6639123B2 (ja) * | 2015-07-06 | 2020-02-05 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP6977624B2 (ja) * | 2018-03-07 | 2021-12-08 | オムロン株式会社 | 物体検出装置、物体検出方法、およびプログラム |
US12014530B2 (en) * | 2018-12-21 | 2024-06-18 | Hitachi High-Tech Corporation | Image recognition device and method |
JP7263074B2 (ja) * | 2019-03-22 | 2023-04-24 | キヤノン株式会社 | 情報処理装置、及びその制御方法、プログラム、記憶媒体 |
CN109993742B (zh) * | 2019-04-04 | 2020-03-17 | 哈尔滨工业大学 | 基于对角导数算子的桥梁裂缝快速识别方法 |
CN110490202B (zh) * | 2019-06-18 | 2021-05-25 | 腾讯科技(深圳)有限公司 | 检测模型训练方法、装置、计算机设备和存储介质 |
WO2021054217A1 (ja) * | 2019-09-20 | 2021-03-25 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP7377078B2 (ja) * | 2019-11-21 | 2023-11-09 | キヤノン株式会社 | 画像処理装置および画像処理方法、ならびに撮像装置 |
CN111582177A (zh) * | 2020-05-09 | 2020-08-25 | 北京爱笔科技有限公司 | 一种图像检测方法和相关装置 |
CN112633275B (zh) * | 2020-12-22 | 2023-07-18 | 航天信息股份有限公司 | 一种基于深度学习的多票据混拍图像校正方法及系统 |
CN114495291B (zh) * | 2022-04-01 | 2022-07-12 | 杭州魔点科技有限公司 | 活体检测的方法、系统、电子装置和存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015028702A (ja) * | 2013-07-30 | 2015-02-12 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2015102913A (ja) * | 2013-11-21 | 2015-06-04 | キヤノン株式会社 | 姿勢推定装置及び姿勢推定方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070047790A1 (en) * | 2005-08-30 | 2007-03-01 | Agfa-Gevaert N.V. | Method of Segmenting Anatomic Entities in Digital Medical Images |
US8165359B2 (en) * | 2005-08-30 | 2012-04-24 | Agfa Healthcare N.V. | Method of constructing gray value or geometric models of anatomic entity in medical image |
JP4894747B2 (ja) | 2007-12-19 | 2012-03-14 | 株式会社豊田中央研究所 | 部分領域検出装置、対象物識別装置、及びプログラム |
US9754154B2 (en) * | 2013-02-15 | 2017-09-05 | Microsoft Technology Licensing, Llc | Identification using depth-based head-detection data |
US9955140B2 (en) * | 2015-03-11 | 2018-04-24 | Microsoft Technology Licensing, Llc | Distinguishing foreground and background with inframed imaging |
JP6639123B2 (ja) * | 2015-07-06 | 2020-02-05 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US20170213080A1 (en) * | 2015-11-19 | 2017-07-27 | Intelli-Vision | Methods and systems for automatically and accurately detecting human bodies in videos and/or images |
-
2015
- 2015-07-06 JP JP2015135680A patent/JP6639123B2/ja not_active Expired - Fee Related
-
2016
- 2016-06-27 US US15/194,304 patent/US10216979B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015028702A (ja) * | 2013-07-30 | 2015-02-12 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2015102913A (ja) * | 2013-11-21 | 2015-06-04 | キヤノン株式会社 | 姿勢推定装置及び姿勢推定方法 |
Non-Patent Citations (1)
Title |
---|
山内悠嗣,外2名: "画像からの統計的学習手法に基づく人検出", 電子情報通信学会論文誌(J96−D)第9号, vol. 第J96-D巻, JPN6019016221, 1 September 2013 (2013-09-01), JP, pages 2017 - 2040, ISSN: 0004030566 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200046178A (ko) * | 2018-10-18 | 2020-05-07 | 주식회사 케이티 | 머리 영역 검출 방법 및 머리 영역 검출 장치 |
US10868957B2 (en) | 2018-10-18 | 2020-12-15 | Samsung Electronics Co., Ltd. | Apparatus and method for processing image to reconstruct image |
KR102701813B1 (ko) * | 2018-10-18 | 2024-09-02 | 주식회사 케이티 | 머리 영역 검출 방법 및 머리 영역 검출 장치 |
KR20200045884A (ko) * | 2018-10-23 | 2020-05-06 | 주식회사 케이티 | 볼류메트릭 비디오 생성 방법, 장치 및 컴퓨터 판독가능 매체 |
KR102187926B1 (ko) | 2018-10-23 | 2020-12-07 | 주식회사 케이티 | 볼류메트릭 비디오 생성 방법, 장치 및 컴퓨터 판독가능 매체 |
WO2021229627A1 (ja) * | 2020-05-11 | 2021-11-18 | 三菱電機株式会社 | 情報処理装置、プログラム及び情報処理方法 |
JPWO2021229627A1 (ja) * | 2020-05-11 | 2021-11-18 | ||
JP7233610B2 (ja) | 2020-05-11 | 2023-03-06 | 三菱電機株式会社 | 情報処理装置、プログラム及び情報処理方法 |
WO2022168442A1 (ja) * | 2021-02-05 | 2022-08-11 | ソニーグループ株式会社 | 推論装置、推論方法およびプログラム |
WO2022168441A1 (ja) * | 2021-02-05 | 2022-08-11 | ソニーグループ株式会社 | 推論装置、推論方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US10216979B2 (en) | 2019-02-26 |
US20170011523A1 (en) | 2017-01-12 |
JP6639123B2 (ja) | 2020-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6639123B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
CN105740780B (zh) | 人脸活体检测的方法和装置 | |
CN105612554B (zh) | 用于表征通过视频医疗设备获取的图像的方法 | |
CN106295124B (zh) | 多种图像检测技术综合分析基因子图相似概率量的方法 | |
CN107067413B (zh) | 一种时空域统计匹配局部特征的运动目标检测方法 | |
Morris | A pyramid CNN for dense-leaves segmentation | |
US9639748B2 (en) | Method for detecting persons using 1D depths and 2D texture | |
CN111862249A (zh) | 使用深度学习生成用于医学图像处理的规范成像数据的系统和方法 | |
JP2018156668A (ja) | 学習が強化されたアトラスベース自動輪郭抽出方法及び装置 | |
CN109190544B (zh) | 一种基于序列深度图像的人体身份识别方法 | |
JP2010176380A (ja) | 情報処理装置および方法、プログラム、並びに記録媒体 | |
JP2019109709A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2003517910A (ja) | 心臓磁気共鳴画像において学習ベースでオブジェクトを検出する方法 | |
WO2004095373A2 (en) | Method and system for determining object pose from images | |
JP2014505952A (ja) | 画像品質の評価 | |
JP2006252559A (ja) | 画像において対象物の位置を特定する方法および対象物の画像を相異なる画像カテゴリに分類する方法 | |
JP2013210968A (ja) | 物体検出装置及びその方法、プログラム | |
KR20130048076A (ko) | 얼굴 인식 장치 및 그 제어방법 | |
JP2012053756A (ja) | 画像処理装置及び画像処理方法 | |
CN110705565A (zh) | 淋巴结肿瘤区域识别方法与装置 | |
Demirkus et al. | Hierarchical temporal graphical model for head pose estimation and subsequent attribute classification in real-world videos | |
CN106611158A (zh) | 人体3d特征信息的获取方法及设备 | |
US20170053172A1 (en) | Image processing apparatus, and image processing method | |
JP6486084B2 (ja) | 画像処理方法、画像処理装置、及びプログラム | |
CN111104857A (zh) | 一种基于步态能量图的身份识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180703 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180703 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190418 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190514 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190716 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191126 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191224 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6639123 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |