Nothing Special   »   [go: up one dir, main page]

JP7096175B2 - オブジェクト抽出方法および装置 - Google Patents

オブジェクト抽出方法および装置 Download PDF

Info

Publication number
JP7096175B2
JP7096175B2 JP2019009705A JP2019009705A JP7096175B2 JP 7096175 B2 JP7096175 B2 JP 7096175B2 JP 2019009705 A JP2019009705 A JP 2019009705A JP 2019009705 A JP2019009705 A JP 2019009705A JP 7096175 B2 JP7096175 B2 JP 7096175B2
Authority
JP
Japan
Prior art keywords
statistical information
existence
background subtraction
likelihood map
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019009705A
Other languages
English (en)
Other versions
JP2020119250A (ja
Inventor
良亮 渡邊
軍 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2019009705A priority Critical patent/JP7096175B2/ja
Publication of JP2020119250A publication Critical patent/JP2020119250A/ja
Application granted granted Critical
Publication of JP7096175B2 publication Critical patent/JP7096175B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、オブジェクト抽出方法および装置に係り、特に、動画像から前景を分離することでオブジェクトを抽出するオブジェクト抽出方法および装置に関する。
主に画像中からの移動物体の検出や、自由視点映像の制作などを目的として、前景領域と背景領域とを分離する手法が数多く提案されてきた。特に、画像中の背景領域について統計情報等に基づきモデル化を行い、背景モデルと入力画像との差分が大きい領域を前景として抽出するアプローチは背景差分法と呼ばれる。
背景差分法の例として、非特許文献1には、複数のガウス分布を混合させた混合ガウス分布を用いて背景のモデル化を行うことで、入力画像の背景領域を特定し、前景のみを抽出する技術が開示されている。
非特許文献2には、背景を単一のガウス分布でモデル化し、平均と分散とに代表される背景統計情報を各フレームで更新しつつ、背景差分を計算する手法が開示されている。この手法では、ガウス分布に基づいて前景の候補領域を抽出した後に、候補領域の形状やヒストグラムに基づいて、候補領域を前景と背景に再度分類することで、影などの本来前景とすべきではない部分を排除することができる。
非特許文献3には、背景差分を実施する際に設定する前景抽出のための閾値を、人物の追跡情報に基づいて適応的に変化させることで、背景差分の精度を高める手法が開示されている。
一方、近年では、非特許文献4に代表されるような深層学習を用いて対象オブジェクトのシルエットを抽出する技術も提案されている。本手法は、事前に訓練データを用意し、畳み込みニューラルネットワークを用いた事前学習に基づいて対象のシルエット抽出を行うことができる技術である。本手法は訓練データを基に対象オブジェクトを抽出することから、本手法を前景と背景との分離に応用した場合、影などが抽出されにくく、また照明条件などの変化に対し頑健に対象オブジェクトを抽出できるという特徴があった。
C. Stauffer and W. E. L. Grimson, "Adaptive background mixture models for real-time tracking," 1999 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp. 246-252 Vol. 2 (1999). Q. Yao, H. Sankoh, H. Sabirin and S. Naito, "Accurate silhouette extraction of multiple moving objects for free viewpoint sports video synthesis," 2015 IEEE 17th International Workshop on Multimedia Signal Processing (MMSP), 2015, pp. 1-6 (2015). 寺林賢司,梅田和昇,モロアレッサンドロ,"人物追跡情報を用いた背景差分のリアルタイム適応閾値処理" ,電気学会一般産業研究会資料, GID-09-17, pp.89-90(2009). K. He, G. Gkioxari, P. Dollar and R. Girshick, "Mask R-CNN," 2017 IEEE International Conference on Computer Vision (ICCV), 2017, pp. 2980-2988 (2017). H. Sankoh, S. Naito, K. Nonaka, H. Sabirin, J. Chen, "Robust Billboard-based, Free-viewpoint Video Synthesis Algorithm to Overcome Occlusions under Challenging Outdoor Sport Scenes", Proceedings of the 26th ACM international conference on Multimedia, pp. 1724-1732(2018) Z. Cao, T. Simon, S. Wei and Y. Sheikh, "Realtime Multi-person 2D Pose Estimation Using Part Affinity Fields," 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 1302-1310 (2017). J. Redmon and A. Farhadi,"YOLO9000: Better, Faster, Stronger," 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 6517-6525 (2017).
本発明の発明者等は、非特許文献1,2に開示されているような背景差分法ベースの手法で抽出したシルエットを用い、非特許文献5に代表されるような自由視点映像の制作を行ってきた。非特許文献5に開示されている自由視点映像技術の制作工程では、背景差分法を用いてシルエット画像を作成し、その後、各シルエットから3次元空間上の積集合を計算することで視体積を生成し、対象人物の3Dモデル化を行う。このときのシルエット抽出の精度が自由視点映像の品質に大きく影響を及ぼす。
非特許文献1,2に開示されている手法は、背景を統計的にモデル化し、更新を行うことから、緩やかな背景の変化や規則的な背景部分の変化に関しては、ロバストな対象オブジェクト抽出を行えるという強みがあった。しかしながら、背景が複雑かつ急峻に変化するようなシーンには適用が難しかった。ここで述べる背景が複雑なシーンの例としては、例えばスポーツの試合において選手やボールの抽出を行いたい場合に、選手の背後に頻繁に切り替わりが発生する広告表示用の液晶ディスプレイが配置されているシーンや、野球などにおいて引かれていたフィールド上の白線が選手の走塁と共に踏み荒らされてしまうようなシーン等が該当する。
このようなシーンでは、背景が急激に変化することに加えて、その背景の変化に規則性がないことから、背景を誤って前景として抽出してしまう可能性が高くなる。これらの抽出困難なシーンにおいて抽出を行うためには、非特許文献1,2の手法では精度的に不十分である。
このような技術課題に対して、非特許文献3のように、人物追跡を行い、その結果を背景差分法の閾値に作用させる手法が提案されていた。非特許文献3は人物の追跡を行い、その結果に基づき閾値の調整を行うことから、非特許文献1,2と比べると照明の変化等に頑健という特徴があった。
しかしながら、非特許文献3のような手法で前景と背景とを判別するための閾値を動的に調整したとしても、背景モデルを統計的に更新する場合、長時間に渡り静止している選手が存在する場合、徐々に静止している選手部分が背景モデルとして判定されるようになり、対象オブジェクトが背景として判定されてしまうという問題が存在する。逆に、背景を統計的に更新する機構がない場合には、照明変動などに対する頑健さが失われてしまう。
一方、非特許文献4のような深層学習ベースの手法は、画像全体の特徴量から対象オブジェクトを検出することから照明の変化に頑健で、影などが前景として抽出されにくいという利点が存在していた。
しかしながら、抽出オブジェクトが重なり合うことでオクルージョンが発生する場合には認識漏れが多く発生することに加え、輪郭を綺麗に抜くことが難しく、自由視点映像制作に用いるシルエットでは対象オブジェクトの輪郭を正確に抽出することが求められることを鑑みると、非特許文献4の手法は適用しづらかった。
本発明の目的は、上記の技術課題を解決し、静止時間の長いオブジェクトも正確に抽出できるオブジェクト抽出方法および装置を提供することにある。
上記の目的を達成するために、本発明は、動画の映像からオブジェクトを抽出するオブジェクト抽出装置において、以下の構成を具備した点に特徴がある。
(1) 映像を取得する手段と、取得した映像からオブジェクト領域を検出する手段と、オブジェクト領域の検出結果に基づいて存在尤度マップを計算する手段と、各画素の統計情報を計算する統計情報計算手段と、前記統計情報および背景差分閾値に基づく背景差分法により前景領域をオブジェクトとして抽出する背景差分計算手段とを具備し、前記統計情報計算手段は、各画素の過去の統計情報に今回の画素値を所定の更新率で反映することで今回の統計情報を求め、前記更新率を前記存在尤度マップに基づいて決定する更新率決定手段をさらに具備し、例えば、オブジェクトの存在尤度が高い画素ほど更新率を低くするようにした。
(2) 前記背景差分閾値を前記存在尤度マップに基づいて計算する閾値計算手段をさらに具備し、例えば、オブジェクトの存在尤度が高い画素ほど背景差分閾値を低くするようにした。
(3) 前記閾値計算手段は更に、前記オブジェクト領域の検出結果と背景差分計算手段の計算結果との一致比率に基づいて背景差分閾を動的に変更するようにした。
(4) 前記統計情報計算手段が、画素値の履歴に基づいて平均値および標準偏差を算出する手段を具備し、前記背景差分計算手段は、背景領域を統計情報に基づいて単一のガウス分布でモデル化するようにした。
(5) 前記存在尤度マップを計算する手段は、オブジェクト領域の今回の検出結果に前回までの検出結果を所定の学習率mで重み付けして今回の存在尤度マップを計算するようにした。
(6) 前記オブジェクト領域を検出する手段は、複数の異なる検出方式でオブジェクト領域をそれぞれ検出し、各検出結果を一つに統合するようにした。
(7) 前記抽出したオブジェクトを存在尤度マップに基づいて高精度化する後処理手段として、存在尤度マップの平均値が所定のノイズ閾値を下回る前景領域を背景領域とみなすノイズ除去手段を具備し、前記ノイズ閾値は、前景領域のサイズが大きいほど低くされるようにした。
(8) 前記抽出したオブジェクトを存在尤度マップに基づいて高精度化する後処理手段として、存在尤度マップの平均値が所定の穴埋め閾値を上回る背景領域を前景領域とみなす欠損穴埋め手段を具備した。
(9) 前記存在尤度マップを計算する手段は、抽出対象のオブジェクトごとに存在尤度マップを計算し、前記背景差分閾値および更新率が存在尤度マップごとに決定されるようにした。
(10) 前記オブジェクトの抽出結果および存在尤度マップに基づいて前記更新率を見直す更新率見直し手段を更に具備し、例えば、存在尤度マップに基づいて決定される更新率を、前景領域では背景領域よりも低くした。
本発明によれば、以下のような効果が達成される。
(1) 各画素の過去の統計情報に今回の画素値を所定の更新率で反映することで今回の統計情報を求めるにあたり、前記更新率を存在尤度マップに基づいて決定するようにしたので、例えば、存在尤度マップに基づいて設定される背景差分閾値の範囲を、オブジェクトの存在尤度が高い画素ほど低くすることにより、静止しているオブジェクトが徐々に背景として認識されてしまうためにオブジェクトとして認識されにくくなる、という技術課題を解決できるようになる。
(2) 背景差分閾値を存在尤度マップに基づいて計算するようにしたので、例えばオブジェクトの存在尤度が高い画素ほど背景差分閾値を低く設定することにより、背景領域が前景領域として誤検出されにくくすることができる。
(3) 前景と判断された領域と背景と判断された領域との比率に基づいて背景差分閾値を動的に変更するようにしたので、例えば、存在尤度マップに基づいて設定される背景差分閾値の範囲を、オブジェクトの存在尤度が高い画素ほど低くすれば、前景領域が背景領域として誤検出されにくくすることができる。
(4) 画素値の履歴に基づいて平均値および標準偏差を算出し、前記背景差分計算手段は、背景領域を統計情報に基づいて単一のガウス分布でモデル化するので、オブジェクトとみなせる背景領域を正確に抽出できるようになる。
(5) オブジェクト領域の今回の検出結果に前回までの検出結果を所定の学習率mで重み付けして今回の存在尤度マップを計算するようにしたので、一部のフレームにオブジェクトの検出漏れが生じても、その前後フレームでオブジェクトが検出されていればオブジェクトの見逃しを防止できるようになる。
(6) 映像からオブジェクト領域を検出する際に、複数の異なるアルゴリズムでオブジェクト検出をそれぞれ実行し、各検出結果を一つに統合するようにしたので、各オブジェクト検出手法の欠点を相互に補うことが可能になる。
(7) 存在尤度マップの平均値が所定のノイズ閾値を下回る前景領域を背景領域とみなすノイズ除去手段を具備したので、背景領域が前景領域として抽出されてしまうことにより生じるオブジェクト抽出の精度低下を回復できるようになる。
(8) 存在尤度マップの平均値が所定の穴埋め閾値を上回る背景領域を前景領域とみなす欠損穴埋め手段を具備したので、前景領域が背景領域として抽出されてしまうことにより生じるオブジェクト抽出の精度低下を回復できるようになる。
(9) 抽出対象のオブジェクトごとに存在尤度マップを計算し、更に背景差分閾値および更新率を存在尤度マップごとに設定すれば、存在尤度マップが各オブジェクトに固有となるので、オブジェクト抽出の精度を向上させることができる。
(10) オブジェクトの抽出結果および存在尤度マップに基づいて前記更新率を見直す手段を更に設けたので、例えば、存在尤度マップに基づいて決定される更新率の範囲を、前景領域では背景領域よりも低くすれば、静止しているオブジェクトが徐々に背景として認識されてしまうためにオブジェクトとして認識されにくくなる、という技術課題を更に高い確度で解決できるようになる。
本発明の第1実施形態に係るオブジェクト抽出装置の機能ブロック図である。 Mask R-CNN法によるオブジェクト検出の結果を示した図である。 OpenPose法によるオブジェクト検出の結果を示した図である。 オブジェクト検出の結果を比較した図である。 後処理部におけるノイズ除去の方法を示した図である。 後処理部における欠損穴埋めの方法を示した図である。 欠損穴埋めの結果を従来技術と比較して示した図である。 オブジェクトの抽出例を示した図である。 本発明の第2実施形態に係るオブジェクト抽出装置の機能ブロック図である。
以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の第1実施形態に係るオブジェクト抽出装置の主要部の構成を示した機能ブロック図であり、ここでは、複数台のカメラが設置された環境への適用を例にして説明するが、カメラは1台のみであってもよい。
カメラ映像取得部1は、視野の異なる複数のカメラcamから動画像のカメラ映像を取得する。オブジェクト領域検出部2は、オブジェクトの検出手法が異なる複数の検出部21,22を備え、深層学習に代表される複数のオブジェクト検出手法を用いて、カメラ映像ごとにフレーム単位でオブジェクト領域N(x, y)を検出する。
本実施形態では、オブジェクト検出の信頼性を高めるために、第1検出部21として、非特許文献4に開示されているMask R-CNN法を備えると共に、第2検出部22として、非特許文献6に開示されているOpenPose法を備え、各検出手法を併用し、検出結果を統合することでオブジェクト検出の信頼性を高めている。
また、本実施形態ではバレーボール中継のカメラ映像からオブジェクトを抽出する場合を想定し、抽出対象のオブジェクトを選手およびボールの2種類に限定すると共に、前記OpenPose法によるオブジェクト検出では選手のみを抽出対象としている。
図2は、前記Mask R-CNN法によるオブジェクト検出の結果の一例を示した図であり、選手およびボールのシルエット画像が得られている。図3は、前記OpenPose法によるオブジェクト検出の結果の一例を示した図であり、各選手の画像から骨格情報が得られている。
なお、採用するオブジェクトの検出手法およびその組み合わせは上記の各手法およびその組み合わせに限定されるものではなく、非特許文献7に開示されているように、抽出対象オブジェクトを包含する矩形を取得するようなアルゴリズムを採用してもよいし、HOG (Histograms of Oriented Gradients) 特徴量などの画像特徴量に基づく検出手法を採用しても良い。深層学習等に基づいてオブジェクト検出を行う場合には、事前に対象オブジェクトを利用して学習させた訓練済モデルが必要となるため、本モデルは事前に計算され、用意されることを前提とする。
図1へ戻り、存在尤度マップ計算部3は、前記オブジェクト領域検出の結果に基づいて、フレーム画像の各位置にオブジェクトが存在する確率(尤度)を計算し、フレーム画像上での存在尤度の分布を表す存在尤度マップE(x, y)を計算する。
本実施形態では、次式(1),(2)に示したように、今回(時刻t)の存在尤度マップEt(x,y)が、前回(時刻t-1)の存在尤度マップEt-1(x, y)の計算結果と今回のオブジェクト領域の検出結果N(x, y)との、所定の存在尤度マップ学習率mに基づく重み付け和として計算される。
Figure 0007096175000001
前記存在尤度マップ学習率mは、オブジェクト領域検出部2等で認識漏れが生じた際の対策として、過去の存在尤度マップの値Et-1(x, y)を次のフレームに伝播させる比率を示す。N(x, y)は、時刻tにおいてオブジェクト領域検出部2から得られる検出結果を統合した値を示し、Riは各検出手法から得られる検出結果を示し、kiは各検出手法の影響比率を調整するための事前に決定されるパラメータを示す。ただしt=0(最初のフレーム)の場合には(1)式のEt-1(x, y)の項は0として計算する。
本実施例では、オブジェクト検出手法としてMask R-CNN法およびOpenPose法を用いていることから、I=2となり、R1(x, y)としてMask R-CNN法による検出結果が、R2(x, y)としてOpenPose法による検出結果が、それぞれ代入される。上式(2)では各検出結果に対して重み付けを行い、その和を計算しているが、和に代えて積を計算することでN(x, y)を算出してもよい。
本実施例では、Mask R-CNN法の結果R1(x, y)は、Mask R-CNN法で抽出対象オブジェクトが存在すると判定された位置を1、存在しない位置を0としている。また、OpenPose法の結果R2(x, y)は、抽出された各骨格から一定の距離の部分を1、それ以外を0としている。オブジェクト領域検出部2で骨格のようなオブジェクトの構造情報を抽出する場合には、その中心となる部分から距離が離れるほどR2(x, y)の値が小さくなるように重み付けを行ってもよい。
また、オブジェクト領域検出部2がオブジェクトを検出する際に、抽出対象のオブジェクトの存在確率を計算できるような機構を持つ場合には、この存在確率をRi(x, y)の値に反映させてもよい。
加えて、存在尤度マップE(x, y)に関して、抽出対象のオブジェクトが選手やボールのように複数ある場合には、オブジェクトごとに存在尤度マップを作成してもよい。その際、設定される閾値や更新率の範囲をオブジェクトごとに変更することで、さらに高精度な前景抽出を実現できる可能性がある。例えば、抽出し易いと思われるオブジェクトの閾値の範囲を高めに、抽出し難いと思われるオブジェクトの閾値の範囲を低めに設定することで、前景の誤抽出を減らすことができる。
閾値計算部4は、前記存在尤度マップE(x, y)を参照し、フレーム画像の各領域を各画素値に基づいて前景と背景とに分離する際の分離閾値T(x, y)を画素ごとに動的に決定する。本実施形態では、オブジェクトの存在尤度が高い領域には低い閾値が設定され、オブジェクトの存在尤度が低い領域には高い閾値が設定されるように、次式(3)に基づいて分離閾値T(x, y)が画素ごとに決定される。これにより、抽出対象のオブジェクトが存在する領域が前景と判断され易くなる効果を奏することができる。
Figure 0007096175000002
ここで、Tmin,Tmaxは、それぞれ分離閾値T(x, y)が採り得る最小値および最大値であり、対象とするシーンなどを鑑みて手動で決定されてもよいが、オブジェクト領域検出部2の検出結果または存在尤度マップの値Et(x,y)と、実際に前景として抽出された領域との一致比率を計算し、一致比率が低い場合には閾値の範囲設定が上手くできていないと判断し、一致比率が改善されるようにTmin,Tmaxを自動的に変更するような機構を備えていてもよい。
なお、存在尤度マップE(x, y)を抽出対象のオブジェクトごとに作成するのであれば、Tmin,Tmaxもそれぞれの抽出対象のオブジェクトごと(選手とボール)に設定しても良い。そして、最終的な各画素の閾値については、各オブジェクトのT(x, y)の平均値あるいは最大値として算出するなどの方法が考えられる。
統計情報計算部6は、取得したフレーム画像の画素ごとに、現在の画素値に過去の画素値を統計的に反映させることで画素の統計情報を算出する。本実施形態では画素ごとに、平均値計算部61が次式(4)に基づいて画素値の平均値u(x, y)を計算し、標準偏差計算部62が次式(5)に基づいて画素値の標準偏差σ(x, y)を計算する。
Figure 0007096175000003
前記統計情報計算部6は、統計情報の算出を新しいフレーム画像が取得される時刻tごとに繰り返すので、各統計情報u(x, y),σ(x, y)はフレーム単位で更新されることになる。U(x, y)は、統計情報を計算する際に過去の統計情報を現在の画素値に反映させる割合(更新率)であり、更新率決定部5が、前記存在尤度マップE(x, y)の各存在尤度をパラメータとして、次式(7)に基づいて計算する。
Figure 0007096175000004
Umin,Umaxは、それぞれ更新率が採り得る最小値、最大値であり、本実施形態では、オブジェクトの存在尤度が高い領域に低い更新率が設定されることになる。したがって、抽出対象のオブジェクトが長時間静止していた場合にも、存在尤度マップの値が高く保たれていれば、抽出対象オブジェクトが欠けてしまうことを防止することができる。
なお、前記UminとUmaxは、後述の背景差分計算部7によって得られる各画素の前景/背景の判別結果に応じて、異なる更新率を有するように設計されていてもよい。一般に、背景と判定された画素に対して高い更新率を、前景と判定された画素に対しては低い更新率を、それぞれ設定することが望ましい。
背景差分計算部7は、フレーム画像ごとに各画素の統計情報(本実施形態では、μt (x, y)および標準偏差σt(x, y))、分離閾値T(x, y)および画素値It(x, y)に基づいて画素単位で前景/背景判別を実施し、判別結果を例えばマスク形式で出力する。
本実施例では、非特許文献2と同じように、単一のガウスモデルで背景をモデル化することを考える。色空間に関しても非特許文献2と同じYUV色空間にて処理を記載するが、色空間に関してRGBなどの他の色空間を対象としていても同一に処理を行うことが可能である。ただし、カメラ映像取得部1で得られる色空間と、背景差分計算部7で計算対象とする色空間が異なる場合には、入力された画像に対して色空間の変換を行う機構を有するものとする。そして、次式(8)の条件を満たす画素(x, y)は背景と判断される。
Figure 0007096175000005
ここで、zは標準偏差の何倍までを背景と判断するかを調節するパラメータであり、T(x, y)は、前記閾値計算部4により算出される閾値である。したがって、T(x, y)が大きいほど背景と判断される可能性が高くなる。また、本実施形態ではYUV色空間での計算を行うと述べたが、複数の色空間を持つ場合には、色空間ごとに独立して上記の条件式の計算を行い、全ての色空間にて条件を満たす場合に、当該画素を背景であると判定することとする。
さらに、上式(8)では標準偏差の項と閾値の項とが分けられているが、実際にはT(x, y)や存在尤度マップの値に応じて標準偏差項の定数値zを調節するような機能を備えていてもよい。
後処理部8は、存在尤度マップEt(x, y)に基づいて、ノイズ除去を行うノイズ除去部81および欠損領域の穴埋めを行う欠損穴埋め部82を具備し、前記背景差分計算部7が出力するマスクに対して、メディアンフィルタなどのフィルタ処理によるノイズ除去や、輪郭の膨張(dilation)と縮退(erosion)を繰り返すことで細かいノイズを除去する処理などを実施する。
前記ノイズ除去部81に関して、非特許文献2の背景差分法では、背景差分を用いて計算したマスクに対し、結合されている前景領域を一つの塊として捉え、その塊ごとに輪郭枠のサイズやアスペクト比を確認することでノイズの除去を行っている。
しかしながら、このような従来手法では、例えばボールのような小さいオブジェクトが入り込む場合、ボールが消えないようにするためにボールより小さい値をノイズ除去のパラメータとして設定せざるを得ず、効果を出すことが難しい。
加えて、何らかの原因で選手のマスクが分断された場合に、分断された部分のサイズが小さいと削除されてしまう可能性が生じる。そこで、本実施形態では分断された塊の大きさだけではなく、存在尤度マップEt(x,y)の値も利用してノイズの除去を行うようにしている。
例えば、図5に示したように、背景差分計算部7から出力された1次マスク[同図(a)]に3つの塊Pj(P1,P2,P3:jは塊識別子)が含まれていると、各塊P1,P2,P3の内部の存在尤度マップ[同図(b)]の平均値duを計算する。そして、平均値duがノイズ除去用の閾値dref(例えば、dref=0.5)よりも低い塊P1のみを除去し、他の塊P2,P3は残すようにすることで、存在尤度が高い位置にある小領域を残すことが可能となり[同図(c)]、高精度なノイズ除去を行うことができる。
ノイズ除去の閾値drefは定値でも良いし、対象とする領域のサイズが大きくなればなるほど小さくし、確実に抽出対象オブジェクトではないと判断できる場合のみノイズ除去ができるような機構を備えていてもよい。
前記欠損穴埋め部82に関して、図6に示したように、前景領域(白色部分)に囲まれるような形で、前景が背景と誤判断される小領域(欠損領域)が生じ得る。このような欠損領域は、例えば人物の衣服の色に、背景と同じような色の部分が存在している場合などに、オブジェクトの一部が背景と誤判断されることで生じる。本実施形態では、欠損領域内部の存在尤度マップE(x, y)の平均値を前記ノイズ除去部81と同様に計算し、平均値が所定の閾値を上回る場合には穴埋めを行うことで欠損領域の修復を行う。
図7は、非特許文献2の手法で閾値を上下させながら欠損領域を穴埋めした場合[同図(a),(b)]と、前記欠損穴埋め部82により、存在尤度マップE(x, y)に基づいて穴埋めした場合[同図(c)]とを比較した図である。
非特許文献2の手法で閾値を低めに設定すると、オブジェクト(選手)の欠けは少ないが床や看板などの背景が前景と誤判断されている。また、非特許文献2の手法で閾値を高めに設定すると、オブジェクト(選手)の欠けが散見されるようになり、閾値の設定では欠損の防止に限界のあることが判る。
これに対して、本実施形態では前記後処理部8が、存在尤度マップE(x, y)に基づいてノイズ除去および欠損穴埋めを行うので、背景領域を確実に除去しながら、オブジェクトを綺麗に抽出できていることが判る。
出力部9は、背景差分計算部7あるいは後処理部8で計算された背景領域の情報を基に、結果となる映像(画像)を出力する。ここで出力される画像は、図7に示したように、入力画像をマスクしたことによって得られるカラー画像でも良いし、図8に示したように、背景/前景を判断するための2値からなる2値マスク画像でも良い。
本実施形態によれば、存在尤度マップに基づいて設定される背景統計情報の更新率の範囲が、オブジェクトの存在尤度が高い画素ほど低くなるので、静止しているオブジェクトが徐々に背景として認識されてしまうためにオブジェクトとして認識されにくくなるという技術課題を解決できるようになる。
図9は、本発明の第2実施形態に係るオブジェクト抽出装置の主要部の構成を示した機能ブロック図であり、前記と同一の符号は同一または同等部分を表しているので、その説明は省略する。
本実施形態では、前記更新率決定部5が更新率見直し部51を具備し、前記背景差分計算部7の出力と前記存在尤度マップE(x,y)との比較結果に基づいて前記更新率U(x, y)の見直しを行うようにした点に特徴がある。なお、更新率見直し部51が更新率の見直しに用いる出力マスクは、前記背景差分計算部7の出力に限定されるものではなく、後処理部8が出力するマスクを用いてもよい。
前記更新率見直し部51は、前記背景差分計算部7により背景と判定された画素に対しては高めの更新率が、前景と判定された画素に対しては低めの更新率が設定されるように、背景差分計算部7により前景と判断された画素の更新率Ufore(x, y)を次式(9)に基づいて計算する。
Figure 0007096175000006
一方、背景差分計算部7により背景と判断された画素の更新率Uback (x, y)は次式(10)に基づいて計算する。
Figure 0007096175000007
ここで、Uminfore,Uminbackは、それぞれ前景と判定された画素、背景と判定された画素が採り得る更新率の最小値であり、Uminfore<Uminbackとされる。Umaxfore,Umaxbackは、それぞれ前景と判定された画素、背景と判定された画素が採り得る更新率の最大値であり、Umaxfore<Umaxbackとされる。
本実施形態によれば、存在尤度マップに基づいて決定される更新率の範囲が、前景領域では背景領域よりも低くされるので、静止しているオブジェクトが徐々に背景として認識されてしまうためにオブジェクトとして認識されにくくなるという技術課題を、更に高い確度で解決できるようになる。
1…カメラ映像取得部,2…オブジェクト領域検出部,3…存在尤度マップ計算部,4…閾値計算部,5…更新率決定部,6…統計情報計算部,7…背景差分計算部,8…後処理部,9…出力部,21…第1検出部,22…第2検出部,81…ノイズ除去部,82…欠損穴埋め部

Claims (19)

  1. 動画の映像からオブジェクトを抽出するオブジェクト抽出装置において、
    映像を取得する手段と、
    取得した映像からオブジェクト領域を検出する手段と、
    オブジェクト領域の検出結果に基づいてオブジェクトの存在尤度マップを計算する手段と、
    各画素の統計情報を計算する統計情報計算手段と、
    前記統計情報および背景差分閾値に基づく背景差分法により前景領域をオブジェクトとして抽出する背景差分計算手段とを具備し、
    前記統計情報計算手段は、各画素の過去の統計情報に今回の画素値を所定の更新率で反映することで今回の統計情報を求め、
    前記更新率を前記存在尤度マップに基づいて決定する更新率決定手段と
    前記背景差分閾値を前記存在尤度マップに基づいて計算する閾値計算手段とをさらに具備し、
    前記閾値計算手段は、前記オブジェクト領域の検出結果と背景差分計算手段の計算結果との一致比率に基づいて背景差分閾値を動的に変更することを特徴とするオブジェクト抽出装置。
  2. 動画の映像からオブジェクトを抽出するオブジェクト抽出装置において、
    映像を取得する手段と、
    取得した映像からオブジェクト領域を検出する手段と、
    オブジェクト領域の検出結果に基づいてオブジェクトの存在尤度マップを計算する手段と、
    各画素の統計情報を計算する統計情報計算手段と、
    前記統計情報および背景差分閾値に基づく背景差分法により前景領域をオブジェクトとして抽出する背景差分計算手段とを具備し、
    前記統計情報計算手段は、各画素の過去の統計情報に今回の画素値を所定の更新率で反映することで今回の統計情報を求め、
    前記更新率を前記存在尤度マップに基づいて決定する更新率決定手段をさらに具備し
    前記存在尤度マップを計算する手段は、オブジェクト領域の今回の検出結果に前回までの検出結果を所定の学習率で重み付けして今回の存在尤度マップを計算することを特徴とするオブジェクト抽出装置。
  3. 前記更新率決定手段は、オブジェクトの存在尤度が高い画素ほど更新率を低くすることを特徴とする請求項1または2に記載のオブジェクト抽出装置。
  4. 前記背景差分閾値を前記存在尤度マップに基づいて計算する閾値計算手段をさらに具備したことを特徴とする請求項に記載のオブジェクト抽出装置。
  5. 前記閾値計算手段は、オブジェクトの存在尤度が高い画素ほど背景差分閾値を低くすることを特徴とする請求項に記載のオブジェクト抽出装置。
  6. 前記存在尤度マップを計算する手段は、オブジェクト領域の今回の検出結果に前回までの検出結果を所定の学習率で重み付けして今回の存在尤度マップを計算することを特徴とする請求項に記載のオブジェクト抽出装置。
  7. 前記オブジェクト領域を検出する手段は、複数の異なる検出方式でオブジェクト領域をそれぞれ検出し、各検出結果を一つに統合することを特徴とする請求項1ないし6のいずれかに記載のオブジェクト抽出装置。
  8. 前記抽出したオブジェクトを存在尤度マップに基づいて高精度化する後処理手段を更に具備したことを特徴とする請求項1ないし7のいずれかに記載のオブジェクト抽出装置。
  9. 前記後処理手段が、存在尤度マップの平均値が所定のノイズ閾値を下回る前景領域を背景領域とみなすノイズ除去手段を具備したことを特徴とする請求項8に記載のオブジェクト抽出装置。
  10. 前記ノイズ閾値は、前景領域のサイズが大きいほど低くされることを特徴とする請求項9に記載のオブジェクト抽出装置。
  11. 前記後処理手段が、存在尤度マップの平均値が所定の穴埋め閾値を上回る背景領域を前景領域とみなす欠損穴埋め手段を具備したことを特徴とする請求項8ないし10のいずれかに記載のオブジェクト抽出装置。
  12. 前記存在尤度マップを計算する手段は、抽出対象のオブジェクトごとに存在尤度マップを計算することを特徴とする請求項1ないし11のいずれかに記載のオブジェクト抽出装置。
  13. 前記背景差分閾値および更新率が存在尤度マップごとに決定されることを特徴とする請求項12に記載のオブジェクト抽出装置。
  14. 前記オブジェクトの抽出結果および存在尤度マップに基づいて前記更新率を見直す更新率見直し手段を更に具備したことを特徴とする請求項1ないし13のいずれかに記載のオブジェクト抽出装置。
  15. 前記更新率見直し手段は、前記存在尤度マップに基づいて決定される更新率を、前景領域では背景領域よりも低くすることを特徴とする請求項14に記載のオブジェクト抽出装置。
  16. 前記統計情報計算手段が、画素値の履歴に基づいて平均値および標準偏差を算出する手段を具備したことを特徴とする請求項1ないし15のいずれかに記載のオブジェクト抽出装置。
  17. 前記背景差分計算手段は、背景領域を前記統計情報に基づいて単一のガウス分布でモデル化することを特徴とする請求項1ないし16のいずれかに記載のオブジェクト抽出装置。
  18. 動画の映像からオブジェクトを抽出するオブジェクト抽出方法において、
    映像を取得してオブジェクト領域を検出する手順と、
    オブジェクト領域の検出結果に基づいてオブジェクトの存在尤度マップを計算する手順と、
    各画素の統計情報を計算する手順と、
    前記統計情報および背景差分閾値に基づく背景差分法により前景領域をオブジェクトとして抽出する手順とを含み、
    前記画素の統計情報を計算する手順では、各画素の過去の統計情報に今回の画素値を所定の更新率で反映することで今回の統計情報を求め、前記更新率を前記存在尤度マップに基づいて決定し、
    前記背景差分閾値を前記存在尤度マップに基づいて計算し、
    前記背景差分閾値を、前記オブジェクト領域の検出結果と背景差分計算手段の計算結果との一致比率に基づいて動的に変更することを特徴とするオブジェクト抽出方法。
  19. 動画の映像からオブジェクトを抽出するオブジェクト抽出方法において、
    映像を取得してオブジェクト領域を検出する手順と、
    オブジェクト領域の検出結果に基づいてオブジェクトの存在尤度マップを計算する手順と、
    各画素の統計情報を計算する手順と、
    前記統計情報および背景差分閾値に基づく背景差分法により前景領域をオブジェクトとして抽出する手順とを含み、前記画素の統計情報を計算する手順では、各画素の過去の統計情報に今回の画素値を所定の更新率で反映することで今回の統計情報を求め、前記更新率を前記存在尤度マップに基づいて決定し、
    オブジェクト領域の今回の検出結果に前回までの検出結果を所定の学習率で重み付けして今回の存在尤度マップを計算することを特徴とするオブジェクト抽出方法。
JP2019009705A 2019-01-23 2019-01-23 オブジェクト抽出方法および装置 Active JP7096175B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019009705A JP7096175B2 (ja) 2019-01-23 2019-01-23 オブジェクト抽出方法および装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019009705A JP7096175B2 (ja) 2019-01-23 2019-01-23 オブジェクト抽出方法および装置

Publications (2)

Publication Number Publication Date
JP2020119250A JP2020119250A (ja) 2020-08-06
JP7096175B2 true JP7096175B2 (ja) 2022-07-05

Family

ID=71892098

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019009705A Active JP7096175B2 (ja) 2019-01-23 2019-01-23 オブジェクト抽出方法および装置

Country Status (1)

Country Link
JP (1) JP7096175B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111783882B (zh) * 2020-06-30 2022-09-09 北京市商汤科技开发有限公司 关键点检测方法、装置、电子设备及存储介质
JP7480088B2 (ja) 2021-04-27 2024-05-09 キヤノン株式会社 画像処理装置、画像処理方法、プログラム
CN113628236A (zh) * 2021-08-16 2021-11-09 北京百度网讯科技有限公司 摄像头遮挡检测方法、装置、设备、存储介质及程序产品

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050286764A1 (en) 2002-10-17 2005-12-29 Anurag Mittal Method for scene modeling and change detection
JP2013152669A (ja) 2012-01-26 2013-08-08 Secom Co Ltd 画像監視装置
JP2016177586A (ja) 2015-03-20 2016-10-06 Kddi株式会社 オブジェクト抽出方法および装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050286764A1 (en) 2002-10-17 2005-12-29 Anurag Mittal Method for scene modeling and change detection
JP2013152669A (ja) 2012-01-26 2013-08-08 Secom Co Ltd 画像監視装置
JP2016177586A (ja) 2015-03-20 2016-10-06 Kddi株式会社 オブジェクト抽出方法および装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Dongdong Zeng et al,Background Subtraction With Real-Time Semantic Segmentation,arXiv,2018年12月12日,153869 - 153884,https://arxiv.org/pdf/1811.10020.pdf
手島 知昭 他1名,道路インフラを用いた車両観測システム,画像ラボ,日本,日本工業出版株式会社,2013年03月10日,第24巻 第3号,67~73
藤原 弘将,ディープラーニングによる一般物体認識とそのビジネス応用,画像ラボ,日本,日本工業出版株式会社,2019年01月10日,第30巻 第1号,57~67

Also Published As

Publication number Publication date
JP2020119250A (ja) 2020-08-06

Similar Documents

Publication Publication Date Title
US11302315B2 (en) Digital video fingerprinting using motion segmentation
CN109961049B (zh) 一种复杂场景下香烟品牌识别方法
EP1859410B1 (en) Method of tracking objects in a video sequence
EP1859411B1 (en) Tracking objects in a video sequence
JP7096175B2 (ja) オブジェクト抽出方法および装置
CN106204643A (zh) 基于多特征联合与Mean Shift算法的多目标跟踪方法
CN102542289A (zh) 一种基于多高斯计数模型的人流量统计方法
JP4373840B2 (ja) 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
CN108346160A (zh) 基于视差图背景差法和Meanshift结合的多运动目标跟踪方法
JP2008192131A (ja) 特徴レベル・セグメンテーションを実行するシステムおよび方法
CN112184759A (zh) 一种基于视频的运动目标检测与跟踪方法及系统
Toropov et al. Traffic flow from a low frame rate city camera
CN110991274A (zh) 一种基于混合高斯模型和神经网络的行人摔倒检测方法
KR20160044316A (ko) 깊이 정보 기반 사람 추적 장치 및 그 방법
JP2018055367A (ja) 画像処理装置、画像処理方法、及びプログラム
CN110363197B (zh) 基于改进视觉背景提取模型的视频感兴趣区域提取方法
Najeeb et al. Tracking ball in soccer game video using extended Kalman filter
KR20190009006A (ko) 전역적 움직임 기반의 실시간 다중 객체 추적 장치 및 방법
Ubukata et al. Multi-object segmentation in a projection plane using subtraction stereo
CN108280841B (zh) 一种基于邻域像素强度校正的前景提取方法
CN109978916A (zh) 基于灰度图像特征匹配的Vibe运动目标检测方法
Yao et al. Accurate silhouette extraction of multiple moving objects for free viewpoint sports video synthesis
CN106446832B (zh) 一种基于视频的实时检测行人的方法
Wang et al. Efficient visual tracking by probabilistic fusion of multiple cues
Wang et al. A robust algorithm for shadow removal of foreground detection in video surveillance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220623

R150 Certificate of patent or registration of utility model

Ref document number: 7096175

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150