Nothing Special   »   [go: up one dir, main page]

JP7374632B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP7374632B2
JP7374632B2 JP2019127603A JP2019127603A JP7374632B2 JP 7374632 B2 JP7374632 B2 JP 7374632B2 JP 2019127603 A JP2019127603 A JP 2019127603A JP 2019127603 A JP2019127603 A JP 2019127603A JP 7374632 B2 JP7374632 B2 JP 7374632B2
Authority
JP
Japan
Prior art keywords
information
image
imaging
matching
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019127603A
Other languages
English (en)
Other versions
JP2021012631A (ja
JP2021012631A5 (ja
Inventor
真司 山本
誠人 数井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019127603A priority Critical patent/JP7374632B2/ja
Priority to US16/921,721 priority patent/US11716448B2/en
Publication of JP2021012631A publication Critical patent/JP2021012631A/ja
Publication of JP2021012631A5 publication Critical patent/JP2021012631A5/ja
Application granted granted Critical
Publication of JP7374632B2 publication Critical patent/JP7374632B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。
近年、映像解析技術の向上と共に、街中に設置した複数のカメラからの映像に対して、対象の特徴量を取得し、別のカメラで取得されている特徴量と照合することで、カメラ間で人物を同定するシステムが考案されている。
特許文献1では、各カメラで撮像した映像に対して画像認識技術を用いて移動体を抽出し、カメラ間で照合するシステムが提案されている。そして、このシステムでは、その移動体の移動経路を求め、制限エリアへの侵入有無を判定することで、監視員にアラーム表示することが可能である。
特許第4759988号公報
N.Dalal, B.Triggs, Histograms of Oriented Gradients for Human Detection, IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2005. S.Paisitkriangkrai, Learning to rank in person re-identification with metric ensembles. IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2015. D.Changsoo Lee, M.Hebert, T.Kanade, Geometric Reasoning for Single Image Structure Recovery, IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2009. W.Chen, L.Cao, X.Chen, K.Huang, An equalised global graphical model-based approach for multi-camera object tracking, IEEE Transactions on Circuits and Systems for Video Technology (TCSVT), 2016. B.Benfold, Stable multi-target tracking in real-time surveillance video, IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2011. D. Powers, Evaluation: from precision, recall and f-measure to roc, informedness, markedness and correlation, Journal of Machine Learning Technologies, vol. 2, no. 1, pp. 37-63, 2011.
しかしながら、カメラ間の人物の同定精度は、各カメラの設置位置や画角に左右されたり、撮像範囲の照明に影響を受けたりすることが多い。例えば、あるカメラで撮像された人物の画像を用いて、別のカメラで人物を照合する場合、人物の向きや照明の当たり方によってアピアランスが大きく変動し、照合に失敗する場合がある。
本発明は、照合対象の物体の画像と、該画像を撮像した撮像装置に関する情報とを含むターゲット情報を設定する設定手段と、前記ターゲット情報により示される第1の撮像装置と撮像条件が類似する第2の撮像装置を、複数の撮像装置から選択する選択処理を実行する選択手段と、前記第2の撮像装置から取得された物体の画像と、前記ターゲット情報に含まれる前記照合対象の物体の画像とに基づいて照合処理を実行する照合手段と、前記ターゲット情報に含まれる前記照合対象の物体の画像と前記選択手段により前記複数の撮像装置から選択された前記第2の撮像装置から取得された物体の画像とが同一の物体の画像であると前記照合処理により判定された場合、該照合処理に用いた前記第2の撮像装置からの前記物体の画像および前記第2の撮像装置に関する情報に基づいて、前記ターゲット情報を更新する更新処理を実行する更新手段と、を有し、前記選択手段、前記照合手段、および、前記更新手段は、前記更新手段により前記ターゲット情報が更新された場合、更新された前記ターゲット情報に基づいて、前記選択処理、前記照合処理、および、前記更新処理を実行することを特徴とする。
本発明によれば、アピアランス変動時の照合間違いを少なくすることができる。
映像処理システムのシステム構成の一例を示す図である。 情報処理装置のハードウェア構成の一例を示す図である。 映像処理システムの機能構成の一例を示す図である。 カメラ情報管理テーブルの一例を示す図である。 物体情報管理テーブルの一例を示す図である。 照合結果管理テーブルの一例を示す図である。 照合結果を表示した一例を示す図である。 視野構造情報を解析する処理の一例を示すフローチャートである。 検出した物体の特徴量を抽出する処理の一例を示すフローチャートである。 対象物体を照合する処理の一例を示すフローチャートである。
以下、本発明の実施形態について図面に基づいて説明する。
<実施形態1>
実施形態1では、複数の撮像装置又は映像から得られる視野構成情報及び人物特徴量を解析し、照合が成功する確率(以下、照合確率という)の高いカメラ群を選択して照合する場合について説明する。
図1は、映像処理システムのシステム構成の一例を示す図である。ネットワークカメラである撮像装置101、映像解析サーバー装置102、データ解析サーバー装置103、ネットワークストレージ装置104、入力装置105、表示装置106がネットワーク回線であるLAN107によって接続されている。
撮像装置101は、ネットワークカメラ等の撮像装置である。映像解析サーバー装置102は、設置された複数のカメラ、この場合、撮像装置101で撮像された映像データを収集し、映像解析処理を行う。映像解析処理では、例えば、人物の顔領域から特徴量を抽出する。データ解析サーバー装置103は、映像解析サーバー装置102で抽出した特徴量及び撮像装置101に関するカメラパラメータを収集し、データ解析処理を行う。データ解析処理では、例えば、映像解析サーバー装置102で抽出した人物の特徴量を照合し、人物同定を行う。ネットワークストレージ装置104は、記録装置である。ネットワークストレージ装置104には、撮像装置101で撮像された画像、更に映像解析サーバー装置102で抽出された特徴量、データ解析サーバー装置103で人物照合された照合結果がLAN107を介して記録される。入力装置105は、マウス及びキーボード、タッチパネルのように、解析処理に関するユーザー操作を入力する。表示装置106は、解析データを、ユーザーインターフェースを通して表示する。例えば、表示装置106は、ネットワークストレージ装置104に記録された映像データ及びカメラのレイアウト情報に解析結果を重畳して表示する。
撮像装置101は、複数のカメラで構成されていればよく、2台以上であれば何台でもよい。更に映像解析サーバー装置102、データ解析サーバー装置103、ネットワークストレージ装置104、入力装置105、表示装置106がLAN107に接続される数は、図1で示した数に限定されるものではなく、アドレス等で識別できれば何台存在してもよい。
入力装置105及び表示装置106はPC等を想定している。しかし、LAN107への物理的な接続形態として有線だけでなく、例えばタブレット端末のように無線の場合もあり、プロトコル的に接続されていれば、物理的な形態はどのようなものであってもよい。
図2は、映像解析サーバー装置102、データ解析サーバー装置103、ネットワークストレージ装置104等の情報処理装置のハードウェア構成の一例を示す図である。図2に示されるように、情報処理装置は、ハードウェア構成として、CPU10と、記憶部20と、通信部30と、を含む。CPU10は、情報処理装置の全体を制御する。記憶部20は、プログラム及びCPU10がプログラムに基づき処理を実行する際に用いるデータ等を記憶する。通信部30は、情報処理装置をLAN107等のネットワークに接続し、他の装置の通信を制御する。映像解析サーバー装置102のCPU10が映像解析サーバー装置102の記憶部20に記憶されたプログラムに基づき処理を実行することによって、後述する図3に示す映像解析サーバー装置102の機能が実現される。また、映像解析サーバー装置102のCPU10が映像解析サーバー装置102の記憶部20に記憶されたプログラムに基づき処理を実行することによって、後述する図8及び図9に示すフローチャートの処理が実現される。また、データ解析サーバー装置103のCPU10がデータ解析サーバー装置103の記憶部20に記憶されたプログラムに基づき処理を実行することによって、後述する図3に示すデータ解析サーバー装置103の機能が実現される。また、データ解析サーバー装置103のCPU10がデータ解析サーバー装置103の記憶部20に記憶されたプログラムに基づき処理を実行することによって、後述する図10に示すフローチャートの処理が実現される。
図3は、映像処理システムの機能構成の一例を示す図である。映像処理システムは、機能構成として、画像取得部201と、物体検出部202と、特徴抽出部203と、視野構造解析部204と、ターゲット管理部205と、カメラ選択部206と、照合部207と、最適化部208と、カメラ情報管理部209と、物体情報管理部210と、照合結果管理部211と、入力部212と、表示部213と、を含む。
画像取得部201と、物体検出部202と、特徴抽出部203と、視野構造解析部204とは、映像解析サーバー装置102によって実現されるものである。ターゲット管理部205と、カメラ選択部206と、照合部207と、最適化部208とは、データ解析サーバー装置103によって実現されるものである。カメラ情報管理部209と、物体情報管理部210と、照合結果管理部211とは、ネットワークストレージ装置104によって実現されるものである。また、カメラ選択部206と、照合部207と、最適化部208とは、映像解析サーバー装置102上で実現されてもよく、機能の切り分けは図3の例に限るものではない。
画像取得部201は、LAN107を介して、撮像装置101から所定の時間間隔で画像を順次取得し、画像を物体検出部202に提供する。なお、画像取得部201による画像の取得は、撮像装置101からの撮像画像の入力に限定されるものではない。例えば、ネットワークストレージ装置104からの映像データ(録画映像)の読み込み及びネットワークを介したストリーミング入力等で画像が入力されてもよい。
物体検出部202は、画像取得部201から取得した画像から対象を検出する検出処理を実施する。物体検出部202は、画像取得部201から取得したカメラIDと、検出した対象に関するID(以下、人物IDという)と、人物領域を切り出した画像とをまとめて検出情報とし、特徴抽出部203に提供する。なお、画像からの対象の検出処理では、例えば、「N.Dalal, B.Triggs, Histograms of Oriented Gradients for Human Detection, IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2005.」(非特許文献1)に記載された人の全身を検出する方法を利用することができる。
特徴抽出部203は、物体検出部202の検出情報から、検出対象の特徴量を抽出する特徴量抽出処理を実施する。特徴抽出部203は、検出情報に含まれるカメラID、人物IDと抽出した特徴量と人物領域を切り出した画像とをまとめて物体情報とし、物体情報管理部210に提供する。なお、特徴抽出処理では、例えば、「S.Paisitkriangkrai, Learning to rank in person re-identification with metric ensembles. IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2015.」(非特許文献2)に記載された全身の特徴算出方法を利用することができる。
視野構造解析部204は、画像取得部201の画像から、撮像装置101の設置高と俯角(以下、視野構造という)を解析する視野構造解析処理を実施する。視野構造解析部204は、画像取得部201のカメラIDと解析した視野構造とをまとめて視野構造情報とし、カメラ情報管理部209に提供する。なお、視野構造解析処理では、例えば、「D.Changsoo Lee, M.Hebert, T.Kanade, Geometric Reasoning for Single Image Structure Recovery, IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2009.」(非特許文献3)に記載された画像中のエッジから3次元シーン構造を推定する方法を利用することができる。
ターゲット管理部205は、入力部212のクエリ情報から、照合の基準となる物体情報を取得して管理する。クエリ情報とは、照合対象とする人物を指定するための情報であり、カメラIDと人物IDをまとめた情報である。ターゲット管理部205は、カメラIDと人物IDと特徴量とサムネイルとをターゲット情報としてまとめ、カメラ選択部206と照合部207とに提供する。ターゲット管理部205は、照合の基準となる物体情報は、物体情報管理部210からクエリ情報に対応する物体情報を検索することで取得する。例えば、ターゲット管理部205は、図5の物体情報管理テーブルにおいて、カメラID=101、人物ID=2をクエリ情報として検索した場合、2行目の物体情報を抽出することができる。
ターゲット管理部205は、照合結果管理部211の照合結果から、照合スコアが更新閾値を超えた人物を特定し、物体情報管理部210の物体情報を用いて、ターゲット情報を更新する。更新閾値とは、照合スコアがその値を超えていれば、同一人物であると判断することを示す値である。例えば、閾値が500に設定されていた場合、図6の照合結果管理テーブルにおいて、ターゲット情報がカメラID=101、人物ID=1であったとき、カメラID=102、人物ID=1とカメラID=104、人物ID=2の人物の照合スコアが閾値を越えていることがわかる。照合スコアが閾値を越えた照合結果が複数ある場合、ターゲット管理部205は、より照合スコアの高い照合結果を用いて、ターゲット情報の更新を実施する。ターゲット情報の更新は、カメラID、人物ID、特徴量を上書きすることで実施される。ターゲット情報を逐次更新することにより、照合の基準となる情報が段階的に変化するため、ターゲット情報を更新しない場合よりも、照合処理を網羅的に実施することができる。
カメラ選択部206は、ターゲット管理部205のターゲット情報とカメラ情報管理部209のカメラ情報から、照合対象とするカメラを選択する。又は、カメラ選択部206は、ターゲット管理部205のターゲット情報と照合結果管理部211の照合結果とから、照合対象とするカメラを選択する。カメラ選択部206は、選択したカメラに対応するカメラIDを、照合部207に提供する。
カメラ情報を用いて照合対象とするカメラを選択する処理の一例について説明する。カメラ情報Ciとは、カメラIDiに対して、視野構造情報のカメラ高H、俯角θ、カメラパラメータのRGBゲイン(カメラの色温度の調整値)の値GR、GG、GBや、チルト値T、ズーム値Z、Bv値Bvをまとめ、Ci=[H,θ,BR,GG,GB,T,Z,Bv]としたものである。まず、カメラ選択部206は、ターゲット情報のカメラIDからターゲット情報に関するカメラ情報を特定する。次に、カメラ選択部206は、ターゲット情報に関するカメラ情報Ctと、その他のカメラ情報Ciを比較し、カメラ情報類似度S(Ct,Ci)を求める。カメラ情報類似度とは、比較したカメラの視野構造情報とカメラパラメータが似ている度合を表すものである。カメラ選択部206は、Sub(Ct,Ci)=|Ct -Ci|でベクトルの差を求め、これが小さいほど類似度が高くなる関数S(Ct,Ci)=MAX-Sub(Ct,Ci)でカメラ情報類似度を求めることができる。類似度最大値MXAは、Sub(Ct,Ci)がとりうる最大の値で定義される。また、カメラ選択部206は、カメラ情報Ciの各要素について重みづけして差分を取ってもよい。そして、カメラ選択部206は、カメラ情報類似度が予め定めた閾値以上のカメラ群を選択したカメラの情報としてまとめる。カメラ情報の類似度を用いて、照合処理を実施するカメラを選択することで、似た画角で撮像された人物の特徴量を比較することができ、人物の向き及び照明の変動による照合間違いを軽減することができる。
次に、照合結果管理部211のカメラ間の人物照合結果を用いて、カメラを選択する方法の一例について説明する。まず、カメラ選択部206は、現在のターゲットが存在するカメラをターゲット情報に含まれるカメラIDから特定し、起点カメラとする。そして、カメラ選択部206は、起点カメラと起点カメラ以外のカメラとのペアについて、照合結果管理部211又は入力部212から教師付きの照合結果を取得する。教師付きの照合結果とは、図6の照合結果管理テーブルのように、2組の人物に対する照合スコアとそのペアが同一人物であるかを示す情報(以下、教師情報という)をまとめた情報である。教師情報は、正のとき同一人物であることを示し、負のとき同一人物でないことを示す。
例えば、図6において、カメラID=101、人物ID=1とカメラID=102、人物ID=1のペアは、照合スコア=510、かつ、教師情報が負であることを示している。これに対し、カメラ選択部206は、予め定められた照合閾値を用いて、人物ペアが正しく照合されているかを判定する。例えば、照合閾値を500に設定されていた場合、先ほどの人物ペアは、照合スコアが510であるため、照合結果は同一人物であることを示している。一方、教師情報は、同一人物でないことを示しているため、この人物ペアは照合に失敗していると判定される。次に、カメラ選択部206は、各人物ペアが正しく照合されたかの情報を基に、各カメラペアの照合確率を求める。照合確率の算出には、例えば、「D. Powers, Evaluation: from precision, recall and f-measure to roc, informedness, markedness and correlation, Journal of Machine Learning Technologies, vol. 2, no. 1, pp. 37-63, 2011.」(非特許文献6)に記載の適合率と再現率の調和平均を求める方法を用いることができる。そして、カメラ選択部206は、照合確率が予め定めた閾値以上のカメラ群を選択したカメラとしてまとめる。
照合部207は、ターゲット管理部205のターゲット情報と、物体情報管理部210の物体情報と、カメラ選択部206の選択されたカメラIDを用いて、特徴量を比較し、カメラ間で人物を照合する。照合部207は、ターゲット情報と物体情報のペアと照合スコアとをまとめて照合結果とし、照合結果管理部211に提供する。なお、特徴量の比較では、例えば、「S.Paisitkriangkrai, Learning to rank in person re-identification with metric ensembles. IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2015.」(非特許文献2)に記載の全身の特徴比較方法を利用することができる。
最適化部208は、照合結果管理部211に蓄積されたカメラ間の人物照合結果を用いて、照合結果を修正する。最適化処理による修正を実施することによって、異なる人物が1つの人物に照合されるような矛盾を軽減したり、照合処理の順序によって生じる精度落ちの影響を軽減したりすることができる。最適化部208は、修正後の照合結果を照合結果管理部211に提供する。カメラ間の人物照合結果の最適化では、例えば、「D.Changsoo Lee, M.Hebert, T.Kanade, Geometric Reasoning for Single Image Structure Recovery, IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2009.」(非特許文献3)に記載の人物間の関係と類似度をグラフとして定義し、人物が移動した経路をコスト最小化問題として求める方法を利用することができる。但し、最適化部208による修正処理は、必須の構成ではない。
カメラ情報管理部209は、撮像装置101のカメラパラメータと視野構造解析部204の視野構造情報を、カメラ情報管理テーブルに保存する。図4は、カメラ情報管理テーブルの一例を示す図である。保存したカメラ情報を改めて取得する際は、カメラ情報管理部209は、カメラIDをキー値として、対応するそれぞれのカメラ情報を取得する。
物体情報管理部210は、特徴抽出部203で求めた物体情報を物体情報管理テーブルに保存する。図5は、物体情報管理テーブルの一例を示す図である。保存した物体情報を改めて取得する際は、物体情報管理部210は、カメラIDと人物IDの2つをキー値として、対応する特徴量及び各人物の人物領域を切り出した画像(以下、サムネイルという)の何れか又は双方を取得する。また、物体情報管理部210は、物体情報が更新された時刻を物体情報管理テーブルに保存し、取得できるようにしてもよい。
照合結果管理部211は、照合部207の照合結果を、照合結果管理テーブルに保存する。図6は、照合結果管理テーブルの一例を示す図である。保存した照合結果を改めて取得する際は、照合結果管理部211は、2組のカメラIDと人物IDをキー値として、対応する照合スコア、サムネイル、教師情報を取得する。例えば、カメラID=101かつ人物ID=1の人物とカメラID=102かつ人物ID=1の人物の照合スコアは、510である。また、カメラID=101かつ人物ID=1の人物とカメラID=104かつ人物ID=2の人物の照合スコアは820であり、カメラID=104かつ人物ID=2の人物は、最もカメラID=101かつ人物ID=1の人物らしいことがわかる。照合結果管理部211は、入力部212の教師情報を照合管理テーブルに保存する。
入力部212は、入力装置105を介したユーザー入力の教師情報を照合結果管理部211に提供する。ユーザーは、表示部213が表示装置106に表示した、照合結果を確認し、人物ペアが同一人物であるかを目視で判断して、同じ人物である場合には正を、異なる人物である場合には負を教師情報として入力する。教師情報は、カメラ選択部206のカメラ選択処理に活用される。また、入力部212は、別システムで処理された照合処理結果と教師情報を入力とし、照合結果管理部211に提供してもよい。
表示部213は、照合結果管理部211の照合結果を表示装置106に表示することでユーザーに提供する。図7は、図6の照合結果を表示した一例を示す図である。表示画面601には、ターゲット情報602とこれに対する照合結果603が表示されている。この例では、照合結果の人物を照合スコア順に表示している。ターゲット情報602と照合結果603には、カメラID604と人物ID605とサムネイル606を表示している。また、照合結果には、照合スコア607と教師情報入力ボタン608を表示している。教師情報入力ボタン608は、ユーザーが教師情報を入力する際に利用される。例えば、カメラID=104かつ人物ID=2の下に位置する「一致」と記載されているボタンが選択されると、入力部212は、カメラID=101かつ人物ID=1の人物とカメラID=104かつ人物ID=2の照合結果について、正の教師情報を発行する。再度、ボタンを選択された場合、入力部212は、発行した教師情報を取り消す処理を実施する。図7の例では、選択状態を黒塗り、非選択状態を白塗りで表している。
物体検出部202の検出において、非特許文献1では、画像から勾配方向ヒストグラム特徴(Histograms of Oriented Gradients)を抽出し、抽出した特徴量をサポートベクターマシンで学習したモデルを用いて人か否かを識別するようにしているが、他の方法を用いてもよい。例えば、抽出する特徴量は勾配方向ヒストグラム特徴に限らず、Haar-like特徴、LBPH特徴(Local Binary Pattern Histogram)等を用いてもよいし、それらを組み合せてもよい。抽出した特徴量は人物の検出のために共用される。また、人を識別するモデルはサポートベクターマシンに限らず、アダブースト識別器、ランダム分類木(Randomized Tree)等を用いてもよい。人物の検出結果は、夫々画像中の人物を囲む矩形を表す4つの頂点の位置座標として出力される。また、位置座標と共に検出結果を表す尤度が出力される。尤度は抽出された特徴量と人物を識別するモデルとを照合した結果であり、モデルとの一致度を表す。また、対象の位置をより高精度に特定するために、非特許文献5の人体を追尾する方法を併用してもよい。検出処理により検出した人物を、後のフレームで追尾することによって、1枚の画像で検出できない人物の位置を特定し、対象の位置を高精度に特定することが可能となる。また、追尾の方法についても、対象の位置を特定する処理であればよく、記載の方法に限定されるものではない。例えば、追尾処理として、Mean-shift tracking、Kalman Filter、on-line boosting等を用いてもよい。
特徴抽出部203の特徴抽出は、対象の特徴を抽出する処理であり、特定の特徴量に限定されるものではなく、対象を表す情報を抽出する処理であればよい。例えば、特徴量の種類として、SIFT特徴、又は色ヒストグラム等を用いてもよいし、それらを組み合わせてもよい。
視野構造解析部204は、カメラから取得した画像及び付随するデプスセンサから取得した深度情報を基に、カメラの設置位置及び俯角を推定する処理であり、特定の推定方法に限定されるものではない。例えば、深度情報からカメラが撮像する範囲の環境を3次元で再構築し、再構築した3次元環境から床面を推定することで、カメラの設置位置を逆算する等の方法でもよい。
照合部207の照合は、特徴抽出部203で求めた特徴を比較する処理であり、特定の比較手段に限定されるものではない。例えば、比較方法として、L1距離、バタチャリヤ距離、交差法等を用いてもよい。
最適化部208の最適化は、蓄積した照合結果を基に照合結果を修正する処理であり、特定の最適化手段に限定されるものではない。例えば、最適化の手段として、大域拘束条件を付与したDynamic Programming等で全体最適照合解を求める方法を用いてもよい。更に、照合するカメラペアをMinimum Spanning Tree (MST)で設定し、MSTに重みを付けて解く方法等を用いてもよい。
図8、図9、図10は実施形態1の処理の流れを示したものである。
まず、図8を用いて、視野構造情報を解析する流れを説明する。S301において、画像取得部201は、画像を取得する。S302において、視野構造解析部204は、視野構造を解析する。そして、S303において、カメラ情報管理部209は、視野構造情報を保存する。
次に、図9を用いて、検出した物体の特徴量を抽出する流れを説明する。S401において、画像取得部201は、画像を取得する。S402において、画像取得部201は、画像が取得できたか否かを判定する。画像取得部201は、画像が取得できた場合は、処理をS403へ進める。画像取得部201は、画像が取得できなかった場合は、物体の特徴量を抽出する処理を終了する。S403において、物体検出部202は、存在する複数の物体を検出する。S404において、物体検出部202は、物体が存在したか否かを判定する。物体検出部202は、物体が存在した場合は、処理をS405へ進める。物体検出部202は、物体が存在しなかった場合は、処理をS401へ戻す。S405において、特徴抽出部203は、各物体の特徴量を抽出する。S406において、特徴抽出部203は、抽出した特徴量を物体情報管理部210に保存する。S406の処理が終了すると、特徴抽出部203は、処理をS401へ戻す。
次に、図10を用いて、対象物体を照合する流れを説明する。S501において、入力部212は、ユーザー指示のクエリ情報を取得する。クエリ情報とは、物体を示すサムネイル画像と物体が映ったカメラのカメラIDを示す。入力部212は、異常な行動を実施した対象を自動で検知してクエリ情報を発行したり、過去映像から対象を検索し、撮像された時間が最も現在時刻に近い検索結果をクエリ情報としたりしてもよい。
S502において、ターゲット管理部205は、入力されたクエリ情報をターゲット情報に設定する。S503において、ターゲット管理部205は、クエリ情報に対応する物体情報が存在するか否かを判定する。ターゲット管理部205は、クエリ情報に対応する物体情報が存在する場合は、処理をS504へ進める。ターゲット管理部205は、クエリ情報に対応する物体情報が存在しない場合、対象物体を照合する処理を終了する。
S504において、カメラ選択部206は、照合対象となるカメラを選択する。S505において、照合部207は、照合対象のカメラ群に対応する複数の物体情報を物体情報管理部210から取得する。S506において、照合部207は、ターゲット情報と物体情報とを照合する。S507において、照合部207は、照合結果を照合結果管理部211に保存する。
S508において、最適化部208は、最適化の実施の有無を判定する。最適化部208は、最適化を実施すると判定した場合は、処理をS509へ進める。最適化部208は、最適化を実施しないと判定した場合は、処理をS510へ進める。S509において、最適化部208は、最適化処理を実施する。最適化部208は、ターゲットの最終更新時刻からの経過時間が、所定の値以上であった場合に、最適化を実施すると判定する。また、最適化部208は、最適化のスケジュールを設け、定期的に最適化処理を実施してもよい。
S510において、ターゲット管理部205は、照合結果を基にクエリを更新するか判定する。ターゲット管理部205は、クエリを更新すると判定すると、処理をS511へ進める。ターゲット管理部205は、クエリを更新しないと判定すると、処理をS512へ進める。ターゲット管理部205は、照合スコアが所定の値以上であれば、更新と判定する。また、ターゲット管理部205は、ターゲットの最終更新時刻からの経過時間が、所定の値である場合、更新すると判定してもよい。S511において、ターゲット管理部205は、クエリ情報を更新する。
S512において、照合部207は、照合処理を継続するか否かを判定する。照合部207は、照合処理を継続すると判定すると、処理をS502へ戻す。照合部207は、照合処理を継続しないと判定すると、対象物体を照合する処理を終了する。照合部207は、照合処理を継続すると判定すると、処理をS502に戻す。
以上説明したように、映像処理システムは、複数の人物の照合結果と教師情報による複数のカメラペアの照合精度の統計情報、又は、カメラ情報、視野構造の類似度等から照合確率を求め、それに基づいて照合するカメラを選択するようにした。よって、アピアランス変動の少ないカメラから優先的に人物を照合することができる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。
101 撮像装置
102 映像解析サーバー装置
103 データ解析サーバー装置
104 ネットワークストレージ装置
105 入力装置
106 表示装置

Claims (14)

  1. 照合対象の物体の画像と、該画像を撮像した撮像装置に関する情報とを含むターゲット情報を設定する設定手段と、
    前記ターゲット情報により示される第1の撮像装置と撮像条件が類似する第2の撮像装置を、複数の撮像装置から選択する選択処理を実行する選択手段と、
    前記第2の撮像装置から取得された物体の画像と、前記ターゲット情報に含まれる前記照合対象の物体の画像とに基づいて照合処理を実行する照合手段と、
    前記ターゲット情報に含まれる前記照合対象の物体の画像と前記選択手段により前記複数の撮像装置から選択された前記第2の撮像装置から取得された物体の画像とが同一の物体の画像であると前記照合処理により判定された場合、該照合処理に用いた前記第2の撮像装置からの前記物体の画像および前記第2の撮像装置に関する情報に基づいて、前記ターゲット情報を更新する更新処理を実行する更新手段と、
    を有し、
    前記選択手段、前記照合手段、および、前記更新手段は、前記更新手段により前記ターゲット情報が更新された場合、更新された前記ターゲット情報に基づいて、前記選択処理、前記照合処理、および、前記更新処理を実行する
    ことを特徴とする情報処理装置。
  2. 前記選択手段は、前記第1の撮像装置と撮像条件と、前記複数の撮像装置のそれぞれの撮像条件と、の類似度が閾値以上となる前記第2の撮像装置を選択することを特徴とする請求項1に記載の情報処理装置。
  3. 前記選択手段は、前記撮像条件の複数の要素を並べたベクトル同士の差分に基づいて、前記類似度を算出することを特徴とする請求項2に記載の情報処理装置。
  4. 前記撮像条件には、前記複数の撮像装置それぞれの視野の情報が含まれることを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。
  5. 前記視野の情報は、前記複数の撮像装置それぞれの高さまたは俯角の情報を含むことを特徴とする請求項4に記載の情報処理装置。
  6. 前記撮像条件には、前記複数の撮像装置それぞれのパラメータが含まれることを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。
  7. 前記パラメータは、前記複数の撮像装置それぞれの撮像時のチルトまたはズームの値を含むことを特徴とする請求項6に記載の情報処理装置。
  8. 前記撮像条件には、前記複数の撮像装置それぞれの撮像時の照明条件が含まれることを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。
  9. 前記照合手段は、前記ターゲット情報に含まれる前記照合対象の物体の画像から抽出された特徴量と、前記第2の撮像装置から取得された物体の画像から抽出された特徴量と、に基づいて、人物を照合することを特徴とする請求項1乃至8の何れか1項に記載の情報処理装置。
  10. 前記複数の撮像装置のそれぞれから画像を取得する取得手段を更に有することを特徴とする請求項1乃至9の何れか1項に記載の情報処理装置。
  11. 前記第1の撮像装置により撮影された画像に含まれる物体と、前記複数の撮像装置のうち前記第1の撮像装置とは異なる他の撮像装置により撮影された画像に含まれる物体とが同一の物体であると判定されたか否かを示す教師情報を記録する記録手段を更に有し、
    前記選択手段は、前記教師情報に基づいて、同一の物体であると判定された確率を示す照合確率が所定値以上である前記第2の撮像装置を選択することを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。
  12. 前記照合手段による前記照合処理の結果を示す情報を表示手段に出力する出力手段を更に有することを特徴とする請求項1乃至11の何れか1項に記載の情報処理装置。
  13. 照合対象の物体の画像と、該画像を撮像した撮像装置に関する情報とを含むターゲット情報を設定する設定工程と、
    前記ターゲット情報により示される第1の撮像装置と撮像条件が類似する第2の撮像装置を、複数の撮像装置から選択する選択処理を実行する選択工程と、
    前記第2の撮像装置から取得された物体の画像と、前記ターゲット情報に含まれる前記照合対象の物体の画像とに基づいて照合処理を実行する照合工程と、
    前記ターゲット情報に含まれる前記照合対象の物体の画像と前記選択工程により前記複数の撮像装置から選択された前記第2の撮像装置から取得された物体の画像とが同一の物体の画像であると前記照合処理により判定された場合、該照合処理に用いた前記第2の撮像装置からの前記物体の画像および前記第2の撮像装置に関する情報に基づいて、前記ターゲット情報を更新する更新処理を実行する更新工程と、
    を含み、
    前記選択工程、前記照合工程、および、前記更新工程は、前記更新工程により前記ターゲット情報が更新された場合、更新された前記ターゲット情報に基づいて、前記選択処理、前記照合処理、および、前記更新処理を実行する
    ことを特徴とする情報処理方法。
  14. コンピュータを、請求項1乃至12の何れか1項に記載の情報処理装置として機能させるためのプログラム。
JP2019127603A 2019-07-09 2019-07-09 情報処理装置、情報処理方法及びプログラム Active JP7374632B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019127603A JP7374632B2 (ja) 2019-07-09 2019-07-09 情報処理装置、情報処理方法及びプログラム
US16/921,721 US11716448B2 (en) 2019-07-09 2020-07-06 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019127603A JP7374632B2 (ja) 2019-07-09 2019-07-09 情報処理装置、情報処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2021012631A JP2021012631A (ja) 2021-02-04
JP2021012631A5 JP2021012631A5 (ja) 2022-06-28
JP7374632B2 true JP7374632B2 (ja) 2023-11-07

Family

ID=74101830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019127603A Active JP7374632B2 (ja) 2019-07-09 2019-07-09 情報処理装置、情報処理方法及びプログラム

Country Status (2)

Country Link
US (1) US11716448B2 (ja)
JP (1) JP7374632B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2587216B (en) * 2019-09-18 2021-11-17 Milestone Systems As Method, device, and computer program for setting parameters values of a video source device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006221355A (ja) 2005-02-09 2006-08-24 Hitachi Ltd 監視装置及び監視システム
WO2012096166A1 (ja) 2011-01-11 2012-07-19 パナソニック株式会社 撮影システム及びそれに用いるカメラ制御装置、撮影方法及びカメラ制御方法、並びにコンピュータプログラム
CN102663777A (zh) 2012-04-26 2012-09-12 安科智慧城市技术(中国)有限公司 基于多视点视频的目标跟踪方法及系统
JP2016066901A (ja) 2014-09-24 2016-04-28 株式会社東芝 撮像部特定システム、方法及びプログラム
JP2017139725A (ja) 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 映像表示方法及び映像表示装置
JP2018056915A (ja) 2016-09-30 2018-04-05 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2019039507A1 (ja) 2017-08-22 2019-02-28 株式会社 東芝 スマートカメラ、画像処理装置、およびデータ通信方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10304244A (ja) * 1997-05-01 1998-11-13 Sony Corp 画像処理装置およびその方法
JP4759988B2 (ja) 2004-11-17 2011-08-31 株式会社日立製作所 複数カメラを用いた監視システム
JP5219795B2 (ja) * 2008-12-26 2013-06-26 キヤノン株式会社 被写体追跡装置、その制御方法、撮像装置、表示装置及びプログラム
JP6249263B2 (ja) * 2015-09-08 2017-12-20 日本電気株式会社 顔認識システム、顔認識方法、表示制御装置、表示制御方法および表示制御プログラム
JP6700791B2 (ja) * 2016-01-05 2020-05-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6904346B2 (ja) * 2016-06-22 2021-07-14 ソニーグループ株式会社 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
EP3580695A4 (en) * 2017-02-09 2020-11-18 Laing O'Rourke Australia Pty Ltd DEFINED OBJECT IDENTIFICATION SYSTEM
JP7003628B2 (ja) * 2017-12-19 2022-01-20 富士通株式会社 物体追跡プログラム、物体追跡装置、及び物体追跡方法
WO2020124448A1 (en) * 2018-12-19 2020-06-25 Zhejiang Dahua Technology Co., Ltd. Systems and methods for video surveillance

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006221355A (ja) 2005-02-09 2006-08-24 Hitachi Ltd 監視装置及び監視システム
WO2012096166A1 (ja) 2011-01-11 2012-07-19 パナソニック株式会社 撮影システム及びそれに用いるカメラ制御装置、撮影方法及びカメラ制御方法、並びにコンピュータプログラム
CN102663777A (zh) 2012-04-26 2012-09-12 安科智慧城市技术(中国)有限公司 基于多视点视频的目标跟踪方法及系统
JP2016066901A (ja) 2014-09-24 2016-04-28 株式会社東芝 撮像部特定システム、方法及びプログラム
JP2017139725A (ja) 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 映像表示方法及び映像表示装置
JP2018056915A (ja) 2016-09-30 2018-04-05 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2019039507A1 (ja) 2017-08-22 2019-02-28 株式会社 東芝 スマートカメラ、画像処理装置、およびデータ通信方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
稲見慎吾他,集団・個人の見え特徴の併用によるカメラ間人物照合,電子情報通信学会技術研究報告 Vol.118 No.501 [online],日本,情報処理学会,2019年03月07日,第118巻 第501号,pp.201-204

Also Published As

Publication number Publication date
US11716448B2 (en) 2023-08-01
JP2021012631A (ja) 2021-02-04
US20210012149A1 (en) 2021-01-14

Similar Documents

Publication Publication Date Title
JP7282851B2 (ja) 装置、方法及びプログラム
JP6013241B2 (ja) 人物認識装置、及び方法
JP5642410B2 (ja) 顔認識装置及び顔認識方法
US9092662B2 (en) Pattern recognition method and pattern recognition apparatus
JP4479478B2 (ja) パターン認識方法および装置
JP5355446B2 (ja) 移動物体追跡システムおよび移動物体追跡方法
JP2004199669A (ja) 顔検出
JP2004192637A (ja) 顔検出
JP2017033547A (ja) 情報処理装置及びその制御方法及びプログラム
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
Chamveha et al. Head direction estimation from low resolution images with scene adaptation
US12131485B2 (en) Object tracking device and object tracking method
JP2021503139A (ja) 画像処理装置、画像処理方法および画像処理プログラム
US10997398B2 (en) Information processing apparatus, authentication system, method of controlling same, and medium
JP2013210845A (ja) 移動物体照合装置
CN112541403A (zh) 一种利用红外摄像头的室内人员跌倒检测方法
JP7374632B2 (ja) 情報処理装置、情報処理方法及びプログラム
Narayan et al. Learning deep features for online person tracking using non-overlapping cameras: A survey
US20230386185A1 (en) Statistical model-based false detection removal algorithm from images
CN113989914B (zh) 一种基于人脸识别的安防监控方法及系统
KR102540290B1 (ko) 이종 센서 카메라 기반 사람 재식별 장치 및 방법
Chang et al. Single-shot person re-identification based on improved random-walk pedestrian segmentation
JP2018195872A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP7540500B2 (ja) グループ特定装置、グループ特定方法、及びプログラム
Bouachir et al. Visual face tracking: A coarse-to-fine target state estimation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220620

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231025

R151 Written notification of patent or utility model registration

Ref document number: 7374632

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151