Nothing Special   »   [go: up one dir, main page]

JP6875646B2 - 画像処理装置、および、画像処理プログラム - Google Patents

画像処理装置、および、画像処理プログラム Download PDF

Info

Publication number
JP6875646B2
JP6875646B2 JP2019110438A JP2019110438A JP6875646B2 JP 6875646 B2 JP6875646 B2 JP 6875646B2 JP 2019110438 A JP2019110438 A JP 2019110438A JP 2019110438 A JP2019110438 A JP 2019110438A JP 6875646 B2 JP6875646 B2 JP 6875646B2
Authority
JP
Japan
Prior art keywords
image
outer peripheral
peripheral side
fisheye
divided
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019110438A
Other languages
English (en)
Other versions
JP2020201880A (ja
Inventor
智弘 石田
智弘 石田
紳介 村上
紳介 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Client Computing Ltd
Original Assignee
Fujitsu Client Computing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Client Computing Ltd filed Critical Fujitsu Client Computing Ltd
Priority to JP2019110438A priority Critical patent/JP6875646B2/ja
Publication of JP2020201880A publication Critical patent/JP2020201880A/ja
Application granted granted Critical
Publication of JP6875646B2 publication Critical patent/JP6875646B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、および、画像処理プログラムに関する。
近年、撮影画像を用いた機械学習(推論を含む。)の研究開発が盛んに行われている。また、従来から、一般的な撮影画像のほかに、魚眼レンズを使って広範囲を撮影した画像である魚眼画像がある。魚眼画像を機械学習に用いることができれば、様々な点で有益である。
特開2016−48834号公報 特開2012−253723号公報 特開2010−217984号公報 国際公開第2013/001941号 特表2014−519091号公報 特開2012−226645号公報 特開2012−230546号公報
しかしながら、魚眼画像は、画像中の位置によって被写体が異なる歪み方をしているので、機械学習に高い認識精度で用いるのは容易ではない。
そこで、本発明は、上記事情に鑑みてなされたものであり、画像中の歪みを考慮して魚眼画像を機械学習に高い認識精度で用いることができる画像処理装置、および、画像処理プログラムを提供することを目的とする。
本発明の第1態様に係る画像処理装置は、魚眼レンズを備える撮影手段によって撮影された魚眼画像を取得する取得部と、前記魚眼画像から光軸中心を含む中央画像を抽出する中央画像抽出部と、前記魚眼画像から光軸中心を含む所定領域より外周側に存在する外周側画像を抽出する外周側画像抽出部と、前記外周側画像抽出部によって抽出された前記外周側画像を周方向に複数の分割外周側画像に分割する際に、過去の魚眼画像中の移動物体に関する統計情報に基づいて、前記外周側画像のうち移動物体の出現頻度が他の領域より高いものとして分類された領域を分割位置にしないようにして、前記外周側画像を周方向に複数の前記分割外周側画像に分割する分割部と、複数の前記分割外周側画像それぞれを矩形の平面画像に変換する変換部と、複数の前記平面画像と、平面画像に関する機械学習によって学習済みの第1の推論モデルと、に基づいて、複数の前記平面画像に写っている物体を推論する第1の推論部と、前記中央画像と、中央画像に関する機械学習によって学習済みの第2の推論モデルと、に基づいて、前記中央画像に写っている物体を推論する第2の推論部と、を備える。
また、画像処理装置において、例えば、前記中央画像抽出部は、前記魚眼画像から矩形の前記中央画像を抽出する。
また、画像処理装置において、例えば、前記取得部は、撮影対象領域を鉛直下向きに撮影するように設置されている前記撮影手段によって撮影された前記魚眼画像を取得する。
本発明の第2態様に係る画像処理プログラムは、コンピュータを、魚眼レンズを備える撮影手段によって撮影された魚眼画像を取得する取得部と、前記魚眼画像から光軸中心を含む中央画像を抽出する中央画像抽出部と、前記魚眼画像から光軸中心を含む所定領域より外周側に存在する外周側画像を抽出する外周側画像抽出部と、前記外周側画像抽出部によって抽出された前記外周側画像を周方向に複数の分割外周側画像に分割する際に、過去の魚眼画像中の移動物体に関する統計情報に基づいて、前記外周側画像のうち移動物体の出現頻度が他の領域より高いものとして分類された領域を分割位置にしないようにして、前記外周側画像を周方向に複数の前記分割外周側画像に分割する分割部と、複数の前記分割外周側画像それぞれを矩形の平面画像に変換する変換部と、複数の前記平面画像と、平面画像に関する機械学習によって学習済みの第1の推論モデルと、に基づいて、複数の前記平面画像に写っている物体を推論する第1の推論部と、前記中央画像と、中央画像に関する機械学習によって学習済みの第2の推論モデルと、に基づいて、前記中央画像に写っている物体を推論する第2の推論部と、して機能させる。
本発明の上記第1態様、上記第2態様によれば、画像中の歪みを考慮して魚眼画像を機械学習に高い認識精度で用いることができる。
図1は、実施形態の画像処理装置の機能構成を示すブロック図である。 図2は、実施形態の魚眼画像例の模式図である。 図3は、実施形態の魚眼画像例における中央画像の抽出領域を示す図である。 図4は、実施形態の魚眼画像例における外周側画像の抽出領域を示す図である。 図5は、実施形態において、外周側画像に基づいて作成した合成平面画像((a))と、抽出された中央画像((b))と、を示す図である。 図6は、実施形態の画像処理装置による第1の処理を示すフローチャートである。 図7は、図6の第1の処理における分割位置設定処理の詳細を示すフローチャートである。 図8は、実施形態において、ヒートマップにおける人物集中領域が1つの場合の外周側画像の分割位置の設定例の説明図である。 図9は、実施形態において、ヒートマップにおける人物集中領域が2つの場合の外周側画像の分割位置の第1の設定例の説明図である。 図10は、実施形態において、ヒートマップにおける人物集中領域が2つの場合の外周側画像の分割位置の第2の設定例の説明図である。 図11は、実施形態の画像処理装置による第2の処理を示すフローチャートである。
以下、添付図面を参照して、画像処理装置、および、画像処理プログラムの実施形態について詳細に説明する。
図1は、実施形態の画像処理装置1の機能構成を示すブロック図である。画像処理装置1は、撮影画像を用いた機械学習(推論を含む。)を実行するコンピュータ装置である。この機械学習では、例えば、カメラにより得られた撮影画像に対して画像処理を行って、画像中の人物や顔を検出することで学習を行う。また、機械学習としては、例えば、ディープラーニング(深層学習)を用いる。
ディープラーニングは、多層構造のニューラルネットワークを用いた機械学習であり、多くの分野で有効性が確認されている。例えば、ディープラーニングは、画像・音声の認識において人間に匹敵するほど高い認識精度を実現している。
ディープラーニングでは、識別対象に関する教師データを用いた学習(教師あり学習)を行うことにより、ニューラルネットワークに自動的に識別対象の特徴を学習する。そして、ディープラーニングでは、特徴を学習したニューラルネットワークを用いて識別対象を識別(推論)する。
例えば、推論処理として画像における人物検出を例にとると、ディープラーニングでは、人物全体が写った大量の画像を学習用の画像として教師あり学習を行うことにより、画像に写った人物全体の特徴をニューラルネットワークに自動的に学習する。あるいは、推論処理として画像における顔検出を例にとると、ディープラーニングでは、人物の顔が写った大量の画像を学習用の画像として教師あり学習を行うことにより、画像に写った人物の顔の特徴をニューラルネットワークに自動的に学習する。
ディープラーニングでは、このように特徴を学習したニューラルネットワークを用いることで、画像に写った識別対象を識別することなどの推論処理が可能な学習済みの推論モデルを生成できる。
このようなディープラーニングなどの機械学習に、魚眼レンズを使って広範囲を撮影した画像である魚眼画像を用いることができれば、様々な点で有益である。しかし、魚眼画像は、画像中の位置によって被写体が異なる歪み方をしているので、機械学習に高い認識精度で用いるのは容易ではない。なお、以下では、特に、撮影対象領域を鉛直下向きに撮影するように設置されている魚眼カメラ(以下、単に「カメラ」とも称する。)によって撮影された魚眼画像を例にとって説明する。
そのような魚眼画像では、画像中の位置によって被写体の歪み方(映る角度、大きさ)が異なり、したがって認識する特徴も異なるため、認識精度に誤差が生じてしまう。また、この魚眼画像を平面展開すると画像中心に近いほど被写体が大きく引き伸ばされてしまい、認識精度にさらに誤差が生じてしまう。そこで、以下では、画像中の歪みを考慮して魚眼画像を機械学習に高い認識精度で用いることができる技術について説明する。
図1に示すように、画像処理装置1は、処理部2、記憶部3、入力部4、表示部5、および、通信部6を備える。
処理部2は、例えばCPU(Central Processing Unit)によって構成され、記憶部3に記憶された画像処理プログラムを実行することで実現される機能構成として、取得部21、中央画像抽出部22、外周側画像抽出部23、分割部24、変換部25、合成部26、第1の推論部27、および、第2の推論部28を備える。なお、以下において、処理部2における各部21〜28以外の処理については、動作主体を「処理部2」と表記する。
取得部21は、魚眼レンズを備えるカメラ100(撮影手段)によって撮影された魚眼画像を取得し、記憶部3に格納する。
中央画像抽出部22は、魚眼画像から光軸中心を含む中央画像(例えば矩形の中央画像)を抽出する。外周側画像抽出部23は、魚眼画像から光軸中心を含む所定領域より外周側に存在する外周側画像を抽出する。
分割部24は、外周側画像を周方向に複数の分割画像(分割外周側画像)に分割する。例えば、分割部24は、外周側画像を周方向に複数の分割画像に分割する際に、過去の魚眼画像中の移動物体に関する統計情報に基づいて、移動物体が多い領域ほど分割位置にならないようにして、外周側画像を周方向に複数の分割画像に分割する。
また、例えば、分割部24は、統計情報に基づいて、魚眼画像中の移動物体が多い2つの領域が分割位置にならないようにして、外周側画像を周方向に2つの分割画像に分割する際に、魚眼画像の中心から当該2つの領域それぞれの中心までの直線同士のなす角度が90度未満の場合は、当該2つの領域が同じ側になるように、外周側画像を、魚眼画像の中心を通る1本の線で周方向に分割する。また、分割部24は、当該角度が90度以上の場合は、当該2つの領域が反対側になるように、外周側画像を、魚眼画像の中心を通る1本の線で周方向に分割する。
また、例えば、分割部24は、統計情報を元に魚眼画像中の領域を移動物体の出現頻度で分類した情報であるヒートマップ情報に基づいて、移動物体が多い領域ほど分割位置にならないようにして、外周側画像を周方向に複数の分割画像に分割する。
変換部25は、外周側画像を矩形の平面画像に変換する。例えば、変換部25は、複数の分割画像それぞれを矩形の平面画像に変換する。合成部26は、複数の平面画像をつなぎ合わせて矩形の合成平面画像を作成する際に、合成平面画像の縦と横の長さの比が1:1に近づくように、合成平面画像を作成する。
第1の推論部27は、合成平面画像と、平面画像に関する機械学習によって学習済みの第1の推論モデルと、に基づいて、合成平面画像に写っている物体を推論する。
第2の推論部28は、中央画像と、中央画像に関する機械学習によって学習済みの第2の推論モデルと、に基づいて、中央画像に写っている物体を推論する。各部21〜28の処理の詳細については、図2以降を用いて後述する。
記憶部3は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などから構成される。
記憶部3は、例えば、統計情報、ヒートマップ情報、第1の推論モデル、第2の推論モデル等を記憶する。統計情報は、上述のように、過去の魚眼画像中の移動物体に関する統計情報である。ヒートマップ情報は、統計情報を元に魚眼画像中の領域を移動物体の出現頻度で分類した情報である。
第1の推論モデルは、平面画像に関する機械学習によって学習済みの推論モデルである。第2の推論モデルは、中央画像に関する機械学習によって学習済みの推論モデルである。つまり、画像処理装置1では、魚眼画像において画像中の位置によって被写体が異なる歪み方をしていることを考慮して、外周側画像を変換した平面画像に関する第1の推論モデルと、中央画像に関する第2の推論モデルと、を別々に用意する。これにより、高精度の物体認識が可能となる。
入力部4は、ユーザが各種情報を入力するための手段であり、例えば、キーボード、マウス、タッチパネル等によって構成される。
表示部5は、各種情報を表示するための手段であり、例えば、液晶ディスプレイやタッチパネル等によって構成される。
通信部6は、カメラ100等の外部装置と通信するための手段であり、例えば、通信インタフェース等によって構成される。
図2は、実施形態の魚眼画像例の模式図である。図2における魚眼画像F1は、カメラ100によって撮影対象領域を鉛直下向きに撮影して得られた画像である。魚眼画像F1では、画像中の位置によって人物の映る角度や大きさが異なっている。具体的には、画像の中心に近いほど人物は頭頂部方向から撮影されたように、かつ、大きく写り、また、画像の中心から遠いほど人物は水平方向から撮影されたように、かつ、小さく写っている。
ここで、図3は、実施形態の魚眼画像例における中央画像の抽出領域を示す図である。図3の魚眼画像F1において、領域R1は中央画像に対応する領域である。つまり、中央画像抽出部22は、魚眼画像F1から領域R1に対応する画像を中央画像として抽出する。
また、図4は、実施形態の魚眼画像例における外周側画像の抽出領域を示す図である。図4の魚眼画像F1において、領域R2と領域R3を合わせた領域(以下、領域R23と称する。)は、外周側画像に対応する領域である。つまり、外周側画像抽出部23は、魚眼画像F1から領域R23に対応する画像を外周側画像として抽出する。なお、魚眼画像F1から、領域R1に内接する中心円(全体の中心点を中心とする円)を除いた領域が、領域R23である。
また、分割部24は、例えば、領域R23に対応する外周側画像を周方向に2つの分割画像(領域R2に対応する分割画像と領域R3に対応する分割画像)に分割する。
また、図5は、実施形態において、外周側画像に基づいて作成した合成平面画像((a))と、抽出された中央画像((b))と、を示す図である。図5(a)において、領域R3aの画像は、図4の領域R3の分割画像に対応する平面画像である。つまり、変換部25は、図4の領域R3の分割画像を平面展開することで、図5(a)の領域R3aの矩形の平面画像に変換する。
また、図5(a)において、領域R2aの画像は、図4の領域R2の分割画像に対応する平面画像である。つまり、変換部25は、図4の領域R2の分割画像を平面展開することで、図5(a)の領域R2aの矩形の平面画像に変換する。
また、合成部26は、領域R2aの平面画像と領域R3aの平面画像をつなぎ合わせて矩形の合成平面画像を作成する。その際、合成部26は、合成平面画像の縦と横の長さの比が1:1に近づくように、合成平面画像を作成する。そうすることで、合成平面画像を機械学習に用いたときの人物の認識精度が高くなる。第1の推論部27は、図5(a)の合成平面画像と第1の推論モデルに基づいて、合成平面画像に写っている物体を推論する。
また、図5(b)において、領域R1の中央画像は、図3の領域R1の中央画像と同じである。そして、第2の推論部28は、図5(b)の中央画像と第2の推論モデルに基づいて、中央画像に写っている物体を推論する。
次に、図6を参照して、実施形態の画像処理装置1による第1の処理について説明する。図6は、実施形態の画像処理装置1による第1の処理を示すフローチャートである。この第1の処理は、推論処理を行う前の前処理である。
ステップS1において、処理部2は、記憶部3に格納されている画像処理アプリケーションを起動する。
次に、ステップS2において、処理部2は、カメラ100と接続されているか否かを判定し、Yesの場合はステップS3に進み、Noの場合は処理を終了する。
ステップS3において、処理部2は、記憶部3に格納されているカメラの機能情報を取得する。
次に、ステップS4において、処理部2は、ステップS3で取得したカメラの機能情報に基いて、接続されているカメラ100が魚眼カメラか否かを判定し、Yesの場合はステップS6に進み、Noの場合はステップS5に進む。
ステップS5において、処理部2は、取得する撮影画像に対する画像処理について、補正無しを設定し、ステップS10に進む。
ステップS6において、処理部2は、記憶部3に格納されたカメラの設置情報に基いて、カメラ100の設置位置が天井か側面かを判定し、天井であればステップS8に進み、側面であればステップS7に進む。
ステップS7において、処理部2は、取得する魚眼画像に対する画像処理について、平面展開処理を設定し、ステップS10に進む。
ステップS8において、処理部2は、取得する魚眼画像に対する分割方法(例えば中央画像と2つの外周側画像への分割)について設定する。
次に、ステップS9において、処理部2は、分割位置設定処理を実行する。ここで、図7は、図6の第1の処理におけるステップS9の分割位置設定処理の詳細を示すフローチャートである。
ステップS21において、処理部2は、分割位置が自動設定に設定されているか否かを判定し、Yesの場合はステップS22に進み、Noの場合はステップS25に進む。
ステップS22において、処理部2は、設定値が指定されているか否かを判定し、Yesの場合はステップS24に進み、Noの場合はステップS23に進む。
ステップS23において、処理部2は、分割位置を初期値(例えば外周側画像について2分割であれば水平方向)に設定し、処理を終了する。
ステップS24において、処理部2は、分割位置を指定値(ユーザによって指定された値)に設定し、処理を終了する。
ステップS25において、処理部2は、カメラ解像度、フレーム数などの各値を設定する。
次に、ステップS26において、処理部2の取得部21は、カメラ100からの魚眼画像の取得を開始する。
次に、ステップS27において、処理部2は、カウンタ値を「0」にセットする。
次に、処理部2は、カウンタ値が「3」か否かを判定し、Yesの場合はステップS23に進み、Noの場合はステップS29に進む。
ステップS29において、処理部2は、タイマ計測を開始する。次に、ステップS30において、処理部2は、魚眼画像中に移動物体(例えば人物の移動)があるか否かを判定し、Yesの場合はステップS31に進み、Noの場合はステップS32に進む。
ステップS31において、処理部2は、記憶部3に格納しているヒートマップ情報に反映する。
ステップS32において、処理部2は、タイムアウト(所定値が経過)したか否かを判定し、Yesの場合はステップS33に進み、Noの場合はステップS30に戻る。
ステップS33において、処理部2は、カウンタ値をインクリメント(1加算)する。次に、ステップS34において、処理部2は、ヒートマップ情報に赤い表示エリア(人物集中領域)があるか否かを判定し、Yesの場合はステップS35に進み、Noの場合はステップS28に戻る。
ステップS35において、処理部2は、赤い表示エリア(人物集中領域)が複数か否かを判定し、Yesの場合はステップS37に進み、Noの場合はステップS36に進む。
ステップS36において、処理部2は、赤い表示エリア(人物集中領域)が1つのときの設定手順にしたがって、分割位置を設定する。ここで、図8は、実施形態において、ヒートマップにおける人物集中領域が1つの場合の外周側画像の分割位置(画像中央の曲線部分の表記を省略。図9、図10も同様)の設定例の説明図である。
図8(a)に示すように、ヒートマップにおける人物集中領域が領域H1であるものとする。その場合、例えば、図8(b)に示すように、領域H1の中心点P1と全体中心点Cとを結ぶ線L1と垂直になって全体中心点Cを通る線を、分割位置の線L2として設定する。
図7に戻って、ステップS37において、処理部2は、赤い表示エリア(人物集中領域)が複数のときの設定手順にしたがって、分割位置を設定する。ここで、図9は、実施形態において、ヒートマップにおける人物集中領域が2つの場合の外周側画像の分割位置の第1の設定例の説明図である。
図9(a)に示すように、ヒートマップにおける人物集中領域が領域H2、H3の2つであるものとする。その場合、例えば、図9(b)に示すように、まず、領域H2の中心点P2と全体中心点Cとを結ぶ線を、線L3とする。また、領域H3の中心点P3と全体中心点Cとを結ぶ線を、線L4とする。そして、線L3と線L4の間の角が90度未満であるものとする。
その場合、線L3と線L4の間の角を二等分する線を、線L5とする。そして、線L5と垂直になって全体中心点Cを通る線を、分割位置の線L6として設定する。このようにすることで、画像中の複数の人物の位置のバランスがよくなり、機械学習における人物の認識精度が向上する。
また、図10は、実施形態において、ヒートマップにおける人物集中領域が2つの場合の外周側画像の分割位置の第2の設定例の説明図である。図10(a)に示すように、ヒートマップにおける人物集中領域が領域H4、H5の2つであるものとする。その場合、例えば、図10(b)に示すように、まず、領域H4の中心点P4と全体中心点Cとを結ぶ線を、線L7とする。また、領域H5の中心点P5と全体中心点Cとを結ぶ線を、線L8とする。そして、線L7と線L8の間の角が90度以上であるものとする。
その場合、線L7と線L8の間の角を二等分する線を、分割位置の線L9として設定する。このようにすることで、画像中の複数の人物の位置のバランスがよくなり、機械学習における人物の認識精度が向上する。
次に、図11を参照して、実施形態の画像処理装置1による第2の処理について説明する。図11は、実施形態の画像処理装置による第2の処理を示すフローチャートである。この第2の処理は、推論処理である。
ステップS41において、取得部21は、魚眼レンズを備えるカメラ100によって撮影された魚眼画像を取得する。
次に、ステップS42において、中央画像抽出部22は、魚眼画像から光軸中心を含む中央画像を抽出する(図3)。次に、ステップS43において、外周側画像抽出部23は、魚眼画像から光軸中心を含む所定領域より外周側に存在する外周側画像を抽出する(図4)。
次に、ステップS44において、分割部24は、外周側画像を周方向に複数の分割画像に分割する(図4)。次に、ステップS45において、変換部25は、複数の分割画像それぞれを矩形の平面画像に変換する(図5(a))。
次に、ステップS46において、合成部26は、複数の平面画像をつなぎ合わせて矩形の合成平面画像を作成する(図5(a))。
次に、ステップS47において、第1の推論部27は、合成平面画像(図5(a))と第1の推論モデルに基づいて、合成平面画像に写っている物体を推論する。
次に、ステップS48において、第2の推論部28は、中央画像(図5(b))と第2の推論モデルに基づいて、中央画像に写っている物体を推論する。なお、ステップS47とステップS48は、同時に実行してもよい。
このようにして、実施形態の画像処理装置1によれば、画像中の歪みを考慮して魚眼画像を機械学習に高い認識精度で用いることができる。具体的には、魚眼画像から抽出した中央画像については中央画像用の第2の推論モデルに基づいて推論し、魚眼画像から抽出した外周側画像については矩形の平面画像に変換してから平面画像用の第1の推論モデルに基づいて推論することで、物体を高精度で推論することができる。
また、外周側画像を周方向に複数の分割外周側画像に分割した後に矩形の平面画像に変換してから第1の推論モデルに基づいて推論することで、さらに認識精度を向上することができる。
また、魚眼画像から抽出する中央画像を矩形とすることで、機械学習に適用しやすい。
なお、画像処理装置1による上述の処理は、撮影対象領域を鉛直下向きに撮影するように設置されているカメラ100からの魚眼画像に対して特に効果的であるが、これに限定されない。例えば、撮影対象領域を水平方向に撮影するように設置されているカメラ100からの魚眼画像に対しても、本発明を適用することができる。カメラ100の向きに関係なく、魚眼画像における歪みは存在するからである。
開示の技術は上述した実施形態に限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で種々変形して実施することができる。本実施形態の各構成および各処理は、必要に応じて取捨選択することができ、あるいは適宜組み合わせてもよい。
例えば、本実施形態では、画像処理装置1を1つのコンピュータ装置によって実現するものとして説明したが、これに限定されず、画像処理装置1を複数のコンピュータ装置によって実現してもよい。
また、用いる機械学習は、ディープラーニングに限定されず、ディープラーニング以外であってもよい。
また、本実施形態では、機械学習における学習と推論のうち、特に推論の場面について説明したが、これに限定されず、学習の場面にも本発明を適用することができる。
また、図9、図10では、人物集中領域が2つの場合について説明したが、これに限定されず、人物集中領域が3つ以上の場合であっても、人物集中領域を集中度合いでランク分けすること等によって同様に対応することができる。
また、本実施形態では、外周側画像を分割するものとしたが、これに限定されず、外周側画像を分割しなくてもよい。
また、魚眼画像の周方向の分割は、2分割に限定されず、3つ以上への分割であってもよい。
また、図4における領域R2、R3に含まれない中心の円領域の大きさは、魚眼画像の解像度やレンズの種類等によって、適宜、変更してもよい。
本発明は、例えば、監視カメラ、全天球カメラ等に適用することができる。
1…画像処理装置、2…処理部、3…記憶部、4…入力部、5…表示部、6…通信部、21…取得部、22…中央画像抽出部、23…外周側画像抽出部、24…分割部、25…変換部、26…合成部、27…第1の推論部、28…第2の推論部、100…カメラ

Claims (4)

  1. 魚眼レンズを備える撮影手段によって撮影された魚眼画像を取得する取得部と、
    前記魚眼画像から光軸中心を含む中央画像を抽出する中央画像抽出部と、
    前記魚眼画像から光軸中心を含む所定領域より外周側に存在する外周側画像を抽出する外周側画像抽出部と、
    前記外周側画像抽出部によって抽出された前記外周側画像を周方向に複数の分割外周側画像に分割する際に、過去の魚眼画像中の移動物体に関する統計情報に基づいて、前記外周側画像のうち移動物体の出現頻度が他の領域より高いものとして分類された領域を分割位置にしないようにして、前記外周側画像を周方向に複数の前記分割外周側画像に分割する分割部と、
    複数の前記分割外周側画像それぞれを矩形の平面画像に変換する変換部と、
    複数の前記平面画像と、平面画像に関する機械学習によって学習済みの第1の推論モデルと、に基づいて、複数の前記平面画像に写っている物体を推論する第1の推論部と、
    前記中央画像と、中央画像に関する機械学習によって学習済みの第2の推論モデルと、に基づいて、前記中央画像に写っている物体を推論する第2の推論部と、を備える画像処理装置。
  2. 前記中央画像抽出部は、前記魚眼画像から矩形の前記中央画像を抽出する、請求項1に記載の画像処理装置。
  3. 前記取得部は、撮影対象領域を鉛直下向きに撮影するように設置されている前記撮影手段によって撮影された前記魚眼画像を取得する、請求項1に記載の画像処理装置。
  4. コンピュータを、
    魚眼レンズを備える撮影手段によって撮影された魚眼画像を取得する取得部と、
    前記魚眼画像から光軸中心を含む中央画像を抽出する中央画像抽出部と、
    前記魚眼画像から光軸中心を含む所定領域より外周側に存在する外周側画像を抽出する外周側画像抽出部と、
    前記外周側画像抽出部によって抽出された前記外周側画像を周方向に複数の分割外周側画像に分割する際に、過去の魚眼画像中の移動物体に関する統計情報に基づいて、前記外周側画像のうち移動物体の出現頻度が他の領域より高いものとして分類された領域を分割位置にしないようにして、前記外周側画像を周方向に複数の前記分割外周側画像に分割する分割部と、
    複数の前記分割外周側画像それぞれを矩形の平面画像に変換する変換部と、
    複数の前記平面画像と、平面画像に関する機械学習によって学習済みの第1の推論モデルと、に基づいて、複数の前記平面画像に写っている物体を推論する第1の推論部と、
    前記中央画像と、中央画像に関する機械学習によって学習済みの第2の推論モデルと、に基づいて、前記中央画像に写っている物体を推論する第2の推論部と、して機能させるための画像処理プログラム。
JP2019110438A 2019-06-13 2019-06-13 画像処理装置、および、画像処理プログラム Active JP6875646B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019110438A JP6875646B2 (ja) 2019-06-13 2019-06-13 画像処理装置、および、画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019110438A JP6875646B2 (ja) 2019-06-13 2019-06-13 画像処理装置、および、画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2020201880A JP2020201880A (ja) 2020-12-17
JP6875646B2 true JP6875646B2 (ja) 2021-05-26

Family

ID=73742695

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019110438A Active JP6875646B2 (ja) 2019-06-13 2019-06-13 画像処理装置、および、画像処理プログラム

Country Status (1)

Country Link
JP (1) JP6875646B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024066658A (ja) * 2022-11-02 2024-05-16 ソフトバンク株式会社 認証装置、プログラム、及び認証方法
JP2024093294A (ja) 2022-12-27 2024-07-09 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法及びコンピュータ読み取り可能な非一時的記憶媒体

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008035411A1 (fr) * 2006-09-20 2008-03-27 Fujitsu Limited Dispositif de détection d'informations de corps mobile, procédé de détection d'informations de corps mobile et programme de détection d'informations de corps mobile
JP2016171526A (ja) * 2015-03-13 2016-09-23 株式会社東芝 画像センサ、人検出方法、制御システム、制御方法及びコンピュータプログラム

Also Published As

Publication number Publication date
JP2020201880A (ja) 2020-12-17

Similar Documents

Publication Publication Date Title
US11551338B2 (en) Intelligent mixing and replacing of persons in group portraits
JP6946831B2 (ja) 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法
JP5227639B2 (ja) オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム
CN110210276A (zh) 一种移动轨迹获取方法及其设备、存储介质、终端
US9317762B2 (en) Face recognition using depth based tracking
WO2019128507A1 (zh) 图像处理方法、装置、存储介质及电子设备
CN109978754A (zh) 图像处理方法、装置、存储介质及电子设备
JP5227629B2 (ja) オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム
JP6688277B2 (ja) プログラム、学習処理方法、学習モデル、データ構造、学習装置、および物体認識装置
US9773192B2 (en) Fast template-based tracking
JP2019032773A (ja) 画像処理装置、画像処理方法
WO2023011013A1 (zh) 视频图像的拼缝搜索方法、视频图像的拼接方法和装置
CN103534726A (zh) 用于全景摄影的位置传感器辅助的图像配准
JP2018022360A (ja) 画像解析装置、画像解析方法およびプログラム
JP2009157767A (ja) 顔画像認識装置、顔画像認識方法、顔画像認識プログラムおよびそのプログラムを記録した記録媒体
US8284292B2 (en) Probability distribution constructing method, probability distribution constructing apparatus, storage medium of probability distribution constructing program, subject detecting method, subject detecting apparatus, and storage medium of subject detecting program
JP6875646B2 (ja) 画像処理装置、および、画像処理プログラム
CN113920540A (zh) 基于知识蒸馏的行人重识别方法、装置、设备及存储介质
JP2009230704A (ja) オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム
JP2015036841A (ja) 画像処理装置、距離計測装置、撮像装置、画像処理方法
JP6820489B2 (ja) 画像処理装置、および、画像処理プログラム
CN110519509A (zh) 构图评价方法、摄影方法、装置、电子设备、存储介质
JP2009251892A (ja) オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム
JP2022095332A (ja) 学習モデル生成方法、コンピュータプログラム及び情報処理装置
CN115623313A (zh) 图像处理方法、图像处理装置、电子设备、存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200804

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210405

R150 Certificate of patent or registration of utility model

Ref document number: 6875646

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150