Nothing Special   »   [go: up one dir, main page]

JP6276713B2 - 画像データ処理方法、画像データ処理装置および画像データ処理プログラム - Google Patents

画像データ処理方法、画像データ処理装置および画像データ処理プログラム Download PDF

Info

Publication number
JP6276713B2
JP6276713B2 JP2015005186A JP2015005186A JP6276713B2 JP 6276713 B2 JP6276713 B2 JP 6276713B2 JP 2015005186 A JP2015005186 A JP 2015005186A JP 2015005186 A JP2015005186 A JP 2015005186A JP 6276713 B2 JP6276713 B2 JP 6276713B2
Authority
JP
Japan
Prior art keywords
camera
data processing
reference point
image data
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015005186A
Other languages
English (en)
Other versions
JP2016130693A (ja
Inventor
康輔 高橋
康輔 高橋
弾 三上
弾 三上
明 小島
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015005186A priority Critical patent/JP6276713B2/ja
Publication of JP2016130693A publication Critical patent/JP2016130693A/ja
Application granted granted Critical
Publication of JP6276713B2 publication Critical patent/JP6276713B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、カメラと被写体の位置姿勢関係を推定する(外部キャリブレーションを実行する)画像データ処理方法、画像データ処理装置および画像データ処理プログラムに関する。
カメラと被写体の位置姿勢関係を推定する外部キャリブレーションはコンピュータビジョンの基礎となる問題であり、これまで数多くの研究がなされてきた(例えば、非特許文献1参照)。これら既存の外部キャリブレーションに関する手法の多くは、カメラが参照物体を直接観測できることを想定している。
近年ラップトップコンピュータ、スマートフォンやデジタルサイネージなどの普及に伴い、ディスプレイ−カメラシステムを用いた様々な研究が注目を集めている。その一つの例として、デジタルサイネージを用いた興味推定がある。これは、ユーザの視線方向とディスプレイでの提示内容との対応を取ることで実現されている。さらには、3次元形状復元への応用も研究されている。これは、ディスプレイを制御可能な面光源として利用し、提示内容の変化に伴う観測対象の輝度変化に基づくものである。
これらのように、ディスプレイの提示内容に対し、カメラで撮影した映像から推定した視線や観測対象の輝度変化を幾何的に対応付けるためには、ディスプレイとカメラの位置姿勢関係を求める外部キャリブレーションを行う必要がある。通常、ディスプレイにチェスパターンなどを提示し、それをカメラで撮影して外部キャリブレーションを行う。
しかしながら、ラップトップコンピュータやスマートフォンなどのディスプレイ−カメラシステムでは、一般にカメラの視野内に参照物体であるディスプレイが存在せず、従来の外部キャリブレーション手法の適用が困難である。
このような参照物体がカメラの視野内に存在しない状況において、鏡を用いることで外部キャリブレーションを行う手法が提案されている。以下の説明では参照物体上には参照点が存在し、その参照点を用いて外部キャリブレーションを行うものとする。外部キャリブレーションでは、実施の手間や計算量の観点から、より簡易な構成を目指した研究が取り組まれている。Takahashiら(例えば、非特許文献2参照)およびHeschら(例えば、非特許文献3参照)らは平面鏡を用いた最小構成である、3点の参照点に対して平面鏡を3姿勢用いる手法を提案した。
一方、鏡の姿勢の数の削減という観点から、Agrawal(例えば、非特許文献4参照)は8点の参照点に対して1姿勢の球面鏡を用いる手法を提案した。さらに、Nitschkeらは追加のデバイスを無くす試みとして、眼球の鏡面反射を利用した(例えば、非特許文献5参照)。これは3点の参照点に対して球面鏡とみなした両眼、つまり2姿勢の球面鏡を利用するものである。
Z. Zhang. A flexible new technique for camera calibration. IEEE Transactions on Pattern Analysis and Machine Intelligence, 22(11):1330-1334, 2000. K. Takahashi, S. Nobuhara, and T. Matsuyama. A new mirror-based extrinsic camera calibration using an orthogonality constraint. In Computer Vision and Pattern Recognition (CVPR), 2012 IEEE Conference on, pages 1051-1058, June 2012. J. A. Hesch, A. I. Mourikis, and S. I. Roumeliotis. Algorithmic Foundation of Robotics VIII, volume 57 of Springer Tracts in Advanced Robotics, chapter Mirror-Based Extrinsic Camera Calibration, pages 285-299. Springer-Verlag, Berlin, Germany, Dec. 2009. A. Agrawal. Extrinsic camera calibration without a direct view using spherical mirror. In Computer Vision (ICCV), 2013 IEEE International Conference on, pages 2368-2375, Dec 2013. C. Nitschke, A. Nakazawa, and H. Takemura. Display-camera calibration using eye refections and geometry constraints. Computer Vision and Image Understanding, 115(6):835-853, 2011.
しかしながら、非特許文献2、非特許文献3及び非特許文献4ではキャリブレーション実行の度に鏡を用意しなければならないという手間が発生する。また、眼球を用いる非特許文献5では、眼球という極小の領域に映った参照物体からキャリブレーションを行うため、精度の観点からカメラと眼球の距離を近づけて撮影することが望ましい。しかしながら、非特許文献5では両眼を用いていることから、両眼が同時に撮影できる距離まで両眼をカメラから離す必要がある。
本発明は、このような事情に鑑みてなされたもので、簡単な構成でカメラと被写体である物体の位置姿勢関係を推定する外部キャリブレーションを実施することができる画像データ処理方法、画像データ処理装置および画像データ処理プログラムを提供することを目的とする。
本発明は、カメラによって撮像した画像と、前記カメラの内部パラメータと、角膜を球の一部として見なした角膜球の半径と、前記画像における所定の参照点の座標値と、前記参照点のモデル座標系を使用して、前記カメラとその視野外に存在する参照物体との位置姿勢関係を推定する外部キャリブレーションを行う画像データ処理方法であって、前記角膜球の中心座標を推定する角膜球座標推定ステップと、カメラ座標系における前記参照点の3次元座標値を推定する参照点3D座標推定ステップと、前記カメラと前記参照物体間の外部パラメータを推定する外部パラメータ推定ステップとを有することを特徴とする。
本発明は、前記角膜球座標推定ステップでは、前記画像に対して前記角膜球の投影像の楕円パラメータを推定することにより前記角膜球の中心座標を推定することを特徴とする。
本発明は、前記参照点3D座標推定ステップでは、前記角膜球と前記参照物体と前記カメラ座標系の位置関係が所定の条件を満たすものとして前記3次元座標値を推定することを特徴とする。
本発明は、カメラによって撮像した画像と、前記カメラの内部パラメータと、角膜を球の一部として見なした角膜球の半径と、前記画像における所定の参照点の座標値と、前記参照点のモデル座標系を使用して、前記カメラとその視野外に存在する参照物体との位置姿勢関係を推定する外部キャリブレーションを行う画像データ処理装置であって、前記角膜球の中心座標を推定する角膜球座標推定部と、カメラ座標系における前記参照点の3次元座標値を推定する参照点3D座標推定部と、前記カメラと前記参照物体間の外部パラメータを推定する外部パラメータ推定部とを備えることを特徴とする。
本発明は、コンピュータに、前記画像データ処理方法を実行させるための画像データ処理プログラムである。
本発明によれば、簡単な構成でカメラとその視野外に存在する被写体である物体間の外部キャリブレーションを実施することができるという効果が得られる。
本発明が想定する環境を表す図である。 本発明の一実施形態による画像データ処理装置の構成を表すブロック図である。 鏡球として角膜球を用いた時の、図1に示す画像データ処理装置の処理動作を示すフローチャートである。 角膜球の投影を表す図である。
以下、図面を参照して、本発明の一実施形態による画像データ処理装置を説明する。初めに、本発明が想定する環境を図1に示す。図1は、本実施形態が想定する環境のモデルを示す図である。本発明では1台のカメラ、1つの参照物体、1つの眼球(角膜球)を用いる。参照物体上には参照点が存在する。参照物体はカメラの視野内に存在せず、角膜球の一次反射によりカメラから観測するものとする。なお、本発明において、角膜球は次の条件を満たす位置に設置されていることとする。
角膜球の条件とは、角膜球中心とカメラ中心間距離が、角膜球中心と各参照点間の距離と等しいことである。角膜球中心とは図1の眼球(角膜球:角膜の表面を球の一部とする球のこと)の中心Sであり、カメラ中心とは撮影に用いているカメラの光学中心Oである。なお、多少の精度の誤差を許容するのであれば、厳密に(条件)を満たしている必要はない。この条件は、スマートフォンやディスプレイの上部にウェブカメラを設置した場合のようにディスプレイとカメラが同一平面上に存在している場合には容易に満たすことができる。具体的には、図1に示すように各参照点とカメラ中心がある円周上に存在するように参照点を表示し、かつその円の中心を垂直に貫く直線l上に眼球中心を設置すればよい。
また、本実施形態では図1に示すように、3つの座標系(カメラ座標系{C}、カメラで撮像した画像の画像座標系{I}、モデル座標系{X})を用いる。本実施形態の目的は画像座標系{I}における参照点の投影像の座標値から、カメラ座標系{C}とモデル座標系{X}間の外部パラメータRとTを求めることである。パラメータRとは、異なる座標系の姿勢変化を表す回転行列であり、パラメータTとは異なる座標系の位置変化を表す並進ベクトルである。なお、以下では「座標{a}」は座標系{a}における座標値を表すこととする。
次に、画像データ処理装置の構成を説明する。図2は、コンピュータ装置等で構成する画像データ処理装置の詳細な構成を示すブロック図である。画像データ処理装置1は、入力部2、角膜球中心座標推定部3、参照点3D座標推定部4、外部パラメータ推定部5を備えている。
入力部2は、画像、内部パラメータ、角膜球半径、参照点2D座標{I}、モデル座標系{X}を外部から入力する。これを受けて、入力部2は処理対象となる画像、カメラの内部パラメータ、角膜球半径、参照点2D座標およびモデル座標を入力して、画像、内部パラメータ、角膜球半径、参照点2D座標{I}、モデル座標{X}を出力する。
角膜球座標推定部3は、画像、内部パラメータ、角膜球半径を入力する。これを受けて、角膜球座標推定部3は、角膜球の投影された画像、カメラの内部パラメータ、角膜球半径を用いて角膜球中心座標を推定する。そして、角膜球座標推定部3は、角膜球中心座標{C}を出力する。
参照点3D座標推定部4は、角膜球中心座標{C}、参照点2D座標{I}、内部パラメータを入力する。これを受けて、参照点3D座標推定部4は、参照点2D座標{I}と角膜球中心座標{C}を用いて参照点3D座標を推定する。そして、参照点3D座標推定部4は、参照点3D座標{C}を出力する。
外部パラメータ推定部5は、モデル座標{X}、参照点3D座標{C}を入力する。これを受けて、外部パラメータ推定部5は、モデル座標と参照点3D座標を用いて外部パラメータを推定する。そして、外部パラメータ(R,T)を出力する。
次に、図3を参照して、図2に示す画像データ処理装置1の処理動作を説明する。図3は、図2に示す画像データ処理装置の処理動作を示すフローチャートである。まず、入力部2は、処理対象となる画像、カメラの内部パラメータ、角膜球半径、参照点2D座標およびモデル座標を入力する(ステップS101)。
なお、処理対象となる画像には、角膜球による参照点の一次反射像が含まれていることとする。カメラの内部パラメータとはカメラの焦点距離および画像中心を表すパラメータであり、非特許文献1などに記載の公知の技術を用いて事前に推定しているものとする。角膜球半径に関しては、人間の角膜球半径の平均値を用いればよい。
参照点2D座標は、角膜球によって反射された参照点の像が画像平面上に投影された時の座標である。この点は目視で検出してもよい。あるいは、事前に参照点を表示していない状況を撮影しておき、その後参照点を時間差で表示して、背景差分法を用いて自動的に検出するようにしてもよい。また、モデル座標とはモデル座標系における参照点の3次元座標を表し、これは事前に定めておくこととする。
次に、角膜球座標推定部3は、入力された画像に対して角膜球の楕円パラメータを推定する(ステップS102)。楕円パラメータとは楕円(円も含む)の中心座標(x座標、y座標){I}、楕円の長軸、短軸、およびその傾きの5変数を指す。楕円パラメータの推定方法は直接手で計測をしてもよいし、自動推定してもよい。以下の説明では自動推定する場合について説明する。
楕円パラメータを自動推定する方法はどのような方法でもよい。例えば、画像に対して二値化を行った後、エッジ検出を行い、検出したエッジに対して角膜の画像である楕円の楕円パラメータ推定を行う手法が適用できる。なお、このとき、二値化を行う手法はどのような手法でもよい。例えば、固定式位置処理や適応的閾値処理などの利用が可能である。また、エッジ検出を行う手法はどのような手法でもよい。例えば、Cannyフィルタの利用が可能である。さらに、検出されたエッジにおける楕円パラメータの推定を行う手法はどのような手法でもよい。例えば、参考文献1に記載の公知の手法の利用が可能である。
参考文献1:Andrew W. Fitzgibbon, R.B.Fisher. A Buyer’s Guide to Conic Fitting. Proc.5th British Machine Vision Conference, Birmingham, pp. 513-522, 1995.
次に、角膜球座標推定部3は、楕円パラメータから角膜球の中心座標を推定する(ステップS103)。図4は、角膜球の投影を表す図である。図4に示すように、楕円パラメータは楕円の長軸の長さ:rmax、短軸の長さ:rmin、楕円の傾きΦ、楕円の中心座標i(x座標,y座標)の5変数である。また、τ=±arccos(rmin/rmax)とする。このとき、視線方向はg=[sinτsinφ −sinτcosφ cosτ]と表される。
また、画像平面上のカメラ中心と角膜輪部の中心L間の距離をdとすると、dは焦点距離f(ピクセル値)を用いてd=f・r/rmaxと表される。なお、rは角膜輪部の半径を表し、人間のrの平均は5.6mmとされている。さらに、カメラの内部パラメータを表す行列をKとすると、角膜輪部の中心LはL{C}=dK−1{I}と表される。角膜球中心Sは角膜輪部の中心Lから−g方向にdLS(=5.6mm)進んだ方向にあることから、S{C}=L{C}−dLS{C}gで計算ができる。
次に、図1に示す3つの参照点p(i=1,2,3)に対して処理を繰り返す(ステップS104)。参照点3D座標推定部4は、参照点pの3D座標を推定する(ステップS105)。参照点pの画像平面上への投影点をqとする。ベクトルvをv{C}=(K−1{I}/|K−1{I}とする。このとき、qは参照点2D座標である。また、参照点pは角膜球上のmにおいて反射するとした時、カメラ中心からmまでの距離は以下の値で表される。
0mi=(v {C}S{C)−√((v {C}S{C})−|S{C}|−r)))/|v{C}|
このとき、反射点mはm{C}=k0mi{C}で求められる。また、反射点mにおける法線nは球面鏡の中心と反射点を結ぶ単位ベクトルなので、n{C}=(m{C}−S{C})/|m{C}−S{C}|となる。さらに、反射点mと参照点pを結ぶ単位ベクトルをuは、反射の法則からu{C}=v{C}+2(−v {C}・n{C})n{C}と表される。反射点mと参照点p間の距離をkmipiとすると、(条件)を満たすときkmipi=k0miである。以上のことから、参照点pは以下の式で求められる。
{C}=kmipi{C}+m(C}
以上の処理を全ての参照点に対して行う(ステップS106)。
次に、外部パラメータ推定部5は、得られた参照点pの3D座標を用いて外部パラメータ(R,T)を求める(ステップS107)。外部パラメータ(R,T)を求める手法はどのような手法でもよい。2つの異なる座標系間における点の対応を用いて座標系間の外部パラメータを求める問題はAbsolute Orientation Problemとして知られており、この問題を解くことで外部パラメータを求めることが可能である。本実施形態では、入力として与えられたモデル座標および(ステップS104)〜(ステップS106)で求めたカメラ座標系における参照点pの3D座標を用いることで、モデル座標系とカメラ座標系間の外部パラメータが求められる。Absolute Orientation Problemの解き方は参考文献2に記載されている公知の手法であるため、ここでは詳細な説明を省略する。
参考文献2:D. Eggert, A. Lorusso, and R. Fisher. Estimating 3-d rigid body transformations: a comparison of four major algorithms. Machine Vision and Applications, 9(5-6):272{290, 1997.
次に、外部パラメータ推定部5は、得られた外部パラメータ(R,T)を最適化する(ステップS108)。最適化のコスト関数としてはどのようなコスト関数を用いてもよい。例えば、一般的に外部パラメータを最適化する上で用いられている再投影誤差を最小化する項を用いてもよい。このとき、外部パラメータ(R,T)は、各種パラメータを用いて計算した投影点と実際に検出された投影点が一致するように最適化されるため、投影点に対してノイズの少ない理想的な環境下において高精度に最適化されることが期待できる。
あるいは、前述の条件を満たすように角膜球中心とカメラ中心の距離および角膜球中心と各参照点の距離が同じになるような項を用いてもよい。ノイズの存在する環境下では、推定された外部パラメータを用いて計算できる参照点の位置が、必ずしも(条件)を満たしているとは限らない。この最適化項はこれら物理的な制約条件を満たすように最適化するため、投影点にノイズの存在する環境下でも極端に精度の悪い局所解に最適化することなく、安定して高精度な最適化することが期待できる。また、これらの両方の項を用いてもよい。最適化の必要がなければ、最適化は必ずしも行わなくてもよい。
以上説明したように、カメラパラメータを推定する(外部キャリブレーション)際に、カメラと参照点が球面鏡の中心から同一距離に存在するという幾何制約および眼球の物理モデルの導入により、従来の方法に比して外部パラメータの算出に必要となる球面鏡の姿勢の数及び参照点の数を削減することができるため、参照点3点に対して1姿勢の眼球(角膜球)を用いるという簡易な構成において、得られた画像からカメラとその視野外に存在する物体間の外部キャリブレーションが実施できるが可能になる。
前述した実施形態における画像データ処理装置をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。
以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。
簡単な構成でカメラとその視野外に存在する物体間の外部キャリブレーションを実施することが不可欠な用途に適用できる。
1・・・画像データ処理装置、2・・・入力部、3・・・角膜球座標推定部、4・・・参照点3D座標推定部、5・・・外部パラメータ推定部

Claims (5)

  1. カメラによって撮像した画像と、前記カメラの内部パラメータと、角膜を球の一部として見なした角膜球の半径と、前記画像における所定の参照点の座標値と、前記参照点のモデル座標系を使用して、前記カメラとその視野外に存在する参照物体との位置姿勢関係を推定する外部キャリブレーションを行う画像データ処理方法であって、
    前記角膜球の中心座標を推定する角膜球座標推定ステップと、
    カメラ座標系における前記参照点の3次元座標値を推定する参照点3D座標推定ステップと、
    前記カメラと前記参照物体間の外部パラメータを推定する外部パラメータ推定ステップと
    を有することを特徴とする画像データ処理方法。
  2. 前記角膜球座標推定ステップでは、前記画像に対して前記角膜球の投影像の楕円パラメータを推定することにより前記角膜球の中心座標を推定することを特徴とする請求項1に記載の画像データ処理方法。
  3. 前記参照点3D座標推定ステップでは、前記角膜球と前記参照物体と前記カメラ座標系の位置関係が所定の条件を満たすものとして前記3次元座標値を推定することを特徴とする請求項1または2に記載の画像データ処理方法。
  4. カメラによって撮像した画像と、前記カメラの内部パラメータと、角膜を球の一部として見なした角膜球の半径と、前記画像における所定の参照点の座標値と、前記参照点のモデル座標系を使用して、前記カメラとその視野外に存在する参照物体との位置姿勢関係を推定する外部キャリブレーションを行う画像データ処理装置であって、
    前記角膜球の中心座標を推定する角膜球座標推定部と、
    カメラ座標系における前記参照点の3次元座標値を推定する参照点3D座標推定部と、
    前記カメラと前記参照物体間の外部パラメータを推定する外部パラメータ推定部と
    を備えることを特徴とする画像データ処理装置。
  5. コンピュータに、請求項1から3のいずれか1項に記載の画像データ処理方法を実行させるための画像データ処理プログラム。
JP2015005186A 2015-01-14 2015-01-14 画像データ処理方法、画像データ処理装置および画像データ処理プログラム Active JP6276713B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015005186A JP6276713B2 (ja) 2015-01-14 2015-01-14 画像データ処理方法、画像データ処理装置および画像データ処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015005186A JP6276713B2 (ja) 2015-01-14 2015-01-14 画像データ処理方法、画像データ処理装置および画像データ処理プログラム

Publications (2)

Publication Number Publication Date
JP2016130693A JP2016130693A (ja) 2016-07-21
JP6276713B2 true JP6276713B2 (ja) 2018-02-07

Family

ID=56415283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015005186A Active JP6276713B2 (ja) 2015-01-14 2015-01-14 画像データ処理方法、画像データ処理装置および画像データ処理プログラム

Country Status (1)

Country Link
JP (1) JP6276713B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107036557A (zh) * 2017-03-17 2017-08-11 北京航宇振控科技有限责任公司 一种二维测角系统和方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6302427B2 (ja) * 2015-04-02 2018-03-28 日本電信電話株式会社 画像データ処理方法、画像データ処理装置および画像データ処理プログラム
CN111256592B (zh) * 2020-03-13 2021-12-03 易思维(杭州)科技有限公司 结构光传感器的外参标定装置及方法
JP7116770B2 (ja) * 2020-12-04 2022-08-10 日本化薬株式会社 アナログメータの指針の指示値の読み取り方法およびアナログメータの指針の指示値の読み取りシステム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007034628A (ja) * 2005-07-26 2007-02-08 Canon Inc 画像処理方法及び装置
JP5857805B2 (ja) * 2012-03-07 2016-02-10 株式会社Jvcケンウッド カメラ較正装置
JP2014188322A (ja) * 2013-03-28 2014-10-06 Panasonic Corp 視線検出装置、視線検出方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107036557A (zh) * 2017-03-17 2017-08-11 北京航宇振控科技有限责任公司 一种二维测角系统和方法
CN107036557B (zh) * 2017-03-17 2019-04-26 北京航宇振控科技有限责任公司 一种二维测角系统和方法

Also Published As

Publication number Publication date
JP2016130693A (ja) 2016-07-21

Similar Documents

Publication Publication Date Title
JP7136875B2 (ja) 眼の特徴を用いる眼ポーズ識別
US20210397816A1 (en) System and method for detecting and removing occlusions in a three-dimensional image
US10282913B2 (en) Markerless augmented reality (AR) system
CN107004275B (zh) 确定实物至少一部分的3d重构件空间坐标的方法和系统
Itoh et al. Interaction-free calibration for optical see-through head-mounted displays based on 3d eye localization
US10535160B2 (en) Markerless augmented reality (AR) system
JP6228320B2 (ja) 制約なしslam用のセンサベースのカメラ運動検出
US11301677B2 (en) Deep learning for three dimensional (3D) gaze prediction
JP6371849B2 (ja) 画像位置合わせ装置、画像位置合わせ方法、および、画像位置合わせプログラム
Draelos et al. Intel realsense= real low cost gaze
WO2020237565A1 (zh) 一种目标追踪方法、装置、可移动平台及存储介质
JP5833507B2 (ja) 画像処理装置
JP6276713B2 (ja) 画像データ処理方法、画像データ処理装置および画像データ処理プログラム
JP6515039B2 (ja) 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法
US20210256733A1 (en) Resolving region-of-interest (roi) overlaps for distributed simultaneous localization and mapping (slam) in edge cloud architectures
US20220067967A1 (en) Methods and Systems for Intra-Capture Camera Calibration
US20140168204A1 (en) Model based video projection
WO2017187694A1 (ja) 注目領域画像生成装置
JP6885474B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP2017090420A (ja) 3次元情報復元装置及び3次元情報復元方法
Nitschke et al. I see what you see: point of gaze estimation from corneal images
JP6302427B2 (ja) 画像データ処理方法、画像データ処理装置および画像データ処理プログラム
JP7498404B2 (ja) 被写体の3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
US9830512B2 (en) Method and apparatus for tracking gaze
US20230144111A1 (en) A method for generating a 3d model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180112

R150 Certificate of patent or registration of utility model

Ref document number: 6276713

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150