JP7100590B2 - Image sensor - Google Patents
Image sensor Download PDFInfo
- Publication number
- JP7100590B2 JP7100590B2 JP2018554870A JP2018554870A JP7100590B2 JP 7100590 B2 JP7100590 B2 JP 7100590B2 JP 2018554870 A JP2018554870 A JP 2018554870A JP 2018554870 A JP2018554870 A JP 2018554870A JP 7100590 B2 JP7100590 B2 JP 7100590B2
- Authority
- JP
- Japan
- Prior art keywords
- control signal
- image sensor
- generation unit
- image
- trajectory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 claims description 100
- 230000005484 gravity Effects 0.000 claims description 30
- 230000003287 optical effect Effects 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 5
- 230000005236 sound signal Effects 0.000 claims description 4
- 238000000034 method Methods 0.000 description 89
- 230000033001 locomotion Effects 0.000 description 33
- 239000003550 marker Substances 0.000 description 24
- 238000004364 calculation method Methods 0.000 description 22
- 238000003384 imaging method Methods 0.000 description 22
- 238000001514 detection method Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 17
- 230000002776 aggregation Effects 0.000 description 16
- 238000004220 aggregation Methods 0.000 description 16
- 230000000694 effects Effects 0.000 description 16
- 238000004088 simulation Methods 0.000 description 9
- 230000009467 reduction Effects 0.000 description 3
- 239000006096 absorbing agent Substances 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000001681 protective effect Effects 0.000 description 2
- 230000035939 shock Effects 0.000 description 2
- CCEKAJIANROZEO-UHFFFAOYSA-N sulfluramid Chemical group CCNS(=O)(=O)C(F)(F)C(F)(F)C(F)(F)C(F)(F)C(F)(F)C(F)(F)C(F)(F)C(F)(F)F CCEKAJIANROZEO-UHFFFAOYSA-N 0.000 description 2
- 230000007306 turnover Effects 0.000 description 2
- 208000012260 Accidental injury Diseases 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000009545 invasion Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Geometry (AREA)
- Studio Devices (AREA)
- Adjustment Of Camera Lenses (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Description
本技術は、画像センサに関する。詳しくは、撮像された画像データを利用して制御対象装置の制御を行うための画像センサに関する。 This technique relates to an image sensor. More specifically, the present invention relates to an image sensor for controlling a controlled target device using captured image data.
従来、物体の画像を所定の間隔毎に撮影して、それらの画像に基づいて物体の軌跡を表す画像を生成する画像処理装置が知られている。例えば、第1画像が撮影されてから第2画像が撮影されるまでの間における物体の軌跡を求め、その求めた軌跡を用いて軌跡を補間する画像処理装置が提案されている(例えば、特許文献1参照。)。 Conventionally, there is known an image processing device that captures images of an object at predetermined intervals and generates an image representing the trajectory of the object based on those images. For example, there has been proposed an image processing device that obtains a locus of an object between the time when the first image is taken and the time when the second image is taken and interpolates the locus using the found locus (for example, a patent). See Document 1).
上述の従来技術では、所定の間隔毎に撮影された物体の画像から物体の軌跡を求めるために補間処理を行っている。画像を表示するためには、一般に30乃至120fps(フレーム/秒)程度の処理速度で足りるが、高度な制御を行うためにはそれでは不十分である。そのため、求められた物体の軌跡を描画することはできても、それを他の装置の制御に利用することが難しい。すなわち、補間処理により生成された物体の軌跡に基づいて、他の装置に対してリアルタイムに制御を行うことは困難である。 In the above-mentioned conventional technique, interpolation processing is performed in order to obtain the trajectory of an object from an image of the object taken at predetermined intervals. Generally, a processing speed of about 30 to 120 fps (frames / second) is sufficient for displaying an image, but that is not enough for advanced control. Therefore, although it is possible to draw the locus of the obtained object, it is difficult to use it for controlling other devices. That is, it is difficult to control other devices in real time based on the trajectory of the object generated by the interpolation process.
本技術はこのような状況に鑑みて生み出されたものであり、表示のための低速画像データとは異なる高速画像データによる対象物の軌跡に基づいて装置の制御を行うことを目的とする。 This technique was created in view of such a situation, and aims to control the device based on the trajectory of an object by high-speed image data different from low-speed image data for display.
本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、対象物を撮像して時系列に並ぶ画像データのフレームを生成する撮像素子と、上記フレームの各々に対して二値化処理を行って二値化フレームを生成する二値化処理部と、時系列に隣接する上記二値化フレームの間の差分を生成して上記二値化フレームに含まれる上記対象物の位置の変化を追跡するトラッキング処理部と、上記トラッキング処理部による結果に基づいて上記二値化フレームに含まれる上記対象物のモーメントを算出するモーメント生成部と、上記モーメント生成部によって生成された上記モーメントに基づいて上記二値化フレームに含まれる上記対象物の重心位置を生成する重心位置生成部と、上記重心位置生成部によって生成された上記対象物の重心位置に基づいて上記対象物の軌跡を予測して生成する軌跡生成部と、上記軌跡生成部によって生成された上記対象物の軌跡に基づいて制御対象装置に制御信号を供給する制御信号供給部とを具備する画像センサである。これにより、予測された対象物の軌跡に基づいて制御対象装置を制御するという作用をもたらす。 The present technology has been made to solve the above-mentioned problems, and the first aspect thereof is an image pickup element that images an object and generates a frame of image data arranged in a time series, and the above frame. The difference between the binarization processing unit that performs binarization processing for each and generates the binarization frame and the binarization frame adjacent to the time series is generated and included in the binarization frame. A tracking processing unit that tracks changes in the position of the object, a moment generation unit that calculates the moment of the object included in the binarization frame based on the result of the tracking processing unit, and a moment generation unit. Based on the center of gravity position generation unit that generates the center of gravity position of the object included in the binarization frame based on the moment generated by, and the center of gravity position of the object generated by the center of gravity position generation unit. An image including a locus generation unit that predicts and generates a locus of the object, and a control signal supply unit that supplies a control signal to the control target device based on the locus of the object generated by the locus generation unit. It is a sensor. This has the effect of controlling the controlled object device based on the predicted trajectory of the object.
また、この第1の側面において、上記軌跡生成部は、上記対象物との距離の軌跡を予測し、上記制御信号供給部は、上記予測された距離が所定の条件を満たす場合に上記制御信号を供給するようにしてもよい。これにより、予測された距離に応じて制御対象装置を制御するという作用をもたらす。 Further, in the first aspect, the locus generation unit predicts a locus of a distance to the object, and the control signal supply unit predicts the control signal when the predicted distance satisfies a predetermined condition. May be supplied. This has the effect of controlling the controlled device according to the predicted distance.
また、この第1の側面において、上記制御信号は、緩衝部材の動作を制御する制御信号であってもよい。これにより、予測された対象物の軌跡に基づいて緩衝部材の動作を制御するという作用をもたらす。 Further, in the first aspect, the control signal may be a control signal for controlling the operation of the cushioning member. This has the effect of controlling the operation of the cushioning member based on the predicted trajectory of the object.
また、この第1の側面において、上記制御信号は、警告装置の動作を制御する制御信号であってもよい。これにより、予測された対象物の軌跡に基づいて警告装置の動作を制御するという作用をもたらす。 Further, in the first aspect, the control signal may be a control signal for controlling the operation of the warning device. This has the effect of controlling the operation of the warning device based on the predicted trajectory of the object.
また、この第1の側面において、上記軌跡生成部は、上記対象物の弾道の軌跡を予測し、上記制御信号供給部は、上記予測された軌跡を表示するための上記制御信号を供給するようにしてもよい。これにより、予測された対象物の軌跡を表示するという作用をもたらす。 Further, in the first aspect, the trajectory generation unit predicts the trajectory of the trajectory of the object, and the control signal supply unit supplies the control signal for displaying the predicted trajectory. You may do it. This has the effect of displaying the predicted trajectory of the object.
また、この第1の側面において、上記軌跡生成部は、上記対象物の飛距離を予測し、上記制御信号供給部は、上記予測された飛距離を表示するための上記制御信号を供給するようにしてもよい。これにより、予測された飛距離を表示するという作用をもたらす。 Further, in the first aspect, the locus generation unit predicts the flight distance of the object, and the control signal supply unit supplies the control signal for displaying the predicted flight distance. You may do it. This has the effect of displaying the predicted flight distance.
また、この第1の側面において、上記軌跡生成部は、上記対象物の到達位置を予測し、上記制御信号供給部は、上記予測された到達位置を表示するための上記制御信号を供給するようにしてもよい。これにより、予測された到達位置を表示するという作用をもたらす。 Further, in the first aspect, the locus generation unit predicts the arrival position of the object, and the control signal supply unit supplies the control signal for displaying the predicted arrival position. You may do it. This has the effect of displaying the predicted arrival position.
また、この第1の側面において、上記制御信号供給部は、上記予測された到達位置に応じた音声信号を出力するための上記制御信号を供給するようにしてもよい。これにより、予測された到達位置に応じた音声信号を出力するという作用をもたらす。 Further, in the first aspect, the control signal supply unit may supply the control signal for outputting the audio signal according to the predicted arrival position. This has the effect of outputting an audio signal according to the predicted arrival position.
また、この第1の側面において、上記撮像素子に上記対象物を含む画像を供給する光学素子をさらに具備し、上記制御信号は、上記光学素子の動作を制御する制御信号であってもよい。これにより、予測された対象物の軌跡に基づいて光学素子の動作を制御するという作用をもたらす。 Further, in the first aspect, the image pickup device may be further provided with an optical element for supplying an image containing the object, and the control signal may be a control signal for controlling the operation of the optical element. This has the effect of controlling the operation of the optical element based on the predicted trajectory of the object.
また、この第1の側面において、上記制御信号は、上記フレームの一部を所定の画像に置換して表示させる制御信号であってもよい。これにより、予測された対象物の軌跡に基づいて画像を置換するという作用をもたらす。 Further, in the first aspect, the control signal may be a control signal in which a part of the frame is replaced with a predetermined image and displayed. This has the effect of replacing the image based on the predicted trajectory of the object.
本技術によれば、表示のための低速画像データとは異なる高速画像データによる対象物の軌跡に基づいて装置の制御を行うことができるという優れた効果を奏し得る。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。 According to the present technique, it is possible to obtain an excellent effect that the device can be controlled based on the locus of an object by high-speed image data different from low-speed image data for display. The effects described herein are not necessarily limited, and may be any of the effects described in the present disclosure.
以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.実施の形態(制御システムの構成例)
2.第1の適用例(緩衝部材の制御の例)
3.第2の適用例(球体シミュレーションの例)
4.第3の適用例(場内アナウンスの例)
5.第4の適用例(火山弾警報の例)
6.第5の適用例(追跡撮像の例)
7.第6の適用例(画像重畳の例)
8.第7の適用例(距離算出の例)Hereinafter, embodiments for carrying out the present technology (hereinafter referred to as embodiments) will be described. The explanation will be given in the following order.
1. 1. Embodiment (configuration example of control system)
2. 2. First application example (example of control of cushioning member)
3. 3. Second application example (example of sphere simulation)
4. Third application example (example of announcement in the hall)
5. Fourth application example (example of volcanic bomb warning)
6. Fifth application example (example of follow-up imaging)
7. Sixth application example (example of image superimposition)
8. Seventh application example (example of distance calculation)
<1.実施の形態>
図1は、本技術の実施の形態における制御システムの一構成例を示す図である。この実施の形態における画像処理システムは、画像センサ100と、表示装置320と、制御対象装置330とを備える。<1. Embodiment>
FIG. 1 is a diagram showing a configuration example of a control system according to an embodiment of the present technology. The image processing system in this embodiment includes an
画像センサ100は、対象物を含む被写体を撮像して、対象物の軌跡を予測し、その対象物の軌跡に基づいて制御対象装置330を制御するものである。操作入力装置310は、外部からの操作入力を受け付けるものである。表示装置320は、画像センサ100によって得られた情報を表示するものである。制御対象装置330は、画像センサ100によって制御される装置である。
The
画像センサ100は、撮像部110と、フィルタ処理部120と、二値化処理部130と、トラッキング処理部140と、モーメント生成部150と、重心位置生成部160と、集計処理部210と、制御部220と、インターフェース230とを備える。
The
撮像部110は、対象物を含む被写体を撮像する撮像素子である。この撮像部110は、所定のフレームレートにより、時系列に並ぶ画像データのフレームを生成する。ここで、フレームレートとしては、1秒当たり1000フレーム(1000fps)以上の高フレームレートを想定する。この撮像部110によって撮像された画像データのフレームは、その全てが画像センサ100の外部に供給される必要はない。高フレームレートの画像データは以下に説明する制御を目的としたものであり、表示のためにはこれよりも低いフレームレートで十分である。すなわち、高フレームレートの画像データを画像センサ100内の参照に留めることにより、画像センサ100のバンド幅を有効に活用することが可能となる。なお、撮像部110は、特許請求の範囲に記載の撮像素子の一例である。また、対象物は、人物や動物などの生物のみならず、非生物を広く含むオブジェクトである。
The
フィルタ処理部120は、撮像部110によって撮像された画像データのフレームの各々に対してフィルタ処理を施すものである。このフィルタ処理部120におけるフィルタ処理としては、例えば、移動平均フィルタやメディアンフィルタなどによるノイズ除去処理、Sobelフィルタなどによる輪郭検出処理、ラプラシアンフィルタなどによるエッジ検出などが想定される。また、このフィルタ処理部120によって画像のオイラー数を求めることにより、画像に含まれる対象物の個数を算出することも可能である。オイラー数とは、成分数から孔の数を引いた数である。
The
二値化処理部130は、フィルタ処理部120によってフィルタ処理の施されたフレームの各々に対して二値化処理を行うものである。この二値化処理部130は、各フレームの画像データに含まれる輝度や色のヒストグラム情報に基づいてその画像データを二値化して、二値化データからなる二値化フレームを生成する。
The
トラッキング処理部140は、二値化処理部130によって生成された二値化フレームについて、時系列に隣接するフレーム間の差分を生成することにより、二値化フレームに含まれる対象物を検出して、その対象物の位置の変化を追跡するものである。対象物の検出の際には、画像における特定の領域を測定対象として指定することが可能である。
The
モーメント生成部150は、トラッキング処理部140による結果に基づいて、二値化フレームにおける2変数関数のモーメントを算出するものである。0次モーメントは、その二値化フレームに含まれる対象物の面積の変化量を表し、画像の回転や拡大縮小に対して不変な値である。
The
重心位置生成部160は、モーメント生成部150によって生成されたモーメントに基づいて、二値化フレームに含まれる対象物の重心位置を生成するものである。水平方向および垂直方向の各1次モーメントをそれぞれ0次モーメントで除算した値が、重心位置を表す。
The center of gravity
集計処理部210は、画像センサ100によって得られた各種データに基づいて集計処理を行って、対象物の軌跡を生成するものである。この集計処理部210は、以下の適用例に示すように、動作するアプリケーションに応じて必要な処理を行う。制御部220は、画像センサ100の各部に対する動作制御を行うものである。インターフェース230は、外部とのインターフェースを司るものである。この例では、インターフェース230は制御対象装置330と接続して、制御対象装置330に制御信号を供給する。また、インターフェース230は表示装置320と接続して、画像センサ100によって得られた情報を表示装置320に表示させる。なお、集計処理部210は、特許請求の範囲に記載の軌跡生成部の一例である。
The
なお、この図においては、重心位置生成部160からの出力が集計処理部210および制御部220に供給される経路を明示しているが、画像センサ100の各部から集計処理部210に対して各種データを供給する経路が必要に応じて設けられてもよい。
In this figure, the route in which the output from the center of gravity
このように構成することにより、対象物の軌跡を予測して、その予測された軌跡に基づいて制御対象装置を制御することができる。また、後段において画像を処理する必要がなく、演算結果のみを利用してリアルタイムに制御を行うことができる。 With this configuration, it is possible to predict the trajectory of the object and control the controlled object device based on the predicted trajectory. In addition, it is not necessary to process the image in the subsequent stage, and control can be performed in real time using only the calculation result.
<2.第1の適用例>
図2は、本技術の実施の形態の第1の適用例における緩衝部材の制御の例を示す図である。本実施の形態における制御システムを用いて緩衝部材の制御を行うためには、保護対象の周囲に画像センサ100を設けて撮像を行い、対象物の軌跡を予測して、その予測された軌跡に基づいて緩衝部材を制御する。これにより、保護対象に迫る危険に対して、緩衝部材によって保護対象を保護することができる。<2. First application example>
FIG. 2 is a diagram showing an example of control of a cushioning member in the first application example of the embodiment of the present technique. In order to control the shock absorber using the control system in the present embodiment, an
図2におけるaでは、保護対象511は例えば建造物であり、その周囲の柵に緩衝部材512が設けられている。柵には画像センサ100の一例としての画像センサ513が設けられている。この保護対象511にオートバイや自動車などの移動物体514が近付いてきた場合、画像センサ513はこの移動物体514を衝突予測対象として検出して、移動物体514が保護対象511に衝突するか否かの識別を行う。
In a in FIG. 2, the protected
移動物体514の移動速度および移動方向から衝突の危険があると判断した場合には、位置P1において移動物体514に対してブレーキをかけるよう警告を行う。例えば、柵に警告ランプを設けて、その警告ランプを点灯させるなどの方法により警告を行う。また、移動速度が減速せず、物理的に衝突を回避できないと判断した場合には、移動物体514が位置P2に到達したタイミングで緩衝部材512を膨らませて防御状態にするよう制御する。
When it is determined from the moving speed and the moving direction of the moving
図2におけるbでは、保護対象515は人間である。この例では、人間が背面に緩衝部材516および画像センサ517を背負うことを想定している。このとき、移動物体518が保護対象515の背面から迫ってきた場合に、画像センサ517が衝突を予測すると、緩衝部材516を膨らませて防御状態にするよう制御する。
In b in FIG. 2, the
これに対し、通常の自動車のエアバッグは、実際に衝突により衝撃を受けた際に作動するようになっており、事前保護を行うことができない。また、その急激な膨らみそのものによる怪我の可能性もある。この例の緩衝部材によれば、そのような不都合は避けることができる。また、この例の緩衝部材は、加速度センサではなく、画像センサによるものであるため、移動しない保護対象の方に設置することができる。 On the other hand, ordinary automobile airbags are designed to operate when they are actually impacted by a collision, and cannot be protected in advance. There is also the possibility of injury due to the sudden bulge itself. According to the cushioning member of this example, such inconvenience can be avoided. Further, since the cushioning member in this example is not an acceleration sensor but an image sensor, it can be installed on a protected object that does not move.
図3は、本技術の実施の形態の第1の適用例における緩衝部材の制御の他の例を示す図である。この例では、保護対象は人間であり、衝突予測対象は地面である。 FIG. 3 is a diagram showing another example of control of the cushioning member in the first application example of the embodiment of the present technique. In this example, the protection target is a human and the collision prediction target is the ground.
図3におけるaでは、人間が緩衝部材521を正面に抱えるとともに、前方を撮像する画像センサ522を頭部に装着することを想定している。このとき、保護対象である人間が前方に倒れた場合に、画像センサ522が地面への衝突を予測すると、緩衝部材521を膨らませて防御状態にするよう制御する。
In a in FIG. 3, it is assumed that a human holds the cushioning
図3におけるbでは、人間が緩衝部材523を背面に背負うとともに、後方を撮像する画像センサ524を頭部に装着することを想定している。このとき、保護対象である人間が後方に倒れた場合に、画像センサ524が地面への衝突を予測すると、緩衝部材523を膨らませて防御状態にするよう制御する。
In b in FIG. 3, it is assumed that a human carries a cushioning
図3におけるcでは、人間が高所作業を行っている場所において、地面に緩衝部材を敷き詰めるとともに、その人間を撮像する画像センサ526を配置することを想定している。このとき、保護対象である人間が落下した場合に、画像センサ526が地面への衝突を予測すると、その予測された落下位置の緩衝部材525を膨らませて防御状態にするよう制御する。
In c in FIG. 3, it is assumed that a cushioning member is spread on the ground and an
このように、この例において、画像センサは保護対象自身に装着してもよく、また、保護対象の動きを観察できる位置に配置してもよい。同様に、緩衝部材は保護対象自身に装着してもよく、また、保護対象の衝突が予測される位置に配置されてもよい。 As described above, in this example, the image sensor may be attached to the protected object itself, or may be arranged at a position where the movement of the protected object can be observed. Similarly, the cushioning member may be attached to the protected object itself, or may be arranged at a position where a collision of the protected object is predicted.
図4は、本技術の実施の形態の第1の適用例における緩衝部材の制御の処理手順例を示す流れ図である。 FIG. 4 is a flow chart showing an example of a processing procedure for controlling a cushioning member in the first application example of the embodiment of the present technique.
まず、危険を予測するための画像データが取得される(ステップS811)。この画像データは、保護対象の側から衝突予測対象を観察したものでもよく、また、保護対象と衝突予測対象の両者を観察したものでもよい。いずれかの画像が撮像部110によって撮像されて、画像データが取得される。取得された画像データは、時系列のフレームを構成する。上述のように、フレームレートとしては、1000fps以上の高フレームレートを想定しており、これにより、保護対象と衝突予測対象との間の衝突を正確に予測することができる。
First, image data for predicting danger is acquired (step S811). This image data may be one in which the collision prediction target is observed from the side of the protection target, or may be one in which both the protection target and the collision prediction target are observed. Any image is captured by the
取得された各フレームは、フィルタ処理部120によって、ノイズが除去(ノイズリダクション)される(ステップS812)。 Noise is removed (noise reduction) from each acquired frame by the filter processing unit 120 (step S812).
その後、操作入力装置310からの指示に従って処理が選択される(ステップS813)。単数ターゲットが指示された場合には(ステップS813:No)、二値化処理部130によってフレームにおける画像のヒストグラムによる二値化が行われて、ターゲットが検出される(ステップS815)。そして、時系列に隣接するフレーム間の差分がトラッキング処理部140によって生成されて、検出されたターゲットの追跡(ターゲットトラッキング)が行われる(ステップS816)。また、そのターゲットについて、モーメント生成部150によってモーメント演算が行われる(ステップS817)。
After that, the process is selected according to the instruction from the operation input device 310 (step S813). When a singular target is instructed (step S813: No), the
演算されたモーメントに基づいて、ターゲットの移動量が重心位置生成部160によって算出される(ステップS818)。また、演算されたモーメントに基づいて、集計処理部210においてターゲットの移動方向が算出される(ステップS818)。算出されたターゲットの移動量および移動方向は、インターフェース230を介して表示装置320に表示される(ステップS819)。
Based on the calculated moment, the movement amount of the target is calculated by the center of gravity position generation unit 160 (step S818). Further, the totaling
複数ターゲットが指示された場合には(ステップS813:Yes)、複数の視差による距離演算がおこなわれる(ステップS814)。このとき、各ターゲットの座標位置が取得され、ステップS815におけるターゲット検出が行われる。 When a plurality of targets are instructed (step S813: Yes), the distance calculation by the plurality of parallax is performed (step S814). At this time, the coordinate positions of each target are acquired, and the target detection in step S815 is performed.
算出されたターゲットの移動量および移動方向に基づいて、保護対象と衝突予測対象との間の距離の軌跡を予測し、両者の間に衝突が発生するか否かを判断する演算が行われる(ステップS821)。演算の結果、所定の期待値を超える場合には、インターフェース230を介して表示装置320に衝突判定の旨が表示され、緩衝部材を膨らませて防御状態にするよう制御される(ステップS825)。また、期待値を超えないものの、期待値に近似する場合には、インターフェース230を介して表示装置320に事前警告判定の旨が表示され、例えば警告音等を発生するよう制御される(ステップS824)。また、期待値に近似せず、期待値を超えない場合には、そのような警告は行われない(ステップS823)。
Based on the calculated movement amount and movement direction of the target, a calculation is performed to predict the trajectory of the distance between the protection target and the collision prediction target and determine whether or not a collision occurs between the two (the calculation is performed). Step S821). If the result of the calculation exceeds a predetermined expected value, a collision determination is displayed on the
これらの処理は、時系列に並ぶ画像データのフレームのそれぞれについて繰り返し行われる。 These processes are repeated for each of the frames of the image data arranged in chronological order.
このように、この第1の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、ターゲットの移動量および移動方向に基づいて保護対象と衝突予測対象との間の距離の軌跡を予測することにより、緩衝部材の制御を行うことができる。また、同様の判断により、警告表示の制御も行うことができる。 As described above, in this first application example, assuming a high frame rate of 1000 fps or more as the frame rate, the locus of the distance between the protection target and the collision prediction target is determined based on the movement amount and the movement direction of the target. By predicting, the cushioning member can be controlled. Further, the warning display can be controlled by the same judgment.
<3.第2の適用例>
図5は、本技術の実施の形態の第2の適用例における球体シミュレーションの例を示す図である。本実施の形態における制御システムを用いて球体シミュレーションを行うためには、観測対象である球体の画像を画像センサ100により撮像し、球体の移動量および移動方向などを算出する。これにより、球体の軌跡を予測することができる。<3. Second application example>
FIG. 5 is a diagram showing an example of a sphere simulation in a second application example of the embodiment of the present technique. In order to perform a sphere simulation using the control system in the present embodiment, an image of the sphere to be observed is imaged by the
例えば、シミュレーションゴルフの場合、プレーヤ531がボール532を打つ様子を携帯端末533によって撮像する。この携帯端末533には画像センサ100が含まれており、その撮像部110によって撮像が行われる。撮像された画像に基づいてターゲットトラッキングやモーメント演算が行われ、ボール532の移動量および移動方向などが算出される。これにより、球体の軌跡が予測され、ボール532の飛距離が予測される。このようにして予測された飛距離は、携帯端末533の表示部に推定飛距離534として表示される。
For example, in the case of simulation golf, the state in which the
この例では、推定飛距離を表示する例について説明したが、例えば、ボール532の速度や回転方向などを表示するようにしてもよい。ボール532の回転を計測するためには、ボール532にマーカを付して、このマーカを追跡することにより、回転の状態を観察することができる。
In this example, an example of displaying the estimated flight distance has been described, but for example, the speed and rotation direction of the
図6は、本技術の実施の形態の第2の適用例における球体の軌跡の例を示す図である。 FIG. 6 is a diagram showing an example of a trajectory of a sphere in a second application example of the embodiment of the present technique.
例えば、時速150kmで球体が投球された場合、従来のカメラのように30fpsで球体を観察すると、隣接するフレーム間では球体の間隔が約140cm空いてしまい、球体の軌跡を予測することは困難である。これに対し、この実施の形態では1000fps以上の高フレームレートを想定することにより、隣接するフレーム間の球体の間隔は約4.2cmとなり、球体の軌跡を緻密に予測することができる。 For example, when a sphere is thrown at a speed of 150 km / h, when observing the sphere at 30 fps like a conventional camera, the distance between the adjacent frames is about 140 cm, and it is difficult to predict the trajectory of the sphere. be. On the other hand, in this embodiment, by assuming a high frame rate of 1000 fps or more, the distance between the spheres between adjacent frames is about 4.2 cm, and the trajectory of the spheres can be predicted precisely.
すなわち、投球の初期段階で高精度な移動速度を割り出して、初期動作による球体の軌跡を予測することができる。また、軌跡の途中において、垂直方向の移動量の有無を判断することにより、頂点に達しているか否かを認識して、その後に下降することを予測することができる。 That is, it is possible to determine a highly accurate moving speed at the initial stage of pitching and predict the trajectory of the sphere due to the initial motion. Further, by determining the presence or absence of the movement amount in the vertical direction in the middle of the locus, it is possible to recognize whether or not the apex has been reached and predict that the vehicle will descend thereafter.
この球体シミュレーションの例は、上述のシミュレーションゴルフの他に、例えば野球のバッティングの測定、テニスのサーブの測定、サッカーのフリーキックの測定に用いることができる。本実施の形態の高フレームレートを想定することにより、フォームの確認だけでなく、打球の速度、推定飛距離、回転方向などをプレーヤの横側から同時に観測することができる。 In addition to the above-mentioned simulation golf, this example of the sphere simulation can be used, for example, for measuring baseball batting, measuring tennis serve, and measuring soccer free kick. By assuming a high frame rate of the present embodiment, it is possible not only to confirm the form but also to simultaneously observe the speed of the hit ball, the estimated flight distance, the rotation direction, and the like from the side of the player.
図7は、本技術の実施の形態の第2の適用例における球体シミュレーションの処理手順例を示す流れ図である。 FIG. 7 is a flow chart showing an example of a processing procedure for a sphere simulation in a second application example of the embodiment of the present technique.
まず、撮像部110によって測定対象である球体を撮像することによって画像データが取得される(ステップS831)。取得された画像データは、時系列のフレームを構成する。取得された各フレームは、フィルタ処理部120によって、ノイズが除去される(ステップS832)。 First, image data is acquired by imaging a sphere to be measured by the imaging unit 110 (step S831). The acquired image data constitutes a time-series frame. Noise is removed from each of the acquired frames by the filtering unit 120 (step S832).
そして、二値化処理部130によってフレームにおける画像の色および輝度による二値化が行われる(ステップS833)。ここでは、球体にマーカを付したことを想定して、そのマーカを検出する。なお、マーカを付していない場合には、球体全体を検出する。
Then, the
検出されたマーカに対して領域が設定されて(ステップS834)、その領域において時系列に隣接するフレーム間の差分がトラッキング処理部140によって生成される。これにより、設定された領域においてマーカの追跡(ターゲットトラッキング)が行われる(ステップS835)。また、そのマーカについて、モーメント生成部150によってモーメント演算が行われる(ステップS836)。
An area is set for the detected marker (step S834), and the difference between frames adjacent to each other in the time series in the area is generated by the
演算されたモーメントに基づいて、マーカの移動量が重心位置生成部160によって算出される(ステップS837)。また、演算されたモーメントに基づいて、集計処理部210においてマーカの移動方向が算出される(ステップS837)。算出されたマーカの移動量および移動方向は、インターフェース230を介して表示装置320に表示される(ステップS838)。
Based on the calculated moment, the movement amount of the marker is calculated by the center of gravity position generation unit 160 (step S837). Further, the totaling
また、操作入力装置310からの指示に従って処理が選択され(ステップS839)、回転率を算出する場合には、集計処理部210においてマーカの回転率が算出される(ステップS841)。算出されたマーカの回転率は、インターフェース230を介して表示装置320に表示される(ステップS842)。
Further, the process is selected according to the instruction from the operation input device 310 (step S839), and when the turnover rate is calculated, the turnover rate of the marker is calculated by the aggregation processing unit 210 (step S841). The calculated rotation rate of the marker is displayed on the
そして、算出されたマーカの移動量および移動方向(回転率が算出された場合には、さらに回転率)に基づいて、マーカの軌跡および推定飛距離の予測演算が行われる(ステップS843)。 Then, a calculation for predicting the trajectory of the marker and the estimated flight distance is performed based on the calculated movement amount and movement direction of the marker (and further, if the rotation rate is calculated, the rotation rate) (step S843).
これらの処理は、時系列に並ぶ画像データのフレームのそれぞれについて繰り返し行われる。 These processes are repeated for each of the frames of the image data arranged in chronological order.
このように、この第2の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、球体の移動量および移動方向などに基づいて球体の軌跡を予測することにより、球体の推定飛距離を予測することができる。 As described above, in this second application example, the estimated flight of the sphere is estimated by predicting the trajectory of the sphere based on the movement amount and the movement direction of the sphere, assuming a high frame rate of 1000 fps or more as the frame rate. You can predict the distance.
<4.第3の適用例>
図8は、本技術の実施の形態の第3の適用例における場内アナウンスの例を示す図である。本実施の形態における制御システムを用いて場内アナウンスを行うためには、会場(球場)の各所に画像センサ100を含むカメラ541を設置するとともに、カメラ541の近辺にスピーカ542を設置する。カメラ541によってボールの行方を追って、ホームランやファールボールとなったボールが客席に侵入することが予測された場合、その落下地点付近のスピーカ542から注意を喚起するアナウンスを出力するよう制御を行う。<4. Third application example>
FIG. 8 is a diagram showing an example of an in-field announcement in a third application example of the embodiment of the present technique. In order to make an announcement in the hall using the control system in the present embodiment, a
図9は、本技術の実施の形態の第3の適用例におけるボールの客席への侵入を予測する態様を示す図である。球場においてはグラウンドと客席の間にはフェンス543が設けられる。このフェンス543よりも低い位置であれば、ボールはフェンス543に当ってグラウンドに落下する。しかし、このフェンス543をボールが超えた場合、客席内に落下して、観客に当って怪我を負わせてしまうおそれがある。
FIG. 9 is a diagram showing an aspect of predicting the intrusion of a ball into the audience seat in the third application example of the embodiment of the present technique. In the stadium, a
本実施の形態では、カメラ541によって高フレームレートでボールの行方を追って、ボールの軌跡を予測して、フェンス543を超えそうなボールを、フェンス543を超える前に素早く捉える。これにより、観客に対して注意喚起のアナウンスを流して、不慮の怪我を回避することができる。アナウンスを流すスピーカ542は落下地点付近に限定することができるため、範囲を絞って適格な注意喚起を行うことができる。また、これにより、フェンス543を不必要に高くすることを避け、球場における臨場感の低下を抑制することができる。
In the present embodiment, the
図10は、本技術の実施の形態の第3の適用例におけるシステム構成例を示す図である。この例では、フェンス543の上部の各所に画像センサ100を含むカメラ541を設置して、画像センサ100によって得られた情報を制御装置545に供給する。そして、客席へのボール侵入が予測される場合には、制御装置545からスピーカ542に、注意喚起のアナウンスを出力するよう制御信号が供給される。
FIG. 10 is a diagram showing a system configuration example in the third application example of the embodiment of the present technology. In this example,
なお、カメラ541には、ボールが当たった際の衝撃を緩めるために保護カバー544を設けることが望ましい。
It is desirable that the
図11は、本技術の実施の形態の第3の適用例における場内アナウンスの処理手順例を示す流れ図である。 FIG. 11 is a flow chart showing an example of a processing procedure for an announcement in the field in a third application example of the embodiment of the present technique.
まず、撮像部110によって測定対象であるボールを撮像することによって画像データが取得される(ステップS851)。取得された画像データは、時系列のフレームを構成する。取得された各フレームは、フィルタ処理部120によって、ノイズが除去される(ステップS852)。 First, image data is acquired by imaging the ball to be measured by the imaging unit 110 (step S851). The acquired image data constitutes a time-series frame. Noise is removed from each of the acquired frames by the filter processing unit 120 (step S852).
そして、二値化処理部130によってフレームにおける画像の色および輝度による二値化が行われて、ターゲットとなるボールが検出される(ステップS853)。
Then, the
検出されたボールに対して、時系列に隣接するフレーム間の差分がトラッキング処理部140によって生成されて、ボールの追跡(ターゲットトラッキング)が行われる(ステップS854)。また、そのボールについて、モーメント生成部150によってモーメント演算が行われる(ステップS855)。その結果、動きが検出された場合には以下のステップS857以降の処理が行われ、動きが検出されない場合にはステップS851以降の処理を繰り返す。
For the detected ball, the difference between the frames adjacent to each other in the time series is generated by the
演算されたモーメントに基づいて、集計処理部210においてカメラ541とボールの距離が演算される(ステップS857)。また、集計処理部210において、ボールの移動方向および軌跡が判定される(ステップS858)。さらに、ボールの位置に応じて、集計処理部210においてファールボールかホームランかの区別が判定される(ステップS859)。これらの情報に基づいて、制御部220からインターフェース230を介して、スピーカ542に注意喚起のアナウンスを出力するよう制御信号が供給され、自動アナウンスが再生される(ステップS861)。
The distance between the
これらの処理は、時系列に並ぶ画像データのフレームのそれぞれについて繰り返し行われる。 These processes are repeated for each of the frames of the image data arranged in chronological order.
このように、この第3の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、ボールの軌跡を予測することにより、ボールの落下地点を推定して、状況に応じた場内アナウンスを行うことができる。 As described above, in this third application example, a high frame rate of 1000 fps or more is assumed as the frame rate, the trajectory of the ball is predicted, the falling point of the ball is estimated, and an announcement in the field is made according to the situation. It can be performed.
<5.第4の適用例>
図12は、本技術の実施の形態の第4の適用例における火山弾警報の例を示す図である。本実施の形態における制御システムを用いて火山弾警報を行うためには、同図のように、観測対象となる火山の噴火口を画像センサ100により撮像する。そして、火山弾が発生した場合に、その火山弾の行方を追って、火山弾の軌跡を予測して、落下地点を推定する。この推定された落下地点を危険エリアとして、避難勧告などの警告を行う。<5. Fourth application example>
FIG. 12 is a diagram showing an example of a volcanic bomb warning in the fourth application example of the embodiment of the present technique. In order to issue a volcanic bomb warning using the control system in the present embodiment, the crater of the volcano to be observed is imaged by the
通常の望遠カメラでは、観測画像から噴煙を認識することは可能であるが、火山弾の到達範囲を予測することは困難である。本実施の形態の例では、高フレームレートで火山弾を捉えて、火山弾のサイズおよび移動速度を計測し、その到達範囲を推測することができる。 With a normal telephoto camera, it is possible to recognize the eruption from the observed image, but it is difficult to predict the reach of the volcanic bomb. In the example of this embodiment, it is possible to capture a volcanic bomb at a high frame rate, measure the size and moving speed of the volcanic bomb, and estimate its reach.
図13は、本技術の実施の形態の第4の適用例における火山弾警報の処理手順例を示す流れ図である。なお、画像センサ100の設置時には、適切な撮像が行われるようキャリブレーションが行われる。
FIG. 13 is a flow chart showing an example of a procedure for processing a volcanic bomb warning in the fourth application example of the embodiment of the present technique. When the
撮像部110によって観測対象である火山の噴火口を撮像することによって画像データが取得される(ステップS871)。取得された画像データは、時系列のフレームを構成する。取得された各フレームは、フィルタ処理部120によって、コントラスト等の補正が行われる(ステップS872)。これにより、天候や時刻による影響を緩和することができる。 Image data is acquired by imaging the crater of the volcano to be observed by the image pickup unit 110 (step S871). The acquired image data constitutes a time-series frame. Each of the acquired frames is corrected for contrast and the like by the filter processing unit 120 (step S872). This makes it possible to mitigate the effects of weather and time.
そして、二値化処理部130によってフレームにおける画像の色および輝度による二値化が行われ、時系列に隣接するフレーム間の差分がトラッキング処理部140によって生成されて、動体が抽出される(ステップS873)。抽出された動体については、モーメント生成部150によってモーメント演算が行われ、その面積や移動量のベクトルが計測される(ステップS874)。
Then, the
計測された動体の面積や移動量のベクトルから、火山弾が発生したか否かが判断される(ステップS875)。火山弾が発生したと判断された場合には(ステップS875:Yes)、ステップS876以降の処理が行われる。火山弾が発生していないと判断された場合には(ステップS875:No)、ステップS871以降の処理が繰り返される。 From the measured vector of the area of the moving body and the amount of movement, it is determined whether or not a volcanic bomb has occurred (step S875). If it is determined that a volcanic bomb has occurred (step S875: Yes), the processing after step S876 is performed. If it is determined that no volcanic bombs have occurred (step S875: No), the processes after step S871 are repeated.
計測された動体の面積に基づいて、集計処理部210において火山弾の質量が推定される(ステップS876)。また、計測された動体の面積や移動量のベクトルに基づいて、火山弾の到達範囲が推定される(ステップS877)。そして、この推定された到達範囲に関して、警戒情報を生成して(ステップS878)、関係機関にその警戒情報を発報する(ステップS879)。 Based on the measured area of the moving object, the mass of the volcanic bomb is estimated in the aggregation processing unit 210 (step S876). In addition, the reach of the volcanic bomb is estimated based on the measured area of the moving object and the vector of the amount of movement (step S877). Then, with respect to this estimated reach, warning information is generated (step S878), and the warning information is notified to related organizations (step S879).
これらの処理は、時系列に並ぶ画像データのフレームのそれぞれについて繰り返し行われる。 These processes are repeated for each of the frames of the image data arranged in chronological order.
このように、この第4の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、火山弾の軌跡を予測することにより、火山弾の落下地点を推定して、到達範囲に関する警戒情報を生成することができる。 As described above, in this fourth application example, the fall point of the volcanic bomb is estimated by predicting the trajectory of the volcanic bomb, assuming a high frame rate of 1000 fps or more as the frame rate, and caution regarding the reachable range is obtained. Information can be generated.
<6.第5の適用例>
図14は、本技術の実施の形態の第5の適用例における追跡撮像の例を示す図である。本実施の形態における制御システムを用いて追跡撮像を行うために、画像センサ100を含むカメラ550のレンズ部分にレンズ駆動アクチュエータ552を設ける。また、このレンズ駆動アクチュエータ552を制御するための自動追跡ボタン551を設ける。自動追跡ボタン551が押下されている間は、ターゲットとして検出された対象物を画面内に固定して捉えるようにレンズ駆動アクチュエータ552が制御される。カメラ550は、撮影者によって把持されるため、手振れ等が生じてターゲットの位置が一定にならないことが多いが、この実施の形態によればそのようなターゲットを固定した位置に捉えて撮像することができる。<6. Fifth application example>
FIG. 14 is a diagram showing an example of follow-up imaging in the fifth application example of the embodiment of the present technique. In order to perform tracking imaging using the control system in the present embodiment, a
図15は、本技術の実施の形態の第5の適用例における追跡撮像の態様を示す図である。ここでは、一例として、サッカーの試合中にボールをターゲットとして捉える場合の例を示す。 FIG. 15 is a diagram showing a mode of follow-up imaging in the fifth application example of the embodiment of the present technique. Here, as an example, an example of catching the ball as a target during a soccer match is shown.
通常の撮像モードからスポーツモードに変更すると、ボールの周辺には検出枠553が表示される。これは、画像センサ100によってボールを認識できていることを示している。検出枠553が表示されている状態において、自動追跡ボタン551が押下されると、トラッキング処理部140によってボールの動きが追跡され、モーメント生成部150によってモーメント演算が行われる。そして、演算されたモーメントに基づいて、ボールの移動量が重心位置生成部160によって算出される。また、演算されたモーメントに基づいて、集計処理部210においてボールの移動方向554が算出される。集計処理部210は、算出されたボールの移動量および移動方向からボールの軌跡を予測する。
When the normal imaging mode is changed to the sports mode, the
制御部220は、予測されたボールの軌跡に合わせて、レンズ駆動アクチュエータ552に制御情報を供給する。この制御情報によりレンズ駆動アクチュエータ552が駆動されてレンズが動く。このとき、カメラが移動すると、カメラの重心位置がずれるため、制御部220からレンズ駆動アクチュエータ552にさらに制御情報がフィードバックされる。これにより、レンズ駆動アクチュエータ552の駆動によってレンズが動いて、ボールの位置が画面内の固定した位置になるように撮像が行われる。なお、レンズは、特許請求の範囲に記載の光学素子の一例である。
The
なお、この例では、自動追跡ボタン551が押下された際のボールの表示位置を維持することを想定したが、自動追跡ボタン551が押下された際にボールの表示位置を中央に移動し、その後、その中央位置に維持するようにしてもよい。また、ボールの軌跡は急峻に変化しないように、フィルタ処理部120においてローパスフィルタをかけるようにしてもよい。また、ボールの追跡が瞬間的に外れた場合には、数フレーム程度については軌道予測を行ってもよい。
In this example, it is assumed that the display position of the ball is maintained when the
図16は、本技術の実施の形態の第5の適用例における追跡撮像の他の態様を示す図である。ここでは、撮像モードとして、ズームモードを想定する。このズームモードにおいては、ボールの検出とともに、顔の検出も行うものとする。同図では、画面555において、ボールの周辺には検出枠558が表示され、顔の周辺には検出枠559が表示されたものとしている。
FIG. 16 is a diagram showing another aspect of follow-up imaging in the fifth application example of the embodiment of the present technique. Here, a zoom mode is assumed as the imaging mode. In this zoom mode, the face is detected as well as the ball. In the figure, it is assumed that the
ズームイン枠557に検出枠558および559が入ると、拡大(ズームイン)動作が行われる。一方、ズームアウト枠556から検出枠558または559の少なくとも一方が外れると、縮小(ズームアウト)動作が行われる。これにより、検出枠558および559両方が必ず画面555内に入るように、ズームインまたはズームアウト動作が行われる。
When the detection frames 558 and 559 are inserted in the zoom-in
図17は、本技術の実施の形態の第5の適用例における追跡撮像の処理手順例を示す流れ図である。同図において、左側の流れ図はカメラ550本体の処理手順を表し、右側の流れ図は画像センサ100の処理手順を表す。
FIG. 17 is a flow chart showing an example of a follow-up imaging processing procedure in the fifth application example of the embodiment of the present technique. In the figure, the flow chart on the left side shows the processing procedure of the
カメラ550において撮像が開始すると、画像センサ100が起動される。画像センサ100の電源がオフになっている場合には(ステップS731:Yes)、画像センサ100の動作は行われない。画像センサ100の電源がオンになっている場合には(ステップS731:No)、カメラ550においてターゲットが指定されるまで待機する(ステップS732)。
When the image pickup is started in the
カメラ550では、モニタリングモードによる撮像および表示が行われる(ステップS711)。このモニタリングモードにおいて追跡の対象となるターゲットが指定される(ステップS712)。例えば、サッカーの試合においてボールがターゲットとして指定される。ターゲットの検出が開始すると(ステップS713:Yes)、そのターゲットの座標が画像センサ100に通知される(ステップS714)。ターゲットトラッキングに失敗した場合には(ステップS715:No)、再びターゲットの検出を行う(ステップS713)。
The
ターゲットが指定されてその座標が通知されると(ステップS732:Yes)、画像センサ100はそのターゲットを検出する。検出に成功すると(ステップS733:Yes)、画像センサ100は検出レスポンスをカメラ550に返す(ステップS734)。また、検出に成功しても、その後のターゲットトラッキングに失敗した場合には(ステップS735:No)、トラッキングから外れた旨の通知をカメラ550に返して(ステップS738)、再びターゲットの検出を行う(ステップS733)。
When the target is designated and its coordinates are notified (step S732: Yes), the
カメラ550は、画像センサ100からターゲット検出の通知またはトラッキングから外れた旨の通知を受けると(ステップS716:Yes)、自動追跡ボタン551の押下を待つ。そして、自動追跡ボタン551の押下が開始すると(ステップS717:Yes)、追跡の制御を画像センサ100に指示する(ステップS718)。自動追跡ボタン551の押下が終了すると(ステップS719:Yes)、追跡を終了する制御を画像センサ100に指示する(ステップS721)。
When the
画像センサ100は、カメラ550から追跡に関する制御を受けると(ステップS736:Yes)、ボールの軌跡を予測して、この予測された軌跡に基づいてレンズ駆動アクチュエータ552を制御する(ステップS737)。その間、ターゲットトラッキングを繰り返す(ステップS735)。
When the
カメラ550は、モード切替が行われるまで(ステップS722)、ターゲットトラッキングを繰り返す(ステップS715)。モード切替が行われると(ステップS722:Yes)、電源オフでなければターゲットの指定に戻る(ステップS712)。
The
このように、この第5の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、ターゲットの軌跡を予測することにより、その予測された軌跡に基づいてレンズ駆動アクチュエータ552の駆動を制御する。これにより、ボールの位置が画面内の固定した位置になるように撮像することができる。
As described above, in this fifth application example, the
<7.第6の適用例>
図18は、本技術の実施の形態の第6の適用例における画像重畳の例を示す図である。本実施の形態における制御システムを用いて画像重畳を行うためには、元画像を画像センサ100により撮像する。そして、元画像において重畳対象となる部分を検出して、その部分に他の画像を重畳する。これにより、必要に応じて重畳された画像を供給することができる。<7. Sixth application example>
FIG. 18 is a diagram showing an example of image superimposition in the sixth application example of the embodiment of the present technique. In order to perform image superimposition using the control system in the present embodiment, the original image is captured by the
図18におけるaでは、一例として、サッカーの試合中に選手のユニフォームに記載されている広告部分を他の広告に置換する場合の例を示す。現場の選手のユニフォームには「P商事」の企業名561が広告として記載されているものとする。これは物理的なものであるため、それ自体は変化しない。現場のカメラは、この状態の様子をそのまま撮影する。
In a in FIG. 18, as an example, an example in which the advertisement portion described in the player's uniform is replaced with another advertisement during a soccer match is shown. It is assumed that the
撮影された画像は、放送局の設備を通じて各地に放送される。その際、撮影された画像の広告部分に対して、広告契約に応じた企業名やブランド名が重畳される。例えば、図18におけるbのように、「P商事」の上に「Q産業」の企業名が重畳され、その重畳された画像が放送される。これにより、テレビに表示される選手のユニフォームには、「Q産業」の企業名562が広告として記載されているように映る。
The captured images are broadcast to various places through the equipment of the broadcasting station. At that time, the company name or brand name according to the advertising contract is superimposed on the advertising portion of the captured image. For example, as shown in b in FIG. 18, the company name of "Q industry" is superimposed on "P trading", and the superimposed image is broadcast. As a result, the player's uniform displayed on the television appears as if the
図19は、本技術の実施の形態の第6の適用例における画像重畳のタイミング例を示す図である。ここでは、放送用カメラのフレームレートとして30fpsを想定する。一方、本実施の形態の画像センサ100を備える高速カメラのフレームレートとして1000fpsを想定する。
FIG. 19 is a diagram showing an example of image superimposition timing in the sixth application example of the embodiment of the present technique. Here, 30 fps is assumed as the frame rate of the broadcast camera. On the other hand, 1000 fps is assumed as the frame rate of the high-speed camera provided with the
この場合、高速カメラによって撮像された画像において重畳対象である広告部分をトラッキング対象物としてターゲットトラッキングを行う。これにより、広告部分の座標位置および形状が認識される。そして、新たな広告のテクスチャを生成して、その生成されたテクスチャを放送用カメラのフレームの広告部分に張り付ける。高速カメラのフレームレートは放送用カメラのフレームレートよりも十分に速いため、高速カメラのフレームについてこれらの処理を行った後に、放送用カメラのフレームに対して重畳を行うことができる。 In this case, target tracking is performed with the advertisement portion to be superimposed in the image captured by the high-speed camera as the tracking target. As a result, the coordinate position and shape of the advertisement portion are recognized. Then, a new advertisement texture is generated, and the generated texture is attached to the advertisement part of the frame of the broadcasting camera. Since the frame rate of the high-speed camera is sufficiently faster than the frame rate of the broadcast camera, it is possible to superimpose the frame of the high-speed camera on the frame of the broadcast camera after performing these processes.
図20は、本技術の実施の形態の第6の適用例における画像重畳の処理手順例を示す流れ図である。 FIG. 20 is a flow chart showing an example of an image superimposition processing procedure in the sixth application example of the embodiment of the present technique.
まず、画像センサ100により画像データが取得される(ステップS881)。取得された画像データは、時系列のフレームを構成する。取得された各フレームは、フィルタ処理部120によって、ノイズが除去される(ステップS882)。 First, image data is acquired by the image sensor 100 (step S881). The acquired image data constitutes a time-series frame. Noise is removed from each of the acquired frames by the filtering unit 120 (step S882).
そして、二値化処理部130によってフレームにおける画像の色および輝度による二値化が行われて、重畳対象であるマーカが検出される(ステップS883)。検出されたマーカに対して領域が設定されて(ステップS884)、その領域において時系列に隣接するフレーム間の差分がトラッキング処理部140によって生成される。これにより、設定された領域においてマーカの追跡(ターゲットトラッキング)が行われる(ステップS885)。また、そのマーカについて、モーメント生成部150によってモーメント演算が行われる(ステップS886)。
Then, the
また、操作入力装置310からの指示に従って処理が選択される(ステップS887)。重畳映像を出力する場合には、集計処理部210において重畳処理が行った後に(ステップS888)、インターフェース230を介してその重畳映像を出力する(ステップS889)。一方、オリジナル映像を出力する場合には、重畳処理を行うことなくインターフェース230を介してオリジナル映像を出力する(ステップS889)。
Further, the process is selected according to the instruction from the operation input device 310 (step S887). When the superimposed video is output, the superimposed video is output via the
これらの処理は、時系列に並ぶ画像データのフレームのそれぞれについて繰り返し行われる。 These processes are repeated for each of the frames of the image data arranged in chronological order.
このように、この第6の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、重畳対象の軌跡を予測することにより、その重畳対象の位置の画像を重畳して置換することができる。 As described above, in this sixth application example, by assuming a high frame rate of 1000 fps or more as the frame rate and predicting the locus of the superimposed object, the image at the position of the superimposed object is superimposed and replaced. Can be done.
<8.第7の適用例>
図21は、本技術の実施の形態の第7の適用例における距離算出の例を示す図である。従来、モーションキャプチャ等で使われるオブジェクトトラッキングは、3次元での動きを正確に測定するために複数のカメラを用いて行われていた。そのため、システムとしては大掛かりで高価なものとなっていた。そこで、本実施の形態における制御システムを用いて距離算出を行うために、測定対象である対象物の画像を画像センサ100により撮像し、対象物の距離を算出する。<8. 7th application example>
FIG. 21 is a diagram showing an example of distance calculation in the seventh application example of the embodiment of the present technique. Conventionally, object tracking used in motion capture and the like has been performed using a plurality of cameras in order to accurately measure movement in three dimensions. Therefore, the system was large and expensive. Therefore, in order to calculate the distance using the control system in the present embodiment, the image of the object to be measured is imaged by the
この例において距離を算出するためには、予めキャリブレーションを行う必要がある。すなわち、ある決められた座標位置(0,0)に、トラッキング対象のオブジェクト571を配置し、そのときの距離および面積を基準距離および基準面積として記録する。その後、オブジェクト571についてトラッキングを行い、そのオブジェクト571の重心位置(x,y)と面積sを算出し、その面積とキャリブレーションの結果から、次式により距離zを算出する。
距離z=基準距離×(面積s/基準面積)1/2
In order to calculate the distance in this example, it is necessary to calibrate in advance. That is, the
Distance z = reference distance x (area s / reference area) 1/2
図22は、本技術の実施の形態の第7の適用例におけるオブジェクトトラッキングの態様を示す図である。この例では、画像センサ100により撮像されるフレームレートとして1000fps以上の高フレームレートを想定するため、フレーム単位の動き量は微少となる。これを前提に、検出範囲を局所化し、その範囲での面積と重心位置を求めることにより、簡易な仕組みでトラッキングを行うことができる。
FIG. 22 is a diagram showing an aspect of object tracking in the seventh application example of the embodiment of the present technique. In this example, since a high frame rate of 1000 fps or more is assumed as the frame rate imaged by the
前フレームにおけるオブジェクト572の重心位置573を中心として、その近傍を検出対象枠574として設定する。このとき、検出範囲の一辺(幅および高さ)は、次式により表される。ただし、αは探索範囲係数である。
検出範囲の一辺=(前フレームの0次モーメント)1/2×αCentering on the center of
One side of the detection range = (0th moment of the previous frame) 1/2 x α
トラッキング処理部140によって、検出対象枠574において、次フレームにおけるオブジェクト575が検出されると、二値化処理部130によって二値化処理が行われる。これにより、オブジェクト575の位置(x,y)にはビットマップI(x,y)として「1」が、それ以外の位置には「0」が示される。このビットマップI(x,y)に基づいて、モーメント生成部150において次式のようにモーメント演算が行われる。
0次モーメント(面積)=ΣΣI(x,y)
水平1次モーメント=ΣΣx×I(x,y)
垂直1次モーメント=ΣΣy×I(x,y)
ただし、上式におけるΣΣは、水平方向および垂直方向の総和演算を表す。When the
0th moment (area) = ΣΣI (x, y)
Horizontal first moment of area = ΣΣx × I (x, y)
Vertical first moment of area = ΣΣy × I (x, y)
However, ΣΣ in the above equation represents the summation operation in the horizontal direction and the vertical direction.
このようにして生成されたモーメントに基づいて、重心位置生成部160において重心位置の座標が次式により生成される。
重心x座標=水平1次モーメント/0次モーメント
重心y座標=垂直1次モーメント/0次モーメントBased on the moment generated in this way, the coordinates of the center of gravity position are generated in the center of gravity
Center of gravity x coordinate = horizontal primary moment / 0th order moment Center of gravity y coordinate = vertical primary moment / 0th order moment
図23は、本技術の実施の形態の第7の適用例における距離算出の態様を示す図である。上述のように、この例では、予め基準位置における距離と面積の関係をキャリブレーションしておくことにより、カメラ561により得られた面積から距離を算出することができる。
FIG. 23 is a diagram showing a mode of distance calculation in the seventh application example of the embodiment of the present technique. As described above, in this example, the distance can be calculated from the area obtained by the
ここで、基準位置における面積A0を基準面積として、そのときの距離D0を基準距離とする。オブジェクトトラッキングを行った際に、面積A1が得られた場合、その距離D1は次式により算出される。
D1=D0×(A1/A0)1/2
Here, the area A0 at the reference position is used as the reference area, and the distance D0 at that time is used as the reference distance. If the area A1 is obtained when object tracking is performed, the distance D1 is calculated by the following equation.
D1 = D0 × (A1 / A0) 1/2
同様に、オブジェクトトラッキングを行った際に、面積A2が得られた場合、その距離D2は次式により算出される。
D2=D0×(A2/A0)1/2
Similarly, when the area A2 is obtained when the object tracking is performed, the distance D2 is calculated by the following equation.
D2 = D0 × (A2 / A0) 1/2
図24は、本技術の実施の形態の第7の適用例における距離算出の処理手順例を示す流れ図である。なお、この距離算出の前提として、キャリブレーションが行われているものとする。 FIG. 24 is a flow chart showing an example of a processing procedure for distance calculation in the seventh application example of the embodiment of the present technique. It is assumed that calibration has been performed as a premise for calculating this distance.
まず、画像センサ100により画像データが取得される(ステップS891)。取得された画像データは、時系列のフレームを構成する。取得された各フレームは、フィルタ処理部120によって、ノイズが除去される(ステップS892)。 First, image data is acquired by the image sensor 100 (step S891). The acquired image data constitutes a time-series frame. Noise is removed from each of the acquired frames by the filter processing unit 120 (step S892).
そして、二値化処理部130によってフレームにおける画像の色および輝度による二値化が行われて、重畳対象であるマーカが検出される(ステップS893)。検出されたマーカに対して領域が設定されて(ステップS894)、その領域において時系列に隣接するフレーム間の差分がトラッキング処理部140によって生成される。これにより、設定された領域においてマーカの追跡(ターゲットトラッキング)が行われる(ステップS895)。
Then, the
また、そのマーカについて、モーメント生成部150によってモーメント演算が行われる(ステップS896)。 演算されたモーメントに基づいて、マーカの移動量が重心位置生成部160によって算出される(ステップS897)。
Further, a moment calculation is performed by the
また、操作入力装置310からの指示に従って処理が選択され(ステップS898)、距離算出を行う場合には、集計処理部210において距離が算出される(ステップS899)。算出された距離は、例えば、インターフェース230を介して表示装置320に表示される。
Further, the process is selected according to the instruction from the operation input device 310 (step S898), and when the distance is calculated, the distance is calculated by the aggregation processing unit 210 (step S899). The calculated distance is displayed on the
これらの処理は、時系列に並ぶ画像データのフレームのそれぞれについて繰り返し行われる。 These processes are repeated for each of the frames of the image data arranged in chronological order.
このように、この第7の適用例では、フレームレートとして1000fps以上の高フレームレートを想定して、オブジェクトの軌跡を予測することにより、オブジェクトとの間の距離を算出することができる。 As described above, in this seventh application example, the distance to the object can be calculated by predicting the trajectory of the object assuming a high frame rate of 1000 fps or more as the frame rate.
ここまで説明したように、本技術の実施の形態によれば、対象物を高フレームレートにより撮像して画像センサ100内で画像処理することにより、対象物の軌跡を予測して、その予測結果に基づいて制御対象装置330を制御することができる。
As described above, according to the embodiment of the present technique, the trajectory of the object is predicted by imaging the object at a high frame rate and performing image processing in the
なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。 It should be noted that the above-described embodiment shows an example for embodying the present technology, and the matters in the embodiment and the matters specifying the invention within the scope of claims have a corresponding relationship with each other. Similarly, the matters specifying the invention within the scope of claims and the matters in the embodiment of the present technology having the same name have a corresponding relationship with each other. However, the present technique is not limited to the embodiment, and can be embodied by applying various modifications to the embodiment without departing from the gist thereof.
また、上述の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disc)、メモリカード、ブルーレイディスク(Blu-ray(登録商標)Disc)等を用いることができる。 Further, the processing procedure described in the above-described embodiment may be regarded as a method having these series of procedures, or as a program for causing a computer to execute these series of procedures or as a recording medium for storing the program. You may catch it. As the recording medium, for example, a CD (Compact Disc), MD (MiniDisc), DVD (Digital Versatile Disc), memory card, Blu-ray Disc (Blu-ray (registered trademark) Disc) and the like can be used.
なお、本明細書に記載された効果はあくまで例示であって、限定されるものではなく、また、他の効果があってもよい。 It should be noted that the effects described in the present specification are merely examples and are not limited, and other effects may be obtained.
なお、本技術は以下のような構成もとることができる。
(1)対象物を撮像して時系列に並ぶ画像データのフレームを生成する撮像素子と、
前記フレームの各々に対して二値化処理を行って二値化フレームを生成する二値化処理部と、
時系列に隣接する前記二値化フレームの間の差分を生成して前記二値化フレームに含まれる前記対象物の位置の変化を追跡するトラッキング処理部と、
前記トラッキング処理部による結果に基づいて前記二値化フレームに含まれる前記対象物のモーメントを算出するモーメント生成部と、
前記モーメント生成部によって生成された前記モーメントに基づいて前記二値化フレームに含まれる前記対象物の重心位置を生成する重心位置生成部と、
前記重心位置生成部によって生成された前記対象物の重心位置に基づいて前記対象物の軌跡を予測して生成する軌跡生成部と、
前記軌跡生成部によって生成された前記対象物の軌跡に基づいて制御対象装置に制御信号を供給する制御信号供給部と
を具備する画像センサ。
(2)前記軌跡生成部は、前記対象物との距離の軌跡を予測し、
前記制御信号供給部は、前記予測された距離が所定の条件を満たす場合に前記制御信号を供給する
前記(1)に記載の画像センサ。
(3)前記制御信号は、緩衝部材の動作を制御する制御信号である前記(2)に記載の画像センサ。
(4)前記制御信号は、警告装置の動作を制御する制御信号である前記(2)に記載の画像センサ。
(5)前記軌跡生成部は、前記対象物の弾道の軌跡を予測し、
前記制御信号供給部は、前記予測された軌跡を表示するための前記制御信号を供給する
前記(1)から(4)のいずれかに記載の画像センサ。
(6)前記軌跡生成部は、前記対象物の飛距離を予測し、
前記制御信号供給部は、前記予測された飛距離を表示するための前記制御信号を供給する
前記(5)に記載の画像センサ。
(7)前記軌跡生成部は、前記対象物の到達位置を予測し、
前記制御信号供給部は、前記予測された到達位置を表示するための前記制御信号を供給する
前記(5)に記載の画像センサ。
(8)前記制御信号供給部は、前記予測された到達位置に応じた音声信号を出力するための前記制御信号を供給する
前記(7)に記載の画像センサ。
(9)前記撮像素子に前記対象物を含む画像を供給する光学素子をさらに具備し、
前記制御信号は、前記光学素子の動作を制御する制御信号である
前記(1)から(8)のいずれかに記載の画像センサ。
(10)前記制御信号は、前記フレームの一部を所定の画像に置換して表示させる制御信号である前記(1)から(9)のいずれかに記載の画像センサ。The present technology can have the following configurations.
(1) An image sensor that captures an object and generates frames of image data arranged in chronological order.
A binarization processing unit that performs binarization processing on each of the frames to generate a binarization frame, and a binarization processing unit.
A tracking processing unit that generates a difference between the binarized frames adjacent to the time series and tracks a change in the position of the object included in the binarized frame.
A moment generation unit that calculates the moment of the object included in the binarization frame based on the result of the tracking processing unit, and a moment generation unit.
A center of gravity position generation unit that generates the center of gravity position of the object included in the binarization frame based on the moment generated by the moment generation unit.
A locus generation unit that predicts and generates a locus of the object based on the center of gravity position of the object generated by the center of gravity position generation unit.
An image sensor including a control signal supply unit that supplies a control signal to a control target device based on the trajectory of the object generated by the trajectory generation unit.
(2) The locus generation unit predicts a locus of a distance from the object and predicts the locus.
The image sensor according to (1), wherein the control signal supply unit supplies the control signal when the predicted distance satisfies a predetermined condition.
(3) The image sensor according to (2) above, wherein the control signal is a control signal that controls the operation of the shock absorber.
(4) The image sensor according to (2) above, wherein the control signal is a control signal that controls the operation of the warning device.
(5) The trajectory generation unit predicts the trajectory of the trajectory of the object, and predicts the trajectory of the object.
The image sensor according to any one of (1) to (4), wherein the control signal supply unit supplies the control signal for displaying the predicted locus.
(6) The locus generation unit predicts the flight distance of the object and determines the flight distance.
The image sensor according to (5), wherein the control signal supply unit supplies the control signal for displaying the predicted flight distance.
(7) The locus generation unit predicts the arrival position of the object and predicts the arrival position of the object.
The image sensor according to (5), wherein the control signal supply unit supplies the control signal for displaying the predicted arrival position.
(8) The image sensor according to (7), wherein the control signal supply unit supplies the control signal for outputting an audio signal according to the predicted arrival position.
(9) The image pickup device is further provided with an optical element for supplying an image containing the object.
The image sensor according to any one of (1) to (8) above, wherein the control signal is a control signal for controlling the operation of the optical element.
(10) The image sensor according to any one of (1) to (9) above, wherein the control signal is a control signal in which a part of the frame is replaced with a predetermined image and displayed.
100 画像センサ
110 撮像部
120 フィルタ処理部
130 二値化処理部
140 トラッキング処理部
150 モーメント生成部
160 重心位置生成部
210 集計処理部
220 制御部
230 インターフェース
310 操作入力装置
320 表示装置
330 制御対象装置
511、515 保護対象
512、516、521、523、525 緩衝部材
513、517、522、524、526 画像センサ
514、518 移動物体
531 プレーヤ
532 ボール
533 携帯端末
534 推定飛距離
541、550、561 カメラ
542 スピーカ
543 フェンス
544 保護カバー
545 制御装置
551 自動追跡ボタン
552 レンズ駆動アクチュエータ100
Claims (10)
前記フレームの各々に対して二値化処理を行って二値化フレームを生成する二値化処理部と、
時系列に隣接する前記二値化フレームの間の差分を生成して前記二値化フレームに含まれる前記対象物の位置の変化を追跡するトラッキング処理部と、
前記トラッキング処理部による結果に基づいて前記二値化フレームに含まれる前記対象物のモーメントを算出するモーメント生成部と、
前記モーメント生成部によって生成された前記モーメントに基づいて前記二値化フレームに含まれる前記対象物の重心位置を生成する重心位置生成部と、
前記重心位置生成部によって生成された前記対象物の重心位置に基づいて前記対象物の軌跡を予測して生成する軌跡生成部と、
前記軌跡生成部によって生成された前記対象物の軌跡に基づいて制御対象装置に制御信号を供給する制御信号供給部と
を具備する画像センサ。 An image sensor that captures an object and generates frames of image data arranged in chronological order at a frame rate of 1000 fps or higher .
A binarization processing unit that performs binarization processing on each of the frames to generate a binarization frame, and a binarization processing unit.
A tracking processing unit that generates a difference between the binarized frames adjacent to the time series and tracks a change in the position of the object included in the binarized frame.
A moment generation unit that calculates the moment of the object included in the binarization frame based on the result of the tracking processing unit, and a moment generation unit.
A center of gravity position generation unit that generates the center of gravity position of the object included in the binarization frame based on the moment generated by the moment generation unit.
A locus generation unit that predicts and generates a locus of the object based on the center of gravity position of the object generated by the center of gravity position generation unit.
An image sensor including a control signal supply unit that supplies a control signal to a control target device based on the trajectory of the object generated by the trajectory generation unit.
前記制御信号供給部は、前記予測された距離が所定の条件を満たす場合に前記制御信号を供給する
請求項1記載の画像センサ。 The locus generation unit predicts a locus of a distance from the object and predicts the locus.
The image sensor according to claim 1, wherein the control signal supply unit supplies the control signal when the predicted distance satisfies a predetermined condition.
前記制御信号供給部は、前記予測された軌跡を表示するための前記制御信号を供給する
請求項1記載の画像センサ。 The trajectory generation unit predicts the trajectory of the trajectory of the object and predicts the trajectory of the object.
The image sensor according to claim 1, wherein the control signal supply unit supplies the control signal for displaying the predicted locus.
前記制御信号供給部は、前記予測された飛距離を表示するための前記制御信号を供給する
請求項5記載の画像センサ。 The locus generation unit predicts the flight distance of the object and
The image sensor according to claim 5, wherein the control signal supply unit supplies the control signal for displaying the predicted flight distance.
前記制御信号供給部は、前記予測された到達位置を表示するための前記制御信号を供給する
請求項5記載の画像センサ。 The locus generation unit predicts the arrival position of the object and predicts the arrival position of the object.
The image sensor according to claim 5, wherein the control signal supply unit supplies the control signal for displaying the predicted arrival position.
請求項7記載の画像センサ。 The image sensor according to claim 7, wherein the control signal supply unit supplies the control signal for outputting an audio signal according to the predicted arrival position.
前記制御信号は、前記光学素子の動作を制御する制御信号である
請求項1記載の画像センサ。 The image pickup device is further provided with an optical element that supplies an image containing the object.
The image sensor according to claim 1, wherein the control signal is a control signal that controls the operation of the optical element.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016237176 | 2016-12-07 | ||
JP2016237176 | 2016-12-07 | ||
PCT/JP2017/040037 WO2018105290A1 (en) | 2016-12-07 | 2017-11-07 | Image sensor |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018105290A1 JPWO2018105290A1 (en) | 2019-10-24 |
JP7100590B2 true JP7100590B2 (en) | 2022-07-13 |
Family
ID=62492252
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018554870A Active JP7100590B2 (en) | 2016-12-07 | 2017-11-07 | Image sensor |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7100590B2 (en) |
WO (1) | WO2018105290A1 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020075230A1 (en) * | 2018-10-10 | 2020-04-16 | 株式会社ウフル | Strike alert system, method, program, and seat in baseball stadium |
CN110062272B (en) * | 2019-04-30 | 2021-09-28 | 腾讯科技(深圳)有限公司 | Video data processing method and related device |
JP7083334B2 (en) * | 2019-12-27 | 2022-06-10 | 楽天グループ株式会社 | Image processing equipment, image processing methods, and programs |
JP7083332B2 (en) * | 2019-12-27 | 2022-06-10 | 楽天グループ株式会社 | Image processing equipment, image processing methods, and programs |
WO2022034245A1 (en) * | 2020-08-14 | 2022-02-17 | Topgolf Sweden Ab | Motion based pre-processing of two-dimensional image data prior to three-dimensional object tracking with virtual time synchronization |
AU2021326016B2 (en) * | 2020-08-14 | 2023-04-13 | Topgolf Sweden Ab | Motion based pre-processing of two-dimensional image data prior to three-dimensional object tracking with virtual time synchronization |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001521403A (en) | 1996-02-12 | 2001-11-06 | ゴルフ エイジ テクノロジーズ,インコーポレイテッド | Golf driving range distance determination apparatus and method |
JP2002543503A (en) | 1999-04-23 | 2002-12-17 | シーメンス アクチエンゲゼルシヤフト | Method and apparatus for determining the position of an object in a scene |
JP2004145669A (en) | 2002-10-24 | 2004-05-20 | Sharp Corp | Movement detection method, control method, movement detector, controller and computer program |
JP2008160436A (en) | 2006-12-22 | 2008-07-10 | Olympus Imaging Corp | Imaging device |
JP2008219489A (en) | 2007-03-05 | 2008-09-18 | Nippon Hoso Kyokai <Nhk> | Video object trajectory image synthesis apparatus and program thereof |
JP2010005267A (en) | 2008-06-30 | 2010-01-14 | Mitsubishi Electric Engineering Co Ltd | Safety management system for golf links |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0916863A (en) * | 1995-06-27 | 1997-01-17 | Toshiba Corp | Monitor and control device |
-
2017
- 2017-11-07 WO PCT/JP2017/040037 patent/WO2018105290A1/en active Application Filing
- 2017-11-07 JP JP2018554870A patent/JP7100590B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001521403A (en) | 1996-02-12 | 2001-11-06 | ゴルフ エイジ テクノロジーズ,インコーポレイテッド | Golf driving range distance determination apparatus and method |
JP2002543503A (en) | 1999-04-23 | 2002-12-17 | シーメンス アクチエンゲゼルシヤフト | Method and apparatus for determining the position of an object in a scene |
JP2004145669A (en) | 2002-10-24 | 2004-05-20 | Sharp Corp | Movement detection method, control method, movement detector, controller and computer program |
JP2008160436A (en) | 2006-12-22 | 2008-07-10 | Olympus Imaging Corp | Imaging device |
JP2008219489A (en) | 2007-03-05 | 2008-09-18 | Nippon Hoso Kyokai <Nhk> | Video object trajectory image synthesis apparatus and program thereof |
JP2010005267A (en) | 2008-06-30 | 2010-01-14 | Mitsubishi Electric Engineering Co Ltd | Safety management system for golf links |
Also Published As
Publication number | Publication date |
---|---|
JPWO2018105290A1 (en) | 2019-10-24 |
WO2018105290A1 (en) | 2018-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7100590B2 (en) | Image sensor | |
CN108156450B (en) | Method for calibrating a camera, calibration device, calibration system and machine-readable storage medium | |
JP6525453B2 (en) | Object position estimation system and program thereof | |
KR20190005765A (en) | Image processing apparatus, image processing method thereof and program | |
EP2659465B1 (en) | Tracking moving objects using a camera network | |
JP2020191646A (en) | Information processing system, information processing method and program | |
JP5574789B2 (en) | Vehicle periphery monitoring device and vehicle periphery monitoring method | |
JP7119442B2 (en) | Monitoring system, monitoring method and monitoring program | |
US20160323559A1 (en) | Method for selecting cameras and image distribution system capable of appropriately selecting cameras | |
JP5187292B2 (en) | Vehicle periphery monitoring device | |
JP2021185698A (en) | Video image processing device, video image analysis system, method, and program | |
CN101379825A (en) | Automatic tracking device and automatic tracking method | |
JP2013105253A5 (en) | ||
WO2014136499A1 (en) | Monitoring device, monitoring method, and imaging unit placement method | |
JP6760485B2 (en) | Video processing equipment, video analysis systems, methods and programs | |
JP6384802B2 (en) | MOBILE BODY DETECTING DEVICE, IMAGE PROCESSING DEVICE, MOBILE BODY DETECTING METHOD, AND INTEGRATED CIRCUIT | |
EP3434622A1 (en) | Instruction projecting device, package sorting system and instruction projecting method | |
JP2013093865A (en) | Vehicle periphery monitoring device | |
JP7161981B2 (en) | Object tracking program, device and method capable of switching object tracking means | |
EP3434623B1 (en) | Projection indicator, cargo assortment system, and projection indicating method | |
US8885886B2 (en) | Method and apparatus and program | |
JP7128577B2 (en) | monitoring device | |
JP2019096062A (en) | Object tracking device, object tracking method, and object tracking program | |
KR102621481B1 (en) | Method for displaying locus using image accumulation | |
CN107292916B (en) | Target association method, storage device and direct recording and broadcasting interactive terminal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201002 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220701 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7100590 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |