JP2007228195A - Device, program, and method for automatically imparting video attribute - Google Patents
Device, program, and method for automatically imparting video attribute Download PDFInfo
- Publication number
- JP2007228195A JP2007228195A JP2006046026A JP2006046026A JP2007228195A JP 2007228195 A JP2007228195 A JP 2007228195A JP 2006046026 A JP2006046026 A JP 2006046026A JP 2006046026 A JP2006046026 A JP 2006046026A JP 2007228195 A JP2007228195 A JP 2007228195A
- Authority
- JP
- Japan
- Prior art keywords
- tag
- moving object
- image
- attribute
- moving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、スポーツ映像などのライブ中継を行なうと同時に、ハイライト場面などを切出してリプレイ映像を生成するための映像編集装置に係る。特に撮影画像の各場面の属性を自動的に生成し、編集を行う装置に関する。 The present invention relates to a video editing device for generating a replay video by cutting out a highlight scene and the like at the same time as performing live broadcast of a sports video or the like. In particular, the present invention relates to an apparatus that automatically generates and edits attributes of each scene of a captured image.
近年、インターネット回線などを使用したディジタルコンテンツの配信・放送が容易になってきた。これに対応して大量の映像素材を短時間で加工・編集する装置が求められている。 In recent years, it has become easy to distribute and broadcast digital contents using an Internet line or the like. Corresponding to this, there is a demand for an apparatus for processing and editing a large amount of video material in a short time.
映像編集の装置としてノンリニア編集装置が知られている。ノンリニア編集装置は、ビデオカメラで取得した映像やテープに録画されている映像をディジタルデータへ変換し、パソコンのハードディスクなどに取り込んで加工・編集する。例えば、マラソン競技のフィニッシュシーンを切り出すには、ハードディスクに格納されている映像を再生し切出し開始位置と終了位置を人手で設定し、設定した区間を別のデータファイルとして保存する、あるいは、ビデオテープへ記録したりすることでリプレイ映像を作成する。
しかしながらノンリニア編集装置では、切出し区間の指定、リプレイ映像の保存などの編集作業は人手で行なう必要があるため多大な手間とコストが掛かる問題がある。
Nonlinear editing apparatuses are known as video editing apparatuses. Non-linear editing devices convert video captured by a video camera or video recorded on a tape into digital data, which are captured and processed on a hard disk of a personal computer. For example, to cut a marathon competition finish scene, play the video stored on the hard disk and manually set the cut start and end positions and save the set section as a separate data file, or video tape To create a replay video.
However, in the non-linear editing apparatus, editing operations such as specifying a cut-out section and storing a replay video need to be performed manually, and thus there is a problem that much labor and cost are required.
ノンリニア編集装置の問題点への対策として映像の各場面に属性を与え、属性情報を検索することで自動的に切出し区間を特定する方法が提案されている。 As a countermeasure to the problem of the non-linear editing device, a method has been proposed in which an attribute is assigned to each scene of a video and an extraction section is automatically specified by searching attribute information.
例えば非特許文献1では撮影対象に装着した赤外線LED(Light Emitting Diode)から発せられるID(Identification)情報を認識し、蓄積されるビデオデータに実時間でインデックス付けする方法がある。しかしながら、LEDを信号源として用いているため、発光方向に受光器が存在しない、あるいはLEDと受光器との間に遮る障害物がある場合などには、ID情報を受け取れないという問題がある。
特許文献1ではカメラ画像を記録する際、同時に被写体に装着されたRF(RadioFrequency)タグなどのID情報を読み取って画像データと共に保存することで、画像の改ざんを防止する方法がある。同発明は指向性アンテナによってカメラが向いているRFタグからのみ信号を受信するものである。即ち、指向性アンテナとカメラ視野とを関連付ける方法に関する具体的な手段は無く、該当する撮影対象が映っているかどうかが保証されないという問題がある。
特許文献2では指向性アンテナを用いて、RFタグの方向を検出し、同方向へLEDなどのビーム光を照射することで、所望の物品を見つけやすくする方法がある。しかし、指向性アンテナを用いているが、アンテナとカメラを関連付けたり、RFタグのID情報と移動物体とを関連付けたりする手段は無い。
For example, in
In
In
非特許文献2では移動物体が画像内のどの領域に存在しているかの追跡方法として局所相関法を用いた画像処理が開示されている。しかし検出した移動物体がどんな属性をもっているか検出しリアルタイムに撮影画像に自動的に属性を付与することはできない。
本願発明者は特許文献3において、撮影画像から移動物体を検出し、移動物体が存在する領域を所望の大きさに切り出し、検出した移動物体にRFタグ情報を対応付ける方法を示しているが、移動物体の特定については記載されていない。
Non-Patent
The inventor of the present application discloses a method of detecting a moving object from a captured image, cutting out a region where the moving object exists into a desired size, and associating the RF tag information with the detected moving object. There is no description of object identification.
解決しようとする課題は移動している物体の撮影画像からハイライトシーンなどの特定の画像の切り出し区間の選定と編集には人手・工数と時間がかかる問題である。 The problem to be solved is a problem that it takes man-hours, man-hours and time to select and edit a cutout section of a specific image such as a highlight scene from a photographed image of a moving object.
第1の発明は、RFタグを装着し移動している物体を連続して撮影した画像から検出した移動物体と無線アンテナで受信した前記RFタグの情報を対応つけた属性を前記画像に自動付与する映像属性自動付与装置である。 1st invention attaches | subjects to the said image the attribute which matched the information of the said RF tag received with the moving object detected from the image which attached | attached the RF tag and image | photographed continuously and the radio | wireless antenna to the said image This is a video attribute automatic assigning device.
前記映像属性自動付与装置は前記撮影した画像を受信する手段と前記アンテナから前記RFタグの情報を受信する手段と前記受信したRFタグ情報から前記RFタグ装着の移動物体の属性を生成する属性情報生成手段と前記受信した画像を構成する画素を所定数集めた格子状の区画の動きのある区画を検出する移動物体検出手段と前記動きを検出した現フレーム画像の区画の前フレーム画像の区画からの動きの速さと動きの方向から移動物体が存在する可能性がある区画を抽出し、動きが同一で隣接している前記区画を結合した領域を抽出する領域抽出手段と前記抽出した領域の中心位置を算出し、前記中心位置の前フレーム画像からの移動ベクトルを算出して移動物体を認識し前記抽出した領域の移動物体に装着されている前記RFタグを抽出確認し移動物体を特定する移動物体特定手段と前記画像に前記特定した移動物体の前記RFタグの属性を自動付与する属性情報付与手段とを備えている。 The video attribute automatic assigning device generates means for receiving the captured image, means for receiving the RF tag information from the antenna, and attribute information for generating an attribute of the moving object attached to the RF tag from the received RF tag information. A moving object detecting means for detecting a moving section of a grid-like section in which a predetermined number of pixels constituting the received image are collected, and a section of a previous frame image of the section of the current frame image in which the motion is detected; Extracting a section where a moving object may be present from the speed and direction of movement of the area, a region extracting means for extracting a region combining the adjacent sections having the same motion, and the center of the extracted region Calculating the position, calculating the movement vector from the previous frame image of the center position, recognizing the moving object, and attaching the RF tag attached to the moving object in the extracted region And an attribute information addition means for automatically imparting attributes outgoing confirmed the RF tag moving object and the moving object identification device and the identified said image to identify the moving object.
第2の発明は第1の発明の映像属性自動付与装置に前記RFタグの情報を前記属性情報生成手段からの情報に基づき指向性アンテナの指向性ビームを制御して前記RFタグからの情報を受信するRFタグ受信無線アンテナを備えたRFタグリーダ・ライタをさらに備えた映像属性自動付与装置である。 According to a second aspect of the present invention, in the video attribute automatic assigning apparatus according to the first aspect of the invention, the information from the RF tag is controlled by controlling the directional beam of the directional antenna based on the information from the attribute information generating means. An automatic video attribute assigning device further comprising an RF tag reader / writer equipped with a receiving RF tag receiving radio antenna.
第3の発明は第2の発明の映像属性自動付与装置に前記移動物体特定手段で抽出した移動物体が複数で前記RFタグを確認できない場合、前記領域抽出手段で抽出した領域の中心付近に位置するよう前記指向性ビームを制御して前記RFタグからの情報を受信して前記複数の移動物体を分離して前記移動物体を確認し特定する手段をさらに備えた映像属性自動付与装置である。 In a third aspect of the present invention, when there are a plurality of moving objects extracted by the moving object specifying means and the RF tag cannot be confirmed in the video attribute automatic assigning apparatus of the second invention, the position is located near the center of the area extracted by the area extracting means. The automatic image attribute assigning device further includes means for controlling the directional beam to receive information from the RF tag, separate the plurality of moving objects, and identify and identify the moving objects.
第4の発明は第3の発明の映像属性自動付与装置に前記複数の移動物体を分離して特定した移動物体を分離する前の時点に遡り前記画像に前記分離して特定した移動物体と前記RFタグの属性を自動付与する手段をさらに備えた映像属性自動付与装置である。 According to a fourth aspect of the present invention, there is provided the moving object identified by separating the moving object into the image before the separation of the moving object identified by separating the plurality of moving objects in the video attribute automatic assigning apparatus of the third aspect of the invention. The video attribute automatic assigning device further includes means for automatically assigning an attribute of the RF tag.
第5の発明はコンピュータによってRFタグを装着し移動している物体を連続して撮影した画像に存在する移動物体と前記RFタグの情報を対応つけた属性を前記画像に付与するためのプログラムである。 According to a fifth aspect of the present invention, there is provided a program for assigning to the image an attribute that associates the information of the RF tag with a moving object present in an image obtained by continuously capturing an object that is moving with an RF tag attached thereto by a computer. is there.
前記プログラムは前記RFタグ情報から前記RFタグ装着の移動物体の属性を生成させ、前記画像を構成する画素を所定数集めた格子状の区画の動きのある区画を検出させ、前記動きを検出した現フレーム画像の区画の前フレーム画像の区画からの動きの速さと動きの方向から移動物体が存在する可能性がある区画を抽出させ、動きが同一で隣接している前記区画を結合した領域を抽出させ、前記抽出した領域の中心位置を算出させ、前記中心位置の前フレーム画像からの移動ベクトルを算出させて移動物体を認識させ、前記抽出した領域の移動物体に装着されている前記RFタグを抽出確認し移動物体を特定させ、前記画像に前記特定した移動物体の前記RFタグの属性を自動付与する属性情報付与する。 The program generates an attribute of the moving object attached with the RF tag from the RF tag information, detects a moving section of a grid-like section in which a predetermined number of pixels constituting the image are collected, and detects the movement. Extract a section where a moving object may exist from the speed and direction of movement from the section of the previous frame image of the section of the current frame image, and combine the adjacent sections with the same motion Extracting, calculating a center position of the extracted region, calculating a movement vector from the previous frame image of the center position to recognize a moving object, and the RF tag attached to the moving object of the extracted region Is extracted, the moving object is specified, and attribute information for automatically assigning the attribute of the RF tag of the specified moving object is added to the image.
本発明により、取得した画像から移動物体の属性情報を使用し目的のシーンを自動的に抽出することにより編集処理の自動化が可能となる。 また、無線アンテナの角度検出分解能が粗い場合であっても、撮影画像の編集処理結果を基に移動物体が精度良く検出でき、さらにアンテナの指向性ビーム境界を複数の移動物体の中間位置に回転することで複数の移動物体を分離検出できる。また、複数の指向性アンテナを用いて角度分解能を向上させ、かつ、その移動物体が占める画像領域に属性データを自動的に付与することができる。これにより、撮影画像の配信・放送を効率よく編集することができる。 According to the present invention, editing processing can be automated by automatically extracting a target scene using attribute information of a moving object from an acquired image. In addition, even when the angle detection resolution of the wireless antenna is rough, it is possible to accurately detect moving objects based on the editing processing result of the captured image, and the directional beam boundary of the antenna can be rotated to the intermediate position of multiple moving objects. By doing so, a plurality of moving objects can be separated and detected. Further, the angular resolution can be improved by using a plurality of directional antennas, and attribute data can be automatically given to an image area occupied by the moving object. Thereby, it is possible to efficiently edit the distribution / broadcast of the photographed image.
(実施例1)
図1は本発明の一実施形態の映像属性送信システムと映像属性自動付与装置ブロック構成を示す図である。RFタグ21を装着した移動物体である撮影対象2、RFタグ21を装着した撮影対象を撮影するカメラ3、撮影対象のRFタグ21の情報を読みとり、メモリに書込み保持するRFタグリーダ・ライタ4、RFタグ21の情報、及びカメラから画像のから被写体の属性情報を識別処理する映像属性自動付与装置1、識別処理したRFタグ21の情報を映像装置7の送信先に送信するためのネットワーク5あるいはDVD、CDRなどの記録媒体6で構成する。なお、図1の映像属性自動付与装置1にRFタグリーダ・ライタ4を併せて映像属性自動付与装置とすることも考えられる。
Example 1
FIG. 1 is a diagram showing a block configuration of a video attribute transmission system and a video attribute automatic assigning apparatus according to an embodiment of the present invention. A
RFタグ21は無線ICタグなどの呼称もある物体の識別に利用されるデバイスであり、無線ICチップアンテナコイルで構成され、自身の識別コードなどの情報を記憶できる。RFタグ21はRFタグ情報を読みとり記憶保持などの機能を有する装置と無線交信ができる。RFタグ21はRFタグリーダ・ライタ4から供給される電磁波から駆動用の電力を得るタイプ、あるいは電池内臓タイプのいずれで構成しても良い。尚、本願のRFタグ21を人に装着する場合、RFタグ21は動きが比較的安定している頭や胸に装着することが望ましい。
RFタグ21内のメモリには、RFタグ21が装着される撮影対象2に応じて、その対象の名称、特徴(色、形状、ID番号など)、仕様、あるいは、これらが記載されたネットワークアドレスなどを予め格納しておく。書き込み可能なRFタグの使用によりカメラ3で撮影している最中にメモリに記憶されたデータ内容を必要に応じて書き換えることも可能である。本願適用の一実施例におけるRFタグ21のデータ例を図3に示す。説明は後述する。
The
In the memory in the
RFタグリーダ・ライタ4は指向性アンテナ41、A/D42、映像属性自動付与装置1とのインタフェースであるI/F43で構成する。指向性アンテナ41としてアダプティブアレーアンテナを用い、アダプティブアレーアンテナの指向性を制御しRFタグ21からの電波を受信する。
指向性アンテナ41で受信した信号y(n)からRFタグ21からの変調信号を復調し、A/D42によりアナログ信号をディジタル符号に変換しディジタル信号を得る。ディジタルデータを映像属性自動付与装置1にI/F43のインタフェース部を介して送出する。また、データ書き込み時は映像属性自動付与装置1からの情報をRFタグ21のメモリに書き込む。図1は簡単のため、RFタグ21から映像属性自動付与装置1への一方向の信号の流れを示し逆方向は省略している。
カメラ3はCCDなどで検出した光強度から一定のサンプリング間隔 (例えば、33ms)で画像を形成し更に、動画像を生成する。 画像の単位である画素はカラー画像の場合、赤成分(R)、緑成分(G)、青成分(B)の階調値で与えられる。白黒画像の場合、輝度の階調値で与えられる。例えば、整数x、yで示される座標(x、y)の画素の赤成分(R)、緑成分(G)、青成分(B)、輝度(I)の階調値はそれぞれ、ディジタル値R(x、y)、G(x、y)、B(x、y)、I(x、y)で与えられる。以下の詳細説明は簡単のため映像処理の画素としては輝度(白黒濃淡値)について述べる。カラー画像の画素についても同様に画像処理できる。
カメラ3からの画像情報、RFタグリーダ・ライタ4からのRFタグ21の情報は映像属性自動付与装置1に信号入力I/F20を介して入力する。映像属性自動付与装置1は信号入力I/F20を介して入力したRFタグ21の情報及びカメラからの画像データの処理を行い、処理データを信号出力I/F30、ネットワーク5を介して映像装置7に送信する。あるいはDVD(Degital Video Disc)、CDR(Compact Disc Recodable)などの記録媒体に信号出力I/F30を介して送出する。
The RF tag reader /
The modulated signal from the
The
Image information from the
映像属性自動付与装置1の構成、及び画像処理内容の説明の前に指向性アンテナの指向性制御、カメラと指向性アンテナとの位置関係について述べる。指向性アンテナの指向性制御について先ず述べる。RFタグ21からの電波の到来方向をθとする。アダプティブアレーアンテナの各アンテナエレメントが直線状に等間隔Dで並んでいる場合、基準となるアンテナエレメントと比較したときの第i番目のアンテナエレメントへの伝播遅延時間τi(θ)は、
Before describing the configuration of the video attribute automatic assigning
で表わされる。cは、伝播速度である。変調信号をm(n)、搬送波の角周波数をω、第i番目のアンテナエレメント出力をxi(n)、nを時間とすると、 It is represented by c is the propagation velocity. When the modulation signal is m (n), the angular frequency of the carrier wave is ω, the i-th antenna element output is xi (n), and n is time,
となる。 It becomes.
所望の信号波形が既知で参照信号d(n)として利用できる場合、アンテナアレーの出力信号y(n)との平均2乗誤差u(n)を最小にすることにより重み係数を決定できる。u(n)は干渉、雑音などの誤差成分である。 If the desired signal waveform is known and can be used as the reference signal d (n), the weighting factor can be determined by minimizing the mean square error u (n) from the output signal y (n) of the antenna array. u (n) is an error component such as interference and noise.
各アンテナエレメントの入力信号xi(n)、重み係数wi(θ)をベクトルで表現し、各アンテナエレメントの合成出力をy(n)として上式に代入する。 The input signal xi (n) and weighting coefficient w i (θ) of each antenna element are expressed by vectors, and the combined output of each antenna element is substituted into the above equation as y (n).
尚、添え字Tは転置、Hは複素共役転置を表わす。このとき誤差成分の2乗の期待値Jは次式で表わされる。 The subscript T represents transposition, and H represents complex conjugate transposition. At this time, the expected value J of the square of the error component is expressed by the following equation.
各アンテナエレメントの入力信号の自己相関行列をRxx=E{x(n)×d(n)H}、参照信号と各アンテナエレメントの入力信号との相互相関行列をrxd=E{x(n)×d(n)}と定義すると、最適な重みは期待値Jを重みベクトルwi(θ)で偏微分することにより、 The autocorrelation matrix of the input signal of each antenna element is Rxx = E {x (n) × d (n) H}, and the cross-correlation matrix of the reference signal and the input signal of each antenna element is rxd = E {x (n) Xd (n)}, the optimum weight is obtained by partial differentiation of the expected value J with the weight vector wi (θ),
で与えられる。 Given in.
上述のように、電波の飛来方向θと、重み係数wi(θ)を対応付けることができる。そこで、指定した範囲θ1<θ<θ2でアンテナエレメントの指向性を変化させる時、対応する重み係数がw(θ1)からw(θ2)の範囲内で徐々に変化することにより、アンテナエレメントの方向を走査することができる。例えば、刻み幅Δθでアンテナエレメントの方向を振る場合、予め重み係数を、 As described above, the radio wave arrival direction θ can be associated with the weighting factor wi (θ). Therefore, when the directivity of the antenna element is changed in the specified range θ1 <θ <θ2, the corresponding weighting factor gradually changes within the range of w (θ1) to w (θ2), so that the direction of the antenna element Can be scanned. For example, when the direction of the antenna element is swung with a step size Δθ,
のように算出しておき、刻み値k・Δθに応じて、重み係数wi(θ)を変化させることによりアンテナエレメントの指向性パターンを制御することができる。指向性アンテナを八木アンテナなどの指向性パターンが固定されているアンテナ及び、機械的にアンテナを回転させる機構で構成しても良い。本構成の場合、アンテナの回転角θを、指定範囲θ1<θ<θ2で変化することによって、上述のアダプティブアレーアンテナと等価の処理を実現できる。 The directivity pattern of the antenna element can be controlled by changing the weighting coefficient w i (θ) according to the step value k · Δθ. The directional antenna may be composed of an antenna having a fixed directional pattern such as a Yagi antenna and a mechanism for mechanically rotating the antenna. In the case of this configuration, processing equivalent to the above-described adaptive array antenna can be realized by changing the rotation angle θ of the antenna in the specified range θ1 <θ <θ2.
次に 指向性アンテナ41とカメラ3との位置関係について述べる。目的とするRFタグ21を装着した撮影対象2を検出する際、上記の方法で得た撮影対象2からの電波の飛来方向θと、後述するカメラ画像内の注視領域とを対応付ける処理を行う。この時、撮影対象2、指向性アンテナ41、カメラ3が同一直線状にある必要がある。撮影対象2の位置は不特定であるので同一直線状という条件を満たすためには、アンテナの中心位置とカメラレンズの焦点位置が鉛直軸上で一致していることが望ましい。
Next, the positional relationship between the directional antenna 41 and the
映像属性自動付与装置1の構成と画像処理について説明する。映像属性自動付与装置1は属性情報自動付与部10、信号入力I/F20、信号出力I/F30で構成する。信号入力I/F20を介して受信したRFタグ情報、画像情報は属性情報自動付与部10に入力する。属性情報自動付与部10は属性情報生成部11、移動物体検出部12、領域抽出部13、移動物体特定部14、属性情報付与部15、受信画像、映像属性付与付画像、及び画像処理過程のデータを保持するメモリ16で構成する。
属性情報自動付与装置1は後述する属性情報自動付与部10の各機能を処理するプログラムにより動作するCPU内臓のパソコンなどの演算処理装置であってもよい。
The configuration and image processing of the video attribute automatic assigning
The attribute information automatic assigning
具体的処理手順を説明する前に本発明で用いる画像から移動物体を分離検出する方法について述べる。撮影画像から移動物体を分離検出する方法として背景差分法、局所相関法が知られている。 Before describing a specific processing procedure, a method for separating and detecting a moving object from an image used in the present invention will be described. Background differential methods and local correlation methods are known as methods for separating and detecting moving objects from captured images.
背景差分法は一定周期(サンプリング時間毎)で取り込んだビデオカメラからの画像にローパスフィルタを通すことにより画像処理行う手法である。撮影画像から移動物体の分離検出は、予め移動物体が含まれない画像を背景画像として用意しておき、次に、移動物体が含まれる画像との差分を取る。この差分の大きい部分を移動物体とする方法である。 The background subtraction method is a method of performing image processing by passing a low-pass filter through an image from a video camera captured at a constant period (every sampling time). In separation detection of a moving object from a captured image, an image that does not include a moving object is prepared in advance as a background image, and then a difference from an image that includes a moving object is obtained. In this method, a portion having a large difference is used as a moving object.
背景差分法による移動物体の分離検出は、低いカットオフ周波数を持つローパスフィルタを用いて動きのない物体の画像つまり、背景画像を得、カットオフ周波数を高くすることにより蛍光灯のちらつきを除いた動きのある物体含む画像を取得して両者の差分を取ることで行う。本方法はより短い処理時間で処理可能であるが明るさの変動などのノイズに弱い欠点がある。
一方、局所相関法による移動物体の分離検出は、画像の現フレームと前のフレームの画素の相関演算により画素の移動速度、移動距離により行う手法である。手順は、画像を格子状のブロック(例えば、8×8画素)に分割し、あるサンプリング時刻のフレームと次のサンプリング時刻で取得したフレームとの間で、近傍にあるブロック同士の相関値を求め、その大小によりブロックが移動したか否かを判定する。局所相関法による撮影画像から移動物体の分離検出は、相関演算量が多いため画像サイズを大きくできないため相関演算を実施するブロック間の距離が制限され、動きの早い物体に追従できない問題がある。
Moving object separation detection by the background subtraction method uses a low-pass filter with a low cutoff frequency to obtain an image of an object that does not move, that is, a background image, and eliminates the flickering of the fluorescent lamp by increasing the cutoff frequency. This is done by acquiring an image containing a moving object and taking the difference between the two. Although this method can be processed in a shorter processing time, it has a drawback that it is vulnerable to noise such as brightness fluctuation.
On the other hand, the separation detection of the moving object by the local correlation method is a method that is performed based on the moving speed and moving distance of the pixel by the correlation calculation of the pixel of the current frame and the previous frame of the image. The procedure divides the image into grid-like blocks (for example, 8 × 8 pixels), and calculates the correlation value between neighboring blocks between a frame at a certain sampling time and a frame acquired at the next sampling time. Then, it is determined whether or not the block has moved according to the size. The separation and detection of a moving object from a captured image by the local correlation method has a problem in that it cannot follow a fast-moving object because the image size cannot be increased because the amount of correlation calculation is large and the distance between blocks on which the correlation calculation is performed is limited.
図2は本発明の映像属性送信システムの処理手順を示す図である。移動している撮影対象の画像、RFタグの情報を収集し、収集した画像から移動物体を検出特定し、特定した移動物体のRFタグデータと画像をリンクさせ、映像属性付き画像を配信する手順を示している。映像属性自動付与装置で行うS8、S9のステップの詳細処理内容は後述する。
S1:RFタグ情報から属性情報を検出し、画像の編集処理の初期設定を行う。
ア.アダプティブアレーアンテナの制御ステップの刻み値を設定し、過去のデータなどから予め用意した参照表を用いて指向性アンテナ制御の重み係数とアンテナの角度の対応付けを行う。
イ.RFタグデータをその属性値に変換するための変換規則を設定する。
ウ.RFタグへデ−タを書き込む。
エ.移動物体の検出に用いる閾値を設定する。設定する閾値として、移動物体領域の候補抽出に用いる背景分離閾値Tth、移動物体領域決定に用いる移動比較閾値Qthを設定する。
オ.画像処理ローパスフィルタのカットオフ周波数、フィルタのRFタグと移動物体の対応付けに用いる判定量Δx、移動物体を特定するためのフレーム連続条件などの画像処理に必要な条件を設定する。
S2:カメラはRFタグを装着した移動物体の撮影を開始し、撮影画像を映像属性自動付与装置に送信する。リアルタイム配信でない場合は記録媒体へ記憶保持する。
S3:S1で設定したアダプティブアンテナの刻み値を変化させ、アダプティブアンテナの重み係数を変化させてアンテナの方向を制御する。制御方法は前述した通りである。
S4:アンテナの方向のRFタグの有無を判定し、RFタグが在る場合はRFタグリーダ・ライタにRFタグのデータを送る。RFタグが無い場合はS3に戻りアダプティブアンテナの方向制御を続ける。
S5:RFタグリーダ・ライタにRFタグデータを送る。
S6:RFタグリーダ・ライタは受信したRFタグデータをディジタルデータへ変換し、映像属性自動付与装置の属性情報生成部に送信する。
S7:S4でRFタグを検出した時のアンテナ角度(以下RFタグ検出角とする)がカメラ視野角内にあると確認した場合は検出したRFタグは有効であるとし、S8の映像属性自動付与装置での画像処理を行う。RFタグが無効であると判断した場合はS3に戻りアダプティブアンテナの制御を行う。
S8:映像属性自動付与装置は映像属性自動付与部を中心に以下の処理を行う。
ア.RFタグデータからRFタグ装着の移動物体の属性情報に変換する。
イ.各フレーム画像の中で移動している物体の存在有無を検出する。
ウ.移動物体の存在する領域を確定する。
エ.確定した領域内の移動物体を特定する。
オ.画像に特定した移動物体とRF属性をリンクする。
S9:画像に移動物体の属性情報(移動物体識別番号、タグ番号、属性値)をリンクさせた映像属性付与画像を配信先の映像装置に送信する。あるいは記録媒体に記憶保持する。
S10:映像属性付与付画像は映像属性付き画像をリアルタイム配信する。あるいはオフラインで得た記録媒体に記録された映像属性付与付画像を配信する。
図2で述べた処理手順の詳細内容、及び属性情報自動付与装置1の動作について装置の構成ブロックの機能内容と併せて説明する。
1)属性情報生成部
RFタグリーダ・ライタ4から出力されたRFタグデータを予め決められた変換則を適用してディジタルデータを属性値へ変換し属性情報を生成する。図3は本発明におけるRFタグデータの属性値への変換例を示す図である。本方法をマラソン競技に適用したRFへの書き込みデータの例である。RFタグデータの検出処理を迅速に行うためには、書き込みデータは適用システムにとり必要最小限のデータに限定することが望ましい。本例ではRFタグの中には以下のデータを設定する。
ア.RFタグ番号
イ.ランナーのゼッケン番号
ウ.競技日
エ.スタート時刻
オ.RFタグ検出角
これらのデータは数値、文字列データとしてRFタグに格納されている。これらの数値、文字列データをRFタグリーダ・ライタ4で読み取る。各データはその属性と値に変換する。例えば、ページ1の1はRFタグ番号1を示し、ページ2の20050101は属性が競技日で値が2005年1月1日となり、ページ3のデータは属性がスタート時刻であり、値は10時00分00秒となる。
図4は本発明におけるRFタグ検出角の検出を示す図である。図の杓子状の曲線は指向性アンテナ41−1が角度分解野能30度の指向性ビームを持つことを示している。角度分解能30度の指向性アンテナを用いRFタグが領域Qにあることが検出されるとRFタグの検出角は−15度〜15度で与えられる。属性情報は有効なRFタグに対応するディジタルデータからのみ生成する。
RFタグの有効、無効を以下の方法で判定する。図5は本発明におけるカメラ視野角とアンテナ方向との関係を示す図である。現在撮影中のカメラ3の視野角の上下限を各々、θmax、θmin、RFタグに対する読み込み操作を行なったときの指向性アンテナの角度θRがθmax、θminの間にあれば、即ち
FIG. 2 is a diagram showing a processing procedure of the video attribute transmission system of the present invention. Procedures for collecting moving images and RF tag information, detecting and identifying moving objects from the collected images, linking RF tag data and images of the identified moving objects, and delivering images with video attributes Is shown. Detailed processing contents of steps S8 and S9 performed by the video attribute automatic assigning apparatus will be described later.
S1: Attribute information is detected from RF tag information, and initial setting of image editing processing is performed.
A. The step value of the control step of the adaptive array antenna is set, and the weighting factor of the directional antenna control and the angle of the antenna are associated using a reference table prepared in advance from past data or the like.
A. A conversion rule for converting the RF tag data into the attribute value is set.
C. Write data to the RF tag.
D. A threshold value used for detecting a moving object is set. As the thresholds to be set, a background separation threshold Tth used for moving object region candidate extraction and a movement comparison threshold Qth used for moving object region determination are set.
E. Conditions necessary for image processing such as a cutoff frequency of the image processing low-pass filter, a determination amount Δx used for associating the RF tag of the filter with the moving object, and a frame continuation condition for specifying the moving object are set.
S2: The camera starts photographing a moving object with an RF tag, and transmits the photographed image to the video attribute automatic assigning device. If it is not real-time distribution, it is stored and held in a recording medium.
S3: The direction of the antenna is controlled by changing the step value of the adaptive antenna set in S1 and changing the weighting factor of the adaptive antenna. The control method is as described above.
S4: The presence / absence of an RF tag in the direction of the antenna is determined. If an RF tag is present, the RF tag data is sent to the RF tag reader / writer. If there is no RF tag, the process returns to S3 to continue the direction control of the adaptive antenna.
S5: Send RF tag data to the RF tag reader / writer.
S6: The RF tag reader / writer converts the received RF tag data into digital data, and transmits the digital data to the attribute information generation unit of the video attribute automatic assigning device.
S7: If it is confirmed that the antenna angle (hereinafter referred to as RF tag detection angle) when the RF tag is detected in S4 is within the camera viewing angle, the detected RF tag is considered to be valid, and video attribute automatic assignment in S8 Perform image processing on the device. If it is determined that the RF tag is invalid, the process returns to S3 to control the adaptive antenna.
S8: The video attribute automatic assigning apparatus performs the following processing with the video attribute automatic assigning unit as the center.
A. The RF tag data is converted into attribute information of a moving object attached with the RF tag.
I. The presence / absence of a moving object is detected in each frame image.
C. Determine the area where the moving object exists.
D. A moving object in the determined area is specified.
E. The moving object specified in the image and the RF attribute are linked.
S9: A video attribute-assigned image in which attribute information (moving object identification number, tag number, attribute value) of the moving object is linked to the image is transmitted to the video device of the distribution destination. Alternatively, it is stored and held in a recording medium.
S10: An image with video attribute is delivered in real time as an image with video attribute. Alternatively, the image attributed image recorded on the recording medium obtained offline is distributed.
The detailed contents of the processing procedure described in FIG. 2 and the operation of the attribute information automatic assigning
1) Attribute Information Generation Unit Applying a predetermined conversion rule to RF tag data output from the RF tag reader /
A. RF tag number a. Runner number number c. Competition day d. Start time RF tag detection angle These data are stored in the RF tag as numerical values and character string data. These numeric values and character string data are read by the RF tag reader /
FIG. 4 is a diagram showing detection of an RF tag detection angle in the present invention. The lion-shaped curve in the figure indicates that the directional antenna 41-1 has a directional beam with an angle-resolving field of 30 degrees. When it is detected that the RF tag is in the region Q using a directional antenna with an angular resolution of 30 degrees, the detection angle of the RF tag is given as -15 degrees to 15 degrees. The attribute information is generated only from digital data corresponding to a valid RF tag.
Whether the RF tag is valid or invalid is determined by the following method. FIG. 5 is a diagram showing the relationship between the camera viewing angle and the antenna direction in the present invention. Each upper and lower limits of the current viewing angle of the
を満たす時、そのRFタグを有効と判定する。
2)移動物体検出部
移動物体の検出には前述した背景差分法と局所相関法がある。前述したように背景差分法はより短い処理時間で処理可能であるが明るさの変動などのノイズに弱い欠点がある。一方、局所相関法はブロック間同士の相関演算量が多いため、動きの早い物体に追従できない問題がある。本願ではデータ処理規模を大きくすることなく実現するために両方法を組み合わせて用いる。即ち、背景差分法で大まかな移動物体領域を求めた後局所相関法により細かく移動物体領域を決定する手順を用いる。
画像処理のためにサブ区画、サブ区画テンプレート、移動追跡ブロックを定義する。図6は本発明における画像のサブ区画、サブ区画テンプレート、追跡ブロックの関係を示す図である。サブ区画は縦n画素、横n画素の正方形から成る。サブ区画テンプレートはサブ区画の集まりであり物体の存在可能性のある領域であり、図6の斜線を施した部分である。追跡ブロックはサブ区画テンプレートを取り囲むように設定し、サブ区画テンプレートの外側に上下左右m画素の間を設けた領域である。
When the condition is satisfied, the RF tag is determined to be valid.
2) Moving object detection unit The moving object detection includes the background difference method and the local correlation method described above. As described above, the background subtraction method can be processed in a shorter processing time, but has a drawback that it is vulnerable to noise such as brightness fluctuation. On the other hand, the local correlation method has a problem that it cannot follow a fast-moving object because the amount of correlation calculation between blocks is large. In the present application, both methods are used in combination in order to realize without increasing the data processing scale. That is, a procedure is used in which a rough moving object region is obtained by the background subtraction method and then the moving object region is finely determined by the local correlation method.
Define sub-partitions, sub-partition templates, and movement tracking blocks for image processing. FIG. 6 is a diagram showing the relationship between the sub-partition of an image, the sub-partition template, and the tracking block in the present invention. The sub section is composed of a square of vertical n pixels and horizontal n pixels. The sub-partition template is a group of sub-partitions and is an area where an object may exist, and is a hatched part in FIG. The tracking block is an area that is set so as to surround the sub-partition template and is provided between the upper, lower, left, and right m pixels outside the sub-partition template.
背景差分法を用い移動物体が存在する可能性のある領域を求め、次に局所相関法を用い移動物体検出のための有効サブ区画を算出する。図7は本発明における移動物体検出手順を示す図である。撮影画像に移動物体が含まれているか確認の有効サブ区画検出の手順を示している。 An area where a moving object may exist is obtained using the background subtraction method, and then an effective sub-partition for moving object detection is calculated using the local correlation method. FIG. 7 is a diagram showing a moving object detection procedure in the present invention. The procedure of effective sub-section detection for confirming whether a moving object is included in a captured image is shown.
S21:カメラで得た画像を一定周期(サンプリング時間毎)で取り込む。リアルタイム配信の場合はカメラからのリアルタイム画像であるが、オフラインによる記憶媒体からの画像でも良い。取得した現タイミングの画像を2系列に分け、異なるカットオフ周波数のローパスフィルタに通す。 S21: Capture an image obtained by the camera at a constant cycle (every sampling time). In the case of real-time distribution, it is a real-time image from a camera, but an image from a storage medium offline may be used. The acquired current timing image is divided into two series and passed through low-pass filters having different cutoff frequencies.
S22:ローパスフィルタのカットオフ周波数を低く設定した動きの無い現フレームの背景画像を得る。ここで設定したこのカットオフ周波数は移動物体の移動速度に併せて求めることが可能であり、対象とする移動物体に併せて可変に設定できるようにする。背景画像をサブ区画(n×n画素の正方形)に分割する。 S22: A background image of the current frame with no motion is set with the cut-off frequency of the low-pass filter set low. The cut-off frequency set here can be obtained together with the moving speed of the moving object, and can be set variably according to the target moving object. The background image is divided into sub-partitions (n × n pixel squares).
S23:ローパスフィルタのカットオフ周波数をS22のローパスフィルタに対し高く設定し、動きのある物体を残したまま、蛍光灯のちらつきの影響を除いた画像を得る。このカットオフ周波数もS22のカットオフ周波数と同様に対象の移動物体に併せて可変に設定できるようにする。この画像を現サンプリング時点での現画像とする。S22と同様にサブ区画(n×n画素の正方形)に分割する。 S23: The cut-off frequency of the low-pass filter is set higher than that of the low-pass filter of S22, and an image from which the influence of the flickering of the fluorescent lamp is removed is obtained while leaving a moving object. This cut-off frequency can be set variably in accordance with the target moving object, similarly to the cut-off frequency in S22. This image is the current image at the current sampling time. Similarly to S22, the image is divided into sub-partitions (squares of n × n pixels).
S24:現画像(以下現フレーム画像と記載)と背景画像両者の同じ位置のサブ区画(n×n画素の正方形)の1つを取り出す。 S24: One of sub-sections (squares of n × n pixels) at the same position of both the current image (hereinafter referred to as current frame image) and the background image is taken out.
S25:両画像の同位置にあるサブ区画の画素間の差の総和Tを下記計算式で計算する。 S25: The sum T of the differences between the pixels of the sub-partitions at the same position in both images is calculated by the following calculation formula.
ここで、IC(x、y)は現画像における画素位置(x、y)の白黒濃淡値、IB(x、y)は背景画像における画素位置(x、y)の白黒濃淡値、RSUBはサブ区画を表わす。算出値TがTth以上の時は背景画像とは異なることを示しており、動きがある移動サブ区画と判定しS26に進み、それ以外はS24に戻り次のサブ区画を取り出す。 Here, I C (x, y) is the black and white gray value of the pixel position (x, y) in the current image, I B (x, y) is the black and white gray value of the pixel position (x, y) in the background image, and R SUB represents a sub-partition. When the calculated value T is equal to or greater than Tth, it indicates that it is different from the background image, and it is determined that there is a moving sub-section with movement, and the process proceeds to S26, otherwise the process returns to S24 and the next sub-section is extracted.
S26:局所相関法を用い、S25で動きがあると判定した移動サブ区画が前フレーム画像のどのサブ区画から移動してきたかを探し出す。移動サブ区画として注目している現フレーム画像のサブ区画Sp(x、y)が前フレーム画像のどのサブ区画Sq(x’、y’)から移動してきたのかを、相関演算を用いて探索する。サブ区画Sp(x、y)、Sq(x’、y’)との相関値Cを次式によって算出し、予め定めた閾値から移動したか否か判断を行う。 S26: Using the local correlation method, find out from which sub-section of the previous frame image the moving sub-part determined to have moved in S25. Correlation calculation is used to determine which sub-section S q (x ′, y ′) of the previous frame image has moved from the sub-frame S p (x, y) of the current frame image focused as a moving sub-section. Explore. The correlation value C with the sub-partitions S p (x, y) and S q (x ′, y ′) is calculated by the following equation, and it is determined whether or not the movement has moved from a predetermined threshold value.
上式において、Ip(x、y)、Iq(x’、y’)は各サブ区画Sp(x、y)、Sq(x’、y’)内の画素の白黒濃淡値、Rp、Rqはサブ区画領域内であることを示す。 In the above equation, I p (x, y), I q (x ′, y ′) is the black and white gray value of the pixels in each sub-partition S p (x, y), S q (x ′, y ′), R p and R q indicate that they are in the subcompartment region.
前述した非特許文献1のゼロ比較法を用いて判定する。注目しているサブ区画と同位置にある前フレームのサブ区画との相関値C0と走査範囲内の全サブ区画との相関計算から求めた相関値の最小値C1との差Qを以下の式で算出し、移動判定の閾値Qthと比較する。
The determination is made using the zero comparison method of
S27:Qが閾値Qthより大きい場合、注目しているサブ区画Sp(x、y)はSq(x’、y’)から移動したサブ区画と判定し、有効サブ区画とする。
S28:有効サブ区画の前フレーム画像からの移動の速さ、移動方向を算出する。
S27: When Q is larger than the threshold value Qth, the sub-part of interest S p (x, y) is determined as a sub-part moved from S q (x ′, y ′), and is set as an effective sub-part.
S28: The speed and direction of movement from the previous frame image of the effective sub-section are calculated.
前フレーム画像の移動元のサブ区画の左上端点を(xLeftTop1、yLeftTop1)、注目している現フレーム画像のサブ区画の左上端点を(xLeftTop2、yLeftTop2)、サブ区画の移動ベクトルを(xLeftTop2−xLeftTop1、yLeftTop2−yLeftTop1)とすると、移動の速さ、移動の方向は次式となる。 The upper left end point of the sub-partition of the previous frame image is (xLeftTop1, yLeftTop1). If yLeftTop2-yLeftTop1), the speed of movement and the direction of movement are as follows.
S29:全てのサブ区画での確認を終えるまでS24からのS28の処理を戻り繰り返す。一連の処理により、全ての有効サブ区画と各有効サブ区画の前フレームからの移動速さ、移動ベクトルの方向を得る。 S29: The process of S28 from S24 is repeated until the confirmation in all the sub-compartments is completed. Through a series of processing, all effective sub-partitions, movement speeds from the previous frame of each effective sub-partition, and direction of the movement vector are obtained.
3)領域抽出部
図8は本発明における移動物体存在領域抽出手順を示す図である。図7の処理で得た得た有効サブ区画の集合より追跡して移動物体の確認を行うための有効サブ区画テンプレートを生成し、有効サブ区画テンプレートから移動追跡ブロック候補を設定する。
3) Region Extraction Unit FIG. 8 is a diagram showing a moving object presence region extraction procedure in the present invention. An effective sub-partition template for confirming the moving object is generated by tracking from the set of effective sub-partitions obtained by the processing of FIG. 7, and moving tracking block candidates are set from the effective sub-partition template.
S31:有効サブ区画の1つを取り出し、有効サブ区画テンプレートとする。 S31: Take out one of the effective sub-partitions and use it as an effective sub-partition template.
S32、S33:有効サブ区画の次の1つを取り出し両者の移動速さ、移動方向が一致するか比較する。一致する場合はS34に進み、一致しない場合はS35に進む。 S32, S33: Take out the next one of the effective sub-sections and compare whether the moving speed and the moving direction of both match. If they match, the process proceeds to S34, and if they do not match, the process proceeds to S35.
S34:両有効サブ区画を結合し併せてサブ区画テンプレートを生成する。このサブ区画テンプレートを有効サブ区画テンプレートとする。 S34: Combine both effective sub-partitions to generate a sub-partition template. This sub-partition template is set as an effective sub-partition template.
S35:有効サブ区画を別の有効サブ区画テンプレートとして設定する。
S36:全ての有効サブ区画との確認を終えるまで、S32からS35を繰り返す。
S35: The effective sub-partition is set as another effective sub-partition template.
S36: S32 to S35 are repeated until confirmation with all valid sub-partitions is completed.
S37:S34、S35で定義した全ての有効サブ区画テンプレートのサブ区画テンプレートの上下左右端からm画素を加えた領域を併せて移動追跡ブロック候補として設定する。 S37: A region obtained by adding m pixels from the upper, lower, left, and right ends of the sub-partition templates of all the effective sub-partition templates defined in S34 and S35 is set as a movement tracking block candidate.
移動追跡ブロック候補の領域を算出する。S37の有効サブ区画テンプレートの上下左右端を(xsub−min)、(xsub−max)、(ysub−min)、(ysub−max)とする。この上下左右端で囲まれた領域の外側に予め決めた画素値mを与えた領域を(>0)とすると、移動追跡ブロック候補の領域は以下となる。 The area of the movement tracking block candidate is calculated. The top, bottom, left and right ends of the effective sub-partition template in S37 are (xsub - min), (xsub - max), (ysub - min), and (ysub - max). Assuming that an area given a predetermined pixel value m outside the area surrounded by the upper, lower, left, and right ends is (> 0), the area of the movement tracking block candidate is as follows.
また、移動追跡ブロック候補の中心位置(xtrk−cen、ytrk−cen)は以下となる。 Further, the center position (xtrk - cen, ytrk - cen) of the movement tracking block candidate is as follows.
4)移動物体特定部
図8の処理で得た移動追跡ブロック候補の領域から移動物体を特定するための移動物体追跡ブロックを抽出し、移動物体を特定する。移動物体の特定を移動物体の物体の移動ベクトル算出して行う。図9は本発明における移動物体特定手順(その1)を示す図である。
4) Moving object specifying unit A moving object tracking block for specifying a moving object is extracted from the area of the moving tracking block candidate obtained by the processing of FIG. 8, and the moving object is specified. The moving object is specified by calculating the moving vector of the moving object. FIG. 9 is a diagram showing a moving object specifying procedure (part 1) in the present invention.
S41:移動追跡ブロック候補に存在する移動物体の前フレーム画像からの移動ベクトルを算出する。前フレーム画像の移動追跡ブロック中心位置を(xtrk−cen1、ytrk−cen1)、現フレーム画像の移動追跡ブロック候補の中心位置を(xtrk−cen2、ytrk−cen2)とすると、現フレーム画像の移動物体の移動ベクトル(xtrk−cen2 − xtrk−cen1、ytrk−cen2 − ytrk−cen1)の移動の速さvtrk (k)と移動方向ベクトル(dtrk−x、dtrk−y)(k)は以下となる。 S41: The movement vector from the previous frame image of the moving object existing in the movement tracking block candidate is calculated. If the moving tracking block center position of the previous frame image is (xtrk - cen1, ytrk - cen1) and the moving tracking block candidate center position of the current frame image is (xtrk - cen2, ytrk - cen2), the moving object of the current frame image The moving speed v trk (k) and moving direction vector (d trk−x , d trk−y ) (k) of the moving vector (xtrk − cen2−xtrk − cen1, ytrk − cen2−ytrk − cen1) It becomes.
なお、ここで現フレーム画像の移動追跡ブロック候補と前フレーム画像の移動追跡ブロックから現フレーム画像での移動ベクトルを算出したが、現フレーム画像の移動追跡ブロック候補は後述する図9の処理の結果、次フレーム画像の移動追跡ブロックとなるので領域の大きさは同じであり、移動ベクトルを算出できる。 Here, the movement vector in the current frame image is calculated from the movement tracking block candidate of the current frame image and the movement tracking block of the previous frame image, but the movement tracking block candidate of the current frame image is the result of the processing of FIG. 9 described later. Since it becomes a movement tracking block of the next frame image, the size of the area is the same, and the movement vector can be calculated.
S42:現フレーム画像の移動追跡ブロック候補の1つを取り出す。 S42: One of the movement tracking block candidates of the current frame image is extracted.
S43:前フレーム画像の移動追跡ブロックの1つを取り出す。 S43: One of the movement tracking blocks of the previous frame image is taken out.
S44、S45:現フレーム画像の移動ベクトルの算出を行い、前フレーム画像での移動ベクトルでの移動ベクトルから追跡条件を算出する。 S44, S45: The movement vector of the current frame image is calculated, and the tracking condition is calculated from the movement vector of the movement vector in the previous frame image.
追跡条件は以下となる。 The tracking conditions are as follows.
ここでvtrk (k−1)、(dtrk−x、dtrk−y)(k−1)は前フレーム画像の移動ベクトルの移動の速さと移動ベクトルの方向を示している。 Here, v trk (k−1) , (d trk−x , d trk−y ) (k−1) indicate the moving speed of the moving vector of the previous frame image and the direction of the moving vector.
移動追跡ブロック候補と移動追跡ブロックの移動ベクトルの速さの差が一定値以下、内積が一定値以上の場合は両移動追跡ブロックの移動物体が同一の追跡対象と見なす。追跡条件を満たす場合はS46に進み、追跡条件を満たさない場合はS47に進む。
S46、S47:追跡条件としてフレーム連続条件を設定した場合の連続数の設定と確認を行う。フレーム連続数をFRとし、FRに1を加える。フレーム連続条件を満たす場合はS48に進み、満たさない場合はS49に進む。
S48:移動追跡ブロック候補の領域に移動物体が存在すると認識し、移動追跡ブロック候補を現フレーム画像の移動追跡ブロックに置き換え保持する。S50に進む。
S49:追跡条件を満たさないことは、現フレーム画像で新規に現れた別の移動物体とみなし、移動追跡ブロック候補を新規の移動追跡ブロックとして保持する。追跡条件FR=1を設定し、S50に進む。
When the speed difference between the moving tracking block candidate and the moving tracking block is less than a certain value and the inner product is more than a certain value, the moving objects of both moving tracking blocks are regarded as the same tracking target. If the tracking condition is satisfied, the process proceeds to S46, and if the tracking condition is not satisfied, the process proceeds to S47.
S46, S47: Set and confirm the number of continuations when the frame continuation condition is set as the tracking condition. Let FR be the number of consecutive frames, and add 1 to FR. If the frame continuity condition is satisfied, the process proceeds to S48, and otherwise, the process proceeds to S49.
S48: Recognizing that a moving object exists in the area of the moving tracking block candidate, replace the moving tracking block candidate with the moving tracking block of the current frame image and hold it. Proceed to S50.
S49: Not satisfying the tracking condition is regarded as another moving object newly appearing in the current frame image, and the moving tracking block candidate is held as a new moving tracking block. The tracking condition FR = 1 is set, and the process proceeds to S50.
S50:前フレームの全ての移動追跡ブロックの確認を終えるまで、S43からS49の処理を繰り返す。この一連の処理により取得した現フレーム画像で認識した移動物体が存在する全ての移動追跡ブロックを得る。各移動追跡ブロックの移動物体はそれぞれ異なる移動物体である。実施例2以下で説明する分離前の移動物体は同一の移動追跡ブロックとみなされる。 S50: The processes from S43 to S49 are repeated until the confirmation of all the movement tracking blocks in the previous frame is completed. All the movement tracking blocks in which the moving object recognized by the current frame image acquired by this series of processes exists are obtained. The moving objects of each moving tracking block are different moving objects. Second Embodiment Moving objects before separation described below are regarded as the same moving tracking block.
2)の移動物体検出部で抽出した移動追跡ブロックの移動物体と、RFタグ情報との対応付けを行う。 The moving object of the movement tracking block extracted by the moving object detection unit in 2) is associated with the RF tag information.
図10は本発明における移動物体特定手順(その2)を示す図である。移動物体が存在する領域から移動物体を特定する手順を示している。 FIG. 10 is a diagram showing a moving object specifying procedure (part 2) in the present invention. A procedure for identifying a moving object from an area where the moving object exists is shown.
S51:移動追跡ブロックの1つを取り出す。
S52:移動物体の中心位置を算出し、算出した中心位置から移動物体の方位角βを算出する。
S51: Take out one of the movement tracking blocks.
S52: The center position of the moving object is calculated, and the azimuth angle β of the moving object is calculated from the calculated center position.
図11は本発明における被写体、カメラ、画像の俯瞰図である。移動物体とカメラの検出角度の関係を示している。移動物体である被写体は領域Qに位置し、RFタグの検出角度は領域Pと領域Qの境界線を基準としてθRであり、カメラの視野角は2αであること示している。 FIG. 11 is an overhead view of a subject, a camera, and an image according to the present invention. The relationship between a moving object and the detection angle of a camera is shown. Subject is a moving object is located in the region Q, the detection angle of the RF tag is theta R relative to the boundary of region P and the region Q, shows that the viewing angle of the camera is 2.alpha.
中心位置の算出は移動物体の画像から切り出して行う。図12は本発明における移動物体画像の切り出し範囲を説明する図である。カメラの視野に入る画像及び移動追跡ブロックから移動物体の存在するサブ区画テンプレートに外接する矩形範囲とする。図12の場合、移動物体の存在範囲する斜線部分に白抜き部分を追加した範囲である。 The calculation of the center position is performed by cutting out the moving object image. FIG. 12 is a diagram for explaining the cutout range of the moving object image in the present invention. A rectangular area circumscribing a sub-partition template in which a moving object exists from an image that enters the field of view of the camera and a moving tracking block is used. In the case of FIG. 12, this is a range in which a white portion is added to the shaded portion where the moving object exists.
左上をBhleftTop(xLefttop、yLeftTop)、右下をBhrRightBottom(xRightBottom、yRightBottom)とすると、下記式で囲まれた領域となる。 If the upper left is BhleftTop (xLefttop, yLeftTop) and the lower right is BhrRightBottom (xRightBottom, yRightBottom), the region is enclosed by the following formula.
但し、min(BhLeftTop)、max(BhRightBottom)はそれぞれ、最小値、最大値を取り出す関数である。中心位置を(xtrk−cen、ytrk−cen)とすると、中心位置はサブ区画の座標より矩形の中心として算出できる。算出方法は2)の移動ベクトルの移動追跡ブロックの方法と同一であるので省略する。 However, min ( BhLeftTop ) and max ( BhRightBottom ) are functions for extracting the minimum value and the maximum value, respectively. If the center position is (x trk- cen, y trk- cen), the center position can be calculated as the center of the rectangle from the coordinates of the sub-partitions. Since the calculation method is the same as the movement tracking block method of the movement vector in 2), the description is omitted.
次ぎに移動物体の方位角の算出を行う。図13は本発明における移動物体の方位角算出を示す図である。図13において、カメラはx軸の正方向を向いているものとする。カメラの視野角は2αである。画面の画素値を左端が0、右端がXsizeとして中心位置(xtrk−cen)との関係から検出した移動物体の方位角βを以下の式で算出する。 Next, the azimuth angle of the moving object is calculated. FIG. 13 is a diagram showing calculation of the azimuth angle of a moving object in the present invention. In FIG. 13, it is assumed that the camera is facing the positive direction of the x-axis. The viewing angle of the camera is 2α. The azimuth angle β of the moving object detected from the relationship with the center position (x trk-cen ) is calculated by the following equation, with the pixel value of the screen being 0 at the left end and X size at the right end.
ここでは水平方向においてRFタグと移動物体とを対応付けているが、垂直方向でも同様の方法で対応関係を求めることができる。説明は省略する。
S53、S54:RFタグ検出角θRを変化させた時、方位角βがθRに一致するか確認する。一致する場合はS55に進み、一致しない場合はS57に進む。
S55:移動物体のRFタグ情報から移動物体を特定する。
Here, the RF tag and the moving object are associated with each other in the horizontal direction, but the correspondence can be obtained in the same manner in the vertical direction. Description is omitted.
S53, S54: when changing the RF tag detection angle theta R, checks whether the azimuth angle β is equal to theta R. If they match, the process proceeds to S55, and if they do not match, the process proceeds to S57.
S55: The moving object is specified from the RF tag information of the moving object.
図14は本発明における移動物体とRFタグの関連付けを示す図である。図14は図10を上方から見た図である。 FIG. 14 is a diagram showing association between a moving object and an RF tag in the present invention. FIG. 14 is a view of FIG. 10 as viewed from above.
移動物体の特定方法を述べる。カメラ視野の領域Pと領域Qとの境界を0度、カメラ視野角は2αとする。また、説明を簡単にするためアンテナの角度分解能もαとし、指向角の境界(図の領域Pと領域Qの境界)はカメラ視野の左端方向に一致しているものとする。移動物体が時刻tにおいて領域Pから領域Qへ進んだとき、指向性アンテナで検出したRFタグの検出角θRは、θR=−α〜0(領域P) からθR=0〜α(領域Q)へ切り換わる。同時に移動物体はカメラ視野に出現し、領域抽出及び移動物体特定部で求めた中心位置(xtrk−cen)を用いると、移動物体の方位角βが算出される。このように、時刻tにおいて、RFタグの検出角θRが領域Pの方向から領域Qの方向へ変化し、同時にカメラ視野に捉えられた移動物体の方位角βがほぼ0度であった場合にそのRFタグが検出した移動物体に装着されていると見做す。一旦、RFタグが移動物体に装着されていると判定した後は、その移動物体を画像処理で追跡している間そのRFタグに対応付ける。
これにより現フレーム画像の移動物体が特定でき、特定した移動物体のRFタグ情報を属性情報付与部へ送る。
5)属性情報付与部
移動物体のRFタグ情報を画像に対応付ける。処理手順を先に述べ、関連付け方法は後述する。
S56:抽出した移動物体のRFタグデータの属性値を画像に対応付け、S57に進む。
S57:全ての移動追跡ブロックで確認終えるまでS51に戻り、次の移動追跡ブロック
を取り出し、S52からS56の処理を繰り返す。
A method for identifying a moving object is described. The boundary between the camera viewing area P and area Q is 0 degree, and the camera viewing angle is 2α. For simplicity of explanation, it is assumed that the angular resolution of the antenna is also α, and the boundary of the directivity angle (the boundary between the region P and the region Q in the figure) coincides with the left end direction of the camera field of view. When the moving object has progressed from the area P at time t to the region Q, the detection angle theta R of the RF tag detected by the directional antenna, theta from θ R = -α~0 (region P) R = 0~α ( Switch to area Q). At the same time, the moving object appears in the camera field of view, and the azimuth angle β of the moving object is calculated using the center position (x trk-cen ) obtained by the region extraction and moving object specifying unit. Thus, at time t, if the detection angle theta R of the RF tag is changed from the direction of a region P in the direction of the region Q, were azimuth β substantially 0 degrees of the moving object captured in the camera field of view at the same time It is assumed that the RF tag is attached to the detected moving object. Once it is determined that the RF tag is attached to the moving object, the moving object is associated with the RF tag while being tracked by image processing.
Thereby, the moving object of the current frame image can be specified, and the RF tag information of the specified moving object is sent to the attribute information adding unit.
5) Attribute information adding unit The RF tag information of the moving object is associated with the image. The processing procedure is described first, and the association method will be described later.
S56: The attribute value of the extracted RF tag data of the moving object is associated with the image, and the process proceeds to S57.
S57: The process returns to S51 until confirmation is completed for all the movement tracking blocks, the next movement tracking block is taken out, and the processing from S52 to S56 is repeated.
図7、8、9、10で示す一連の処理により現フレーム画像に移動物体が存在する領域を検出し、移動物体を特定し、移動物体のRFタグ情報を抽出し、また継続して移動物体を追跡できる。
図15は本発明における画像と属性情報の関連付けを示す図である。通常カメラからは、適当なサンプリング周期(例えば33ms)で、1フレーム分の画像データが出力される。フレームの番号と領域抽出処理部13から出力される移動物体の識別番号とを対応付ける。
フレーム番号、画像データ、移動追跡ブロック番号の項目がある。画像データにはフレーム番号での撮影画像、移動追跡ブロック番号には追跡する移動物体の番号と認識したタグ番号を記載する。
図15のフレーム番号1、2では移動物体は何も検出できていない状況を示している。フレーム番号3に至り移動追跡ブロック番号1、3で移動物体が検出され、移動追跡ブロック番号1ではRFタグ1が認識できたことを示している。移動追跡ブロック番号1では領域抽出及び角度検出部13から移動物体の移動物体番号1とタグ1を得る。移動追跡番号3では移動物体は検出できたが、タグ番号は認識できていない事を示している。フレーム番号5で移動追跡ブロック番号2ではタグ5が認識でき、フレーム番号8で移動追跡ブロック番号3においてもタグ8が認識できている。
属性情報付与部15において、属性属性生成部11からのRFタグの属性情報と画像の対応付けを行う。画像フレーム番号にRFタグの属性情報をリンクした映像属性付与付き画像を生成し、信号出力I/F30を介して属性付き映像をネットワーク5を介して映像装置に送信する。尚、画像の出力先として、テレビモニタインターネットを利用したストリーミング中継、DVD、ビデオ、CD−ROMのような記録媒体が考えられる。 これらの処理は図2のS9、S10で述べた。
The region where the moving object exists in the current frame image is detected by the series of processes shown in FIGS. 7, 8, 9, and 10, the moving object is identified, the RF tag information of the moving object is extracted, and the moving object is continuously detected. Can be tracked.
FIG. 15 is a diagram showing an association between an image and attribute information in the present invention. The normal camera outputs image data for one frame at an appropriate sampling period (for example, 33 ms). The number of the frame is associated with the identification number of the moving object output from the region
There are items of frame number, image data, and movement tracking block number. In the image data, a captured image with a frame number is described, and in the movement tracking block number, the number of the moving object to be tracked and the recognized tag number are described.
In
The attribute
なお、ここでは水平方向においてRFタグと移動物体とを対応付けているが、垂直方向でも同様の方法で対応関係を求めることができる。説明は省略する。
(実施例2)
複数の移動物体がカメラ視野に同時に出現した場合の識別方法について説明する。図16は本発明における複数の移動物体が同時にカメラ視野に出現した場合の分離処理を示す図である。
Here, the RF tag and the moving object are associated with each other in the horizontal direction, but the correspondence can be obtained in the same manner in the vertical direction. Description is omitted.
(Example 2)
An identification method when a plurality of moving objects appear simultaneously in the camera field of view will be described. FIG. 16 is a diagram showing a separation process when a plurality of moving objects appear simultaneously in the camera field of view according to the present invention.
カメラ視野に移動物体Aと移動物体Bの複数が同時に出現した場合における両者の分離処理を示している。指向性アンテナで検出したRFタグA、RFタグBの検出角の変化タイミングが一致するため、両者を識別することができない。t1時間から経過した時刻t2の時点で、一方の移動物体Aが領域Qと領域Rの境界に達しもう一方の移動物体Bは領域Qにある場合を考える。このとき、移動物体AのRFタグAを指向性アンテナで検出した検出角θRAは、
θRA=0〜α(領域Q) からθRA=α〜2α(領域R)へ切り換わる。一方、移動物体BのRFタグBの検出角θRBはθRB=0〜α(領域Q)である。したがって、移動物体特定部14で算出した移動物体A、Bの方位角βA、βBとの比較することで、移動物体領域とRFタグとを関連付けることができる。
A separation process is shown when a plurality of moving objects A and B appear simultaneously in the camera field of view. Since the change timings of the detection angles of the RF tag A and RF tag B detected by the directional antenna match, both cannot be identified. Consider a case where one moving object A reaches the boundary between the region Q and the region R and the other moving object B is in the region Q at the time t2 after the time t1. At this time, the detection angle θ RA detected by the directional antenna of the RF tag A of the moving object A is
θ RA = switched to 0~α (region Q) from θ RA = α~2α (area R). On the other hand, the detection angle θ RB of the RF tag B of the moving object B is θ RB = 0 to α (region Q). Therefore, the moving object region and the RF tag can be associated by comparing with the azimuth angles βA and βB of the moving objects A and B calculated by the moving
これにより時刻t1から時刻t2までの間不明であった移動物体Aと移動物体Bの属性情報を時間を遡って付与することができる。
図17は本発明における移動物体と属性情報の対応付けの更新を示す図である。例えば図17の1)の時刻t1<t<t2ではフレーム番号3から6の間は移動追跡ブロック番号iで検出した移動物体は移動物体Aと移動物体Bを合体した移動物体であり、両者の分離はできていない。フレーム番号3から6の間は移動追跡ブロック番号iに共通に移動物体iとして存在する。このため、時刻t1<t<t2間ではRFタグ情報は付与できない。
時刻t2になり移動物体Aと移動物体Bの分離ができ、RFタグの属性情報と対応付け付けが行うことができる。このため2)に示すようにフレーム番号3に遡り移動追跡ブロック番号iに検出した移動物体AのRFタグ番号のタグ3を付与し、移動物体Bは新規の移動追跡ブロック番号mを割り当て移動物体BのRFタグ番号のタグ10を付与する。
上記の方法を用いることで、複数の移動物体が同時にカメラ視野に出現し両者を識別できない場合でも時間の経過に伴い移動物体を分離検出した時点で時間を遡り移動物体にRFタグをリンクさせ属性情報を自動的に付与することができる。
(実施例3)
撮影開始時点から同一の指向角の領域に複数の移動物体が存在する場合の識別方法について説明する。この場合、指向性アンテナで検出したRFタグ1、RFタグ2の方位角は同じ値になるため両者を識別することができない。こうした場合の両者の識別方法について説明する。
図18は本発明における指向性ビームの回転による移動物体の分離識別を示す図である。
指向性アンテナのビームを回転させ、指向角の境界を複数の移動物体の中間に配置することにより両者を分別することができる。アンテナビームの回転角Δθは、次のようにして求められる。
As a result, the attribute information of the moving object A and the moving object B that were unknown from time t1 to time t2 can be given retroactively.
FIG. 17 is a diagram showing an update of association between a moving object and attribute information in the present invention. For example, at time t1 <t <t2 of 1) in FIG. 17, the moving object detected by the moving tracking block number i is a moving object that combines moving object A and moving object B between
At time t2, the moving object A and the moving object B can be separated, and can be associated with the attribute information of the RF tag. Therefore, as shown in 2), the
By using the above method, even if multiple moving objects appear in the camera field of view at the same time and they cannot be identified, the moving object is separated and detected with the passage of time, and the RF tag is linked to the moving object. Information can be given automatically.
(Example 3)
An identification method in the case where a plurality of moving objects are present in the region having the same directivity angle from the imaging start time will be described. In this case, since the azimuth angles of the
FIG. 18 is a diagram showing separation and identification of a moving object by rotation of a directional beam in the present invention.
By rotating the beam of the directional antenna and arranging the boundary of the directivity angle in the middle of a plurality of moving objects, the two can be separated. The rotation angle Δθ of the antenna beam is obtained as follows.
アンテナビームが回転し、図18(2)の配置になると、指向性アンテナで検出する移動物体の方位角は、カメラ視野の左端を基準として When the antenna beam rotates and becomes the arrangement shown in FIG. 18 (2), the azimuth angle of the moving object detected by the directional antenna is based on the left end of the camera field of view.
となる。このとき、角度検出部で算出した移動物体A、移動物体Bの方位角βA、βBは、 It becomes. At this time, the azimuth angles βA and βB of the moving object A and the moving object B calculated by the angle detection unit are
を満たすことから、移動物体とRFタグとを関連付けることができる。 Therefore, the moving object and the RF tag can be associated with each other.
これにより角度分解能が低い指向性アンテナを用いた場合でも移動物体にRFタグを対応付けた属性情報を自動的に付与することができる。
(実施例4)
複数の指向性アンテナを用いて角度分解能を高くする方法について説明する。図19は本発明における複数指向性アンテナによる角度分解能の向上を示す図である。模式的に表しており図19(1)はビームのふくらみがRFタグを検出可能な角度の分解能に対応しており、本図では2αとする。図19(2)は図19(1)の指向性アンテナを2個用いて角度分解能を高めた場合を模式的に表している。指向性アンテナは指向性ビームが互いに他の指向性アンテナのビームの境界部に位置するように配置する。これにより、RFタグが図の位置にあるとき、指向性アンテナ1ではRFタグを領域Pで検出し、指向性アンテナ2でRFタグを領域P’で検出する。これにより条件を同時に満足するRFタグの検出角は斜線部方向になることから角度分解能が1/2のαに向上する。
(付記1)
RFタグを装着し移動している物体を連続して撮影した画像から検出した移動物体と無線アンテナで受信した前記RFタグの情報を対応つけた属性を前記画像に自動付与する映像属性自動付与装置であって、
前記映像属性自動付与装置は
前記撮影した画像を受信する手段と、
前記アンテナから前記RFタグの情報を受信する手段と、
前記受信したRFタグ情報から前記RFタグ装着の移動物体の属性を生成する属性情報生成手段と、
前記受信した画像を構成する画素を所定数集めた格子状の区画の動きのある区画を検出する移動物体検出手段と、
前記動きを検出した現フレーム画像の区画の前フレーム画像の区画からの動きの速さと動きの方向から移動物体が存在する可能性がある区画を抽出し、動きが同一で隣接している前記区画を結合した領域を抽出する領域抽出手段と
前記抽出した領域の中心位置を算出し、前記中心位置の前フレーム画像からの移動ベクトルを算出して移動物体を認識し前記抽出した領域の移動物体に装着されている前記RFタグを抽出確認し移動物体を特定する移動物体特定手段と、
前記画像に前記特定した移動物体の前記RFタグの属性を自動付与する属性情報付与手段と、
を備えたことを特徴とする映像属性自動付与装置。
Thereby, even when a directional antenna having a low angular resolution is used, attribute information in which an RF tag is associated with a moving object can be automatically given.
Example 4
A method for increasing the angular resolution using a plurality of directional antennas will be described. FIG. 19 is a diagram showing the improvement of the angular resolution by the multi-directional antenna in the present invention. FIG. 19A schematically shows that the beam bulge corresponds to the resolution of the angle at which the RF tag can be detected, and is 2α in this figure. FIG. 19 (2) schematically shows a case where the angular resolution is increased by using two directional antennas of FIG. 19 (1). The directional antennas are arranged so that the directional beams are located at the boundary between the beams of the other directional antennas. Thus, when the RF tag is at the position shown in the figure, the
(Appendix 1)
Video attribute automatic assigning device for automatically assigning to the image an attribute that associates the information of the RF tag received by a wireless object and a moving object detected from an image obtained by continuously capturing an object moving with an RF tag Because
The video attribute automatic assigning device includes means for receiving the captured image;
Means for receiving information of the RF tag from the antenna;
Attribute information generating means for generating an attribute of the moving object attached to the RF tag from the received RF tag information;
A moving object detecting means for detecting a moving section of a grid-like section in which a predetermined number of pixels constituting the received image are collected;
The section in which the moving object may be present is extracted from the speed and direction of the motion from the section of the previous frame image of the section of the current frame image in which the motion is detected, and the section having the same motion and adjacent thereto A region extracting means for extracting a region obtained by combining the regions, calculating a center position of the extracted region, calculating a movement vector from the previous frame image of the center position, recognizing a moving object, and determining a moving object of the extracted region Moving object specifying means for extracting and confirming the mounted RF tag and specifying a moving object;
Attribute information giving means for automatically giving the RF tag attribute of the identified moving object to the image;
An apparatus for automatically assigning video attributes, comprising:
(付記2)
付記1記載の映像属性自動付与装置において、
前記RFタグの情報を前記属性情報生成手段からの情報に基づき指向性アンテナの指向性ビームを制御して前記RFタグからの情報を受信するRFタグ受信無線アンテナを備えたRFタグリーダ・ライタをさらに備えたことを特徴とする付記1記載の映像属性自動付与装置。
(Appendix 2)
In the video attribute automatic assigning device according to
An RF tag reader / writer further comprising an RF tag receiving radio antenna that receives information from the RF tag by controlling the directional beam of the directional antenna based on the information from the attribute information generation unit based on the information from the RF tag. The apparatus for automatically assigning video attributes according to
(付記3)
付記2記載の映像属性自動付与装置において、
前記移動物体特定手段で抽出した移動物体が複数で前記RFタグを確認できない場合、前記領域抽出手段で抽出した領域の中心付近に位置するよう前記指向性ビームを制御して前記RFタグからの情報を受信して前記複数の移動物体を分離して前記移動物体を確認し特定する手段をさらに備えたことを特徴とする付記2記載の映像属性自動付与装置。
(Appendix 3)
In the video attribute automatic assigning device described in
When there are a plurality of moving objects extracted by the moving object specifying means and the RF tag cannot be confirmed, information from the RF tag is controlled by controlling the directional beam so as to be positioned near the center of the area extracted by the area extracting means. The video attribute automatic assigning device according to
(付記4)
付記3記載の映像属性自動付与装置において、
前記複数の移動物体を分離して特定した移動物体を分離する前の時点に遡り前記画像に前記分離して特定した移動物体と前記RFタグの属性を自動付与する手段をさらに備えたことを特徴とする付記3記載の映像属性自動付与装置。
(Appendix 4)
In the video attribute automatic assigning device according to
The apparatus further comprises means for automatically assigning the separated moving object and the attribute of the RF tag to the image going back to a time before separating the moving object identified by separating the plurality of moving objects. The video attribute automatic assigning device according to
(付記5)
コンピュータによってRFタグを装着し移動している物体を連続して撮影した画像に存在する移動物体と前記RFタグの情報を対応つけた属性を前記画像に付与するためのプログラムであって、
前記プログラムは
前記RFタグ情報から前記RFタグ装着の移動物体の属性を生成させ、
前記画像を構成する画素を所定数集めた格子状の区画の動きのある区画を検出させ、、
前記動きを検出した現フレーム画像の区画の前フレーム画像の区画からの動きの速さと動きの方向から移動物体が存在する可能性がある区画を抽出させ、
動きが同一で隣接している前記区画を結合した領域を抽出させ、
前記抽出した領域の中心位置を算出させ、
前記中心位置の前フレーム画像からの移動ベクトルを算出させて移動物体を認識させ、前記抽出した領域の移動物体に装着されている前記RFタグを抽出確認し移動物体を特定させ、
前記画像に前記特定した移動物体の前記RFタグの属性を自動付与する属性情報付与することを特徴とする映像属性自動付与プログラム。
(Appendix 5)
A program for assigning to the image an attribute that associates information of the RF tag with a moving object that is present in an image obtained by continuously capturing an object that is attached and moving with an RF tag by a computer,
The program generates an attribute of the moving object attached to the RF tag from the RF tag information,
Detecting a moving section of a grid-like section in which a predetermined number of pixels constituting the image are collected;
Extracting a section where a moving object may exist from the speed and direction of movement from the section of the previous frame image of the section of the current frame image in which the motion is detected;
Let us extract a region that combines the adjacent sections with the same movement,
Calculating the center position of the extracted region;
Recognizing a moving object by calculating a movement vector from the previous frame image of the center position, extracting and confirming the RF tag attached to the moving object in the extracted region,
A video attribute automatic assigning program, wherein attribute information for automatically assigning an attribute of the RF tag of the identified moving object is added to the image.
(付記6)
付記2記載の映像属性付字自動与装置であって、
前記RFタグ受信無線アンテナ手段の前記RFタグ受信手段の無線アンテナを複数の無線アンテナで構成し、前記複数の無線アンテナの1つの指向性ビームが他の1つの無線アンテナの指向性ビームの境界に一致するよう制御して前記RFタグの情報を受信する手段を備えたことを特徴とする付記2記載の映像属性自動付与装置。
(付記7)
RFタグを装着し移動している物体を連続して撮影した画像から検出した移動物体と前記RFタグの情報を対応つけた映像属性を前記画像に付与する映像属性付与方法であって、
前記受信したRFタグ情報から前記RFタグ装着の移動物体の属性を生成し、
前記RFタグ情報から前記RFタグ装着の移動物体の属性を生成し、
前記画像を構成する画素を所定数集めた格子状の区画の動きのある区画を検出し、
前記動きを検出した現フレーム画像の区画の前フレーム画像の区画からの動きの速さと動きの方向から移動物体が存在する可能性がある区画を抽出し、
動きが同一で隣接している前記区画を結合した領域を抽出し、
前記抽出した領域の中心位置を算出し、
前記中心位置の前フレーム画像からの移動ベクトルを算出させて移動物体を認識させ、前記抽出した領域の移動物体に装着されている前記RFタグを抽出確認し移動物体を特定し、
前記画像に前記特定した移動物体の前記RFタグの属性を自動付与することを特徴とする映像属性自動付与方法。
(Appendix 6)
An apparatus for automatically adding subscripts for video attributes according to
A radio antenna of the RF tag receiving means of the RF tag receiving radio antenna means is composed of a plurality of radio antennas, and one directional beam of the plurality of radio antennas is at the boundary of the directional beam of the other radio antenna. The video attribute automatic assigning device according to
(Appendix 7)
A video attribute imparting method for imparting to the image a video attribute in which a moving object detected from an image obtained by continuously capturing an object moving with an RF tag and information on the RF tag is associated with the image,
Generating an attribute of the moving object attached to the RF tag from the received RF tag information;
Generating an attribute of the moving object attached to the RF tag from the RF tag information;
Detecting a moving section of a grid-like section in which a predetermined number of pixels constituting the image are collected;
Extracting a section where a moving object may exist from the speed and direction of movement from the section of the previous frame image of the section of the current frame image in which the motion is detected;
Extract the region that combines the adjacent sections with the same movement,
Calculating the center position of the extracted region;
Recognizing a moving object by calculating a movement vector from the previous frame image of the center position, extracting and confirming the RF tag attached to the moving object in the extracted region,
A method of automatically assigning video attributes, wherein the attribute of the RF tag of the identified moving object is automatically assigned to the image.
1 映像属性自動付与装置
2 撮影対象
3 カメラ
4 RFタグリーダ・ライタ
5 ネットワーク
6 記録媒体
7 映像装置
10 属性情報自動付与部
11 属性情報生成部
12 移動物体検出部
13 領域抽出処理部
14 移動物体特定部
15 属性情報付与部
16 メモリ
20 信号入力I/F部
21 RFタグ
30 信号出力I/F部
41 アンテナ
41−1 指向性アンテナ
42 A/D
43 I/F
DESCRIPTION OF
21
41 antenna 41-1 directional antenna 42 A / D
43 I / F
Claims (5)
前記映像属性自動付与装置は
前記撮影した画像を受信する手段と、
前記アンテナから前記RFタグの情報を受信する手段と、
前記受信したRFタグ情報から前記RFタグ装着の移動物体の属性を生成する属性情報生成手段と、
前記受信した画像を構成する画素を所定数集めた格子状の区画の動きのある区画を検出する移動物体検出手段と、
前記動きを検出した現フレーム画像の区画の前フレーム画像の区画からの動きの速さと動きの方向から移動物体が存在する可能性がある区画を抽出し、動きが同一で隣接している前記区画を結合した領域を抽出する領域抽出手段と
前記抽出した領域の中心位置を算出し、前記中心位置の前フレーム画像からの移動ベクトルを算出して移動物体を認識し前記抽出した領域の移動物体に装着されている前記RFタグを抽出確認し移動物体を特定する移動物体特定手段と、
前記画像に前記特定した移動物体の前記RFタグの属性を自動付与する属性情報付与手段と、
を備えたことを特徴とする映像属性自動付与装置。 Video attribute automatic assigning device for automatically assigning to the image an attribute that associates the information of the RF tag received by a wireless object and a moving object detected from an image obtained by continuously capturing an object moving with an RF tag Because
The video attribute automatic assigning device includes means for receiving the captured image;
Means for receiving information of the RF tag from the antenna;
Attribute information generating means for generating an attribute of the moving object attached to the RF tag from the received RF tag information;
A moving object detecting means for detecting a moving section of a grid-like section in which a predetermined number of pixels constituting the received image are collected;
The section in which the moving object may be present is extracted from the speed and direction of the motion from the section of the previous frame image of the section of the current frame image in which the motion is detected, and the section having the same motion and adjacent thereto A region extracting means for extracting a region obtained by combining the regions, calculating a center position of the extracted region, calculating a movement vector from the previous frame image of the center position, recognizing a moving object, and determining a moving object of the extracted region Moving object specifying means for extracting and confirming the mounted RF tag and specifying a moving object;
Attribute information giving means for automatically giving the RF tag attribute of the identified moving object to the image;
An apparatus for automatically assigning video attributes, comprising:
前記RFタグの情報を前記属性情報生成手段からの情報に基づき指向性アンテナの指向性ビームを制御して前記RFタグからの情報を受信するRFタグ受信無線アンテナを備えたRFタグリーダ・ライタをさらに備えたことを特徴とする請求項1記載の映像属性自動付与装置。 In the video attribute automatic grant device according to claim 1,
An RF tag reader / writer further comprising an RF tag receiving radio antenna that receives information from the RF tag by controlling the directional beam of the directional antenna based on the information from the attribute information generation unit based on the information from the RF tag. The video attribute automatic assigning device according to claim 1, further comprising:
前記移動物体特定手段で抽出した移動物体が複数で前記RFタグを確認できない場合、前記領域抽出手段で抽出した領域の中心付近に位置するよう前記指向性ビームを制御して前記RFタグからの情報を受信して前記複数の移動物体を分離して前記移動物体を確認し特定する手段をさらに備えたことを特徴とする請求項2記載の映像属性自動付与装置。 The device for automatically assigning video attributes according to claim 2,
When there are a plurality of moving objects extracted by the moving object specifying means and the RF tag cannot be confirmed, information from the RF tag is controlled by controlling the directional beam so as to be positioned near the center of the area extracted by the area extracting means. 3. The apparatus for automatically assigning video attributes according to claim 2, further comprising means for receiving and receiving and identifying the plurality of moving objects to identify and identify the moving objects.
前記複数の移動物体を分離して特定した移動物体を分離する前の時点に遡り前記画像に前記分離して特定した移動物体と前記RFタグの属性を自動付与する手段をさらに備えたことを特徴とする請求項3記載の映像属性自動付与装置。 In the video attribute automatic grant device according to claim 3,
The apparatus further comprises means for automatically assigning the separated moving object and the attribute of the RF tag to the image going back to a time before separating the moving object identified by separating the plurality of moving objects. The video attribute automatic assigning device according to claim 3.
前記プログラムは
前記RFタグ情報から前記RFタグ装着の移動物体の属性を生成させ、
前記画像を構成する画素を所定数集めた格子状の区画の動きのある区画を検出させ、、
前記動きを検出した現フレーム画像の区画の前フレーム画像の区画からの動きの速さと動きの方向から移動物体が存在する可能性がある区画を抽出させ、
動きが同一で隣接している前記区画を結合した領域を抽出させ、
前記抽出した領域の中心位置を算出させ、
前記中心位置の前フレーム画像からの移動ベクトルを算出させて移動物体を認識させ、前記抽出した領域の移動物体に装着されている前記RFタグを抽出確認し移動物体を特定させ、
前記画像に前記特定した移動物体の前記RFタグの属性を自動付与する属性情報付与することを特徴とする映像属性自動付与プログラム。
A program for assigning to the image an attribute that associates information of the RF tag with a moving object that is present in an image obtained by continuously capturing an object that is attached and moving with an RF tag by a computer,
The program generates an attribute of the moving object attached to the RF tag from the RF tag information,
Detecting a moving section of a grid-like section in which a predetermined number of pixels constituting the image are collected;
Extracting a section where a moving object may exist from the speed and direction of movement from the section of the previous frame image of the section of the current frame image in which the motion is detected;
Let us extract a region that combines the adjacent sections with the same movement,
Calculating the center position of the extracted region;
Recognizing a moving object by calculating a movement vector from the previous frame image of the center position, extracting and confirming the RF tag attached to the moving object in the extracted region,
A video attribute automatic assigning program, wherein attribute information for automatically assigning an attribute of the RF tag of the identified moving object is added to the image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006046026A JP4622883B2 (en) | 2006-02-22 | 2006-02-22 | Video attribute automatic assigning device, video attribute automatic assigning program, and video attribute automatic assigning method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006046026A JP4622883B2 (en) | 2006-02-22 | 2006-02-22 | Video attribute automatic assigning device, video attribute automatic assigning program, and video attribute automatic assigning method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007228195A true JP2007228195A (en) | 2007-09-06 |
JP4622883B2 JP4622883B2 (en) | 2011-02-02 |
Family
ID=38549566
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006046026A Expired - Fee Related JP4622883B2 (en) | 2006-02-22 | 2006-02-22 | Video attribute automatic assigning device, video attribute automatic assigning program, and video attribute automatic assigning method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4622883B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007292488A (en) * | 2006-04-21 | 2007-11-08 | Hitachi Ltd | Visual inspection device and inspection method of printed wiring board using the same |
JP2012230595A (en) * | 2011-04-27 | 2012-11-22 | Secom Co Ltd | Moving object identification system and suspicious person monitoring system |
JP2013080394A (en) * | 2011-10-04 | 2013-05-02 | Canon Inc | Display control device, control method of display control device, and program |
WO2013112919A1 (en) * | 2012-01-25 | 2013-08-01 | Innovative Timing Systems, Llc | An integrated timing system and method having a highly portable rfid tag reader with gps location determination |
JP2016192764A (en) * | 2015-03-30 | 2016-11-10 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | Method, computer system, and computer program for containing identifier as metadata associated with captured image |
CN107431761A (en) * | 2015-04-14 | 2017-12-01 | 索尼公司 | Image processing equipment, image processing method and image processing system |
US9883332B2 (en) | 2010-03-01 | 2018-01-30 | Innovative Timing Systems, Llc | System and method of an event timing system having integrated geodetic timing points |
US9947105B2 (en) | 2013-12-26 | 2018-04-17 | Fuji Xerox Co., Ltd. | Information processing apparatus, recording medium, and information processing method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001357402A (en) * | 2000-06-12 | 2001-12-26 | Hitachi Ltd | Method and device for detecting vehicle |
JP2003174578A (en) * | 2001-12-07 | 2003-06-20 | Nikon Corp | Electronic camera, image display device and image display method |
JP2004342007A (en) * | 2003-05-19 | 2004-12-02 | Nippon Telegr & Teleph Corp <Ntt> | Article retrieval system |
JP2004350166A (en) * | 2003-05-23 | 2004-12-09 | Nippon Telegr & Teleph Corp <Ntt> | Status acquisition apparatus and method, program and recording medium |
JP2004364044A (en) * | 2003-06-05 | 2004-12-24 | Sony Corp | Image recording apparatus |
-
2006
- 2006-02-22 JP JP2006046026A patent/JP4622883B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001357402A (en) * | 2000-06-12 | 2001-12-26 | Hitachi Ltd | Method and device for detecting vehicle |
JP2003174578A (en) * | 2001-12-07 | 2003-06-20 | Nikon Corp | Electronic camera, image display device and image display method |
JP2004342007A (en) * | 2003-05-19 | 2004-12-02 | Nippon Telegr & Teleph Corp <Ntt> | Article retrieval system |
JP2004350166A (en) * | 2003-05-23 | 2004-12-09 | Nippon Telegr & Teleph Corp <Ntt> | Status acquisition apparatus and method, program and recording medium |
JP2004364044A (en) * | 2003-06-05 | 2004-12-24 | Sony Corp | Image recording apparatus |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007292488A (en) * | 2006-04-21 | 2007-11-08 | Hitachi Ltd | Visual inspection device and inspection method of printed wiring board using the same |
US10029163B2 (en) | 2010-01-11 | 2018-07-24 | Innovative Timing Systems, Llc | Event timing system having an RFID tag reader and integrated GPS location determination |
US9495568B2 (en) | 2010-01-11 | 2016-11-15 | Innovative Timing Systems, Llc | Integrated timing system and method having a highly portable RFID tag reader with GPS location determination |
US9883332B2 (en) | 2010-03-01 | 2018-01-30 | Innovative Timing Systems, Llc | System and method of an event timing system having integrated geodetic timing points |
JP2012230595A (en) * | 2011-04-27 | 2012-11-22 | Secom Co Ltd | Moving object identification system and suspicious person monitoring system |
JP2013080394A (en) * | 2011-10-04 | 2013-05-02 | Canon Inc | Display control device, control method of display control device, and program |
WO2013112919A1 (en) * | 2012-01-25 | 2013-08-01 | Innovative Timing Systems, Llc | An integrated timing system and method having a highly portable rfid tag reader with gps location determination |
US10537784B2 (en) | 2012-01-25 | 2020-01-21 | Innovative Timing Systems, Llc | Integrated timing system and method having a highly portable RFID tag reader with GPS location determination |
US10898784B2 (en) | 2012-01-25 | 2021-01-26 | Innovative Timing Systems, Llc | Integrated timing system and method having a highly portable RFID tag reader with GPS location determination |
US10154370B2 (en) | 2013-03-15 | 2018-12-11 | Innovative Timing Systems, Llc | System and method of an event timing system having integrated geodetic timing points |
US9947105B2 (en) | 2013-12-26 | 2018-04-17 | Fuji Xerox Co., Ltd. | Information processing apparatus, recording medium, and information processing method |
JP2016192764A (en) * | 2015-03-30 | 2016-11-10 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | Method, computer system, and computer program for containing identifier as metadata associated with captured image |
CN107431761A (en) * | 2015-04-14 | 2017-12-01 | 索尼公司 | Image processing equipment, image processing method and image processing system |
CN107431761B (en) * | 2015-04-14 | 2021-02-19 | 索尼公司 | Image processing apparatus, image processing method, and image processing system |
Also Published As
Publication number | Publication date |
---|---|
JP4622883B2 (en) | 2011-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4622883B2 (en) | Video attribute automatic assigning device, video attribute automatic assigning program, and video attribute automatic assigning method | |
US11544928B2 (en) | Athlete style recognition system and method | |
US20070201107A1 (en) | Image processing system and method therefor, image processing apparatus and method, image capturing apparatus and method, program recording medium, and program | |
US10846866B2 (en) | Irradiation system, irradiation method, and program storage medium | |
US9172858B2 (en) | Apparatus and method for controlling settings of an imaging operation | |
US8811746B2 (en) | Mobile unit position detecting apparatus and mobile unit position detecting method | |
JP2006279568A (en) | Image-pickup device | |
CN102685365A (en) | Image synthesizing apparatus, image synthesizing method, and image synthesizing program | |
CN102959943A (en) | Stereoscopic panoramic image synthesis device, image capturing device, stereoscopic panoramic image synthesis method, recording medium, and computer program | |
CN110035203A (en) | Image processing equipment and its control method | |
CN103905726B (en) | Camera device and its control method | |
JP4607836B2 (en) | Apparatus for automatically assigning metadata to image area, method for automatically assigning metadata, and program for automatically assigning metadata | |
JP6869440B2 (en) | Teacher data generator, teacher data generation method, and teacher data generation system | |
JP2014153890A5 (en) | ||
CN110191287A (en) | Focusing method and device, electronic equipment, computer readable storage medium | |
JP2018078431A (en) | Object tracker and its program | |
JP6983049B2 (en) | Object tracking device and its program | |
JP3057004B2 (en) | Tracking device | |
CN110084754A (en) | A kind of image superimposing method based on improvement SIFT feature point matching algorithm | |
JP5402166B2 (en) | Image composition apparatus and program | |
JP4900265B2 (en) | Image processing apparatus, image processing method, and program | |
JP5402148B2 (en) | Image composition apparatus, image composition method, and program | |
JP6752942B2 (en) | Image processing equipment, image processing methods and programs, and imaging equipment | |
JP2008107857A (en) | Moving body recognition method and moving body recognition apparatus | |
JPH06229739A (en) | Environment recognizing system based on image processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081022 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100708 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100713 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100820 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101005 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101018 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131112 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |