JP6091319B2 - Image processing device for monitoring - Google Patents
Image processing device for monitoring Download PDFInfo
- Publication number
- JP6091319B2 JP6091319B2 JP2013094130A JP2013094130A JP6091319B2 JP 6091319 B2 JP6091319 B2 JP 6091319B2 JP 2013094130 A JP2013094130 A JP 2013094130A JP 2013094130 A JP2013094130 A JP 2013094130A JP 6091319 B2 JP6091319 B2 JP 6091319B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- disturbance
- notification
- block
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 64
- 238000012544 monitoring process Methods 0.000 title claims description 56
- 241000282341 Mustela putorius furo Species 0.000 claims description 33
- 238000000605 extraction Methods 0.000 claims description 23
- 238000000034 method Methods 0.000 claims description 21
- 238000012790 confirmation Methods 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 12
- 238000001514 detection method Methods 0.000 description 7
- 238000009825 accumulation Methods 0.000 description 3
- 238000001739 density measurement Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 230000033228 biological regulation Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Engineering & Computer Science (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
Description
この発明は、例えば、侵入者などの発報事象の出現を監視する監視用画像処理装置に関するものである。 The present invention relates to a monitoring image processing apparatus that monitors the appearance of a notification event such as an intruder.
従来の画像処理装置では、例えば、特許文献1に開示されているように、「輝度背景差分」方式を使用して変化領域を抽出し、変化領域が監視範囲内にあり、所定の面積であることや所定の速度であることなどの条件により侵入者を判定する構成にしている。また、誤った侵入者判定を行なってしまうこと(誤報)を防ぐため、変化領域の面積が特定の面積であることや変化領域の外接四角形の縦横の寸法などにより、外乱が発生したかどうかを判定し、外乱が発生したと判断される場合には発報処理を規制する構成としている。
In a conventional image processing apparatus, for example, as disclosed in
従来の監視用画像処理装置は以上のように構成されているので、効率的に移動物を判定し、不要検知を減少させることができる。
しかしながら、従来の監視用画像処理装置では、特に屋外において監視業務を行なう際に、夜間の車のヘッドライトの動きによって発生する変化領域の影響による不要検知により、誤報が発生してしまうという課題があった。
ヘッドライトは、高輝度で広範囲を照らし、はっきりとした変化領域を作る。また、大きさは不定で、形状的に侵入者と見誤る形状を取る場合もあり、従来の監視用画像処理装置では外乱と判定されず、発報対象となってしまう。しかし人間の目には、明確に「侵入者」と「ヘッドライト」は異なったものであり、このギャップにより、ヘッドライトによる発報は、不要通知、誤報とみなされる。
Since the conventional monitoring image processing apparatus is configured as described above, it is possible to efficiently determine moving objects and reduce unnecessary detection.
However, in the conventional monitoring image processing apparatus, particularly when performing monitoring work outdoors, there is a problem that false alarms are generated due to unnecessary detection due to the influence of a change area caused by the movement of a headlight of a car at night. there were.
Headlights illuminate a wide area with high brightness, creating a clear change area. In addition, the size is indefinite, and the shape may be misidentified as an intruder, and the conventional monitoring image processing device is not determined to be a disturbance and is subject to notification. However, in the human eye, the “intruder” and the “headlight” are clearly different, and due to this gap, the headlight alert is regarded as an unnecessary notification and a false alarm.
この発明は上記のような課題を解決するためになされたもので、誤報回避が困難であったヘッドライトによる変化領域を効果的に外乱と判定し、不要検知を発報以前に内部で修正して発報に至らないように対処することができる監視用画像処理装置を得ることを目的とする。 The present invention has been made to solve the above-described problems, and it is determined that the change area caused by the headlight, which has been difficult to avoid false alarms, is effectively a disturbance, and unnecessary detection is corrected internally before the alarm is issued. It is an object of the present invention to obtain a monitoring image processing apparatus that can cope with the situation so as not to cause an alarm.
この発明に係る監視用画像処理装置は、監視対象領域の現在の監視画像を映像信号として受信するビデオ入力部と、前記ビデオ入力部が受信した前記映像信号を量子化して現画像データとするA/Dコンバータと、前記A/Dコンバータによって量子化された現画像データを蓄積する現画像データ演算蓄積部と、前記A/Dコンバータによって量子化された現画像データから、発報事象が出現していない状態の前記監視画像を示す比較用画像データを作成して蓄積する比較用画像データ演算蓄積部と、前記現画像データと前記比較用画像データとを比較し、前記監視画像内の変化領域を抽出する変化領域抽出部と、前記変化領域を解析して発報事象が出現しているか否かの判定を行ない、発報事象発生通知を出力する認識処理部と、前記変化領域に外乱が発生しているかの判定を行い、外乱発生通知を出力する外乱判定部と、前記認識処理部が出力する前記発報事象発生通知と、前記外乱判定部が出力する前記外乱発生通知とに基づき、発報処理を行なう発報部とを備え、前記外乱判定部は、前記変化領域抽出部により抽出された前記変化領域の外接矩形を取得するフェレ径確認部と、前記フェレ径確認部が取得した前記外接矩形を複数のブロックに分割するブロック分割部と、前記ブロック分割部が分割した前記複数のブロック毎の濃淡値を計算するブロック濃淡計測部と、前記ブロック濃淡計測部が計算した前記ブロック毎の濃淡値に基づき、隣接する周囲ブロックに、自身より濃淡値が大きなブロックが存在しないブロックである濃淡頂点ブロックを探査し、前記濃淡頂点ブロックを光源と判断する光源位置算出部と、前記監視画像上道路とみなす道路エリアを予め記憶し、前記光源が前記道路エリアに属するか否かを判定する道路エリア照合部と、前記道路エリア照合部が、前記道路エリアに属すると判断した前記光源について、前記濃淡頂点ブロックが前記道路エリアに存在し続けた時間、前記濃淡頂点ブロックが移動した移動方向範囲、前記濃淡頂点ブロックの濃度値、前記濃淡頂点ブロックが前記道路エリアを移動した速度範囲、および、前記光源の発生時間に基づき、ヘッドライトによるものなのかどうかを判定するヘッドライト判定部とを備えたものである。 A monitoring image processing apparatus according to the present invention includes a video input unit that receives a current monitoring image of a monitoring target region as a video signal, and A that quantizes the video signal received by the video input unit to obtain current image data A A notification event appears from the / D converter, the current image data calculation storage unit that stores the current image data quantized by the A / D converter, and the current image data quantized by the A / D converter. A comparison image data calculation / storage unit for creating and storing comparison image data indicating the monitoring image that is not in a state, and comparing the current image data with the comparison image data, and a change area in the monitoring image A change region extraction unit that extracts the change region, a recognition processing unit that analyzes the change region to determine whether a notification event has occurred, and outputs a notification event occurrence notification, and the change A disturbance determination unit that determines whether a disturbance has occurred in the area and outputs a disturbance occurrence notification, the notification event occurrence notification output by the recognition processing unit, and the disturbance occurrence notification output by the disturbance determination unit And a reporting unit that performs a reporting process, wherein the disturbance determination unit acquires a circumscribed rectangle of the change area extracted by the change area extraction unit, and the ferret diameter check A block dividing unit that divides the circumscribed rectangle acquired by the unit into a plurality of blocks, a block gray measuring unit that calculates a gray value for each of the plurality of blocks divided by the block dividing unit, and a block gray measuring unit that calculates On the basis of the gray value for each block, a gray vertex block that is a block in which there is no block having a gray value larger than itself in an adjacent surrounding block is searched, and the gray vertex block is detected. A light source position calculation unit that determines a light source as a light source, a road area that is preliminarily stored as a road on the monitoring image, a road area verification unit that determines whether the light source belongs to the road area, and the road area For the light source determined by the matching unit to belong to the road area, the time during which the shade vertex block continues to exist in the road area, the moving direction range in which the shade vertex block has moved, the density value of the shade vertex block, And a headlight determination unit that determines whether the shade vertex block is due to a headlight based on a speed range in which the road block area moves and a generation time of the light source .
この発明によれば、従来装置と同規模で、安価に、かつ処理速度を大きく損ねずに、誤報回避が困難であったヘッドライトによる変化領域を効果的に外乱と判定し、不要検知を発報以前に内部で修正して発報に至らないように対処することができる。 According to the present invention, the change area caused by the headlight, which is difficult to avoid false alarms, is effectively determined as a disturbance, and unnecessary detection is performed at the same scale as the conventional apparatus, at a low cost and without greatly reducing the processing speed. It is possible to take measures so that it does not lead to a report by correcting it internally before the report.
以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
図1は、この発明の実施の形態1に係る監視用画像処理装置の構成図である。
監視用画像処理装置は、ビデオ入力部1と、A/Dコンバータ2と、現画像データ演算蓄積部3と、比較用画像データ演算蓄積部4と、変化領域抽出部5と、認識処理部6と、外乱判定部7と、発報部8とを備える。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram of a monitoring image processing apparatus according to
The monitoring image processing apparatus includes a
ビデオ入力部1は、電気所などに設置されたTVカメラ等、不図示の撮像装置から出力された監視対象領域の現在の監視画像を映像信号として受信する。
A/Dコンバータ2は、ビデオ入力部1から受信する映像信号を量子化する。つまり、ビデオ入力部1から受信したアナログデータをデジタルデータに変換する。
現画像データ演算蓄積部3は、A/Dコンバータ2によって量子化された現在の画像データ(現画像データという)を受信し蓄積する。なお、現画像データは必要に応じ記録すればよく、現画像データを蓄積せず、受信した現画像データをそのまま変化領域抽出部5に出力することとしてもよい。
The
The A /
The current image data
比較用画像データ演算蓄積部4は、A/Dコンバータ2からの出力を受け相応の演算を行い、発報事象(例えば、侵入者)が出現していない状態の監視対象領域を示す比較用画像データ(例えば、発報事象が出現していないタイミングで、A/Dコンバータ2により取得された画像データ)を蓄積する。なお、比較用画像データは、必要に応じて記録すればよく、比較用画像データを蓄積せず、A/Dコンバータ2から受信した現画像データから比較用画像データを作成し、そのまま変化領域抽出部5に出力することとしてもよいし、人為的に作成された比較用画像データを外部から取得し、そのまま変化領域抽出部5に出力することとしてもよい。
The comparison image data calculation accumulating unit 4 receives the output from the A /
変化領域抽出部5は、現画像データ演算蓄積部3から取得した現画像データと、比較用画像データ演算蓄積部4から取得した比較用画像データとを比較演算して、監視対象領域内で変化している変化領域を抽出する。一般には、ここに2値化処理部が内蔵され、出力は2値データに変換されている。
認識処理部6は、変化領域抽出部105により検出された変化領域を解析して、発報事象が出現しているか否かを判定する処理を実施する。また、発報事象が出現していると判断すると、発報事象発生通知を発報部8へ出力する。なお、発報対象は、例えば人物などであり、オペレーターが事前に決定するものとする。
外乱判定部7は、変化領域抽出部5により抽出された変化領域を受信し、外乱が発生しているかの判定を行う。また、外乱が発生していると判断した場合には外乱発生通知を発報部8へ出力する。
The change
The recognition processing unit 6 analyzes the change area detected by the change area extraction unit 105 and performs a process of determining whether or not a notification event has appeared. If it is determined that a reporting event has occurred, a notification event occurrence notification is output to the
The disturbance determination unit 7 receives the change region extracted by the change
発報部8は、認識処理部6および外乱判定部7からの指示を受け、発報処理を行う。
外乱判定部7により外乱が発生していないと判定された場合に、認識処理部6により発報事象が出現していると判定されると、発報事象が出現している旨を発報する処理を実施する。また、外乱判定部7により外乱が発生していると判定された場合は、認識処理部6により発報事象が出現していると判定されても、発報事象が出現している旨を発報する処理を規制する。
なお、認識処理部6、外乱判定部7および発報部8は、S/Wにより処理されるのが一般的である。
The
When it is determined by the disturbance determination unit 7 that no disturbance has occurred, if it is determined by the recognition processing unit 6 that a notification event has appeared, a notification that a notification event has appeared is issued. Perform the process. In addition, when it is determined by the disturbance determination unit 7 that a disturbance has occurred, even if it is determined by the recognition processing unit 6 that a notification event has appeared, a notification that a notification event has appeared is issued. Regulate the processing to be reported.
In general, the recognition processing unit 6, the disturbance determination unit 7, and the
図2は、この発明の実施の形態1に係る外乱判定部7の構成図である。
外乱判定部7は、フェレ径確認部20と、ブロック分割部21と、ブロック濃淡計測部22と、光源位置算出部23と、道路エリア照合部24と、ヘッドライト判定部25とを備える。
フェレ径確認部20は、変化領域抽出部5により抽出された変化領域を受信し、フェレ径(変化領域の外接矩形)を取得する。
ブロック分割部21は、フェレ径確認部20が出力したフェレ径を複数の小さなブロックに画面分割する。
FIG. 2 is a configuration diagram of the disturbance determination unit 7 according to
The disturbance determination unit 7 includes a ferret
The ferret
The
ブロック濃淡計測部22は、ブロック分割部21が分割したブロック毎の濃淡値平均等を計算する。
光源位置算出部23は、ブロック濃淡計測部22が計算したブロック毎の濃淡値平均等から、最も光源らしいブロックを特定する。
道路エリア照合部24は、光源位置算出部23が算出した最も光源らしいブロックが、道路上に存在するかどうかを判断する。
ヘッドライト判定部25は、道路エリア照合部24の判定を受け、道路上に存在する最も光源らしいブロックの時間的経緯を観測し、ヘッドライトであるか否かを判断する。
The block
The light source
The road
The
次に、動作について説明する。
図3は、この発明の実施の形態1に係る監視用画像処理装置の発報処理のフローチャートである。まず、図3に沿って、発報するまでの動作について説明する。
ビデオ入力部1は、電気所などに設置されたTVカメラ等、外部の撮像装置から出力された映像信号(ビデオ信号)を受信し、A/Dコンバータ2に送る(ステップST1)。
A/Dコンバータ2は、ビデオ入力部1から受信したビデオ信号をデジタルデータに変換し、その画像データを現画像データ演算蓄積部3及び比較用画像データ演算蓄積部4に出力する(ステップST2)。具体的には、1画素あたり8ビットの多値データに変換するのが一般的である。
Next, the operation will be described.
FIG. 3 is a flowchart of the reporting process of the monitoring image processing apparatus according to the first embodiment of the present invention. First, the operation up to issue will be described with reference to FIG.
The
The A /
現画像データ演算蓄積部3は、A/Dコンバータ2から入力された画像データを元に「現画像データ」を作成し、蓄積する(ステップST3)。なお、入力データそのものを「現画像データ」とする場合が多いが、これは一例にすぎず、他の方法で「現画像データ」を作成してもよい。また、なお、現画像データは必要に応じ記録すればよく、現画像データを蓄積せず、受信した現画像データをそのまま変化領域抽出部5に出力することとしてもよい。
The current image data calculation /
比較用画像データ演算蓄積部4は、A/Dコンバータ2から入力された画像データを元に「比較用画像データ」を作成し、蓄積する(ステップST4)。なお、「比較用画像データ」は、報事象(例えば、侵入者)が出現していない状態の監視対象領域の監視画像を示すもので、例えば、発報事象が出現していないタイミングで、定期的にサンプリングされた現画像データや、直前のフレーム映像である場合が多いが、これは一例にすぎず、他の方法で「比較用画像データ」を作成してもよい。また、比較用画像データは、必要に応じて記録すればよく、比較用画像データを蓄積せず、A/Dコンバータ2から受信した現画像データから比較用画像データを作成し、そのまま変化領域抽出部5に出力することとしてもよいし、人為的に作成された比較用画像データを外部から取得し、そのまま変化領域抽出部5に出力することとしてもよい。
The comparison image data calculation storage unit 4 creates and stores “comparison image data” based on the image data input from the A / D converter 2 (step ST4). The “comparison image data” indicates a monitoring image of a monitoring target area in a state in which no reporting event (for example, an intruder) has appeared. However, this is only an example, and “comparison image data” may be created by other methods. Further, the comparison image data may be recorded as necessary. The comparison image data is not accumulated, the comparison image data is created from the current image data received from the A /
変化領域抽出部5は、現画像データ演算蓄積部3および比較用画像データ演算蓄積部4から「現画像データ」と「比較用画像データ」とをそれぞれ取得し、比較する(ステップST5)。
「現画像データ」と「比較用画像データ」とに異なる部分がある場合(ステップST5の“YES”の場合)、変化領域抽出部5は、異なる部分を変化領域として抽出し、認識処理部6および外乱判定部7へ出力する。なお、変化領域とは、現画像と背景画像の画素単位での差分をとって2値化した画像である。また、変化領域とは、一般的には映像中の移動物が主ではあるが、車のヘッドライトの輝度変化についても変化領域として抽出される。
一方、「現画像データ」と「比較用画像データ」とに異なる部分がない場合(ステップST5の“NO”の場合)、処理終了する。
The change
When there is a different part between “current image data” and “comparison image data” (in the case of “YES” in step ST5), the change
On the other hand, when there is no different portion between the “current image data” and the “comparison image data” (in the case of “NO” in step ST5), the processing is ended.
認識処理部6は、変化領域抽出部5から変化領域データを受信し、発報対象であるか否か、つまり、発報事象が発生しているか否かの判定を行ない、発報事象が発生していると判断されると、発報事象発生を発報部8へ通知する(ステップST7)。この判定については、従来の監視用画像処理装置を同様に、所定の条件を満たすかどうかによって行ない、所定の条件を満たす場合、発報対象であると判断する。
所定の条件とは、例えば、以下の条件があげられる。
(1−1)変化領域が監視範囲内にある
(1−2)変化領域が所定の面積である
(1−3)変化領域が所定の縦横寸法である
(1−4)変化領域が所定の速度である
なお、これは一例にすぎず、他の条件で発報対象であるか否かの判定を行なってもよい。
The recognition processing unit 6 receives the change area data from the change
Examples of the predetermined conditions include the following conditions.
(1-1) The change area is within the monitoring range (1-2) The change area is a predetermined area (1-3) The change area is a predetermined vertical and horizontal dimension (1-4) The change area is a predetermined area Note that this is only an example, and it may be determined whether or not the report is to be issued under other conditions.
外乱判定部7は、変化領域抽出部5から変化領域データを受信し、受信した変化領域データの中に外乱があるか否かの判定を行なう(ステップST8)。この判定の詳細については後述する。
発報部8は、認識処理部6および外乱判定部7からの指示を受け、発報対象であるかどうかの判定を行なう(ステップST9)。つまり、ステップST7において、認識処理部6が発報対象であると判断したか否か、具体的には、認識処理部6から発報対象発生の通知を受信したかを判定する。
The disturbance determination unit 7 receives the change area data from the change
The
ステップST9において、発報対象でないと判断した場合、つまり、発報対象発生の通知を受信していないと判断した場合(ステップST9の“NO”の場合)、発報部8は、以降の処理をスキップし、処理終了する。
ステップST9において、発報対象であると判断した場合、つまり、発報対象発生の通知を受信したと判断した場合(ステップST9の“YES”の場合)、発報部8は、外乱が発生しているか否かの判定を行なう(ステップST10)。具体的には、ステップST8において、外乱判定部7から外乱発生との通知を受信したかどうかの判定を行なう。
外乱判定部7による外乱判定の詳細は後述する。
If it is determined in step ST9 that it is not a notification target, that is, if it is determined that a notification of the generation of a notification target has not been received (in the case of “NO” in step ST9), the
In step ST9, when it is determined that it is a notification target, that is, when it is determined that a notification of generation of a notification target has been received (in the case of “YES” in step ST9), the
Details of the disturbance determination by the disturbance determination unit 7 will be described later.
ステップST10で、外乱なしと判断した場合、つまり、外乱発生の通知を受信していないと判断した場合(ステップST10の“NO”の場合)、発報部8は、発報が必要であると判断し、発報処理を行なう(ステップST11)。
具体的には、例えば、上位にあるPC等に特定の信号を送ったり、装置のブザーを鳴らしたりする。
一方、ステップST10で、外乱ありと判断された場合、つまり、外乱発生の通知を受信したと判断された場合(ステップST10の“YES”の場合)、発報部8は、発報が不要であると判断し、発報処理を規制する(ステップST12)。
When it is determined in step ST10 that there is no disturbance, that is, when it is determined that a notification of the occurrence of disturbance has not been received (in the case of “NO” in step ST10), the
Specifically, for example, a specific signal is sent to a host PC or the like, or a buzzer of the apparatus is sounded.
On the other hand, if it is determined in step ST10 that there is a disturbance, that is, if it is determined that a notification of the occurrence of a disturbance has been received (in the case of “YES” in step ST10), the
つまり、発報部8は、認識処理部6が、発報対象が存在すると判断しても、外乱判定部7が外乱発生と判断すれば、その対象物については不要検知対象であると判断し、発報を規制する。逆に、発報部8は、認識処理部6が、発報対象が存在すると判断し、外乱判定部7が外乱発生を検知しなければ、認識処理部6が判断した発報対象は真の発報対象と判断し、発報する。発報の規制の具体的な内容については後述する。
That is, even if the recognition processing unit 6 determines that the notification target exists, the
図4は、この発明の実施の形態1に係る外乱判定部7における外乱判定を説明するフローチャートである。
外乱判定部7は、変化領域抽出部5において、カメラ監視エリア内の変化領域が抽出された場合、それが車のヘッドライトによるものであるかどうかを判定する。以下、図4に沿って、外乱判定部7の動作について説明する。
外乱判定部7のフェレ径確認部20は、変化領域抽出部5が抽出した変化領域から、フェレ径を取得する(ステップST101)。
FIG. 4 is a flowchart illustrating disturbance determination in disturbance determination unit 7 according to
When the change
The ferret
ここで、図5は、現画像データ演算蓄積部3で蓄積された現画像例と、比較用画像データ演算蓄積部4で蓄積された比較用画像(背景画像)例とを示す図である。なお、図5(a)が現画像例であり、図5(b)が比較用画像(背景画像)例をあらわしている。
図5では、道路上にて夜間にヘッドライトを点灯させて通行している車両を例として説明する。つまり、車両が映っているもの(図5(a))が現画像であり、車両が映っていないもの(図5(b))が背景画像である。
なお、図5(a)の現画像は、背景画像と時間的に連続した映像であるとする。
FIG. 5 is a diagram showing an example of the current image stored in the current image data
FIG. 5 illustrates an example of a vehicle that travels with a headlight turned on at night on a road. That is, the image showing the vehicle (FIG. 5A) is the current image, and the image not showing the vehicle (FIG. 5B) is the background image.
Note that the current image in FIG. 5A is a video temporally continuous with the background image.
図6は、変化領域抽出部5で抽出された変化領域の例を示す図である。
図5(b)に示した背景画像では通常の道路の映像が見えるが、次の瞬間の現画像(図5(a))では映像奥手に車が現れる。
この場合、監視用画像処理装置から見ての変化領域は、図6に示す通り、現画像と背景画像との差分である「ヘッドライト」である。つまり、図6において、染まっているエリアが変化領域である。
FIG. 6 is a diagram illustrating an example of the change area extracted by the change
In the background image shown in FIG. 5B, a normal road image can be seen, but in the current image (FIG. 5A) at the next moment, a car appears behind the image.
In this case, the change area viewed from the monitoring image processing apparatus is “headlight” which is a difference between the current image and the background image, as shown in FIG. That is, in FIG. 6, the dyed area is the change area.
ここで、図6に示すような変化領域の外接矩形をフェレ径と呼ぶ。
具体的には、図7に書き込まれている実線の枠線が、「ヘッドライト」の変化領域から導かれた外接四角形(フェレ径)である。従来の監視用画像処理装置では、この場合、仮にこの「ヘッドライト」が発報対象と判断されれば、それを受け発報処理が行われていた。
フェレ径確認部20は、ステップST101において、図7に示すフェレ径を取得する。
Here, a circumscribed rectangle of the change region as shown in FIG. 6 is called a ferret diameter.
Specifically, the solid frame line written in FIG. 7 is a circumscribed rectangle (Ferre diameter) derived from the change region of the “headlight”. In the conventional image processing apparatus for monitoring, in this case, if this “headlight” is determined to be a notification target, the notification processing is performed in response to the determination.
In step ST101, the ferret
外乱判定部7のブロック分割部21は、ステップST101においてフェレ径確認部20が取得したフェレ径を包含するように、複数の小ブロックを定義する(ステップST102)。ここでは例として、「8画素×8画素」の小ブロックを、フェレ径が隠れるような範囲に密集して配置する。
「8画素×8画素」の小ブロックが、フェレ径が隠れるような範囲に密集して配置されたブロックの様子を、図8に示す。
The
FIG. 8 shows a state in which small blocks of “8 pixels × 8 pixels” are densely arranged in a range in which the ferret diameter is hidden.
外乱判定部7のブロック濃淡計測部22は、ステップST102においてブロック分割部21が分割した小ブロック毎に、変化領域該当画素の濃淡を計算し、小ブロックにある変化領域該当画素の輝度平均値を求める(ステップST103)。ここで、ブロック濃淡計測部22が計算した輝度平均値を「濃淡値」とする。なお、一般に輝度の大小を濃淡というが、色でも構わない。
図9は、ブロック濃淡計測部22が、全ブロックの濃淡値を計算した結果を示す図である。
The block
FIG. 9 is a diagram showing a result of the block
外乱判定部7の光源位置算出部23は、ステップST103においてブロック濃淡計測部22が計算した各小ブロックの濃淡値をもとに、「濃淡頂点ブロック」を探査する(スステップST104)。
濃淡頂点ブロックとは、「隣接する周囲ブロックに、自身より濃淡値が大きなブロックが存在しないブロック」と定義し、この濃淡頂点ブロックが、ヘッドライト光源の存在する位置と仮定する。つまり、濃淡頂点ブロックが、最もヘッドライトの光源らしい位置を示す。
なお、実際には路面反射のほうが濃淡値が大きい場合もあるが、それが光源たるヘッドライトから派生したものである以上、その判断で構わない。
光源位置算出部23は、濃淡頂点ブロックを決定し、この濃淡頂点ブロックを「光源」とする。
図10は、濃淡頂点ブロックの例を示す図である。図10においてマーキングされたブロックが濃淡頂点ブロックである。
図10に示すように、濃淡頂点ブロックは、1ブロックとは限らず、定義されたヘッドライト光源が複数あることや、反射の具合によって増減する。
The light source
The light / dark vertex block is defined as “a block in which there is no block having a lighter / darker value than the adjacent surrounding blocks”, and this light / dark vertex block is assumed to be a position where the headlight light source exists. That is, the light / dark vertex block indicates the position most likely to be the light source of the headlight.
Actually, the road surface reflection may have a larger gray value, but as long as it is derived from a headlight as a light source, the determination may be made.
The light source
FIG. 10 is a diagram illustrating an example of a light / dark vertex block. The blocks marked in FIG. 10 are shaded vertex blocks.
As shown in FIG. 10, the light / dark vertex block is not limited to one block, and increases or decreases depending on the presence of a plurality of defined headlight light sources and the degree of reflection.
図11は、道路エリアを示す図である。
図11に示すような「道路エリア」は、監視画像上道路とみなす範囲のことをいい、予め設定され、外乱判定部7の道路エリア照合部24に記憶されている。
道路エリア照合部24は、ステップST104で光源位置算出部23が定義した濃淡頂点ブロックが、自身に記憶している「道路エリア」に属するか否かを判定する(ステップST105)。なお、複数の濃淡頂点ブロックが存在する場合は、どれか一つの濃淡頂点ブロックについて「道路エリア」に属するか否かの判定を行なってもよいが、全ての濃淡頂点ブロックにおいて「道路エリア」に属するか否かの判定を行なうと良い精度で結果を得ることができる。
FIG. 11 is a diagram illustrating a road area.
A “road area” as shown in FIG. 11 refers to a range regarded as a road on the monitoring image, is set in advance, and is stored in the road
The road
ステップST105において、道路エリア照合部24が、濃淡頂点ブロック、つまり「光源」が「道路エリア」にないと判定した場合(ステップST105の“NO”の場合)、ヘッドライトによる外乱ではないと判断し、以降の処理はスキップして外乱判定を終了する。
ステップST105において、道路エリア照合部24が、濃淡頂点ブロック、つまり「光源」が「道路エリア」にあると判定した場合(ステップST105の“YES”の場合)、多くの場合それは車両のヘッドライトであるが、より精度を上げるため、外乱判定部7のヘッドライト判定部25は、道路エリア照合部24が道路エリアに属していると判断した濃淡頂点ブロックについて、例えば、以下の(2−1)〜(2−5)の条件にもとづき、ヘッドライトによるものなのかどうかの最終判断を行なう(ステップST106)。
In step ST105, when the road
In step ST105, when the road
(2−1)濃淡頂点ブロックが予め定めた継続時間(例:0.5秒)、道路エリア内に存在し続けた。
(2−2)濃淡頂点ブロックが予め定めた移動方向範囲(例:道路上り下り方向)に移動した。
(2−3)濃淡頂点ブロックが予め定めた濃度値以上(例:濃淡値200以上)である。
(2−4)濃淡頂点ブロックが予め定めた速度範囲(例:10画素/秒以上)にて、道路エリアを移動した。
(2−5)発生時間が日没から日の出までである。
(2-1) The shade vertex block continued to exist in the road area for a predetermined duration (eg, 0.5 seconds).
(2-2) light and shade moving direction range apex block is predetermined: moved to (eg road uplink and downlink directions).
(2-3) The density vertex block is equal to or higher than a predetermined density value (eg, the density value is 200 or more).
(2-4) The shade vertex block moved in the road area within a predetermined speed range (eg, 10 pixels / second or more).
(2-5) The generation time is from sunset to sunrise.
外乱判定部7のヘッドライト判定部25は、道路エリア照合部24が道路エリアに属していると判断した濃淡頂点ブロックについて、ヘッドライトによる外乱発生であるか否かを判定する(ステップST107)。具体的には、条件(2−1)〜(2−5)を全て満たした場合、該当の濃淡頂点ブロックはヘッドライト光源である、つまり、「現在ヘッドライトによる外乱が発生している」と判断し(ステップST107の“YES”)、発報部8へ外乱発生を通知する(ステップST108)。
一方、条件(2−1)〜(2−5)を全て満たさない場合は、外乱発生はなかったとみなし(ステップST107の“NO”)、発報部8へは何も通知しない。
なお、条件(2−1)〜(2−5)は一例にすぎず、外乱判定の条件は適宜設定可能である。
The
On the other hand, when all of the conditions (2-1) to (2-5) are not satisfied, it is considered that no disturbance has occurred ("NO" in step ST107), and nothing is notified to the
The conditions (2-1) to (2-5) are merely examples, and the conditions for determining the disturbance can be set as appropriate.
以上の外乱判定部7による外乱判定の結果、外乱発生の通知を受信すると、発報部8は外乱発生ありと判断し、発報処理を規制する。したがって、遡って「ヘッドライト」が発報対象と判断されていたにも関わらず、発報部8により発報が規制され、「ヘッドライト」による不要検知の発生は押さえられる。
一方、外乱発生がなかった場合、つまり、外乱判定部7から外乱発生の通知を受信しなかった場合は、発報部8は、通常の発報処理を行なう。
As a result of the disturbance determination by the disturbance determination unit 7 described above, when the notification of the occurrence of the disturbance is received, the
On the other hand, when there is no disturbance occurrence, that is, when a notification of disturbance occurrence is not received from the disturbance determination unit 7, the
ここで、発報処理の規制とは、例えば、発報部8が、外乱発生中は発報を行なわないこととしてもよいし、外乱発生中は発報を一部割愛することとしてもよい。また、発報部8が、認識処理部6に、外乱発生中は発報事象が出現しているか否かの判定の条件を修正させるよう指示するようにしてもよいし、外乱発生があったという情報を上位のPC等に通知するようにしてもよい。誤報と認識されないよう、通常の発報処理を制限するものであればよい。
なお、この実施の形態1では、外乱判定部7が、外乱発生を発報部8へ通知し、発報部8において発報処理を規制することとしたが、外乱判定部7が、外乱発生を認識処理部6へ通知し、認識処理部6において、外乱発生ありの場合には発報対象としない処理を行なうように構成してもよい。
Here, the regulation of the reporting process may be, for example, that the
In the first embodiment, the disturbance determining unit 7 notifies the
以上のように、この実施の形態1によれば、ある特定の条件を持つ面積を持つ濃淡頂点ブロックが現れた際にヘッドライト外乱発生と判断し発報を規制するようにしたので、簡単なプロセスで効率よく不要検知を減少させることができる。 As described above, according to the first embodiment, when a light / dark vertex block having an area having a specific condition appears, it is determined that headlight disturbance has occurred and the notification is restricted. Unnecessary detection can be efficiently reduced in the process.
実施の形態2.
図12は、この発明の実施の形態2に係る監視用画像処理装置の構成図である。
ここで、図1に示した実施の形態1に係る監視用画像処理装置の構成と同じものについては詳細な説明を省略し、図1と相違する部分についてのみ説明する。
図12において、監視用画像処理装置は、混在状況判定部9をさらに備えている。
混在状況判定部9は、監視用画像に2つ以上のフェレ径が存在する場合に、外乱発生を優先すべきか歩行者(侵入者)発報を優先すべきかを判定する。
FIG. 12 is a block diagram of a monitoring image processing apparatus according to
Here, a detailed description of the same configuration as that of the monitoring image processing apparatus according to the first embodiment shown in FIG. 1 is omitted, and only a portion different from FIG. 1 is described.
In FIG. 12, the monitoring image processing apparatus further includes a mixed state determination unit 9.
When two or more ferret diameters exist in the monitoring image, the mixed situation determination unit 9 determines whether to give priority to the occurrence of disturbance or to give priority to pedestrian (intruder) reporting.
図13は、この発明の実施の形態2に係る監視用画像処理装置の発報処理のフローチャートである。以下、図13に沿って説明する。
図13において、ステップST1〜12の処理は、図3のステップST1〜12と同じであるため、詳細な説明を省略する。
ステップST8において、外乱判定部7が、変化領域抽出部5から受信した変化領域データの中に外乱があるか否かの判定を行なわれると、混在状況判定部9は、外乱判定部7が外乱ありと判断した変化領域について、ヘッドライトと侵入者が監視画像内に混在していないかどうかの混在状況判定を行なう(ステップST13)。
FIG. 13 is a flowchart of the reporting process of the monitoring image processing apparatus according to the second embodiment of the present invention. Hereinafter, a description will be given with reference to FIG.
In FIG. 13, the processing of steps ST1 to 12 is the same as that of steps ST1 to 12 of FIG.
In step ST8, when the disturbance determination unit 7 determines whether or not there is a disturbance in the change area data received from the change
図14は、ヘッドライトと歩行者(侵入者)が混在した状況の監視画像の例である。図14において、画面奥手よりヘッドライトを付けた車両が近寄り、画面手前では歩行者が道路横断中である。
図15は、図14に示すヘッドライトと歩行者のそれぞれにフェレ径を重ねた図である。図15に示すように、奥手のヘッドライトと手前の歩行者にそれぞれフェレ径が重なっている。
例えば、図14に示すような監視画像であった場合、実施の形態1で説明した監視用画像処理装置では、外乱判定部7は、ヘッドライトによる外乱ありと判断し(図3のステップST8)、発報部8は正常な発報を規制する(図3のステップST9,10,12)。
その結果、手前の歩行者で発報することが出来ず、失報となってしまう。
FIG. 14 is an example of a monitoring image in a situation where headlights and pedestrians (intruders) are mixed. In FIG. 14, a vehicle with a headlight is approaching from the back of the screen, and a pedestrian is crossing the road in front of the screen.
FIG. 15 is a diagram in which the ferret diameter is superimposed on each of the headlight and the pedestrian illustrated in FIG. 14. As shown in FIG. 15, the ferret diameter overlaps the headlight at the back and the pedestrian in front.
For example, when the monitoring image is as shown in FIG. 14, in the monitoring image processing apparatus described in the first embodiment, the disturbance determination unit 7 determines that there is a disturbance due to the headlight (step ST8 in FIG. 3). The
As a result, it cannot be reported by a pedestrian in front, and will be lost.
そこで、この実施の形態2に係る監視用画像処理装置では、監視画像中に2つ以上のフェレ径が現れた場合に、混在状況判定部9が混在状況判定を行なう。
図14に示すような監視画像であった場合、混在状況判定部9は、まず、図15の各フェレ径の「濃淡頂点」を確認する。図16に示すように、マーキングされたブロックが各フェレ径の濃淡頂点である。
Therefore, in the monitoring image processing apparatus according to the second embodiment, when two or more ferret diameters appear in the monitoring image, the mixed status determination unit 9 performs the mixed status determination.
In the case of a monitoring image as shown in FIG. 14, the mixed situation determination unit 9 first checks the “dark vertex” of each ferret diameter in FIG. 15. As shown in FIG. 16, the marked block is a light and dark vertex of each ferret diameter.
次に混在状況判断部は、例えば、以下の(3−1),(3−2)の様な条件での判定を実施する。
(3−1)濃淡頂点ブロックが予め定めた濃度値以上(例:濃淡値200以上)である
(3−2)濃淡頂点ブロックが予め定めた道路エリア内に存在し続けている
条件(3−1),(3−2)を全て満たす場合、混在状況判定部9は、その濃淡頂点ブロックはヘッドライトであると判断する。条件(3−1),(3−2)を全て満たさない場合、混在状況判定部9は、その濃淡頂点ブロックは歩行者(侵入者)であると判断する。
なお、(3−1),(3−2)の条件は一例にすぎず、他の条件でヘッドライトであるか歩行者(侵入者)であるか否かの判定を行なってもよい。
Next, for example, the mixed status determination unit performs the determination under the following conditions (3-1) and (3-2).
(3-1) The shade vertex block is equal to or higher than a predetermined density value (eg,
The conditions (3-1) and (3-2) are merely examples, and it may be determined whether the headlight or the pedestrian (intruder) is in other conditions.
各フェレ径の濃淡頂点ブロックの判定が終わると、混在状況判定部9は、「歩行者(侵入者)」と判断されたフェレ径があるかどうかを判定する。
ここで、「歩行者(侵入者)」と判断されたフェレ径がある場合には、混在状況判定部9は、監視画像内に「ヘッドライト」と判断されたフェレ径があったとしても、外乱とはしない。つまり、発報部8へ外乱ありの通知をおこなわないように訂正する。具体的には、外乱判定部7が出力した外乱発生を知らせる通知を取り消す。
これにより、発報部8は、外乱はないものとして(ステップST10)、発報処理を行なう(ステップST11)。
When the determination of the shade vertex block of each ferret diameter is completed, the mixed situation determination unit 9 determines whether there is a ferret diameter determined as “pedestrian (intruder)”.
Here, if there is a ferret diameter determined to be “pedestrian (intruder)”, the mixed situation determination unit 9 may determine that there is a ferret diameter determined to be “headlight” in the monitoring image. It is not a disturbance. That is, it corrects so that the
As a result, the
以上で明らかなように、この実施の形態2によれば、ヘッドライト外乱と歩行者(侵入者)が混在した状況においても、精度を劣化すること無く必要な発報を行なうことができる。 As is apparent from the above, according to the second embodiment, even in a situation where a headlight disturbance and a pedestrian (intruder) coexist, necessary notification can be performed without degrading accuracy.
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。 In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .
1 ビデオ入力部、2 A/Dコンバータ、3 現画像データ演算蓄積部、4 比較用画像データ演算蓄積部、5 変化領域抽出部、6 認識処理部、7 外乱判定部、8 発報部、9 混在状況判定部、20 フェレ径確認部、21 ブロック分割部、22 ブロック濃淡計測部、23 光源位置算出部、24 道路エリア照合部、25 ヘッドライト判定部。
DESCRIPTION OF
Claims (3)
前記ビデオ入力部が受信した前記映像信号を量子化して現画像データとするA/Dコンバータと、
前記現画像データと、前記現画像データにおいて発報事象が出現していない状態の前記監視画像を示す比較用画像データとを比較し、前記監視画像内の変化領域を抽出する変化領域抽出部と、
前記変化領域を解析して発報事象が出現しているか否かの判定を行ない、発報事象発生通知を出力する認識処理部と、
前記変化領域に外乱が発生しているかの判定を行い、外乱発生通知を出力する外乱判定部とを備え、
前記外乱判定部は、前記変化領域抽出部により抽出された前記変化領域の外接矩形を取得するフェレ径確認部と、
前記フェレ径確認部が取得した前記外接矩形を複数のブロックに分割するブロック分割部と、
前記ブロック分割部が分割した前記複数のブロック毎の濃淡値を計算するブロック濃淡計測部と、
前記ブロック濃淡計測部が計算した前記ブロック毎の濃淡値に基づき、隣接する周囲ブロックに、自身より濃淡値が大きなブロックが存在しないブロックである濃淡頂点ブロックを探査し、前記濃淡頂点ブロックを光源と判断する光源位置算出部と、
前記監視画像上道路とみなす道路エリアを予め記憶し、前記光源が前記道路エリアに属するか否かを判定する道路エリア照合部と、
前記道路エリア照合部が、前記道路エリアに属すると判断した前記光源について、前記濃淡頂点ブロックが前記道路エリアに存在し続けた時間、前記濃淡頂点ブロックが移動した移動方向範囲、前記濃淡頂点ブロックの濃度値、前記濃淡頂点ブロックが前記道路エリアを移動した速度範囲、および、前記光源の発生時間に基づき、ヘッドライトによるものなのかどうかを判定するヘッドライト判定部とを備えた
ことを特徴とする監視用画像処理装置。 A video input unit for receiving a current monitoring image of the monitoring target area as a video signal;
An A / D converter that quantizes the video signal received by the video input unit into current image data;
A change area extraction unit that compares the current image data with comparison image data indicating the monitoring image in a state in which a notification event does not appear in the current image data, and extracts a change area in the monitoring image; ,
Recognizing the occurrence of a notification event by analyzing the change region, a recognition processing unit that outputs a notification event occurrence notification,
It is determined whether a disturbance has occurred in the change region, and includes a disturbance determination unit that outputs a disturbance occurrence notification,
The disturbance determination unit includes a ferret diameter confirmation unit that acquires a circumscribed rectangle of the change region extracted by the change region extraction unit;
A block dividing unit that divides the circumscribed rectangle obtained by the ferret diameter checking unit into a plurality of blocks;
A block density measuring unit that calculates a density value for each of the plurality of blocks divided by the block dividing unit;
Based on the shade value for each block calculated by the block shade measurement unit, the adjacent vertex block is searched for a shade vertex block that does not have a block with a shade value greater than itself, and the shade vertex block is used as a light source. A light source position calculation unit to determine;
A road area that is preliminarily stored as a road on the monitoring image and that determines whether the light source belongs to the road area;
For the light source determined by the road area matching unit to belong to the road area, the time during which the shade vertex block continues to exist in the road area, the moving direction range in which the shade vertex block has moved, the shade vertex block And a headlight determination unit for determining whether the light source is based on a density value, a speed range in which the light / dark vertex block has moved in the road area, and a generation time of the light source. An image processing apparatus for monitoring.
前記発報部は、
前記認識処理部から前記発報事象発生通知を受信した場合に、前記発報処理を行ない、
前記認識処理部から前記発報事象発生通知を受信した場合であっても、前記ヘッドライト判定部が前記光源は前記ヘッドライトによるものであると判断して出力した前記外乱発生通知を受信した場合には、前記発報処理を規制する
ことを特徴とする請求項1記載の監視用画像処理装置。 Based on the notification event occurrence notification output by the recognition processing unit and the disturbance occurrence notification output by the disturbance determination unit, further includes a notification unit that performs a notification process,
The reporting unit is:
When receiving the notification event occurrence notification from the recognition processing unit, perform the notification processing,
Even when the notification event occurrence notification is received from the recognition processing unit, the headlight determination unit receives the disturbance occurrence notification output by determining that the light source is the headlight The monitoring image processing apparatus according to claim 1, wherein the notification processing is restricted.
前記ヘッドライトと前記侵入者が混在している場合に、前記外乱発生通知を取り消す混在状況判定部をさらに備えた
ことを特徴とする請求項1記載の監視用画像処理装置。 The disturbance determination unit performs a mixed state determination as to whether a headlight and an intruder are not mixed in the monitoring image determined to have a disturbance,
The monitoring image processing apparatus according to claim 1, further comprising: a mixed state determination unit that cancels the disturbance occurrence notification when the headlight and the intruder are mixed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013094130A JP6091319B2 (en) | 2013-04-26 | 2013-04-26 | Image processing device for monitoring |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013094130A JP6091319B2 (en) | 2013-04-26 | 2013-04-26 | Image processing device for monitoring |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014216922A JP2014216922A (en) | 2014-11-17 |
JP6091319B2 true JP6091319B2 (en) | 2017-03-08 |
Family
ID=51942245
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013094130A Active JP6091319B2 (en) | 2013-04-26 | 2013-04-26 | Image processing device for monitoring |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6091319B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6980887B1 (en) * | 2020-10-23 | 2021-12-15 | Pciソリューションズ株式会社 | Mobile detection system |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07129778A (en) * | 1993-11-08 | 1995-05-19 | Oki Electric Ind Co Ltd | Image monitoring device |
JP3715705B2 (en) * | 1996-01-31 | 2005-11-16 | 三菱電機株式会社 | Monitoring image processing device |
JP3919842B2 (en) * | 1996-01-31 | 2007-05-30 | 三菱電機株式会社 | Image processing device for monitoring |
JP3830616B2 (en) * | 1996-12-26 | 2006-10-04 | 三菱電機株式会社 | Image processing device for monitoring |
JP4065137B2 (en) * | 2002-03-14 | 2008-03-19 | 三菱電機株式会社 | Image processing apparatus, image processing method, and program |
US7456860B2 (en) * | 2004-09-28 | 2008-11-25 | U.S.K. Co., Ltd. | Surveillance system using pulse-coded rays |
-
2013
- 2013-04-26 JP JP2013094130A patent/JP6091319B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014216922A (en) | 2014-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8964030B2 (en) | Surveillance camera system having camera malfunction detection function to detect types of failure via block and entire image processing | |
US20200175692A9 (en) | Low-complexity motion detection based on image edges | |
US9030559B2 (en) | Constrained parametric curve detection using clustering on Hough curves over a sequence of images | |
JP4611776B2 (en) | Image signal processing device | |
CN102568242A (en) | Signal lamp state detection method and system based on video processing | |
KR101939700B1 (en) | Method and Apparatus for Detecting Camera Tampering Using Edge Images | |
US9802543B2 (en) | Automobile and method for automatically adjusting rearview mirror | |
JP6214426B2 (en) | Object detection device | |
CN112784738A (en) | Moving object detection alarm method, device and computer readable storage medium | |
JP7125843B2 (en) | Fault detection system | |
JP4491360B2 (en) | Image signal processing device | |
JP4025007B2 (en) | Railroad crossing obstacle detection device | |
JP6091319B2 (en) | Image processing device for monitoring | |
JP2018107665A (en) | Imaging apparatus, dirt detection system, and dirt detection method | |
JP5971761B2 (en) | Smoke detection device and smoke detection method | |
JP2018526922A (en) | Glare detection method and apparatus | |
JP4302801B2 (en) | Object tracking method and object tracking apparatus | |
KR101267279B1 (en) | Video processing apparatus and method for removing rain from video | |
KR101617428B1 (en) | Method and apparatus for degraded region detection in digital video file | |
JP4925942B2 (en) | Image sensor | |
JP5027644B2 (en) | Combined intrusion detection device | |
JP3830616B2 (en) | Image processing device for monitoring | |
JP5027645B2 (en) | Combined intrusion detection device | |
JP5027646B2 (en) | Combined intrusion detection device | |
US20190188500A1 (en) | Apparatus for monitoring object in low light environment and monitoring method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151015 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160929 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6091319 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |