Nothing Special   »   [go: up one dir, main page]

JP6091319B2 - Image processing device for monitoring - Google Patents

Image processing device for monitoring Download PDF

Info

Publication number
JP6091319B2
JP6091319B2 JP2013094130A JP2013094130A JP6091319B2 JP 6091319 B2 JP6091319 B2 JP 6091319B2 JP 2013094130 A JP2013094130 A JP 2013094130A JP 2013094130 A JP2013094130 A JP 2013094130A JP 6091319 B2 JP6091319 B2 JP 6091319B2
Authority
JP
Japan
Prior art keywords
unit
disturbance
notification
block
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013094130A
Other languages
Japanese (ja)
Other versions
JP2014216922A (en
Inventor
健一 新房
健一 新房
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013094130A priority Critical patent/JP6091319B2/en
Publication of JP2014216922A publication Critical patent/JP2014216922A/en
Application granted granted Critical
Publication of JP6091319B2 publication Critical patent/JP6091319B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Engineering & Computer Science (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)

Description

この発明は、例えば、侵入者などの発報事象の出現を監視する監視用画像処理装置に関するものである。   The present invention relates to a monitoring image processing apparatus that monitors the appearance of a notification event such as an intruder.

従来の画像処理装置では、例えば、特許文献1に開示されているように、「輝度背景差分」方式を使用して変化領域を抽出し、変化領域が監視範囲内にあり、所定の面積であることや所定の速度であることなどの条件により侵入者を判定する構成にしている。また、誤った侵入者判定を行なってしまうこと(誤報)を防ぐため、変化領域の面積が特定の面積であることや変化領域の外接四角形の縦横の寸法などにより、外乱が発生したかどうかを判定し、外乱が発生したと判断される場合には発報処理を規制する構成としている。   In a conventional image processing apparatus, for example, as disclosed in Patent Document 1, a change area is extracted using a “brightness background difference” method, and the change area is within a monitoring range and has a predetermined area. Or an intruder is determined based on conditions such as a predetermined speed. Also, in order to prevent erroneous intruder determination (false report), whether or not a disturbance has occurred due to the fact that the area of the change area is a specific area, the dimensions of the circumscribed rectangle of the change area, etc. If it is determined and it is determined that a disturbance has occurred, the reporting process is restricted.

特開平9−214939号公報Japanese Patent Laid-Open No. 9-214939

従来の監視用画像処理装置は以上のように構成されているので、効率的に移動物を判定し、不要検知を減少させることができる。
しかしながら、従来の監視用画像処理装置では、特に屋外において監視業務を行なう際に、夜間の車のヘッドライトの動きによって発生する変化領域の影響による不要検知により、誤報が発生してしまうという課題があった。
ヘッドライトは、高輝度で広範囲を照らし、はっきりとした変化領域を作る。また、大きさは不定で、形状的に侵入者と見誤る形状を取る場合もあり、従来の監視用画像処理装置では外乱と判定されず、発報対象となってしまう。しかし人間の目には、明確に「侵入者」と「ヘッドライト」は異なったものであり、このギャップにより、ヘッドライトによる発報は、不要通知、誤報とみなされる。
Since the conventional monitoring image processing apparatus is configured as described above, it is possible to efficiently determine moving objects and reduce unnecessary detection.
However, in the conventional monitoring image processing apparatus, particularly when performing monitoring work outdoors, there is a problem that false alarms are generated due to unnecessary detection due to the influence of a change area caused by the movement of a headlight of a car at night. there were.
Headlights illuminate a wide area with high brightness, creating a clear change area. In addition, the size is indefinite, and the shape may be misidentified as an intruder, and the conventional monitoring image processing device is not determined to be a disturbance and is subject to notification. However, in the human eye, the “intruder” and the “headlight” are clearly different, and due to this gap, the headlight alert is regarded as an unnecessary notification and a false alarm.

この発明は上記のような課題を解決するためになされたもので、誤報回避が困難であったヘッドライトによる変化領域を効果的に外乱と判定し、不要検知を発報以前に内部で修正して発報に至らないように対処することができる監視用画像処理装置を得ることを目的とする。   The present invention has been made to solve the above-described problems, and it is determined that the change area caused by the headlight, which has been difficult to avoid false alarms, is effectively a disturbance, and unnecessary detection is corrected internally before the alarm is issued. It is an object of the present invention to obtain a monitoring image processing apparatus that can cope with the situation so as not to cause an alarm.

この発明に係る監視用画像処理装置は、監視対象領域の現在の監視画像を映像信号として受信するビデオ入力部と、前記ビデオ入力部が受信した前記映像信号を量子化して現画像データとするA/Dコンバータと、前記A/Dコンバータによって量子化された現画像データを蓄積する現画像データ演算蓄積部と、前記A/Dコンバータによって量子化された現画像データから、発報事象が出現していない状態の前記監視画像を示す比較用画像データを作成して蓄積する比較用画像データ演算蓄積部と、前記現画像データと前記比較用画像データとを比較し、前記監視画像内の変化領域を抽出する変化領域抽出部と、前記変化領域を解析して発報事象が出現しているか否かの判定を行ない、発報事象発生通知を出力する認識処理部と、前記変化領域に外乱が発生しているかの判定を行い、外乱発生通知を出力する外乱判定部と、前記認識処理部が出力する前記発報事象発生通知と、前記外乱判定部が出力する前記外乱発生通知とに基づき、発報処理を行なう発報部とを備え、前記外乱判定部は、前記変化領域抽出部により抽出された前記変化領域の外接矩形を取得するフェレ径確認部と、前記フェレ径確認部が取得した前記外接矩形を複数のブロックに分割するブロック分割部と、前記ブロック分割部が分割した前記複数のブロック毎の濃淡値を計算するブロック濃淡計測部と、前記ブロック濃淡計測部が計算した前記ブロック毎の濃淡値に基づき、隣接する周囲ブロックに、自身より濃淡値が大きなブロックが存在しないブロックである濃淡頂点ブロックを探査し、前記濃淡頂点ブロックを光源と判断する光源位置算出部と、前記監視画像上道路とみなす道路エリアを予め記憶し、前記光源が前記道路エリアに属するか否かを判定する道路エリア照合部と、前記道路エリア照合部が、前記道路エリアに属すると判断した前記光源について、前記濃淡頂点ブロックが前記道路エリアに存在し続けた時間、前記濃淡頂点ブロックが移動した移動方向範囲、前記濃淡頂点ブロックの濃度値、前記濃淡頂点ブロックが前記道路エリアを移動した速度範囲、および、前記光源の発生時間に基づき、ヘッドライトによるものなのかどうかを判定するヘッドライト判定部とを備えたものである。 A monitoring image processing apparatus according to the present invention includes a video input unit that receives a current monitoring image of a monitoring target region as a video signal, and A that quantizes the video signal received by the video input unit to obtain current image data A A notification event appears from the / D converter, the current image data calculation storage unit that stores the current image data quantized by the A / D converter, and the current image data quantized by the A / D converter. A comparison image data calculation / storage unit for creating and storing comparison image data indicating the monitoring image that is not in a state, and comparing the current image data with the comparison image data, and a change area in the monitoring image A change region extraction unit that extracts the change region, a recognition processing unit that analyzes the change region to determine whether a notification event has occurred, and outputs a notification event occurrence notification, and the change A disturbance determination unit that determines whether a disturbance has occurred in the area and outputs a disturbance occurrence notification, the notification event occurrence notification output by the recognition processing unit, and the disturbance occurrence notification output by the disturbance determination unit And a reporting unit that performs a reporting process, wherein the disturbance determination unit acquires a circumscribed rectangle of the change area extracted by the change area extraction unit, and the ferret diameter check A block dividing unit that divides the circumscribed rectangle acquired by the unit into a plurality of blocks, a block gray measuring unit that calculates a gray value for each of the plurality of blocks divided by the block dividing unit, and a block gray measuring unit that calculates On the basis of the gray value for each block, a gray vertex block that is a block in which there is no block having a gray value larger than itself in an adjacent surrounding block is searched, and the gray vertex block is detected. A light source position calculation unit that determines a light source as a light source, a road area that is preliminarily stored as a road on the monitoring image, a road area verification unit that determines whether the light source belongs to the road area, and the road area For the light source determined by the matching unit to belong to the road area, the time during which the shade vertex block continues to exist in the road area, the moving direction range in which the shade vertex block has moved, the density value of the shade vertex block, And a headlight determination unit that determines whether the shade vertex block is due to a headlight based on a speed range in which the road block area moves and a generation time of the light source .

この発明によれば、従来装置と同規模で、安価に、かつ処理速度を大きく損ねずに、誤報回避が困難であったヘッドライトによる変化領域を効果的に外乱と判定し、不要検知を発報以前に内部で修正して発報に至らないように対処することができる。   According to the present invention, the change area caused by the headlight, which is difficult to avoid false alarms, is effectively determined as a disturbance, and unnecessary detection is performed at the same scale as the conventional apparatus, at a low cost and without greatly reducing the processing speed. It is possible to take measures so that it does not lead to a report by correcting it internally before the report.

この発明の実施の形態1に係る監視用画像処理装置の構成図である。1 is a configuration diagram of a monitoring image processing apparatus according to Embodiment 1 of the present invention. FIG. この発明の実施の形態1に係る外乱判定部7の構成図である。It is a block diagram of the disturbance determination part 7 which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る監視用画像処理装置の発報処理のフローチャートである。It is a flowchart of the alerting | reporting process of the monitoring image processing apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る外乱判定部における外乱判定を説明するフローチャートである。It is a flowchart explaining the disturbance determination in the disturbance determination part which concerns on Embodiment 1 of this invention. 現画像データ演算蓄積部で蓄積された現画像例と、比較用画像データ演算蓄積部で蓄積された比較用画像(背景画像)例とを示す図である。It is a figure which shows the example of the present image accumulate | stored in the present image data calculation storage part, and the example of the comparison image (background image) accumulate | stored by the image data calculation storage part for a comparison. 変化領域抽出部で抽出された変化領域の例を示す図である。It is a figure which shows the example of the change area extracted by the change area extraction part. フェレ径を説明する図である。It is a figure explaining a ferret diameter. フェレ径を包含するようにして、「8画素×8画素」の小ブロックを、フェレ径が隠れるような範囲に密集して配置した例を示す図である。It is a figure which shows the example which arrange | positioned the small block of "8 pixels x 8 pixels" densely in the range where a ferret diameter is hidden so that a ferret diameter may be included. ブロック濃淡計測部が、全ブロックの濃淡値を計算した結果を示す図である。It is a figure which shows the result in which the block shade measuring part calculated the shade value of all the blocks. 濃淡頂点ブロックの例を示す図である。It is a figure which shows the example of a light / dark vertex block. 予め設定した道路エリアを示す図である。It is a figure which shows the road area set beforehand. この発明の実施の形態2に係る監視用画像処理装置の構成図である。It is a block diagram of the image processing apparatus for monitoring which concerns on Embodiment 2 of this invention. この発明の実施の形態2に係る監視用画像処理装置の発報処理のフローチャートである。It is a flowchart of the alerting | reporting process of the monitoring image processing apparatus which concerns on Embodiment 2 of this invention. ヘッドライトと歩行者(侵入者)が混在した状況の監視画像の例である。It is an example of the monitoring image of the situation where a headlight and a pedestrian (intruder) were mixed. 図14に示すヘッドライトと歩行者のそれぞれにフェレ径を重ねた図である。It is the figure which piled up the ferret diameter on each of the headlight shown in FIG. 14, and a pedestrian. 図15に示す各フェレ径の濃淡頂点をマーキングした図である。It is the figure which marked the light-dark vertex of each ferret diameter shown in FIG.

以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
図1は、この発明の実施の形態1に係る監視用画像処理装置の構成図である。
監視用画像処理装置は、ビデオ入力部1と、A/Dコンバータ2と、現画像データ演算蓄積部3と、比較用画像データ演算蓄積部4と、変化領域抽出部5と、認識処理部6と、外乱判定部7と、発報部8とを備える。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Embodiment 1 FIG.
FIG. 1 is a block diagram of a monitoring image processing apparatus according to Embodiment 1 of the present invention.
The monitoring image processing apparatus includes a video input unit 1, an A / D converter 2, a current image data calculation storage unit 3, a comparison image data calculation storage unit 4, a change area extraction unit 5, and a recognition processing unit 6. A disturbance determination unit 7 and a reporting unit 8.

ビデオ入力部1は、電気所などに設置されたTVカメラ等、不図示の撮像装置から出力された監視対象領域の現在の監視画像を映像信号として受信する。
A/Dコンバータ2は、ビデオ入力部1から受信する映像信号を量子化する。つまり、ビデオ入力部1から受信したアナログデータをデジタルデータに変換する。
現画像データ演算蓄積部3は、A/Dコンバータ2によって量子化された現在の画像データ(現画像データという)を受信し蓄積する。なお、現画像データは必要に応じ記録すればよく、現画像データを蓄積せず、受信した現画像データをそのまま変化領域抽出部5に出力することとしてもよい。
The video input unit 1 receives a current monitoring image of a monitoring target area output from an imaging device (not shown) such as a TV camera installed in an electric station as a video signal.
The A / D converter 2 quantizes the video signal received from the video input unit 1. That is, the analog data received from the video input unit 1 is converted into digital data.
The current image data calculation accumulation unit 3 receives and accumulates current image data (referred to as current image data) quantized by the A / D converter 2. The current image data may be recorded as necessary, and the received current image data may be output to the change area extraction unit 5 as it is without accumulating the current image data.

比較用画像データ演算蓄積部4は、A/Dコンバータ2からの出力を受け相応の演算を行い、発報事象(例えば、侵入者)が出現していない状態の監視対象領域を示す比較用画像データ(例えば、発報事象が出現していないタイミングで、A/Dコンバータ2により取得された画像データ)を蓄積する。なお、比較用画像データは、必要に応じて記録すればよく、比較用画像データを蓄積せず、A/Dコンバータ2から受信した現画像データから比較用画像データを作成し、そのまま変化領域抽出部5に出力することとしてもよいし、人為的に作成された比較用画像データを外部から取得し、そのまま変化領域抽出部5に出力することとしてもよい。   The comparison image data calculation accumulating unit 4 receives the output from the A / D converter 2 and performs a corresponding calculation, and shows a comparison image indicating a monitoring target area in a state where no alarm event (for example, an intruder) has appeared. Data (for example, image data acquired by the A / D converter 2 at a timing when a notification event does not appear) is accumulated. The comparison image data may be recorded as necessary. The comparison image data is not accumulated, the comparison image data is created from the current image data received from the A / D converter 2, and the change area is extracted as it is. The image data may be output to the unit 5, or the comparison image data created artificially may be acquired from the outside and output to the change region extraction unit 5 as it is.

変化領域抽出部5は、現画像データ演算蓄積部3から取得した現画像データと、比較用画像データ演算蓄積部4から取得した比較用画像データとを比較演算して、監視対象領域内で変化している変化領域を抽出する。一般には、ここに2値化処理部が内蔵され、出力は2値データに変換されている。
認識処理部6は、変化領域抽出部105により検出された変化領域を解析して、発報事象が出現しているか否かを判定する処理を実施する。また、発報事象が出現していると判断すると、発報事象発生通知を発報部8へ出力する。なお、発報対象は、例えば人物などであり、オペレーターが事前に決定するものとする。
外乱判定部7は、変化領域抽出部5により抽出された変化領域を受信し、外乱が発生しているかの判定を行う。また、外乱が発生していると判断した場合には外乱発生通知を発報部8へ出力する。
The change area extraction unit 5 compares the current image data acquired from the current image data calculation storage unit 3 with the comparison image data acquired from the comparison image data calculation storage unit 4, and changes in the monitoring target region. To extract the change area. Generally, a binarization processing unit is built in here, and the output is converted into binary data.
The recognition processing unit 6 analyzes the change area detected by the change area extraction unit 105 and performs a process of determining whether or not a notification event has appeared. If it is determined that a reporting event has occurred, a notification event occurrence notification is output to the reporting unit 8. Note that the report target is, for example, a person, and is determined in advance by the operator.
The disturbance determination unit 7 receives the change region extracted by the change region extraction unit 5 and determines whether a disturbance has occurred. When it is determined that a disturbance has occurred, a disturbance occurrence notification is output to the reporting unit 8.

発報部8は、認識処理部6および外乱判定部7からの指示を受け、発報処理を行う。
外乱判定部7により外乱が発生していないと判定された場合に、認識処理部6により発報事象が出現していると判定されると、発報事象が出現している旨を発報する処理を実施する。また、外乱判定部7により外乱が発生していると判定された場合は、認識処理部6により発報事象が出現していると判定されても、発報事象が出現している旨を発報する処理を規制する。
なお、認識処理部6、外乱判定部7および発報部8は、S/Wにより処理されるのが一般的である。
The reporting unit 8 receives instructions from the recognition processing unit 6 and the disturbance determination unit 7 and performs reporting processing.
When it is determined by the disturbance determination unit 7 that no disturbance has occurred, if it is determined by the recognition processing unit 6 that a notification event has appeared, a notification that a notification event has appeared is issued. Perform the process. In addition, when it is determined by the disturbance determination unit 7 that a disturbance has occurred, even if it is determined by the recognition processing unit 6 that a notification event has appeared, a notification that a notification event has appeared is issued. Regulate the processing to be reported.
In general, the recognition processing unit 6, the disturbance determination unit 7, and the reporting unit 8 are processed by S / W.

図2は、この発明の実施の形態1に係る外乱判定部7の構成図である。
外乱判定部7は、フェレ径確認部20と、ブロック分割部21と、ブロック濃淡計測部22と、光源位置算出部23と、道路エリア照合部24と、ヘッドライト判定部25とを備える。
フェレ径確認部20は、変化領域抽出部5により抽出された変化領域を受信し、フェレ径(変化領域の外接矩形)を取得する。
ブロック分割部21は、フェレ径確認部20が出力したフェレ径を複数の小さなブロックに画面分割する。
FIG. 2 is a configuration diagram of the disturbance determination unit 7 according to Embodiment 1 of the present invention.
The disturbance determination unit 7 includes a ferret diameter confirmation unit 20, a block division unit 21, a block density measurement unit 22, a light source position calculation unit 23, a road area verification unit 24, and a headlight determination unit 25.
The ferret diameter confirmation unit 20 receives the change region extracted by the change region extraction unit 5, and acquires the ferret diameter (the circumscribed rectangle of the change region).
The block division unit 21 divides the ferret diameter output from the ferret diameter confirmation unit 20 into a plurality of small blocks.

ブロック濃淡計測部22は、ブロック分割部21が分割したブロック毎の濃淡値平均等を計算する。
光源位置算出部23は、ブロック濃淡計測部22が計算したブロック毎の濃淡値平均等から、最も光源らしいブロックを特定する。
道路エリア照合部24は、光源位置算出部23が算出した最も光源らしいブロックが、道路上に存在するかどうかを判断する。
ヘッドライト判定部25は、道路エリア照合部24の判定を受け、道路上に存在する最も光源らしいブロックの時間的経緯を観測し、ヘッドライトであるか否かを判断する。
The block density measuring unit 22 calculates the average density value for each block divided by the block dividing unit 21.
The light source position calculation unit 23 identifies the block most likely to be a light source from the average of the gray value of each block calculated by the block gray level measurement unit 22.
The road area matching unit 24 determines whether or not the most likely light source block calculated by the light source position calculation unit 23 exists on the road.
The headlight determination unit 25 receives the determination from the road area collation unit 24, observes the time history of the most likely light source block on the road, and determines whether it is a headlight.

次に、動作について説明する。
図3は、この発明の実施の形態1に係る監視用画像処理装置の発報処理のフローチャートである。まず、図3に沿って、発報するまでの動作について説明する。
ビデオ入力部1は、電気所などに設置されたTVカメラ等、外部の撮像装置から出力された映像信号(ビデオ信号)を受信し、A/Dコンバータ2に送る(ステップST1)。
A/Dコンバータ2は、ビデオ入力部1から受信したビデオ信号をデジタルデータに変換し、その画像データを現画像データ演算蓄積部3及び比較用画像データ演算蓄積部4に出力する(ステップST2)。具体的には、1画素あたり8ビットの多値データに変換するのが一般的である。
Next, the operation will be described.
FIG. 3 is a flowchart of the reporting process of the monitoring image processing apparatus according to the first embodiment of the present invention. First, the operation up to issue will be described with reference to FIG.
The video input unit 1 receives a video signal (video signal) output from an external imaging device such as a TV camera installed in an electric station or the like, and sends it to the A / D converter 2 (step ST1).
The A / D converter 2 converts the video signal received from the video input unit 1 into digital data, and outputs the image data to the current image data calculation storage unit 3 and the comparison image data calculation storage unit 4 (step ST2). . Specifically, conversion into multi-value data of 8 bits per pixel is common.

現画像データ演算蓄積部3は、A/Dコンバータ2から入力された画像データを元に「現画像データ」を作成し、蓄積する(ステップST3)。なお、入力データそのものを「現画像データ」とする場合が多いが、これは一例にすぎず、他の方法で「現画像データ」を作成してもよい。また、なお、現画像データは必要に応じ記録すればよく、現画像データを蓄積せず、受信した現画像データをそのまま変化領域抽出部5に出力することとしてもよい。   The current image data calculation / storage unit 3 creates and stores "current image data" based on the image data input from the A / D converter 2 (step ST3). In many cases, the input data itself is “current image data”. However, this is only an example, and “current image data” may be created by other methods. The current image data may be recorded as necessary, and the received current image data may be output to the change area extraction unit 5 as it is without accumulating the current image data.

比較用画像データ演算蓄積部4は、A/Dコンバータ2から入力された画像データを元に「比較用画像データ」を作成し、蓄積する(ステップST4)。なお、「比較用画像データ」は、報事象(例えば、侵入者)が出現していない状態の監視対象領域の監視画像を示すもので、例えば、発報事象が出現していないタイミングで、定期的にサンプリングされた現画像データや、直前のフレーム映像である場合が多いが、これは一例にすぎず、他の方法で「比較用画像データ」を作成してもよい。また、比較用画像データは、必要に応じて記録すればよく、比較用画像データを蓄積せず、A/Dコンバータ2から受信した現画像データから比較用画像データを作成し、そのまま変化領域抽出部5に出力することとしてもよいし、人為的に作成された比較用画像データを外部から取得し、そのまま変化領域抽出部5に出力することとしてもよい。   The comparison image data calculation storage unit 4 creates and stores “comparison image data” based on the image data input from the A / D converter 2 (step ST4). The “comparison image data” indicates a monitoring image of a monitoring target area in a state in which no reporting event (for example, an intruder) has appeared. However, this is only an example, and “comparison image data” may be created by other methods. Further, the comparison image data may be recorded as necessary. The comparison image data is not accumulated, the comparison image data is created from the current image data received from the A / D converter 2 and the change area is extracted as it is. The image data may be output to the unit 5, or the comparison image data created artificially may be acquired from the outside and output to the change region extraction unit 5 as it is.

変化領域抽出部5は、現画像データ演算蓄積部3および比較用画像データ演算蓄積部4から「現画像データ」と「比較用画像データ」とをそれぞれ取得し、比較する(ステップST5)。
「現画像データ」と「比較用画像データ」とに異なる部分がある場合(ステップST5の“YES”の場合)、変化領域抽出部5は、異なる部分を変化領域として抽出し、認識処理部6および外乱判定部7へ出力する。なお、変化領域とは、現画像と背景画像の画素単位での差分をとって2値化した画像である。また、変化領域とは、一般的には映像中の移動物が主ではあるが、車のヘッドライトの輝度変化についても変化領域として抽出される。
一方、「現画像データ」と「比較用画像データ」とに異なる部分がない場合(ステップST5の“NO”の場合)、処理終了する。
The change area extraction unit 5 acquires “current image data” and “comparison image data” from the current image data calculation storage unit 3 and the comparison image data calculation storage unit 4 and compares them (step ST5).
When there is a different part between “current image data” and “comparison image data” (in the case of “YES” in step ST5), the change area extraction unit 5 extracts the different part as a change area, and the recognition processing unit 6 And output to the disturbance determination unit 7. The change area is an image obtained by binarizing the difference between the current image and the background image in pixel units. The change area is generally a moving object in the video, but the brightness change of the headlight of the car is also extracted as the change area.
On the other hand, when there is no different portion between the “current image data” and the “comparison image data” (in the case of “NO” in step ST5), the processing is ended.

認識処理部6は、変化領域抽出部5から変化領域データを受信し、発報対象であるか否か、つまり、発報事象が発生しているか否かの判定を行ない、発報事象が発生していると判断されると、発報事象発生を発報部8へ通知する(ステップST7)。この判定については、従来の監視用画像処理装置を同様に、所定の条件を満たすかどうかによって行ない、所定の条件を満たす場合、発報対象であると判断する。
所定の条件とは、例えば、以下の条件があげられる。
(1−1)変化領域が監視範囲内にある
(1−2)変化領域が所定の面積である
(1−3)変化領域が所定の縦横寸法である
(1−4)変化領域が所定の速度である
なお、これは一例にすぎず、他の条件で発報対象であるか否かの判定を行なってもよい。
The recognition processing unit 6 receives the change area data from the change area extraction unit 5 and determines whether or not it is a report target, that is, whether or not a report event has occurred, and a report event occurs. If it is determined that the notification event has occurred, the notification unit 8 is notified of the occurrence of the notification event (step ST7). This determination is similarly made according to whether or not a conventional monitoring image processing apparatus satisfies a predetermined condition. If the predetermined condition is satisfied, it is determined that the image is to be issued.
Examples of the predetermined conditions include the following conditions.
(1-1) The change area is within the monitoring range (1-2) The change area is a predetermined area (1-3) The change area is a predetermined vertical and horizontal dimension (1-4) The change area is a predetermined area Note that this is only an example, and it may be determined whether or not the report is to be issued under other conditions.

外乱判定部7は、変化領域抽出部5から変化領域データを受信し、受信した変化領域データの中に外乱があるか否かの判定を行なう(ステップST8)。この判定の詳細については後述する。
発報部8は、認識処理部6および外乱判定部7からの指示を受け、発報対象であるかどうかの判定を行なう(ステップST9)。つまり、ステップST7において、認識処理部6が発報対象であると判断したか否か、具体的には、認識処理部6から発報対象発生の通知を受信したかを判定する。
The disturbance determination unit 7 receives the change area data from the change area extraction unit 5, and determines whether there is a disturbance in the received change area data (step ST8). Details of this determination will be described later.
The reporting unit 8 receives instructions from the recognition processing unit 6 and the disturbance determination unit 7 and determines whether or not it is a reporting target (step ST9). That is, in step ST7, it is determined whether or not the recognition processing unit 6 has determined that it is a notification target, specifically, whether or not a notification of the generation of a notification target has been received from the recognition processing unit 6.

ステップST9において、発報対象でないと判断した場合、つまり、発報対象発生の通知を受信していないと判断した場合(ステップST9の“NO”の場合)、発報部8は、以降の処理をスキップし、処理終了する。
ステップST9において、発報対象であると判断した場合、つまり、発報対象発生の通知を受信したと判断した場合(ステップST9の“YES”の場合)、発報部8は、外乱が発生しているか否かの判定を行なう(ステップST10)。具体的には、ステップST8において、外乱判定部7から外乱発生との通知を受信したかどうかの判定を行なう。
外乱判定部7による外乱判定の詳細は後述する。
If it is determined in step ST9 that it is not a notification target, that is, if it is determined that a notification of the generation of a notification target has not been received (in the case of “NO” in step ST9), the notification unit 8 performs the following processing. Is skipped and the process ends.
In step ST9, when it is determined that it is a notification target, that is, when it is determined that a notification of generation of a notification target has been received (in the case of “YES” in step ST9), the reporting unit 8 generates a disturbance. It is determined whether or not (step ST10). Specifically, in step ST8, it is determined whether or not a notification that a disturbance has occurred has been received from the disturbance determination unit 7.
Details of the disturbance determination by the disturbance determination unit 7 will be described later.

ステップST10で、外乱なしと判断した場合、つまり、外乱発生の通知を受信していないと判断した場合(ステップST10の“NO”の場合)、発報部8は、発報が必要であると判断し、発報処理を行なう(ステップST11)。
具体的には、例えば、上位にあるPC等に特定の信号を送ったり、装置のブザーを鳴らしたりする。
一方、ステップST10で、外乱ありと判断された場合、つまり、外乱発生の通知を受信したと判断された場合(ステップST10の“YES”の場合)、発報部8は、発報が不要であると判断し、発報処理を規制する(ステップST12)。
When it is determined in step ST10 that there is no disturbance, that is, when it is determined that a notification of the occurrence of disturbance has not been received (in the case of “NO” in step ST10), the reporting unit 8 needs to report. Judgment is performed, and a notification process is performed (step ST11).
Specifically, for example, a specific signal is sent to a host PC or the like, or a buzzer of the apparatus is sounded.
On the other hand, if it is determined in step ST10 that there is a disturbance, that is, if it is determined that a notification of the occurrence of a disturbance has been received (in the case of “YES” in step ST10), the reporting unit 8 does not require reporting. It is determined that there is, and the notification process is restricted (step ST12).

つまり、発報部8は、認識処理部6が、発報対象が存在すると判断しても、外乱判定部7が外乱発生と判断すれば、その対象物については不要検知対象であると判断し、発報を規制する。逆に、発報部8は、認識処理部6が、発報対象が存在すると判断し、外乱判定部7が外乱発生を検知しなければ、認識処理部6が判断した発報対象は真の発報対象と判断し、発報する。発報の規制の具体的な内容については後述する。   That is, even if the recognition processing unit 6 determines that the notification target exists, the notification unit 8 determines that the target is an unnecessary detection target if the disturbance determination unit 7 determines that a disturbance has occurred. , Regulate the alert. Conversely, if the recognition processing unit 6 determines that the notification target exists and the disturbance determination unit 7 does not detect the occurrence of the disturbance, the notification unit 8 determines that the notification target determined by the recognition processing unit 6 is true. Judge as the subject of the report and issue a report. The specific contents of the regulation of notification will be described later.

図4は、この発明の実施の形態1に係る外乱判定部7における外乱判定を説明するフローチャートである。
外乱判定部7は、変化領域抽出部5において、カメラ監視エリア内の変化領域が抽出された場合、それが車のヘッドライトによるものであるかどうかを判定する。以下、図4に沿って、外乱判定部7の動作について説明する。
外乱判定部7のフェレ径確認部20は、変化領域抽出部5が抽出した変化領域から、フェレ径を取得する(ステップST101)。
FIG. 4 is a flowchart illustrating disturbance determination in disturbance determination unit 7 according to Embodiment 1 of the present invention.
When the change region extraction unit 5 extracts a change region in the camera monitoring area, the disturbance determination unit 7 determines whether the change region is due to the headlight of the car. Hereinafter, the operation of the disturbance determination unit 7 will be described with reference to FIG.
The ferret diameter confirmation unit 20 of the disturbance determination unit 7 acquires the ferret diameter from the change region extracted by the change region extraction unit 5 (step ST101).

ここで、図5は、現画像データ演算蓄積部3で蓄積された現画像例と、比較用画像データ演算蓄積部4で蓄積された比較用画像(背景画像)例とを示す図である。なお、図5(a)が現画像例であり、図5(b)が比較用画像(背景画像)例をあらわしている。
図5では、道路上にて夜間にヘッドライトを点灯させて通行している車両を例として説明する。つまり、車両が映っているもの(図5(a))が現画像であり、車両が映っていないもの(図5(b))が背景画像である。
なお、図5(a)の現画像は、背景画像と時間的に連続した映像であるとする。
FIG. 5 is a diagram showing an example of the current image stored in the current image data calculation storage unit 3 and a comparison image (background image) stored in the comparison image data calculation storage unit 4. FIG. 5A shows an example of the current image, and FIG. 5B shows an example of a comparison image (background image).
FIG. 5 illustrates an example of a vehicle that travels with a headlight turned on at night on a road. That is, the image showing the vehicle (FIG. 5A) is the current image, and the image not showing the vehicle (FIG. 5B) is the background image.
Note that the current image in FIG. 5A is a video temporally continuous with the background image.

図6は、変化領域抽出部5で抽出された変化領域の例を示す図である。
図5(b)に示した背景画像では通常の道路の映像が見えるが、次の瞬間の現画像(図5(a))では映像奥手に車が現れる。
この場合、監視用画像処理装置から見ての変化領域は、図6に示す通り、現画像と背景画像との差分である「ヘッドライト」である。つまり、図6において、染まっているエリアが変化領域である。
FIG. 6 is a diagram illustrating an example of the change area extracted by the change area extraction unit 5.
In the background image shown in FIG. 5B, a normal road image can be seen, but in the current image (FIG. 5A) at the next moment, a car appears behind the image.
In this case, the change area viewed from the monitoring image processing apparatus is “headlight” which is a difference between the current image and the background image, as shown in FIG. That is, in FIG. 6, the dyed area is the change area.

ここで、図6に示すような変化領域の外接矩形をフェレ径と呼ぶ。
具体的には、図7に書き込まれている実線の枠線が、「ヘッドライト」の変化領域から導かれた外接四角形(フェレ径)である。従来の監視用画像処理装置では、この場合、仮にこの「ヘッドライト」が発報対象と判断されれば、それを受け発報処理が行われていた。
フェレ径確認部20は、ステップST101において、図7に示すフェレ径を取得する。
Here, a circumscribed rectangle of the change region as shown in FIG. 6 is called a ferret diameter.
Specifically, the solid frame line written in FIG. 7 is a circumscribed rectangle (Ferre diameter) derived from the change region of the “headlight”. In the conventional image processing apparatus for monitoring, in this case, if this “headlight” is determined to be a notification target, the notification processing is performed in response to the determination.
In step ST101, the ferret diameter checking unit 20 acquires the ferret diameter shown in FIG.

外乱判定部7のブロック分割部21は、ステップST101においてフェレ径確認部20が取得したフェレ径を包含するように、複数の小ブロックを定義する(ステップST102)。ここでは例として、「8画素×8画素」の小ブロックを、フェレ径が隠れるような範囲に密集して配置する。
「8画素×8画素」の小ブロックが、フェレ径が隠れるような範囲に密集して配置されたブロックの様子を、図8に示す。
The block division unit 21 of the disturbance determination unit 7 defines a plurality of small blocks so as to include the ferret diameter acquired by the ferret diameter confirmation unit 20 in step ST101 (step ST102). Here, as an example, small blocks of “8 pixels × 8 pixels” are densely arranged in a range where the ferret diameter is hidden.
FIG. 8 shows a state in which small blocks of “8 pixels × 8 pixels” are densely arranged in a range in which the ferret diameter is hidden.

外乱判定部7のブロック濃淡計測部22は、ステップST102においてブロック分割部21が分割した小ブロック毎に、変化領域該当画素の濃淡を計算し、小ブロックにある変化領域該当画素の輝度平均値を求める(ステップST103)。ここで、ブロック濃淡計測部22が計算した輝度平均値を「濃淡値」とする。なお、一般に輝度の大小を濃淡というが、色でも構わない。
図9は、ブロック濃淡計測部22が、全ブロックの濃淡値を計算した結果を示す図である。
The block density measurement unit 22 of the disturbance determination unit 7 calculates the density of the change region corresponding pixels for each small block divided by the block division unit 21 in step ST102, and calculates the luminance average value of the change region corresponding pixels in the small block. Obtained (step ST103). Here, the luminance average value calculated by the block gray level measuring unit 22 is referred to as a “light gray value”. In general, the magnitude of luminance is called shading, but it may be a color.
FIG. 9 is a diagram showing a result of the block density measuring unit 22 calculating the density values of all blocks.

外乱判定部7の光源位置算出部23は、ステップST103においてブロック濃淡計測部22が計算した各小ブロックの濃淡値をもとに、「濃淡頂点ブロック」を探査する(スステップST104)。
濃淡頂点ブロックとは、「隣接する周囲ブロックに、自身より濃淡値が大きなブロックが存在しないブロック」と定義し、この濃淡頂点ブロックが、ヘッドライト光源の存在する位置と仮定する。つまり、濃淡頂点ブロックが、最もヘッドライトの光源らしい位置を示す。
なお、実際には路面反射のほうが濃淡値が大きい場合もあるが、それが光源たるヘッドライトから派生したものである以上、その判断で構わない。
光源位置算出部23は、濃淡頂点ブロックを決定し、この濃淡頂点ブロックを「光源」とする。
図10は、濃淡頂点ブロックの例を示す図である。図10においてマーキングされたブロックが濃淡頂点ブロックである。
図10に示すように、濃淡頂点ブロックは、1ブロックとは限らず、定義されたヘッドライト光源が複数あることや、反射の具合によって増減する。
The light source position calculation unit 23 of the disturbance determination unit 7 searches for the “dark vertex block” based on the gray value of each small block calculated by the block gray level measurement unit 22 in step ST103 (step ST104).
The light / dark vertex block is defined as “a block in which there is no block having a lighter / darker value than the adjacent surrounding blocks”, and this light / dark vertex block is assumed to be a position where the headlight light source exists. That is, the light / dark vertex block indicates the position most likely to be the light source of the headlight.
Actually, the road surface reflection may have a larger gray value, but as long as it is derived from a headlight as a light source, the determination may be made.
The light source position calculation unit 23 determines a light / dark vertex block and sets the light / dark vertex block as a “light source”.
FIG. 10 is a diagram illustrating an example of a light / dark vertex block. The blocks marked in FIG. 10 are shaded vertex blocks.
As shown in FIG. 10, the light / dark vertex block is not limited to one block, and increases or decreases depending on the presence of a plurality of defined headlight light sources and the degree of reflection.

図11は、道路エリアを示す図である。
図11に示すような「道路エリア」は、監視画像上道路とみなす範囲のことをいい、予め設定され、外乱判定部7の道路エリア照合部24に記憶されている。
道路エリア照合部24は、ステップST104で光源位置算出部23が定義した濃淡頂点ブロックが、自身に記憶している「道路エリア」に属するか否かを判定する(ステップST105)。なお、複数の濃淡頂点ブロックが存在する場合は、どれか一つの濃淡頂点ブロックについて「道路エリア」に属するか否かの判定を行なってもよいが、全ての濃淡頂点ブロックにおいて「道路エリア」に属するか否かの判定を行なうと良い精度で結果を得ることができる。
FIG. 11 is a diagram illustrating a road area.
A “road area” as shown in FIG. 11 refers to a range regarded as a road on the monitoring image, is set in advance, and is stored in the road area matching unit 24 of the disturbance determination unit 7.
The road area matching unit 24 determines whether or not the shade vertex block defined by the light source position calculation unit 23 in step ST104 belongs to the “road area” stored in itself (step ST105). In addition, when there are a plurality of shade vertex blocks, it may be determined whether any one shade vertex block belongs to the “road area”. If it is determined whether or not it belongs, a result can be obtained with good accuracy.

ステップST105において、道路エリア照合部24が、濃淡頂点ブロック、つまり「光源」が「道路エリア」にないと判定した場合(ステップST105の“NO”の場合)、ヘッドライトによる外乱ではないと判断し、以降の処理はスキップして外乱判定を終了する。
ステップST105において、道路エリア照合部24が、濃淡頂点ブロック、つまり「光源」が「道路エリア」にあると判定した場合(ステップST105の“YES”の場合)、多くの場合それは車両のヘッドライトであるが、より精度を上げるため、外乱判定部7のヘッドライト判定部25は、道路エリア照合部24が道路エリアに属していると判断した濃淡頂点ブロックについて、例えば、以下の(2−1)〜(2−5)の条件にもとづき、ヘッドライトによるものなのかどうかの最終判断を行なう(ステップST106)。
In step ST105, when the road area matching unit 24 determines that the light / dark vertex block, that is, the “light source” is not in the “road area” (in the case of “NO” in step ST105), it is determined that the disturbance is not caused by the headlight. The subsequent processing is skipped and the disturbance determination is terminated.
In step ST105, when the road area matching unit 24 determines that the light / dark vertex block, that is, the “light source” is in the “road area” (in the case of “YES” in step ST105), in many cases, it is a vehicle headlight. In order to increase the accuracy, the headlight determination unit 25 of the disturbance determination unit 7 uses, for example, the following (2-1) for the light / dark vertex block that the road area matching unit 24 determines to belong to the road area. Based on the conditions of (2-5), a final determination is made as to whether the headlight is used (step ST106).

(2−1)濃淡頂点ブロックが予め定めた継続時間(例:0.5秒)、道路エリア内に存在し続けた。
(2−2)淡頂点ブロックが予め定めた移動方向範囲(例:道路上り下り方向)に移動した。
(2−3)濃淡頂点ブロックが予め定めた濃度値以上(例:濃淡値200以上)である。
(2−4)濃淡頂点ブロックが予め定めた速度範囲(例:10画素/秒以上)にて、道路エリアを移動した。
(2−5)発生時間が日没から日の出までである。
(2-1) The shade vertex block continued to exist in the road area for a predetermined duration (eg, 0.5 seconds).
(2-2) light and shade moving direction range apex block is predetermined: moved to (eg road uplink and downlink directions).
(2-3) The density vertex block is equal to or higher than a predetermined density value (eg, the density value is 200 or more).
(2-4) The shade vertex block moved in the road area within a predetermined speed range (eg, 10 pixels / second or more).
(2-5) The generation time is from sunset to sunrise.

外乱判定部7のヘッドライト判定部25は、道路エリア照合部24が道路エリアに属していると判断した濃淡頂点ブロックについて、ヘッドライトによる外乱発生であるか否かを判定する(ステップST107)。具体的には、条件(2−1)〜(2−5)を全て満たした場合、該当の濃淡頂点ブロックはヘッドライト光源である、つまり、「現在ヘッドライトによる外乱が発生している」と判断し(ステップST107の“YES”)、発報部8へ外乱発生を通知する(ステップST108)。
一方、条件(2−1)〜(2−5)を全て満たさない場合は、外乱発生はなかったとみなし(ステップST107の“NO”)、発報部8へは何も通知しない。
なお、条件(2−1)〜(2−5)は一例にすぎず、外乱判定の条件は適宜設定可能である。
The headlight determination unit 25 of the disturbance determination unit 7 determines whether or not a disturbance due to the headlight has occurred for the shade vertex block determined by the road area matching unit 24 to belong to the road area (step ST107). Specifically, when all of the conditions (2-1) to (2-5) are satisfied, the corresponding light / dark vertex block is a headlight light source, that is, “currently a disturbance due to the headlight occurs”. Judgment is made ("YES" in step ST107), and the occurrence of disturbance is notified to the reporting unit 8 (step ST108).
On the other hand, when all of the conditions (2-1) to (2-5) are not satisfied, it is considered that no disturbance has occurred ("NO" in step ST107), and nothing is notified to the reporting unit 8.
The conditions (2-1) to (2-5) are merely examples, and the conditions for determining the disturbance can be set as appropriate.

以上の外乱判定部7による外乱判定の結果、外乱発生の通知を受信すると、発報部8は外乱発生ありと判断し、発報処理を規制する。したがって、遡って「ヘッドライト」が発報対象と判断されていたにも関わらず、発報部8により発報が規制され、「ヘッドライト」による不要検知の発生は押さえられる。
一方、外乱発生がなかった場合、つまり、外乱判定部7から外乱発生の通知を受信しなかった場合は、発報部8は、通常の発報処理を行なう。
As a result of the disturbance determination by the disturbance determination unit 7 described above, when the notification of the occurrence of the disturbance is received, the reporting unit 8 determines that the disturbance has occurred and restricts the reporting process. Therefore, although the “headlight” has been determined to be reported retroactively, the reporting unit 8 regulates the reporting and suppresses the occurrence of unnecessary detection by the “headlight”.
On the other hand, when there is no disturbance occurrence, that is, when a notification of disturbance occurrence is not received from the disturbance determination unit 7, the reporting unit 8 performs normal reporting processing.

ここで、発報処理の規制とは、例えば、発報部8が、外乱発生中は発報を行なわないこととしてもよいし、外乱発生中は発報を一部割愛することとしてもよい。また、発報部8が、認識処理部6に、外乱発生中は発報事象が出現しているか否かの判定の条件を修正させるよう指示するようにしてもよいし、外乱発生があったという情報を上位のPC等に通知するようにしてもよい。誤報と認識されないよう、通常の発報処理を制限するものであればよい。
なお、この実施の形態1では、外乱判定部7が、外乱発生を発報部8へ通知し、発報部8において発報処理を規制することとしたが、外乱判定部7が、外乱発生を認識処理部6へ通知し、認識処理部6において、外乱発生ありの場合には発報対象としない処理を行なうように構成してもよい。
Here, the regulation of the reporting process may be, for example, that the reporting unit 8 may not perform reporting while a disturbance is occurring, or may omit part of the reporting while a disturbance is occurring. Further, the reporting unit 8 may instruct the recognition processing unit 6 to correct the condition for determining whether or not a reporting event has occurred during the occurrence of a disturbance, or there has been a disturbance. Such information may be notified to a host PC or the like. What is necessary is just to restrict the normal alarm processing so that it is not recognized as a false alarm.
In the first embodiment, the disturbance determining unit 7 notifies the reporting unit 8 of the occurrence of the disturbance and the reporting unit 8 regulates the reporting process. However, the disturbance determining unit 7 generates the disturbance. May be notified to the recognition processing unit 6, and the recognition processing unit 6 may be configured to perform a process that is not a notification target when a disturbance occurs.

以上のように、この実施の形態1によれば、ある特定の条件を持つ面積を持つ濃淡頂点ブロックが現れた際にヘッドライト外乱発生と判断し発報を規制するようにしたので、簡単なプロセスで効率よく不要検知を減少させることができる。   As described above, according to the first embodiment, when a light / dark vertex block having an area having a specific condition appears, it is determined that headlight disturbance has occurred and the notification is restricted. Unnecessary detection can be efficiently reduced in the process.

実施の形態2.
図12は、この発明の実施の形態2に係る監視用画像処理装置の構成図である。
ここで、図1に示した実施の形態1に係る監視用画像処理装置の構成と同じものについては詳細な説明を省略し、図1と相違する部分についてのみ説明する。
図12において、監視用画像処理装置は、混在状況判定部9をさらに備えている。
混在状況判定部9は、監視用画像に2つ以上のフェレ径が存在する場合に、外乱発生を優先すべきか歩行者(侵入者)発報を優先すべきかを判定する。
Embodiment 2. FIG.
FIG. 12 is a block diagram of a monitoring image processing apparatus according to Embodiment 2 of the present invention.
Here, a detailed description of the same configuration as that of the monitoring image processing apparatus according to the first embodiment shown in FIG. 1 is omitted, and only a portion different from FIG. 1 is described.
In FIG. 12, the monitoring image processing apparatus further includes a mixed state determination unit 9.
When two or more ferret diameters exist in the monitoring image, the mixed situation determination unit 9 determines whether to give priority to the occurrence of disturbance or to give priority to pedestrian (intruder) reporting.

図13は、この発明の実施の形態2に係る監視用画像処理装置の発報処理のフローチャートである。以下、図13に沿って説明する。
図13において、ステップST1〜12の処理は、図3のステップST1〜12と同じであるため、詳細な説明を省略する。
ステップST8において、外乱判定部7が、変化領域抽出部5から受信した変化領域データの中に外乱があるか否かの判定を行なわれると、混在状況判定部9は、外乱判定部7が外乱ありと判断した変化領域について、ヘッドライトと侵入者が監視画像内に混在していないかどうかの混在状況判定を行なう(ステップST13)。
FIG. 13 is a flowchart of the reporting process of the monitoring image processing apparatus according to the second embodiment of the present invention. Hereinafter, a description will be given with reference to FIG.
In FIG. 13, the processing of steps ST1 to 12 is the same as that of steps ST1 to 12 of FIG.
In step ST8, when the disturbance determination unit 7 determines whether or not there is a disturbance in the change area data received from the change area extraction unit 5, the mixture determination unit 9 determines that the disturbance determination unit 7 For the change area determined to be present, a mixed state determination is made as to whether the headlight and the intruder are not mixed in the monitoring image (step ST13).

図14は、ヘッドライトと歩行者(侵入者)が混在した状況の監視画像の例である。図14において、画面奥手よりヘッドライトを付けた車両が近寄り、画面手前では歩行者が道路横断中である。
図15は、図14に示すヘッドライトと歩行者のそれぞれにフェレ径を重ねた図である。図15に示すように、奥手のヘッドライトと手前の歩行者にそれぞれフェレ径が重なっている。
例えば、図14に示すような監視画像であった場合、実施の形態1で説明した監視用画像処理装置では、外乱判定部7は、ヘッドライトによる外乱ありと判断し(図3のステップST8)、発報部8は正常な発報を規制する(図3のステップST9,10,12)。
その結果、手前の歩行者で発報することが出来ず、失報となってしまう。
FIG. 14 is an example of a monitoring image in a situation where headlights and pedestrians (intruders) are mixed. In FIG. 14, a vehicle with a headlight is approaching from the back of the screen, and a pedestrian is crossing the road in front of the screen.
FIG. 15 is a diagram in which the ferret diameter is superimposed on each of the headlight and the pedestrian illustrated in FIG. 14. As shown in FIG. 15, the ferret diameter overlaps the headlight at the back and the pedestrian in front.
For example, when the monitoring image is as shown in FIG. 14, in the monitoring image processing apparatus described in the first embodiment, the disturbance determination unit 7 determines that there is a disturbance due to the headlight (step ST8 in FIG. 3). The reporting unit 8 regulates normal reporting (steps ST9, 10, 12 in FIG. 3).
As a result, it cannot be reported by a pedestrian in front, and will be lost.

そこで、この実施の形態2に係る監視用画像処理装置では、監視画像中に2つ以上のフェレ径が現れた場合に、混在状況判定部9が混在状況判定を行なう。
図14に示すような監視画像であった場合、混在状況判定部9は、まず、図15の各フェレ径の「濃淡頂点」を確認する。図16に示すように、マーキングされたブロックが各フェレ径の濃淡頂点である。
Therefore, in the monitoring image processing apparatus according to the second embodiment, when two or more ferret diameters appear in the monitoring image, the mixed status determination unit 9 performs the mixed status determination.
In the case of a monitoring image as shown in FIG. 14, the mixed situation determination unit 9 first checks the “dark vertex” of each ferret diameter in FIG. 15. As shown in FIG. 16, the marked block is a light and dark vertex of each ferret diameter.

次に混在状況判断部は、例えば、以下の(3−1),(3−2)の様な条件での判定を実施する。
(3−1)濃淡頂点ブロックが予め定めた濃度値以上(例:濃淡値200以上)である
(3−2)濃淡頂点ブロックが予め定めた道路エリア内に存在し続けている
条件(3−1),(3−2)を全て満たす場合、混在状況判定部9は、その濃淡頂点ブロックはヘッドライトであると判断する。条件(3−1),(3−2)を全て満たさない場合、混在状況判定部9は、その濃淡頂点ブロックは歩行者(侵入者)であると判断する。
なお、(3−1),(3−2)の条件は一例にすぎず、他の条件でヘッドライトであるか歩行者(侵入者)であるか否かの判定を行なってもよい。
Next, for example, the mixed status determination unit performs the determination under the following conditions (3-1) and (3-2).
(3-1) The shade vertex block is equal to or higher than a predetermined density value (eg, shade value 200 or more). (3-2) The shade vertex block continues to exist in the predetermined road area (3- When all of 1) and (3-2) are satisfied, the mixed situation determination unit 9 determines that the shade vertex block is a headlight. When the conditions (3-1) and (3-2) are not satisfied, the mixed situation determination unit 9 determines that the shaded vertex block is a pedestrian (intruder).
The conditions (3-1) and (3-2) are merely examples, and it may be determined whether the headlight or the pedestrian (intruder) is in other conditions.

各フェレ径の濃淡頂点ブロックの判定が終わると、混在状況判定部9は、「歩行者(侵入者)」と判断されたフェレ径があるかどうかを判定する。
ここで、「歩行者(侵入者)」と判断されたフェレ径がある場合には、混在状況判定部9は、監視画像内に「ヘッドライト」と判断されたフェレ径があったとしても、外乱とはしない。つまり、発報部8へ外乱ありの通知をおこなわないように訂正する。具体的には、外乱判定部7が出力した外乱発生を知らせる通知を取り消す。
これにより、発報部8は、外乱はないものとして(ステップST10)、発報処理を行なう(ステップST11)。
When the determination of the shade vertex block of each ferret diameter is completed, the mixed situation determination unit 9 determines whether there is a ferret diameter determined as “pedestrian (intruder)”.
Here, if there is a ferret diameter determined to be “pedestrian (intruder)”, the mixed situation determination unit 9 may determine that there is a ferret diameter determined to be “headlight” in the monitoring image. It is not a disturbance. That is, it corrects so that the notification part 8 may not be notified to the reporting unit 8. Specifically, the notification notifying the occurrence of the disturbance output by the disturbance determination unit 7 is canceled.
As a result, the reporting unit 8 performs the reporting process (step ST11), assuming that there is no disturbance (step ST10).

以上で明らかなように、この実施の形態2によれば、ヘッドライト外乱と歩行者(侵入者)が混在した状況においても、精度を劣化すること無く必要な発報を行なうことができる。   As is apparent from the above, according to the second embodiment, even in a situation where a headlight disturbance and a pedestrian (intruder) coexist, necessary notification can be performed without degrading accuracy.

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .

1 ビデオ入力部、2 A/Dコンバータ、3 現画像データ演算蓄積部、4 比較用画像データ演算蓄積部、5 変化領域抽出部、6 認識処理部、7 外乱判定部、8 発報部、9 混在状況判定部、20 フェレ径確認部、21 ブロック分割部、22 ブロック濃淡計測部、23 光源位置算出部、24 道路エリア照合部、25 ヘッドライト判定部。   DESCRIPTION OF SYMBOLS 1 Video input part, 2 A / D converter, 3 Current image data calculation accumulation | storage part, 4 Comparison image data calculation accumulation | storage part, 5 Change area extraction part, 6 Recognition processing part, 7 Disturbance determination part, 8 Notification part, 9 Mixed state determination unit, 20 ferret diameter confirmation unit, 21 block division unit, 22 block density measurement unit, 23 light source position calculation unit, 24 road area verification unit, 25 headlight determination unit.

Claims (3)

監視対象領域の現在の監視画像を映像信号として受信するビデオ入力部と、
前記ビデオ入力部が受信した前記映像信号を量子化して現画像データとするA/Dコンバータと、
前記現画像データと、前記現画像データにおいて発報事象が出現していない状態の前記監視画像を示す比較用画像データとを比較し、前記監視画像内の変化領域を抽出する変化領域抽出部と、
前記変化領域を解析して発報事象が出現しているか否かの判定を行ない、発報事象発生通知を出力する認識処理部と、
前記変化領域に外乱が発生しているかの判定を行い、外乱発生通知を出力する外乱判定部とを備え、
前記外乱判定部は、前記変化領域抽出部により抽出された前記変化領域の外接矩形を取得するフェレ径確認部と、
前記フェレ径確認部が取得した前記外接矩形を複数のブロックに分割するブロック分割部と、
前記ブロック分割部が分割した前記複数のブロック毎の濃淡値を計算するブロック濃淡計測部と、
前記ブロック濃淡計測部が計算した前記ブロック毎の濃淡値に基づき、隣接する周囲ブロックに、自身より濃淡値が大きなブロックが存在しないブロックである濃淡頂点ブロックを探査し、前記濃淡頂点ブロックを光源と判断する光源位置算出部と、
前記監視画像上道路とみなす道路エリアを予め記憶し、前記光源が前記道路エリアに属するか否かを判定する道路エリア照合部と、
前記道路エリア照合部が、前記道路エリアに属すると判断した前記光源について、前記濃淡頂点ブロックが前記道路エリアに存在し続けた時間、前記濃淡頂点ブロックが移動した移動方向範囲、前記濃淡頂点ブロックの濃度値、前記濃淡頂点ブロックが前記道路エリアを移動した速度範囲、および、前記光源の発生時間に基づき、ヘッドライトによるものなのかどうかを判定するヘッドライト判定部とを備えた
ことを特徴とする監視用画像処理装置。
A video input unit for receiving a current monitoring image of the monitoring target area as a video signal;
An A / D converter that quantizes the video signal received by the video input unit into current image data;
A change area extraction unit that compares the current image data with comparison image data indicating the monitoring image in a state in which a notification event does not appear in the current image data, and extracts a change area in the monitoring image; ,
Recognizing the occurrence of a notification event by analyzing the change region, a recognition processing unit that outputs a notification event occurrence notification,
It is determined whether a disturbance has occurred in the change region, and includes a disturbance determination unit that outputs a disturbance occurrence notification,
The disturbance determination unit includes a ferret diameter confirmation unit that acquires a circumscribed rectangle of the change region extracted by the change region extraction unit;
A block dividing unit that divides the circumscribed rectangle obtained by the ferret diameter checking unit into a plurality of blocks;
A block density measuring unit that calculates a density value for each of the plurality of blocks divided by the block dividing unit;
Based on the shade value for each block calculated by the block shade measurement unit, the adjacent vertex block is searched for a shade vertex block that does not have a block with a shade value greater than itself, and the shade vertex block is used as a light source. A light source position calculation unit to determine;
A road area that is preliminarily stored as a road on the monitoring image and that determines whether the light source belongs to the road area;
For the light source determined by the road area matching unit to belong to the road area, the time during which the shade vertex block continues to exist in the road area, the moving direction range in which the shade vertex block has moved, the shade vertex block And a headlight determination unit for determining whether the light source is based on a density value, a speed range in which the light / dark vertex block has moved in the road area, and a generation time of the light source. An image processing apparatus for monitoring.
前記認識処理部が出力する前記発報事象発生通知と、前記外乱判定部が出力する前記外乱発生通知とに基づき、発報処理を行なう発報部をさらに備え、
前記発報部は、
前記認識処理部から前記発報事象発生通知を受信した場合に、前記発報処理を行ない、
前記認識処理部から前記発報事象発生通知を受信した場合であっても、前記ヘッドライト判定部が前記光源は前記ヘッドライトによるものであると判断して出力した前記外乱発生通知を受信した場合には、前記発報処理を規制する
ことを特徴とする請求項1記載の監視用画像処理装置。
Based on the notification event occurrence notification output by the recognition processing unit and the disturbance occurrence notification output by the disturbance determination unit, further includes a notification unit that performs a notification process,
The reporting unit is:
When receiving the notification event occurrence notification from the recognition processing unit, perform the notification processing,
Even when the notification event occurrence notification is received from the recognition processing unit, the headlight determination unit receives the disturbance occurrence notification output by determining that the light source is the headlight The monitoring image processing apparatus according to claim 1, wherein the notification processing is restricted.
前記外乱判定部が外乱ありと判断した前記監視画像内にヘッドライトと侵入者が混在していないかどうかの混在状況判定を行ない、
前記ヘッドライトと前記侵入者が混在している場合に、前記外乱発生通知を取り消す混在状況判定部をさらに備えた
ことを特徴とする請求項1記載の監視用画像処理装置。
The disturbance determination unit performs a mixed state determination as to whether a headlight and an intruder are not mixed in the monitoring image determined to have a disturbance,
The monitoring image processing apparatus according to claim 1, further comprising: a mixed state determination unit that cancels the disturbance occurrence notification when the headlight and the intruder are mixed.
JP2013094130A 2013-04-26 2013-04-26 Image processing device for monitoring Active JP6091319B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013094130A JP6091319B2 (en) 2013-04-26 2013-04-26 Image processing device for monitoring

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013094130A JP6091319B2 (en) 2013-04-26 2013-04-26 Image processing device for monitoring

Publications (2)

Publication Number Publication Date
JP2014216922A JP2014216922A (en) 2014-11-17
JP6091319B2 true JP6091319B2 (en) 2017-03-08

Family

ID=51942245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013094130A Active JP6091319B2 (en) 2013-04-26 2013-04-26 Image processing device for monitoring

Country Status (1)

Country Link
JP (1) JP6091319B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6980887B1 (en) * 2020-10-23 2021-12-15 Pciソリューションズ株式会社 Mobile detection system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129778A (en) * 1993-11-08 1995-05-19 Oki Electric Ind Co Ltd Image monitoring device
JP3715705B2 (en) * 1996-01-31 2005-11-16 三菱電機株式会社 Monitoring image processing device
JP3919842B2 (en) * 1996-01-31 2007-05-30 三菱電機株式会社 Image processing device for monitoring
JP3830616B2 (en) * 1996-12-26 2006-10-04 三菱電機株式会社 Image processing device for monitoring
JP4065137B2 (en) * 2002-03-14 2008-03-19 三菱電機株式会社 Image processing apparatus, image processing method, and program
US7456860B2 (en) * 2004-09-28 2008-11-25 U.S.K. Co., Ltd. Surveillance system using pulse-coded rays

Also Published As

Publication number Publication date
JP2014216922A (en) 2014-11-17

Similar Documents

Publication Publication Date Title
US8964030B2 (en) Surveillance camera system having camera malfunction detection function to detect types of failure via block and entire image processing
US20200175692A9 (en) Low-complexity motion detection based on image edges
US9030559B2 (en) Constrained parametric curve detection using clustering on Hough curves over a sequence of images
JP4611776B2 (en) Image signal processing device
CN102568242A (en) Signal lamp state detection method and system based on video processing
KR101939700B1 (en) Method and Apparatus for Detecting Camera Tampering Using Edge Images
US9802543B2 (en) Automobile and method for automatically adjusting rearview mirror
JP6214426B2 (en) Object detection device
CN112784738A (en) Moving object detection alarm method, device and computer readable storage medium
JP7125843B2 (en) Fault detection system
JP4491360B2 (en) Image signal processing device
JP4025007B2 (en) Railroad crossing obstacle detection device
JP6091319B2 (en) Image processing device for monitoring
JP2018107665A (en) Imaging apparatus, dirt detection system, and dirt detection method
JP5971761B2 (en) Smoke detection device and smoke detection method
JP2018526922A (en) Glare detection method and apparatus
JP4302801B2 (en) Object tracking method and object tracking apparatus
KR101267279B1 (en) Video processing apparatus and method for removing rain from video
KR101617428B1 (en) Method and apparatus for degraded region detection in digital video file
JP4925942B2 (en) Image sensor
JP5027644B2 (en) Combined intrusion detection device
JP3830616B2 (en) Image processing device for monitoring
JP5027645B2 (en) Combined intrusion detection device
JP5027646B2 (en) Combined intrusion detection device
US20190188500A1 (en) Apparatus for monitoring object in low light environment and monitoring method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170207

R150 Certificate of patent or registration of utility model

Ref document number: 6091319

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250