Nothing Special   »   [go: up one dir, main page]

JP7536125B1 - Surveillance system - Google Patents

Surveillance system Download PDF

Info

Publication number
JP7536125B1
JP7536125B1 JP2023015232A JP2023015232A JP7536125B1 JP 7536125 B1 JP7536125 B1 JP 7536125B1 JP 2023015232 A JP2023015232 A JP 2023015232A JP 2023015232 A JP2023015232 A JP 2023015232A JP 7536125 B1 JP7536125 B1 JP 7536125B1
Authority
JP
Japan
Prior art keywords
image
period
mask
range
common
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023015232A
Other languages
Japanese (ja)
Other versions
JP2024115565A (en
Inventor
匠 佐藤
毅 久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airport Facilities Co Ltd
Original Assignee
Kokusai Kogyo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kokusai Kogyo Co Ltd filed Critical Kokusai Kogyo Co Ltd
Priority to JP2023015232A priority Critical patent/JP7536125B1/en
Application granted granted Critical
Publication of JP7536125B1 publication Critical patent/JP7536125B1/en
Publication of JP2024115565A publication Critical patent/JP2024115565A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】本願発明の課題は、従来の問題を解決することであり、すなわち複数の写真に基づいて評価用の画像を生成し、しかも画像のうち部分的に使用できない領域があってもその他の領域を利用して評価用の画像を生成したうえで、対象物を監視することができる監視システムを提供することである。【解決手段】本願発明の監視システムは、1地点に設置される定点カメラと、マスク処理手段、代表画像生成手段、マッチング処理手段、変化領域抽出手段を備えたものである。代表画像生成手段は撮影期間に定点カメラが取得した複数の画像をまとめた期間画像に基づいて期間代表画像を生成する手段であり、変化領域抽出手段は期間代表画像における共通領域の位置が2時期で相違し、共通領域どうしの移動量があらかじめ定めた移動量閾値を超えるとき、共通領域を変化領域として抽出する手段である。【選択図】図2[Problem] The object of the present invention is to solve the problems of the prior art, that is, to provide a surveillance system capable of generating an image for evaluation based on a plurality of photographs, and further capable of monitoring an object by generating an image for evaluation using the remaining regions even if some regions of the image are unusable. [Solution] The surveillance system of the present invention comprises a fixed camera installed at one location, a mask processing means, a representative image generating means, a matching processing means, and a changed region extracting means. The representative image generating means is a means for generating a period representative image based on a period image that is a compilation of a plurality of images acquired by the fixed camera during a shooting period, and the changed region extracting means is a means for extracting a common region as a changed region when the position of a common region in the period representative image differs between two periods and the amount of movement between the common regions exceeds a predetermined movement amount threshold. [Selected Figure] Figure 2

Description

本願発明は、対象物の動態観察に関する技術であり、より具体的には、定点カメラで取得した写真によって対象物の変化領域を抽出する監視システムに関するものである。 This invention relates to technology for observing the dynamic behavior of an object, and more specifically, to a surveillance system that extracts areas of change in an object using photographs taken with a fixed camera.

我が国の国土は、その2/3が山地であるといわれており、したがって斜面を背後とする土地に住居を構えることも多く、道路や線路などは必ずといっていいほど斜面脇を通過する区間がある。そして斜面は、崩壊や地すべりといった災害の可能性を備えており、これまでもたびたび斜面崩壊等によって甚大な被害を被ってきた。 Two-thirds of Japan's land area is said to be mountainous, and as a result, many homes are built on land backed by slopes, and roads and railways almost always pass along slopes. Slopes are prone to disasters such as collapses and landslides, and in the past the country has often suffered severe damage from slope collapses and other such disasters.

崩壊のおそれがある斜面(自然斜面や、人工的なのり面を含む)、あるいは地すべりの兆候のある斜面では、その動きを監視するために計測が行われることがある。例えば、地すべり兆候のある斜面では、伸縮計や抜き板を利用した計測、孔内傾斜計による計測、地表面変位計測などが実施されていた。しかしながら、伸縮計や抜き板による計測では、地すべり境界(特に頭部)に亘って設置しなければ効果がなく、孔内伸縮計も地すべり深度を正確に推定しなければ効果がない上に、多数箇所設けるとコストがかかるという問題がある。 On slopes at risk of collapse (including natural slopes and artificial slopes) or on slopes showing signs of landslides, measurements are sometimes taken to monitor their movement. For example, on slopes showing signs of landslides, measurements using extensometers and punching plates, measurements using borehole inclinometers, and measurements of ground surface displacement have been carried out. However, measurements using extensometers and punching plates are only effective if they are installed across the landslide boundary (especially the head), and borehole extensometers are only effective if they can accurately estimate the landslide depth, and installing them in multiple locations is costly.

地表面変位計測は、斜面上に設置した多数の観測点の座標を求め、経時的な変位を検出することで斜面の動きを監視することから、直接的に異常を把握することができるうえ、伸縮計や孔内傾斜計のようにその効果が計器設置場所に依存することがないという長所がある。しかしながら、観測点の設置に人が斜面に立ち入ることから危険が伴い、さらにトータルステーションなどを用いて人が観測点を測位しなければならないため大きな手間とコストを余儀なくされていた。 Surface displacement measurement involves determining the coordinates of multiple observation points installed on a slope and monitoring the movement of the slope by detecting displacement over time, making it possible to directly identify abnormalities and has the advantage that its effectiveness does not depend on the location of the instrument, as does the case with extensometers and borehole inclinometers. However, installing the observation points involves risk as people must enter the slope, and furthermore, the observation points must be positioned by hand using a total station or similar device, which requires a lot of effort and cost.

そこで、トータルステーション等による直接計測に代わる種々の監視技術が、これまで提案されている。例えば特許文献1では、斜面を撮影した画像を利用して当該斜面の動きを監視する技術について提案している。 Therefore, various monitoring techniques have been proposed to replace direct measurements using total stations and the like. For example, Patent Document 1 proposes a technique for monitoring the movement of a slope using images of the slope.

特開2019-201275号公報JP 2019-201275 A

特許文献1に開示される発明は、定点カメラから得られる画像(単写真)を利用し、あらかじめ予想し得るノイズを除去したうえで対象物を監視することができるものである。この発明によれば、対象物のリアルタイム監視と常時監視が実現でき、しかも従来技術に比べて機器にかかる費用や設置にかかる費用が抑えられる。他方、2時期に撮影された単写真どうしを比較するため、ある程度はノイズが生ずることは避けられない。また、雲がかかるなど画像中に一部でも使用できない領域がある場合、その単写真は利用することができなかった。 The invention disclosed in Patent Document 1 uses images (single photographs) obtained from a fixed camera, and is capable of monitoring an object after removing predictable noise. This invention makes it possible to realize real-time and constant monitoring of an object, while reducing the costs of equipment and installation compared to conventional technology. On the other hand, since single photographs taken at two different times are compared, some noise is unavoidable. Also, if there is even a part of an image that cannot be used due to cloud cover or other reasons, the single photograph cannot be used.

本願発明の課題は、従来の問題を解決することであり、すなわち複数の写真に基づいて評価用の画像を生成し、しかも画像のうち部分的に使用できない領域があってもその他の領域を利用して評価用の画像を生成したうえで、対象物を監視することができる監視システムを提供することである。 The objective of the present invention is to solve the problems of the past, that is, to provide a monitoring system that can generate an image for evaluation based on multiple photographs, and even if some areas of the image are unusable, generate an image for evaluation using the remaining areas, and then monitor an object.

本願発明は、ある期間内に撮影された画像に基づいて評価用の画像を生成したうえで2時期の状況を比較する、という点に着目したものであり、従来にはなかった発想に基づいてなされた発明である。 The present invention focuses on the point that evaluation images are generated based on images taken within a certain period of time, and then the conditions at two different times are compared, and is an invention based on an idea that has not been seen before.

本願発明の監視システムは、1地点に設置される定点カメラと、マスク処理手段、代表画像生成手段、マッチング処理手段、変化領域抽出手段を備えたものである。このうち定点カメラは、対象物の画像を定期的(あるいは断続的)に取得するものである。またマスク処理手段は、定点カメラが取得した画像の輝度と、あらかじめ定めた輝度閾値とを照らし合わせ、画像のうち輝度が輝度閾値を上回る部分をマスク範囲として設定するとともに、画像のうちマスク範囲を除く部分を使用範囲として設定する手段である。代表画像生成手段は、あらかじめ定めた撮影期間に定点カメラが取得した複数の画像をまとめた期間画像に基づいて期間代表画像を生成する手段であり、マッチング処理手段は、2時期に係る期間代表画像の間でパターンマッチングを行い期間代表画像どうしで共通する部分を共通領域として抽出する手段である。変化領域抽出手段は、期間代表画像における共通領域の位置が2時期で相違し、共通領域どうしの移動量があらかじめ定めた移動量閾値を超えるとき、共通領域を変化領域として抽出する手段である。なお代表画像生成手段は、期間画像のうち使用範囲を用いて、同一の画素に係る輝度の平均である平均輝度値を求めるとともに、平均輝度値を各画素に付与することによって期間代表画像として生成する。 The surveillance system of the present invention includes a fixed camera installed at one location, a mask processing means, a representative image generating means, a matching processing means, and a change area extraction means. The fixed camera periodically (or intermittently) captures images of the object. The mask processing means compares the brightness of the image captured by the fixed camera with a predetermined brightness threshold, sets the portion of the image whose brightness exceeds the brightness threshold as a mask range, and sets the portion of the image excluding the mask range as a use range. The representative image generating means generates a period representative image based on a period image that is a compilation of multiple images captured by the fixed camera during a predetermined shooting period, and the matching processing means performs pattern matching between period representative images relating to two periods and extracts a portion common to the period representative images as a common area. The change area extraction means extracts the common area as a change area when the position of the common area in the period representative image differs between the two periods and the amount of movement between the common areas exceeds a predetermined movement amount threshold. The representative image generating means uses the range of use in the period image to calculate an average luminance value, which is the average of the luminance values associated with the same pixel, and generates a period representative image by assigning the average luminance value to each pixel.

本願発明の監視システムは、複数のマスク画素が集合した領域をマスク範囲として設定するものとすることもできる。この場合、マスク処理手段は、画像のうち輝度が輝度閾値を上回る画素をマスク画素として設定するとともに、集合したマスク画素の数があらかじめ定めたクラスタ閾値を超える集合部分をマスク範囲として設定する。 The monitoring system of the present invention can also set an area where multiple mask pixels are gathered as a mask range. In this case, the mask processing means sets pixels in the image whose luminance exceeds a luminance threshold as mask pixels, and sets a collective portion where the number of gathered mask pixels exceeds a predetermined cluster threshold as a mask range.

本願発明の監視システムは、方向ノイズ抽出手段をさらに備えたものとすることもできる。この方向ノイズ抽出手段は、共通領域の移動方向があらかじめ定めた方向閾値の範囲内にある変化領域候補を「方向ノイズ」として抽出する手段である。なお方向閾値は、鉛直上向きから所定幅で設定された範囲である。この場合、変化領域抽出手段は、方向ノイズを除いて変化領域を抽出する。 The surveillance system of the present invention may further include a directional noise extraction means. This directional noise extraction means is a means for extracting candidate changed areas in which the movement direction of the common area is within a range of a predetermined directional threshold as "directional noise." The directional threshold is a range set with a predetermined width from the vertical upward direction. In this case, the changed area extraction means extracts the changed area excluding the directional noise.

本願発明の監視システムには、次のような効果がある。
(1)複数の期間画像に基づいて期間代表画像を生成したうえで変化領域を抽出することから、2時期の単写真を比較するケースに比べてノイズの発生を抑えることができる。その結果、従来技術より高い精度で変化領域を抽出することができる。
(2)画像のうち部分的に使用できない領域があってもその他の領域を利用して期間代表画像を生成することから、従来技術より効率よく変化領域を抽出することができる。
(3)「方向ノイズ」を除去することで、実際に有意な変化があった領域を的確に抽出することができる。
The monitoring system of the present invention has the following advantages.
(1) By generating a representative image for a period based on images for multiple periods and then extracting changed areas, it is possible to reduce noise compared to the case of comparing single photographs from two periods. As a result, it is possible to extract changed areas with higher accuracy than with conventional techniques.
(2) Even if some areas of an image cannot be used, the period representative image is generated by utilizing the remaining areas, so that changed areas can be extracted more efficiently than with conventional techniques.
(3) By removing "directional noise," it is possible to accurately extract areas where significant changes have actually occurred.

本願発明の監視システムの主な構成を示すブロック図。1 is a block diagram showing the main configuration of a monitoring system according to the present invention. (a)はマスク画素とマスク範囲が抽出されたグレースケール画像を模式的に示すモデル図、(b)はグレースケール画像からマスク範囲が取り除かれた処理後画像を模式的に示すモデル図。FIG. 4A is a model diagram that shows a grayscale image from which mask pixels and a mask range have been extracted, and FIG. 4B is a model diagram that shows a processed image from which the mask range has been removed from the grayscale image. 撮影期間と期間画像、期間代表画像を模式的に示すモデル図。FIG. 2 is a model diagram showing a shooting period, images of the period, and a representative image of the period. ターンマッチングを行って抽出された「7つの画素からなる凸状の共通領域」を示すモデル図。A model diagram showing a "convex common area consisting of seven pixels" extracted by performing turn matching. 共通領域に係る移動ベクトルを模式的に示すモデル図。FIG. 11 is a model diagram showing a schematic diagram of a movement vector relating to a common area. 鉛直上向きから両側に所定幅で設定した変化方向閾値を示すモデル図。FIG. 13 is a model diagram showing a change direction threshold set at a predetermined width on both sides from a vertically upward direction. 本願発明の監視システムの主な処理の流れを示すフロー図。FIG. 2 is a flowchart showing the flow of main processes in the monitoring system of the present invention.

本願発明の監視システムの実施形態の一例を、図に基づいて説明する。 An example of an embodiment of the monitoring system of the present invention is described below with reference to the drawings.

はじめに、本願発明の概要について説明する。本願発明は、1地点に設置されるカメラ(以下、「定点カメラ」という。)で撮影した写真を用いて対象とする物(以下、単に「対象物」という。)の変化を監視するものであり、より詳しくはあらかじめ定めた期間(以下、「撮影期間」という。)内に定点カメラで撮影した複数の単写真(以下、「期間画像」という。)を用いて代表的な画像(以下、「期間代表画像」という。)を生成するとともに、2時期の期間代表画像を照らし合わせることによって対象物の変化を監視する技術である。なお本願発明は、様々なものを対象物として実施することができるが、便宜上ここでは対象物が斜面(自然斜面やのり面など)の場合で説明する。 First, an overview of the present invention will be described. The present invention monitors changes in a target object (hereinafter simply referred to as the "target object") using photographs taken by a camera installed at one location (hereinafter referred to as the "fixed-point camera"). More specifically, the present invention is a technology that generates a representative image (hereinafter referred to as the "representative image for the period") using multiple single photographs (hereinafter referred to as the "images for the period") taken by a fixed-point camera within a predetermined period (hereinafter referred to as the "photography period"), and monitors changes in the target object by comparing the representative images for the period from two different periods. Note that the present invention can be implemented using a variety of objects as the target object, but for convenience, the present invention will be described in the case where the target object is a slope (such as a natural slope or a slope).

図1は、本願発明の監視システム100の主な構成を示すブロック図である。この図に示すように本願発明の監視システム100は、定点カメラ101とマスク処理手段102、代表画像生成手段103、マッチング処理手段104、変化領域抽出手段105を含んで構成され、さらに方向ノイズ抽出手段106や画像記憶手段107を含んで構成することもできる。 Figure 1 is a block diagram showing the main components of a surveillance system 100 according to the present invention. As shown in this figure, the surveillance system 100 according to the present invention is configured to include a fixed camera 101, mask processing means 102, representative image generation means 103, matching processing means 104, and changed area extraction means 105, and can also be configured to include directional noise extraction means 106 and image storage means 107.

監視システム100を構成する各手段のうち、マスク処理手段102と代表画像生成手段103、マッチング処理手段104、変化領域抽出手段105を含んで構成され、さらに方向ノイズ抽出手段106に関しては、専用のものとして製造することもできるし、汎用的なコンピュータ装置を利用することもできる。すなわち、所定のプログラムによってコンピュータ装置に演算処理を実行させることで、それぞれの手段特有の処理を行うわけである。このコンピュータ装置は、パーソナルコンピュータ(PC)や、iPad(登録商標)といったタブレット型PC、スマートフォンを含む携帯端末、あるいはPDA(Personal Data Assistance)などによって構成することができる。コンピュータ装置は、CPU等のプロセッサ、ROMやRAMといったメモリを具備しており、さらにマウスやキーボード等の入力手段やディスプレイを含むものもある。 Of the various means constituting the monitoring system 100, the system is configured to include a mask processing means 102, a representative image generating means 103, a matching processing means 104, and a change area extracting means 105, and further, the directional noise extracting means 106 can be manufactured as a dedicated means, or a general-purpose computer device can be used. In other words, the computer device executes arithmetic processing according to a specified program, thereby performing processing specific to each means. This computer device can be configured with a personal computer (PC), a tablet PC such as an iPad (registered trademark), a mobile terminal including a smartphone, or a PDA (Personal Data Assistance), etc. The computer device is equipped with a processor such as a CPU, memories such as ROM and RAM, and some also include input means such as a mouse and keyboard, and a display.

以下、本願発明の監視システム100を構成する主な要素ごとに詳しく説明する。 The main elements that make up the monitoring system 100 of the present invention are explained in detail below.

(定点カメラと画像記憶手段)
監視システム100を構成する定点カメラ101は、従来利用されているカメラを用いることができ、例えば野生動物撮影用のトレイルカメラなどを利用することができる。この定点カメラ101は、人が操作することなく自動的に撮影するものが望ましく、例えば1時間や30分間隔で定期的(あるいは不定期的、断続的)に撮影するように設定するとよい。また定点カメラ101は、対象物である斜面を俯瞰して撮影できる位置(1地点)に設置され、同じ位置から同じ方向を撮影するため、基本的には斜面のうち同じ範囲の画像が取得される。なお、比較的長期(数か月~1年程度)にわたって自動撮影する場合は、相当のバッテリが用意される。
(Fixed camera and image storage means)
The fixed camera 101 constituting the monitoring system 100 can be a conventional camera, such as a trail camera for photographing wild animals. The fixed camera 101 is preferably one that automatically photographs without human operation, and may be set to photograph periodically (or irregularly or intermittently) at intervals of, for example, one hour or 30 minutes. The fixed camera 101 is installed at a position (one point) where it can photograph the slope as an object from above, and photographs the same direction from the same position, so that images of the same range of the slope are basically obtained. Note that, when photographing automatically over a relatively long period of time (several months to about a year), a corresponding battery is prepared.

定点カメラ101が長期にわたってしかも定期的に撮影することから、取得する画像は膨大な数となる。この画像を記憶するのが画像記憶手段107である。画像記憶手段107は、例えばデータベースサーバに構築することができ、定点カメラ101の周辺に配置してローカルなネットワーク(LAN:Local Area Network)で定点カメラ101と接続(画像データ通信)することもできるし、インターネット経由(この場合は無線通信)で保存するクラウドサーバとすることもできる。 Since the fixed camera 101 takes pictures periodically over a long period of time, the number of images acquired is enormous. These images are stored in the image storage means 107. The image storage means 107 can be constructed, for example, in a database server, and can be placed in the vicinity of the fixed camera 101 and connected (for image data communication) to the fixed camera 101 via a local network (LAN: Local Area Network), or can be a cloud server that stores images via the Internet (in this case, wireless communication).

(マスク処理手段)
マスク処理手段102は、それぞれの画素が有する輝度に基づいて、定点カメラ101が取得した画像(以下、「原画像」という。)を「マスク範囲」と「使用範囲」に分ける手段である。そのため原画像は、画素ごとに輝度が付与された画像(以下、「グレースケール画像」という。)に変換される。すなわち、原画像の画素が有する画素値(例えばRGBなど)に応じて、相応の輝度をその画素に付与することによってグレースケール画像に変換する。もちろん、原画像がグレースケールとして取得されている場合は、その原画像をグレースケール画像に変換する必要はない。なお、グレースケール画像に変換するにあたっては、従来用いられている種々の技術を利用することができる。
(Mask Processing Means)
The mask processing means 102 is a means for dividing the image acquired by the fixed camera 101 (hereinafter referred to as the "original image") into a "mask range" and a "usage range" based on the luminance of each pixel. Therefore, the original image is converted into an image in which a luminance is assigned to each pixel (hereinafter referred to as the "grayscale image"). That is, the original image is converted into a grayscale image by assigning an appropriate luminance to each pixel according to the pixel value (e.g., RGB, etc.) of the pixel of the original image. Of course, if the original image is acquired as a grayscale image, there is no need to convert the original image into a grayscale image. Note that various conventional techniques can be used to convert into a grayscale image.

以下、マスク処理手段102が「マスク範囲」と「使用範囲」に分ける手順について説明する。まずマスク処理手段102は、グレースケール画像の画素ごとに輝度とあらかじめ定めた閾値(以下、「輝度閾値」という。)を照らし合わせ、その輝度が輝度閾値を上回る(あるいは、以上となる)とき、その画素を「マスク画素」として抽出する。相当程度に輝度が高い画素は、霞や雲がかかった部分と推測することができ、後述するように対象物の一部をマッチングする際には有益ではなく、むしろノイズとして作用することから、画像から取り除く候補としてマスク画素を抽出するわけである。例えば図2(a)では、9×6画素で構成される原画像を示しており、そのうち網掛された9の「マスク画素」が抽出されている。 The procedure by which the mask processing means 102 separates the "mask range" and the "usage range" will be described below. First, the mask processing means 102 compares the brightness of each pixel in the grayscale image with a predetermined threshold (hereinafter referred to as the "brightness threshold"), and extracts the pixel as a "mask pixel" when the brightness exceeds (or is equal to or greater than) the brightness threshold. Pixels with a fairly high brightness can be assumed to be hazy or cloudy areas, and as will be described later, are not useful when matching parts of an object, but rather act as noise. Therefore, mask pixels are extracted as candidates to be removed from the image. For example, FIG. 2(a) shows an original image consisting of 9 x 6 pixels, of which 9 shaded "mask pixels" have been extracted.

マスク画素が抽出されると、そのマスク画素をそのまま、つまりマスク画素ごとに「マスク範囲」として抽出することができる。あるいは、マスク画素が互いに隣接することで集合した領域(以下、単に「マスク集合領域」という。)を構成するマスク画素の数(以下、「集合画素数」という。)が、あらかじめ定めた閾値(以下、「クラスタ閾値」という。)を超えるとき、そのマスク集合領域を「マスク範囲」として抽出することもできる。例えば図2(a)のケースでは、集合画素数が5のマスク集合領域(画像のうち左上部)と、集合画素数が2のマスク集合領域(画像のうち右下部)、集合画素数が1のマスク集合領域(2個所)が形成されており、そしてクラスタ閾値が3で設定されている。したがってこの場合、集合画素数が5のマスク集合領域のみがマスク範囲として抽出されることとなる。 When a mask pixel is extracted, the mask pixel can be extracted as it is, that is, for each mask pixel, as the "mask range". Alternatively, when the number of mask pixels (hereinafter referred to as the "number of clustered pixels") constituting an area where adjacent mask pixels are clustered (hereinafter simply referred to as the "mask cluster area") exceeds a predetermined threshold (hereinafter referred to as the "cluster threshold"), the mask cluster area can be extracted as the "mask range". For example, in the case of Figure 2(a), a mask cluster area with a clustered pixel count of 5 (upper left of the image), a mask cluster area with a clustered pixel count of 2 (lower right of the image), and a mask cluster area with a clustered pixel count of 1 (2 locations) are formed, and the cluster threshold is set to 3. Therefore, in this case, only the mask cluster area with a clustered pixel count of 5 is extracted as the mask range.

またマスク処理手段102は、グレースケール画像のうちマスク範囲を除く部分を「使用範囲」として設定するとともに、グレースケール画像からマスク範囲が取り除かれた画像、換言すれば使用範囲のみによって構成される画像(以下、「処理後画像」という。)を生成する。例えば図2の場合、集合画素数5のマスク集合領域がマスク範囲として抽出されているため、図2(b)に示すようにグレースケール画像からこのマスク範囲が取り除かれた処理後画像が生成されている。 The mask processing means 102 also sets the portion of the grayscale image excluding the mask range as the "used range" and generates an image in which the mask range has been removed from the grayscale image, in other words, an image consisting only of the used range (hereinafter referred to as the "processed image"). For example, in the case of Figure 2, a mask aggregate area with 5 aggregate pixels has been extracted as the mask range, and therefore a processed image is generated in which this mask range has been removed from the grayscale image, as shown in Figure 2(b).

(代表画像生成手段)
代表画像生成手段103は、定点カメラ101が撮影期間に撮影した複数の単写真(つまり、期間画像)に基づいて期間代表画像を生成する手段である。図3は、撮影期間と期間画像、期間代表画像を模式的に示すモデル図である。ただし、期間代表画像を生成するために用いられる期間画像は、図3に示すようにマスク範囲が取り除かれた処理後画像が対象とされる。以下、代表画像生成手段103が期間代表画像を生成する手順について説明する。
(Representative image generation means)
The representative image generating means 103 is a means for generating a period representative image based on a plurality of single photographs (i.e., period images) taken by the fixed camera 101 during a shooting period. FIG. 4 is a model diagram showing a representative image. However, the period image used to generate the period representative image is a processed image from which the mask range has been removed as shown in FIG. The procedure by which the representative image generating means 103 generates a period representative image will now be described.

まず、同一の期間画像に含まれる複数の期間画像(処理後画像)を読み出し、期間画像(つまり、使用範囲)を構成する画素の輝度を読み出す。そして、複数の期間画像において同一の位置にある画素の輝度を用いてその平均値(以下、「平均輝度値」という。)を算出する。例えば、左上隅にある画素を期間画像の数だけ抽出し、それぞれの画素の輝度を総和するとともに、その総和を期間画像の数で除すことによって左上隅の画素に係る平均輝度値を算出する。ただし、ここで利用される期間画像はいずれもマスク範囲が取り除かれた処理後画像であるため、画素の位置によっては期間画像に対応する画素がないこともある。すなわち図2(b)に示す処理後画像の形状は、同じ撮影期間に含まれる期間画像であっても相違し、平均輝度値の算出に用いられる画素数もその位置ごとに異なるわけである。したがって、全ての期間画像に係る輝度が平均輝度値の算出に用いられるわけではない。 First, multiple period images (processed images) included in the same period image are read, and the luminance of the pixels that make up the period image (i.e., the range of use) is read. Then, the average value (hereinafter referred to as the "average luminance value") is calculated using the luminance of pixels at the same position in the multiple period images. For example, the pixel in the upper left corner is extracted as many times as the number of period images, the luminance of each pixel is summed up, and the average luminance value for the pixel in the upper left corner is calculated by dividing the sum by the number of period images. However, since all of the period images used here are processed images with the mask range removed, there may be no pixels corresponding to the period image depending on the pixel position. In other words, the shape of the processed image shown in FIG. 2(b) differs even for period images included in the same shooting period, and the number of pixels used to calculate the average luminance value also differs depending on the position. Therefore, the luminance of all period images is not used to calculate the average luminance value.

そして、原画像を構成する全ての画素(図2の場合は9×6画素)について平均輝度値が得られると、それぞれの画素に平均輝度値を付与することによって期間代表画像を生成する。もちろん期間代表画像は、撮影期間ごとに生成される。なお、図3に示すように前後に重複することなく撮影期間を設定したうえで期間代表画像を生成する仕様とすることもできるし、前後で一部が重複するように撮影期間を設定したうえで期間代表画像を生成する仕様とすることもできる。 Once the average luminance value is obtained for all pixels that make up the original image (9 x 6 pixels in the case of Figure 2), a representative image for the period is generated by assigning the average luminance value to each pixel. Of course, a representative image for the period is generated for each shooting period. Note that it is also possible to set shooting periods without overlapping as shown in Figure 3 and generate a representative image for the period, or to set shooting periods with some overlapping and generate a representative image for the period.

(マッチング処理手段)
マッチング処理手段104は、2時期に係る期間代表画像の間でパターンマッチングを行い、期間代表画像どうしで共通する部分(以下、「共通領域」という。)を抽出する手段である。具体的には、異なる時期の撮影期間に基づいて生成された2つの期間代表画像を照らし合わせ、パターンマッチングを行うことで共通領域を抽出する。たとえば図4では、第1時期に係る期間代表画像(上図)と第2時期に係る期間代表画像(下図)を用いてパターンマッチングを行った結果、7つの画素からなる凸状の共通領域が抽出されている。
(Matching Processing Means)
The matching processing means 104 is a means for performing pattern matching between period representative images relating to two time periods and extracting a portion common to the period representative images (hereinafter referred to as a "common area"). Specifically, two period representative images generated based on shooting periods of different time periods are compared and pattern matching is performed to extract a common area. For example, in FIG. 4, as a result of performing pattern matching using a period representative image relating to a first time period (upper figure) and a period representative image relating to a second time period (lower figure), a convex common area consisting of seven pixels is extracted.

(変化領域抽出手段)
変化領域抽出手段105は、その共通領域に係る移動ベクトルを求めるとともに、共通領域から「変化領域」を抽出する手段である。図4を見ると、第1時期に係る期間代表画像における共通領域の位置と、第2時期に係る期間代表画像における共通領域の位置が相違しており、つまり共通領域が移動したことが推認される。そして、共通領域が相当程度に移動した場合、それは監視すべき「変化領域」として抽出することとした。そこで変化領域抽出手段105は、図5に示すように、それぞれの共通領域の位置に基づいて、つまり共通領域の同じ位置を結ぶことによって、その離隔(以下、「移動量」という。)と、その方向(以下、「移動方向」という。)からなる移動ベクトルを求める。この場合、早い時期(図5では第1時期)に係る共通領域を起点とし、遅い時期(図5では第2時期)に係る共通領域を終点としたうえで、移動ベクトルを求めるとよい。
(Changed area extraction means)
The changed area extraction means 105 is a means for obtaining a movement vector related to the common area and extracting a "changed area" from the common area. As shown in FIG. 4, the position of the common area in the period representative image related to the first period is different from the position of the common area in the period representative image related to the second period, that is, it is inferred that the common area has moved. If the common area has moved to a considerable extent, it is extracted as a "changed area" to be monitored. Therefore, as shown in FIG. 5, the changed area extraction means 105 obtains a movement vector consisting of the distance (hereinafter referred to as "movement amount") and the direction (hereinafter referred to as "movement direction") based on the position of each common area, that is, by connecting the same positions of the common areas. In this case, it is preferable to obtain a movement vector by setting the common area related to the earlier period (the first period in FIG. 5) as the starting point and the common area related to the later period (the second period in FIG. 5) as the end point.

移動ベクトルが得られると、変化領域抽出手段105は移動量に基づいて変化領域を抽出する。具体的には、移動量とあらかじめ定めた閾値(以下、「移動量閾値」という。)を照らし合わせ、その移動量が移動量閾値を超える(あるいは、以上となる)とき、その移動量に係る共通領域を変化領域として抽出する。 Once the movement vector is obtained, the change area extraction means 105 extracts the change area based on the amount of movement. Specifically, the amount of movement is compared with a predetermined threshold (hereinafter referred to as the "movement amount threshold"), and when the amount of movement exceeds (or is equal to or greater than) the movement amount threshold, the common area related to that amount of movement is extracted as the change area.

(方向ノイズ抽出手段)
方向ノイズ抽出手段106は、2時期に係る共通領域の移動方向があらかじめ定めた閾値(以下、「方向閾値」という。)の範囲内にある共通領域を、ノイズ(以下、「方向ノイズ」という。)として抽出する手段である。移動量が移動量閾値を超える共通領域であっても、斜面の変動としてはおよそ考えられない移動ベクトルが生じていることもある。例えば、浅層崩壊や深層崩壊、地すべり、土石流など、異常のある斜面の一部は重力方向(つまり下向き)に変動するはずであり、対象物である斜面を監視するにあたっては少なくとも重力に逆らう方向(鉛直上向き)に移動した共通領域(いわば変化領域の候補)は除外することが望ましい。
(Directional noise extraction means)
The directional noise extraction means 106 is a means for extracting, as noise (hereinafter referred to as "directional noise"), common areas in which the movement direction of the common areas in two periods is within a range of a predetermined threshold (hereinafter referred to as "directional threshold"). Even in a common area in which the movement amount exceeds the movement amount threshold, a movement vector that is hardly considered as a slope movement may occur. For example, a part of an abnormal slope such as a shallow collapse, a deep collapse, a landslide, or a mudslide should move in the direction of gravity (i.e., downward). When monitoring a slope as a target, it is desirable to exclude at least common areas that have moved in a direction against gravity (vertically upward) (so to speak, candidates for changed areas).

そこで、上記のような共通領域は、方向ノイズとして変化領域から除外することとした。具体的には、移動ベクトルの移動方向が概ね上向きであればその共通領域は方向ノイズとして判定し、変化領域としては抽出しない。なお、変位ベクトルの変位方向が概ね上向きであると判断するにあたっては、あらかじめ基準となる方向閾値を定めておき、変位ベクトルの変位方向がこの方向閾値の範囲内にあるときに概ね上向きであると判断するとよい。この方向閾値は、例えば図6に示すように、鉛直上向きから両側に所定幅で設定した範囲とすることができる。 Therefore, it was decided that common areas such as the above would be excluded from the change area as directional noise. Specifically, if the movement direction of the movement vector is generally upward, the common area is determined to be directional noise and is not extracted as a change area. Note that, when determining that the displacement direction of the displacement vector is generally upward, a reference directional threshold is determined in advance, and when the displacement direction of the displacement vector is within the range of this directional threshold, it can be determined to be generally upward. This directional threshold can be a range set with a specified width on both sides of the vertical upward direction, for example, as shown in Figure 6.

(処理の流れ)
以下、図7を参照しながら本願発明の監視システム100の主な処理について詳しく説明する。図7は、本願発明の監視システムの主な処理の流れの一例を示すフロー図であり、中央の列に実施する処理を示し、左列にはその処理に必要な入力情報を、右列にはその処理から生まれる出力情報を示している。
(Processing flow)
Below, the main processing of the monitoring system 100 of the present invention will be described in detail with reference to Fig. 7. Fig. 7 is a flow diagram showing an example of the flow of main processing of the monitoring system of the present invention, in which the central column shows the processing to be performed, the left column shows input information required for that processing, and the right column shows output information resulting from that processing.

定点カメラ101が例えば1時間や30分間隔で定期的(あるいは不定期的、断続的)に原画像を取得すると(図7のStep210)、その画像は画像記憶手段107に記憶されていく。そしてマスク処理手段102が、画像記憶手段107に記憶された原画像に基づいてグレースケール画像を作成するとともに、そのグレースケール画像を「マスク範囲」と「使用範囲」に分類する(図7のStep220)。ただし原画像がグレースケールとして取得されている場合は、その原画像をグレースケール画像に変換する必要がないのは既述したとおりである。 When the fixed camera 101 acquires an original image periodically (or irregularly or intermittently), for example at hourly or 30-minute intervals (Step 210 in FIG. 7), the image is stored in the image storage means 107. The mask processing means 102 then creates a grayscale image based on the original image stored in the image storage means 107, and classifies the grayscale image into a "mask range" and a "usage range" (Step 220 in FIG. 7). However, as mentioned above, if the original image has been acquired as grayscale, there is no need to convert the original image into a grayscale image.

グレースケール画像がマスク範囲と使用範囲に分類されると、マスク処理手段102が「マスク範囲」を抽出する。このとき、マスク画素をそのままマスク範囲として抽出することもできるし、マスク集合領域を構成する集合画素数がクラスタ閾値を超えるときにそのマスク集合領域をマスク範囲として抽出することもできる。そしてマスク範囲が抽出されると、マスク処理手段102がグレースケール画像からマスク範囲を取り除くことで「処理後画像」を生成する(図7のStep230)。 When the grayscale image is classified into a mask range and a use range, the mask processing means 102 extracts the "mask range." At this time, the mask pixels can be extracted as the mask range as is, or when the number of pixels constituting a mask set area exceeds the cluster threshold, the mask set area can be extracted as the mask range. Then, when the mask range is extracted, the mask processing means 102 removes the mask range from the grayscale image to generate a "processed image" (Step 230 in FIG. 7).

処理後画像が生成されると、代表画像生成手段103が撮影期間に撮影された複数の期間画像に基づいて「期間代表画像」を生成する(図7のStep240)。期間代表画像が生成されると、マッチング処理手段104が2時期に係る期間代表画像の間でパターンマッチングを行うことで「共通領域」を抽出する(図7のStep250)。次いで変化領域抽出手段105が、その共通領域に係る移動ベクトルを求める。 Once the processed image has been generated, the representative image generating means 103 generates a "period representative image" based on the multiple period images captured during the capture period (Step 240 in FIG. 7). Once the period representative image has been generated, the matching processing means 104 extracts a "common area" by performing pattern matching between the period representative images relating to the two periods (Step 250 in FIG. 7). Next, the changed area extraction means 105 determines the movement vector relating to the common area.

共通領域に係る移動ベクトルが得られると、方向ノイズ抽出手段106がその移動方向が方向閾値の範囲内にある共通領域を「方向ノイズ」として抽出する(図7のStep260)。そして変化領域抽出手段105が、方向ノイズとされた共通領域を除外したうえで、その移動量が移動量閾値を超える共通領域を「変化領域」として抽出する(図7のStep270)。 Once the movement vectors for the common regions are obtained, the directional noise extraction means 106 extracts the common regions whose movement direction is within the range of the directional threshold as "directional noise" (Step 260 in FIG. 7). The changed region extraction means 105 then excludes the common regions determined to be directional noise, and extracts the common regions whose movement amount exceeds the movement amount threshold as "changed regions" (Step 270 in FIG. 7).

本願発明の監視システムは、自然斜面や、切土のり面、盛土のり面のほか、コンクリートダムなどのコンクリート構造物、埋立地や軟弱地盤地の変動を判断する際にも利用することができる。 The monitoring system of the present invention can be used to determine changes in natural slopes, cut slopes, and embankment slopes, as well as concrete structures such as concrete dams, reclaimed land, and soft ground.

100 監視システム
101 (監視システムの)定点カメラ
102 (監視システムの)マスク処理手段
103 (監視システムの)代表画像生成手段
104 (監視システムの)マッチング処理手段
105 (監視システムの)変化領域抽出手段
106 (監視システムの)方向ノイズ抽出手段
107 (監視システムの)画像記憶手段
REFERENCE SIGNS LIST 100 Surveillance system 101 Fixed camera (of surveillance system) 102 Mask processing means (of surveillance system) 103 Representative image generation means (of surveillance system) 104 Matching processing means (of surveillance system) 105 Changed area extraction means (of surveillance system) 106 Directional noise extraction means (of surveillance system) 107 Image storage means (of surveillance system)

Claims (2)

1地点に設置され、対象物の画像を定期的又は断続的に取得する定点カメラと、
前記定点カメラが取得した画像の輝度と、あらかじめ定めた輝度閾値と、を照らし合わせ、画像のうち輝度が該輝度閾値を上回る部分をマスク範囲として設定するとともに、画像のうち該マスク範囲を除く部分を使用範囲として設定するマスク処理手段と、
あらかじめ定めた撮影期間に前記定点カメラが取得した複数の画像をまとめた期間画像に基づいて期間代表画像を生成する代表画像生成手段と、
2時期に係る前記期間代表画像の間でパターンマッチングを行い、該期間代表画像どうしで共通する部分を共通領域として抽出するマッチング処理手段と、
前記期間代表画像における前記共通領域の位置が2時期で相違し、該共通領域どうしの移動量があらかじめ定めた移動量閾値を超えるとき、該共通領域を変化領域として抽出する変化領域抽出手段と、を備え、
前記マスク処理手段は、画像のうち輝度が前記輝度閾値を上回る画素をマスク画素として設定するとともに、集合した該マスク画素の数があらかじめ定めたクラスタ閾値を超える集合部分を前記マスク範囲として設定し、
前記代表画像生成手段は、前記期間画像のうち前記使用範囲を用いて、同一の画素に係る輝度の平均である平均輝度値を求めるとともに、該平均輝度値を各画素に付与することによって前記期間代表画像として生成する、
ことを特徴とする監視システム。
A fixed camera is installed at one location and periodically or intermittently captures images of an object;
a mask processing means for comparing the brightness of the image captured by the fixed camera with a predetermined brightness threshold, and setting a portion of the image whose brightness exceeds the brightness threshold as a mask range, and setting a portion of the image excluding the mask range as a usage range;
a representative image generating means for generating a period representative image based on a period image that is a compilation of a plurality of images captured by the fixed camera during a predetermined photographing period;
a matching processing means for performing pattern matching between the period representative images relating to two periods and extracting a common portion between the period representative images as a common region;
a changed area extraction means for extracting the common area as a changed area when the position of the common area in the period representative image differs between the two periods and the amount of movement between the common areas exceeds a predetermined movement amount threshold value,
the mask processing means sets pixels in the image whose luminance exceeds the luminance threshold as mask pixels, and sets a cluster portion in which the number of the mask pixels exceeds a predetermined cluster threshold as the mask range;
the representative image generating means calculates an average luminance value, which is an average of luminance values of the same pixel, by using the range of use of the period image, and generates the period representative image by assigning the average luminance value to each pixel;
A monitoring system comprising:
2時期に係る前記共通領域の移動方向があらかじめ定めた方向閾値の範囲内にある該共通領域を、方向ノイズとして抽出する方向ノイズ抽出手段を、さらに備え、
前記方向閾値は、鉛直上向きから所定幅で設定された範囲であり、
前記変化領域抽出手段は、前記共通領域から前記方向ノイズを除いて前記変化領域を抽出する、
ことを特徴とする請求項1記載の監視システム。
A directional noise extraction means extracts, as a directional noise, a common area in which a moving direction of the common area in two time periods is within a range of a predetermined directional threshold value;
The direction threshold is a range set with a predetermined width from a vertical upward direction,
the change region extraction means extracts the change region by removing the directional noise from the common region;
2. The monitoring system according to claim 1 .
JP2023015232A 2023-02-03 2023-02-03 Surveillance system Active JP7536125B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023015232A JP7536125B1 (en) 2023-02-03 2023-02-03 Surveillance system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023015232A JP7536125B1 (en) 2023-02-03 2023-02-03 Surveillance system

Publications (2)

Publication Number Publication Date
JP7536125B1 true JP7536125B1 (en) 2024-08-19
JP2024115565A JP2024115565A (en) 2024-08-27

Family

ID=92419375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023015232A Active JP7536125B1 (en) 2023-02-03 2023-02-03 Surveillance system

Country Status (1)

Country Link
JP (1) JP7536125B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008093172A (en) 2006-10-11 2008-04-24 Olympus Corp Image processing device, image processing method, and image processing program
JP2019201275A (en) 2018-05-15 2019-11-21 国際航業株式会社 Monitoring system
JP2021043089A (en) 2019-09-12 2021-03-18 株式会社日立ソリューションズ Vibration test analyzer and vibration test analysis method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008093172A (en) 2006-10-11 2008-04-24 Olympus Corp Image processing device, image processing method, and image processing program
JP2019201275A (en) 2018-05-15 2019-11-21 国際航業株式会社 Monitoring system
JP2021043089A (en) 2019-09-12 2021-03-18 株式会社日立ソリューションズ Vibration test analyzer and vibration test analysis method

Also Published As

Publication number Publication date
JP2024115565A (en) 2024-08-27

Similar Documents

Publication Publication Date Title
US10529029B2 (en) Platform, systems, and methods for identifying property characteristics and property feature maintenance through aerial imagery analysis
CN111914819B (en) Multi-camera fusion crowd density prediction method and device, storage medium and terminal
EP2858008B1 (en) Target detecting method and system
CN112258573B (en) Method and device for acquiring throwing position, computer equipment and storage medium
CN111323788B (en) Building change monitoring method and device and computer equipment
JP2011501301A (en) Geospatial modeling system and related methods using multiple sources of geographic information
CN112966665A (en) Pavement disease detection model training method and device and computer equipment
JP6960168B2 (en) Local information assimilation equipment and methods and programs for real-time flood hazard mapping
KR100904078B1 (en) System and method for generating 3D spatial information using image registration of aerial photographs
CN115035182A (en) A method and system for early warning of landslide disasters in mountainous areas
JP6995013B2 (en) Monitoring system
CN113569956A (en) Mountain fire disaster investigation and identification method based on AI algorithm
JP7221445B1 (en) Water level measuring device, water level measuring method, and program
CN117152617A (en) An urban flood identification method and system
JP6829800B2 (en) Receiver suitability determination method and receiver suitability determination system
Momm et al. GIS technology for spatiotemporal measurements of gully channel width evolution
JP7536125B1 (en) Surveillance system
CN114880730A (en) Method and device for determining target equipment and photovoltaic system
CN113963314A (en) Rainfall monitoring method and device, computer equipment and storage medium
JP7078295B2 (en) Deformity detection device, deformation detection method, and program
JP4030318B2 (en) Map data update device and map data update method
CN114187539A (en) Earthquake casualty assessment method based on unmanned aerial vehicle oblique photography data
Oyinloye et al. Modelling urban growth from medium resolution Landsat imageries of Akure, Nigeria
JP5679312B2 (en) Discrimination method, discrimination device, discrimination system, and discrimination program for a vegetation area included in a color image
US20220005223A1 (en) Coordinate calculation apparatus, coordinate calculation method, and computer-readable recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240806

R150 Certificate of patent or registration of utility model

Ref document number: 7536125

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150