JP2024076389A - Information processing apparatus, information processing method and program - Google Patents
Information processing apparatus, information processing method and program Download PDFInfo
- Publication number
- JP2024076389A JP2024076389A JP2021059608A JP2021059608A JP2024076389A JP 2024076389 A JP2024076389 A JP 2024076389A JP 2021059608 A JP2021059608 A JP 2021059608A JP 2021059608 A JP2021059608 A JP 2021059608A JP 2024076389 A JP2024076389 A JP 2024076389A
- Authority
- JP
- Japan
- Prior art keywords
- image
- time
- date
- information processing
- processing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 101
- 238000003672 processing method Methods 0.000 title claims description 13
- 238000000605 extraction Methods 0.000 claims abstract description 23
- 239000000284 extract Substances 0.000 claims abstract description 13
- 238000000034 method Methods 0.000 claims description 113
- 238000001514 detection method Methods 0.000 claims description 102
- 239000002689 soil Substances 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 3
- 238000012545 processing Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 13
- 238000003708 edge detection Methods 0.000 description 8
- 238000010276 construction Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 239000003973 paint Substances 0.000 description 4
- 230000007774 longterm Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 206010047571 Visual impairment Diseases 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Instructional Devices (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理方法、およびプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.
高精度地図のメンテナンス等のために、道路や建物を撮影した画像の変化を検出する必要がある。ここで、画像には影等が映り込むことがあり、検出したい変化部分と、影等の変化を切り分ける必要がある。たとえば、路面の撮影画像には路面上の走行車両や路側にある構造物の影などが写っている。そのような画像を使用して路面上のペイントなどの変化を検出しようとする場合、影のエッジをペイントのエッジと認識してしまう恐れがある。そして、影は時刻や季節、天候により変化するため、それが変化部分として検出されてしまう恐れがある。 For the maintenance of high-precision maps, it is necessary to detect changes in images of roads and buildings. However, shadows and other objects may appear in the images, and it is necessary to distinguish between the changes that are of interest and the changes in the shadows. For example, an image of a road surface may contain the shadows of vehicles traveling on the road surface and structures on the roadside. When trying to detect changes in paint on the road surface using such images, there is a risk that the edges of the shadows will be recognized as the edges of the paint. Furthermore, because shadows change depending on the time of day, season, and weather, there is a risk that they will be detected as changes.
特許文献1には、輝度画像のヒストグラムの谷部の輝度よりも低い輝度を有する領域を影領域と判定し、谷部の輝度よりも高い輝度を有する領域を非影領域と判定することが記載されている。特許文献1の技術では、さらに輝度画像に対して影除去処理を行った上で変化抽出を行う。 Patent Document 1 describes a method of determining regions with a lower luminance than the luminance of the valleys in the histogram of the luminance image as shadow regions, and regions with a higher luminance than the luminance of the valleys as non-shadow regions. The technology in Patent Document 1 further performs a shadow removal process on the luminance image before extracting changes.
特許文献2には、比較する複数の画像同士において対応する画素同士の輝度値の比を閾値処理することにより、画像を構成する部分的な領域が影領域否かを判定することが記載されている、そして、部分的な領域が影領域と判定されたとき、それを画像から除去することが記載されている。 Patent document 2 describes a method for determining whether a partial area that constitutes an image is a shadow area by performing threshold processing on the ratio of brightness values between corresponding pixels in multiple images to be compared, and describes a method for removing the partial area from the image when it is determined that the partial area is a shadow area.
しかしながら、特許文献1および2の技術では、天候等の撮影条件や他の被写体の特性などにより、必ずしも影を正確に判定できないという問題があると考えられる。また、特許文献1および2の技術では、変化検出に先立って影を除去した中間画像を生成しており、中間画像の精度が変化検出の精度に大きく影響すると考えられる。 However, the techniques of Patent Documents 1 and 2 have the problem that shadows cannot always be accurately determined due to shooting conditions such as weather and the characteristics of other subjects. In addition, the techniques of Patent Documents 1 and 2 generate intermediate images from which shadows have been removed prior to change detection, and it is believed that the accuracy of the intermediate images significantly affects the accuracy of change detection.
本発明が解決しようとする課題としては、容易に精度良く画像の変化検出を行う技術を提供することが一例として挙げられる。 One example of the problem that the present invention aims to solve is to provide a technology that can easily and accurately detect changes in images.
請求項1に記載の発明は、
第1の日時に撮影された第1画像と、第2の日時に撮影された第2画像と、第3の日時に撮影された第3画像と、第4の日時に撮影された第4画像とを取得する取得部と、
前記第1画像と前記第3画像との差分を示す第1差分画像、および、前記第2画像と前記第4画像との差分を示す第2差分画像を生成する差分画像生成部と、
前記第1差分画像と前記第2差分画像との共通成分を第1共通成分として抽出する抽出部とを備え、
前記第3の日時および前記第4の日時はいずれも、前記第1の日時よりも後、かつ前記第2の日時よりも後である
情報処理装置である。
The invention described in claim 1 is
an acquisition unit that acquires a first image captured on a first date and time, a second image captured on a second date and time, a third image captured on a third date and time, and a fourth image captured on a fourth date and time;
a difference image generating unit that generates a first difference image indicating a difference between the first image and the third image, and a second difference image indicating a difference between the second image and the fourth image;
an extracting unit that extracts a common component between the first difference image and the second difference image as a first common component,
The third date and time and the fourth date and time are both later than the first date and time and later than the second date and time for the information processing device.
請求項15に記載の発明は、
第1の日時に撮影された第1画像と、第2の日時に撮影された第2画像と、第3の日時に撮影された第3画像と、第4の日時に撮影された第4画像とを取得する取得ステップと、
前記第1画像と前記第3画像との差分を示す第1差分画像、および、前記第2画像と前記第4画像との差分を示す第2差分画像を生成する差分画像生成ステップと、
前記第1差分画像と前記第2差分画像との共通成分を第1共通成分として抽出する抽出ステップとを備え、
前記第3の日時および前記第4の日時はいずれも、前記第1の日時よりも後、かつ前記第2の日時よりも後である
情報処理方法である。
The invention described in claim 15 is
an acquisition step of acquiring a first image taken at a first date and time, a second image taken at a second date and time, a third image taken at a third date and time, and a fourth image taken at a fourth date and time;
a difference image generating step of generating a first difference image indicating a difference between the first image and the third image, and a second difference image indicating a difference between the second image and the fourth image;
an extraction step of extracting a common component between the first difference image and the second difference image as a first common component,
In the information processing method, the third date and time and the fourth date and time are both later than the first date and time and later than the second date and time.
請求項16に記載の発明は、
請求項15に記載の情報処理方法の各ステップをコンピュータに実行させるプログラムである。
The invention described in claim 16 is
A program for causing a computer to execute each step of the information processing method according to claim 15.
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。 The following describes an embodiment of the present invention with reference to the drawings. Note that in all drawings, similar components are given similar reference numerals and descriptions will be omitted where appropriate.
以下に示す説明において、特に説明する場合を除き、情報処理装置10の各構成要素は、ハードウエア単位の構成ではなく、機能単位のブロックを示している。情報処理装置10の各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされたプログラム、そのプログラムを格納するハードディスクなどの記憶メディア、ネットワーク接続用インタフェースを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置には様々な変形例がある。
In the following explanation, unless otherwise specified, each component of the
(第1の実施形態)
図1は、第1の実施形態に係る情報処理装置10の機能構成を例示するブロック図である。本実施形態に係る情報処理装置10は、取得部120、差分画像生成部140および抽出部160を備える。取得部120は、第1の日時に撮影された第1画像と、第2の日時に撮影された第2画像と、第3の日時に撮影された第3画像と、第4の日時に撮影された第4画像とを取得する。差分画像生成部140は、第1画像と第3画像との差分を示す第1差分画像、および、第2画像と第4画像との差分を示す第2差分画像を生成する。抽出部160は、第1差分画像と第2差分画像との共通成分を第1共通成分として抽出する。第3の日時および第4の日時はいずれも、第1の日時よりも後、かつ第2の日時よりも後である。以下に詳しく説明する。
First Embodiment
FIG. 1 is a block diagram illustrating a functional configuration of an
図2は、本実施形態に係る情報処理装置10が行う処理を説明するための図である。たとえば画像A1が第1画像に相当し、画像A2が第2画像に相当し、画像B1が第3画像に相当し、画像B2が第4画像に相当する。本図の例において、画像A1~A3、画像B1~B3はそれぞれ道路31を含むオルソ画像であり、道路31には白線30が描かれている。また画像A1~A3、画像B1~B3には、影32が写り込んでいる。情報処理装置10によれば、この白線30の変化を検出することができる。
Figure 2 is a diagram for explaining the processing performed by the
本図の例において画像A1~A3、画像B1~B3は互いに異なる画像である。たとえば画像A1~A3は互いに同じ日の異なる時刻に撮影された画像であり、画像B1~B3は互いに同じ日の異なる時刻に撮影された画像である。画像B1~B3が撮影された日は画像A1~A3が撮影された日よりも後である。 In the example shown in this figure, images A1 to A3 and images B1 to B3 are different images. For example, images A1 to A3 are images taken at different times on the same day, and images B1 to B3 are images taken at different times on the same day. Images B1 to B3 were taken on a day after images A1 to A3 were taken.
差分画像C1は画像A1と画像B1との差分を示している。差分画像C2は画像A2と画像B2との差分を示している。差分画像C3は画像A3と画像B3との差分を示している。そして、共通成分画像D1は、差分画像C1と差分画像C2と差分画像C3との共通成分を示す画像である。この共通成分画像D1は、白線30の変化部分のみが抽出されたものとなる。たとえば差分画像C1は第1差分画像に相当し、差分画像C2は第2差分画像に相当する。そして共通成分画像D1は、抽出部160で抽出される第1共通成分を示す画像に相当する。
Difference image C1 shows the difference between image A1 and image B1. Difference image C2 shows the difference between image A2 and image B2. Difference image C3 shows the difference between image A3 and image B3. And common component image D1 is an image showing the common component between difference image C1, difference image C2 and difference image C3. This common component image D1 is an image in which only the changed portion of the
つまり、本実施形態に係る情報処理装置10によれば、第1画像および第2画像が撮影された時期と、第3画像および第4画像が撮影された時期との間で生じた変化を第1共通成分として抽出できる。また、第1共通成分には、第1画像および第2画像の間で生じた変化および第3画像および第4画像の間で生じた変化は抽出されない。したがって、影などの短期的な変化と、白線や建造物等における長期的な変化を切り分けて検出することができる。
In other words, according to the
本実施形態に係る方法では、影に特有の特性などを利用していないため、影の判定に関する不確実な要素の影響を受けにくいとともに、短期的な変化を及ぼす影以外の要素にも対応が可能である。短期的な変化を及ぼす事象が落ち葉であるか影であるか雪であるかといった属性も意識することなく、その影響を除去できる。さらに、本実施形態に係る方法では、たとえば影を除去したような中間画像を生成していない。したがって、処理が簡潔かつ低負荷であり、変化部分の検出精度を低下させる要素が入り込みにくい。ひいては、高精度に変化部分を検出することが可能である。 The method according to this embodiment does not use characteristics specific to shadows, so it is not easily affected by uncertain factors related to shadow determination, and can also handle factors other than shadows that cause short-term changes. It is possible to remove the effects of short-term changes without being aware of attributes such as whether the phenomenon causing the change is fallen leaves, shadows, or snow. Furthermore, the method according to this embodiment does not generate intermediate images such as those with shadows removed. Therefore, the processing is simple and low-load, and factors that reduce the accuracy of detecting changed parts are unlikely to be introduced. As a result, it is possible to detect changed parts with high accuracy.
図3は、本実施形態に係る情報処理方法の流れを例示するフローチャートである。本実施形態に係る情報処理方法は、取得ステップS10、差分画像生成ステップS20、および抽出ステップS30を含む。取得ステップS10では、第1の日時に撮影された第1画像と、第2の日時に撮影された第2画像と、第3の日時に撮影された第3画像と、第4の日時に撮影された第4画像とが取得される。差分画像生成ステップS20では、第1画像と第3画像との差分を示す第1差分画像、および、第2画像と第4画像との差分を示す第2差分画像が生成される。抽出ステップS30では、第1差分画像と第2差分画像との共通成分が第1共通成分として抽出される。第3の日時および第4の日時はいずれも、第1の日時よりも後、かつ第2の日時よりも後である。本実施形態に係る情報処理方法は、本実施形態に係る情報処理装置10により実行され得る。
FIG. 3 is a flowchart illustrating the flow of the information processing method according to this embodiment. The information processing method according to this embodiment includes an acquisition step S10, a difference image generation step S20, and an extraction step S30. In the acquisition step S10, a first image taken at a first date and time, a second image taken at a second date and time, a third image taken at a third date and time, and a fourth image taken at a fourth date and time are acquired. In the difference image generation step S20, a first difference image showing the difference between the first image and the third image, and a second difference image showing the difference between the second image and the fourth image are generated. In the extraction step S30, a common component between the first difference image and the second difference image is extracted as a first common component. The third date and the fourth date and time are both later than the first date and time and later than the second date and time. The information processing method according to this embodiment can be executed by the
図4は、本実施形態に係る情報処理装置10が行う処理を詳しく例示するフローチャートである。図1および図4を参照して本実施形態に係る情報処理装置10が行う処理について以下に詳しく説明する。取得部120が取得した画像を用いて変化部分を検出する一連の処理を、以下では「検出処理」と呼ぶ。
Figure 4 is a flowchart illustrating in detail the processing performed by the
取得部120はたとえば取得部120からアクセス可能な記憶部200から、画像を取得する。図1では記憶部200が情報処理装置10の外部に設けられている例を示しているが、記憶部200は情報処理装置10の内部に設けられていても良い。記憶部200には複数の画像が、撮影日時や撮影位置と関連付けられた状態で予め保持されている。取得部120は、位置および時期を指定して記憶部200から画像を取得することができる。画像の撮影位置は、緯度および経度で特定できる他、個別の交差点やランドマークを示す識別子を用いて特定されてもよい。
The
取得部120が取得する画像は特に限定されないが、道路、構造物等を移した画像であり得る。また、取得部120が取得する画像は特に限定されないが、たとえば道路上を移動する移動体(車両、二輪車等)に設けられた撮像装置で撮影された画像である。取得部120が取得する画像は、オルソ画像、道路や構造物等を真上から写した上面画像(top view image)、側面画像、航空写真等であってもよい。また、立体的な変化の検出を行う場合には、取得部120はLiDARで取得した点群データに基づく画像を取得しても良い。中でも取得部120が検出処理のために取得する画像はオルソ画像であることが好ましい。すなわち、第1画像、第2画像、第3画像、および第4画像はいずれもオルソ画像であることが好ましい。そうすれば、変化部分を高精度に検出しやすい。記憶部200に保持された画像がオルソ画像でない場合、取得部120は記憶部200から読みだした画像をオルソ化することにより検出処理に用いる画像を得ても良い。なお、取得部120が検出処理のために取得する画像は互いに同じ種類の画像であることが好ましい。
The image acquired by the
情報処理装置10は取得部120が取得した画像を用いて変化部分の検出処理を行う。取得部120が検出処理のために取得する画像には、少なくとも第1画像、第2画像、第3画像、および第4画像が含まれる。ただし、取得部120が検出処理のために取得する画像には、さらに一以上の画像が含まれても良い。取得部120が検出処理のために取得する画像は、同じ対象を含む画像であることが好ましい。また、取得部120が検出処理のために取得する画像は、互いに撮影領域が重なっていることが好ましい。なお、対象は予め定めておく必要はない。
The
情報処理装置10はたとえば対象の長期的変化を検出することができる。図2の例において、対象は白線である。対象としては特に限定されないが、建物、標識、信号機、案内板等の構造物や、道路に描かれた白線等の区画線、横断歩道、道路標示、路面等が挙げられる。道路に描かれたペイントは、経時劣化や道路工事等により剥がれたり、新たに描き直されたりするため、これらの変化を検出することが必要となる。また、路面のヒビ、破損、凹み等も検出できることが好ましい。
The
一方、取得部120が検出処理のために取得する画像には、短期変化物がさらに含まれていても良い。短期変化物は一時的に変化するものであり、情報処理装置10は短期変化物による変化を除いた検出結果を出力できる。短期変化物は特に限定されないが、たとえば、影、雪、水たまり、土砂、車両、落下物、落ち葉、およびゴミのうち少なくともいずれかであり得る。
On the other hand, the image acquired by the
上述したとおり、第1画像は第1の日時に撮影された画像であり、第2画像は第2の日時に撮影された画像であり、第3画像は第3の日時に撮影された画像であり、第4画像は第4の日時に撮影された画像である。第3の日時および第4の日時はいずれも、第1の日時よりも後、かつ第2の日時よりも後である。ここで、第1の日時と第2の日時との間隔は、第1の日時と第3の日時の間隔よりも狭いことが好ましい。第1の日時と第2の日時との間隔は、第2の日時と第4の日時の間隔よりも狭いことが好ましい。第3の日時と第4の日時の間隔は、第1の日時と第3の日時の間隔よりも狭いことが好ましい。また、第3の日時と第4の日時との間隔は、第2の日時と第4の日時の間隔よりも狭いことが好ましい。本実施形態において、第1の日時と第2の日時は互いに異なり、かつ、第3の日時と第4の日時は互いに異なる。第1の日時および第2の日時は第1の時期に含まれ、第3の日時と第4の日時は第2の時期に含まれる。第2の時期は第1の時期よりも後である。情報処理装置10によれば、第1の時期と第2の時期の間の対象の変化を検出できる。第1の時期および第2の時期の長さはそれぞれ特に限定されないが、たとえば1日である。
As described above, the first image is an image taken at the first date and time, the second image is an image taken at the second date and time, the third image is an image taken at the third date and time, and the fourth image is an image taken at the fourth date and time. The third date and time and the fourth date and time are both later than the first date and time and later than the second date and time. Here, it is preferable that the interval between the first date and time and the second date and time is narrower than the interval between the first date and time and the third date and time. It is preferable that the interval between the first date and time and the second date and time is narrower than the interval between the second date and time and the fourth date and time. It is also preferable that the interval between the third date and time and the fourth date and time is narrower than the interval between the second date and time and the fourth date and time. In this embodiment, the first date and time and the second date and time are different from each other, and the third date and time and the fourth date and time are different from each other. The first date and time and the second date and time are included in the first period, and the third date and time and the fourth date and time are included in the second period. The second period is later than the first period. According to the
まずS101において、情報処理装置10は、検出対象の位置および時期の指定を受け付ける。検出対象の位置および時期は、たとえばユーザが情報処理装置10に対して入力することができる。検出対象の位置の指定はたとえば緯度および経度でされても良いし、上述したように交差点やランドマークの識別子でされても良い。また、検出対象の位置は予め定められた基準地点からの距離や相対位置で指定されても良い。ランドマークとしては、信号機、標識、バス停、横断歩道等が挙げられる。検出対象の時期の指定は、第1の時期と第2の時期を指定することにより行われる。各時期は、その時期の始点と終点を指定すること、またはその時期の始点と長さを指定することで行える。
First, in S101, the
情報処理装置10が検出対象の位置および時期の指定を受け付けると、取得部120はS102において記憶部200から検出対象の位置および時期に該当する画像を選択し、検出処理のために取得する。具体的には取得部120は、検出対象の位置として指定された位置を含む画像を取得する。または、取得部120は検出対象の位置として指定された位置から撮影された画像を取得する。検出対象の位置が交差点やランドマークの識別子で指定される場合、取得部120は、その識別子で表された交差点やランドマークが含まれる画像を取得する。本実施形態において取得部120は第1の時期に撮影された画像を二以上取得し、第2の時期に撮影された画像を二以上取得する。取得部120は、たとえば第1の時期に第1の日時および第2の日時が含まれるように、第1画像および第2画像を取得する。また取得部120は、第2の時期に第3の日時および第4の日時が含まれるように、第3画像および第4画像を取得する。
When the
取得部120が画像を取得すると、差分画像生成部140はS201においてエッジ検出を行う。具体的には差分画像生成部140は、取得部120が取得した各画像に対し、エッジ検出処理を行う。エッジ検出処理はたとえば画像の輝度勾配に基づいて行える。ただし色の変化を検出しようとする場合には、画像の色相にさらに基づいてエッジ検出処理を行っても良い。なお、差分画像生成部140は、取得部120が取得した画像に対し、必要に応じて補正処理等を行っても良い。エッジ検出処理により、エッジ画像が得られる。
When the
次いで差分画像生成部140はS202において、差分画像を複数生成する。差分画像は、第1の時期に撮影されたいずれかの画像と、第2の時期に撮影されたいずれかの画像との差分を示す画像である。具体的には、差分画像生成部140は、S201で得られたエッジ画像の位置を対応付ける。そして、位置が対応付けられた二つのエッジ画像で、対応する位置の画素の値を比較する。すなわち、実空間で同じ位置に対応する画素の値を比較する。そして、画素の値が一致する画素を共通部分と判定し、画素の値が一致しない画素を差分と判定する。こうして、差分と判定された画素をそれ以外の画素と識別可能に示された画像が差分画像である。
Next, in S202, the difference
差分画像を生成するために用いる二画像の組み合わせは特に限定されないが、影などの短期変化物の状態が互いに異なる画像の組み合わせであることが好ましい。たとえば、差分画像生成部140は各画像に関連付けられた撮影日時に基づき太陽の向きを導出し、太陽の向きが所定の角度以上離れている二画像を用いて差分画像を生成することが好ましい。
The combination of two images used to generate a difference image is not particularly limited, but it is preferable to use a combination of images in which the states of short-term changes such as shadows are different from each other. For example, it is preferable for the difference
エッジ画像の位置を対応付ける方法としては、たとえばGPS情報等により画像に撮影された位置と方位が関連付けられている場合、その位置と方位を用いる方法が挙げられる。また、画像に関連付けられた情報に加えて、両画像内の基準物を利用してマッチングさせることも可能である。さらに、両画像内に適当な基準物が存在しない場合には、連続して撮影された画像を含めて広範囲で基準物を探索し。発見した基準物からの相対的な位置関係を求めて対象の画像の位置を推定し、位置合わせの精度を上げることが考えられる。差分画像にはさらに、その差分画像の元となる画像の位置情報に基づいた位置情報を関連付けることができる。 One method for matching the positions of edge images is to use the position and orientation when the position and orientation at which the image was taken are associated with each other using GPS information or the like. It is also possible to match the images using reference objects in both images in addition to the information associated with the images. Furthermore, if there is no suitable reference object in both images, it is possible to search for the reference object over a wide range, including images taken in succession, and estimate the position of the target image by determining the relative positional relationship from the reference object found, thereby improving the accuracy of alignment. The difference image can also be associated with location information based on the location information of the image that is the basis of the difference image.
次いで、抽出部160はS301において、複数の差分画像の共通成分を抽出する。抽出部160はこの共通成分を示す画像を生成することができる。具体的には、抽出部160はS202でエッジ画像の位置を対応付けたのと同様にして複数の差分画像の位置を対応付ける。そして、位置が対応付けられた複数の差分画像で、対応する位置の画素の値を比較する。そして、画素の値がすべて一致する画素を共通部分と判定する。または、全ての差分画像のうち、画素の値が一致する割合が所定の閾値以上である画素を共通部分と判定する。こうして、共通部分と判定された画素をそれ以外の画素と識別可能に示された画像が第1共通成分を示す画像である。
Next, in S301, the
図1の例において、情報処理装置10は、第1共通成分を示す画像を出力する出力部180をさらに備える。出力部180はS401において、抽出部160が生成した第1共通成分を示す画像を表示装置に表示させるためのデータを出力する。なお、抽出の結果、差分画像の共通成分がない場合には、出力部180は、変化部分が無いことを示す情報を出力しても良い。なお、出力部180は、第1共通成分を示す画像中の共通成分を示す画素の数の割合が、所定の割合以下である場合に、変化部分が無いことを示す情報を出力しても良い。
In the example of FIG. 1, the
なお、抽出部160がS301を行った後、同じ検出対象の位置および時期について、異なる画像を用いて再度検出処理が行われても良い。そして、複数の検出処理の結果の一致度が所定の基準以上である場合に、出力部180がその結果を出力してもよい。そうすることにより、より確かな結果を出力できる。
After the
図5は、本実施形態に係る情報処理装置10が行う処理の変形例を示すフローチャートである。本変形例によれば、検出処理に用いる画像を増やすことにより、変化部分の検出精度を高めることができる。本変形例では、所定の数の差分画像を生成する。本変形例は、以下に説明する点を除いて図4の例と同じである。
Figure 5 is a flowchart showing a modified example of the process performed by the
本例のS101は図4のS101と同じである。情報処理装置10が検出対象の位置および時期の指定を受け付けると、取得部120はS103において記憶部200から検出対象の位置および時期に該当する画像を選択し、検出処理のために取得する。本例において取得部120は第1の時期に撮影された画像と、第2の時期に撮影された画像を一つずつ取得する。取得部120が取得する二画像の組み合わせは特に限定されないが、影の状態が互いに異なる画像の組み合わせであることが好ましい。たとえば、取得部120は各画像に関連付けられた撮影日時に基づき太陽の向きを導出し、太陽の向きが所定の角度以上離れている二画像を取得することが好ましい。
S101 in this example is the same as S101 in FIG. 4. When the
取得部120が画像を取得すると、差分画像生成部140はS201においてエッジ検出を行う。本例のS201は図4のS201と同じである。
When the
次いで差分画像生成部140はS203において、差分画像を生成する。差分画像は、第1の時期に撮影された画像と、第2の時期に撮影された画像との差分を示す画像である。差分画像を生成する方法は、図4のS202について説明した方法と同じである。
Then, in S203, the difference
次いで、差分画像生成部140はS204において、それまでに生成した差分画像の数が、所定の数に達したか否かを判定する。差分画像の数が、所定の数に達していない場合(S204のN)、S103の処理に戻り、取得部120は再度画像を取得する。差分画像の数が、所定の数に達した場合(S204のY)、差分画像生成部140は、生成した差分画像を全て抽出部160へ出力する。
Next, in S204, the difference
次いで、抽出部160はS301において、差分画像生成部140から取得した複数の差分画像の共通成分を抽出する。共通部分を抽出する方法は図4のS301と同じである。また、出力部180はS401において、抽出部160が生成した第1共通成分を示す画像を表示装置に表示させるためのデータを出力する。
Next, in S301, the
なお、抽出部160が三以上の差分画像を用いて共通成分を抽出する場合、同一の画像が二以上の差分画像の生成に用いられても良い。ただし、第2の実施形態で説明するように、短期変化物が含まれない画像でない限り、全ての差分画像の生成に同一の画像を用いることはできない。
When the
情報処理装置10のハードウエア構成について以下に説明する。情報処理装置10の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置10の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
The hardware configuration of the
図6は、情報処理装置10を実現するための計算機1000を例示する図である。計算機1000は任意の計算機である。例えば計算機1000は、SoC(System On Chip)、Personal Computer(PC)、サーバマシン、タブレット端末、又はスマートフォンなどである。計算機1000は、情報処理装置10を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。
FIG. 6 is a diagram illustrating a
計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は FPGA(Field-Programmable Gate Array)などの種々のプロセッサである。メモリ1060は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス1080は、ハードディスク、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。
The
入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース1100には、キーボードなどの入力装置や、ディスプレイ装置などの出力装置が接続される。
The input/
ネットワークインタフェース1120は、計算機1000をネットワークに接続するためのインタフェースである。この通信網は、例えば LAN(Local Area Network)や WAN(Wide Area Network)である。ネットワークインタフェース1120がネットワークに接続する方法は、無線接続であってもよいし、有線接続であってもよい。
The
ストレージデバイス1080は、情報処理装置10の各機能構成部を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールをメモリ1060に読み出して実行することで、各プログラムモジュールに対応する機能を実現する。
The
以上、本実施形態によれば、差分画像生成部140は、第1画像と第3画像との差分を示す第1差分画像、および、第2画像と第4画像との差分を示す第2差分画像を生成する。抽出部160は、第1差分画像と第2差分画像との共通成分を第1共通成分として抽出する。したがって、容易に精度良く画像の変化検出を行うことができる。
As described above, according to this embodiment, the difference
(第2の実施形態)
図7および図8は、第2の実施形態に係る情報処理装置10が行う処理を説明するための図である。本実施形態に係る情報処理装置10は、以下に説明する点を除いて第1の実施形態に係る情報処理装置10と同じである。
Second Embodiment
7 and 8 are diagrams for explaining the processing performed by the
本実施形態において、第1画像、第2画像、第3画像、および第4画像はいずれも道路を含む画像である。そして第1画像と第2画像とは、道路上に短期変化物が写っていない同一の画像である、または、第3画像と第4画像とは、道路上に短期変化物が写っていない同一の画像である。 In this embodiment, the first image, the second image, the third image, and the fourth image are all images that include a road. The first image and the second image are the same image that does not show any short-term changes on the road, or the third image and the fourth image are the same image that does not show any short-term changes on the road.
影等の短期変化物が含まれない画像を用いる場合、検出処理に用いる画像の数を減らすことができる。図7の例において、画像A4が第1画像および第2画像に相当し、画像B4が第3画像に相当し、画像B5が第4画像に相当する。すなわち、第1画像と第2画像とは同一の画像である。第1の日時と第2の日時は同じである。画像A4には道路31と白線30が含まれているが、影32は含まれていない。画像B4と画像B5には、道路31、白線30に加え、影32が含まれている。差分画像C4は画像A4と画像B4との差分を示している。差分画像C5は画像A4と画像B5との差分を示している。そして、共通成分画像D2は、差分画像C4と差分画像C5との共通成分を示す画像である。このような第1画像、第2画像、第3画像、および第4画像を用いても、第1の実施形態と同様に変化部分の検出を行える。
When images that do not include short-term changes such as shadows are used, the number of images used in the detection process can be reduced. In the example of FIG. 7, image A4 corresponds to the first and second images, image B4 corresponds to the third image, and image B5 corresponds to the fourth image. That is, the first and second images are the same image. The first date and time are the same as the second date and time. Image A4 includes the
また図8の例において、画像A6が第1画像に相当し、画像A7が第2画像に相当し、画像B6が第3画像および第4画像に相当する。すなわち、第3画像と第4画像とは同一の画像である。第3の日時と第4の日時は同じである。画像B6には道路31と白線30が含まれているが、影32は含まれていない。画像A6と画像A7には、道路31、白線30に加え、影32が含まれている。差分画像C6は画像A6と画像B6との差分を示している。差分画像C7は画像A7と画像B6との差分を示している。そして、共通成分画像D3は、差分画像C6と差分画像C7との共通成分を示す画像である。このような第1画像、第2画像、第3画像、および第4画像を用いても、第1の実施形態と同様に変化部分の検出を行える。
In the example of FIG. 8, image A6 corresponds to the first image, image A7 corresponds to the second image, and image B6 corresponds to the third and fourth images. That is, the third and fourth images are the same image. The third date and time are the same as the fourth date and time. Image B6 includes the
本実施形態において、記憶部200に保持された各画像には、短期変化物の有無を示す情報が関連付けられている。そして、取得部120は短期変化物が無い画像を選択して取得することができる。取得部120は短期変化物が無い画像を取得した場合、差分画像生成部140はその画像を複数の差分画像の生成に用いることができる。また、差分画像生成部140はその画像を全ての差分画像の生成に用いても良い。
In this embodiment, each image stored in the
短期変化物が無い画像の例としては、太陽が出ていない時刻や曇天で撮影された画像が挙げられる。記憶部200に保持させる画像には、各画像を予め確認して短期変化物の有無を示す情報を付すことができる。また、各画像には撮影された日時に基づいて短期変化物の有無を示す情報が付されてもよい。
Examples of images without short-term changes include images taken when the sun is not out or on a cloudy day. Images stored in the
以上、本実施形態によれば、第1の実施形態と同様の作用および効果が得られる。くわえて、第1画像と第2画像とは、道路上に短期変化物が写っていない同一の画像である、または、第3画像と第4画像とは、道路上に短期変化物が写っていない同一の画像である。したがって、より少ない画像を用いて変化部分の検出を行える。 As described above, according to this embodiment, the same actions and effects as those of the first embodiment can be obtained. In addition, the first image and the second image are the same image that does not show any short-term changes on the road, or the third image and the fourth image are the same image that does not show any short-term changes on the road. Therefore, it is possible to detect the changed portion using fewer images.
(第3の実施形態)
図9は、第3の実施形態に係る情報処理装置10の機能構成を例示するブロック図である。本実施形態に係る情報処理装置10は、以下に説明する点を除いて第1および第2の実施形態の少なくともいずれかに係る情報処理装置10と同じである。
Third Embodiment
9 is a block diagram illustrating a functional configuration of an
本実施形態に係る情報処理装置10は、検出処理を開始させるか否かを判定する判定部110をさらに備える。そして、判定部110が検出処理を開始させると判定した場合に、検出処理が開始される。検出処理は、上述したとおり、取得部120が取得した画像を用いて変化部分を検出する一連の処理であり、具体的には取得部120が第1画像、第2画像、第3画像、および第4画像を取得し、差分画像生成部140が第1差分画像と第2差分画像とを生成し、抽出部160が第1共通成分を抽出する処理である。検出処理は、取得ステップS10、差分画像生成ステップS20、および抽出ステップS30を含む。以下に詳しく説明する。
The
判定部110は、検出処理を行うタイミングを決定する。特に、判定部110は対象に変化が生じている可能性が比較的高いタイミングで検出処理が行われるよう、検出処理を開始させるか否かの判定を行う。以下に、判定部110が行う判定方法の第1例から第4例について説明する。なお、判定部110が行う判定方法は以下に限定されない。また、情報処理装置10は複数の判定方法を組み合わせて実行しても良い。
The
<第1例>
第1例において、判定部110は、予め定められた期間が経過する毎に、検出処理を開始させると判定する。判定部110は、直近で検出処理が行われた日時を記憶している。そして、判定部110は、所定の時間ごと(たとえば一日ごと)に、直近で検出処理が行われてからの経過時間を算出する。そして、判定部110は、算出した経過時間が予め定められた期間より長い場合、検出処理を開始させると判定する。一方、算出した経過時間が予め定められた期間より短い場合、検出処理を開始させないと判定する。判定部110は判定を位置ごとに行うことができる。検出処理を開始させると判定された場合、その位置を検出対象の位置として指定する。また、直近の検出処理のタイミングを含む所定の期間を第1の時期とし、算出した経過時間が予め定められた期間より長くなったタイミングを終点とする所定の期間を第2の時期とすることが好ましい。本例によれば、定期的に検出処理を行うことができる。
<First Example>
In the first example, the
<第2例>
第2例において、第1画像、第2画像、第3画像、および第4画像はいずれも道路を含む画像である。判定部110は、道路に関する情報を取得する。そして判定部110は道路に関する情報に基づいて、予め定められた事象が発生したと判定した場合に、検出処理を開始させると判定する。
<Second Example>
In the second example, the first image, the second image, the third image, and the fourth image are all images including a road. The
道路に関する情報はたとえば、道路の管理会社が提供する道路工事情報である。取得部120は、道路に関する情報をたとえば道路情報を提供するサービスのサーバ50から取得することができる。予め定められた事象は、対象に変化を生じさせる可能性が高い事象であり、たとえば道路工事である。道路工事では道路の白線等に変化が生じる可能性が高いことから、道路工事の前後で変化が生じていないかどうか確かめるよう、検出処理が行われるのが好ましい。
The information relating to the road is, for example, road construction information provided by a road management company. The
道路に関する情報には、事象が生じる日時または期間と、事象が生じる位置が含まれる。情報処理装置10は、検出対象の位置および時期を道路に関する情報に基づいて定めることができる。たとえば取得部120は、事象の発生前に撮影された第1画像および第2画像と、事象の発生後に撮影された第3画像および第4画像とを取得する。すなわち、事象の発生前に第1の時期を指定し、事象の発生後に第2の時期を指定する。また、検出対象の位置として、事象が発生した位置を指定する。
The information about the road includes the date and time or period when the event occurs, and the location where the event occurs. The
本例において判定部110は、所定の時間ごと(たとえば一日ごと)に、道路に関する情報を取得する。そして、直近の検出処理の後に予め定められた事象が発生したか否かを確認する。判定部110は、予め定められた事象が発生した場合、検出処理を開始させると判定する。一方、予め定められた事象が発生していない場合、検出処理を開始させないと判定する。本例によれば、対象に変化を生じさせる可能性が高い事象が発生したことを検知して検出処理を行うことができる。
In this example, the
<第3例>
第3例において、第1画像、第2画像、第3画像、および第4画像はいずれも道路を含む画像である。判定部110は、道路の交通量に関する情報を取得し、交通量に関する情報に基づいて、検出処理を開始させるタイミングを決定する。
<Third Example>
In the third example, the first image, the second image, the third image, and the fourth image are all images including a road. The
本例において判定部110は、交通量に関する情報をたとえば交通情報を提供するサービスのサーバ50から取得する。交通量に関する情報はたとえば、道路上の各位置における時刻ごとの交通量を示す情報である。判定部110は交通量に関する情報を用いて、道路上の各位置における交通量の積算値を算出する。なお、積算値は直近の検出処理の後の積算値でよい。そして判定部110は、算出した積算値が予め定められた値を超えたか否かを判定する。判定部110は、積算値が予め定められた値を超えた場合、検出処理を開始させると判定する。一方、積算値が予め定められた値を超えなかった場合、検出処理を開始させないと判定する。判定部110は判定を位置ごとに行える。そして、検出処理を開始させると判定された場合、その位置を検出対象の位置として指定する。また、直近の検出処理のタイミングを含む所定の期間を第1の時期とし、積算値が予め定められた値を超えたタイミングを終点とする所定の期間を第2の時期とすることが好ましい。
In this example, the
交通量が多いほど、道路上のペイントの剥がれが生じる可能性が高い。したがって、交通量に基づいて検出処理のタイミングを決定することで、的確に変化を検出できる。 The greater the traffic volume, the greater the likelihood that paint on the road will peel off. Therefore, by determining the timing of the detection process based on traffic volume, changes can be detected accurately.
<第4例>
第4例において、第1画像、第2画像、第3画像、および第4画像はいずれも道路を含む画像である。判定部110は、道路の交通流に関する情報を取得し、交通流に関する情報に基づいて、検出処理を開始させるタイミングを決定する。
<Fourth Example>
In the fourth example, the first image, the second image, the third image, and the fourth image are all images including a road. The
本例において判定部110は、交通流に関する情報をたとえば交通情報を提供するサービスのサーバ50から取得する。交通流に関する情報はたとえば、道路上の各分岐点(三叉路、交差点、五叉路等)における時刻ごとの交通の流れの状態を示す情報である。交通流に関する情報は、所定の時間内で分岐点を通過した車両の、進行方向(直進、右折等)ごとの数または割合を示す情報であり得る。たとえば右折車両があった交差点で、ある時期から直線車両のみとなったような場合、交通規制が変更された、すなわち、路面上のマークが変わったという可能性がある。また交通流に関する情報は、道路上の車列の流れの状態を示す情報であり得る。たとえば、ある時点の前後で車列の数が変わった場合、車線の数が変更された、すなわち、路面上のマークが変わったという可能性がある。
In this example, the
判定部110は交通流に関する情報を所定の間隔でモニタし、交通流の変化を検出する。具体的には判定部110は、直近の検出処理が行われたときの交通流に関する情報と最新の交通流に関する情報とを比較する。そして、判定部110は、直近の検出処理が行われたときの交通流に関する情報と最新の交通流に関する情報との差が予め定められた基準値より大きい場合に、検出処理を開始させると判定する。一方、差が予め定められた基準値より大きくない場合に、検出処理を開始させないと判定する。または判定部110は、直近の検出処理が行われたときの交通流に関する情報と最新の交通流に関する情報との類似度を算出し、算出された類似度が予め定められた基準値より小さい場合に、検出処理を開始させると判定する。一方、類似度が予め定められた基準値より小さくない場合に、検出処理を開始させないと判定する。
The
判定部110はより具体的に、交通流に関する情報に基づく各分岐点での直進車両の割合を比較しても良い。この場合判定部110は、直近の検出処理が行われたときの直進車両の割合と最新の直進車両の割合との差が予め定められた基準値より大きい場合に、検出処理を開始させると判定する。一方、この差が予め定められた基準値より大きくない場合に、検出処理を開始させないと判定する。また、判定部110は、交通流に関する情報を用いて道路上の各位置での車線の数を検出して比較しても良い。この場合判定部110は、直近の検出処理が行われたときの車線の数と最新の車線の数とが異なる場合に、検出処理を開始させると判定する。一方、これらの数が同じである場合に、検出処理を開始させないと判定する。
More specifically, the
判定部110は判定を位置または分岐点ごとに行える。そして、検出処理を開始させると判定された場合、その位置または分岐点を検出対象の位置として指定する。また、直近の検出処理のタイミングを含む所定の期間を第1の時期とし、その判定に用いられた最新の交通流に関する情報が得られたタイミングを終点とする所定の期間を、第2の時期とすることが好ましい。
The
本実施形態に係る情報処理装置10を実現する計算機のハードウエア構成は、第1の実施形態と同様に、例えば図6によって表される。ただし、本実施形態の情報処理装置10を実現する計算機1000のストレージデバイス1080には、本実施形態の判定部110の機能を実現するプログラムモジュールがさらに記憶される。
The hardware configuration of the computer that realizes the
図10は、本実施形態に係る情報処理装置10が行う情報処理方法の流れを例示するフローチャートである。本実施形態に係る情報処理方法は、検出処理を開始させるか否かを判定する判定ステップS40をさらに含む。そして、判定ステップS40で検出処理を開始させると判定された場合(S40のY)に、検出処理が開始される。一方、判定ステップS40で検出処理を開始させると判定されなかった場合(S40のN)、検出処理は開始されない。
Figure 10 is a flowchart illustrating the flow of an information processing method performed by the
以上、本実施形態によれば、第1の実施形態と同様の作用および効果が得られる。くわえて、本実施形態によれば、判定部110が検出処理を開始させると判定した場合に、検出処理が開始される。したがって、適切なタイミングで検出処理を行える。
As described above, according to this embodiment, the same actions and effects as those of the first embodiment can be obtained. In addition, according to this embodiment, when the
(第4の実施形態)
図11は、第4の実施形態に係る情報処理装置10が行う処理を説明するための図である。本実施形態に係る情報処理装置10は、以下に説明する点を除いて第3の実施形態に係る情報処理装置10と同じである。
Fourth Embodiment
11 is a diagram for explaining the process performed by the
本実施形態に係る情報処理装置10において判定部110は、撮影日時が互いに異なる三つ以上の画像を取得し、三つ以上の画像のうち時間的に連続する各二画像の共通成分を第2共通成分としてそれぞれ抽出する。判定部110は、抽出した複数の第2共通成分を時系列に比較することにより、判定部110が取得した画像中の対象の変化の有無を検出する。そして判定部110は、判定部110が取得した画像中の対象に変化が検出された場合に、検出処理を開始させると判定する。以下に詳しく説明する。
In the
本実施形態によれば、判定部110は、複数の画像に基づいて対象に変化が生じたか否かを判定する。そして、変化が生じた場合に情報処理装置10は検出処理を行い、具体的な変化部分を抽出できる。
According to this embodiment, the
図11の例において判定部110は、撮影日時が互いに異なる画像E1~E6を取得する。画像E1~E6のそれぞれには、道路31、白線30および影32が含まれる。本例において対象は白線30である。画像E1~E6はこの順に撮影された画像である。画像E1~E6はたとえば互いに異なる日に撮影された画像であり得るが、画像の撮影間隔は特に限定されない。判定部110は、画像E1~E6のうち時間的に連続する各二画像の共通成分を第2共通成分としてそれぞれ抽出する。画像F1~F5はそれぞれ第2共通成分を示す画像である。すなわち、判定部110は、画像E1と画像E2の共通成分を示す画像F1、画像E2と画像E3の共通成分を示す画像F2、画像E3と画像E4の共通成分を示す画像F3、画像E4と画像E5の共通成分を示す画像F4、および画像E5と画像E6の共通成分を示す画像F5を生成する。
In the example of FIG. 11, the
次いで、判定部110は、画像F1~F5を時系列に比較することにより、画像E1~E6中の対象の変化の有無を検出する。本例では、画像F1と画像F2との間に違いは無く、画像F2と画像F3との間および画像F3と画像F4との間に違いがある。また、画像F4と画像F5との間に違いは無い。この場合、画像F3の基となった画像E3の撮影タイミングと画像E4の撮影タイミングとの間に変化が生じたと判定できる。この判定部110の判定においても、影等の短期変化物の影響を受けない。
Then, the
なお、判定部110は最少で三つの画像を用いれば判定が可能である。たとえば画像E1~E3の三画像を用いて同様の処理を行った場合、画像F1と画像F2とに違いが無いことにより、画像E1の撮影タイミングと画像E3の撮影タイミングとの間に変化が生じていないと判定できる。また、画像E2~E4の三画像を用いて同様の処理を行った場合、画像F2と画像F3とに違いがあることにより、画像E2の撮影タイミングと画像E4の撮影タイミングとの間に変化が生じたと判定できる。
The
画像E1~E4の四画像を用いて同様の処理を行った場合、画像F1と画像F2とに違いがなく、画像F2と画像F3とに違いがあることにより、画像E3の撮影タイミングと画像E4の撮影タイミングとの間に変化が生じたと判定できる。このように、四画像以上を用いた場合に変化タイミングをより細かく把握できる。したがって、判定部110は、三つの画像のみから変化のタイミングを判定するよりも、撮影日時が互いに異なる四つ以上の画像を取得して、変化の有無の検出や変化タイミングの判定を行うことが好ましい。
When the same process is performed using the four images E1 to E4, it can be determined that a change occurred between the capture timing of image E3 and the capture timing of image E4, since there is no difference between image F1 and image F2, but there is a difference between image F2 and image F3. In this way, when four or more images are used, the timing of the change can be grasped in more detail. Therefore, it is preferable for the
また、このように判定部110は、判定部110が取得した画像中の対象に変化が検出された場合に、その変化タイミングをさらに特定することができる。したがって取得部120は、変化タイミングの前に撮影された第1画像および第2画像と、変化タイミングの後に撮影された第3画像および第4画像とを取得することが好ましい。すなわち、第1の時期を変化タイミングの前に指定し、第2の時期を変化タイミングの後に指定することが好ましい。また、情報処理装置10は、判定部110が取得して判定に用いた画像の撮影位置を検出対象の位置として指定することが好ましい。
Furthermore, in this manner, when a change is detected in an object in an image acquired by the
判定部110はたとえば三つ以上の画像を、取得部120を介して記憶部200から取得することができる。判定部110が取得する画像は、第1の実施形態で説明した取得部120が取得する画像と同様である。判定部110は、取得部120が検出処理のために取得する画像と同様の画像を取得して、変化の有無の判定に用いることが好ましい。すなわち、判定部110が取得する画像はいずれもオルソ画像であることが好ましい。また、判定部110が取得する画像は互いに同じ種類の画像であることが好ましい。判定部110が取得する画像は互いに撮影領域が重なっていることが好ましい。判定部110は、対象の長期的変化の有無を検出することができる。なお、対象は予め定めておく必要はない。判定部110が取得する画像には短期変化物がさらに含まれていても良い。判定部110が取得する三つ以上の画像は互いに異なる画像であり、互いに異なる日時に撮影された画像である。
The
判定部110は画像を取得すると、取得した各画像に対してエッジ検出処理を行い、エッジ画像を得る。エッジ検出処理についてはS201の説明において上述した通りである。なお、判定部110は、取得した画像に対し、必要に応じて補正処理等を行っても良い。
When the
次いで判定部110は、時間的に連続する二画像から得られた、二つのエッジ画像の位置を、S202の説明において上述したのと同様にして、対応付ける。そして、判定部110は位置が対応付けられた二つのエッジ画像で、対応する位置の画素の値を比較し、画素の値が一致する画素を共通部分と判定する。こうして、共通部分と判定された画素をそれ以外の画素と識別可能に示された画像が第2共通成分を示す画像である。
Then, the
判定部110は、取得した画像から第2共通成分を示す画像を複数生成すると、それらを時系列に比較し、変化の有無を検出する。具体的には判定部110は、時間的に連続する二つの第2共通成分を示す画像間の差分を抽出する処理を行い、差分が抽出された場合に、それら二つの画像間に変化があると判定する。一方、差分が抽出されなかった場合に、それら二つの画像間に変化がないと判定する。第2共通成分を示す画像間の差分を抽出する処理は、差分画像生成部140がエッジ画像から差分画像を生成するのと同じ様に行える。なお、判定部110は差分画像中の差分を示す画素の数の割合が、所定の割合以下である場合に、差分が抽出されなかったと判定しても良い。
When the
第2共通成分を示すいずれか二つの画像間に変化があると判定された場合、判定部110は少なくとも、判定部110が取得した三つ以上の画像の撮影期間の中に変化タイミングがあると判定できる。判定部110は、判定部110が取得した三つ以上の画像の撮影期間の中に変化タイミングがあると判定すると、検出処理を開始させると判定する。そして、情報処理装置10で検出処理が行われる。
When it is determined that there is a change between any two images that show the second common component, the
判定部110が四つ以上の画像を取得した場合、すなわち、第2共通成分を示す画像が3つ以上生成された場合、判定部110はさらに変化タイミングを詳しく特定してもよい。複数の第2共通成分を示す画像を比較して、前後のいずれとも異なる画像がある場合、変化タイミングはその画像の基となった二画像の間であると特定できる。また、複数の第2共通成分を示す画像を比較して、時間的に最初または最後画像が他の画像と異なる場合、変化タイミングはその最初または最後の画像の基となった二画像の間であると特定できる。
When the
以上、本実施形態によれば、第1の実施形態と同様の作用および効果が得られる。くわえて、本実施形態によれば、判定部110が取得した画像中の対象の変化の有無を検出する。そして判定部110は、判定部110が取得した画像中の対象に変化が検出された場合に、検出処理を開始させると判定する。したがって、適切なタイミングで検出処理を行える。
As described above, according to this embodiment, the same actions and effects as those of the first embodiment can be obtained. In addition, according to this embodiment, the
以上、図面を参照して実施形態及び実施例について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。 The above describes the embodiments and examples with reference to the drawings, but these are merely examples of the present invention, and various configurations other than those described above can also be adopted.
10 情報処理装置
30 白線
31 道路
32 影
50 サーバ
110 判定部
120 取得部
140 差分画像生成部
160 抽出部
180 出力部
200 記憶部
1000 計算機
1020 バス
1040 プロセッサ
1060 メモリ
1080 ストレージデバイス
1100 入出力インタフェース
1120 ネットワークインタフェース
REFERENCE SIGNS
Claims (16)
前記第1画像と前記第3画像との差分を示す第1差分画像、および、前記第2画像と前記第4画像との差分を示す第2差分画像を生成する差分画像生成部と、
前記第1差分画像と前記第2差分画像との共通成分を第1共通成分として抽出する抽出部とを備え、
前記第3の日時および前記第4の日時はいずれも、前記第1の日時よりも後、かつ前記第2の日時よりも後である
情報処理装置。 an acquisition unit that acquires a first image captured on a first date and time, a second image captured on a second date and time, a third image captured on a third date and time, and a fourth image captured on a fourth date and time;
a difference image generating unit that generates a first difference image indicating a difference between the first image and the third image, and a second difference image indicating a difference between the second image and the fourth image;
an extracting unit that extracts a common component between the first difference image and the second difference image as a first common component,
The information processing device, wherein the third date and time and the fourth date and time are both later than the first date and time and later than the second date and time.
前記第1の日時と前記第2の日時との間隔は、前記第1の日時と前記第3の日時の間隔よりも狭い
情報処理装置。 2. The information processing device according to claim 1,
An information processing device, wherein an interval between the first date and time and the second date and time is narrower than an interval between the first date and time and the third date and time.
前記第3の日時と前記第4の日時の間隔は、前記第1の日時と前記第3の日時の間隔よりも狭い
情報処理装置。 3. The information processing device according to claim 1,
An information processing device in which an interval between the third date and time and the fourth date and time is narrower than an interval between the first date and time and the third date and time.
前記第1画像、前記第2画像、前記第3画像、および前記第4画像はいずれもオルソ画像である
情報処理装置。 In the information processing device according to any one of claims 1 to 3,
An information processing device, wherein the first image, the second image, the third image, and the fourth image are all orthoimages.
前記第1画像、前記第2画像、前記第3画像、および前記第4画像はいずれも道路を含む画像であり、
前記第1画像と前記第2画像とは、道路上に短期変化物が写っていない同一の画像である、または、前記第3画像と前記第4画像とは道路上に短期変化物が写っていない同一の画像である
情報処理装置。 In the information processing device according to any one of claims 1 to 4,
the first image, the second image, the third image, and the fourth image are all images including a road;
An information processing device, wherein the first image and the second image are the same image that does not show short-term changing objects on the road, or the third image and the fourth image are the same image that does not show short-term changing objects on the road.
前記短期変化物は、影、雪、水たまり、土砂、車両、落下物、落ち葉、およびゴミのうち少なくともいずれかである
情報処理装置。 6. The information processing device according to claim 5,
The short-term changing object is at least one of a shadow, snow, a puddle, soil, a vehicle, a fallen object, fallen leaves, and garbage.
前記第1の日時と前記第2の日時は互いに異なり、かつ、前記第3の日時と前記第4の日時は互いに異なる
情報処理装置。 In the information processing device according to any one of claims 1 to 4,
The information processing device, wherein the first date and time and the second date and time are different from each other, and the third date and time and the fourth date and time are different from each other.
前記第1共通成分を示す画像を出力する出力部をさらに備える
情報処理装置。 In the information processing device according to any one of claims 1 to 7,
The information processing device further includes an output unit that outputs an image indicating the first common component.
前記取得部が前記第1画像、前記第2画像、前記第3画像、および前記第4画像を取得し、前記差分画像生成部が前記第1差分画像と前記第2差分画像とを生成し、前記抽出部が前記第1共通成分を抽出する検出処理を、開始させるか否かを判定する判定部をさらに備え、
前記判定部が前記検出処理を開始させると判定した場合に、前記検出処理が開始する
情報処理装置。 In the information processing device according to any one of claims 1 to 8,
a determination unit that determines whether or not to start a detection process in which the acquisition unit acquires the first image, the second image, the third image, and the fourth image, the difference image generation unit generates the first difference image and the second difference image, and the extraction unit extracts the first common component,
The information processing device starts the detection process when the determination unit determines to start the detection process.
前記判定部は、予め定められた期間が経過する毎に、前記検出処理を開始させると判定する
情報処理装置。 10. The information processing device according to claim 9,
The information processing device, wherein the determination unit determines to start the detection process every time a predetermined period elapses.
前記第1画像、前記第2画像、前記第3画像、および前記第4画像はいずれも道路を含む画像であり、
前記判定部は、
道路に関する情報を取得し、
前記道路に関する情報に基づいて、予め定められた事象が発生したと判定した場合に、前記検出処理を開始させると判定し、
前記取得部は、前記事象の発生前に撮影された前記第1画像および前記第2画像と、前記事象の発生後に撮影された前記第3画像および前記第4画像とを取得する
情報処理装置。 11. The information processing device according to claim 9,
the first image, the second image, the third image, and the fourth image are all images including a road;
The determination unit is
Get information about roads,
determining, when it is determined that a predetermined event has occurred based on the information about the road, to start the detection process;
The acquisition unit is an information processing device that acquires the first image and the second image taken before the occurrence of the event, and the third image and the fourth image taken after the occurrence of the event.
前記第1画像、前記第2画像、前記第3画像、および前記第4画像はいずれも道路を含む画像であり、
前記判定部は、
道路の交通流に関する情報を取得し、
前記交通流に関する情報に基づいて、前記検出処理を開始させるタイミングを決定する
情報処理装置。 In the information processing device according to any one of claims 9 to 11,
the first image, the second image, the third image, and the fourth image are all images including a road;
The determination unit is
Obtaining information about road traffic flow,
An information processing device that determines the timing to start the detection process based on information about the traffic flow.
前記判定部は、
撮影日時が互いに異なる三つ以上の画像を取得し、
前記三つ以上の画像のうち時間的に連続する各二画像の共通成分を第2共通成分としてそれぞれ抽出し、
抽出した複数の前記第2共通成分を時系列に比較することにより、前記判定部が取得した画像中の対象の変化の有無を検出し、
前記判定部が取得した画像中の前記対象に変化が検出された場合に、前記検出処理を開始させると判定する
情報処理装置。 In the information processing device according to any one of claims 9 to 12,
The determination unit is
Obtain three or more images with different shooting dates and times;
extracting a common component of each of two temporally consecutive images from among the three or more images as a second common component;
The determination unit detects whether or not there is a change in the object in the acquired image by comparing the extracted second common components in a time series manner;
The information processing device determines to start the detection process when a change is detected in the object in the image acquired by the determination unit.
前記判定部は、前記判定部が取得した画像中の前記対象に変化が検出された場合に、その変化タイミングをさらに特定し、
前記取得部は、前記変化タイミングの前に撮影された前記第1画像および前記第2画像と、前記変化タイミングの後に撮影された前記第3画像および前記第4画像とを取得する
情報処理装置。 14. The information processing device according to claim 13,
When a change is detected in the object in the image acquired by the determination unit, the determination unit further identifies a timing of the change;
The acquisition unit is an information processing device that acquires the first image and the second image captured before the timing of the change, and the third image and the fourth image captured after the timing of the change.
前記第1画像と前記第3画像との差分を示す第1差分画像、および、前記第2画像と前記第4画像との差分を示す第2差分画像を生成する差分画像生成ステップと、
前記第1差分画像と前記第2差分画像との共通成分を第1共通成分として抽出する抽出ステップとを備え、
前記第3の日時および前記第4の日時はいずれも、前記第1の日時よりも後、かつ前記第2の日時よりも後である
情報処理方法。 an acquisition step of acquiring a first image taken at a first date and time, a second image taken at a second date and time, a third image taken at a third date and time, and a fourth image taken at a fourth date and time;
a difference image generating step of generating a first difference image indicating a difference between the first image and the third image, and a second difference image indicating a difference between the second image and the fourth image;
an extraction step of extracting a common component between the first difference image and the second difference image as a first common component,
The information processing method, wherein the third date and time and the fourth date and time are both later than the first date and time and later than the second date and time.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021059608A JP2024076389A (en) | 2021-03-31 | 2021-03-31 | Information processing apparatus, information processing method and program |
PCT/JP2022/009399 WO2022209583A1 (en) | 2021-03-31 | 2022-03-04 | Information processing device, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021059608A JP2024076389A (en) | 2021-03-31 | 2021-03-31 | Information processing apparatus, information processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024076389A true JP2024076389A (en) | 2024-06-06 |
Family
ID=83458552
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021059608A Pending JP2024076389A (en) | 2021-03-31 | 2021-03-31 | Information processing apparatus, information processing method and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024076389A (en) |
WO (1) | WO2022209583A1 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004151980A (en) * | 2002-10-30 | 2004-05-27 | Minolta Co Ltd | Moving object detection method |
JP2010121970A (en) * | 2008-11-17 | 2010-06-03 | Chugoku Electric Power Co Inc:The | Moving body recognition system and moving body recognition method |
JP6918672B2 (en) * | 2017-10-11 | 2021-08-11 | 株式会社日立システムズ | Deterioration diagnosis system |
JP7023690B2 (en) * | 2017-12-06 | 2022-02-22 | 株式会社東芝 | Road maintenance system, road maintenance method and computer program |
-
2021
- 2021-03-31 JP JP2021059608A patent/JP2024076389A/en active Pending
-
2022
- 2022-03-04 WO PCT/JP2022/009399 patent/WO2022209583A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2022209583A1 (en) | 2022-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11216972B2 (en) | Vehicle localization using cameras | |
CN105512646B (en) | A kind of data processing method, device and terminal | |
EP3581890A2 (en) | Method and device for positioning | |
WO2020052530A1 (en) | Image processing method and device and related apparatus | |
US8116530B2 (en) | Map change detection device, map change detection method, and program | |
CN102208012B (en) | Landscape coupling reference data generation system and position measuring system | |
JP6336117B2 (en) | Building height calculation method, apparatus and storage medium | |
JP5747549B2 (en) | Signal detector and program | |
CN109598794B (en) | Construction method of three-dimensional GIS dynamic model | |
EP2372611A2 (en) | Scene matching reference data generation system and position measurement system | |
CN106203398A (en) | A kind of detect the method for lane boundary, device and equipment | |
US20190073542A1 (en) | Vehicle lane detection system | |
CN110969592B (en) | Image fusion method, automatic driving control method, device and equipment | |
WO2021017211A1 (en) | Vehicle positioning method and device employing visual sensing, and vehicle-mounted terminal | |
CN109916415B (en) | Road type determination method, device, equipment and storage medium | |
JP2009298344A (en) | Apparatus and program for determining lights of vehicle | |
JP2021179839A (en) | Classification system of features, classification method and program thereof | |
CN114898321A (en) | Method, device, equipment, medium and system for detecting road travelable area | |
RU2612571C1 (en) | Method and system for recognizing urban facilities | |
JP2007265292A (en) | Road sign database construction device | |
JP2007033931A (en) | Road recognition system for map generation using satellite image or the like | |
CN110660113A (en) | Method and device for establishing characteristic map, acquisition equipment and storage medium | |
JP2024076389A (en) | Information processing apparatus, information processing method and program | |
CN111862206A (en) | Visual positioning method and device, electronic equipment and readable storage medium | |
JP2023014131A (en) | Line detection device, line detection method, program and storage medium |