Nothing Special   »   [go: up one dir, main page]

JP6443144B2 - Information output device, information output program, information output method, and information output system - Google Patents

Information output device, information output program, information output method, and information output system Download PDF

Info

Publication number
JP6443144B2
JP6443144B2 JP2015051428A JP2015051428A JP6443144B2 JP 6443144 B2 JP6443144 B2 JP 6443144B2 JP 2015051428 A JP2015051428 A JP 2015051428A JP 2015051428 A JP2015051428 A JP 2015051428A JP 6443144 B2 JP6443144 B2 JP 6443144B2
Authority
JP
Japan
Prior art keywords
image
license plate
road surface
information
luminance value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015051428A
Other languages
Japanese (ja)
Other versions
JP2016170732A (en
Inventor
井上 智博
智博 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015051428A priority Critical patent/JP6443144B2/en
Publication of JP2016170732A publication Critical patent/JP2016170732A/en
Application granted granted Critical
Publication of JP6443144B2 publication Critical patent/JP6443144B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報出力装置、情報出力プログラム及び情報出力方法、並びに情報出力システムに関する。   The present invention relates to an information output device, an information output program, an information output method, and an information output system.

従来、車両のナンバープレートにカバーが取り付けられているか否かを判定する技術が知られている(例えば、特許文献1等参照)。例えば、特許文献1には、車両を含む画像からナンバープレートの画像領域を抽出し、プレート画像領域のナンバー部分の平均輝度と背景部分の平均輝度との輝度差を算出し、算出された輝度差と標準輝度差(閾値)に基づき、カバーが取り付けられているか否かを判定する技術が開示されている。   Conventionally, a technique for determining whether or not a cover is attached to a license plate of a vehicle is known (see, for example, Patent Document 1). For example, in Patent Document 1, an image area of a license plate is extracted from an image including a vehicle, a luminance difference between an average luminance of a number portion of the plate image region and an average luminance of a background portion is calculated, and the calculated luminance difference And a standard luminance difference (threshold), a technique for determining whether or not a cover is attached is disclosed.

特開2013−196392号公報JP 2013-196392 A

しかしながら、ナンバープレートの画像領域の輝度は、画像を撮像した時間帯や天候条件等によっても変化するため、カバーが装着されているか否かを判定する閾値として適切な値を設定するのが難しい。特に、カバーが無色透明の場合には、カバー装着有無による輝度の変化が少ないため閾値の設定が難しい。   However, since the brightness of the image area of the license plate also changes depending on the time zone when the image is captured, weather conditions, and the like, it is difficult to set an appropriate value as a threshold for determining whether or not the cover is attached. In particular, when the cover is colorless and transparent, it is difficult to set the threshold because there is little change in luminance depending on whether or not the cover is attached.

1つの側面では、本発明は、ナンバープレートにカバーが装着されていることを精度よく判定し、出力することが可能な情報出力装置、情報出力プログラム及び情報出力方法、並びに情報出力システムを提供することを目的とする。   In one aspect, the present invention provides an information output device, an information output program and an information output method, and an information output system that can accurately determine and output that a cover is attached to a license plate. For the purpose.

一つの態様では、情報出力装置は、路面及び車両が撮像された画像から、所定領域の路面の輝度値及び前記車両のナンバープレート領域の輝度値を取得し、前記ナンバープレート領域から前記車両のナンバー情報を取得する取得部と、前記画像の情報として、それぞれの前記輝度値と前記ナンバー情報を前記画像が撮像された日時情報とともに記憶する記憶部と、前記取得部が第1の画像から路面の輝度値とナンバープレート領域の輝度値を取得した場合に、前記第1の画像が撮像された時刻に基づく所定時間帯に路面及び車両が撮像された画像のうち、前記記憶部に記憶されている路面の輝度値が、前記第1の画像の路面の輝度値に基づく所定範囲内の輝度値である第2の画像を複数選択し、複数の前記第2の画像のナンバープレート領域の輝度値と前記第1の画像のナンバープレート領域の輝度値の比較結果に基づいて、前記第1の画像に写し出されたナンバープレートにカバーが装着されているか否かを判定する判定部と、前記判定部によりナンバープレートにカバーが装着されていると判定された場合に、前記取得部が前記第1の画像から取得したナンバー情報と、カバーが装着されていることを示す情報と、を出力する出力部と、を備えている。   In one aspect, the information output device obtains the brightness value of the road surface in a predetermined area and the brightness value of the license plate area of the vehicle from images obtained by capturing the road surface and the vehicle, and the vehicle number from the license plate area. An acquisition unit that acquires information, a storage unit that stores the luminance value and the number information together with date and time information when the image is captured, as the information of the image, and the acquisition unit detects the road surface from the first image. When the brightness value and the brightness value of the license plate area are acquired, the storage unit stores the image of the road surface and the vehicle captured in a predetermined time zone based on the time when the first image was captured. A plurality of second images in which the luminance value of the road surface is a luminance value within a predetermined range based on the luminance value of the road surface of the first image are selected, and a plurality of license plate regions of the second image A determination unit that determines whether or not a cover is attached to the license plate projected on the first image, based on a comparison result of the luminance value and the luminance value of the license plate region of the first image; When the determination unit determines that the cover is attached to the license plate, the acquisition unit outputs number information acquired from the first image and information indicating that the cover is attached. And an output unit.

1つの側面として、ナンバープレートにカバーが装着されていることを精度よく判定し、出力することができる。   As one aspect, it is possible to accurately determine and output that the cover is attached to the license plate.

一実施形態に係る監視システムの構成を概略的に示す図である。It is a figure showing roughly the composition of the surveillance system concerning one embodiment. 図2(a)は、認識装置のハードウェア構成を示す図であり、図2(b)は、サーバのハードウェア構成を示す図である。FIG. 2A is a diagram illustrating the hardware configuration of the recognition apparatus, and FIG. 2B is a diagram illustrating the hardware configuration of the server. 認識装置及びサーバの機能ブロック図である。It is a functional block diagram of a recognition apparatus and a server. 認識結果DBのデータ構造を示す図である。It is a figure which shows the data structure of recognition result DB. 認識装置の処理を示すフローチャートである。It is a flowchart which shows the process of a recognition apparatus. 車両が撮像された静止画像を示す図である。It is a figure which shows the still image by which the vehicle was imaged. 図7(a)は、路面領域を示す図であり、図7(b)は、輝度値を取得する路面領域を示す図である。FIG. 7A is a diagram illustrating a road surface region, and FIG. 7B is a diagram illustrating a road surface region from which a luminance value is acquired. カバー有無判定処理を示すフローチャートである。It is a flowchart which shows a cover presence determination process. 図8のステップS58を説明するための図である。It is a figure for demonstrating step S58 of FIG. 路面領域抽出処理を示すフローチャートである。It is a flowchart which shows a road surface area extraction process. 図10のステップS76を説明するための図である。It is a figure for demonstrating step S76 of FIG.

以下、情報出力システムの一実施形態としての監視システムついて、図1〜図11に基づいて詳細に説明する。   Hereinafter, a monitoring system as an embodiment of the information output system will be described in detail with reference to FIGS.

図1には、一実施形態にかかる監視システム100の構成が概略的に示されている。図1に示すように、監視システム100は、撮像装置としての複数の監視カメラ10と、複数の認識装置20と、情報出力装置としてのサーバ70と、を備える。監視カメラ10と認識装置20は、通信ケーブル等で接続され、認識装置20とサーバ70は、インターネットなどのネットワーク80に接続されている。   FIG. 1 schematically shows a configuration of a monitoring system 100 according to an embodiment. As shown in FIG. 1, the monitoring system 100 includes a plurality of monitoring cameras 10 as imaging devices, a plurality of recognition devices 20, and a server 70 as an information output device. The monitoring camera 10 and the recognition device 20 are connected by a communication cable or the like, and the recognition device 20 and the server 70 are connected to a network 80 such as the Internet.

監視カメラ10は、例えば、道路近傍に設置され、道路及び道路を走行する車両等を所定時間間隔で撮像する。監視カメラ10は、一例として静止画像を撮像し、静止画像のデータ(静止画データ)を認識装置20に送信する。なお、監視カメラ10は、動画を撮像し、動画に含まれるフレームを認識装置20に対して送信してもよい。   For example, the monitoring camera 10 is installed in the vicinity of a road, and images the road and vehicles traveling on the road at predetermined time intervals. As an example, the monitoring camera 10 captures a still image, and transmits still image data (still image data) to the recognition device 20. Note that the monitoring camera 10 may capture a moving image and transmit a frame included in the moving image to the recognition device 20.

認識装置20は、各監視カメラ10に対応して、各監視カメラ10の近傍に設けられており、監視カメラ10において撮像された静止画データを受信し、静止画データから得られる情報(認識結果)や、静止画データをサーバ70に送信する。なお、認識結果には、静止画像中のナンバープレートから認識した一連番号(4桁の番号)等、静止画像中のナンバープレートに対応する部分(プレート部)の輝度値、静止画像中の路面に対応する部分(路面領域)の輝度値、監視カメラ10のアイリス値(F値)等が含まれる。   The recognition device 20 is provided in the vicinity of each monitoring camera 10 corresponding to each monitoring camera 10, receives still image data captured by the monitoring camera 10, and receives information (recognition result) from the still image data. ) Or still image data is transmitted to the server 70. The recognition result includes the brightness value of the part (plate part) corresponding to the license plate in the still image, such as the serial number (four-digit number) recognized from the license plate in the still image, and the road surface in the still image. The brightness value of the corresponding part (road surface area), the iris value (F value) of the monitoring camera 10 and the like are included.

図2(a)には、認識装置20のハードウェア構成が示されている。図2(a)に示すように、認識装置20は、CPU(Central Processing Unit)90、ROM(Read Only Memory)92、RAM(Random Access Memory)94、記憶部(ここではHDD(Hard Disk Drive))96、ネットワークインタフェース97、及び可搬型記憶媒体用ドライブ99等を備えている。これら認識装置20の構成各部は、バス98に接続されている。CPU90は、ROM92あるいはHDD96に格納されているプログラム、或いは可搬型記憶媒体用ドライブ99が可搬型記憶媒体91から読み取ったプログラムを実行することにより、認識装置20を、図3に示す各部として機能させる。   FIG. 2A shows the hardware configuration of the recognition device 20. As shown in FIG. 2A, the recognition device 20 includes a CPU (Central Processing Unit) 90, a ROM (Read Only Memory) 92, a RAM (Random Access Memory) 94, and a storage unit (here, an HDD (Hard Disk Drive)). ) 96, a network interface 97, a portable storage medium drive 99, and the like. Each component of the recognition device 20 is connected to a bus 98. The CPU 90 executes the program stored in the ROM 92 or the HDD 96 or the program read from the portable storage medium 91 by the portable storage medium drive 99, thereby causing the recognition device 20 to function as each unit shown in FIG. .

具体的には、図3に示すように、CPU90がプログラムを実行することにより、認識装置20は、画像取得部32、車両有無判定部34、情報認識部36、送信部38として機能する。   Specifically, as illustrated in FIG. 3, when the CPU 90 executes a program, the recognition device 20 functions as an image acquisition unit 32, a vehicle presence / absence determination unit 34, an information recognition unit 36, and a transmission unit 38.

画像取得部32は、監視カメラ10において撮像される静止画像を所定間隔(例えば、数秒間隔)で取得し、車両有無判定部34に送信する。車両有無判定部34は、画像取得部32から受信した静止画像において車両が撮像されているか否かを判定する。なお、車両有無判定部34は、例えば、車両のテンプレート画像を用いたテンプレートマッチング等を用いて、車両が撮像されているか否かを判定する。ただし、これに限らず、車両が撮像されているか否かを、他の方法で判定することとしてもよい。   The image acquisition unit 32 acquires still images captured by the monitoring camera 10 at a predetermined interval (for example, every several seconds) and transmits the still images to the vehicle presence / absence determination unit 34. The vehicle presence / absence determination unit 34 determines whether or not the vehicle is captured in the still image received from the image acquisition unit 32. The vehicle presence / absence determination unit 34 determines, for example, whether or not the vehicle is imaged using template matching using a template image of the vehicle. However, the present invention is not limited to this, and it may be determined by another method whether or not the vehicle is imaged.

情報認識部36は、静止画像中のナンバープレートから認識した一連番号、静止画像中のナンバープレート領域の輝度値、静止画像中の路面に対応する部分(路面領域)の輝度値を認識するとともに、静止画像に付帯したExif(Exchangeable image file format)情報等から、監視カメラ10のアイリス値を認識する。なお、以下においては、静止画像中のナンバープレート領域を単に「プレート部」と呼ぶものとする。   The information recognition unit 36 recognizes the serial number recognized from the license plate in the still image, the luminance value of the license plate area in the still image, and the luminance value of the portion (road surface area) corresponding to the road surface in the still image, The iris value of the monitoring camera 10 is recognized from Exif (Exchangeable image file format) information attached to the still image. In the following, a license plate area in a still image is simply referred to as a “plate portion”.

送信部38は、情報認識部36が認識した情報と、画像取得部32が取得した静止画像のデータと、をサーバ70に送信する。なお、送信部38は、車両有無判定部34が車両が存在しないと判定した場合には、静止画像のデータのみをサーバ70に対して送信する。   The transmission unit 38 transmits the information recognized by the information recognition unit 36 and the still image data acquired by the image acquisition unit 32 to the server 70. The transmission unit 38 transmits only still image data to the server 70 when the vehicle presence / absence determination unit 34 determines that there is no vehicle.

図1に戻り、サーバ70は、各認識装置20から送信されてきた静止画像のデータ及び静止画像から認識された情報を受信し、静止画像中の車両がナンバープレートにカバーを装着しているかどうかを判定し、判定結果を出力する装置である。サーバ70は、図2(b)に示すようなハードウェア構成を有する。具体的には、サーバ70は、図2(b)に示すように、CPU190、ROM192、RAM194、記憶装置としての記憶部(HDD)196、ネットワークインタフェース197、及び可搬型記憶媒体用ドライブ199等を備えている。これらサーバ70の構成各部は、バス198に接続されている。CPU190は、ROM192あるいはHDD196に格納されているプログラム(情報出力プログラムを含む)、或いは可搬型記憶媒体用ドライブ199が可搬型記憶媒体191から読み取ったプログラム(情報出力プログラムを含む)を実行することにより、サーバ70を、図3に示す各部として機能させる。なお、図3には、サーバ70のHDD196等に格納されている記憶部としての認識結果DB(database)52、画像DB54も図示されている。   Returning to FIG. 1, the server 70 receives the still image data and the information recognized from the still image transmitted from each recognition device 20, and whether or not the vehicle in the still image has a cover on the license plate. Is a device that determines the output and outputs the determination result. The server 70 has a hardware configuration as shown in FIG. Specifically, as shown in FIG. 2B, the server 70 includes a CPU 190, a ROM 192, a RAM 194, a storage unit (HDD) 196 as a storage device, a network interface 197, a portable storage medium drive 199, and the like. I have. Each component of the server 70 is connected to the bus 198. The CPU 190 executes a program (including an information output program) stored in the ROM 192 or the HDD 196, or a program (including an information output program) read from the portable storage medium 191 by the portable storage medium drive 199. The server 70 functions as each unit shown in FIG. FIG. 3 also shows a recognition result DB (database) 52 and an image DB 54 as storage units stored in the HDD 196 of the server 70 or the like.

図3に示すように、CPU190がプログラムを実行することにより、サーバ70は、取得部としての受信部42、判定部としてのカバー有無判定部44、出力部46、路面領域抽出部48、として機能する。   As illustrated in FIG. 3, when the CPU 190 executes the program, the server 70 functions as a reception unit 42 as an acquisition unit, a cover presence / absence determination unit 44 as a determination unit, an output unit 46, and a road surface area extraction unit 48. To do.

受信部42は、認識装置20の送信部38から送信されてきた静止画像のデータや情報を受信し、認識結果DB52に格納する。なお、受信部42は、送信部38から静止画像のデータのみが送信されてきた場合(認識された情報が送信されてこなかった場合)には、静止画像のデータを路面領域抽出部48に送信する。   The reception unit 42 receives still image data and information transmitted from the transmission unit 38 of the recognition apparatus 20 and stores the received still image data and information in the recognition result DB 52. In addition, when only the still image data is transmitted from the transmission unit 38 (when the recognized information is not transmitted), the reception unit 42 transmits the still image data to the road surface region extraction unit 48. To do.

カバー有無判定部44は、認識結果DB52に格納されているデータや情報に基づいて、静止画像内の車両がナンバープレートにカバーを装着しているか否かを判定する。   Based on the data and information stored in the recognition result DB 52, the cover presence / absence determination unit 44 determines whether or not the vehicle in the still image has a cover on the license plate.

出力部46は、ナンバープレートにカバーを装着している車両があった場合に、車両のナンバー情報と、カバーが装着されていることを示す情報を、ネットワーク80に接続されている端末(例えば警察署の端末等)に出力する。   When there is a vehicle with a cover on the license plate, the output unit 46 displays the vehicle number information and information indicating that the cover is attached with a terminal (for example, police) connected to the network 80. Terminal).

路面領域抽出部48は、受信部42から受信した静止画像のデータを用いて、各監視カメラ10で撮像される静止画像の路面領域(車両が走行する部分の領域)を抽出し、認識装置20の情報認識部36に対して送信する。   The road surface area extraction unit 48 uses the still image data received from the reception unit 42 to extract the road surface area (the area where the vehicle travels) of the still image captured by each monitoring camera 10, and recognizes the recognition device 20. To the information recognition unit 36.

ここで、認識結果DB52のデータ構造について、図4に基づいて説明する。認識結果DB52は、「日時」、「地点」、「撮像方向」、「一連番号」、「アイリス値」、「プレート部の輝度値」、「路面領域の輝度値」の各フィールドを有する。「日時」のフィールドには、静止画像が撮像された日時の情報が格納され、「地点」のフィールドには、静止画像が撮像された地点(撮像した監視カメラ10が設置された地点)の情報が格納され、「撮像方向」のフィールドには、撮像した監視カメラ10が向いている方向の情報が格納される。「一連番号」のフィールドには、静止画像から認識されたナンバープレートの一連番号の情報が格納され、「アイリス値」のフィールドには、静止画像を撮影した時点における監視カメラ10のアイリス値(F値)が格納される。また、「プレート部の輝度値」のフィールドには、静止画像のうち、プレート部から得られる輝度値が格納され、「路面領域の輝度値」のフィールドには、静止画像のうち、路面領域から得られる輝度値が格納される。なお、画像DB54は、画像を記憶するデータベースであるが、そのデータ構造等についての説明は省略する。なお、ナンバープレートの情報(プレート情報)としては、「一連番号」のほかに、分類番号や運輸支局等、かな文字等が認識結果DB52に格納されてもよい。   Here, the data structure of the recognition result DB 52 will be described with reference to FIG. The recognition result DB 52 has fields of “date and time”, “point”, “imaging direction”, “serial number”, “iris value”, “plate portion luminance value”, and “road surface region luminance value”. Information on the date and time when the still image was captured is stored in the “date and time” field, and information on the location where the still image is captured (the location where the captured surveillance camera 10 is installed) is stored in the “location” field. Is stored, and information on the direction in which the captured surveillance camera 10 is facing is stored in the “imaging direction” field. The “serial number” field stores information on the serial number of the license plate recognized from the still image, and the “iris value” field stores the iris value (F) of the surveillance camera 10 at the time when the still image was captured. Value) is stored. The field “brightness value of the plate portion” stores the luminance value obtained from the plate portion of the still image, and the field “brightness value of the road surface region” stores the luminance value from the road surface region of the still image. The obtained luminance value is stored. The image DB 54 is a database that stores images, but a description of the data structure and the like is omitted. As the license plate information (plate information), in addition to the “serial number”, a kana character or the like such as a classification number or a transportation branch may be stored in the recognition result DB 52.

(認識装置20の処理)
次に、認識装置20の処理について、図5のフローチャートに沿って、その他図面を適宜参照しつつ、詳細に説明する。なお、図5の処理の前提として、ある監視カメラ10の撮像範囲は固定であり、当該撮像範囲のうち、車両が通過する路面領域は、図7(a)においてハッチングを付して示すように、特定されているものとする。なお、路面領域の抽出方法については後述する。
(Processing of recognition device 20)
Next, the processing of the recognition device 20 will be described in detail along the flowchart of FIG. 5 with appropriate reference to other drawings. As a premise of the processing in FIG. 5, the imaging range of a certain monitoring camera 10 is fixed, and the road surface area through which the vehicle passes in the imaging range is indicated by hatching in FIG. It shall be specified. A method for extracting the road surface area will be described later.

図5の処理では、まず、ステップS10において、画像取得部32が、監視カメラ10で撮像された静止画像のデータを取得する。具体的には、監視カメラ10で撮像された画像をデジタル化してメモリに取り込む。次いで、ステップS12では、車両有無判定部34が、取得した静止画像のデータにおいて、車両が撮像されているか否かを判断する。ここでの判断が肯定された場合には、ステップS14に移行する。なお、ステップS12の判断が否定された場合には、ステップS20に移行する。   In the process of FIG. 5, first, in step S <b> 10, the image acquisition unit 32 acquires still image data captured by the monitoring camera 10. Specifically, the image captured by the monitoring camera 10 is digitized and loaded into the memory. Next, in step S12, the vehicle presence / absence determination unit 34 determines whether or not the vehicle is imaged in the acquired still image data. When judgment here is affirmed, it transfers to step S14. If the determination in step S12 is negative, the process proceeds to step S20.

ステップS14に移行した場合、すなわち、図6に示すように、静止画像において車両が撮像されていた場合には、情報認証部36は、取得した静止画像のデータから、プレート情報の認識処理を実施する。具体的には、情報認証部36は、静止画像から車両部分を抽出し、車両部分から例えば白色の略矩形範囲をプレート部として抽出する。そして、情報認識部36は、プレート部の文字認識を行うことで、ナンバープレート内に記載されている一連番号(4桁の番号)を認識したり、プレート部の輝度値(ここでは、一例として文字以外の背景部分(白色部分)の輝度値であるものとする)を取得する。なお、プレート部の輝度値は、プレート部内の複数点の輝度値の平均値であってもよい。   When the process proceeds to step S14, that is, as shown in FIG. 6, when the vehicle is captured in the still image, the information authentication unit 36 performs plate information recognition processing from the acquired still image data. To do. Specifically, the information authentication part 36 extracts a vehicle part from a still image, and extracts, for example, a white, substantially rectangular area from the vehicle part as a plate part. And the information recognition part 36 recognizes the serial number (four-digit number) described in the number plate by performing the character recognition of the plate part, or the brightness value of the plate part (here, as an example) (It is assumed that the brightness value of the background part (white part) other than the characters is obtained). Note that the luminance value of the plate portion may be an average value of luminance values at a plurality of points in the plate portion.

次いで、ステップS16では、情報認証部36は、抽出したプレート部の静止画像内における位置と、図7(a)に示す路面領域の位置とから、図7(b)においてハッチングを付して示すような、プレート部よりも前方の路面領域の範囲を特定し、特定した範囲の輝度値を算出する。なお、情報認証部36は、特定した範囲の輝度値として、特定した範囲内の複数点の輝度値の平均値を求めてもよいし、特定した範囲内の一点の輝度値を求めてもよい。   Next, in step S16, the information authentication unit 36 is hatched in FIG. 7B from the position of the extracted plate portion in the still image and the position of the road surface area shown in FIG. 7A. The range of the road surface area ahead of the plate portion is specified, and the luminance value of the specified range is calculated. Note that the information authentication unit 36 may obtain an average value of luminance values at a plurality of points in the specified range, or obtain a luminance value at one point in the specified range as the luminance value of the specified range. .

次いで、ステップS18では、情報認証部36は、認識結果をテキスト化する。認識結果には、一連番号、ナンバープレート部分の輝度値、路面領域の輝度値のほか、静止画像のデータに付帯しているExif情報から取得可能な、監視カメラ10の設置地点や撮像方向、撮像日時、アイリス値も含まれるものとする。その後は、ステップS20に移行する。   Next, in step S18, the information authentication unit 36 converts the recognition result into text. The recognition result includes a serial number, a brightness value of the license plate portion, a brightness value of the road surface area, an installation location and an imaging direction of the monitoring camera 10 that can be acquired from Exif information attached to the data of the still image, and imaging The date / time and iris value are also included. Thereafter, the process proceeds to step S20.

ステップS18の後、又はステップS12の判断が否定された後は、ステップS20に移行し、送信部38は、画像取得部32が取得した静止画像のデータを圧縮する。   After step S18 or after the determination in step S12 is denied, the process proceeds to step S20, and the transmission unit 38 compresses the still image data acquired by the image acquisition unit 32.

次いで、ステップS22では、送信部38が送信データを作成し、サーバ70に対して送信する。ここで、ステップS12の判断が肯定された場合であれば、送信データには、車両が撮像されている静止画像の圧縮データ(S20)と、テキスト化された認識結果(S18)とが含まれる。一方、ステップS12の判断が否定された場合には、送信データは、車両が撮像されていない静止画像の圧縮データ(S20)となる。   Next, in step S <b> 22, the transmission unit 38 creates transmission data and transmits it to the server 70. Here, if the determination in step S12 is affirmative, the transmission data includes compressed data (S20) of a still image in which the vehicle is imaged and a recognition result (S18) that is converted into text. . On the other hand, if the determination in step S12 is negative, the transmission data is compressed still image data (S20) in which the vehicle is not captured.

なお、ステップS12の判断が否定された場合、毎回ステップS20、S22を行わないこととしてもよい。例えば、所定時間(例えば5分間)に1回だけ、ステップS12の判断が否定された場合に、ステップS20、S22を行うこととしてもよい。   If the determination in step S12 is negative, steps S20 and S22 may not be performed every time. For example, steps S20 and S22 may be performed when the determination in step S12 is denied only once in a predetermined time (for example, 5 minutes).

上述したようにステップS22の処理が終了すると、図5の全処理を終了する。なお、図5の処理は、所定の時間間隔で(例えば、数秒に1回程度の間隔で)繰り返し実行される。   As described above, when the process of step S22 is completed, the entire process of FIG. Note that the processing of FIG. 5 is repeatedly executed at predetermined time intervals (for example, at intervals of about once every several seconds).

(サーバ70の処理)
次に、サーバ70の処理について説明する。サーバ70は、図8に示すカバー有無判定処理と、図10に示す路面領域抽出処理を実行する。
(Processing of server 70)
Next, processing of the server 70 will be described. The server 70 executes a cover presence / absence determination process shown in FIG. 8 and a road surface area extraction process shown in FIG.

(カバー有無判定処理(図8))
以下、図8に基づいて、カバー有無判定処理について説明する。図8の処理では、まず、ステップS50において、受信部42が、認識装置20から認識結果を受信するまで待機する。この場合、認識装置20の送信部38から認識結果を受信した場合(すなわち、図5のステップS12の判断が肯定された後に、ステップS22の処理が実行された場合)に、受信部42はステップS52に移行する。
(Cover presence / absence determination process (FIG. 8))
Hereinafter, the cover presence / absence determination process will be described with reference to FIG. In the process of FIG. 8, first, in step S <b> 50, the reception unit 42 stands by until a recognition result is received from the recognition device 20. In this case, when the recognition result is received from the transmission unit 38 of the recognition device 20 (that is, when the process of step S22 is executed after the determination of step S12 in FIG. 5 is affirmed), the reception unit 42 performs the step The process proceeds to S52.

ステップS52に移行すると、受信部42は、認識結果を認識結果DB52に格納するとともに、静止画像のデータを画像DB54に格納する。なお、今回認識結果DB52に格納した画像が、処理・判断対象の画像である第1の画像に相当する。なお、認識結果DB52には、各認識装置20から過去に受信した認識結果が格納されている。   In step S52, the receiving unit 42 stores the recognition result in the recognition result DB 52 and stores still image data in the image DB 54. Note that the image stored in the recognition result DB 52 this time corresponds to a first image that is an image to be processed and determined. The recognition result DB 52 stores recognition results received in the past from each recognition device 20.

次いで、ステップS54では、カバー有無判定部44が、今回受信した認識結果に基づいて、検索条件を作成する。この場合、カバー有無判定部44は、検索条件として、例えば、日時、撮像方向、路面領域の輝度値、アイリス値の範囲を設定する。例えば、日時の範囲は、今回受信した静止画像の撮像日から1週間前まで、及び今回の静止画像の撮像時刻±1時間などと設定することができる。なお、日時の範囲としては、今回の静止画像の撮像環境と類似する環境である可能性が高い日時の範囲が設定されているといえる。また、例えば、撮像方向の範囲は、今回の静止画像の撮像方向と同一の方向などと設定することができる。また、例えば、路面領域の輝度値の範囲は、今回受信した静止画像の路面領域の輝度値をIとして、I−20〜I+20などと設定することができる。また、アイリス値の範囲は、今回受信した静止画像を撮像した際のアイリス値をFとして、F−0.2〜F+0.2などと設定することができる。   Next, in step S54, the cover presence / absence determination unit 44 creates a search condition based on the recognition result received this time. In this case, the cover presence / absence determination unit 44 sets, for example, a date and time, an imaging direction, a luminance value of a road surface area, and an iris value range as search conditions. For example, the date and time range can be set to one week before the still image capturing date received this time, and the current still image capturing time ± 1 hour. It can be said that the date / time range is set to a date / time range that is likely to be an environment similar to the current still image capturing environment. Further, for example, the range of the imaging direction can be set to the same direction as the imaging direction of the current still image. Further, for example, the range of the brightness value of the road surface area can be set to I-20 to I + 20 or the like, where I is the brightness value of the road surface area of the still image received this time. The range of the iris value can be set to F−0.2 to F + 0.2 or the like, where F is the iris value when the still image received this time is captured.

次いで、ステップS56では、カバー有無判定部44が、作成した検索条件を満たす認識結果を、認識結果DB52から検索する。なお、本検索によりヒットした画像の認識結果が、比較対象の画像(第2の画像)の認識結果に相当する。次いで、ステップS58では、カバー有無判定部44が、検索された(ヒットした)認識結果のプレート部の輝度値と、今回の認識結果に含まれるプレート部の輝度値とを比較する。次いで、ステップS60では、カバー有無判定部44が、今回の認識結果が外れ値か否かを判断する。ここで、外れ値か否かの判断方法としては、一例として、以下の(1)や(2)のような方法を採用することができる。   Next, in step S56, the cover presence / absence determination unit 44 searches the recognition result DB 52 for a recognition result that satisfies the created search condition. Note that the recognition result of the image hit by the main search corresponds to the recognition result of the comparison target image (second image). Next, in step S58, the cover presence / absence determination unit 44 compares the brightness value of the searched plate part of the recognition result (hit) with the brightness value of the plate part included in the current recognition result. Next, in step S60, the cover presence / absence determination unit 44 determines whether or not the current recognition result is an outlier. Here, as a method for determining whether or not the value is an outlier, the following methods (1) and (2) can be adopted as an example.

(1) 検索された(ヒットした)認識結果に含まれるプレート部の輝度値の平均を算出し、今回のプレート部の輝度値が当該平均値を10%以上下回った場合に、外れ値であると判断する。  (1) The average of the brightness values of the plate part included in the searched (hit) recognition result is calculated, and when the brightness value of the current plate part falls below the average value by 10% or more, it is an outlier. Judge.

(2) 検索された(ヒットした)認識結果に含まれるプレート部の輝度値の標準偏差(σ)を算出し、今回のプレート部の輝度値が3σ内に含まれない場合に、外れ値であると判断する。  (2) Calculate the standard deviation (σ) of the brightness value of the plate part included in the retrieved (hit) recognition result, and if the brightness value of the current plate part is not included in 3σ, Judge that there is.

なお、図9には、ステップS60の判断(上記(2)の判断)が肯定される場合の例が模式的に示されている。図9のように、今回のプレート部の輝度値(黒丸)が、他の輝度値(白丸)が存在する範囲から外れている場合に、ステップS60では今回の認識結果が外れ値であると判断されるようになっている。   FIG. 9 schematically shows an example in which the determination in step S60 (determination (2) above) is affirmed. As shown in FIG. 9, when the brightness value (black circle) of the current plate portion is out of the range where other brightness values (white circles) exist, it is determined in step S60 that the current recognition result is an outlier. It has come to be.

なお、上記(1)や(2)の判断方法は、検索された(ヒットした)認識結果が複数である場合を前提としたものであるが、ヒットした認識結果が1つの場合には、例えば、当該認識結果に含まれるプレート部の輝度値との差分が所定値以上になった場合に外れ値であると判断してもよい。あるいは、ヒットした検索結果が1つの場合には、判定不能であると判断し、その旨を出力してもよい。   The determination methods (1) and (2) above are based on the assumption that there are a plurality of searched (hit) recognition results. However, when there is one hit recognition result, for example, When the difference from the brightness value of the plate portion included in the recognition result is equal to or greater than a predetermined value, it may be determined that the value is an outlier. Alternatively, when there is one hit search result, it may be determined that the determination is impossible and the fact may be output.

ステップS60の判断が否定された場合、すなわち、外れ値でなかった場合には、ナンバープレートにカバーが装着されていないので、特別な処理を行うことなく、図8の全処理を終了する。   If the determination in step S60 is negative, that is, if the value is not an outlier, the cover is not attached to the license plate, and the entire process of FIG. 8 is terminated without performing any special process.

一方、ステップS60の判断が肯定された場合には、ステップS62に移行し、出力部46が、認識結果に含まれる一連番号と、カバーを装着している可能性が高いことを示す情報とを外部の機器(たとえば、警察が利用する端末など)に出力する。この場合、外部の機器に対して静止画像のデータも送信するようにしてもよい。   On the other hand, if the determination in step S60 is affirmed, the process proceeds to step S62, and the output unit 46 obtains a serial number included in the recognition result and information indicating that there is a high possibility that the cover is attached. Output to an external device (for example, a terminal used by the police). In this case, still image data may also be transmitted to an external device.

次いで、ステップS64では、出力部46が、今回の認識結果(ステップS52で認識結果DB52に格納した認識結果)を認識結果DB52から除外する。すなわち、以降の図8の処理において、今回の認識結果が認識されないようにする。これにより、カバー装着有無の判定を精度よく行うことが可能となる。なお、ステップS64の処理が行われた後は、図8の全処理を終了する。   Next, in step S64, the output unit 46 excludes the current recognition result (the recognition result stored in the recognition result DB 52 in step S52) from the recognition result DB 52. That is, in the subsequent process of FIG. 8, the current recognition result is not recognized. This makes it possible to accurately determine whether or not the cover is attached. In addition, after the process of step S64 is performed, the whole process of FIG. 8 is complete | finished.

(路面領域抽出処理(図10))
次に、図10に基づいて、サーバ70の路面領域抽出部48による路面領域抽出処理について、詳細に説明する。
(Road surface area extraction process (FIG. 10))
Next, the road surface area extraction process by the road surface area extraction unit 48 of the server 70 will be described in detail with reference to FIG.

図10の処理では、まず、ステップS70において、路面領域抽出部48が、所定のタイミングが到来するまで待機する。本実施形態において、所定のタイミングとは、例えば、1ヶ月ごとのタイミングであるものとする。   In the process of FIG. 10, first, in step S <b> 70, the road surface area extraction unit 48 waits until a predetermined timing comes. In the present embodiment, the predetermined timing is assumed to be, for example, every month.

所定のタイミングが到来すると、ステップS72に移行し、路面領域抽出部48は、ネットワーク80上に複数存在している認識装置20のうちの1つを特定する。   When the predetermined timing arrives, the process proceeds to step S72, and the road surface area extraction unit 48 specifies one of the recognition devices 20 existing on the network 80.

次いで、ステップS74では、路面領域抽出部48が、特定された認識装置20から受信した静止画像のデータを取得する。なお、路面領域抽出部48が認識装置20から受信した静止画像のデータには、前述のように車両が写っていない(例えば、図11(a)、図11(b)参照)。   Next, in step S74, the road surface area extraction unit 48 acquires still image data received from the identified recognition device 20. In addition, the vehicle is not reflected in the still image data received by the road surface area extraction unit 48 from the recognition device 20 as described above (see, for example, FIGS. 11A and 11B).

次いで、ステップS76では、路面領域抽出部48が、取得した静止画像のデータから、変化のない領域(路面領域)を抽出する。この処理により、歩道など、変化がある部分を除いた範囲を抽出することができる。なお、ステップS74において取得した静止画像は、走行する車両が写っていない画像であるので、本ステップS74により、変化のない部分として、車両が走行する範囲(路面領域)が抽出されることになる。   Next, in step S76, the road surface region extraction unit 48 extracts a region (road surface region) that does not change from the acquired still image data. By this processing, it is possible to extract a range excluding a portion with a change such as a sidewalk. In addition, since the still image acquired in step S74 is an image in which the traveling vehicle is not shown, a range (road surface area) in which the vehicle travels is extracted as a portion having no change in step S74. .

次いで、ステップS78では、路面領域抽出部48が、ステップS72において特定された認識装置20に対して、路面領域の情報を送信する。この場合、一例として、図7(a)に示すような路面領域の範囲が特定された画像データが送信される。なお、路面領域抽出部48は、路面領域の範囲を座標値で特定した情報を認識装置20(情報認識部36)に送信してもよい。   Next, in step S78, the road surface area extraction unit 48 transmits road surface area information to the recognition device 20 specified in step S72. In this case, as an example, image data in which the range of the road surface area as shown in FIG. 7A is specified is transmitted. The road surface area extraction unit 48 may transmit information specifying the range of the road surface area with coordinate values to the recognition device 20 (information recognition unit 36).

次いで、ステップS80では、路面領域抽出部48が、全ての認識装置がステップS72において特定されたか否かを判断する。このステップS80の判断が否定された場合には、ステップS72に戻り、路面領域抽出部48は、次の認識装置を特定し、該認識装置が撮像する静止画像における路面領域の特定、路面領域の情報の送信等の処理を実行する。   Next, in step S80, the road surface area extraction unit 48 determines whether all the recognition devices have been specified in step S72. If the determination in step S80 is negative, the process returns to step S72, and the road surface area extraction unit 48 specifies the next recognition device, specifies the road surface region in the still image captured by the recognition device, and determines the road surface region. Processing such as transmission of information is executed.

以上のように、図10の処理を実行することで、所定タイミングごと(例えば1ヵ月ごと)に、路面領域の情報を各認識装置20に対して送信することができる。これにより、工事等により路面状況が変化した場合にも、図8のカバー有無判定処理を精度良く行うことができる。   As described above, by executing the processing of FIG. 10, the road surface area information can be transmitted to each recognition device 20 at a predetermined timing (for example, every month). Thus, even when the road surface condition changes due to construction or the like, the cover presence / absence determination process of FIG. 8 can be performed with high accuracy.

以上、詳細に説明したように、本実施形態によると、サーバ70においては、受信部42が、路面及び車両が撮像された画像から取得される、車両前方の路面領域の輝度値及びプレート部の輝度値と、プレート部から取得される車両のナンバー情報を取得する。また、認識結果DB52には、認識結果として、各輝度値とナンバー情報と画像が撮像された日時情報が記憶される。そして、カバー有無判定部44は、受信部42がある画像(第1の画像)から路面の輝度値とプレート部の輝度値を取得した場合に、ある画像が撮像された時刻に基づく所定時間帯(環境が類似する日時範囲)に路面及び車両が撮像された画像のうち、認識結果DB52に記憶されている路面の輝度値が、ある画像の路面の輝度値Iに基づく所定範囲内の輝度値(I−20〜I+20)である画像(第2の画像)を複数選択し、選択した複数の画像のプレート部の輝度値とある画像のプレート部の輝度値の比較結果に基づいて、ある画像に写し出されたナンバープレートにカバーが装着されているか否かを判定する。更に、カバー有無判定部44によりナンバープレートにカバーが装着されていると判定された場合に、出力部46は、ナンバー情報と、カバーが装着されていることを示す情報と、を出力する。これにより、撮像された環境や条件が類似する画像を用いてナンバープレートの輝度値を比較することで、ナンバープレートにカバーが装着されているか否かを、日照条件の変化等による影響を受けずに精度良く判定し、出力することができる。また、カバー装着有無を判定するための閾値を設定する必要がなく、閾値設定のための労力やコストの低減を図ることができる。   As described above in detail, according to the present embodiment, in the server 70, the reception unit 42 acquires the brightness value of the road surface area in front of the vehicle and the plate portion acquired from the image of the road surface and the vehicle. The brightness value and the vehicle number information acquired from the plate part are acquired. The recognition result DB 52 stores each luminance value, number information, and date / time information when the image is captured as a recognition result. Then, the cover presence / absence determination unit 44, when the luminance value of the road surface and the luminance value of the plate unit are acquired from an image (first image) with the receiving unit 42, is a predetermined time period based on the time when an image is captured. Among the images in which the road surface and the vehicle are captured in the (date and time range with similar environment), the luminance value of the road surface stored in the recognition result DB 52 is a luminance value within a predetermined range based on the luminance value I of the road surface of a certain image. A plurality of images (second images) that are (I-20 to I + 20) are selected, and an image based on the comparison result of the brightness values of the plate portions of the selected plurality of images and the brightness values of the plate portions of a certain image It is determined whether or not a cover is attached to the license plate projected on the screen. Further, when the cover presence / absence determination unit 44 determines that the cover is attached to the license plate, the output unit 46 outputs number information and information indicating that the cover is attached. As a result, by comparing the brightness values of the license plates using images with similar images and conditions, whether the cover is attached to the license plate is not affected by changes in sunshine conditions, etc. Can be accurately determined and output. Further, it is not necessary to set a threshold value for determining whether or not the cover is attached, and it is possible to reduce labor and cost for setting the threshold value.

また、本実施形態では、カバー有無判定部44によりナンバープレートにカバーが装着されていると判定された場合には、当該判定の元になった認識結果を認識結果DB52に記憶しないこととしている。これにより、ナンバープレートにカバーが装着されていない画像の情報(認識結果)のみを認識結果DB42に格納することができるので、カバー有無判定部44の判定精度を向上することができる。   In the present embodiment, when the cover presence / absence determination unit 44 determines that the cover is attached to the license plate, the recognition result that is the basis of the determination is not stored in the recognition result DB 52. Thereby, only the information (recognition result) of the image in which the cover is not attached to the license plate can be stored in the recognition result DB 42, so that the determination accuracy of the cover presence / absence determination unit 44 can be improved.

また、本実施形態では、カバー有無判定部44は、ステップS58、S60のように、複数のプレート部の輝度値と、認識結果に含まれるプレート部の輝度値とを比較するので、1つのプレート部の輝度値と比較する場合と比べ、精度良くカバー装着有無を判定することができる。   In the present embodiment, the cover presence / absence determination unit 44 compares the luminance values of the plurality of plate units with the luminance values of the plate units included in the recognition result, as in steps S58 and S60. Compared with the case of comparing with the luminance value of the part, it is possible to determine the presence / absence of the cover with high accuracy.

また、本実施形態では、撮像方向やアイリス値が類似する認識結果を検索するので、より精度良くカバー装着有無を判定することができる。   Further, in the present embodiment, since a recognition result having a similar imaging direction and iris value is searched, it is possible to determine whether or not the cover is attached more accurately.

なお、上記実施形態では、監視カメラ10の撮像条件として、アイリス値を取得し、カバー有無判定処理に用いる場合について説明したが、これに限られるものではない。監視カメラ10の撮像条件として、その他の値を取得し、カバー有無判定処理に用いることとしてもよい。   In the above embodiment, the case has been described in which the iris value is acquired and used for the cover presence / absence determination process as the imaging condition of the monitoring camera 10, but is not limited thereto. Other values may be acquired as the imaging conditions of the monitoring camera 10 and used for the cover presence / absence determination process.

なお、上記実施形態では、図8のステップS58において、カバー有無判定部44は、検索された認識結果に含まれるプレート部の輝度値と、今回の認識結果に含まれるプレート部の輝度値とを比較する場合について説明したが、これに限られるものではない。例えば、認識装置20においてプレート部のコントラスト値を算出する場合には、カバー有無判定部44は、検索された認識結果に含まれるプレート部のコントラスト値と、今回の認識結果に含まれるプレート部のコントラスト値を比較することとしてもよい。また、例えば、認識装置20においてナンバープレートの文字認識率(マッチング率)を算出する場合には、カバー有無判定部44は、検索された認識結果に含まれるマッチング率と、今回の認識結果に含まれるマッチング率を比較することとしてもよい。これらの場合、ステップS58において輝度値に代えてコントラスト値やマッチング率を用いる以外は、上記実施形態と同様の処理が行われる。   In the above embodiment, in step S58 of FIG. 8, the cover presence / absence determination unit 44 calculates the brightness value of the plate part included in the searched recognition result and the brightness value of the plate part included in the current recognition result. Although the case of comparison has been described, the present invention is not limited to this. For example, when calculating the contrast value of the plate unit in the recognition device 20, the cover presence / absence determination unit 44 determines the contrast value of the plate unit included in the searched recognition result and the plate unit included in the current recognition result. Contrast values may be compared. For example, when the recognition device 20 calculates the character recognition rate (matching rate) of the license plate, the cover presence / absence determination unit 44 includes the matching rate included in the searched recognition result and the current recognition result. The matching rates may be compared. In these cases, the same process as in the above embodiment is performed except that the contrast value and the matching rate are used instead of the luminance value in step S58.

なお、上記実施形態では、図5において、所定時間間隔で静止画像を撮像し、車両が撮像されたことを検出した場合に、検出したタイミングで撮像された画像に対してステップS14〜S18の処理を実行する場合について説明したが、これに限られるものではない。例えば、車両が通過することを検出した場合に、静止画像を撮像し、その画像に対してステップS14〜S18の処理を実行することとしてもよい。   In the above embodiment, in FIG. 5, when still images are captured at predetermined time intervals and it is detected that the vehicle is captured, the processing in steps S14 to S18 is performed on the image captured at the detected timing. However, the present invention is not limited to this. For example, when it is detected that the vehicle passes, a still image may be captured, and the processes of steps S14 to S18 may be performed on the image.

なお、上記実施形態では、監視システム100にサーバ70が含まれる場合について説明したが、これに限らず、サーバ70を省略してもよい。この場合、図3のサーバ70の機能を各認識装置20が備えていてもよい。   In the above embodiment, the case where the monitoring system 100 includes the server 70 has been described. However, the present invention is not limited thereto, and the server 70 may be omitted. In this case, each recognition device 20 may have the function of the server 70 of FIG.

なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体(ただし、搬送波は除く)に記録しておくことができる。   The above processing functions can be realized by a computer. In that case, a program describing the processing contents of the functions that the processing apparatus should have is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium (except for a carrier wave).

プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)などの可搬型記録媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   When the program is distributed, for example, it is sold in the form of a portable recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory) on which the program is recorded. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.

上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。   The above-described embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.

なお、以上実施形態の説明に関して、更に以下の付記を開示する。
(付記1) 路面及び車両が撮像された画像から、所定領域の路面の輝度値及び前記車両のナンバープレート領域の輝度値を取得し、前記ナンバープレート領域から前記車両のナンバー情報を取得する取得部と、
前記画像の情報として、それぞれの前記輝度値と前記ナンバー情報を前記画像が撮像された日時情報とともに記憶する記憶部と、
前記取得部が第1の画像から路面の輝度値とナンバープレート領域の輝度値を取得した場合に、前記第1の画像が撮像された時刻に基づく所定時間帯に路面及び車両が撮像された画像のうち、前記記憶部に記憶されている路面の輝度値が、前記第1の画像の路面の輝度値に基づく所定範囲内の輝度値である第2の画像を複数選択し、複数の前記第2の画像のナンバープレート領域の輝度値と前記第1の画像のナンバープレート領域の輝度値の比較結果に基づいて、前記第1の画像に写し出されたナンバープレートにカバーが装着されているか否かを判定する判定部と、
前記判定部によりナンバープレートにカバーが装着されていると判定された場合に、前記取得部が前記第1の画像から取得したナンバー情報と、カバーが装着されていることを示す情報と、を出力する出力部と、
を備える情報出力装置。
(付記2) 前記判定部によりナンバープレートにカバーが装着されていると判定された場合には、前記記憶部は、前記第1の画像の情報を記憶しないことを特徴とする付記1に記載の情報出力装置。
(付記3) 前記判定部は、前記第2の画像を、撮像日時が前記第1の画像の撮像日時から所定期間内である画像の中から複数選択する、ことを特徴とする付記1又は2に記載の情報出力装置。
(付記4) 前記記憶部は、前記画像の情報として、画像の撮像方向を記憶し、
前記判定部は、前記第2の画像を、撮像方向が前記第1の画像の撮像方向に基づく所定範囲内にある画像の中から複数選択する、ことを特徴とする付記1〜3のいずれかに記載の情報出力装置。
(付記5) 前記記憶部は、前記画像の情報として、画像を撮像した撮像装置の設定値を記憶し、
前記判定部は、前記第2の画像を、撮像した撮像装置の設定値が前記第1の画像を撮像した撮像装置の設定値に基づく所定範囲内にある画像の中から複数選択する、ことを特徴とする付記1〜4のいずれかに記載の情報出力装置。
(付記6) 路面及び車両が撮像された画像から、所定領域の路面の輝度値及び前記車両のナンバープレート領域の輝度値を取得し、前記ナンバープレート領域から前記車両のナンバー情報を取得し、
前記画像の情報として、それぞれの前記輝度値と前記ナンバー情報を前記画像が撮像された日時情報とともに記憶し、
前記取得する処理において第1の画像から路面の輝度値とナンバープレート領域の輝度値を取得した場合に、前記第1の画像が撮像された時刻に基づく所定時間帯に路面及び車両が撮像された画像のうち、前記記憶する処理で記憶された路面の輝度値が、前記第1の画像の路面の輝度値に基づく所定範囲内の輝度値である第2の画像を複数選択し、複数の前記第2の画像のナンバープレート領域の輝度値と前記第1の画像のナンバープレート領域の輝度値の比較結果に基づいて、前記第1の画像に写し出されたナンバープレートにカバーが装着されているか否かを判定し、
前記判定する処理でナンバープレートにカバーが装着されていると判定された場合に、前記取得する処理で前記第1の画像から取得したナンバー情報と、カバーが装着されていることを示す情報と、を出力する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
(付記7) 前記判定する処理で、ナンバープレートにカバーが装着されていると判定された場合には、前記記憶する処理では、前記第1の画像の情報を記憶しないことを特徴とする付記6に記載の情報出力プログラム。
(付記8) 前記判定する処理では、前記第2の画像を、撮像日時が前記第1の画像の撮像日時から所定期間内である画像の中から複数選択する、ことを特徴とする付記6又は7に記載の情報出力プログラム。
(付記9) 前記記憶する処理では、前記画像の情報として、画像の撮像方向を記憶し、
前記判定する処理では、前記第2の画像を、撮像方向が前記第1の画像の撮像方向に基づく所定範囲内にある画像の中から複数選択する、ことを特徴とする付記6〜8のいずれかに記載の情報出力プログラム。
(付記10) 前記記憶する処理では、前記画像の情報として、画像を撮像した撮像装置の設定値を記憶し、
前記判定する処理では、前記第2の画像を、撮像した撮像装置の設定値が前記第1の画像を撮像した撮像装置の設定値に基づく所定範囲内にある画像の中から複数選択する、ことを特徴とする付記6〜9のいずれかに記載の情報出力プログラム。
(付記11) 路面及び車両が撮像された画像から、所定領域の路面の輝度値及び前記車両のナンバープレート領域の輝度値を取得し、前記ナンバープレート領域から前記車両のナンバー情報を取得し、
前記画像の情報として、それぞれの前記輝度値と前記ナンバー情報を前記画像が撮像された日時情報とともに記憶し、
前記取得する処理において第1の画像から路面の輝度値とナンバープレート領域の輝度値を取得した場合に、前記第1の画像が撮像された時刻に基づく所定時間帯に路面及び車両が撮像された画像のうち、前記記憶する処理で記憶された路面の輝度値が、前記第1の画像の路面の輝度値に基づく所定範囲内の輝度値である第2の画像を複数選択し、複数の前記第2の画像のナンバープレート領域の輝度値と前記第1の画像のナンバープレート領域の輝度値の比較結果に基づいて、前記第1の画像に写し出されたナンバープレートにカバーが装着されているか否かを判定し、
前記判定する処理でナンバープレートにカバーが装着されていると判定された場合に、前記取得する処理で前記第1の画像から取得したナンバー情報と、カバーが装着されていることを示す情報と、を出力する、
処理をコンピュータが実行することを特徴とする情報出力方法。
(付記12) 前記判定する処理で、ナンバープレートにカバーが装着されていると判定された場合には、前記記憶する処理では、前記第1の画像の情報を記憶しないことを特徴とする付記11に記載の情報出力方法。
(付記13) 前記判定する処理では、前記第2の画像を、撮像日時が前記第1の画像の撮像日時から所定期間内である画像の中から複数選択する、ことを特徴とする付記11又は12に記載の情報出力方法。
(付記14) 前記記憶する処理では、前記画像の情報として、画像の撮像方向を記憶し、
前記判定する処理では、前記第2の画像を、撮像方向が前記第1の画像の撮像方向に基づく所定範囲内にある画像の中から複数選択する、ことを特徴とする付記11〜13のいずれかに記載の情報出力方法。
(付記15) 前記記憶する処理では、前記画像の情報として、画像を撮像した撮像装置の設定値を記憶し、
前記判定する処理では、前記第2の画像を、撮像した撮像装置の設定値が前記第1の画像を撮像した撮像装置の設定値に基づく所定範囲内にある画像の中から複数選択する、ことを特徴とする付記11〜14のいずれかに記載の情報出力方法。
(付記16) 路面及び車両が撮像された画像から、所定領域の路面の輝度値及び前記車両のナンバープレート領域の輝度値を取得するとともに、前記ナンバープレート領域から前記車両のナンバー情報を取得する認識装置と、
前記認識装置から前記所定領域の路面の輝度値、前記車両のナンバープレート領域の輝度値、及び前記車両のナンバー情報を取得する、付記1〜5のいずれかに記載の情報出力装置と、
を備える情報出力システム。
(付記17) 前記画像を撮像する撮像装置を更に備える付記16に記載の情報出力システム。
In addition, regarding the description of the embodiment, the following additional notes are disclosed.
(Additional remark 1) The acquisition part which acquires the luminance value of the road surface of a predetermined area | region and the luminance value of the license plate area | region of the said vehicle from the image by which the road surface and the vehicle were imaged, and acquires the number information of the said vehicle from the said license plate area | region When,
As the information of the image, a storage unit that stores the luminance value and the number information together with date and time information when the image is captured,
When the acquisition unit acquires the brightness value of the road surface and the brightness value of the license plate area from the first image, the image of the road surface and the vehicle captured in a predetermined time zone based on the time when the first image was captured A plurality of second images in which the luminance value of the road surface stored in the storage unit is a luminance value within a predetermined range based on the luminance value of the road surface of the first image, and a plurality of the second images are selected. Whether or not a cover is attached to the license plate projected on the first image based on the comparison result of the luminance value of the license plate region of the second image and the luminance value of the license plate region of the first image A determination unit for determining
When the determination unit determines that a cover is attached to the license plate, the acquisition unit outputs number information acquired from the first image and information indicating that the cover is attached. An output unit to
An information output device comprising:
(Supplementary note 2) The supplementary note 1, wherein the storage unit does not store the information of the first image when the determination unit determines that a cover is attached to the license plate. Information output device.
(Supplementary Note 3) The supplementary note 1 or 2, wherein the determination unit selects a plurality of the second images from images whose imaging date / time is within a predetermined period from the imaging date / time of the first image. The information output device described in 1.
(Additional remark 4) The said memory | storage part memorize | stores the imaging direction of an image as information of the said image,
Any one of appendices 1 to 3, wherein the determination unit selects a plurality of the second images from images whose imaging direction is within a predetermined range based on the imaging direction of the first image. The information output device described in 1.
(Additional remark 5) The said memory | storage part memorize | stores the setting value of the imaging device which imaged the image as information of the said image,
The determination unit selects a plurality of the second images from images in which a setting value of the imaging device that captured the first image is within a predetermined range based on a setting value of the imaging device that captured the first image. 5. The information output device according to any one of supplementary notes 1 to 4,
(Additional remark 6) From the image where the road surface and the vehicle were imaged, the luminance value of the road surface of the predetermined area and the luminance value of the license plate area of the vehicle are acquired, the number information of the vehicle is acquired from the license plate area,
As the information of the image, each of the luminance value and the number information are stored together with date and time information when the image is captured,
When the road surface luminance value and the license plate region luminance value are acquired from the first image in the acquisition process, the road surface and the vehicle are imaged in a predetermined time zone based on the time when the first image was imaged. Among the images, a plurality of second images in which the brightness value of the road surface stored in the storing process is a brightness value within a predetermined range based on the brightness value of the road surface of the first image are selected, Whether or not a cover is attached to the license plate projected on the first image based on the comparison result of the luminance value of the license plate region of the second image and the luminance value of the license plate region of the first image Determine whether
When it is determined in the determination process that a cover is attached to the license plate, the number information acquired from the first image in the acquisition process, information indicating that the cover is attached, Output,
An information output program for causing a computer to execute processing.
(Supplementary Note 7) If the determination process determines that a cover is attached to the license plate, the storage process does not store the information on the first image. Information output program described in 1.
(Additional remark 8) In the said determination process, the said 2nd image selects two or more from the image whose imaging date is within the predetermined period from the imaging date of the said 1st image, or 6 characterized by the above-mentioned 7. The information output program according to 7.
(Additional remark 9) In the said process to memorize | store, the imaging direction of an image is memorize | stored as information of the said image,
Any one of appendices 6 to 8, wherein, in the determination process, a plurality of the second images are selected from images whose imaging direction is within a predetermined range based on the imaging direction of the first image. The information output program described in
(Additional remark 10) In the process to memorize | store, the setting value of the imaging device which imaged the image is memorize | stored as information of the image,
In the determination process, a plurality of the second images are selected from images in which a setting value of an imaging device that has captured the first image is within a predetermined range based on a setting value of the imaging device that has captured the first image; The information output program according to any one of appendices 6 to 9, characterized by:
(Additional remark 11) From the image which imaged the road surface and the vehicle, the luminance value of the road surface of a predetermined area and the luminance value of the license plate area of the vehicle are acquired, the number information of the vehicle is acquired from the license plate area,
As the information of the image, each of the luminance value and the number information are stored together with date and time information when the image is captured,
When the road surface luminance value and the license plate region luminance value are acquired from the first image in the acquisition process, the road surface and the vehicle are imaged in a predetermined time zone based on the time when the first image was imaged. Among the images, a plurality of second images in which the brightness value of the road surface stored in the storing process is a brightness value within a predetermined range based on the brightness value of the road surface of the first image are selected, Whether or not a cover is attached to the license plate projected on the first image based on the comparison result of the luminance value of the license plate region of the second image and the luminance value of the license plate region of the first image Determine whether
When it is determined in the determination process that a cover is attached to the license plate, the number information acquired from the first image in the acquisition process, information indicating that the cover is attached, Output,
An information output method, wherein a computer executes a process.
(Additional remark 12) When it is determined in the determination process that a cover is attached to the license plate, the storage process does not store the information of the first image. Information output method described in 1.
(Additional remark 13) In the said determination process, a plurality of said 2nd images are selected from the images whose imaging date and time are within a predetermined period from the imaging date and time of said 1st image. 12. The information output method according to 12.
(Additional remark 14) In the process to memorize | store, the imaging direction of an image is memorize | stored as information of the image,
Any one of appendices 11 to 13, wherein, in the determination process, a plurality of the second images are selected from images whose imaging direction is within a predetermined range based on the imaging direction of the first image. Information output method described in Crab.
(Supplementary Note 15) In the storing process, as the image information, a setting value of an imaging device that captured an image is stored,
In the determination process, a plurality of the second images are selected from images in which a setting value of an imaging device that has captured the first image is within a predetermined range based on a setting value of the imaging device that has captured the first image; The information output method according to any one of appendices 11 to 14, characterized in that:
(Supplementary Note 16) Recognition that obtains the brightness value of the road surface of the predetermined area and the brightness value of the license plate area of the vehicle from the image obtained by imaging the road surface and the vehicle, and obtains the vehicle number information from the license plate area Equipment,
The information output device according to any one of appendices 1 to 5, which acquires a brightness value of a road surface of the predetermined area, a brightness value of a license plate area of the vehicle, and number information of the vehicle from the recognition device;
An information output system comprising:
(Additional remark 17) The information output system of Additional remark 16 further equipped with the imaging device which images the said image.

10 監視カメラ(撮像装置)
20 認識装置
42 受信部(取得部)
44 カバー有無判定部(判定部)
46 出力部
52 認識結果DB(記憶部)
70 サーバ(情報出力装置)
100 監視システム(情報出力システム)
10 Surveillance camera (imaging device)
20 recognition device 42 receiving unit (acquiring unit)
44 Cover presence / absence determination unit (determination unit)
46 output unit 52 recognition result DB (storage unit)
70 server (information output device)
100 Monitoring system (information output system)

Claims (8)

路面及び車両が撮像された画像から、所定領域の路面の輝度値及び前記車両のナンバープレート領域の輝度値を取得し、前記ナンバープレート領域から前記車両のナンバー情報を取得する取得部と、
前記画像の情報として、それぞれの前記輝度値と前記ナンバー情報を前記画像が撮像された日時情報とともに記憶する記憶部と、
前記取得部が第1の画像から路面の輝度値とナンバープレート領域の輝度値を取得した場合に、前記第1の画像が撮像された時刻に基づく所定時間帯に路面及び車両が撮像された画像のうち、前記記憶部に記憶されている路面の輝度値が、前記第1の画像の路面の輝度値に基づく所定範囲内の輝度値である第2の画像を複数選択し、複数の前記第2の画像のナンバープレート領域の輝度値と前記第1の画像のナンバープレート領域の輝度値の比較結果に基づいて、前記第1の画像に写し出されたナンバープレートにカバーが装着されているか否かを判定する判定部と、
前記判定部によりナンバープレートにカバーが装着されていると判定された場合に、前記取得部が前記第1の画像から取得したナンバー情報と、カバーが装着されていることを示す情報と、を出力する出力部と、
を備える情報出力装置。
An acquisition unit that acquires a luminance value of a road surface of a predetermined area and a luminance value of a license plate area of the vehicle from an image obtained by imaging a road surface and a vehicle, and acquires the vehicle number information from the license plate area;
As the information of the image, a storage unit that stores the luminance value and the number information together with date and time information when the image is captured,
When the acquisition unit acquires the brightness value of the road surface and the brightness value of the license plate area from the first image, the image of the road surface and the vehicle captured in a predetermined time zone based on the time when the first image was captured A plurality of second images in which the luminance value of the road surface stored in the storage unit is a luminance value within a predetermined range based on the luminance value of the road surface of the first image, and a plurality of the second images are selected. Whether or not a cover is attached to the license plate projected on the first image based on the comparison result of the luminance value of the license plate region of the second image and the luminance value of the license plate region of the first image A determination unit for determining
When the determination unit determines that a cover is attached to the license plate, the acquisition unit outputs number information acquired from the first image and information indicating that the cover is attached. An output unit to
An information output device comprising:
前記判定部によりナンバープレートにカバーが装着されていると判定された場合には、前記記憶部は、前記第1の画像の情報を記憶しないことを特徴とする請求項1に記載の情報出力装置。   2. The information output device according to claim 1, wherein when the determination unit determines that a cover is attached to the license plate, the storage unit does not store information on the first image. . 前記判定部は、前記第2の画像を、撮像日時が前記第1の画像の撮像日時から所定期間内である画像の中から複数選択する、ことを特徴とする請求項1又は2に記載の情報出力装置。   3. The determination unit according to claim 1, wherein the determination unit selects a plurality of the second images from images whose imaging date / time is within a predetermined period from the imaging date / time of the first image. 4. Information output device. 前記記憶部は、前記画像の情報として、画像の撮像方向を記憶し、
前記判定部は、前記第2の画像を、撮像方向が前記第1の画像の撮像方向に基づく所定範囲内にある画像の中から複数選択する、ことを特徴とする請求項1〜3のいずれか一項に記載の情報出力装置。
The storage unit stores an imaging direction of an image as information on the image,
4. The method according to claim 1, wherein the determination unit selects a plurality of the second images from images whose imaging direction is within a predetermined range based on the imaging direction of the first image. The information output device according to claim 1.
前記記憶部は、前記画像の情報として、画像を撮像した撮像装置の設定値を記憶し、
前記判定部は、前記第2の画像を、撮像した撮像装置の設定値が前記第1の画像を撮像した撮像装置の設定値に基づく所定範囲内にある画像の中から複数選択する、ことを特徴とする請求項1〜4のいずれか一項に記載の情報出力装置。
The storage unit stores setting values of an imaging device that has captured an image as information on the image,
The determination unit selects a plurality of the second images from images in which a setting value of the imaging device that captured the first image is within a predetermined range based on a setting value of the imaging device that captured the first image. The information output device according to any one of claims 1 to 4, wherein the information output device is characterized.
路面及び車両が撮像された画像から、所定領域の路面の輝度値及び前記車両のナンバープレート領域の輝度値を取得し、前記ナンバープレート領域から前記車両のナンバー情報を取得し、
前記画像の情報として、それぞれの前記輝度値と前記ナンバー情報を前記画像が撮像された日時情報とともに記憶し、
前記取得する処理において第1の画像から路面の輝度値とナンバープレート領域の輝度値を取得した場合に、前記第1の画像が撮像された時刻に基づく所定時間帯に路面及び車両が撮像された画像のうち、前記記憶する処理で記憶された路面の輝度値が、前記第1の画像の路面の輝度値に基づく所定範囲内の輝度値である第2の画像を複数選択し、複数の前記第2の画像のナンバープレート領域の輝度値と前記第1の画像のナンバープレート領域の輝度値の比較結果に基づいて、前記第1の画像に写し出されたナンバープレートにカバーが装着されているか否かを判定し、
前記判定する処理でナンバープレートにカバーが装着されていると判定された場合に、前記取得する処理で前記第1の画像から取得したナンバー情報と、カバーが装着されていることを示す情報と、を出力する、
処理をコンピュータに実行させることを特徴とする情報出力プログラム。
From the image of the road surface and the vehicle imaged, obtain the luminance value of the road surface of the predetermined area and the luminance value of the license plate area of the vehicle, obtain the number information of the vehicle from the license plate area,
As the information of the image, each of the luminance value and the number information are stored together with date and time information when the image is captured,
When the road surface luminance value and the license plate region luminance value are acquired from the first image in the acquisition process, the road surface and the vehicle are imaged in a predetermined time zone based on the time when the first image was imaged. Among the images, a plurality of second images in which the brightness value of the road surface stored in the storing process is a brightness value within a predetermined range based on the brightness value of the road surface of the first image are selected, Whether or not a cover is attached to the license plate projected on the first image based on the comparison result of the luminance value of the license plate region of the second image and the luminance value of the license plate region of the first image Determine whether
When it is determined in the determination process that a cover is attached to the license plate, the number information acquired from the first image in the acquisition process, information indicating that the cover is attached, Output,
An information output program for causing a computer to execute processing.
路面及び車両が撮像された画像から、所定領域の路面の輝度値及び前記車両のナンバープレート領域の輝度値を取得し、前記ナンバープレート領域から前記車両のナンバー情報を取得し、
前記画像の情報として、それぞれの前記輝度値と前記ナンバー情報を前記画像が撮像された日時情報とともに記憶し、
前記取得する処理において第1の画像から路面の輝度値とナンバープレート領域の輝度値を取得した場合に、前記第1の画像が撮像された時刻に基づく所定時間帯に路面及び車両が撮像された画像のうち、前記記憶する処理で記憶された路面の輝度値が、前記第1の画像の路面の輝度値に基づく所定範囲内の輝度値である第2の画像を複数選択し、複数の前記第2の画像のナンバープレート領域の輝度値と前記第1の画像のナンバープレート領域の輝度値の比較結果に基づいて、前記第1の画像に写し出されたナンバープレートにカバーが装着されているか否かを判定し、
前記判定する処理でナンバープレートにカバーが装着されていると判定された場合に、前記取得する処理で前記第1の画像から取得したナンバー情報と、カバーが装着されていることを示す情報と、を出力する、
処理をコンピュータが実行することを特徴とする情報出力方法。
From the image of the road surface and the vehicle imaged, obtain the luminance value of the road surface of the predetermined area and the luminance value of the license plate area of the vehicle, obtain the number information of the vehicle from the license plate area,
As the information of the image, each of the luminance value and the number information are stored together with date and time information when the image is captured,
When the road surface luminance value and the license plate region luminance value are acquired from the first image in the acquisition process, the road surface and the vehicle are imaged in a predetermined time zone based on the time when the first image was imaged. Among the images, a plurality of second images in which the brightness value of the road surface stored in the storing process is a brightness value within a predetermined range based on the brightness value of the road surface of the first image are selected, Whether or not a cover is attached to the license plate projected on the first image based on the comparison result of the luminance value of the license plate region of the second image and the luminance value of the license plate region of the first image Determine whether
When it is determined in the determination process that a cover is attached to the license plate, the number information acquired from the first image in the acquisition process, information indicating that the cover is attached, Output,
An information output method, wherein a computer executes a process.
路面及び車両が撮像された画像から、所定領域の路面の輝度値及び前記車両のナンバープレート領域の輝度値を取得するとともに、前記ナンバープレート領域から前記車両のナンバー情報を取得する認識装置と、
前記認識装置から前記所定領域の路面の輝度値、前記車両のナンバープレート領域の輝度値、及び前記車両のナンバー情報を取得する、請求項1〜5のいずれか一項に記載の情報出力装置と、
を備える情報出力システム。
A recognition device that acquires the brightness value of the road surface of the predetermined area and the brightness value of the license plate area of the vehicle from the image obtained by imaging the road surface and the vehicle, and acquires the number information of the vehicle from the license plate area;
The information output device according to any one of claims 1 to 5, wherein a luminance value of a road surface of the predetermined region, a luminance value of a license plate region of the vehicle, and number information of the vehicle are acquired from the recognition device. ,
An information output system comprising:
JP2015051428A 2015-03-13 2015-03-13 Information output device, information output program, information output method, and information output system Expired - Fee Related JP6443144B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015051428A JP6443144B2 (en) 2015-03-13 2015-03-13 Information output device, information output program, information output method, and information output system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015051428A JP6443144B2 (en) 2015-03-13 2015-03-13 Information output device, information output program, information output method, and information output system

Publications (2)

Publication Number Publication Date
JP2016170732A JP2016170732A (en) 2016-09-23
JP6443144B2 true JP6443144B2 (en) 2018-12-26

Family

ID=56983875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015051428A Expired - Fee Related JP6443144B2 (en) 2015-03-13 2015-03-13 Information output device, information output program, information output method, and information output system

Country Status (1)

Country Link
JP (1) JP6443144B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112140877A (en) * 2019-06-26 2020-12-29 比亚迪股份有限公司 Display effect control method and device of vehicle-mounted head-up display device and vehicle

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008041017A (en) * 2006-08-10 2008-02-21 Sumitomo Electric Ind Ltd Monitoring system and monitoring device
JP2009212810A (en) * 2008-03-04 2009-09-17 Mitsubishi Electric Corp Vehicle imaging apparatus
JP5906856B2 (en) * 2012-03-19 2016-04-20 富士通株式会社 Vehicle image recognition apparatus and vehicle image recognition method
JP2013214143A (en) * 2012-03-30 2013-10-17 Fujitsu Ltd Vehicle abnormality management device, vehicle abnormality management system, vehicle abnormality management method, and program

Also Published As

Publication number Publication date
JP2016170732A (en) 2016-09-23

Similar Documents

Publication Publication Date Title
US20230077355A1 (en) Tracker assisted image capture
US10867166B2 (en) Image processing apparatus, image processing system, and image processing method
CN110705405B (en) Target labeling method and device
CN109753928B (en) Method and device for identifying illegal buildings
WO2017054442A1 (en) Image information recognition processing method and device, and computer storage medium
US11132538B2 (en) Image processing apparatus, image processing system, and image processing method
US10373015B2 (en) System and method of detecting moving objects
US10163212B2 (en) Video processing system and method for deformation insensitive tracking of objects in a sequence of image frames
CN111563398A (en) Method and device for determining information of target object
KR20200069911A (en) Method and apparatus for identifying object and object location equality between images
JP7222231B2 (en) Action recognition device, action recognition method and program
CN107832598B (en) Unlocking control method and related product
JP6443144B2 (en) Information output device, information output program, information output method, and information output system
JP2002367077A (en) Device and method for deciding traffic congestion
CN113014876A (en) Video monitoring method and device, electronic equipment and readable storage medium
CN114913470B (en) Event detection method and device
KR20140071191A (en) Apparatus and method for extracting object
CN109800685A (en) The determination method and device of object in a kind of video
CN110781797B (en) Labeling method and device and electronic equipment
CN108431867B (en) Data processing method and terminal
CN109740525A (en) The determination method and device of object in a kind of video
CN109508703A (en) A kind of face in video determines method and device
JP2020012815A (en) Information providing device, information providing method, and program
CN114783041B (en) Target object recognition method, electronic device, and computer-readable storage medium
KR101517815B1 (en) Method for Real Time Extracting Object and Surveillance System using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181112

R150 Certificate of patent or registration of utility model

Ref document number: 6443144

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees