JP6905850B2 - Image processing system, imaging device, learning model creation method, information processing device - Google Patents
Image processing system, imaging device, learning model creation method, information processing device Download PDFInfo
- Publication number
- JP6905850B2 JP6905850B2 JP2017073011A JP2017073011A JP6905850B2 JP 6905850 B2 JP6905850 B2 JP 6905850B2 JP 2017073011 A JP2017073011 A JP 2017073011A JP 2017073011 A JP2017073011 A JP 2017073011A JP 6905850 B2 JP6905850 B2 JP 6905850B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- learning
- abnormality
- cluster
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 66
- 238000012545 processing Methods 0.000 title claims description 66
- 238000000034 method Methods 0.000 title claims description 33
- 238000003384 imaging method Methods 0.000 title claims description 26
- 230000005856 abnormality Effects 0.000 claims description 146
- 238000009434 installation Methods 0.000 claims description 98
- 238000001514 detection method Methods 0.000 claims description 19
- 238000000926 separation method Methods 0.000 claims description 11
- 238000012706 support-vector machine Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 6
- 238000013135 deep learning Methods 0.000 claims description 5
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 25
- 230000006870 function Effects 0.000 description 21
- 238000010801 machine learning Methods 0.000 description 20
- 238000004891 communication Methods 0.000 description 15
- 230000002159 abnormal effect Effects 0.000 description 12
- 230000000007 visual effect Effects 0.000 description 10
- 230000006399 behavior Effects 0.000 description 6
- 230000005484 gravity Effects 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 201000011243 gastrointestinal stromal tumor Diseases 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理システム、撮像装置、学習モデル作成方法、及び、情報処理装置に関する。 The present invention relates to an image processing system, an imaging device, a learning model creation method, and an information processing device.
監視カメラなどの撮像装置により映像を撮像して記録しておき、関係者が後で映像を確認して異常の有無やどのような異常があったのかを確認する監視方法が知られている。しかし、関係者としては映像を確認する必要性に気づかないと映像を確認できない場合もあり、事後的にしか映像から異常の有無を確認できなかった。また、関係者が映像を全て見ないと異常の有無を確認できない。 There is known a monitoring method in which an image is captured and recorded by an imaging device such as a surveillance camera, and a person concerned later confirms the image to confirm the presence or absence of an abnormality and what kind of abnormality has occurred. However, as a person concerned, there are cases where the video cannot be confirmed without noticing the necessity of confirming the video, and the presence or absence of an abnormality can only be confirmed from the video after the fact. In addition, the presence or absence of an abnormality cannot be confirmed unless the person concerned sees all the images.
このため、リアルタイムに映像を解析して異常を検出する技術が考案されている(例えば、特許文献1参照。)。異常検出とは、日常起こりうる正常な状態から逸脱した現象を検出することをいう。特許文献1には、カメラが撮像した画像を収集する前に不審者判定を行い対象となる画像のみを送信することで輻輳を抑制する方法が開示されている。
Therefore, a technique for analyzing an image in real time to detect an abnormality has been devised (see, for example, Patent Document 1). Anomaly detection refers to detecting a phenomenon that deviates from the normal state that can occur on a daily basis.
しかし、特許文献1は事前に登録された住人以外が検出された場合に異常であると判定する技術であり、登録内容が適切でないと異常の検出結果も正確でなくなるおそれがある。
However,
このような不都合に対し、情報処理装置が機械学習により正常な種々の映像を学習しておき、カメラが設置された場所で撮像した画像から異常検出する技術が考案されている(例えば、特許文献2参照。)。特許文献2には、オンライン学習部で絞られた情報の中から更に学習実行者又は学習エージェントにより情報を選択させることで学習に適した情報を選別する方法が開示されている。
In response to such inconvenience, a technique has been devised in which an information processing device learns various normal images by machine learning and abnormally detects an abnormality from an image captured at a place where a camera is installed (for example, a patent document). See 2.).
しかしながら、従来の技術では、新たに設置されたカメラが異常検出を行うには設置場所で正常な画像を学習する必要があるため、設置後すぐに異常判定を開始することが困難であるという問題があった。例えば、画像処理システムが機械学習した学習モデルを使って不審者を検出する場合、カメラが撮像するシーンに合わせた学習モデルが必要であるが、新たに設置されたカメラには学習に使用する画像データが存在しないため、学習に使用する画像が蓄積されるまでは異常判定できない。 However, in the conventional technology, since it is necessary for the newly installed camera to learn a normal image at the installation location in order to detect an abnormality, there is a problem that it is difficult to start the abnormality determination immediately after the installation. was there. For example, when an image processing system uses a machine-learned learning model to detect a suspicious person, a learning model that matches the scene captured by the camera is required, but the newly installed camera has an image used for learning. Since there is no data, the abnormality cannot be determined until the images used for learning are accumulated.
本発明は、上記課題に鑑み、設置後早期に異常検出が可能になる画像処理システムを提供することを目的とする。 In view of the above problems, an object of the present invention is to provide an image processing system capable of detecting an abnormality at an early stage after installation.
本発明は、撮像装置が撮像した画像から異常検出を行う画像処理システムであって、異なる設置場所に設置された複数の第一の撮像装置から前記画像を取得する画像取得手段と、特徴が類似する前記画像をそれぞれクラスタに分類する分類手段と、前記クラスタに分類された前記画像を学習して異常を検出する異常判定手段を前記クラスタごとに構築する学習手段と、前記第一の撮像装置とは異なる設置場所に設置された第二の撮像装置が撮像した前記画像と類似する前記第一の撮像装置の画像が分類された前記クラスタを判定し、該クラスタに分類された前記画像から構築された前記異常判定手段を決定する決定手段と、を有し、前記決定手段が決定した前記異常判定手段は、前記第二の撮像装置が撮像した前記画像から異常の有無を判定する。
The present invention is an image processing system that detects anomalies from an image captured by an image pickup device, and has similar features to an image acquisition means that acquires the image from a plurality of first image pickup devices installed at different installation locations. A classification means for classifying the images to be classified into clusters, a learning means for constructing an abnormality determination means for learning the images classified into the clusters and detecting an abnormality for each cluster, and the first imaging device. Determines the cluster in which the image of the first imaging device similar to the image captured by the second imaging device installed at a different installation location is classified, and is constructed from the image classified into the cluster. The abnormality determining means determined by the determining means has a determining means for determining the abnormality determining means, and determines the presence or absence of an abnormality from the image captured by the second imaging device .
本発明によれば、設置後早期に異常検出が可能になる画像処理システムを提供することができる。 According to the present invention, it is possible to provide an image processing system capable of detecting an abnormality at an early stage after installation.
以下、本発明を実施するため形態の一例として、画像処理システム及び画像処理システムが行う学習モデル作成方法等について図面を参照しながら説明する。 Hereinafter, as an example of the embodiment for carrying out the present invention, the image processing system and the learning model creation method performed by the image processing system will be described with reference to the drawings.
<異常検出の具体例>
本実施形態を説明するに当たって、異常検出の具体例を説明する。異常とは、日常起こりうる正常から逸脱した現象を言う。
<Specific example of abnormality detection>
In explaining the present embodiment, a specific example of abnormality detection will be described. Abnormality refers to a phenomenon that deviates from normality that can occur on a daily basis.
図1(a)は機械学習による正常な画像6の学習を説明する図の一例である。
(1)異常を含まない大量の画像6(正常な画像6)が用意される。この画像6は動画であるものとする。異常を含まないとは、写っている内容が警報の対象とならないことをいう。正常かどうかはカメラが設置された場所と写っている対象によって異なる。例えば、歩行者が写っている画像6では歩行者が歩行する画像が正常な画像であり、壁を乗り越えたりする画像6は異常である。また、車が写っている画像6では人が乗降したり車が停止、駐車、発進したりする画像6が正常な画像6であり、ドアロックを解除する行動が写った画像6は異常である。自転車の場合も車と同様に正常と異常で異なる画像が得られる。
(2)学習部34は、ディープラーニングやSVM(サポートベクトルマシン)などの機械学習を使って正常な画像6に写っている対象の形状及び動きが正常な範囲を学習し、学習モデルを構築する。学習モデルとはこの正常な範囲を推定したものであり、入力される対象の形状及び動きが正常か否かを出力する。
(3)学習モデルの一例を説明する。例えば、歩行者が写っている画像6では、背景が静止しているのに対し歩行者が動くので学習部34は歩行者の姿勢及び移動速度等を自動で生成する。そして、この歩行者の姿勢及び移動速度等の正常な範囲を推定する。なお、学習部34にとって歩行者という教師信号等は不要であり、動くモノが歩行者(人)であるという認識は必要でない。学習部34はある形状(ここでは歩行者)の正常な行動パターン(ここでは移動速度)はこのようなものであると数値化するに過ぎない。
FIG. 1A is an example of a diagram illustrating normal learning of the
(1) A large number of images 6 (normal images 6) containing no abnormalities are prepared. It is assumed that this
(2) The
(3) An example of a learning model will be described. For example, in the
図1(b)は識別装置5が行う異常判定を説明する図の一例である。
(4)異常な画像6として人が壁を乗り越える画像6が撮像される。人が壁を乗り越えることは少なく正常な画像6に含まれていない。
(5)識別装置5は(3)で作成した学習モデルと比較することで異常判定を行う。
(6)例えば、人の姿勢の一致度が20%、移動速度の一致度が60%のように判定される。正常な画像6との一致度が低い場合、識別装置5は異常の可能性が高いと判定する。
FIG. 1B is an example of a diagram illustrating an abnormality determination performed by the
(4) An
(5) The
(6) For example, it is determined that the degree of agreement between the postures of people is 20% and the degree of agreement between the movement speeds is 60%. If the degree of agreement with the
このように、正常な大量の画像6を学習部34が学習することで、人が判定した場合と同様に画像6を異常であると判定する識別装置を構築できる。このため、本実施形態の画像処理システムは、侵入者が施設に侵入する前にリアルタイムに異常を検出して、警備員を派遣するなどの適切な対応が可能になる。
In this way, by learning a large amount of
しかしながら、一方で、正常な大量の画像6を学習するまでは異常の有無を判定できない。上記のように、画像6が正常かどうかはカメラが設置された場所と写っている対象等によって異なるため、他のカメラが学習に使用した正常な画像6を新規に設置されたカメラの学習にそのまま転用しても、適切な学習モデルが構築されるとは限らない。
However, on the other hand, the presence or absence of an abnormality cannot be determined until a large amount of
<本実施形態の画像処理の概略>
そこで、本実施形態の画像処理システムは、既存の多数の設置場所から収集した画像6を類似するシーンでクラスタリングして学習し、新規の設置場所の画像6とシーンが類似する学習モデルを新規の設置場所の学習モデルに使用する。既存設置場所の学習モデルを使用できるので、新規の設置場所にカメラが設置された直後から監視を開始できる。
<Outline of image processing of this embodiment>
Therefore, in the image processing system of the present embodiment,
図2は、本実施形態の画像処理の概略を説明する図の一例である。以下、カメラ装置の設置前の準備フェーズと、新規のカメラ装置が撮像した画像6による異常判定フェーズに分けて説明する。
FIG. 2 is an example of a diagram illustrating an outline of image processing of the present embodiment. Hereinafter, the preparation phase before the installation of the camera device and the abnormality determination phase based on the
・準備フェーズ
(1)すでに、カメラ装置10の複数の既存設置場所8a、8b、8c、8d…等がある。複数ある既存設置場所8を区別する場合は符号8にアルファベットを付けて説明する(既存設置場所の数は特に問わない)。これらのカメラ装置10(第一の撮像装置の一例)が撮像した画像6が画像蓄積部32に蓄積される。画像蓄積部32には全ての既存設置場所8のカメラ装置10が撮像した画像6が蓄積される。
(2)クラスタ設定部33は蓄積された画像6を類似するシーンごとにクラスタリングする。クラスタリングにより、例えばカメラ装置10の設置場所及び写っている対象が類似している画像が同じクラスタに分類される。
(3)機械学習部1〜n
機械学習部1〜nはクラスタリングされた正常な画像6を機械学習する。図2では機械学習部1〜nがクラスタの数(n個)だけあるが、機械学習部1〜nは最小で1つあればよい。機械学習部1〜nはそれぞれ学習モデルを構築する。各学習モデルは異常判定部36にて使用される。
(4)次に、クラスタ判定部35は、新規設置場所7のカメラ装置10(第二の撮像装置の一例)が撮像する画像6が、既存設置場所8の画像6が分類されたどのクラスタに分類されるかを判定し、分類先のクラスタの学習モデルを適用すると決定する。このように、新規に設置されたカメラ装置10に適切な学習モデルを設置された直後から決定できる。
-Preparation phase (1) There are already a plurality of existing
(2) The
(3) Machine learning unit 1-n
The
(4) Next, the
・異常判定フェーズ
(5)既存設置場所8のカメラ装置10に対応する異常判定部36は、学習モデルを使って画像6が正常か異常かを判定する。例えば、既存設置場所8aに適した学習モデルは、既存設置場所8aの画像6のクラスタリング結果によって自動的に決まる。図2で機械学習部1の学習モデルが既存設置場所8aと8bに提供されているのは、既存設置場所8aと8bの画像6が同じクラスタにクラスタリングされたことを表している。
(6)新規設置場所7のカメラ装置10に対応する異常判定部36も、(4)で決定された学習モデルを使って画像6が正常か異常かを判定する。
(7)判定結果処理部37は、各異常判定部36から異常の有無の判定結果を取得し、警備員の派遣の指示を行ったり、顧客に画像6を送信したりする。
-Abnormality determination phase (5) The
(6) The
(7) The determination
このように、新規に設置されたカメラ装置10の画像6が既存設置場所8の画像と類似するクラスタにクラスタリングされることで、既存設置場所8のカメラ装置10の画像6から学習された学習モデルを利用できるので、新規のカメラ装置10が設置された直後から異常の有無を判定可能になる。また、既存設置場所8についても、1つの設置場所の画像から学習された学習モデルより適切な学習モデルを作れる可能性がある。
In this way, the
<用語について>
クラスタとはかたまりを意味し、本実施形態ではシーンが類似する画像の集まりである。クラスタの他、クラス、グループ、カテゴリ、などと称してもよい。
<Terminology>
A cluster means a group, and in the present embodiment, it is a group of images having similar scenes. In addition to clusters, they may be referred to as classes, groups, categories, and so on.
学習とは、人間が行っている学習能力と同様の機能をコンピュータで実現するため、データから有用な規則、ルール、知識表現、又は判定基準などを抽出することをいう。 Learning refers to extracting useful rules, rules, knowledge representations, judgment criteria, etc. from data in order to realize functions similar to those of human learning ability on a computer.
<システム構成例>
図3は、画像処理システム100のシステム構成図の一例を示す。画像処理システム100は、ネットワークNを介して接続されたカメラ装置10と情報処理装置30とを主に有する。1つの既存設置場所8には1台以上のカメラ装置10が設置されている。「既存」とはすでに学習に十分な数の画像6が撮像されている設置場所であることをいう。また、新規設置場所7にも1台以上のカメラ装置10が設置されている。新規設置場所7とは、過去にはカメラ装置10がなく新たにカメラ装置10が設置された場所である。
<System configuration example>
FIG. 3 shows an example of a system configuration diagram of the
カメラ装置10は毎秒数枚以上の画像6を撮像する撮像装置であり、いわゆる動画の撮像が可能である。既存設置場所又は新規設置場所は、主に第三者の侵入が監視されうる場所である。例えば、施設の周辺、個人邸宅の周辺、駐車場、山林、臨海地域、立ち入り禁止区域などが挙げられるがこれらに制限されるものではない。また、屋外に限られず、施設、オフィス、個人邸宅、ホテル、店舗、研究所、倉庫、工場などの屋内に設置される場合もある。
The
カメラ装置10は撮像する機能だけでなく動体を検出する画像処理機能等を有していることが好ましいが、本実施形態では必須でない。カメラ装置10は、毎秒数枚以上の画像6を撮像して、監視センターに送信する。
It is preferable that the
ネットワークNは、カメラ装置10の設置場所に敷設されている電話回線、LAN、LANをインターネットに接続するプロバイダのプロバイダネットワーク、及び、回線事業者が提供する回線等により構築されている。ネットワークNが複数のLANを有する場合、ネットワークNはWANと呼ばれ、インターネットが含まれる場合がある。ネットワークNは有線又は無線のどちらで構築されてもよく、また、有線と無線が組み合わされていてもよい。また、カメラ装置10が、3G、4G、5G、LTE(Long Term Revolution)などの無線の公衆回線網に接続する場合は、有線の電話回線やLANを介さずにプロバイダネットワークに接続することができる。
The network N is constructed by a telephone line laid at the installation location of the
監視センター9には情報処理装置30が設置されている。情報処理装置30は学習モデルを構築したり、異常判定を行ったりする。異常であるとの判定結果は、画像6と共に顧客の携帯端末に送信されたり、監視員の端末に送信されたりする。顧客や監視員は異常であると判定された画像6を確認して、必要であれば警備員を設置場所に派遣したり警察に通報したりする。
An
情報処理装置30は、一般的なコンピュータ、PC(Personal Computer)、サーバなどとよばれる装置である。図3では説明の便宜上、一台の情報処理装置30を示したが、情報処理装置30は一台とは限らず、本実施形態で説明される機能を複数の情報処理装置30が分担して有していてもよい。
The
<ハードウェア構成例>
<<カメラ装置のハードウェア構成例>>
図4は、カメラ装置10のハードウェア構成図の一例である。カメラ装置10は、撮像部101、画像処理IC103、ROM105、CPU106、RAM107、及び、通信装置108を有している。
<Hardware configuration example>
<< Hardware configuration example of camera device >>
FIG. 4 is an example of a hardware configuration diagram of the
撮像部101は、レンズ、絞り、シャッター(メカ・電子)、CMOSやCCDなどの固体撮像素子、及び、メモリ等を有するカメラである。画像6は白黒でもカラーでもよい、撮像部101はCPU106からの制御により定期的に所定範囲を撮像し、画像6を画像処理IC103に送出する。画像処理IC103は、画像6に動体を検出する画像処理を施す集積回路である。
The
CPU106は、RAM107を作業メモリにしてROM105に記憶されたプログラムを実行し、カメラ装置10の全体を制御する。すなわち、撮像部101による撮像を制御する。また、通信装置108を制御して監視センター9に画像6を送信したりする。
The
通信装置108は、ネットワークインタフェースやイーサネット(登録商標)カードと呼ばれ、ネットワークに接続する機能を提供する。無線LANのアクセスポイントや携帯電話網の基地局に接続してもよい。
The
<<情報処理装置30のハードウェア構成例>>
図5は、情報処理装置30の概略的なハードウェア構成を示したブロック図である。情報処理装置30は、概ねパーソナル・コンピュータ、ワークステーション又はアプライアンス・サーバとして実装することができる。情報処理装置30は、CPU201と、CPU201が使用するデータの高速アクセスを可能とするメモリ202とを備える。CPU201及びメモリ202は、システム・バス203を介して、情報処理装置30の他のデバイス又はドライバ、例えば、グラフィックス・ドライバ204及びネットワーク・ドライバ(NIC:Network Interface Card)205へと接続されている。
<< Hardware configuration example of
FIG. 5 is a block diagram showing a schematic hardware configuration of the
LCD(表示装置)206は、グラフィックス・ドライバ204に接続されて、CPU201による処理結果をモニタする。LCD206にはタッチパネルが一体に配置されていてもよい。この場合、ユーザは操作手段として指を使って情報処理装置30を操作できる。
The LCD (display device) 206 is connected to the
また、ネットワーク・ドライバ205は、トランスポート層レベル及び物理層レベルで情報処理装置30をネットワークNへと接続して、カメラ装置10等とのセッションを確立させている。
Further, the
システム・バス203には、更にI/Oバス・ブリッジ207が接続されている。I/Oバス・ブリッジ207の下流側には、PCIなどのI/Oバス208を介して、IDE、ATA、ATAPI、シリアルATA、SCSI、USBなどにより、HDD209などの記憶装置が接続されている。HDD209の代わりに又はHDD209と共にSSD(Solid State Drive)を有していてもよい。
An I /
HDD209は情報処理装置30の全体を制御するプログラム209pを記憶している。情報処理装置30はプログラム209pを実行することで、監視員の操作を受け付けたり学習したりする。プログラム209pは、プログラムを配信するサーバから配信される他、USBメモリや光記憶媒体などの可搬性の記憶媒体に記憶された状態で配布されてもよい。
The
また、I/Oバス208には、USBなどのバスを介して、キーボード及びマウス(ポインティング・デバイスと呼ばれる)などの入力装置210が接続され、オペレータによる入力及び指令を受け付けている。
Further, an
情報処理装置30はクラウドコンピューティングに対応していてもよい。クラウドコンピューティングとは、特定ハードウェア資源が意識されずにネットワーク上のリソースが利用される利用形態をいう。この場合、図5に示したハードウェア構成は、1つの筐体に収納されていたり一まとまりの装置として備えられていたりする必要はなく、情報処理装置30が備えていることが好ましいハード的な要素を示す。
The
<画像処理システム100の機能構成例>
図6は、画像処理システム100が備える各機能を図示した機能ブロック図の一例である。なお、図6では、学習モデルの構築に関する機能を主に説明する。また、各設置場所でカメラ装置10の機能は共通であるか、又は、異なっていても本実施形態の説明には支障がないとする。このため、図6ではカメラ装置10を1つだけ示す。
<Example of functional configuration of
FIG. 6 is an example of a functional block diagram illustrating each function included in the
<<カメラ装置の機能構成>>
カメラ装置10は、画像取得部11、画像処理部12、及び通信部13を有している。これらの各機能は図4に示したCPU106がプログラムを実行してカメラ装置10のハードウェアと協働することで実現される機能又は手段である。ハード的又はソフト的に実現される機能を明確に区別する必要はなく、これらの機能の一部又は全てがICなどのハードウェア回路により実現されてもよい。
<< Functional configuration of camera device >>
The
また、カメラ装置10は、図4に示したROM又はRAM107により構築される記憶部19を有している。記憶部19には画像DB191が構築されている。画像DB191は、カメラ装置10が直接有していなくてもよく、カメラ装置10がアクセス可能なネットワーク上の任意の場所にあればよい。
Further, the
画像取得部11は、異常の有無に関係なく定期的に画像6を取得する(撮像する)。十分に短い時間間隔で撮像することで動画を撮像できる。なお、撮像間隔は必ずしも一定でなくよく、時間帯や動体検知結果等で撮像間隔を変更してもよい。画像取得部11は、図4のCPU106がプログラムを実行し撮像部101を制御すること等により実現される。
The
画像処理部12は、クラスタリングに有効な画像処理を行う。例えば、画像6の輝度の平均や撮像時刻から撮像時刻が日中か夜間を判定し各画像6にラベルとして添付する。あるいは、ノイズ除去、トリミング、高解像度化などの処理を行ってもよい。画像処理部12は、撮像された画像6を画像DB191に記憶する。画像DB191では古い画像6から上書きされ常に一定の新しい画像6が保持されている。画像処理部12は、図4のCPU106がプログラムを実行すること等により実現される。
The
通信部13は、画像DB191に記憶された画像6を情報処理装置30に送信する。異常検出のリアルタイム性を保証するため、記憶された画像6はすぐに情報処理装置30に送信することが好ましい。このため、通信部13は継続的に画像6を情報処理装置30に送信するが、一定量の画像6が蓄積されてからまとめて送信してもよい。通信部13は、図4のCPU106がプログラムを実行して通信装置108を制御すること等により実現される。
The
<<情報処理装置の機能構成>>
情報処理装置30は、通信部31、画像蓄積部32、クラスタ設定部33、学習部34、及び、クラスタ判定部35を有している。これらの各機能は図5に示したCPU201がプログラム209pを実行して情報処理装置30のハードウェアと協働することで実現される機能又は手段である。ハード的又はソフト的に実現される機能を明確に区別する必要はなく、これらの機能の一部又は全てがICなどのハードウェア回路により実現されてもよい。
<< Functional configuration of information processing device >>
The
また、情報処理装置30は、図5に示したメモリ202又はHDD209より構築される記憶部39を有している。記憶部39には画像蓄積DB391及び学習モデルDB392が構築されている。これらDBは、情報処理装置30が直接有していなくてもよく、情報処理装置30がアクセス可能なネットワーク上の任意の場所にあればよい。
Further, the
通信部31は、カメラ装置10から画像6を受信する。通信部31は図5に示したCPU201がプログラム209pを実行してネットワーク・ドライバ205を制御すること等により実現される。
The
画像蓄積部32は、通信部31が受信した画像6をカメラ装置10の識別情報(設置場所に1台しかカメラ装置10がない場合は設置場所の識別情報でもよい)に対応付けて画像蓄積DB391に記憶する。画像蓄積部32は図5に示したCPU201がプログラム209pを実行すること等により実現される。
The
クラスタ設定部33は、画像蓄積DB391に蓄積された画像6から特徴量を抽出し、特徴量を用いて各カメラ装置10から送信された画像6をシーンが類似したクラスタにクラスタリングする。シーンとは、画像6が撮像される広義の場面ということができる。例えば、駐車場に設置されたカメラ装置10の画像は異なる駐車場の画像6でもシーンが似ている可能性が高い。クラスタリングの際、最良のクラスタ数の決定を行う。また、日中と夜間では特徴が異なる傾向が強いため、同じカメラ装置10の画像6でも日中と夜間で別々にクラスタが分けられる可能性が高い。更に上記のラベルを使えば確実に日中と夜間で別々にクラスタにクラスタリングできる。クラスタ設定部33は図5に示したCPU201がプログラム209pを実行すること等により実現される。
The
学習部34は、更に機械学習部1、機械学習部2,…、機械学習部n(nは自然数)を有している。機械学習部1〜nの1〜nはクラスタリングにより形成されるクラスタの数(n個)に対応している。しかしながら、1つの機械学習部(例えば機械学習部1)が全てのクラスタの画像6を学習してもよく、機械学習部1〜nは1つでもよい。機械学習部1は学習により構築した学習モデルC1を学習モデルDB392に記憶させ、機械学習部2は学習により構築した学習モデルC2を学習モデルDB392に記憶させ、機械学習部nは学習により構築した学習モデルCnを学習モデルDB392に記憶させる。以下では、説明の便宜上、単に「学習部34」が学習モデルを構築すると説明する場合がある。学習部34は図5に示したCPU201がプログラム209pを実行すること等により実現される。
The
クラスタ判定部35は、クラスタ設定部33が生成したクラスタのうち新規設置場所7のカメラ装置10が撮像する画像6がクラスタリングされるクラスタを判定する。例えば、特徴量が最も近いクラスタを選択する。カメラ装置10と学習モデル(クラスタ)の対応は学習モデルDB392に登録される。カメラ装置10が日中か夜間のラベルを付さない場合でも、日中と夜間で特徴量が異なることを利用して日中と夜間のそれぞれで対応するクラスタを判定することが好ましい。なお、画像6が日中に撮像されたのか、夜間に撮像されたのかは情報処理装置30側でも判定可能である。クラスタ判定部35は図5に示したCPU201がプログラム209pを実行すること等により実現される。
The
また、クラスタ判定部35は、既存設置場所8aのカメラ装置10が撮像する画像6がクラスタリングされるクラスタを判定する。この場合も、クラスタ判定部35は日中と夜間のそれぞれで対応するクラスタを判定することが好ましい。
Further, the
<クラスタリングの必要性>
クラスタリングの必要性を説明する。まず前提として、カメラ装置10が設置される設置場所の種類は限定的であり、その場所で考えられる正常行動(歩行者等の行動パターン)も限定されるとしてよい。表2は各設置場所の正常行動の一例を示す。
<Necessity of clustering>
Explain the need for clustering. First, as a premise, the type of installation location where the
<クラスタリングの処理>
次に、図7を用いてクラスタリングについて詳細に説明する。図7は、クラスタリングの処理手順を示す流れ図の一例である。以下、図7の各ステップを順番に説明する。
<Clustering processing>
Next, clustering will be described in detail with reference to FIG. 7. FIG. 7 is an example of a flow chart showing a clustering processing procedure. Hereinafter, each step of FIG. 7 will be described in order.
(S1)
クラスタ設定部33は各画像6からノイズを除去した背景画像を取得する。ノイズの除去には、例えば公知の平滑化フィルタを使用すればよい。
(S1)
The
(S2)
クラスタ設定部33は背景画像から局所的特徴量及び大域的特徴量を抽出する。局所的特徴量及び大域的特徴量について表3を用いて説明する。
(S2)
The
このように、局所的特徴量と大域的特徴量は補完する関係にあるため、シーンを適切に分類するには局所的特徴量と大域的特徴量の両方を抽出することが有効である。 In this way, since the local features and the global features are in a complementary relationship, it is effective to extract both the local features and the global features in order to properly classify the scene.
図8は、クラスタ設定部33が局所的特徴量と大域的特徴量を抽出する手順を示す流れ図を示す。
FIG. 8 shows a flow chart showing a procedure in which the
S2-1:まず、クラスタ設定部33は局所的特徴量を検出する。本実施形態では局所的特徴量の一例としてSIFT(Scale-Invariant Feature Transform)特徴量を取得する。SIFT特徴量は、スケールスペースを使った照明変化や回転、拡大、縮小に頑強な特徴量であり、1つの画像6から128次元の複数の特徴点を取得できる。クラスタ設定部33はまずキーポイントを検出する。キーポイントは、スケールが変わっても画像6上に特徴的に現れる点である。検出には、解像度の異なるガウシアンフィルターを段階的に適用して解像度の異なる画像6を作成し、DoG(Difference of Gaussian)画像の極値を探索する。探索で得られた局所領域の中心部分がキーポイントである。
S2-1: First, the
S2-2:次に、クラスタ設定部33は、キーポイントの近傍に対し濃度の勾配の強さと勾配の向きを検出する(特徴を抽出する)。各キーポイントの勾配の強さと勾配がSIFT特徴量である。クラスタ設定部33は分類対象の全ての画像6についてSIFT特徴量を算出する。
S2-2: Next, the
S2-3:次に、クラスタ設定部33は分類対象の全ての画像6について局所的特徴量を分類する。全ての画像6とは既存設置場所8の全ての画像6である。
S2-3: Next, the
図9(a)はK-means法による分類を模式的に示す。図9(a)は3次元で各特徴点を示すが、実際は128次元(SIFT特徴量)×画像一枚から得られた特徴点数×画像枚数、の次元を有する。図9(a)の1つの点が1つの特徴点を表す。K-means法では、任意に与えられたクラスタ数の各クラスタに各特徴点を分類する。まず、クラスタ数kは、以下の式で算出される。
クラスタ数k=√{128次元(SIFT特徴量)×画像一枚から得られた特徴点数×画像枚数}
次に、クラスタ設定部33は、このクラスタ数のクラスタに全ての画像6を分類する。クラスタの初期の重心をランダムに与え、各特徴点を最も近い重心のクラスタに振り分け、重心を再計算し、再度、各特徴点を最も近い重心のクラスタに振り分る処理をクラスタ間の移動が無くなるまで繰り返す。図9(b)は3つのクラスタ71に分類された各特徴点を模式的に示す。
FIG. 9A schematically shows the classification by the K-means method. FIG. 9A shows each feature point in three dimensions, but actually has a dimension of 128 dimensions (SIFT feature amount) × number of feature points obtained from one image × number of images. One point in FIG. 9A represents one feature point. In the K-means method, each feature point is classified into each cluster with an arbitrarily given number of clusters. First, the number of clusters k is calculated by the following formula.
Number of clusters k = √ {128 dimensions (SIFT feature amount) x number of feature points obtained from one image x number of images}
Next, the
S2-4:次に、クラスタ設定部33は、visual
wordsを決定することで量子化する。すなわち、各クラスタの中心(重心)をvisual words72に決定する。これにより、クラスタ数であるk個のvisual wordsが特定される。図9(c)には一例としてk=3とした場合の3つのvisual words72を模式的に示す。visual words72の数はクラスタ数と同じであり、各visual words72の次元数は128次元(SIFT特徴量)×画像一枚から得られた特徴点数×画像枚数である。
S2-4: Next, the
Quantize by determining words. That is, the center (center of gravity) of each cluster is determined to be visual words 72. As a result, k visual words, which is the number of clusters, are specified. FIG. 9C schematically shows three visual words 72 when k = 3 as an example. The number of visual words 72 is the same as the number of clusters, and the number of dimensions of each visual words 72 is 128 dimensions (SIFT feature amount) × the number of feature points obtained from one image × the number of images.
S2-5:次に、クラスタ設定部33は、visual
words72を次元とする特徴ベクトルにクラスタリング対象の全ての画像6を変換する。1つの画像6の各局所特徴量について一番近いvisual words72を検索し、そのvisual words72に投票する。これにより、1つの画像6のヒストグラムがえられる。図9(d)にヒストグラムを模式的に示す。図9(d)の横軸はvisual wordsであり、縦軸はある画像6において各visual wordsに最も近いと判定された局所的特徴(SIFT特徴量)の数である。このヒストグラムが各画像6の特徴ベクトルになる。
S2-5: Next, the
All the
S2-6:次に、クラスタ設定部33は大域的特徴量を検出する。本実施形態では大域的特徴量の一例としてGIST特徴量を取得する。GIST特徴量は、画像6を小領域に区切り、それらの小領域に対し様々な方向及び周波数のガボールフィルターを適用してシーン情報を記述する特徴量であり、960次元の特徴を有する。GIST特徴量は1枚の画像6から1つ求められるので、ヒストグラムの作成は不要である。
S2-6: Next, the
S2-7:次に、クラスタ設定部33は、局所的特徴量と大域的特徴量を合体して最終的な特徴量を生成する。したがって、次元数はvisual wordsの数+960次元となる。
S2-7: Next, the
S2-8:クラスタ設定部33は特徴量を出力する。
S2-8: The
(S3、S4)
次に、クラスタ設定部33は、特徴量をn個のクラスタにクラスタリングする。ここで、n個は固定された値ではなく、最良のクラスタ数が動的に決定される。
(S3, S4)
Next, the
図10は、クラスタリングを説明する図の一例である。図10(a)はステップS2で特徴量に変換された各画像6の集合を模式的に示している。計算を容易にするため、画像6は1つのカメラ装置10に対し1枚でよい。
FIG. 10 is an example of a diagram illustrating clustering. FIG. 10A schematically shows a set of each
クラスタリングには局所的特徴量の分類に使用したK-means法を用いる他、ガウシアンミクスチャーモデルを利用したEMアルゴリズム、又は、LDA(Latent Dirichlet Allocation)等の方法を使用してもよい。なお、K-means法とEMアルゴリズムではクラスタ数を決定できない(適宜、与える必要がある)。これに対し、LDAではクラスタリングとクラスタ数を同時に決定することができる。本実施形態では、K-means法、又は、EMアルゴリズムによりクラスタリングされた例として、後述するStacked Auto Encoderを用いて最適なクラスタ数を決定する。 For clustering, the K-means method used for classifying local features may be used, or an EM algorithm using a Gaussian mixture model or a method such as LDA (Latent Dirichlet Allocation) may be used. The number of clusters cannot be determined by the K-means method and the EM algorithm (it is necessary to give them as appropriate). On the other hand, in LDA, clustering and the number of clusters can be determined at the same time. In this embodiment, the optimum number of clusters is determined by using the Stacked Auto Encoder described later as an example of clustering by the K-means method or the EM algorithm.
最良のクラスタ数を決定するため、クラスタ設定部33はクラスタ数iを変えてクラスタリングを行う。図10ではi=5,6,100のクラスタが模式的に示されている。クラスタ設定部33は、クラスタ数をi=5〜100としてクラスタリングを行う。図10(b)はクラスタ数をi=5、6及び100のクラスタリングの結果を模式的に示す。
In order to determine the best number of clusters, the
クラスタ数の設定の際は、クラスタ数iを1つずつ大きくしてもよいし、クラスタ数iを例えば10ずつ大きくし分離度がよくなるクラスタ数の周辺でより小さくクラスタ数iを変えて評価してもよい。 When setting the number of clusters, the number of clusters i may be increased by one, or the number of clusters i may be increased by, for example, 10 and evaluated by changing the number of clusters i smaller around the number of clusters where the degree of separation is improved. You may.
クラスタ数を評価するためクラスタ判定部35はクラスタリングを行うごとに分離度Rを算出する。図11は分離度Rを説明する図の一例である。本実施例では分離度Rの算出のため一例としてSAE(Stacked Auto Encoder)を利用する。図11ではクラスタ数i=4の場合を例にして説明する。クラスタリングでそれぞれのクラスタに2500枚の画像6が分類されたとする。クラスタの画像6の一部(例えば2000枚)を学習に使用し、残り(例えば500枚)を識別に使用する。
In order to evaluate the number of clusters, the
図12はSAEの学習方法を説明する図の一例である。まず、オートエンコーダ(Auto Encoder)とは、特徴を圧縮しても元のパターンへ復元が可能な特徴表現力があるネットワークをいう。したがって、オートエンコーダは特徴を圧縮して学習することができ、学習がうまくいくと入力層のデータが圧縮されても復元できる。SAEは、オートエンコーダが組み合わされた(積み重ねられた)ネットワークである。図12(a)はSAEの一例であり、図12(b)(c)(d)はオートエンコーダの一例である。通常、中間層が2層以上あると、不適切な極小解に収束してしまい誤差逆伝播がうまくいかない(これを勾配消失問題という)。SAEではこれを2層連続して計算するのではなくて、1層ずつ積み上げていくことで勾配消失問題に陥りにくくする。SAEの学習がうまくいくとSAEは画像6を復元できる。ただし、SAEは異常画像が入力された場合は復元できないので、画像6は正常な画像のみであるとする。
FIG. 12 is an example of a diagram illustrating a SAE learning method. First, the autoencoder is a network having a feature expressive power that can restore the original pattern even if the feature is compressed. Therefore, the autoencoder can compress the features for learning, and if the learning is successful, the data in the input layer can be restored even if it is compressed. SAE is a network in which autoencoders are combined (stacked). 12 (a) is an example of SAE, and FIGS. 12 (b), (c) and 12 (d) are examples of an autoencoder. Normally, if there are two or more intermediate layers, the error will converge to an inappropriate minimum solution and the error back propagation will not work (this is called the vanishing gradient problem). In SAE, this is not calculated continuously for two layers, but by stacking one layer at a time, it is difficult to fall into the vanishing gradient problem. If the learning of SAE is successful, SAE can restore
図12(a)に示すように入力層x、隠れ層y、隠れ層z、出力層sにかけて特徴(ノード)が減少することが特徴の圧縮に相当し、出力層s、隠れ層z´、隠れ層y´、入力層x´にかけてノード数が元に戻ることが元のパターンへの復元に相当する。SAEでこのようなニューラルネットワークのパラメータを学習する場合、図12(b)に示すオートエンコーダで、入力層xと隠れ層yの間のパラメータ(重み)を学習する。 As shown in FIG. 12A, the feature (node) decreases toward the input layer x, the hidden layer y, the hidden layer z, and the output layer s, which corresponds to the compression of the feature, and the output layer s, the hidden layer z', Restoring the number of nodes to the hidden layer y'and the input layer x'corresponds to restoration to the original pattern. When learning the parameters of such a neural network by SAE, the parameters (weights) between the input layer x and the hidden layer y are learned by the autoencoder shown in FIG. 12 (b).
次に、図12(a)の隠れ層yと隠れ層zのパラメータ(重み)を得るために、図12(b)のyを復元するように、図12(c)に示すオートエンコーダで隠れ層yと隠れ層zのパラメータ(重み)を学習する。次に、図12(a)の隠れ層zと出力層sのパラメータ(重み)を得るために、図12(c)のzを復元するように、図12(d)に示すオートエンコーダで隠れ層zと出力層sのパラメータ(重み)を学習する。以上で、図12(a)のSAEのパラメータ(重み)が学習される。 Next, in order to obtain the parameters (weights) of the hidden layer y and the hidden layer z in FIG. 12 (a), the autoencoder shown in FIG. 12 (c) is used to hide the y in FIG. 12 (b). The parameters (weights) of the layer y and the hidden layer z are learned. Next, in order to obtain the parameters (weights) of the hidden layer z of FIG. 12 (a) and the output layer s, the autoencoder shown in FIG. 12 (d) is used to hide the z of FIG. 12 (c). The parameters (weights) of the layer z and the output layer s are learned. With the above, the parameters (weights) of SAE shown in FIG. 12A are learned.
図11に戻って説明する。識別用の500枚の画像6をx、SAEを関数f()で表してSAEの出力をf(x)とする。スコアSを以下で定義する。iはクラスタの番号である。スコアSは画像6の特徴量の空間におけるL2ノルム(距離)の二乗である。
It will be described back to FIG. The 500
次に、全クラスタの分離度Rを次のように定義する。 Next, the degree of separation R of all clusters is defined as follows.
なお、SAE以外でクラスタ数を決定する方法としては、AIC(Akaike’s Information Criterion)、BIC(Bayesian Information Criterion)などがある。
(S5)
次に、学習部34は、クラスタリングされた画像6から異常判定するための学習モデルを作成する。異常判定するため、学習部34は正常な画像6のみを学習する。
(S5)
Next, the
図13は画像6から異常の有無を判定する学習モデルを模式的に示す。本実施形態では一例としてディープラーニングとSVMを組み合わせた学習モデルを説明する。図13に示すように、ディープラーニングのための多層パーセプトロンの入力層301には1つの画像6が均等に分割されたパッチ領域が入力される。学習フェーズでは出力層303に画像6が正常であることを意味する値(例えば1)が入力される。多層パーセプトロンにおいて入力層301と中間層302と出力層303の重みの学習には誤差逆伝播法が用いられることが一般的である。なお、出力層303のノードの数は、画像6の特徴を適切に抽出できる数として適宜、設計される。出力層303の各ノードの出力値は動体の特徴を表す値に数値化されるが詳細は図14で説明する。
FIG. 13 schematically shows a learning model for determining the presence or absence of an abnormality from the
SVM305は本来2クラス判別を行う教師付き学習のアルゴリズムであるが、SVMは1クラスSVMとしても利用可能である。1クラスSVMでは、2クラス判別がデータの高密度領域を推定する領域判別問題に置き換えられるので、教師信号が不要になる。サポートベクトルの算出にはラグランジュの未定定数法が使用されるが詳細は省略する。図に示すように正常な特徴ベクトルの領域を特定できるため、この領域から外れるほど異常の可能性が高いと異常判定部36が判定できる。
The SVM305 is originally a supervised learning algorithm that discriminates between two classes, but the SVM can also be used as a one-class SVM. In the 1-class SVM, the 2-class discrimination is replaced by the region discrimination problem for estimating the high-density region of the data, so that the teacher signal becomes unnecessary. The Lagrange's undetermined constant method is used to calculate the support vector, but details are omitted. Since the region of the normal feature vector can be specified as shown in the figure, the
なお、学習はステップS3でクラスタリングされた同じクラスタの画像6ごとに行われる。したがって、シーンごとに正常であることを学習した学習モデルが得られる。
The learning is performed for each
図14は、図13の学習の手順をより詳細に説明する図の一例である。図14(a)は各クラスタ71の複数の画像6を模式的に示す。図14(a)のクラスタ71はいずれも駐車場の画像6が分類されるクラスタであるが、車の移動、歩行などのシーンごとにクラスタリングされている。なお、それぞれ正常行動のみの画像6である。図14(b)に示すように、学習部34は1枚の画像6をパッチ領域(縦横均等に分割)に分割し、図13に示した多層パーセプトロンの入力層301に入力する。パッチ領域に分割することで、シーンの構造を考慮する必要がなくなるという利点がある。例えば、出庫する車はどちらの方向から移動しても同じ特徴になる。図14(b)では移動中の車が写っているパッチ領域304を太枠で示した。パッチ領域ごとに特徴抽出した場合、車などが動くと、同じ車が異なる画像6の異なるパッチ領域で検出される。したがって、学習部34は抽出された特徴量により同じ車を異なる画像間で追跡することができる。
FIG. 14 is an example of a diagram for explaining the learning procedure of FIG. 13 in more detail. FIG. 14A schematically shows a plurality of
学習部34は、多層パーセプトロンの出力層303から得られた特徴量から時刻tの画像6の各パッチ領域の特徴量を取得し、時刻t−1,t−2…などの過去の画像6の特徴量とマッチングする。これにより、車がどのパッチ領域に移動したか判定できる。例えば、1つ前の画像6(動画の1フレーム)では左端のパッチ領域にあった車が右に1パッチ領域移動したことが分かる。以上から、図14(c)に示すように、移動している車の形状(特徴量)、及び、動き(移動速度)を数値化できる。車の形状を表す特徴量はディープラーニングにより抽出される。移動速度は、nパッチ領域/1画像、nパッチ領域/1秒、nメートル/1秒、などのように扱いやすい単位で算出すればよい。このように形状(特徴量)、及び、動き(移動速度)が数値化されSVM305に入力される。異常が発生する場合は何らかの動きがあるので、動体が検出されている(移動速度がゼロより大きい)パッチ領域のみから特徴を抽出すればよい。
The
学習部34は以上のようにしてクラスタごとに全ての画像6を学習し学習モデルC1〜Cnを作成する。
As described above, the
<異常検出時の機能について>
学習モデルC1〜Cnが得られると、情報処理装置30は動画に対し異常判定を開始する。図15は、異常判定に関する情報処理装置30の機能ブロック図の一例である。図15の情報処理装置30は通信部31、異常判定部36(区別する場合異常判定部1〜nという)、異常判定部x及び判定結果処理部37を有する。まず、異常判定部1〜nは、それぞれ学習モデルC1〜Cnを有している。nは図7のステップS3、S4のクラスタ数である。クラスタ判定部35はそれぞれの既存設置場所8の画像6から局所的特徴量と大域的特徴量を求めることで既存設置場所8の画像6が最も近いクラスタを決定できる。クラスタと既存設置場所8(カメラID)の対応は表1に示した。既存設置場所8と学習モデルの対応付けは、異常判定の開始前に1回行えばよい。
<Functions when anomaly is detected>
When the learning models C1 to Cn are obtained, the
通信部31は、学習モデルC1〜CnとカメラIDの対応に基づいて、各既存設置場所8から送信された画像6を異常判定部1〜nに割り振る。この時、日中か夜間かのラベルを参照し、日中用の異常判定部36又は夜間用の異常判定部36に割り振ることが更に好ましい。新規設置場所7と学習モデルの対応付けは、異常判定の開始前に1回行えばよい。
The
異常判定部xは、新規設置場所7のカメラの画像6を異常判定する。異常判定部xは学習モデルCxを有している。同様に、クラスタ判定部35は新規設置場所7の画像6から局所的特徴量と大域的特徴量を求めることで新規設置場所7の画像6が最も近いクラスタを決定できる。日中と夜間の判別も異常判定部1〜nと同様でよい。
The abnormality determination unit x determines the abnormality of the
異常判定部1〜n及び異常判定部xは割り当てられている学習モデルを使用して正常な画像6にどれだけ近いかを示す確度を算出する。確度は例えば0〜1の値を取り、正常に近いほど高い値となる。
The
判定結果処理部37は、異常判定部1〜n及び異常判定部xが算出する確度を取得し、異常があるか否かを判定する。例えば、確度が閾値未満の場合に異常があると判定すればよい。異常があると判定した場合、警備員の派遣や顧客へ異常がある旨を通知したりする。
The determination
<既存設置場所の異常検出>
図16は既存設置場所8の異常検出を模式的に説明する図の一例である。図16では既存設置場所8aを例にするが、他の既存設置場所8も同様である。
(1)クラスタ判定部35は、既存設置場所8aのカメラ装置10が撮像した画像6をクラスタリングすることで、日中と夜間それぞれの画像6に適した学習モデルを判定する。
(2)異常検出の開始後、既存設置場所8aのカメラ装置10は動画を情報処理装置30に送信する。動画には日中又は夜間のラベルが付与されているものとする。情報処理装置30が日中又は夜間を判定してもよい。
(3)既存設置場所8aに対応する異常判定部36は、既存設置場所8の日中又は夜間に割り当てられた学習モデルを使って、画像6の異常の有無を判定する。
(4)異常判定部36による判定結果(確度)は判定結果処理部37に送出される。
<Abnormality detection of existing installation location>
FIG. 16 is an example of a diagram schematically illustrating abnormality detection at the existing installation location 8. In FIG. 16, the existing
(1) The
(2) After the start of abnormality detection, the
(3) The
(4) The determination result (accuracy) by the
このように、既存設置場所8aの画像6に対しても、クラスタリングされた画像6から作成された学習モデルを使って異常判定することができるので、より精度よく異常判定することが可能になる。
In this way, even for the
<新規設置場所の異常検出>
図17は新規設置場所7の異常検出を模式的に説明する図の一例である。
(1)クラスタ判定部35は、新規設置場所7のカメラ装置10が撮像した画像6をクラスタリングすることで、日中と夜間それぞれの画像6に適した学習モデルを判定する。
(2)異常検出の開始後、新規設置場所7のカメラ装置10は動画を情報処理装置30に送信する。動画には日中又は夜間のラベルが付与されているものとする。情報処理装置30が日中又は夜間を判定してもよい。
(3)新規設置場所7の異常判定部36は、新規設置場所7の日中又は夜間に割り当てられた学習モデルを使って、画像6の異常の有無を判定する。
(4)異常判定部36による判定結果(確度)は判定結果処理部37に送出される。
<Abnormal detection of new installation location>
FIG. 17 is an example of a diagram schematically illustrating abnormality detection at the
(1) The
(2) After the start of abnormality detection, the
(3) The
(4) The determination result (accuracy) by the
このように、新規設置場所7にカメラ装置10が新たに設置された場合、既存設置場所8の画像6をクラスタリングして得た学習モデルを使って異常判定することができるので、カメラ装置10が新たに設置された当初から、精度よく異常判定することが可能になる。
In this way, when the
<判定結果の処理例>
図18を用いて判定結果処理部37の処理について説明する。図18は、判定結果処理部37が行う処理を模式的に説明する図の一例である。
(1)上記のように画像6が異常判定部36に入力される。異常判定部36は、異常の判定結果と共にカメラ装置10の設置場所に関する情報(例えば、顧客IDや顧客名)及び異常の判定に用いた動画を判定結果処理部37に送出する。
(2)判定結果処理部37は異常の判定結果と閾値を比較し、異常の可能性が高いか否かを判定する。異常の可能性が高いと判定した場合、少なくとも動画の一部と判定結果を顧客及び警備員に送信する。送信の前に監視員が目視で動画を確認することがより好ましい。なお、送信先は、警備員を派遣する司令塔となるガードセンター、警備員が常駐している待機所、現地周辺の警備員、顧客、などである。
<Judgment result processing example>
The processing of the determination
(1) The
(2) The determination
図18では、顧客又は警備員等が有する携帯端末74a、74bの画面例が示されている。携帯端末74aの画面には「異常度80%」というメッセージ401、動画表示欄402、及び、動画の再生ボタン403等が表示されている。顧客や警備員はメッセージや動画を目視して適切な対応を取ることができる。携帯端末74bには複数のカメラ装置10のうち1つのカメラ装置10が強調して表示されている。このように、1つの設置場所に複数のカメラ装置10が設置されている場合、どのカメラ装置10で異常が検出されたかを表示することで、顧客や警備員は異常の発生場所を特定しやすくなる。
(3)顧客や警備員は必要に応じて警察に通報したり、警備員が現地に赴いて確認したりする。警備員が現地に赴いたが正常であった場合、警備員はその旨を判定結果処理部37に通知する(フィードバックする)。通知の際は、携帯端末74a、74bに送信された動画(又はこの動画を特定できる情報)を判定結果処理部37に送信する。学習部34はこの動画が正常であることを教師信号にして学習できるため、異常検出の精度を向上させることができる。
FIG. 18 shows screen examples of
(3) Customers and security guards report to the police as necessary, and security guards go to the site to check. If the guard goes to the site but is normal, the guard notifies (feeds back) the determination
<カメラ装置における学習モデルの利用方法>
本実施形態では監視センターで異常を判定していたが、カメラ装置10が異常を判定することも可能である。
<How to use the learning model in the camera device>
In the present embodiment, the monitoring center determines the abnormality, but the
図19(a)は新規設置場所7のカメラ装置10が学習モデルCxを使用して異常判定する手順を示す。
(1)新規設置場所7のカメラ装置10は画像6を撮像する。少なくとも1枚の画像6があればよく動画である必要はない。
(2)カメラ装置10は画像6を情報処理装置30に送信する。
(3)情報処理装置30は画像6を記憶しておく。
(4)情報処理装置30は新規設置場所7の画像6がどのクラスタに当てはまるかを判定する。
(5)情報処理装置30は当てはまると判定した学習モデルCxをカメラ装置10に送信する。カメラ装置10はこの学習モデルCxを使って異常判定するので、異常判定フェーズでは動画を情報処理装置30に送信する必要がない。
FIG. 19A shows a procedure in which the
(1) The
(2) The
(3) The
(4) The
(5) The
図19(b)は新規設置場所7のカメラ装置10が撮像した画像6を使用して異常判定する手順を示す。新規設置場所7のカメラ装置10もある程度の時間が経過すると、学習に十分な画像6を撮像することができる。
(1)新規設置場所7のカメラ装置10は画像6を撮像する。異常判定するための画像6であるため、複数の画像6(動画)であることが好ましい。
(2)カメラ装置10は画像6を情報処理装置30に送信する。
(3)情報処理装置30は複数の画像6を記憶しておく。
(4)情報処理装置30はある程度の画像6が蓄積されると正常な画像6を学習し学習モデルCx(Ver2.0)を作成する。
(5)情報処理装置30は作成した学習モデルCx(Ver2.0)を新規設置場所7のカメラ装置10に送信する。
(6)カメラ装置10はこの学習モデルCx(Ver2.0)を使って異常判定することができる。元の学習モデルCxと併用してもよい。併用する場合、元の学習モデルCxと学習モデルCx(Ver2.0)の一方でも異常と判定した場合、異常を監視センターに送信する。これにより失報を低減できる。
FIG. 19B shows a procedure for determining an abnormality using the
(1) The
(2) The
(3) The
(4) When the
(5) The
(6) The
図19で説明したように、新規設置場所7のカメラ装置10は設置された直後から異常判定が可能であり、時間が経過すると設置された場所で撮像した画像6の学習モデルで異常判定できる。
As described with reference to FIG. 19, the
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
Although the best mode for carrying out the present invention has been described above with reference to examples, the present invention is not limited to these examples, and various modifications are made without departing from the gist of the present invention. And substitutions can be made.
本実施形態では画像6に基づく異常検出が行われたが、情報処理装置30は音を識別して異常を検出することも可能である。この場合、カメラ装置10は音を集音するマイク等を有している。カメラ装置10が収集した音データは画像6と共に情報処理装置30に送信される。情報処理装置30は正常な音データを学習しておき、異常か否かを判定する。この場合も、新規設置場所7への設置の直後から異常を検出できる。
In the present embodiment, the abnormality detection is performed based on the
また、図2のシステム構成図ではカメラ装置10と情報処理装置30が別体であるが、図19にて説明したように、カメラ装置10と情報処理装置30は一体でもよい。
Further, although the
また、同じ場所のカメラ装置10でも日中と夜間の画像は異なるクラスタに分類され得ることを説明したが、より細かく時間帯ごとに異なるクラスタに分類されてもよい。また、天候、季節ごとに異なるクラスタに分類されてもよい。このように、クラスタ設定部33はカメラ装置10が画像を撮像する環境に応じて各画像を適切なクラスタに分類できる。
Further, although it has been explained that the daytime and nighttime images can be classified into different clusters even with the
また、図6、15などの構成例は、カメラ装置10と情報処理装置30による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。カメラ装置10と情報処理装置30の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。
Further, the configuration examples shown in FIGS. 6 and 15 are divided according to the main functions in order to facilitate understanding of the processing by the
また、図6,15では情報処理装置30が一台であるが、同じ情報処理装置30が複数台、存在してもよいし、複数の情報処理装置30に図6,15の機能が分散されていてもよい。
Further, although there is one
なお、通信部31,画像蓄積部32は画像取得手段の一例であり、クラスタ設定部33は分類手段の一例であり、学習部34は学習手段の一例であり、異常判定部36は異常判定手段の一例であり、学習モデルCx(Ver2.0)を用いた異常判定部36は第二の異常判定手段の一例であり、クラスタ判定部35は決定手段の一例である。
The
6 :画像
7 :新規設置場所
8 :既存設置場所
9 :監視センター
10 :カメラ装置
30 :情報処理装置
100 :画像処理システム
6: Image 7: New installation location 8: Existing installation location 9: Monitoring center 10: Camera device 30: Information processing device 100: Image processing system
Claims (10)
異なる設置場所に設置された複数の第一の撮像装置から前記画像を取得する画像取得手段と、
特徴が類似する前記画像をそれぞれクラスタに分類する分類手段と、
前記クラスタに分類された前記画像を学習して異常を検出する異常判定手段を前記クラスタごとに構築する学習手段と、
前記第一の撮像装置とは異なる設置場所に設置された第二の撮像装置が撮像した前記画像と類似する前記第一の撮像装置の画像が分類された前記クラスタを判定し、該クラスタに分類された前記画像から構築された前記異常判定手段を決定する決定手段と、を有し、
前記決定手段が決定した前記異常判定手段は、前記第二の撮像装置が撮像した前記画像から異常の有無を判定する画像処理システム。 An image processing system that detects anomalies from images captured by an image pickup device.
An image acquisition means for acquiring the image from a plurality of first image pickup devices installed at different installation locations, and an image acquisition means.
A classification means for classifying the images having similar characteristics into clusters, and
A learning means for constructing an abnormality determination means for detecting an abnormality by learning the images classified into the cluster for each cluster, and a learning means.
The cluster in which the image of the first image pickup device similar to the image taken by the second image pickup device installed in the installation location different from the first image pickup device is classified is determined and classified into the cluster. It has a determination means for determining the abnormality determination means constructed from the image, and
The abnormality determination means determined by the determination means is an image processing system that determines the presence or absence of an abnormality from the image captured by the second imaging device.
前記分離度が最も小さくなる前記数を決定し、前記数の前記クラスタに前記第一の撮像装置が撮像した前記画像を分類する請求項2に記載の画像処理システム。 The classification means classifies the image from which the local feature amount and the global feature amount are extracted into several numbers of the clusters, and calculates the degree of separation at which the classification becomes appropriately small.
The image processing system according to claim 2 , wherein the number having the smallest degree of separation is determined, and the images captured by the first image pickup apparatus are classified into the clusters of the number.
前記学習手段は、前記環境に応じて異なる前記クラスタに分類された前記画像から前記異常判定手段を構築する請求項1〜4のいずれか1項に記載の画像処理システム。 The classification means classifies the image captured by the first imaging device at the same installation location into the clusters different depending on the environment in which the image is captured.
The image processing system according to any one of claims 1 to 4 , wherein the learning means constructs the abnormality determination means from the images classified into the clusters different according to the environment.
前記領域の特徴に基づき前記画像に写っている対象の形状と動きを数値化し、
前記対象の形状と動きを正常であると分類する前記異常判定手段をSVM(サポートベクトルマシン)で構築する請求項1〜4のいずれか1項に記載の画像処理システム。 The learning means extracts the features of the image divided into regions by deep learning.
Based on the characteristics of the area, the shape and movement of the object shown in the image are quantified.
The image processing system according to any one of claims 1 to 4 , wherein the abnormality determination means for classifying the shape and movement of the target as normal is constructed by an SVM (support vector machine).
特徴が類似する前記画像をそれぞれクラスタに分類する分類手段と、
前記クラスタに分類された前記画像を学習して異常を検出する異常判定手段を前記クラスタごとに構築する学習手段と、を有する情報処理装置から学習モデルを取得して、撮像した画像から異常検出を行う撮像装置であって、
前記画像を前記情報処理装置に送信して、前記画像の特徴が類似する前記画像が分類された前記クラスタから構築された前記異常判定手段を取得し、
前記情報処理装置から取得した前記異常判定手段により撮像した画像の異常の有無を判定することを特徴とする撮像装置。 Image acquisition means for acquiring images from multiple other imaging devices installed at different installation locations, and
A classification means for classifying the images having similar characteristics into clusters, and
A learning model is acquired from an information processing device having a learning means for constructing an abnormality determination means for learning an abnormality by learning the images classified into the clusters for each cluster, and abnormality detection is performed from the captured image. It is an imaging device to perform
The image is transmitted to the information processing apparatus to acquire the abnormality determination means constructed from the cluster in which the images having similar characteristics of the images are classified.
An image pickup apparatus characterized in that it determines the presence or absence of an abnormality in an image captured by the abnormality determination means acquired from the information processing apparatus.
前記第二の異常判定手段と前記異常判定手段の両方で異常判定を行うことを特徴とする請求項7に記載の撮像装置。 A second abnormality determination means constructed from the image captured by the image pickup device is acquired from the information processing device.
The imaging device according to claim 7 , wherein the abnormality determination is performed by both the second abnormality determination means and the abnormality determination means.
画像取得手段が、異なる設置場所に設置された複数の第一の撮像装置から前記画像を取得するステップと、
分類手段が、特徴が類似する前記画像をそれぞれクラスタに分類するステップと、
学習手段が、前記クラスタに分類された前記画像を学習して異常を検出する異常判定手段を前記クラスタごとに構築するステップと、
決定手段が、前記第一の撮像装置とは異なる設置場所に設置された第二の撮像装置が撮像した前記画像と類似する前記画像が分類された前記クラスタを判定し、該クラスタから構築された前記異常判定手段を決定するステップと、
決定された前記異常判定手段が、前記第二の撮像装置が撮像した前記画像から異常の有無を判定するステップと、を有する学習モデル作成方法。 It is a learning model creation method performed by an image processing system that detects anomalies from images captured by an image pickup device.
A step in which the image acquisition means acquires the image from a plurality of first image pickup devices installed at different installation locations, and
A step in which the classification means classifies the images having similar characteristics into clusters, respectively.
A step in which the learning means constructs an abnormality determination means for each of the clusters by learning the images classified into the clusters and detecting an abnormality.
The determining means determined the cluster in which the image similar to the image captured by the second imaging device installed at the installation location different from the first imaging device was classified, and was constructed from the cluster. The step of determining the abnormality determination means and
A learning model creation method in which the determined abnormality determination means has a step of determining the presence or absence of an abnormality from the image captured by the second imaging device.
異なる設置場所に設置された複数の第一の撮像装置から前記画像を取得する画像取得手段と、
特徴が類似する前記画像をそれぞれクラスタに分類する分類手段と、
前記クラスタに分類された前記画像を学習して異常を検出する異常判定手段を前記クラスタごとに構築する学習手段と、
前記第一の撮像装置とは異なる設置場所に設置された第二の撮像装置が撮像した前記画像と類似する前記画像が分類された前記クラスタを判定し、該クラスタから構築された前記異常判定手段を決定する決定手段と、を有し、
前記決定手段が決定した前記異常判定手段は、前記第二の撮像装置が撮像した前記画像から異常の有無を判定する情報処理装置。 An information processing device that creates a learning model that detects anomalies from images captured by the image pickup device.
An image acquisition means for acquiring the image from a plurality of first image pickup devices installed at different installation locations, and an image acquisition means.
A classification means for classifying the images having similar characteristics into clusters, and
A learning means for constructing an abnormality determination means for detecting an abnormality by learning the images classified into the cluster for each cluster, and a learning means.
The abnormality determination means constructed from the cluster is determined by determining the cluster in which the image similar to the image captured by the second image pickup device installed at an installation location different from the first image pickup apparatus is classified. anda determining means for determining a,
The abnormality determination means determined by the determination means is an information processing device that determines the presence or absence of an abnormality from the image captured by the second imaging device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017073011A JP6905850B2 (en) | 2017-03-31 | 2017-03-31 | Image processing system, imaging device, learning model creation method, information processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017073011A JP6905850B2 (en) | 2017-03-31 | 2017-03-31 | Image processing system, imaging device, learning model creation method, information processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018173914A JP2018173914A (en) | 2018-11-08 |
JP6905850B2 true JP6905850B2 (en) | 2021-07-21 |
Family
ID=64107841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017073011A Active JP6905850B2 (en) | 2017-03-31 | 2017-03-31 | Image processing system, imaging device, learning model creation method, information processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6905850B2 (en) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7001419B2 (en) * | 2017-10-13 | 2022-01-19 | ホーチキ株式会社 | Abnormality judgment system, monitoring device, abnormality judgment method, and program |
JP7106997B2 (en) * | 2018-06-04 | 2022-07-27 | 日本電信電話株式会社 | Data analysis system and data analysis method |
JP7198052B2 (en) * | 2018-11-09 | 2022-12-28 | セコム株式会社 | image surveillance system |
JP7161920B2 (en) * | 2018-11-09 | 2022-10-27 | セコム株式会社 | store equipment |
JP6867701B2 (en) * | 2018-12-03 | 2021-05-12 | 株式会社チームボックス | Monitoring equipment, monitoring system, monitoring method and monitoring program |
WO2020148889A1 (en) * | 2019-01-18 | 2020-07-23 | 日本電気株式会社 | Information processing device |
JP7267756B2 (en) * | 2019-01-24 | 2023-05-02 | 株式会社リクルート | Surveillance equipment and drones |
JP7169894B2 (en) * | 2019-02-01 | 2022-11-11 | 日産自動車株式会社 | Image processing method, image processing device, and object recognition method |
JP7212257B2 (en) * | 2019-02-12 | 2023-01-25 | オムロン株式会社 | Surveillance system, image licensing method, and image usage licensing program |
JP6737997B1 (en) * | 2019-03-14 | 2020-08-12 | Navier株式会社 | Image processing learning program, image processing program, information processing apparatus, and image processing system |
JP2020160608A (en) * | 2019-03-25 | 2020-10-01 | 株式会社日立製作所 | Abnormality detection system |
JP7279817B2 (en) * | 2019-04-17 | 2023-05-23 | 日本電気株式会社 | Image processing device, image processing method and image processing program |
JP7452879B2 (en) | 2019-04-25 | 2024-03-19 | 国立大学法人静岡大学 | Prediction system, prediction method, and prediction program |
KR102276086B1 (en) * | 2019-10-04 | 2021-07-12 | 에스케이텔레콤 주식회사 | Method and Apparatus for Detecting Anomaly from Security Video |
JP2021077486A (en) * | 2019-11-06 | 2021-05-20 | パナソニックIpマネジメント株式会社 | Illumination device, illumination control system, and, stadium |
JP6742623B1 (en) * | 2019-11-13 | 2020-08-19 | 尚範 伊達 | Monitoring device, monitoring method, and program |
JP6994224B2 (en) * | 2020-04-15 | 2022-01-14 | 株式会社Ridge-i | Information processing equipment, information processing methods and information processing programs |
US20230316701A1 (en) * | 2020-08-19 | 2023-10-05 | Nec Corporation | Reference state deciding device, state determination system, reference state deciding method, and non-transitory computer readable medium |
US11854187B2 (en) | 2020-10-13 | 2023-12-26 | Mitsubishi Electric Corporation | Model generation device, abnormality determination device, abnormality determination system, model generation method, and recording medium |
CN113992778B (en) * | 2021-09-30 | 2023-12-26 | 紫光展锐(重庆)科技有限公司 | Equipment detection method, device, chip and module equipment |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008001889A1 (en) * | 2006-06-29 | 2008-01-03 | Fujitsu Limited | Color classifying method, color recognizing method, color classifying device, color recognizing device, color recognizing system, computer program, and recording medium |
JP5401695B2 (en) * | 2011-05-23 | 2014-01-29 | 株式会社モルフォ | Image identification device, image identification method, image identification program, and recording medium |
JP5923723B2 (en) * | 2011-06-02 | 2016-05-25 | パナソニックIpマネジメント株式会社 | Person attribute estimation system, person attribute estimation apparatus, and person attribute estimation method |
JP6299299B2 (en) * | 2014-03-14 | 2018-03-28 | オムロン株式会社 | Event detection apparatus and event detection method |
-
2017
- 2017-03-31 JP JP2017073011A patent/JP6905850B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018173914A (en) | 2018-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6905850B2 (en) | Image processing system, imaging device, learning model creation method, information processing device | |
CN110428522B (en) | Intelligent security system of wisdom new town | |
US11195067B2 (en) | Systems and methods for machine learning-based site-specific threat modeling and threat detection | |
US10812761B2 (en) | Complex hardware-based system for video surveillance tracking | |
CN109686109B (en) | Parking lot safety monitoring management system and method based on artificial intelligence | |
CN112132045B (en) | Community personnel abnormal behavior monitoring scheme based on computer vision | |
CN104040601B (en) | Video monitor based on cloud management system | |
US8744125B2 (en) | Clustering-based object classification | |
US20190087464A1 (en) | Regional population management system and method | |
CN109154976A (en) | Pass through the system and method for machine learning training object classifier | |
US20030058111A1 (en) | Computer vision based elderly care monitoring system | |
KR102333143B1 (en) | System for providing people counting service | |
KR102260123B1 (en) | Apparatus for Sensing Event on Region of Interest and Driving Method Thereof | |
CN110674761B (en) | Regional behavior early warning method and system | |
CN111047824B (en) | Indoor child nursing linkage control early warning method and system | |
CN110852148A (en) | Visitor destination verification method and system based on target tracking | |
CA3196344A1 (en) | Rail feature identification system | |
US20210319226A1 (en) | Face clustering in video streams | |
US20220335725A1 (en) | Monitoring presence or absence of an object using local region matching | |
KR102647328B1 (en) | Edge-type surveillance camera AI abnormal situation detection and control device and method | |
CN112330742A (en) | Method and device for recording activity routes of key personnel in public area | |
US20230360402A1 (en) | Video-based public safety incident prediction system and method therefor | |
WO2022059223A1 (en) | Video analyzing system and video analyzing method | |
KR20220031258A (en) | A method for providing active security control service based on learning data corresponding to counseling event | |
JP2021097308A (en) | Degree of risk determination program and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210622 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210628 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6905850 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |