Nothing Special   »   [go: up one dir, main page]

JP2021081790A - Recognition device and recognition method - Google Patents

Recognition device and recognition method Download PDF

Info

Publication number
JP2021081790A
JP2021081790A JP2019206347A JP2019206347A JP2021081790A JP 2021081790 A JP2021081790 A JP 2021081790A JP 2019206347 A JP2019206347 A JP 2019206347A JP 2019206347 A JP2019206347 A JP 2019206347A JP 2021081790 A JP2021081790 A JP 2021081790A
Authority
JP
Japan
Prior art keywords
recognition
data
sensor
recognition device
feature map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019206347A
Other languages
Japanese (ja)
Other versions
JP2021081790A5 (en
JP7444585B2 (en
Inventor
加藤 政美
Masami Kato
政美 加藤
克彦 森
Katsuhiko Mori
克彦 森
野村 修
Osamu Nomura
修 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019206347A priority Critical patent/JP7444585B2/en
Publication of JP2021081790A publication Critical patent/JP2021081790A/en
Publication of JP2021081790A5 publication Critical patent/JP2021081790A5/ja
Application granted granted Critical
Publication of JP7444585B2 publication Critical patent/JP7444585B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

To provide a technology allowing robust recognition of data.SOLUTION: Features are hierarchically extracted from data acquired from a sensor, and a recognition result to the data is obtained on the basis of the result of the extraction. An acquiring condition of the data from the sensor is controlled on the basis of the result of the extraction.SELECTED DRAWING: Figure 1

Description

本発明は、認識技術に関するものである。 The present invention relates to a recognition technique.

Convolutional Neural Network(以下CNNと略記する)に代表される階層的な演算手法(深層学習技術に基づくパターン認識手法)が認識対象の変動に対して頑健なパターン認識を可能にする手法として注目されている。例えば、非特許文献1では様々な応用例・実装例が開示されている。 A hierarchical calculation method (pattern recognition method based on deep learning technology) represented by Convolutional Neural Network (hereinafter abbreviated as CNN) is attracting attention as a method that enables robust pattern recognition against fluctuations in the recognition target. There is. For example, Non-Patent Document 1 discloses various application examples and implementation examples.

しかしながら、CNNのような強力な演算手法を利用した場合であっても、認識対象の撮影環境(コントラストやボケ等)によっては十分な認識性能を引き出せない場合がある。 However, even when a powerful calculation method such as CNN is used, sufficient recognition performance may not be obtained depending on the shooting environment (contrast, blur, etc.) of the recognition target.

撮影環境の大きな変動に対応する手法として、特許文献1には、撮影デバイスの撮影条件を所定期間毎に変化させて画像中の顔検出確率を向上させる手法が開示されている。また、特許文献2には、顔検出の結果に基づいて撮像デバイスのゲインや露光時間を制御し、検出した人物の属性認識処理に好適な条件で画像データを再取得する手法が開示されている。 As a method for dealing with a large change in the shooting environment, Patent Document 1 discloses a method for improving the face detection probability in an image by changing the shooting conditions of the shooting device at predetermined intervals. Further, Patent Document 2 discloses a method of controlling the gain and exposure time of an imaging device based on the result of face detection and reacquiring image data under conditions suitable for attribute recognition processing of the detected person. ..

特開2014-127999号公報Japanese Unexamined Patent Publication No. 2014-127999 特開2017-098746号公報JP-A-2017-098746

Yann LeCun, Koray Kavukvuoglu and Clement Farabet: Convolutional Networks and Applications in Vision, Proc. International Symposium on Circuits and Systems (ISCAS'10), IEEE, 2010,Yann LeCun, Koray Kavacvuoglu and Clement Farabet: Convolutional Networks and Applications in Vision, Proc. International Symposium on Circuits and Systems (ISCAS'10), IEEE, 2010,

特許文献1に開示されている手法は、撮影条件を所定期間毎に変更するだけであり、パターン認識にとって常に最適な画像取得となるわけではない。また、特許文献2に開示されている手法は、撮影条件を変更するテーブルを事前に決定しておく必要があり、撮影環境の多様な変動に対して最適な条件の変更テーブルを決定することは困難である。また、最適な撮影条件が同一フレーム画像の領域毎に異なる場合に対応することができない。本発明では、データに対するロバストな認識を可能にする技術を提供する。 The method disclosed in Patent Document 1 only changes the photographing conditions at predetermined intervals, and does not always obtain the optimum image for pattern recognition. Further, in the method disclosed in Patent Document 2, it is necessary to determine in advance the table for changing the shooting conditions, and it is not possible to determine the changing table for the optimum conditions for various fluctuations in the shooting environment. Have difficulty. In addition, it is not possible to deal with the case where the optimum shooting conditions are different for each region of the same frame image. The present invention provides a technique that enables robust recognition of data.

本発明の一様態は、センサから取得したデータから階層的に特徴を抽出し、該抽出の結果に基づいて該データに対する認識結果を取得する認識手段と、前記抽出の結果に基づいて前記センサからのデータの取得条件を制御する制御手段とを備えることを特徴とする。 The uniformity of the present invention is a recognition means for hierarchically extracting features from data acquired from a sensor and acquiring a recognition result for the data based on the extraction result, and from the sensor based on the extraction result. It is characterized in that it is provided with a control means for controlling the data acquisition conditions of the above.

本発明の構成によれば、データに対するロバストな認識を可能にする技術を提供することができる。 According to the configuration of the present invention, it is possible to provide a technique that enables robust recognition of data.

認識装置201のより詳細な構成を示すブロック図。FIG. 3 is a block diagram showing a more detailed configuration of the recognition device 201. 画像処理システムの構成例を示すブロック図。A block diagram showing a configuration example of an image processing system. 処理部101の論理的な処理構造を含む認識装置201の構成例を示すブロック図。FIG. 3 is a block diagram showing a configuration example of a recognition device 201 including a logical processing structure of the processing unit 101. 演算処理303〜307を実現するための構成を示すブロック図。The block diagram which shows the structure for realizing the arithmetic processing 303 to 307. 画像処理システムによるパターン認識処理の動作を示すタイミングチャート。A timing chart showing the operation of pattern recognition processing by the image processing system. (a)は積層デバイスの例を示す図、(b)はロジック層62の一例を示す図。(A) is a diagram showing an example of a laminated device, and (b) is a diagram showing an example of a logic layer 62. 認識装置201の構成例を示すブロック図。FIG. 6 is a block diagram showing a configuration example of the recognition device 201. ロジック層62に対応する制御データの一例を示す図。The figure which shows an example of the control data corresponding to the logic layer 62. 認識装置201の動作を示すフローチャート。The flowchart which shows the operation of the recognition device 201.

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate explanations are omitted.

[第1の実施形態]
先ず、本実施形態に係る画像処理システムの構成例について、図2のブロック図を用いて説明する。本実施形態に係る画像処理システムは、撮像デバイスを用いて物体を撮像した撮像画像から該物体を認識すると共に、該認識のために該撮像画像から抽出した特徴に基づいて該撮像デバイスからの撮像画像の取得条件を制御する。
[First Embodiment]
First, a configuration example of the image processing system according to the present embodiment will be described with reference to the block diagram of FIG. The image processing system according to the present embodiment recognizes the object from the captured image obtained by capturing the object using the imaging device, and images the object from the imaging device based on the features extracted from the captured image for the recognition. Controls image acquisition conditions.

CPU(Central Prosessing Unit)205は、ROM(Read Only Memory)206やRAM(Random Access Memory)207に格納されているコンピュータプログラムやデータを用いて各種の処理を実行する。これによりCPU205は、画像処理システム全体の動作制御を行うと共に、画像処理システムが行うものとして後述する各処理を実行若しくは制御する。 The CPU (Central Processing Unit) 205 executes various processes using computer programs and data stored in a ROM (Read Only Memory) 206 and a RAM (Random Access Memory) 207. As a result, the CPU 205 controls the operation of the entire image processing system, and also executes or controls each process described later as what the image processing system performs.

ROM206には、画像処理システムの起動プログラムや設定データ、画像処理システムが行うものとして後述する各処理をCPU205に実行若しくは制御させるためのコンピュータプログラムやデータが格納されている。ROM206に格納されているコンピュータプログラムやデータは、CPU205による制御に従って適宜RAM207にロードされ、CPU205による処理対象となる。 The ROM 206 stores a startup program and setting data of the image processing system, and a computer program and data for causing the CPU 205 to execute or control each process described later as performed by the image processing system. The computer programs and data stored in the ROM 206 are appropriately loaded into the RAM 207 according to the control by the CPU 205, and are processed by the CPU 205.

RAM207は、ROM206からロードされたコンピュータプログラムやデータを格納するためのエリア、DMAC208により認識装置201から転送されたデータを格納するためのエリア、を有する。さらにRAM207は、CPU205が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM207は、各種のエリアを適宜提供することができる。 The RAM 207 has an area for storing the computer program and data loaded from the ROM 206, and an area for storing the data transferred from the recognition device 201 by the DMAC 208. Further, the RAM 207 has a work area used by the CPU 205 when executing various processes. As described above, the RAM 207 can appropriately provide various areas.

DMAC(Direct Memory Access Controller)208は、画像処理システムにおけるデータ転送を制御するものであり、例えば、認識装置201とRAM207との間のデータ転送を制御する。 The DMAC (Direct Memory Access Controller) 208 controls the data transfer in the image processing system, and controls, for example, the data transfer between the recognition device 201 and the RAM 207.

次に、認識装置201について説明する。認識装置201は、撮像デバイス202、認識処理部203、RAM204を有する。撮像デバイス202は、光学系、光電変換デバイス、該光電変換デバイスのセンサ面(センシング領域)に並ぶ画素に対応するフォトダイオードからの出力を読み出すための信号線および増幅器、該光電変換デバイスを制御するドライバ回路、該光電変換デバイスからのアナログ画像信号をディジタル画像信号に変換するA/D変換部、等を有する。光電変換デバイスは、CCD(Charge−Coupled Devices)やCMOS(Complimentary Metal Oxide Semiconductor)等のセンサである。 Next, the recognition device 201 will be described. The recognition device 201 includes an image pickup device 202, a recognition processing unit 203, and a RAM 204. The image pickup device 202 controls an optical system, a photoelectric conversion device, a signal line and an amplifier for reading an output from a photodiode corresponding to pixels arranged on a sensor surface (sensing region) of the photoelectric conversion device, and the photoelectric conversion device. It has a driver circuit, an A / D conversion unit that converts an analog image signal from the photoelectric conversion device into a digital image signal, and the like. The photoelectric conversion device is a sensor such as a CCD (Charge-Coupled Devices) or a CMOS (Complimentary Metal Oxide Semiconductor).

光学系を介して外界から入光した光は光電変換デバイスにてアナログ画像信号に変換され、該アナログ画像信号はADコンバータにてディジタル画像信号に変換され、該ディジタル画像信号は撮像画像として認識処理部203に入力される。 Light entering from the outside world via an optical system is converted into an analog image signal by a photoelectric conversion device, the analog image signal is converted into a digital image signal by an AD converter, and the digital image signal is recognized as an captured image. It is input to the unit 203.

認識処理部203は、撮像デバイス202を制御すると共に、該撮像デバイス202から取得した撮像画像に含まれている物体を認識してその位置を認識結果として取得する。 The recognition processing unit 203 controls the image pickup device 202, recognizes an object included in the captured image acquired from the image pickup device 202, and acquires the position as a recognition result.

RAM204は、認識処理部203が各種の処理を行うために用いるワークエリア、DMAC208により転送されたデータを格納するためのエリア、等の各種のエリアを適宜提供する。 The RAM 204 appropriately provides various areas such as a work area used by the recognition processing unit 203 to perform various processes and an area for storing the data transferred by the DMAC 208.

認識装置201は、CPU205からの指示に従って撮像や認識等の動作を行い、該認識の結果をRAM204に格納する。DMAC208はRAM204に格納された認識の結果をRAM207に転送し、CPU205は、RAM207に転送された認識の結果に基づいて各種の処理を実行する。 The recognition device 201 performs operations such as imaging and recognition according to an instruction from the CPU 205, and stores the recognition result in the RAM 204. The DMAC 208 transfers the recognition result stored in the RAM 204 to the RAM 207, and the CPU 205 executes various processes based on the recognition result transferred to the RAM 207.

認識装置201のより詳細な構成について、図1のブロック図を用いて説明する。処理部101は、撮像デバイス202から取得した撮像画像から特徴を抽出し、該特徴(演算の中間結果)をメモリ103に格納し、該格納した特徴を用いて次の演算を行う、という一連の処理を繰り返すことで、該撮像画像から階層的に特徴を抽出する。そして処理部101は、撮像画像から最終的に抽出された特徴に基づく認識結果(撮像画像に対する認識結果)を、例えばRAM204に格納する。さらに処理部101は、撮像画像から階層的に抽出された特徴を用いて、撮像デバイス202からの撮像画像の取得条件を制御するための制御データを生成し、該生成した制御データを処理部105に出力する。 A more detailed configuration of the recognition device 201 will be described with reference to the block diagram of FIG. The processing unit 101 extracts a feature from the captured image acquired from the image pickup device 202, stores the feature (intermediate result of the calculation) in the memory 103, and performs the next calculation using the stored feature. By repeating the process, features are hierarchically extracted from the captured image. Then, the processing unit 101 stores the recognition result (recognition result for the captured image) based on the feature finally extracted from the captured image in, for example, the RAM 204. Further, the processing unit 101 uses the features hierarchically extracted from the captured image to generate control data for controlling the acquisition conditions of the captured image from the imaging device 202, and the generated control data is used in the processing unit 105. Output to.

処理部105は、処理部101からの制御データに基づいて撮像デバイス202を制御することで、撮像デバイス202から処理部101が撮像画像を取得する取得条件を制御する。 The processing unit 105 controls the image pickup device 202 based on the control data from the processing unit 101 to control the acquisition conditions for the processing unit 101 to acquire the captured image from the image pickup device 202.

例えば、処理部105は、制御データに従って、光電変換後の信号に対するゲインや光電変換デバイス(フォトダイオード等)の電荷の蓄積時間(露光時間)、A/D変換部のA/D変換の特性等を制御する。本実施形態では、光電変換デバイスにおけるセンサ面を複数の領域に分割した場合におけるそれぞれの分割領域をブロックと称し、処理部105は、ブロック単位で取得条件を制御する。 For example, the processing unit 105 determines the gain for the signal after photoelectric conversion, the charge accumulation time (exposure time) of the photoelectric conversion device (photodiode, etc.), the A / D conversion characteristics of the A / D conversion unit, and the like according to the control data. To control. In the present embodiment, when the sensor surface of the photoelectric conversion device is divided into a plurality of regions, each divided region is referred to as a block, and the processing unit 105 controls acquisition conditions on a block-by-block basis.

近年の半導体積層実装技術の実用化に伴い、制御ロジックをセンサ面に対して積層実装することでブロック単位や画素単位の読み出し制御を実現する事が可能になった。本実施形態に適用可能な積層デバイスの例を図6(a)に示す。光電変換素子を実装するセンサ層61(光電変換デバイスに対応)に対し、読み出し制御ロジックを実装するロジック層62(処理部105に対応)、大規模なメモリ及びその制御部を実装するメモリ層63(メモリ103に対応)を積層する。各層の間では貫通ビア等により信号を伝達する。 With the practical application of semiconductor laminated mounting technology in recent years, it has become possible to realize read control in block units or pixel units by laminating and mounting control logic on the sensor surface. An example of a laminated device applicable to this embodiment is shown in FIG. 6 (a). For the sensor layer 61 (corresponding to the photoelectric conversion device) on which the photoelectric conversion element is mounted, the logic layer 62 (corresponding to the processing unit 105) on which the read control logic is mounted, the large-scale memory and the memory layer 63 on which the control unit is mounted. (Corresponding to memory 103) is stacked. Signals are transmitted between each layer by means of penetrating vias or the like.

ロジック層62の一例を図6(b)に示す。ロジック層62には、センサ層61における各ブロックに対応する制御回路ct(1,1)〜ct(n,n)が設けられており、制御回路ctは、該制御回路ctに対応するブロックからのデータの読み出しを制御する。図6(b)は、センサ面におけるn個×n個のブロックのそれぞれについて取得条件(ゲインや露光時間等)を制御するための構成を示している。つまり画像中のn個×n個の部分画像のそれぞれについて撮像特性を制御することができる。 An example of the logic layer 62 is shown in FIG. 6 (b). The logic layer 62 is provided with control circuits ct (1,1) to ct (n, n) corresponding to each block in the sensor layer 61, and the control circuit ct is from a block corresponding to the control circuit ct. Controls the reading of data. FIG. 6B shows a configuration for controlling acquisition conditions (gain, exposure time, etc.) for each of n × n blocks on the sensor surface. That is, the imaging characteristics can be controlled for each of n × n partial images in the image.

なお、本実施形態では、処理部101もロジック層62やメモリ層63に実装するものとする。センサ層61に対して積層実装することで、より少ない遅延で制御データを処理部105にフィードバックすることができる。撮影環境や対象が高速に変化する場合、より少ない画像フレーム遅延で撮像デバイス202を制御することが望まれる。 In this embodiment, the processing unit 101 is also mounted on the logic layer 62 and the memory layer 63. By stacking and mounting on the sensor layer 61, control data can be fed back to the processing unit 105 with less delay. When the shooting environment or the target changes at high speed, it is desired to control the imaging device 202 with a smaller image frame delay.

制御部102は、認識装置201が有する処理部101、処理部105、の動作制御を行う。処理部101の論理的な処理構造を含む認識装置201の構成例について、図3のブロック図を用いて説明する。処理部101は、認識ネットワーク302とセンサ制御ネットワーク313とを有する。 The control unit 102 controls the operation of the processing unit 101 and the processing unit 105 of the recognition device 201. A configuration example of the recognition device 201 including the logical processing structure of the processing unit 101 will be described with reference to the block diagram of FIG. The processing unit 101 has a recognition network 302 and a sensor control network 313.

認識ネットワーク302は、撮像デバイス202が撮像した撮像画像301中の特定物体を認識し、該認識した特定物体の位置を表す認識結果を出力する階層型ニューラルネットワークであり、本実施形態では5層のCNNであるものとして説明する。 The recognition network 302 is a hierarchical neural network that recognizes a specific object in the captured image 301 captured by the imaging device 202 and outputs a recognition result indicating the position of the recognized specific object. In the present embodiment, the recognition network 302 has five layers. It will be described as being CNN.

センサ制御ネットワーク313は、認識ネットワーク302内で生成された特徴マップから制御データを生成する階層型ニューラルネットワークであり、本実施形態では2層のCNNであるものとして説明する。 The sensor control network 313 is a hierarchical neural network that generates control data from a feature map generated in the recognition network 302, and will be described as a two-layer CNN in the present embodiment.

先ず、認識ネットワーク302について説明する。303〜307のそれぞれは、畳み込み演算、活性化関数演算、プーリング演算等を含む演算処理を表しており、図4に示す構成で実装可能な処理である。図4に示す構成については後述する。特徴マップ(Feature Map)308〜311は、CNNにおける中間層と呼ばれる特徴マップであり、特徴マップ312は、CNNにおける最終層と呼ばれる特徴マップである。それぞれの特徴マップは、撮像画像301から階層的に抽出された2次元のデータであり、メモリ103に格納される。 First, the recognition network 302 will be described. Each of 303 to 307 represents a calculation process including a convolution operation, an activation function operation, a pooling operation, and the like, and is a process that can be implemented with the configuration shown in FIG. The configuration shown in FIG. 4 will be described later. The feature map (Fature Map) 308 to 311 is a feature map called an intermediate layer in the CNN, and the feature map 312 is a feature map called the final layer in the CNN. Each feature map is two-dimensional data hierarchically extracted from the captured image 301 and is stored in the memory 103.

特徴マップ308は撮像画像301に対する演算処理303によって得られた特徴マップであり、特徴マップ309は、特徴マップ308から演算処理304によって得られた特徴マップである。特徴マップ310は、特徴マップ309から演算処理305によって得られた特徴マップであり、特徴マップ311は、特徴マップ310から演算処理306によって得られた特徴マップである。特徴マップ312は、特徴マップ311から演算処理307によって得られた特徴マップであり、撮像画像301に対する認識結果でもある。 The feature map 308 is a feature map obtained by arithmetic processing 303 for the captured image 301, and the feature map 309 is a feature map obtained by arithmetic processing 304 from the feature map 308. The feature map 310 is a feature map obtained from the feature map 309 by the calculation process 305, and the feature map 311 is a feature map obtained from the feature map 310 by the calculation process 306. The feature map 312 is a feature map obtained by arithmetic processing 307 from the feature map 311 and is also a recognition result for the captured image 301.

ここで、撮像画像301に対して認識ネットワーク302が行う2次元CNN演算の詳細について説明する。畳み込み演算のカーネル(係数マトリクス)サイズがcolumnSize×rowSize、前階層の特徴マップ数がLの場合、以下の式(1)に示すような積和演算により一つの特徴マップを算出する。 Here, the details of the two-dimensional CNN calculation performed by the recognition network 302 on the captured image 301 will be described. When the kernel (coefficient matrix) size of the convolution operation is volumeSize × lowSize and the number of feature maps in the previous layer is L, one feature map is calculated by the product-sum operation as shown in the following equation (1).

Figure 2021081790
Figure 2021081790

input(x,y) : 2次元座標(x、y)での参照画素値
output(x,y): 2次元座標(x、y)での演算結果
weight(column,row):2次元座標(x+column、y+row)での重み係数
L:前階層の特徴マップ数
columnSize:2次元コンボリューションカーネルの水平方向サイズ
rowSize :2次元コンボリューションカーネルの垂直方向サイズ
2次元CNN演算では、式(1)に従って複数のコンボリューションカーネルを画素単位で走査しながら積和演算を繰り返し、最終的な積和演算結果を非線形変換(活性化処理)することで特徴マップを算出する。また、生成した特徴マップをプーリング処理により縮小して次の階層で参照する場合もある。特徴マップ308〜312のそれぞれは、対応する一つの階層内に複数存在し、異なる重み係数群に対応して異なる特性の特徴マップが生成される。
input (x, y): Reference pixel value in two-dimensional coordinates (x, y) output (x, y): Calculation result in two-dimensional coordinates (x, y) weight (collect, low): Two-dimensional coordinates ( Weight coefficient at x + volume, y + low) L: Number of feature maps in the previous layer volumeSize: Horizontal size of 2D convolution kernel lowSize: Vertical size of 2D convolution kernel In 2D CNN calculation, multiple The feature map is calculated by repeating the product-sum operation while scanning the convolution kernel in pixel units and performing non-linear conversion (activation processing) of the final product-sum operation result. In addition, the generated feature map may be reduced by pooling processing and referred to in the next layer. A plurality of feature maps 308 to 312 exist in one corresponding hierarchy, and feature maps of different characteristics are generated corresponding to different weight coefficient groups.

2次元CNN演算で使用する重み係数は事前の学習により定めるデータセットである。該重み係数は、バックプロパゲーション等の学習手法により、学習データと教師データ(正解を示すデータ)を用いて、画像処理システム外の学習装置(汎用のコンピュータなど)で事前に学習して収集しておく。 The weighting coefficient used in the two-dimensional CNN operation is a data set determined by prior learning. The weight coefficient is collected by learning in advance with a learning device (general-purpose computer, etc.) outside the image processing system using learning data and teacher data (data indicating the correct answer) by a learning method such as back propagation. Keep it.

次に、演算処理303〜307を実現するための構成について、図4のブロック図を用いて説明する。データバッファ401は、畳み込み演算の参照データとなる前階層の特徴マップのデータ(式(1)におけるinput(x,y))の全てあるいはその一部をメモリ103から取得してバッファリングするためのメモリ回路である。 Next, the configuration for realizing the arithmetic processes 303 to 307 will be described with reference to the block diagram of FIG. The data buffer 401 is for acquiring all or a part of the data of the feature map of the previous layer (input (x, y) in the equation (1)) which is the reference data of the convolution operation from the memory 103 and buffering it. It is a memory circuit.

乗算器402および累積加算器403はそれぞれ、乗算および累積加算を行う回路であり、式(1)の演算は、乗算器402および累積加算器403によって行われる。データバッファ404は、事前に学習によって得られた重み係数(式(1)におけるweight(column, row))の全てあるいは一部をメモリ103から所定の単位で読み出してバッファリングするメモリ回路である。乗算器402は、データバッファ404に格納されている重み係数を用いて乗算演算を行う。 The multiplier 402 and the cumulative adder 403 are circuits that perform multiplication and cumulative addition, respectively, and the calculation of equation (1) is performed by the multiplier 402 and the cumulative adder 403. The data buffer 404 is a memory circuit that reads out all or a part of the weighting coefficient (weight (collect, low) in the equation (1)) obtained by learning in advance from the memory 103 in a predetermined unit and buffers it. The multiplier 402 performs a multiplication operation using the weighting coefficient stored in the data buffer 404.

活性化処理器405は、式(1)に示す畳み込み演算結果(output(x,y))に対してReLU(Rectified Linear Unit, Rectifier)等の非線形関数を適用する演算を行う回路である。 The activation processor 405 is a circuit that performs an operation of applying a non-linear function such as ReLU (Rectifier Line Unit, Rectifier) to the convolution operation result (output (x, y)) shown in the equation (1).

プーリング処理器406は、特徴マップを最大値フィルタ等の空間フィルタを用いて縮小し、該縮小した特徴マップをメモリ103に格納する回路である。プーリング処理しない場合、活性化処理器405による演算結果をメモリ103に格納する。プーリング処理する場合は、プーリング処理器406による処理結果をメモリ103に格納する。ここで格納する特徴マップが現階層の特徴マップとなる。現階層の特徴マップの算出が終了すると、そのデータを前階層の特徴マップとして次の階層の特徴マップの算出に用いる。このように、メモリ103に格納する特徴マップを順次参照しながら、複数の階層の特徴マップを算出する。制御部102が図4に示した各機能部の動作を制御して階層的な特徴抽出処理(2次元CNN演算処理)を実現する。 The pooling processor 406 is a circuit that reduces the feature map by using a spatial filter such as a maximum value filter and stores the reduced feature map in the memory 103. When the pooling process is not performed, the calculation result by the activation processor 405 is stored in the memory 103. When the pooling process is performed, the process result by the pooling processor 406 is stored in the memory 103. The feature map stored here is the feature map of the current hierarchy. When the calculation of the feature map of the current layer is completed, the data is used as the feature map of the previous layer for the calculation of the feature map of the next layer. In this way, the feature maps of a plurality of layers are calculated while sequentially referring to the feature maps stored in the memory 103. The control unit 102 controls the operation of each functional unit shown in FIG. 4 to realize a hierarchical feature extraction process (two-dimensional CNN arithmetic process).

CNNはこのように複数の階層に渡る特徴抽出を繰り返すことで識別対象の変動にロバストな認識処理を実現する。各階層の特徴抽出結果に従って、最終層における演算処理である演算処理307によって撮像画像301における所望の物体の存在を判定する。最終層の特徴マップ312が認識結果を表現する。特徴マップ312が表す認識結果は、例えば撮像画像301内の所望の物体の存在確率を2次元の情報として表現する信頼度マップとして出力される。なお、最終層における演算処理である演算処理307は前述した畳み込み演算ではなく、全結合型のニューラルネットワークや線形判別器で実装することもある。 By repeating feature extraction over a plurality of layers in this way, CNN realizes a recognition process that is robust to fluctuations in the identification target. According to the feature extraction result of each layer, the existence of a desired object in the captured image 301 is determined by the arithmetic processing 307 which is the arithmetic processing in the final layer. The feature map 312 of the final layer expresses the recognition result. The recognition result represented by the feature map 312 is output as, for example, a reliability map expressing the existence probability of a desired object in the captured image 301 as two-dimensional information. The arithmetic processing 307, which is the arithmetic processing in the final layer, may be implemented by a fully connected neural network or a linear discriminator instead of the convolution operation described above.

また、各階層の特徴マップ308〜311は撮像画像301に対する特徴抽出結果を表現する。一般的には、下位層(撮像画像301を入力する層により近い階層)の特徴マップはエッジ等のローレベルの特徴を示し、上位層(認識結果により近い階層)の特徴マップは抽象度の高い特徴を示す。各特徴マップはパターン認識の対象や学習方法によって特性が異なる。 Further, the feature maps 308 to 311 of each layer represent the feature extraction results for the captured image 301. In general, the feature map of the lower layer (the layer closer to the layer into which the captured image 301 is input) shows low-level features such as edges, and the feature map of the upper layer (the layer closer to the recognition result) has a high degree of abstraction. Show the features. The characteristics of each feature map differ depending on the target of pattern recognition and the learning method.

次にセンサ制御ネットワーク313について説明する。センサ制御ネットワーク313は、制御データを処理部105に回帰する演算ネットワークである。314,315のそれぞれは、演算処理303〜307のそれそれと同様、畳み込み演算、活性化関数演算、プーリング演算等を含む演算処理を表しており、図4に示す構成で実装可能な処理である。 Next, the sensor control network 313 will be described. The sensor control network 313 is an arithmetic network that returns control data to the processing unit 105. Each of 314 and 315 represents an arithmetic process including a convolution operation, an activation function operation, a pooling operation, and the like, similar to those of the arithmetic processes 303 to 307, and is a process that can be implemented with the configuration shown in FIG.

本実施形態に係るセンサ制御ネットワーク313は、認識ネットワーク302における下位層の特徴マップ308を入力とし、該特徴マップ308から回帰データとしての制御データを生成する。特徴マップを認識ネットワーク302と共有することで回帰性能の向上・学習の容易化を期待すると共に、全体の演算コストを削減することができる。また、本実施形態では認識ネットワーク302と類似するネットワーク構造でセンサ制御ネットワーク313を構成しているため、図4に示す構成を認識ネットワーク302とセンサ制御ネットワーク313とで共有することができる。その結果、認識用の回路とは別個に制御データの生成用の回路を設ける必要はない。 The sensor control network 313 according to the present embodiment receives the feature map 308 of the lower layer in the recognition network 302 as an input, and generates control data as regression data from the feature map 308. By sharing the feature map with the recognition network 302, it is expected that the regression performance will be improved and learning will be facilitated, and the overall calculation cost can be reduced. Further, in the present embodiment, since the sensor control network 313 is configured with a network structure similar to the recognition network 302, the configuration shown in FIG. 4 can be shared between the recognition network 302 and the sensor control network 313. As a result, it is not necessary to provide a circuit for generating control data separately from the circuit for recognition.

特徴マップ316は、特徴マップ308から演算処理314によって得られた特徴マップであり、特徴マップ317は特徴マップ316から演算処理315によって得られた特徴マップである。特徴マップ317は、制御データとして処理部105に回帰される。 The feature map 316 is a feature map obtained from the feature map 308 by the calculation process 314, and the feature map 317 is a feature map obtained from the feature map 316 by the calculation process 315. The feature map 317 is returned to the processing unit 105 as control data.

制御データは、センサ面に並ぶ各画素(撮像素子)の空間位置に対応する取得条件を指定するデータであり、例えば、特徴マップ内の位置に対応する画素のゲインや露光時間の指定に対応するデータとなる。制御データは、制御対象が1種類かつスカラー値で制御する場合、一枚の特徴マップで良い。制御対象が複数ある場合や制御パラメータがベクトルデータの場合は、制御データは複数の特徴マップとなる。 The control data is data that specifies acquisition conditions corresponding to the spatial positions of the pixels (imaging elements) arranged on the sensor surface, and corresponds to, for example, the designation of the gain and exposure time of the pixels corresponding to the positions in the feature map. It becomes data. The control data may be a single feature map when the control target is one type and is controlled by a scalar value. When there are a plurality of control targets or the control parameter is vector data, the control data is a plurality of feature maps.

図6(b)のロジック層62に対応する制御データの一例を図8に示す。図8に示す制御データは複数枚の特徴マップで構成されており、そのうちの1枚の特徴マップ218におけるrg(n,n)はct(n,n)に対応するブロックに対応する取得条件を表している。図8では、取得条件の値を濃淡で表現しており、取得条件の値とは、例えば、ゲインに対応する。 FIG. 8 shows an example of control data corresponding to the logic layer 62 of FIG. 6 (b). The control data shown in FIG. 8 is composed of a plurality of feature maps, and rg (n, n) in one of the feature maps 218 is an acquisition condition corresponding to a block corresponding to ct (n, n). Represents. In FIG. 8, the value of the acquisition condition is represented by a shade, and the value of the acquisition condition corresponds to, for example, a gain.

なお、センサ制御ネットワーク313についても認識ネットワーク302と同様、画像処理システム外のコンピュータ等で事前に学習により重み係数を取得しておく。ここでの学習も認識ネットワーク302の学習と同様に教師データを利用して、認識ネットワーク302と連携して学習を行う。学習は更にセンサの特性を考慮してバックプロパゲーション等を利用して学習する。 As for the sensor control network 313, as in the recognition network 302, the weighting coefficient is acquired in advance by learning with a computer or the like outside the image processing system. The learning here also uses the teacher data in the same manner as the learning of the recognition network 302, and performs learning in cooperation with the recognition network 302. Learning is further carried out by using back propagation or the like in consideration of the characteristics of the sensor.

処理部105は、センサ制御ネットワーク313で回帰された制御データに従って撮像デバイス202の光電変換デバイスにおける各画素を制御する(例えばセンサ面における画素からのデータのゲインを、対応する取得条件の値に応じて制御する)。これにより処理部101は、認識処理に適した撮像画像を撮像デバイス202から取得することができる。ここで得られる撮像画像は人が観測して内容を理解・鑑賞するための画像とは異なり、認識処理の精度向上に好適な画像となる。 The processing unit 105 controls each pixel in the photoelectric conversion device of the imaging device 202 according to the control data returned by the sensor control network 313 (for example, the gain of the data from the pixel on the sensor surface is determined according to the value of the corresponding acquisition condition. To control). As a result, the processing unit 101 can acquire an captured image suitable for the recognition process from the imaging device 202. The captured image obtained here is different from an image for human observation to understand and appreciate the contents, and is an image suitable for improving the accuracy of the recognition process.

なお、本実施形態では、センサ制御ネットワーク313における演算処理314はプーリング処理を含んでおり、その結果、特徴マップ308を縮小した特徴マップ316が得られ、演算処理315は該特徴マップ316を対象にして行われる。従って制御データ(特徴マップ317)のサイズは撮像画像301のサイズよりも小さい。即ち、複数の画素を単位とするブロック毎に取得条件を制御することになる。プーリングの割合などは処理部105で制御可能なブロックサイズを考慮して予め設定しておく。 In the present embodiment, the arithmetic processing 314 in the sensor control network 313 includes a pooling processing, and as a result, a feature map 316 obtained by reducing the feature map 308 is obtained, and the arithmetic processing 315 targets the feature map 316. Is done. Therefore, the size of the control data (feature map 317) is smaller than the size of the captured image 301. That is, the acquisition condition is controlled for each block having a plurality of pixels as a unit. The pooling ratio and the like are set in advance in consideration of the block size that can be controlled by the processing unit 105.

画像処理システムによるパターン認識処理の動作について、図5のタイミングチャートを用いて説明する。図5において「認識ネットワークX」は認識ネットワーク302のX回目の動作を表しており、「センサ制御ネットワークY」はセンサ制御ネットワーク313のY回目の動作を表している。図5では、3フレーム分の撮像画像のそれぞれについて認識ネットワーク302およびセンサ制御ネットワーク313による処理が行われる様子を示している。 The operation of the pattern recognition process by the image processing system will be described with reference to the timing chart of FIG. In FIG. 5, the “recognition network X” represents the Xth operation of the recognition network 302, and the “sensor control network Y” represents the Yth operation of the sensor control network 313. FIG. 5 shows how the recognition network 302 and the sensor control network 313 process each of the captured images for three frames.

認識ネットワーク1とセンサ制御ネットワーク1とは並行して実行される。センサ制御ネットワーク1による処理結果として制御データ507が得られ、認識ネットワーク2は、「該制御データ507に応じた取得条件で撮像デバイス202から得られた次のフレームの撮像画像」に対して実行される。センサ制御ネットワーク2は認識ネットワーク2と並行して実行される。 The recognition network 1 and the sensor control network 1 are executed in parallel. The control data 507 is obtained as a processing result by the sensor control network 1, and the recognition network 2 is executed for "the captured image of the next frame obtained from the imaging device 202 under the acquisition conditions according to the control data 507". To. The sensor control network 2 is executed in parallel with the recognition network 2.

センサ制御ネットワーク2による処理結果として制御データ508が得られ、認識ネットワーク3は、「該制御データ508に応じた取得条件で撮像デバイス202から得られた次のフレームの撮像画像」に対して実行される。センサ制御ネットワーク3は認識ネットワーク3と並行して実行される。 The control data 508 is obtained as a processing result by the sensor control network 2, and the recognition network 3 is executed for "the captured image of the next frame obtained from the imaging device 202 under the acquisition conditions according to the control data 508". To. The sensor control network 3 is executed in parallel with the recognition network 3.

センサ制御ネットワーク3による処理結果として制御データ509が得られ、認識ネットワーク4は、「該制御データ509に応じた取得条件で撮像デバイス202から得られた次のフレームの撮像画像」に対して実行される。 The control data 509 is obtained as a processing result by the sensor control network 3, and the recognition network 4 is executed for "the captured image of the next frame obtained from the imaging device 202 under the acquisition conditions according to the control data 509". To.

認識装置201の動作について、図9のフローチャートに従って説明する。なお、図9の各ステップにおける処理の詳細については上記の通りであるから、ここでは簡単に説明する。 The operation of the recognition device 201 will be described with reference to the flowchart of FIG. Since the details of the processing in each step of FIG. 9 are as described above, they will be briefly described here.

ステップS901では、認識ネットワーク302は、撮像デバイス202からの撮像画像を入力として、該撮像画像から階層的に特徴を抽出することで該撮像画像に対する認識処理を行う。 In step S901, the recognition network 302 takes the captured image from the imaging device 202 as an input and performs recognition processing on the captured image by hierarchically extracting features from the captured image.

ステップS901における階層的な特徴抽出において特定の階層の特徴マップが得られると(図3の例では特徴マップ308が得られると)、ステップS902の処理が開始される。ステップS902では、センサ制御ネットワーク313は、特定の階層の特徴マップを入力として、上記の処理を行うことで制御データを生成し、該生成した制御データを処理部105に対して出力する。そしてステップS903では、処理部105は、センサ制御ネットワーク313から取得した制御データに基づいて、撮像デバイス202からの撮像画像の取得条件をブロックごとに制御する。 When the feature map of a specific hierarchy is obtained in the hierarchical feature extraction in step S901 (when the feature map 308 is obtained in the example of FIG. 3), the process of step S902 is started. In step S902, the sensor control network 313 receives the feature map of a specific layer as an input, performs the above processing, generates control data, and outputs the generated control data to the processing unit 105. Then, in step S903, the processing unit 105 controls the acquisition conditions of the captured image from the imaging device 202 for each block based on the control data acquired from the sensor control network 313.

ステップS904では、制御部102は終了指示を受けたか否かを判断する。例えば、ユーザが不図示の操作部を操作して入力した終了指示を制御部102が取得しても良いし、特定の条件が満たされたことをCPU205が検知した場合にCPU205が発行した終了指示をDMAC208によって制御部102に転送しても良い。 In step S904, the control unit 102 determines whether or not the end instruction has been received. For example, the control unit 102 may acquire the end instruction input by the user by operating the operation unit (not shown), or the end instruction issued by the CPU 205 when the CPU 205 detects that a specific condition is satisfied. May be transferred to the control unit 102 by the DMAC 208.

この判断の結果、制御部102が終了指示を受けた場合には、図9のフローチャートに従った処理は終了し、制御部102が終了指示を受けていない場合には、処理は図9のフローチャートの先頭に戻る。 As a result of this determination, when the control unit 102 receives the end instruction, the process according to the flowchart of FIG. 9 ends, and when the control unit 102 does not receive the end instruction, the process follows the flowchart of FIG. Return to the beginning of.

このように、センサ制御ネットワークは撮影対象の状況変化に応じて順次認識に適した撮影条件を設定し、認識ネットワークは該撮影条件に応じて高精度な認識処理を実行する。このように、本実施形態によれば、撮影環境に応じて認識に最適な画像を取得することが可能になり、認識精度の高い認識技術を実現することができる。 In this way, the sensor control network sequentially sets shooting conditions suitable for recognition according to changes in the situation of the shooting target, and the recognition network executes highly accurate recognition processing according to the shooting conditions. As described above, according to the present embodiment, it is possible to acquire the optimum image for recognition according to the shooting environment, and it is possible to realize a recognition technique with high recognition accuracy.

[第2の実施形態]
本実施形態を含む以下の各実施形態では、第1の実施形態との差分について説明し、以下で特に触れない限りは第1の実施形態と同様であるものとする。本実施形態に係る認識装置201の構成例について、図7のブロック図を用いて説明する。図7に示した構成は、図1に示した構成に画像補正処理部706を加えた構成となっている。また、撮像デバイス202から出力される撮像画像は処理部101だけでなく画像補正処理部706にも入力され、処理部101から出力される制御データは処理部105だけでなく画像補正処理部706にも入力される。
[Second Embodiment]
In each of the following embodiments including the present embodiment, the differences from the first embodiment will be described, and unless otherwise specified below, the same as the first embodiment. A configuration example of the recognition device 201 according to the present embodiment will be described with reference to the block diagram of FIG. The configuration shown in FIG. 7 is a configuration in which the image correction processing unit 706 is added to the configuration shown in FIG. Further, the captured image output from the image pickup device 202 is input not only to the processing unit 101 but also to the image correction processing unit 706, and the control data output from the processing unit 101 is sent not only to the processing unit 105 but also to the image correction processing unit 706. Is also entered.

第1の実施形態では、撮像デバイス202が出力する撮像画像は認識処理に好適な画像として読み出されるため、人が観測する画像としては好ましくない。例えば、監視カメラ等においては、検出した物体を事後に人が確認するなどのケースがある。 In the first embodiment, the captured image output by the imaging device 202 is read out as an image suitable for the recognition process, and is therefore not preferable as an image observed by a human. For example, in a surveillance camera or the like, there are cases where a person confirms a detected object after the fact.

本実施形態では、画像補正処理部706は、撮像デバイス202から出力された撮像画像(つまり認識処理に好適な撮像画像)を、処理部101から出力された制御データに基づいて、人が観測する際に自然な画像に変換する。画像の変換は制御データが表す撮影条件であるゲインや露光時間に基づいて予め定めるアルゴリズムに従って変換することが可能である(いわゆる現像処理と呼ばれる画像処理を拡張することで対応が可能である)。また、画像補正処理部706もCNN等を利用して学習データに基づいて画像を変換するなどの手法を用いても良い。その場合、図4に示す構成をそのまま利用することができ、構成上追加となる回路が不要である。 In the present embodiment, the image correction processing unit 706 observes the captured image output from the imaging device 202 (that is, the captured image suitable for the recognition process) based on the control data output from the processing unit 101. Converts to a natural image. Image conversion can be performed according to a predetermined algorithm based on the gain and exposure time, which are the shooting conditions represented by the control data (it can be handled by extending the image processing called development processing). Further, the image correction processing unit 706 may also use a method such as converting an image based on the learning data by using CNN or the like. In that case, the configuration shown in FIG. 4 can be used as it is, and no additional circuit is required in the configuration.

画像補正処理部706により変換された撮像画像の出力先は特定の出力先に限らず、画像処理システムの内外の表示部であっても良いし、画像処理システムの内外のメモリであっても良い。このように、本実施形態によれば、パターン認識に好適な画像の取得を実現すると共に、人が観測可能な画像を出力することができる。 The output destination of the captured image converted by the image correction processing unit 706 is not limited to a specific output destination, and may be a display unit inside or outside the image processing system, or may be a memory inside or outside the image processing system. .. As described above, according to the present embodiment, it is possible to acquire an image suitable for pattern recognition and output an image observable by a person.

[第3の実施形態]
第1の実施形態では、2次元の画像センサを用いた構成を例に取り説明したが、センサは2次元の画像センサに限らず、センシングするデータの次元数やモダリティが異なる様々なセンサを用いた構成であっても良い。このようなセンサとしては、例えば、マイクロフォンや電波センサなどが挙げられる。つまり、第1の実施形態は、センサから取得したデータから階層的に特徴を抽出し、該抽出の結果に基づいて該データに対する認識結果を取得すると共に、該抽出の結果に基づいて該センサからのデータの取得条件を制御する、という構成の一例に過ぎない。
[Third Embodiment]
In the first embodiment, a configuration using a two-dimensional image sensor has been described as an example, but the sensor is not limited to the two-dimensional image sensor, and various sensors having different numbers of dimensions and modalities of the data to be sensed are used. It may be the configuration that was used. Examples of such a sensor include a microphone and a radio wave sensor. That is, in the first embodiment, features are hierarchically extracted from the data acquired from the sensor, a recognition result for the data is acquired based on the extraction result, and the sensor is used based on the extraction result. This is just an example of a configuration in which the data acquisition conditions of the above are controlled.

また、第1の実施形態では、ブロック単位で取得条件を制御するケースについて説明したが、制御単位はブロックに限らず、画素であっても良いし、センサ面全体であっても良い。センサ面を単位に取得条件を制御する場合、センサ制御ネットワーク313の最終層の特徴マップを線形判別器に通した結果を制御データとしても良いし、該特徴マップに対してグローバルプーリング処理を施した結果を制御データとしても良い。 Further, in the first embodiment, the case where the acquisition condition is controlled in block units has been described, but the control unit is not limited to blocks, and may be pixels or the entire sensor surface. When the acquisition conditions are controlled in units of sensor surfaces, the result of passing the feature map of the final layer of the sensor control network 313 through a linear discriminator may be used as control data, or the feature map is subjected to global pooling processing. The result may be used as control data.

また、第1の実施形態では、センサ制御ネットワーク313は、認識ネットワーク302の下位層の特徴マップを入力としていたが、入力する特徴マップは下位層の特徴マップに限らない。例えばセンサ制御ネットワーク313は、認識ネットワーク302の上位層の特徴マップを入力としても良いし、認識ネットワーク302の各階層の特徴マップから選択された階層の特徴マップを入力としても良い。該選択は制御部102が行っても良いし、ユーザが不図示の操作部を操作して行っても良いし、特定の形態に限らない。 Further, in the first embodiment, the sensor control network 313 inputs the feature map of the lower layer of the recognition network 302, but the feature map to be input is not limited to the feature map of the lower layer. For example, the sensor control network 313 may input the feature map of the upper layer of the recognition network 302, or may input the feature map of the layer selected from the feature map of each layer of the recognition network 302. The selection may be made by the control unit 102, or the user may operate an operation unit (not shown), and the selection is not limited to a specific form.

また、認識ネットワーク302やセンサ制御ネットワーク313の階層構造(階層の数や階層内の特徴マップの数など)は、認識対象や制御対象等に応じて適宜変更可能である。 Further, the hierarchical structure of the recognition network 302 and the sensor control network 313 (the number of layers, the number of feature maps in the hierarchy, etc.) can be appropriately changed according to the recognition target, the control target, and the like.

また、センサ制御ネットワーク313は、認識ネットワーク302の特徴マップではなく撮像デバイス202からの出力(撮像画像)を入力しても良い。その場合もセンサ制御ネットワーク313の学習時には認識ネットワーク302を利用して学習する。 Further, the sensor control network 313 may input an output (captured image) from the imaging device 202 instead of the feature map of the recognition network 302. In that case as well, when learning the sensor control network 313, learning is performed using the recognition network 302.

また、第1の実施形態では、最終層でパターン認識の信頼度や制御データを生成するケースについて説明したが、これに限らず、例えば、中間層の特徴マップを直接参照してパターン認識の信頼度や制御データを生成するようにしても良い。 Further, in the first embodiment, the case where the reliability of pattern recognition and control data are generated in the final layer has been described, but the present invention is not limited to this, and for example, the reliability of pattern recognition is directly referred to by the feature map of the intermediate layer. The degree and control data may be generated.

また、第1の実施形態では、撮像画像中の物体の位置を検出する画像処理システムについて説明したが、画像処理システムが行うタスクはこれに限らず、例えば、撮像画像中の物体の属性の認識や、撮像画像の内容の認識等、様々な認識を行うようにしても良い。 Further, in the first embodiment, the image processing system for detecting the position of the object in the captured image has been described, but the task performed by the image processing system is not limited to this, and for example, recognition of the attribute of the object in the captured image. Or, various recognitions such as recognition of the contents of the captured image may be performed.

また第1の実施形態では、階層的に特徴を抽出するためにCNNを用いたが、これに限らない。つまり、Multi Layer Perceptron、Restricted Boltzmann Machines、Capsule Network等の他の様々な階層的手法を用いて階層的に特徴を抽出するようにしても良い。また、Recursive Neural Network等の再帰的手法を用いても良い。 Further, in the first embodiment, CNN is used to extract features hierarchically, but the present invention is not limited to this. That is, features may be extracted hierarchically using various other hierarchical methods such as Multi Layer Perceptron, Restricted Boltzmann Machines, and Capsule Network. In addition, a recursive method such as Recursive Neural Network may be used.

第1の実施形態では、図4に示す構成をハードウェアで実装するケースについて説明したが、一部の構成、例えば、乗算器402、累積加算器403、活性化処理器405、プーリング処理器406をソフトウェア(コンピュータプログラム)で実装しても良い。この場合、このソフトウェアはROM206に格納しておき、DMAC208によってRAM204に転送して制御部102が実行することで、対応する機能部の機能を実現させることができる。 In the first embodiment, the case where the configuration shown in FIG. 4 is implemented by hardware has been described, but some configurations, for example, a multiplier 402, a cumulative adder 403, an activation processor 405, and a pooling processor 406 have been described. May be implemented by software (computer program). In this case, this software is stored in the ROM 206, transferred to the RAM 204 by the DMAC 208, and executed by the control unit 102, so that the functions of the corresponding functional units can be realized.

また第1の実施形態では、図6に示す積層デバイスを適用したが、各積層への実装機能はコストや性能を考慮して様々な形態が可能である。また、読み出し制御の遅延が問題にならない応用の場合、認識ネットワーク302及びセンサ制御ネットワーク313を積層せずに異なるデバイス上に実装しても良い。 Further, in the first embodiment, the laminated device shown in FIG. 6 is applied, but the mounting function on each laminated can be in various forms in consideration of cost and performance. Further, in the case where the delay of the read control is not a problem, the recognition network 302 and the sensor control network 313 may be mounted on different devices without being stacked.

また第1の実施形態では、純粋な認識処理に適用したケースについて説明したが、近年提案されている深層学習技術を応用した手法では、特定のパターンを認識するだけではなく、パターンの変形・変換等に利用する手法も提案されている。よって第1の実施形態はこれらの手法に適用することも可能である。 Further, in the first embodiment, a case applied to pure recognition processing has been described, but a method applying a deep learning technique proposed in recent years not only recognizes a specific pattern but also transforms / transforms the pattern. A method to be used for such purposes has also been proposed. Therefore, the first embodiment can be applied to these methods.

なお、以上説明した各実施形態の一部若しくは全部を適宜組み合わせて使用しても構わない。また、以上説明した各実施形態の一部若しくは全部を選択的に使用しても構わない。 It should be noted that some or all of the above-described embodiments may be used in combination as appropriate. In addition, a part or all of each of the above-described embodiments may be selectively used.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.

101:処理部 102:制御部 103:メモリ 105:処理部 202:撮像デバイス 101: Processing unit 102: Control unit 103: Memory 105: Processing unit 202: Imaging device

Claims (13)

センサから取得したデータから階層的に特徴を抽出し、該抽出の結果に基づいて該データに対する認識結果を取得する認識手段と、
前記抽出の結果に基づいて前記センサからのデータの取得条件を制御する制御手段と
を備えることを特徴とする認識装置。
A recognition means that extracts features hierarchically from the data acquired from the sensor and acquires the recognition result for the data based on the extraction result.
A recognition device including a control means for controlling acquisition conditions of data from the sensor based on the result of the extraction.
前記認識手段は、階層型ニューラルネットワークを用いて、前記センサから取得したデータから階層的に特徴を抽出することを特徴とする請求項1に記載の認識装置。 The recognition device according to claim 1, wherein the recognition means hierarchically extracts features from data acquired from the sensor using a hierarchical neural network. 前記制御手段は、前記階層型ニューラルネットワークにおける一部の階層の特徴マップに基づいて、前記取得条件を制御するための制御データを生成し、該制御データに基づいて前記取得条件を制御することを特徴とする請求項2に記載の認識装置。 The control means generates control data for controlling the acquisition condition based on a feature map of a part of the hierarchy in the hierarchical neural network, and controls the acquisition condition based on the control data. The recognition device according to claim 2. 前記制御手段は、前記一部の階層の特徴マップから、階層型ニューラルネットワークを用いて前記制御データを生成することを特徴とする請求項3に記載の認識装置。 The recognition device according to claim 3, wherein the control means generates the control data from a feature map of a part of the layers by using a hierarchical neural network. 前記認識手段が用いる階層型ニューラルネットワークおよび前記制御手段が用いる階層型ニューラルネットワークはConvolutional Neural Networkであることを特徴とする請求項4に記載の認識装置。 The recognition device according to claim 4, wherein the hierarchical neural network used by the recognition means and the hierarchical neural network used by the control means are convolutional neural networks. 前記制御手段は、前記センサにおけるデータのセンシング領域を分割した分割領域ごとに前記取得条件を制御することを特徴とする請求項1乃至5の何れか1項に記載の認識装置。 The recognition device according to any one of claims 1 to 5, wherein the control means controls the acquisition conditions for each divided region in which the data sensing region of the sensor is divided. 前記センサは撮像デバイスであり、前記データは該撮像デバイスにより撮像された撮像画像であることを特徴とする請求項1乃至6の何れか1項に記載の認識装置。 The recognition device according to any one of claims 1 to 6, wherein the sensor is an image pickup device, and the data is an image captured image captured by the image pickup device. 更に、
前記撮像画像を、前記取得条件を制御するためのデータに基づいて補正する補正手段を備えることを特徴とする請求項7に記載の認識装置。
In addition
The recognition device according to claim 7, further comprising a correction means for correcting the captured image based on data for controlling the acquisition conditions.
前記撮像デバイスは光電変換デバイスを含み、前記制御手段は、該光電変換デバイスの電荷の蓄積時間を制御することを特徴とする請求項7に記載の認識装置。 The recognition device according to claim 7, wherein the imaging device includes a photoelectric conversion device, and the control means controls the charge accumulation time of the photoelectric conversion device. 前記撮像デバイスは光電変換デバイスを含み、前記制御手段は、該光電変換デバイスによる光電変換後の信号に対するゲインを制御することを特徴とする請求項7に記載の認識装置。 The recognition device according to claim 7, wherein the imaging device includes a photoelectric conversion device, and the control means controls a gain for a signal after photoelectric conversion by the photoelectric conversion device. 前記撮像デバイスは、アナログ画像信号をディジタル画像信号に変換するA/D変換部を含み、前記制御手段は、該A/D変換部によるA/D変換の特性を制御することを特徴とする請求項7に記載の認識装置。 The imaging device includes an A / D conversion unit that converts an analog image signal into a digital image signal, and the control means controls the characteristics of A / D conversion by the A / D conversion unit. Item 7. The recognition device according to item 7. 認識装置が行う認識方法であって、
前記認識装置の認識手段が、センサから取得したデータから階層的に特徴を抽出し、該抽出の結果に基づいて該データに対する認識結果を取得する認識工程と、
前記認識装置の制御手段が、前記抽出の結果に基づいて前記センサからのデータの取得条件を制御する制御工程と
を備えることを特徴とする認識方法。
It is a recognition method performed by the recognition device.
A recognition step in which the recognition means of the recognition device hierarchically extracts features from the data acquired from the sensor and acquires the recognition result for the data based on the extraction result.
A recognition method, wherein the control means of the recognition device includes a control step of controlling acquisition conditions of data from the sensor based on the result of the extraction.
認識装置のコンピュータを、請求項1乃至11の何れか1項に記載の認識装置の各手段として機能させるためのコンピュータプログラム。 A computer program for causing the computer of the recognition device to function as each means of the recognition device according to any one of claims 1 to 11.
JP2019206347A 2019-11-14 2019-11-14 Recognition device, recognition method Active JP7444585B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019206347A JP7444585B2 (en) 2019-11-14 2019-11-14 Recognition device, recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019206347A JP7444585B2 (en) 2019-11-14 2019-11-14 Recognition device, recognition method

Publications (3)

Publication Number Publication Date
JP2021081790A true JP2021081790A (en) 2021-05-27
JP2021081790A5 JP2021081790A5 (en) 2022-11-21
JP7444585B2 JP7444585B2 (en) 2024-03-06

Family

ID=75965143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019206347A Active JP7444585B2 (en) 2019-11-14 2019-11-14 Recognition device, recognition method

Country Status (1)

Country Link
JP (1) JP7444585B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023149295A1 (en) 2022-02-01 2023-08-10 ソニーグループ株式会社 Information processing device, information processing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06326919A (en) * 1993-05-13 1994-11-25 Sanyo Electric Co Ltd Automatic exposure control device
JP2017225084A (en) * 2016-06-17 2017-12-21 株式会社ニコン Imaging device, electronic device, imaging method, and program
JP2018190332A (en) * 2017-05-11 2018-11-29 キヤノン株式会社 Image recognition apparatus and learning apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06326919A (en) * 1993-05-13 1994-11-25 Sanyo Electric Co Ltd Automatic exposure control device
JP2017225084A (en) * 2016-06-17 2017-12-21 株式会社ニコン Imaging device, electronic device, imaging method, and program
JP2018190332A (en) * 2017-05-11 2018-11-29 キヤノン株式会社 Image recognition apparatus and learning apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023149295A1 (en) 2022-02-01 2023-08-10 ソニーグループ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP7444585B2 (en) 2024-03-06

Similar Documents

Publication Publication Date Title
KR102574141B1 (en) Image display method and device
CN108898567B (en) Image noise reduction method, device and system
JP5651118B2 (en) Image processing apparatus and image processing method
JP2021072615A (en) Image restoration device and method
JP5766077B2 (en) Image processing apparatus and image processing method for noise reduction
CN111327887B (en) Electronic device, method of operating the same, and method of processing image of the electronic device
EP2795575B1 (en) Integrated three-dimensional vision sensor
JP2012516485A (en) Detection of objects that may have changed in an image
CN110490196A (en) Subject detection method and apparatus, electronic equipment, computer readable storage medium
CN111080683B (en) Image processing method, device, storage medium and electronic equipment
CN115526815A (en) Image processing method and device and electronic equipment
JP7398938B2 (en) Information processing device and its learning method
JP7444585B2 (en) Recognition device, recognition method
JP7025237B2 (en) Image processing equipment and its control method and program
JP2016519343A (en) Generating target images using functionals based on information functions from other images
CN108665410B (en) Image super-resolution reconstruction method, device and system
CN109657729A (en) Multi-features, characteristic pattern processing and gesture recognition method, apparatus and system
JP5478533B2 (en) Omnidirectional image generation method, image generation apparatus, and program
JP2020009099A (en) Image processing device, image processing method, and program
CN112613383A (en) Joint point detection method, posture recognition method and device
CN112381102A (en) Image noise reduction model generation method, image noise reduction method, device, storage medium and equipment
CN108268815B (en) Method and device for understanding image scene
US20230334820A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US20240257498A1 (en) Electronic apparatus for classifying object region and background region and operating method of the electronic apparatus
Dhillon et al. Exhibition of noise-aided stochastic resonance by discontinuity detectors in smartphone images

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221111

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230922

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240222

R151 Written notification of patent or utility model registration

Ref document number: 7444585

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151