Nothing Special   »   [go: up one dir, main page]

RU2313828C2 - Image recognition method - Google Patents

Image recognition method Download PDF

Info

Publication number
RU2313828C2
RU2313828C2 RU2005132661/09A RU2005132661A RU2313828C2 RU 2313828 C2 RU2313828 C2 RU 2313828C2 RU 2005132661/09 A RU2005132661/09 A RU 2005132661/09A RU 2005132661 A RU2005132661 A RU 2005132661A RU 2313828 C2 RU2313828 C2 RU 2313828C2
Authority
RU
Russia
Prior art keywords
signal
image
detected
regions
groups
Prior art date
Application number
RU2005132661/09A
Other languages
Russian (ru)
Other versions
RU2005132661A (en
Inventor
К мал Бахрамович Саниев (RU)
Кямал Бахрамович Саниев
Original Assignee
Закрытое акционерное общество "МНИТИ" (Московский научно-исследовательский телевизионный институт)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Закрытое акционерное общество "МНИТИ" (Московский научно-исследовательский телевизионный институт) filed Critical Закрытое акционерное общество "МНИТИ" (Московский научно-исследовательский телевизионный институт)
Priority to RU2005132661/09A priority Critical patent/RU2313828C2/en
Publication of RU2005132661A publication Critical patent/RU2005132661A/en
Application granted granted Critical
Publication of RU2313828C2 publication Critical patent/RU2313828C2/en

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

FIELD: methods for automatic decision making in informational and controlling systems of robot-engineering complexes, in particular, technical vision systems and television systems for detecting, tracking and recognizing objects, may also be used in automated systems for controlling situation of various purposes.
SUBSTANCE: image recognition method additionally includes operation for detecting local extremes, while a priori unknown structure of image being recognized, presence and location of its component objects, are determined not by using preliminarily given object standard, but on basis of analysis of characteristics of a set of local extremes detected on image signal being analyzed.
EFFECT: expanded area of application of recognizing informational machines to include cases of a priori indeterminacy of characteristics of objects being analyzed and conditions of observation of those objects.
9 dwg

Description

Область техники, к которой относится изобретениеFIELD OF THE INVENTION

Изобретение относится к областям информационной телевизионной техники, робототехники, распознавания образов, распознавания изображений, телевизионным системам обнаружения и слежения, телевизионным системам автоматизированного анализа изображений и распознавания объектов и может быть использовано в системах технического зрения и автоматизированного контроля обстановки различного назначения.The invention relates to the fields of information television technology, robotics, pattern recognition, image recognition, television detection and tracking systems, television systems for automated image analysis and object recognition and can be used in vision systems and automated monitoring of the situation for various purposes.

Уровень техникиState of the art

Используемая при построении технических систем методология распознавания изображений ориентирована, в первую очередь, на классификацию объектов. Операция классификации трактуется при этом как выявление принадлежности объекта одному из заранее заданных классов, каждый из которых описывается с помощью эталонных значений формализованных признаков, присутствующих и выделяемых в изображениях и сигналах. Реализация соответствующих методов распознавания требует предварительного статистического анализа свойств объектов в предполагаемых условиях наблюдения и формирования эталонных описаний распознаваемых классов объектов, специфических для каждой прикладной задачи распознавания.The image recognition methodology used in the construction of technical systems is focused primarily on the classification of objects. The classification operation is interpreted in this case as identifying the object's belonging to one of the predefined classes, each of which is described using the reference values of formalized signs present and highlighted in images and signals. The implementation of appropriate recognition methods requires a preliminary statistical analysis of the properties of objects under the assumed conditions of observation and the formation of reference descriptions of recognizable classes of objects specific to each applied recognition task.

Вместе с тем в практических задачах распознавания имеет место так называемая проблема априорной неопределенности, состоящая в том, что объекты любых классов представлены практически неограниченным множеством реализации, в которых ни одно из микроструктурных свойств анализируемого сигнала не оказывается достаточно достоверным признаком ни для выделения объекта, ни для его идентификации. Применительно к анализу изображений такие условия возникают по следующим причинам. Во-первых, анализируемые объекты приходится различать не по интенсивности сигнала, а по сложным геометрическим и топологическим параметрам типа формы. Во-вторых, всегда присутствует большое структурное разнообразие анализируемых объектов, например, при распознавании символов - это различные алфавиты и шрифты; при роботизации производства - это широкая номенклатура деталей и операций с ними; в системах наблюдения и контроля обстановки - это всевозможные типы техники, людей, промышленных объектов и коммуникаций. Третьим фактором, создающим априорную неопределенность в задачах автоматического анализа изображений, является неограниченная изменчивость условий наблюдения объектов по масштабам, ракурсам, подстилающим поверхностям, условиям освещенности.At the same time, in practical recognition problems, there is the so-called a priori uncertainty problem, consisting in the fact that objects of any classes are represented by an almost unlimited set of realizations, in which none of the microstructural properties of the analyzed signal turns out to be a sufficiently reliable sign either to isolate the object or to its identification. As applied to image analysis, such conditions arise for the following reasons. First, the analyzed objects have to be distinguished not by signal intensity, but by complex geometric and topological parameters of the form type. Secondly, there is always a large structural diversity of the analyzed objects, for example, when recognizing characters - these are different alphabets and fonts; during production robotization, this is a wide range of parts and operations with them; in surveillance and environmental control systems, these are all kinds of types of equipment, people, industrial facilities and communications. The third factor creating a priori uncertainty in the tasks of automatic image analysis is the unlimited variability of the conditions for observing objects in terms of scale, angles, underlying surfaces, and lighting conditions.

Тем самым, условия априорной неопределенности ограничивают применения распознающих систем со специфическими априорными эталонами объектов. Для преодоления данных ограничений развивают так называемые структурно-лингвистические методы распознавания, в которых производится обнаружение простейших типовых элементов изображения - примитивов, - которые и составляют изображения объектов.Thus, the conditions of a priori uncertainty limit the use of recognition systems with specific a priori standards of objects. To overcome these limitations, the so-called structural-linguistic recognition methods are developed, in which the simplest typical image elements — primitives — that make up the images of objects are detected.

Аналогами заявляемого технического решения являются, например, способ и устройство распознавания объектов по авторскому свидетельству СССР №1697533, 1990 г., МПК G06К 9/00; способ и устройство для распознавания объектов по патенту ФРГ №03327445, МПК G06F 15, G06К 9/00.Analogs of the claimed technical solution are, for example, a method and device for recognizing objects according to the USSR copyright certificate No. 1697533, 1990, IPC G06K 9/00; Method and device for object recognition according to the patent of Germany No. 03327445, IPC G06F 15, G06K 9/00.

Наиболее близким к заявляемому техническим решением, выбранным в качестве прототипа, является программно-аппаратный комплекс для анализа биологических препаратов по свидетельству России №16628 на полезную модель от 20.01.2001 г., МПК 7 G01N 33/48, G06К 9/00.Closest to the claimed technical solution, selected as a prototype, is a hardware-software complex for the analysis of biological products according to Russian certificate No. 16628 for utility model dated January 20, 2001, IPC 7 G01N 33/48, G06K 9/00.

Способ распознавания, реализованный в прототипе, состоит из последовательности операций нормализации входного сигнала изображения, обнаружения на нормализованном входном сигнале областей как структурных элементов изображения, измерения характеристик обнаруженных областей и классификации обнаруженных областей как искомых объектов. При этом в качестве простейших областей изображения, отображающих искомые и анализируемые объекты, выявляются такие участки-области нормализованного изображения, которые образованы соседствующими, т.е. пространственно связными, пикселями, имеющими значения яркости (интенсивности сигнала изображения) в заданном диапазоне.The recognition method implemented in the prototype consists of a sequence of operations for normalizing the input image signal, detecting on the normalized input signal the regions as structural elements of the image, measuring the characteristics of the detected regions and classifying the detected regions as the desired objects. In this case, as the simplest image areas displaying the desired and analyzed objects, such areas-areas of the normalized image that are formed by adjacent ones, i.e. spatially connected, pixels having brightness values (image signal intensities) in a given range.

Основной недостаток способа-прототипа заключается в наличии ошибки обнаружения элементов изображения, или областей изображения, которые представляют анализируемые объекты. Этот недостаток проявляется в несовпадении обнаруживаемых областей с фактическими изображениями (силуэтами) объектов и/или их информативных фрагментов. Ошибка эта тем больше, чем сложнее сюжет и чем больше рассогласование между оптимальными для данных условий наблюдения и фактическими значениями параметров операций обработок входного сигнала.The main disadvantage of the prototype method is the presence of an error in detecting image elements, or image areas that represent the analyzed objects. This disadvantage is manifested in the mismatch of the detected areas with the actual images (silhouettes) of objects and / or their informative fragments. This error is the greater, the more complex the plot and the greater the mismatch between the optimal observation conditions for the given data and the actual values of the parameters of the operations of processing the input signal.

Указанный недостаток прототипа обуславливается тем, что обнаружение областей-объектов в нем производится по пространственно связным значениям нормализованного входного сигнала. При этом правильность попадания силуэтов объектов в обрабатываемые связностью яркостные диапазоны зависит от параметров операций квантования (дискретизации уровня яркости) и пространственной фильтрации при нормализации входного изображения.The specified disadvantage of the prototype is due to the fact that the detection of areas of objects in it is carried out by spatially connected values of the normalized input signal. In this case, the correctness of the silhouettes of objects falling into the luminance ranges processed by the connection depends on the parameters of the quantization operations (discretization of the brightness level) and spatial filtering during normalization of the input image.

Раскрытие изобретенияDisclosure of invention

Задачей предлагаемого изобретения является расширение области применения способа распознавания на случаи принципиальной априорной неопределенности путем уменьшения зависимости достоверности обнаружения элементов изображения, составляющих изображения объектов и/или их информативных фрагментов, от значений параметров операции нормализации входного сигнала и других обработок.The objective of the invention is to expand the scope of the recognition method for cases of fundamental a priori uncertainty by reducing the dependence of the reliability of detection of image elements constituting images of objects and / or their informative fragments on the values of the parameters of the normalization operation of the input signal and other processing.

Поставленная задача достигается тем, что в способ распознавания изображений, содержащий операцию нормализации входного сигнала, операцию квантования сигнала, операцию выделения по связности областей и операцию классификации, вводят дополнительно операцию обнаружения локальных экстремумов, операцию формирования описания изображения, операцию формирования вспомогательного сигнала и операцию группирования областей. При этом обнаружение локальных экстремумов производят на входном сигнале изображения и на нормализованном входном сигнале посредством независимого в каждом сигнале сравнения значений соседних отсчетов, а сигнал обнаруженных локальных экстремумов преобразуют и запоминают операцией формирования описания изображения. Сформированный сигнал описания изображения затем используют при формировании вспомогательного сигнала для нелинейного преобразования линейной комбинации сигнала входного изображения и нормализованного входного сигнала. Далее сформированный вспомогательный сигнал квантуют и квантованный сигнал преобразуют посредством анализа пространственной связности его соседних отсчетов в сигнал выделенных областей, который преобразуют и запоминают операцией формирования описания изображения. Также сигнал выделенных областей преобразуют посредством статистического и логического анализа в сигнал групп областей, который также преобразуют и запоминают операцией формирования описания изображения. Сигналы выделенных по связности областей и групп областей формируют с использованием сигналов входного изображения и сформированного описания изображения. Также сигналы выделенных по связности областей и групп областей и входной сигнал изображения преобразуют операцией классификации посредством сравнения с эталонными сигналами в сигнал классификации, который также преобразуют и запоминают операцией формирования описания изображения.The problem is achieved by the fact that in the image recognition method containing the operation of normalizing the input signal, the operation of quantizing the signal, the operation of extracting from the connected areas and the classification operation, an additional operation for detecting local extremes, an operation for generating an image description, an operation for generating an auxiliary signal and an operation for grouping regions are introduced . In this case, the detection of local extrema is performed on the input image signal and on the normalized input signal by independently comparing the values of neighboring samples in each signal, and the signal of the detected local extrema is converted and stored by the image description generation operation. The generated image description signal is then used in generating an auxiliary signal for non-linear conversion of a linear combination of the input image signal and the normalized input signal. Next, the generated auxiliary signal is quantized and the quantized signal is converted by analyzing the spatial connectivity of its neighboring samples into a signal of the selected areas, which are converted and stored by the image description generating operation. Also, the signal of the selected areas is converted by statistical and logical analysis into a signal of groups of areas, which are also converted and stored by the operation of generating an image description. The signals of the connected regions and groups of regions are formed using the signals of the input image and the generated image description. Also, the signals of connected regions and groups of regions and the input image signal are converted by a classification operation by comparison with the reference signals into a classification signal, which is also converted and stored by the operation of generating an image description.

Достигаемый при этом по сравнению с прототипом технический результат состоит в следующем:The technical result achieved in this case in comparison with the prototype is as follows:

- множество обнаруживаемых локальных экстремумов фактически выявляет и описывает информационную структуру изображения, распознавая его определением центров и границ всех присутствующих на изображении текстурных неоднородностей, т.е. искомых примитивов;- the set of detectable local extrema actually reveals and describes the information structure of the image, recognizing it by determining the centers and boundaries of all texture heterogeneities present in the image, i.e. desired primitives;

- структура множества обнаруживаемых локальных экстремумов, по крайней мере, в части границ структурных элементов изображения не зависит от абсолютных значений яркости примитивов и формы распределения яркости по их пространству. Более того, данные о локальных экстремумах сами могут быть непосредственно использованы для улучшения качества исходного изображения. Тем самым исключается зависимость достоверности распознавания от параметров нормализации, т.е. способов предварительной обработки анализируемого изображения и повышения отношения сигнал/шум.- the structure of the set of detected local extrema, at least in terms of the boundaries of the structural elements of the image, does not depend on the absolute brightness values of the primitives and the shape of the brightness distribution over their space. Moreover, data on local extremes can themselves be directly used to improve the quality of the original image. This eliminates the dependence of recognition reliability on normalization parameters, i.e. ways of preprocessing the analyzed image and increasing the signal-to-noise ratio.

Введенная операция обнаружения локальных экстремумов дает дополнительную, независимую от абсолютных значений яркости, информацию для разметки границ искомых структурных элементов изображения, или областей-объектов, необходимую для последующей обработки изображения операцией выявления областей-объектов по условию пространственной связности.The introduced operation of detecting local extremes provides additional information independent of the absolute brightness values for marking the boundaries of the desired structural image elements or regions of objects, necessary for subsequent processing of the image by the operation of identifying regions of objects by the condition of spatial connectivity.

Краткое описание чертежейBrief Description of the Drawings

На фиг.1 приведена блок-схема устройства, реализующего предлагаемый способ.Figure 1 shows a block diagram of a device that implements the proposed method.

На фиг.2 приведен вариант реализации блока обнаружения локальных экстремумов.Figure 2 shows an embodiment of a block for detecting local extremes.

На фиг.3 приведен вариант реализации блока нормализации входного сигнала.Figure 3 shows an embodiment of a normalization block of the input signal.

На фиг.4 приведен вариант реализации блока формирования описания изображения.Figure 4 shows an embodiment of an image description forming unit.

На фиг.5 приведен вариант реализации блока формирования вспомогательного сигнала.Figure 5 shows an embodiment of the auxiliary signal generating unit.

На фиг.6 приведен вариант реализации блока квантования сигнала.Figure 6 shows an embodiment of a block of quantization of a signal.

На фиг.7 приведен вариант реализации блока выделения по связности областей.Figure 7 shows an embodiment of a block allocation by connecting areas.

На фиг.8 приведен вариант реализации блока группирования областей.On Fig shows an embodiment of a block grouping areas.

На фиг.9 приведен вариант реализации блока классификации.Figure 9 shows an embodiment of a classification block.

На фиг.1 обозначено:In figure 1 is indicated:

1 Блок обнаружения локальных экстремумов,1 Local extremum detection unit,

2 Блок нормализации входного сигнала,2 Block normalization of the input signal,

3 Блок формирования описания изображения,3 Block forming the image description,

4 Блок формирования вспомогательного сигнала,4 Block forming an auxiliary signal,

5 Блок квантования сигнала,5 Block quantization signal

6 Блок выделения по связности областей,6 Block allocation by connected areas,

7 Блок группирования областей,7 Area grouping unit,

8 Блок классификации.8 Classification block.

На фиг.2 обозначено:In figure 2 is indicated:

Входной сигнал изображения,Image input signal,

Нормализованный входной сигнал,Normalized input

9 Аналого-цифровой преобразователь,9 analog to digital converter,

10 Аналого-цифровой преобразователь,10 analog to digital converter,

11 Запоминающее устройство,11 storage device

12 Компаратор,12 Comparator,

13 Компаратор,13 Comparator,

14 Компаратор,14 Comparator,

15 Логический блок,15 logical unit,

16 Запоминающее устройство.16 storage device.

На фиг.3 обозначено:In figure 3 is indicated:

17 Блок фильтров,17 filter unit,

18 Блок дифференцирования,18 differentiation unit,

19 Запоминающее устройство,19 storage device

20 Блок усилителей.20 Amplifier unit.

21 Сумматор.21 Adder.

На фиг.4 обозначено:In figure 4 is indicated:

22 Преобразователь,22 Converter,

23 Запоминающее устройство,23 storage device

24 Запоминающее устройство,24 storage device,

25 Запоминающее устройство,25 storage device,

26 Запоминающее устройство,26 storage device,

27 Преобразователь.27 Converter.

На фиг.5 обозначено:Figure 5 is indicated:

28 Преобразователь,28 Converter,

29 Преобразователь,29 Converter,

30 Усилитель,30 Amplifier,

31 Усилитель,31 Amplifier

32 Сумматор.32 adder.

На фиг.6 обозначено:In Fig.6 indicated:

33 Компаратор,33 Comparator,

34 Запоминающее устройство.34 storage device.

На фиг.7 обозначено:In Fig.7 indicated:

35 Запоминающее устройство,35 storage device,

36 Логический блок нумерации,36 Numbering logic block,

37 Запоминающее устройство,37 storage device

38 Блок проверки контрольной суммы,38 Checksum verification unit,

39 Вычислитель характеристик областей,39 The calculator characteristics of the areas

40 Запоминающее устройство.40 storage device.

На фиг.8 обозначено:On Fig indicated:

41 Запоминающее устройство,41 storage device

42 Блок статистического анализа,42 block statistical analysis,

43 Блок логического объединения,43 Block logical combination,

44 Вычислитель характеристик групп областей,44 The calculator characteristics of the groups of regions,

45 Запоминающее устройство.45 storage device.

На фиг.9 обозначено:In Fig.9 indicated:

46 Запоминающее устройство,46 storage device

47 Запоминающее устройство,47 storage device

48 Компаратор,48 Comparator,

49 Блок выборки эталонов.49 Block sampling standards.

Осуществление изобретенияThe implementation of the invention

Предлагаемый способ может быть осуществлен в виде устройства, блок-схема которого представлена на фиг.1. Устройство состоит из последовательного соединения блока 1 обнаружения локальных экстремумов, блока 3 формирования описания изображения, блока 4 формирования вспомогательного сигнала, блока 5 квантования сигнала, блока 6 выделения по связности областей, блока 7 группирования областей и блока 8 классификации, ко второму входу которого подсоединен выход блока 6 выделения по связности областей, а выход блока 8 классификации подсоединен ко второму входу блока 3 формирования описания изображения. Устройство также включает в себя блок 2 нормализации входного сигнала, выход которого подсоединен ко второму входу блока 1 обнаружения локальных экстремумов и ко второму входу блока 4 формирования вспомогательного сигнала, а вход блока 2 нормализации входного сигнала подсоединен ко входу блока 1 обнаружения локальных экстремумов, на который подается входной сигнал изображения и который является входом устройства, и подсоединен также к третьему входу блока 4 формирования вспомогательного сигнала, ко второму входу блока 6 выделения по связности областей и ко второму входу блока 7 группирования областей. При этом выход блока 3 формирования описания изображения подсоединен также к третьему входу блока 6 выделения по связности областей и к третьему входу блока 7 группирования областей, выход которого подсоединен также к третьему входу блока 3 формирования описания изображения, а выход блока 6 выделения по связности областей подсоединен также к четвертому входу блока 3 формирования описания изображения.The proposed method can be implemented in the form of a device, a block diagram of which is presented in figure 1. The device consists of a series connection of a local extremum detection unit 1, an image description generating unit 3, an auxiliary signal generating unit 4, a signal quantization unit 5, an area connectivity unit 6, an area grouping unit 7, and a classification unit 8, to the second input of which an output is connected block 6 allocation of connected areas, and the output of block 8 classification is connected to the second input of block 3 of the formation of the image description. The device also includes an input signal normalization unit 2, the output of which is connected to the second input of the local extreme detection unit 1 and to the second input of the auxiliary signal generating unit 4, and the input signal normalization unit 2 is connected to the input of the local extreme detection unit 1, to which an input image signal is supplied and which is the input of the device, and is also connected to the third input of the auxiliary signal generating unit 4, to the second input of the isolation allocation unit 6 areas and to the second input of block 7 grouping areas. Moreover, the output of the image description generating unit 3 is also connected to the third input of the area grouping unit 6 and the third input of the area grouping unit 7, the output of which is also connected to the third input of the image description forming unit 3, and the output of the area connecting unit 6 is connected also to the fourth input of the image description generating unit 3.

Устройство, реализующее предлагаемый способ, работает следующим образом.A device that implements the proposed method works as follows.

Входной сигнал изображения, поступающий на вход устройства, и нормализованный входной сигнал, формируемый в блоке 2 нормализации входного сигнала, преобразуют в блоке 1 обнаружения локальных экстремумов в сигнал локальных экстремумов, который запоминают в блоке 3 формирования описания изображения. Затем в блоке 4 формирования вспомогательного сигнала формируют из входного сигнала изображения, нормализованного входного сигнала и сигнала локальных экстремумов первичный вспомогательный сигнал. Первичный вспомогательный сигнал далее квантуют по уровню в блоке 6 квантования сигнала и получают, тем самым, бинарные вторичные вспомогательные сигналы. Вторичные вспомогательные сигналы в блоке 6 выделения по связности областей преобразуют по правилу пространственной связности в сигнал номерного силуэтного изображения, отсчеты которого представлены номером яркостной области (т.е. структурного элемента изображения), в которую входит данный отсчет. Здесь же, в блоке 6 выделения по связности областей, для каждой выделенной таким образом области вычисляются по входному сигналу изображения яркостные, геометрические и топологические характеристики, включая показатели формы. Сигнал характеристик запоминают в блоке 3 формирования описания изображения, а также преобразуют в блоке 7 группирования областей в сигнал групп областей на основе логического и статистического анализа параметров сигнала выделенных по связности областей. Здесь же, в блоке 7 группирования областей, аналогично как в блоке 6, вычисляются по входному сигналу изображения яркостные, геометрические и топологические характеристики, включая показатели формы, выявленных групп областей. Сигнал характеристик групп областей также запоминают в блоке 3 формирования описания изображения. На заключительном этапе распознавания входного сигнала изображения производят в блоке 8 классификации сравнение сигналов характеристик выделенных по связности областей и групп областей с эталонными сигналами классов объектов и формируют сигнал оценки подобия выделенных по связности областей и групп областей заданным эталонными сигналами классам объектов. Сигнал оценки подобия также запоминают в блоке 3 формирования описания изображения.The input image signal supplied to the input of the device and the normalized input signal generated in the input signal normalization unit 2 are converted in the local extremum detection unit 1 into a local extremum signal, which is stored in the image description generating unit 3. Then, in the auxiliary signal generating unit 4, a primary auxiliary signal is formed from the input image signal, the normalized input signal, and the local extremum signal. The primary auxiliary signal is then quantized in level in the signal quantization unit 6, and thus, binary secondary auxiliary signals are obtained. Secondary auxiliary signals in the block 6 allocation by connectivity areas are converted according to the rule of spatial connectivity into a signal of a numbered silhouette image, the readings of which are represented by the number of the luminance region (i.e. the structural element of the image), which includes this sample. Here, in block 6, the selection by connectivity of the regions, for each region thus selected, the brightness, geometric and topological characteristics, including shape indicators, are calculated by the input image signal. The characteristics signal is stored in the image description generating unit 3, and also converted in the area grouping unit 7 into a signal of the area groups based on a logical and statistical analysis of the signal parameters of the regions identified by the connectedness. Here, in block 7 grouping areas, similarly as in block 6, the brightness, geometric and topological characteristics are calculated by the input image signal, including shape indicators, revealed groups of areas. The signal of the characteristics of the groups of regions is also stored in the block 3 forming the image description. At the final stage of recognition of the input image signal, in block 8 of the classification, the comparison of the signals of the characteristics of the regions and groups of regions identified by connectivity with the reference signals of object classes is generated and a signal for evaluating the similarity of the regions and groups of regions identified by connectivity to the object classes specified by the reference signals is generated. The similarity rating signal is also stored in the image description generating unit 3.

Блоки устройства, реализующего предполагаемый способ, работают следующим образом.The blocks of the device that implements the proposed method, operate as follows.

В блоке 1 обнаружения локальных экстремумов, вариант реализации которого приведен на фиг.2, входной сигнал изображения и нормализованный входной сигнал подаются каждый, соответственно, на аналогово-цифровые преобразователи 9 и 10, сигналы с выхода которых запоминаются в запоминающем устройстве 11. Затем для каждого отсчета запомненных цифровых изображений компараторами 12, 13 и 14 производится выявление числа соседних отсчетов, соответственно, с большими, меньшими и равными значениями сигнала. По этим параметрам в логическом блоке 15 формируют сигнал оценки типа локального экстремума в анализируемом отсчете, который запоминают в запоминающем устройстве 16. Тем самым формируют данные о локальных структурных элементах - локальных экстремумах, - составляющих информационную структуру входного сигнала изображения и представленные на нем объекты.In the block 1 for detecting local extremes, the implementation of which is shown in Fig. 2, the input image signal and the normalized input signal are each supplied, respectively, to analog-to-digital converters 9 and 10, the output signals of which are stored in the storage device 11. Then, for each counting of stored digital images by comparators 12, 13 and 14, the number of neighboring samples is detected, respectively, with larger, smaller and equal signal values. According to these parameters, in the logical block 15, an evaluation signal of the type of local extremum is generated in the analyzed sample, which is stored in the storage device 16. Thereby, data are generated on the local structural elements — local extrema — that make up the information structure of the input image signal and the objects represented on it.

В блоке 2 нормализации входного сигнала, вариант реализации которого приведен на фиг.3, входной сигнал изображения преобразуют в блоке 17 фильтров и блоке 18 дифференцирования в ряд промежуточных сигналов, которые, вместе с входным сигналом изображения и дополнительно запомненными в запоминающем устройстве 19 сигналами, усиливают в блоке 20 усилителей, каждый со своим коэффициентом, и затем суммируют в сумматоре 21.In block 2 of the normalization of the input signal, the implementation of which is shown in figure 3, the input image signal is converted in the filter unit 17 and the differentiation unit 18 into a series of intermediate signals, which, together with the input image signal and additionally stored signals in the storage device 19, amplify in block 20 amplifiers, each with its own coefficient, and then summed in the adder 21.

В блоке 3 формирования описания изображения, вариант реализации которого приведен на фиг.4, производят последовательное запоминание выявленных характеристик анализируемого входного сигнала изображения. При этом каждый из сформированных сигналов локальных экстремумов, выделенных по связности областей, групп областей и сигнала классификации преобразуется во входном преобразователе 22 к единообразному табличному виду списка областей изображения и их характеристик, а затем запоминается, соответственно, в запоминающих устройствах 23, 24, 25 и 26. Выборку запомненных характеристик анализируемого изображения выполняют с помощью выходного преобразователя 27. При этом ранее полученные данные о параметрах входного сигнала изображения используют для получения его последующих параметров, в частности данные об обнаруженных локальных экстремумах поступают также в блок 4 формирования вспомогательного сигнала, блок 6 выделения по связности областей и в блок 7 группирования областей.In block 3 of the formation of the image description, the implementation of which is shown in figure 4, sequential storage of the detected characteristics of the analyzed input image signal is performed. Moreover, each of the generated local extremum signals, distinguished by the connectivity of regions, groups of regions and a classification signal, is converted in the input converter 22 to a uniform tabular form of a list of image regions and their characteristics, and then stored in memory devices 23, 24, 25 and, respectively 26. The selection of the stored characteristics of the analyzed image is performed using the output transducer 27. In this case, the previously obtained data on the parameters of the input image signal are used To obtain its subsequent parameters, particularly the data on the detected local extrema also fed to block 4 of the auxiliary signal forming unit 6 for allocating areas and connected to the block 7 of grouping regions.

В блоке 4 формирования вспомогательного сигнала, вариант реализации которого приведен на фиг.5, производят формирование первичного вспомогательного сигнала для выделения областей изображения по пространственной связности. Формирование первичного вспомогательного сигнала выполняют усилением преобразователем 28 во входном сигнале изображения и преобразователем 29 в нормализованном входном сигнале тех их участков, которые соответствуют заданным типам локальных экстремумов, усилением в усилителях 30 и 31 этих преобразованных сигналов и их суммированием сумматором 32.In block 4 for generating an auxiliary signal, an embodiment of which is shown in FIG. 5, a primary auxiliary signal is formed to select image areas by spatial connectivity. The formation of the primary auxiliary signal is performed by amplification by the converter 28 in the input image signal and by the converter 29 in the normalized input signal of those sections that correspond to the specified types of local extrema, by amplification in the amplifiers 30 and 31 of these converted signals and their summing by the adder 32.

В блоке 5 квантования сигнала, вариант реализации которого приведен на фиг.6, производят формирование бинарных вторичных вспомогательных сигналов для непосредственного выделения областей по пространственной связности. Вторичные вспомогательные изображения формируют из первичного вспомогательного сигнала посредством его квантования, т.е. дискретизации по уровню, в компараторе 33 и их запоминанием в запоминающем устройстве 34.In block 5 of the quantization of the signal, the implementation of which is shown in Fig.6, produce the formation of binary secondary auxiliary signals for the direct selection of areas of spatial connectivity. Secondary auxiliary images are formed from the primary auxiliary signal by quantization, i.e. discretization by level in the comparator 33 and their storage in the storage device 34.

В блоке 6 выделения по связности областей, вариант реализации которого приведен на фиг.7, производят преобразование квантованного сигнала в сигнал номерного силуэтного изображения, отсчеты которого представлены номером области (или элемента), в которую входит данный отсчет. Для этого в запоминающее устройство 35 записывают поочередно вторичные вспомогательные бинарные изображения, или их фрагменты, выбранные по заданным характеристикам сигнала локальных экстремумов. Отсчеты запомненных бинарных изображений нумеруют в логическом блоке 36 нумерации по критерию пространственной связности и полученное номерное силуэтное изображение запоминают в запоминающем устройстве 37. Для запомненного номерного изображения в блоке 38 проверки контрольной суммы вычисляют его контрольную сумму и повторяют в логическом блоке 36 нумерации перенумерацию этого изображения до повторения значения контрольной суммы. Полученное таким образом номерное силуэтное изображение считают результирующим для текущего вторичного вспомогательного бинарного сигнала и для выделенных на нем областей вычисляют в вычислителе 39 характеристик областей их яркостные, геометрические и топологические, включая показатели формы, характеристики. Результирующий сигнал выделенных по связности областей и их характеристик накапливают в запоминающем устройстве 40. Тем самым формируют данные о нелокальных структурных элементах - яркостных областях, - составляющих входной сигнал изображения и представленные на нем объекты.In block 6, the selection of connected regions, the implementation of which is shown in Fig.7, converts the quantized signal into a signal of a numbered silhouette image, the readings of which are represented by the number of the region (or element), which includes this sample. For this, secondary auxiliary binary images, or fragments thereof, selected according to the specified characteristics of the signal of local extrema, are alternately recorded in the storage device 35. The samples of the stored binary images are numbered in the logical numbering unit 36 according to the criterion of spatial connectivity and the resulting numbered silhouette image is stored in the memory 37. For the stored numbered image in the checksum verification unit 38, its checksum is calculated and the numbering of this image is repeated by renumbering to repeating the checksum value. The numbered silhouette image obtained in this way is considered to be the result of the current secondary auxiliary binary signal, and for the areas highlighted on it, the brightness characteristics, geometric and topological characteristics of the regions are calculated in the calculator 39 of the regions, including shape indicators and characteristics. The resulting signal of the connected areas and their characteristics is accumulated in the storage device 40. Thereby, data on non-local structural elements — brightness areas — that make up the input image signal and the objects represented on it are generated.

В блоке 7 группирования областей, вариант реализации которого приведен на фиг.8, осуществляют разделение множества выделенных по связности областей на подмножества (кластеры), элементы - области которых имеют близкие значения характеристик. Для этого в запоминающее устройство 41 поочередно записывают выборки вычисленных ранее характеристик выделенных по связности областей и обнаруженных локальных экстремумов, выполняют их статистический анализ в блоке 42 статистического анализа, а затем в блоке 43 логического объединения формируют по заданному критерию сигнал принадлежности области группе (кластеру). Далее в вычислителе 44 характеристик групп областей вычисляют для групп областей - кластеров - такой же набор характеристик, как и для выделенных по связности областей, и эти данные накапливают в запоминающем устройстве 45. Тем самым формируют данные о кластерных структурных элементах - группах яркостных областях, - составляющих входной сигнал изображения и представленные на нем объекты.In block 7 grouping regions, an implementation option of which is shown in Fig. 8, the plurality of areas identified by connectivity is divided into subsets (clusters), the elements - regions of which have similar characteristics. For this, samples 41 of previously calculated characteristics of the regions identified by connectivity and detected local extrema are alternately recorded in the storage device 41, their statistical analysis is performed in the statistical analysis block 42, and then, in the logical union block 43, an area membership group (cluster) signal is generated according to a specified criterion. Then, in the calculator 44 of the characteristics of the groups of regions, the same set of characteristics is calculated for the groups of regions — clusters — as for the regions identified by connectedness, and these data are accumulated in the storage device 45. Thereby, data are generated about the cluster structural elements — groups of brightness regions, - constituting the input image signal and the objects represented on it.

В блоке 8 классификации, вариант реализации которого приведен на фиг.9, производят в компараторе 48 сравнение характеристик выделенных по связности областей и групп областей, поочередно записываемых в запоминающее устройство 46, с эталонными описаниями заданных классов объектов, хранящихся в запоминающем устройстве 47 и поочередно выбираемых блоком 49 выборки эталонов. По результатам сравнения в компараторе 48 формируют сигнал оценки подобия, который также запоминают в блоке 3 формирования описания изображения.In the classification block 8, the implementation variant of which is shown in Fig. 9, the comparator 48 compares the characteristics of the connected regions and groups of regions, which are alternately recorded in the memory 46, with reference descriptions of the specified classes of objects stored in the memory 47 and alternately selected block 49 sample standards. According to the results of the comparison, a similarity assessment signal is generated in the comparator 48, which is also stored in the image description generating unit 3.

Таким образом, в процессе распознавания изображения предлагаемым способом поэтапно формируют описание его информационной структуры в виде списка составляющих изображение элементов (или областей-объектов) с их характеристиками. Первичное приближенное описание структуры распознаваемого изображения получают сразу же после обнаружения локальных экстремумов. На следующих этапах распознавания изображения эту информационную структуру анализируемого изображения уточняют посредством более точного выделения по связности областей-объектов и измерения полного набора их характеристик, присутствующих на входном изображении, а также выявлением кластеров областей. Выявленная информационная структура входного изображения дополняется данными о подобии выявленных областей и кластеров областей заданным классам объектов.Thus, in the process of image recognition by the proposed method, a step-by-step description of its information structure is formed in the form of a list of elements (or areas-objects) making up the image with their characteristics. A primary approximate description of the structure of the recognized image is obtained immediately after the detection of local extremes. At the next stages of image recognition, this information structure of the analyzed image is clarified by more accurately identifying connected areas of objects and measuring the full set of their characteristics present in the input image, as well as identifying clusters of areas. The revealed informational structure of the input image is supplemented by data on the similarity of the identified regions and clusters of regions to given classes of objects.

Claims (1)

Способ распознавания сигналов изображений, содержащий операцию нормализации сигнала изображения, операцию квантования сигнала, операцию обнаружения связных областей, операцию классификации, отличающийся тем, что введены операция обнаружения локальных экстремумов, операция формирования сигнала описания изображения, операция формирования вспомогательного сигнала и операция обнаружения групп областей, при этом последовательно формируют нормализованный сигнал изображения, сигнал обнаруженных локальных экстремумов, сигнал описания изображения, вспомогательный сигнал, квантованный сигнал, сигнал обнаруженных связных областей, сигнал обнаруженных групп областей, сигнал классификации и сигнал описания изображения, который формируют запоминанием сначала сигнала обнаруженных локальных экстремумов, затем запоминанием сигнала обнаруженных связных областей, затем запоминанием сигнала обнаруженных групп областей и затем запоминанием сигнала классификации, при этом обнаружение локальных экстремумов производят на сигнале изображения и на нормализованном сигнале изображения посредством независимого в каждом сигнале сравнения значений соседних отсчетов, а сигнал обнаруженных локальных экстремумов формируют как перечень обнаруженных локальных экстремумов и их характеристик, которые вычисляют на соответствующем сигнале для каждого обнаруженного экстремума; вспомогательный сигнал формируют как линейную комбинацию сигнала изображения и нормализованного сигнала изображения, которую подвергают нелинейному преобразованию под управлением сигнала описания изображения; вспомогательный сигнал квантуют и обнаружение связных областей производят на квантованном сигнале под управлением сигнала описания изображения, а характеристики связных областей вычисляют на сигнале изображения; обнаружение групп областей производят под управлением сигнала описания изображения и посредством выявления связных областей с подобными характеристиками на ограниченных участках сигнала изображения, сигнал обнаруженных групп областей формируют как перечень обнаруженных групп областей и их характеристик, которые вычисляют для каждой обнаруженной группы областей на сигнале изображения и на сигнале обнаруженных связных областей; далее сигнал обнаруженных связных областей, сигнал обнаруженных групп областей и сигнал изображения сравнивают с эталонными сигналами, вычисляют оценку подобия сравниваемых сигналов и формируют сигнал классификации, который также запоминают операцией формирования сигнала описания изображения.A method for recognizing image signals, comprising an operation for normalizing an image signal, an operation for quantizing a signal, an operation for detecting connected areas, a classification operation, characterized in that an operation for detecting local extremes, an operation for generating an image description signal, an operation for generating an auxiliary signal and an operation for detecting groups of regions are introduced, this successively generates a normalized image signal, a signal of detected local extremes, a description signal images, an auxiliary signal, a quantized signal, a signal of detected connected regions, a signal of detected groups of regions, a classification signal and an image description signal, which is formed by storing the signal of the detected local extremes first, then storing the signal of the detected connected regions, then storing the signal of the detected region groups and then storing classification signal, while the detection of local extremes is performed on the image signal and on the normalized signal from brazings by means of independent comparison of values of neighboring samples in each signal, and the signal of detected local extrema is formed as a list of detected local extrema and their characteristics, which are calculated on the corresponding signal for each detected extremum; the auxiliary signal is formed as a linear combination of an image signal and a normalized image signal, which is subjected to non-linear transformation under the control of the image description signal; the auxiliary signal is quantized and the detection of the connected regions is performed on the quantized signal under the control of the image description signal, and the characteristics of the connected regions are calculated on the image signal; the detection of groups of regions is carried out under the control of the image description signal and by identifying connected areas with similar characteristics in limited areas of the image signal, the signal of the detected groups of regions is formed as a list of the detected groups of regions and their characteristics, which are calculated for each detected group of regions on the image signal and on the signal Connected areas detected Further, the signal of the detected connected regions, the signal of the detected group of regions, and the image signal are compared with the reference signals, a similarity score of the compared signals is calculated, and a classification signal is generated, which is also stored by the operation of generating the image description signal.
RU2005132661/09A 2005-10-25 2005-10-25 Image recognition method RU2313828C2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2005132661/09A RU2313828C2 (en) 2005-10-25 2005-10-25 Image recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2005132661/09A RU2313828C2 (en) 2005-10-25 2005-10-25 Image recognition method

Publications (2)

Publication Number Publication Date
RU2005132661A RU2005132661A (en) 2007-05-10
RU2313828C2 true RU2313828C2 (en) 2007-12-27

Family

ID=38107469

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2005132661/09A RU2313828C2 (en) 2005-10-25 2005-10-25 Image recognition method

Country Status (1)

Country Link
RU (1) RU2313828C2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2517286C2 (en) * 2008-04-25 2014-05-27 Конинклейке Филипс Электроникс Н.В. Classification of samples data

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2517286C2 (en) * 2008-04-25 2014-05-27 Конинклейке Филипс Электроникс Н.В. Classification of samples data

Also Published As

Publication number Publication date
RU2005132661A (en) 2007-05-10

Similar Documents

Publication Publication Date Title
Faghih-Roohi et al. Deep convolutional neural networks for detection of rail surface defects
CN111008961B (en) Transmission line equipment defect detection method and system, equipment and medium thereof
CN110766095B (en) Defect detection method based on image gray level features
CN108154498A (en) A kind of rift defect detecting system and its implementation
Laga et al. Image-based plant stornata phenotyping
CN114091606A (en) Tunnel blasting blast hole half-hole mark identification and damage flatness evaluation classification method
CN113963041A (en) Image texture recognition method and system
CN104715481A (en) Multi-scale presswork defect detecting method based on random forest
CN111008956B (en) Beam bottom crack detection method, system, device and medium based on image processing
CN113793337A (en) Locomotive accessory surface abnormal degree evaluation method based on artificial intelligence
CN116137036A (en) Gene detection data intelligent processing system based on machine learning
CN118037091A (en) Intelligent report working quality detection method and system based on computer vision technology
Lehr et al. Classification of similar objects of different sizes using a reference object by means of convolutional neural networks
Chang et al. An unsupervised neural network approach for automatic semiconductor wafer defect inspection
CN110826571B (en) Image traversal algorithm for rapid image identification and feature matching
Zirngibl et al. Approach for the automated analysis of geometrical clinch joint characteristics
RU2313828C2 (en) Image recognition method
CN111507177B (en) Identification method and device for metering turnover cabinet
CN114065798A (en) Visual identification method and device based on machine identification
CN110349119B (en) Pavement disease detection method and device based on edge detection neural network
Aldosari et al. Image-Based Partial Discharge Identification in High Voltage Cables Using Hybrid Deep Network
CN109951409B (en) Method and system for determining modulation signal category
Dunphy et al. Autonomous crack detection approach for masonry structures using artificial intelligence
RU2355028C2 (en) Method of analysing signals on state of object
Bidhendi et al. Material classification of hyperspectral images using unsupervised fuzzy clustering methods

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20111026