Nothing Special   »   [go: up one dir, main page]

KR101944374B1 - Apparatus and method for detecting abnormal object and imaging device comprising the same - Google Patents

Apparatus and method for detecting abnormal object and imaging device comprising the same Download PDF

Info

Publication number
KR101944374B1
KR101944374B1 KR1020180017177A KR20180017177A KR101944374B1 KR 101944374 B1 KR101944374 B1 KR 101944374B1 KR 1020180017177 A KR1020180017177 A KR 1020180017177A KR 20180017177 A KR20180017177 A KR 20180017177A KR 101944374 B1 KR101944374 B1 KR 101944374B1
Authority
KR
South Korea
Prior art keywords
data
motion
entity
pixel
abnormal
Prior art date
Application number
KR1020180017177A
Other languages
Korean (ko)
Inventor
신제용
김일봉
류승훈
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020180017177A priority Critical patent/KR101944374B1/en
Priority to KR1020190008170A priority patent/KR102307609B1/en
Application granted granted Critical
Publication of KR101944374B1 publication Critical patent/KR101944374B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Mining & Mineral Resources (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Animal Husbandry (AREA)
  • Agronomy & Crop Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

According to an embodiment of the present invention, provided is an apparatus for detecting an abnormal object which can detect an object which has a high possibility to get diseased on image data obtained by photographing the inside of a breeding farm. The apparatus comprises: a data processing unit for generating position distribution data representing position distribution of a plurality of objects using image data generated by using an image including the plurality of objects; a motion detecting unit for generating movement data representing the movement of a moving object among the plurality of objects by using the image data; and a control unit for generating abnormal object data representing an abnormal object by comparing the position distribution data of the image data with the operation data.

Description

이상 개체 검출 장치 및 방법, 이를 포함하는 촬상 장치{APPARATUS AND METHOD FOR DETECTING ABNORMAL OBJECT AND IMAGING DEVICE COMPRISING THE SAME}TECHNICAL FIELD [0001] The present invention relates to an apparatus and method for detecting an abnormal object, and an imaging apparatus including the same.

본 발명의 실시예는 이상 개체 검출 장치 및 방법, 이를 포함하는 촬상 장치에 관한 것이다.An embodiment of the present invention relates to an apparatus and method for detecting an abnormal object, and an imaging apparatus including the same.

축산물에 대한 소비가 늘어나면서, 가축을 효율적으로 관리하는 방법에 대한 다양한 방안들이 제안되고 있다.As the consumption of livestock products increases, various measures have been proposed on how to efficiently manage livestock.

종래에는 사람이 각각의 가축의 상태를 파악하여, 이상 징후가 나타나는 가축에 대하여 진료를 받게 하거나 따로 격리시켰다. 다만, 가축의 수가 많은 경우 모든 가축을 관리하기 위해서는 많은 인력이 필요하다는 문제점이 있었다.In the past, humans have been able to grasp the state of each livestock and to treat or isolate livestock with abnormal symptoms. However, there is a problem that a lot of manpower is needed to manage all livestock if the number of livestock is large.

또한, 일부 가축에 전염병이 발생하면 가축의 대부분이 폐사하는 결과가 초래될 수 있으므로, 가축의 이상 여부를 빠르고 정확하게 판단할 수 있는 방안이 요구되고 있다.In addition, if an infectious disease occurs in some livestock, most of the livestock may be killed. Therefore, a method for quickly and accurately judging whether a livestock is abnormal is required.

또한, 교통 수단의 발달로 인하여 특정 지역에서 발생된 질병은 특정한 장소에 한정되지 않고 전국적으로 빠른 시간 내에 전염되는 현실에서 초기에 빠른 질병 판단이 요구되고 있다. 가축의 질병 판단에 있어서 발열에 따른 온도측정 방식이 질병 유무 판단의 기준으로 활용되고 있다. 그러나 많은 가축에 대한 일률적인 온도측정이 이루어지기 때문에, 가축 개체 각각의 상태에 따른 질병 판단에 대한 어려움이 있다. 또한, 이러한 온도 측정에 의한 질병 판단 방식은 질병 발생 초기 단계에 개체를 검출하는데에 어려움이 있다.In addition, due to the development of transportation means, disease occurring in a specific area is not limited to a specific place but is rapidly spread throughout the nation. In the judgment of diseases of livestock, the temperature measurement method according to fever is used as a criterion for determining the presence or absence of disease. However, since uniform temperature measurement is performed on many livestock, there is a difficulty in judging diseases according to the state of each livestock individual. In addition, such a disease judgment method by temperature measurement has difficulties in detecting an individual at an early stage of disease occurrence.

본 발명이 이루고자 하는 기술적 과제는 사육장 내부를 촬영한 영상 데이터 상에서 질병에 걸린 가능성이 높은 개체를 검출할 수 있는 이상 개체 검출 장치 및 방법, 이를 포함하는 촬상 장치를 제공하는데 있다.An object of the present invention is to provide an apparatus and method for detecting an anomaly object which is highly susceptible to diseases on image data captured inside a kennel, and an imaging apparatus including the same.

본 발명의 실시예에 따르면, 복수 개체를 포함하는 이미지로부터 생성된 영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성하는 데이터 처리부; 상기 영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성하는 모션 검출부; 및 상기 영상 데이터의 위치 분포 데이터 및 동작 데이터를 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성하는 제어부를 포함하는 이상 개체 검출 장치를 제공한다.According to an embodiment of the present invention, a data processing unit generates position distribution data representing a position distribution of the plurality of objects using image data generated from an image including a plurality of objects; A motion detector for generating motion data representing movement of the motion object among the plurality of objects using the image data; And a controller for comparing the position distribution data and the motion data of the image data to generate ideal object data representing an abnormal object.

상기 제어부는 복수개의 영상 데이터에 대한 상기 위치 분포 데이터 및 상기동작 데이터를 비교하여 상기 복수 개체의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수를 연산하고, 상기 움직임 검출 누적 횟수와 상기 움직임 비검출 누적 횟수에 따라 상기 이상 개체 데이터를 생성할 수 있다.Wherein the controller compares the position distribution data and the motion data with respect to a plurality of pieces of image data to calculate a cumulative number of motion detection accumulation times and an accumulated cumulative number of motion detection of the plurality of entities, To generate the abnormal entity data.

상기 제어부는 상기 이상 개체 데이터에 따라 상기 영상 데이터 상에서 상기 복수개의 개체에 대한 픽셀 표시를 제어할 수 있다.The control unit may control pixel display of the plurality of objects on the image data according to the abnormal entity data.

상기 제어부는 상기 움직임 비검출 누적 횟수에 따라 대응되는 개체의 픽셀값을 단계적으로 증가시킬 수 있다.The controller may increment the pixel value of the corresponding entity according to the number of accumulation of motion detection.

상기 제어부는 연속된 상기 움직임 비검출 누적 횟수에 따라 대응되는 개체의 픽셀값을 단계적으로 증가시킬 수 있다.The controller may increment the pixel value of the corresponding entity according to the number of consecutive motion non-detection accumulation times.

상기 제어부는 상기 움직임 비검출 누적 횟수가 제1임계값을 초과할 경우 대응되는 개체의 픽셀값을 제1설정값으로 제어할 수 있다.The controller may control a pixel value of a corresponding entity to a first set value when the accumulated number of motion non-detection times exceeds a first threshold value.

상기 제어부는 연속된 상기 움직임 비검출 누적 횟수가 제1임계값을 초과할 경우 대응되는 개체의 픽셀값을 제1설정값으로 제어할 수 있다.The controller may control a pixel value of a corresponding entity to a first set value when the number of consecutive motion non-detection cumulative times exceeds a first threshold value.

상기 제1설정값은 상기 픽셀값의 최댓값일 수 있다.The first set value may be a maximum value of the pixel value.

상기 제어부는 상기 움직임 검출 누적 횟수에 따라 대응되는 개체의 픽셀값을 단계적으로 감소시킬 수 있다.The controller may stepwise decrease the pixel value of the corresponding entity according to the number of accumulated motion detection times.

상기 제어부는 연속된 상기 움직임 검출 누적 횟수에 따라 대응되는 개체의 픽셀값을 단계적으로 감소시킬 수 있다.The controller may stepwise decrease the pixel value of the corresponding entity according to the number of consecutive motion detection cumulative counts.

상기 제어부는 움직임이 검출된 개체의 픽셀값을 제2설정값으로 제어할 수 있다.The controller may control the pixel value of the motion-detected entity to a second set value.

상기 제어부는 상기 움직임이 검출된 개체를 상기 이상 개체 데이터상에서 제외시킬 수 있다.The control unit may exclude the entity detected as the motion on the abnormal entity data.

상기 제어부는 상기 움직임 검출 누적 횟수가 제2임계값을 초과할 경우 대응되는 개체의 픽셀값을 제2설정값으로 제어할 수 있다.The controller may control a pixel value of a corresponding entity to a second set value when the cumulative number of motion detection exceeds a second threshold value.

상기 제어부는 상기 움직임 검출 누적 횟수가 제2임계값을 초과한 개체를 상기 이상 개체 데이터상에서 제외시킬 수 있다.The controller may exclude an entity whose motion detection cumulative count exceeds a second threshold value on the abnormal entity data.

상기 제어부는 연속된 상기 움직임 검출 누적 횟수가 제2임계값을 초과할 경우 대응되는 개체의 픽셀값을 제2설정값으로 제어할 수 있다.The controller may control the pixel value of the corresponding entity to a second set value when the accumulated number of successive motion detection exceeds the second threshold value.

상기 제어부는 상기 움직임 검출 누적 횟수가 제2임계값을 초과한 개체를 상기 이상 개체 데이터상에서 제외시킬 수 있다.The controller may exclude an entity whose motion detection cumulative count exceeds a second threshold value on the abnormal entity data.

상기 제2설정값은 원본 영상 데이터의 픽셀값일 수 있다.The second set value may be a pixel value of the original image data.

본 발명의 실시예에 따르면, 복수 개체를 포함하는 제1이미지로부터 생성된 제1영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 제1위치 분포 데이터를 생성하는 데이터 처리부; 상기 제1영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 제1동작 데이터를 생성하는 모션 검출부; 및 상기 제1위치 분포 데이터 및 상기 제1동작 데이터를 비교하여 이상 개체를 나타내는 제1이상 개체 데이터를 생성하는 제어부를 포함하는 이상 개체 검출 장치를 제공한다.According to an embodiment of the present invention, there is provided an image processing apparatus including: a data processing unit for generating first position distribution data representing a position distribution of a plurality of objects using first image data generated from a first image including a plurality of objects; A motion detection unit for generating first motion data indicating motion of the motion entity among the plurality of the objects using the first image data; And a controller for comparing the first position distribution data and the first operation data to generate first abnormal entity data representing an abnormal entity.

상기 데이터 처리부는 상기 복수 개체를 포함하는 제2이미지로부터 생성된 제2영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 제2위치 분포 데이터를 생성하고, 상기 모션 검출부는 상기 제2 영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 제2 동작 데이터를 생성하며, 상기 제어부는 상기 제1이상 개체 데이터, 상기 제2위치 분포 데이터 및 상기 제2 동작 데이터를 비교하여 제2 이상 개체 데이터를 생성할 수 있다.Wherein the data processing unit generates second position distribution data representing a position distribution of the plurality of objects using second image data generated from a second image including the plurality of objects, Wherein the controller generates second operation data representing movement of the operation entity among the plurality of entities, wherein the control section compares the first ideal entity data, the second position distribution data, and the second operation data, Lt; / RTI >

상기 제어부는 상기 제1이상 개체 데이터를 상기 제2위치 분포데이터 및 상기 제2동작 데이터와 비교하여 상기 복수 개체의 움직임 검출 누적 횟수와 상기 복수 개체의 움직임 비검출 누적 횟수를 연산하고, 상기 움직임 검출 누적 횟수와 상기 움직임 비검출 누적 횟수에 따라 상기 제2이상 개체 데이터를 생성할 수 있다.Wherein the control unit compares the first abnormal entity data with the second positional distribution data and the second operation data to calculate the accumulated number of motion detection of the plurality of entities and the cumulative number of non-detection of the motion ratio of the plurality of entities, The second abnormal entity data can be generated according to the cumulative number of times and the cumulative number of motion non-detection times.

상기 제어부는 상기 제2이상 개체 데이터에 따라 상기 영상 데이터 상에서 상기 복수개의 개체에 대한 픽셀 표시를 제어할 수 있다.The controller may control pixel display of the plurality of entities on the image data according to the second ideal entity data.

본 발명의 실시예에 따르면, 복수 개체를 포함하는 제1이미지를 촬영하여 제1영상 데이터를 생성하는 촬영부; 상기 제1영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 제1위치 분포 데이터를 생성하는 데이터 처리부; 상기 제1영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 제1동작 데이터를 생성하는 모션 검출부; 및 상기 제1위치 분포 데이터 및 상기 제1동작 데이터를 비교하여 이상 개체를 나타내는 제1이상 개체 데이터를 생성하는 제어부를 포함하는 촬상 장치를 제공한다.According to an embodiment of the present invention, there is provided an image processing apparatus including: a photographing unit photographing a first image including a plurality of objects to generate first image data; A data processing unit for generating first position distribution data indicating a position distribution of the plurality of objects using the first image data; A motion detection unit for generating first motion data indicating motion of the motion entity among the plurality of the objects using the first image data; And a controller for comparing the first position distribution data and the first operation data to generate first abnormal entity data representing an abnormal entity.

본 발명의 실시예에 따르면, 복수 개체를 포함하는 제1이미지를 촬영하여 제1영상 데이터를 생성하는 단계; 상기 제1영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 제1위치 분포 데이터를 생성하는 단계; 상기 제1영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 제1동작 데이터를 생성하는 단계; 및 상기 제1위치 분포 데이터 및 상기 제1동작 데이터를 비교하여 이상 개체를 나타내는 제1이상 개체 데이터를 생성하는 단계를 포함하는 이상 개체 검출 방법을 제공한다.According to an embodiment of the present invention, there is provided an image processing method comprising: capturing a first image including a plurality of objects to generate first image data; Generating first position distribution data indicating a position distribution of the plurality of objects using the first image data; Generating first operation data indicating movement of an operation entity among the plurality of entities using the first image data; And comparing the first position distribution data and the first operation data to generate first abnormal entity data representing an abnormal entity.

본 발명인 이상 개체 검출 장치 및 방법, 이를 포함하는 촬상 장치는 사육장 내부를 촬영한 영상데이터 상에서 질병에 걸린 가능성이 높은 이상 개체를 검출할 수 있다.The abnormal object detecting apparatus and method and the imaging apparatus including the abnormal object detecting apparatus according to the present invention can detect an abnormal object highly likely to be infected with the disease on the image data photographed inside the kennel.

또한, 이상 개체와 정상 개체를 시각적으로 구분하여 표시할 수 있다.In addition, the abnormal entity and the normal entity can be visually distinguished and displayed.

또한, 이상 개체를 추적하여 감시할 수 있다.In addition, abnormal objects can be tracked and monitored.

또한, 이상 개체 발생시 관리자에게 알림 또는 경고를 송출할 수 있다.In addition, a notification or warning can be sent to the manager when an abnormal object occurs.

또한, 분석 데이터의 연산량을 감소시키고, 연산 속도를 향상시킬 수 있다.In addition, it is possible to reduce the amount of computation of the analysis data and improve the computation speed.

도 1은 본 발명의 실시예에 따른 사육장 관리 시스템의 개념도이다.
도 2는 본 발명의 실시예에 따른 촬상 장치의 블록도이다.
도 3 내지 도 15는 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다.
도 16 내지 도 17은 본 발명의 실시예에 따른 이상 개체 검출 방법의 순서도이다.
1 is a conceptual diagram of a kennel management system according to an embodiment of the present invention.
2 is a block diagram of an image pickup apparatus according to an embodiment of the present invention.
3 to 15 are views for explaining the operation of the controller according to the embodiment of the present invention.
16 to 17 are flowcharts of an abnormal entity detection method according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated and described in the drawings. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

제2, 제1 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. The terms including ordinal, such as second, first, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the second component may be referred to as a first component, and similarly, the first component may also be referred to as a second component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.

이하, 첨부된 도면을 참조하여 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings, wherein like or corresponding elements are denoted by the same reference numerals, and redundant description thereof will be omitted.

도 1은 본 발명의 실시예에 따른 사육장의 개념도이고, 도 2는 본 발명의 실시예에 따른 촬상 장치의 블록도이다. FIG. 1 is a conceptual diagram of a breeding ground according to an embodiment of the present invention, and FIG. 2 is a block diagram of an imaging apparatus according to an embodiment of the present invention.

도 1 내지 2를 참조하면, 먼저 사육장(10)은 가축을 사육하는 축사를 의미한다. 가축은 닭, 오리 등의 가금류뿐만 아니라, 소, 돼지 등 축사 내에서 집단으로 사육되는 다양한 종류의 동물일 수 있다.Referring to Figs. 1 and 2, the kennel 10 refers to a house for breeding livestock. The livestock may be various kinds of animals which are collectively kept in poultry such as poultry, pig, etc. as well as poultry such as chicken and duck.

촬상 장치(100)는 사육장(10) 내의 환경을 검출하고, 이를 관리 서버(200) 및 공조 장치(300) 중 적어도 하나에 전송할 수 있다. 이를 위하여, 촬상 장치(100)는 관리 서버(200) 및 공조 장치(300)와 유선 또는 무선으로 통신할 수 있다. 여기서, 촬상 장치(100)가 관리 서버(200) 및 공조 장치(300)와 각각 통신하는 것으로 도시되어 있으나, 이로 제한되지 않으며, 촬상 장치(100)가 관리 서버(200)와 통신하고, 관리 서버(200)가 공조 장치(300)와 통신할 수도 있다. The image capturing apparatus 100 can detect the environment in the breeding ground 10 and transmit it to at least one of the management server 200 and the air conditioner 300. [ For this purpose, the image capturing apparatus 100 can communicate with the management server 200 and the air conditioner 300 in a wired or wireless manner. Although the image capturing apparatus 100 is illustrated as communicating with the management server 200 and the air conditioner 300 respectively, the image capturing apparatus 100 is not limited to this, and the image capturing apparatus 100 may communicate with the management server 200, (200) may communicate with the air conditioner (300).

사육장(10) 내에는 복수개의 촬상 장치가 배치될 수 있다. 촬상 장치(100)는 촬영부(111)에서 촬영한 영상 데이터를 관리 서버(200)로 전송할 수 있다. 또는, 사육장(10)내에는 별도의 데이터 수집장치(150)가 배치되어 복수개의 촬상 장치(100)로부터 영상 데이터를 수집하여 관리 서버(200)로 전송할 수 있다. 사육장(10) 내부의 상태를 정밀하게 분석하기 위하여 촬상 장치(100)의 영상 데이터는 고화질, 고용량의 특성을 가질 수 있다. 따라서, 복수개의 촬상 장치(100)에서 촬영된 영상 데이터를 실시간으로 원격의 관리 서버(200)로 전송하기 위하여서는 큰 대역폭이 요구될 수 있으며, 이에 따라 전송 속도가 저하될수 있다. 따라서, 별도의 데이터 수집장치(150)에서는 사육장(10)내의 촬상 장치(100)로부터 영상 데이터를 수집하여 인코딩 한 후 관리 서버(200)로 전송함으로써 통신 대역폭을 저감시키고, 전송 속도를 향상시킬 수 있다. 또는 촬상 장치(100)는 영상 데이터를 이용하여 사육장(10)상태를 분석하기 위한 1차 분석을 수행한 후, 가공된 데이터를 데이터 수집장치에 전달하거나 또는 관리 서버(200)에 전송할 수 있다. 즉, 촬상 장치(100)는 사육장(10)의 상태 분석을 위하여 필요한 데이터만을 선별하여 데이터 수집장치(150)에 전달하거나 또는 관리 서버(200)에 전송함으로써 통신 자원을 효율적으로 관리할 수 있다. 또는 촬상 장치(100)는 사육장(10)을 촬영한 영상 데이터를 이용하여 사육장(10) 내부 상태를 1차적으로 분석하여 그 결과를 데이터 수집장치(150)에 전달하거나 또는 관리 서버(200)에 전송할 수 있다.A plurality of image pickup devices may be disposed in the breeding hut 10. The imaging apparatus 100 can transmit the image data photographed by the photographing section 111 to the management server 200. [ Alternatively, a separate data collection device 150 may be disposed in the cul-de-sac 10 to collect image data from the plurality of image capture devices 100 and transmit the collected image data to the management server 200. In order to accurately analyze the state inside the breeding habits 10, the image data of the imaging apparatus 100 can have high quality and high capacity. Accordingly, a large bandwidth may be required to transmit the image data photographed by the plurality of image sensing apparatuses 100 to the remote management server 200 in real time, thereby lowering the transmission speed. Therefore, in the separate data collection device 150, video data is collected from the image pickup device 100 in the breeding ground 10, encoded and transmitted to the management server 200, thereby reducing the communication bandwidth and improving the transmission speed have. Alternatively, the image pickup apparatus 100 may perform a primary analysis for analyzing the state of the breeding ground 10 using the image data, and then transmit the processed data to the data collection device or the management server 200. That is, the imaging apparatus 100 can selectively manage only the data necessary for the state analysis of the kennel 10 and transmit it to the data collection device 150 or to the management server 200, thereby efficiently managing communication resources. Or the image pickup apparatus 100 may first analyze the internal state of the breeding ground 10 using the image data of the breeding ground 10 and transmit the result to the data collection device 150 or to the management server 200 Lt; / RTI >

관리 서버(200)는 퍼스널 컴퓨터(personal computer, PC), 태블릿 PC, 휴대단말 등을 포함하는 서버일 수 있다. 촬상 장치(100)가 관리 서버(200)에게 사육장(10) 내의 환경을 전송하는 경우, 관리자는 관리 서버(200)에 출력된 화면 등을 통하여 사육장(10) 내의 환경을 인지할 수 있다. 예를 들어, 촬상 장치(100)가 사육장(10) 내의 이상상황을 포착하여 이를 관리 서버(200)에게 전송한 경우, 관리자는 관리 서버(200)에 출력된 화면을 통하여 사육장(10) 내에 이상상황이 발생하였음을 인지할 수 있으며, 이상상황에 대하여 초기에 대응할 수 있다. 여기서, 이상상황은, 예를 들어 질병에 걸린 가축의 발생, 가축의 임신, 가축의 생장 기간, 사육장(10) 내 습도, 온도, 특정 분자의 농도 이상 등일 수 있다. The management server 200 may be a server including a personal computer (PC), a tablet PC, a portable terminal, and the like. When the image capturing apparatus 100 transmits the environment in the breeding ground 10 to the management server 200, the administrator can recognize the environment in the breeding ground 10 through the screen output to the management server 200 or the like. For example, when the image capturing apparatus 100 captures an abnormal situation in the kennel 10 and transmits the abnormal situation to the management server 200, the manager displays the abnormal state in the kennel 10 through the screen output to the management server 200 It is possible to recognize that a situation has occurred and can respond to an abnormal situation at an early stage. Here, the abnormal situation may be, for example, the occurrence of diseased livestock, the pregnancy of livestock, the growth period of the livestock, the humidity in the kennel 10, the temperature, the concentration of the specific molecule or the like.

관리 서버(200)가 복수의 사육장(10)으로부터 정보를 전송 받는 중앙 서버일 경우에 관리자는 관리 서버(200)와이 접근성이 용이 하지 않을 수 있다. 이런 경우 관리 서버(200)는 별도의 관리자의 휴대단말 등을 통하여 사육장(10) 내에 이상상황에 대한 정보를 전달 할 수 있다.In the case where the management server 200 is a central server that receives information from a plurality of breeding grounds 10, the manager may not have easy access to the management server 200. In this case, the management server 200 can transmit information about the abnormal situation to the breeding ground 10 through a portable terminal of another administrator or the like.

또한, 관리 서버(200)는 촬상 장치(100) 또는 데이터 수집장치(150)에서 전송한 데이터를 이용하여 사육장 상태를 분석할 수 있다. 예를 들면, 관리 서버(100)는 복수개의 촬상 장치(100) 또는 데이터 수집장치(150)에서 1차적으로 가공된 데이터를 수신하여 사육장 상태에 대한 보다 정밀한 분석을 수행할 수 있다. 관리 서버(200)는 촬상 장치(100)의 통신부(115)와 데이터 통신을 수행하거나 또는 데이터 수집장치(150)에 장착된 통신 모듈(미도시)과 데이터 통신을 수행할 수 있다. 관리 서버(200)는 촬상 장치(100)에서 촬영한 원본 영상과 1차적으로 가공된 가공 영상 데이터를 수신할 수 있다. 이 때, 가공 영상 데이터는 사육장 관리 장치(100) 또는 촬상 장치(100)에서 원본 영상에 대하여 1차적인 분석을 수행하고, 이를 인코딩한 데이터를 의미할 수 있다.In addition, the management server 200 can analyze the state of the vat using the data transmitted from the image capturing apparatus 100 or the data collecting apparatus 150. For example, the management server 100 can receive data processed primarily from the plurality of image pickup apparatuses 100 or the data collection apparatus 150, and perform more accurate analysis of the state of the kennel. The management server 200 may perform data communication with the communication unit 115 of the image sensing apparatus 100 or may perform data communication with a communication module (not shown) installed in the data acquisition apparatus 150. [ The management server 200 can receive the original image photographed by the imaging apparatus 100 and the processed image data primarily processed. At this time, the processed image data may mean data that is subjected to a primary analysis on the original image in the duck farm management apparatus 100 or the image pickup apparatus 100 and is encoded.

공조 장치(300)는 사육장(10)의 온도를 조절하는 장치이다. 촬상 장치(100)가 사육장(10) 내 온도이상을 포착하여 관리 서버(200)에게 전송한 경우, 관리자는 관리 서버(200)에 출력된 화면을 통하여 사육장(10) 내 온도이상이 발생하였음을 인지할 수 있으며, 공조 장치(300)를 제어하여 사육장(10) 내 온도를 정상화할 수 있다. 또는, 촬상 장치(100)가 사육장(10) 내 온도이상을 검출하여 공조 장치(300)에게 직접 전달한 경우, 공조 장치(300)가 직접 사육장(10) 내 온도를 정상화할 수도 있다. 예를 들어, 사육장(10) 내의 온도가 가축이 생활하기에 적절한 온도보다 낮거나, 높은 경우, 가축들의 움직임이 둔화되는 경향이 있다. 이에 따라, 촬상 장치(100), 관리 서버(200), 또는 공조 장치(300)는 사육장(10) 내 온도이상을 검출하여 사육장(10) 내 온도를 정상화할 수 있다. The air conditioner (300) is a device for controlling the temperature of the cage (10). When the image capturing apparatus 100 captures more than the temperature in the cage 10 and transmits the captured image to the management server 200, the administrator can recognize that the temperature inside the cage 10 has exceeded the temperature displayed on the screen output to the management server 200 And the air conditioner 300 can be controlled to normalize the temperature in the breeding ground 10. Alternatively, when the image capturing apparatus 100 detects temperature or more in the cage 10 and directly delivers the image to the air conditioner 300, the air conditioner 300 may normalize the temperature in the cage 10 directly. For example, if the temperature in the kennel 10 is lower or higher than the temperature appropriate for the animal to live in, the movement of the animals tends to slow down. Accordingly, the image capturing apparatus 100, the management server 200, or the air conditioner 300 can detect temperature or more in the cage 10 and normalize the temperature in the cage 10.

공조 장치(300)는 사육장(10)의 습도를 조절할 수 있다. 사육장(10) 내의 습도 이상이 발생한 경우, 공조 장치(300)를 제어하여 사육장(10) 내 습도를 정상화할 수 있다.The air conditioner 300 can adjust the humidity of the breeding ground 10. When humidity abnormality occurs in the breeding farm 10, the humidity in the breeding farm 10 can be normalized by controlling the air conditioning system 300.

촬상 장치(100)는 촬영부(111), 데이터 처리부(112), 모션 검출부(113), 제어부(114), 통신부(115), 표시부(116), 유저 인터페이스부(117), 인코딩부(118), 데이터 베이스(119), 광원부(120), 팬틸트부(121)를 포함한다. 본 발명의 실시예에서는 데이터 처리부(112), 모션 검출부(113), 제어부(114), 통신부(115)를 포함하는 이상 개체 검출 장치가 촬상 장치(100)에 포함되어 구성되는 것으로 도시하였다. 그러나, 이상 개체 검출 장치는 별도의 모듈 형태로 제작되어 데이터 수집장치(150) 또는 관리 서버(200)에 포함되어 구성될 수 있다. 또는, 이상 개체 검출 장치는 별도의 디바이스 형태로 독립된 제품으로 실시될 수 있다. 이상 개체 검출 장치가 촬상 장치(100)와 별도의 모듈 또는 디바이스 형태로 적용되는 경우 이상 개체 검출 장치는 통신부(115)를 통하여 촬상 장치(100)로부터 영상 데이터를 수신할 수 있다. 또한, 데이터 처리부 및 모션 검출부는 제어부에 포함되어 하나의 프로세서로 구현될 수 있다. 본 발명의 실시예에서는 설명의 편의를 위하여 데이터 처리부, 모션 검출부, 제어부의 기능을 나누어 설명하기로 한다.The image capturing apparatus 100 includes an image capturing section 111, a data processing section 112, a motion detecting section 113, a control section 114, a communication section 115, a display section 116, a user interface section 117, A data base 119, a light source 120, and a pan tilt unit 121. In the embodiment of the present invention, the abnormal object detection apparatus including the data processing unit 112, the motion detection unit 113, the control unit 114, and the communication unit 115 is illustrated as being included in the image sensing apparatus 100. However, the abnormal entity detection device may be formed in a separate module form and included in the data collection device 150 or the management server 200. Alternatively, the abnormal object detection device may be implemented as an independent product in the form of a separate device. When the abnormal object detection apparatus is applied in the form of a module or a device separate from the image sensing apparatus 100, the abnormal object detection apparatus can receive image data from the image sensing apparatus 100 via the communication unit 115. [ The data processing unit and the motion detection unit may be included in the control unit and implemented as a single processor. In the embodiments of the present invention, functions of a data processing unit, a motion detection unit, and a control unit will be described for convenience of explanation.

이하에서는, 이상 개체 검출 장치가 촬상 장치(100)내에 포함되어 있음을 예로 들어 설명하기로 한다.Hereinafter, an example in which the abnormal object detection apparatus is included in the image sensing apparatus 100 will be described.

촬상 장치(100)는 사육장(10)내에 복수개가 설치될 수 있다. 예를 들어, 촬상 장치(100)는 사육장(10)의 상부에 배치된 적어도 하나의 상부 촬상 장치 및 사육장의 측부에 배치된 적어도 하나의 측부 촬상 장치를 포함할 수 있다. 상부 촬상 장치 및 측부 촬상 장치 각각은 유선 또는 무선으로 통신이 가능하여 실시간 영상의 송출이 가능한 IP 카메라일 수 있다. 본 실시예에서는 사육장 상부에 하나의 촬상 장치(100)가 배치되어 있는 것을 예로 들어 설명하기로 한다.A plurality of imaging apparatuses 100 may be installed in the cage 10. [ For example, the imaging device 100 may include at least one upper imaging device disposed on the upper portion of the cage 10 and at least one side imaging device disposed on the side of the cage. Each of the upper image pickup device and the side image pickup device may be an IP camera capable of communication in a wired or wireless manner and capable of real-time video transmission. In the present embodiment, one image pickup device 100 is arranged above the breeding ground.

촬영부(111)는 복수 개체를 포함하는 이미지를 촬영하여 영상 데이터를 생성할 수 있다. 본 발명의 실시예에서 복수 개체는 사육장 내부에서 사육되는 가금류를 의미할 수 있다.The photographing unit 111 may photograph an image including a plurality of objects to generate image data. In the embodiment of the present invention, the plurality of entities may mean poultry raised inside the breeding ground.

촬영부(111)는 순차적으로 촬영되는 복수개의 이미지를 이용하여 복수개의 영상 데이터를 생성할 수 있다. 예를 들면, 촬영부(111)는 복수 개체를 포함하는 제1이미지를 촬영하여 제1영상 데이터를 생성할 수 있으며, 복수 개체를 포함하는 제2이미지를 촬영하여 제2영상 데이터를 생성할 수 있다. 제1이미지 및 제2이미지는 각각 시간상으로 연속적으로 촬영된 이미지일 수 있으며, 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 촬영부(111)는 순차적으로 촬영되는 제1이미지 및 제2이미지를 이용하여 제1영상 데이터 및 제2영상 데이터를 생성할 수 있다.The photographing unit 111 may generate a plurality of image data using a plurality of images sequentially photographed. For example, the photographing unit 111 may generate the first image data by photographing the first image including the plurality of objects, and may generate the second image data by photographing the second image including the plurality of objects. have. The first image and the second image may be images sequentially captured in time, and one image data may mean a single frame. The photographing unit 111 may generate the first image data and the second image data using the first image and the second image sequentially photographed.

촬영부(111)는 COMS(complementary metal-oxide semiconductor) 모듈 또는 CCD(charge coupled device) 모듈 등을 이용하여 피사체를 촬영하는 이미지 센서일 수 있다. 이때, 입력되는 영상 프레임은 렌즈를 통해 촬영부(111) 내의 COMS 모듈 또는 CCD 모듈로 제공되고, COMS 모듈 또는 CCD 모듈은 렌즈를 통과한 피사체의 광신호를 전기적 신호(영상 데이터)로 변환하여 출력한다. The photographing unit 111 may be an image sensor that photographs a subject using a complementary metal-oxide semiconductor (COMS) module or a charge coupled device (CCD) module. Here, the input image frame is provided to the COMS module or the CCD module in the photographing unit 111 through the lens, and the COMS module or the CCD module converts the optical signal of the subject passing through the lens into an electrical signal (image data) do.

촬영부(111)는 시야각이 넓은 어안렌즈 또는 광각렌즈를 포함할 수 있다. 이에 따라, 하나의 촬상 장치(100)가 사육장(10) 내부의 전체 공간을 촬영하는 것이 가능하다. The photographing section 111 may include a fisheye lens or a wide-angle lens having a wide viewing angle. Thus, it is possible for one imaging device 100 to photograph the entire space inside the breeding hosepip.

또한, 촬영부(111)는 깊이 카메라일 수 있다. 촬영부(111)는 다양한 깊이 인식 방식 중 어느 하나의 방식으로 구동될 수 있으며, 촬영부(111)를 통하여 촬영된 영상에는 깊이 정보가 포함될 수 있다. 촬영부(111)는 예를 들어, 키넥트 센서일 수 있다. 키넥트 센서는 구조광 투영 방식의 깊이 카메라로서, 프로젝터나 레이저를 이용하여 정의된 패턴 영상을 투영시키고 카메라를 통하여 패턴이 투영된 영상을 획득함으로써 장면의 삼차원 정보를 획득할 수 있다. 이러한 키넥트 센서는 적외선 레이저를 이용해 패턴을 조사하는 적외선 방사체, 및 적외선 영상을 촬영하는 적외선 카메라를 포함하며, 일반적인 웹캠과 같은 기능을 하는 RGB 카메라가 적외선 방사체와 적외선 카메라 사이에 배치되어 있다. 이 외에도, 키넥트 센서에는 마이크 배열과 카메라의 각도를 조절하는 팬틸트부(121)가 더 구성될 수 있다.Further, the photographing unit 111 may be a depth camera. The photographing unit 111 may be driven by any one of various depth recognition methods, and the image photographed through the photographing unit 111 may include depth information. The photographing unit 111 may be, for example, a Kinect sensor. The Kinect sensor is a structured light projection type depth camera, which can acquire three-dimensional information of a scene by projecting a pattern image defined using a projector or a laser and acquiring an image projected through a camera. Such a Kinect sensor includes an infrared radiator for irradiating a pattern using an infrared laser, and an infrared camera for capturing an infrared image, and an RGB camera functioning as a general web cam is disposed between the infrared radiator and the infrared camera. In addition, the Kinect sensor may further include a pan tilt unit 121 for adjusting the microphone arrangement and the angle of the camera.

키넥트 센서의 기본적인 원리는, 적외선 방사체에서 조사된 레이저 패턴이 물체에 투영되어 반사되면, 반사 지점에서의 패턴의 위치 및 크기를 이용해 물체 표면까지의 거리를 구하게 된다. 이러한 원리에 따라, 촬영부(111)는 축사 내 공간으로 레이저 패턴을 조사하고, 개체에서 반사된 레이저 패턴을 센싱하여 개체 별 깊이 정보를 포함하는 영상 데이터를 생성할 수 있다.The basic principle of a Kinect sensor is that when a laser pattern irradiated from an infrared radiator is projected and reflected on an object, the distance to the object surface is obtained using the position and size of the pattern at the reflection point. According to this principle, the photographing unit 111 may irradiate the laser pattern with the space inside the house, and sense the laser pattern reflected from the object, thereby generating image data including the object-specific depth information.

데이터 처리부(112)는 영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성할 수 있다. 데이터 처리부(112)는 예를 들면, 복수 개체를 포함하여 생성된 제1영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제1위치 분포 데이터를 생성하고, 복수 개체를 포함하여 생성된 제2영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제2위치 분포 데이터를 생성할 수 있다.The data processing unit 112 may generate position distribution data indicating the position distribution of a plurality of objects using the image data. The data processing unit 112 generates first position distribution data indicating a position distribution of a plurality of objects using the first image data generated by including a plurality of objects, The second position distribution data representing the position distribution of the plurality of objects can be generated using the data.

본 발명의 실시예에서 위치 분포 데이터란, 영상 데이터상에서 검출된 가금류의 히트맵(heat map)을 의미할 수 있다.In the embodiment of the present invention, the location distribution data may mean a heat map of poultry detected on the image data.

예를 들면, 데이터 처리부(112)는 영상 데이터에서 개체의 외곽선을 검출하고, 검출된 외곽선과 데이터 베이스(119)에 미리 저장된 동물 개체의 외형을 비교하여 미리 저장된 동물 개체의 외형과 매칭되는 외곽선을 가진 개체를 동물 개체로서 검출할 수 있다. 이때, 데이터 베이스(119)에 저장된 동물 개체의 외형은 적어도 하나 이상의 동물 개체의 외형일 수 있으며, 데이터 처리부(112)는 상술한 바와 같이 매칭되는 외곽선을 가진 개체를 동물 개체로서 검출함과 동시에 해당 동물 개체의 종류도 판단할 수 있다.For example, the data processing unit 112 detects an outline of an object in the image data, compares the outline of the object with the outline of the animal object stored in advance in the database 119, and outputs an outline matching with the outline of the animal object stored in advance Can be detected as an animal. At this time, the outline of the animal entity stored in the database 119 may be an outline of at least one animal entity, and the data processing section 112 may detect an entity having an outline matched as described above as an animal entity, It is also possible to judge the kind of animals.

또한, 예를 들면, 데이터 처리부(112)는 영상 데이터 내의 개체의 특징점을 추출하고, 추출된 특징점이 데이터 베이스(119)에 미리 저장된 동물 개체의 특징점에 임계치 이상의 근접도로 매칭되면, 해당 영상 데이터 내의 개체를 동물 개체로서 검출할 수 있다. 이때, 데이터 처리부(112)는 비교 대상이 되는 두 개체의 영상에서 특징점을 추출하고, 추출된 두 개체의 특징점 기술자(descriptor)를 매칭하는 SIFT(Scale Invariant Feature Transform) 또는SURF(Speeded Up Robust Features) 알고리즘을 사용할 수 있다.For example, the data processing unit 112 extracts feature points of an object in the image data, and if the extracted feature points match the feature points of the animal object stored in the database 119 in advance, An individual can be detected as an animal. At this time, the data processing unit 112 extracts feature points from the images of two objects to be compared, and performs SIFT (Scale Invariant Feature Transform) or SURF (Speeded Up Robust Features) for matching feature points descriptors of the extracted two objects. Algorithm can be used.

또한, 예를 들면, 데이터 처리부(112)는 영상 데이터에서 개체들의 윤곽을 기초로 동물 개체를 검출할 수 있다. 보다 구체적으로, 데이터 처리부(112)는 영상 데이터에서 개체들의 윤곽을 검출하여 에지 영상을 생성하고, 데이터 베이스(119)에 미리 저장된 사육장의 배경 영상인 전경 영상 데이터로부터 윤곽을 검출하여 배경 에지 영상을 생성하며, 에지 영상에서 배경 에지 영상을 뺀 차 영상(different image) 에서 동물 개체를 검출할 수 있다. 이때, 데이터 처리부(112)는 영상 데이터 프레임의 그래디언트(gradient) 정보를 이용하여 프레임 내에 나타나는 개체의 윤곽을 에지로 검출하여 에지 영상을 생성한다. 여기서, 그래디언트 정보는 프레임에서 소정의 화소들 중 인접하는 화소들 간의 차이값으로부터 생성된 값으로서 차이의 절대값의 합을 의미하고, 에지는 그래디언트 정보를 이용한 개체 간의 경계선을 의미한다.In addition, for example, the data processing unit 112 can detect an animal entity based on the outline of the entities in the image data. More specifically, the data processing unit 112 generates an edge image by detecting the outline of the entities in the image data, detects the outline from the foreground image data, which is a background image of the breeding ground previously stored in the database 119, And an animal object can be detected from a different image obtained by subtracting the background edge image from the edge image. At this time, the data processing unit 112 generates an edge image by detecting the outline of an entity appearing in the frame as an edge by using gradient information of the image data frame. Here, the gradient information means a sum of absolute values of differences as values generated from difference values between adjacent pixels among predetermined pixels in a frame, and an edge means a boundary line between objects using the gradient information.

또한, 데이터 처리부(112)는 기촬영된 사육장 내 전경의 영상 데이터에서 배경에 해당하는 개체의 에지를 검출하여 배경 에지 영상을 생성할 수 있다. 이때의 배경 에지 영상은 기설정된 영역의 개체들의 윤곽을 배경에지로 검출한 영상일 수 있으나, 기촬영된 사육장(10) 내 전경의 복수개의 영상 데이터 프레임을 비교하여 소정의 횟수이상 반복하여 동일하게 나타나는 개체의 윤곽을 배경에지로 검출한 영상일 수도 있다.In addition, the data processing unit 112 can generate a background edge image by detecting the edge of the object corresponding to the background from the image data of the foreground in the photographed cage. At this time, the background edge image may be an image obtained by detecting the outline of entities of a predetermined area as a background, but it is also possible to compare a plurality of image data frames in the foreground in the captured cage 10 for a predetermined number of times or more It may be an image of the outline of the appearing object in the background.

또한, 데이터 처리부(112)는 개체 검출 분류기를 이용하여 영상 데이터에서 동물 개체를 검출할 수 있다. 이때, 개체 검출 분류기는 동물 개체의 자세나 외부 환경을 달리하여 기촬영한 동물 개체의 영상들로부터 훈련 DB 를 구축하여 학습된 것으로서, 이러한 개체 검출 분류기는 SVM(Support Vector Machine), 신경망, AdaBoost 알고리즘 등을 포함하는 다양한 학습 알고리즘을 통해 동물 개체의 DB 를 생성한다. 구체적으로, 데이터 처리부(112)는 기 촬영된 사육장 내 배경의 영상 데이터에서 전경에 해당하는 개체의 에지를 검출하고, 영상 데이터에서 검출된 전경 개체의 에지를 적용하고, 전경 개체의 에지가 적용된 영상 데이터의 영역에 개체 검출 분류기를 적용하여 동물 개체를 검출할 수 있다.Also, the data processing unit 112 can detect an animal object in the image data using the object detection classifier. In this case, the object detection classifier is learned by constructing a training DB from the images of animal objects photographed by different posture or external environment of the animal object. The object detection classifier includes SVM (Support Vector Machine), neural network, AdaBoost algorithm , And so on. Specifically, the data processing unit 112 detects an edge of the foreground corresponding to the foreground from the image data of the background in the taken cage, applies the edge of the foreground object detected from the image data, An animal detection object can be detected by applying an object detection classifier to a region of data.

또한, 데이터 처리부(112)는 촬영부(111)에서 촬영한 영상 데이터에서 노이즈를 저감하고, 감마 보정(Gamma Correction), 색필터 배열보간(color filter array interpolation), 색 메트릭스(color matrix), 색보정(color correction), 색 향상(color enhancement) 등의 화질 개선을 위한 영상 신호 처리를 수행할 수 있다. 데이터 처리부(112)는 색채 처리, 블러처리, 에지 강조 처리, 영상 해석 처리, 영상 인식 처리, 영상 이펙트 처리 등도 수행할 수 있다.The data processing unit 112 reduces noise from the image data photographed by the photographing unit 111 and performs a color gamut correction process based on gamma correction, color filter array interpolation, color matrix, Image signal processing for improving image quality such as color correction and color enhancement can be performed. The data processing unit 112 can perform color processing, blur processing, edge emphasis processing, image analysis processing, image recognition processing, image effect processing, and the like.

모션 검출부(113)는 영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성할 수 있다. 모션 검출부(113)는 단일 영상 데이터 또는 복수개의 연속된 영상 데이터를 이용하여 분포도상의 특정 지점, 특정 개체 또는 특정 픽셀에서의 움직임을 검출할 수 있다.The motion detecting unit 113 may generate motion data indicating movement of the motion entity among a plurality of motion vectors using the image data. The motion detecting unit 113 can detect a motion at a specific point, a specific entity, or a specific pixel on the distribution diagram using a single image data or a plurality of continuous image data.

모션 검출부(113)는 예를 들면, 제1영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제1동작 데이터를 생성하고, 제2 영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제2 동작 데이터를 생성할 수 있다.For example, the motion detection unit 113 generates first motion data indicating motion of the motion entity among a plurality of motion vectors using the first motion vector data, It is possible to generate the second operation data.

모션 검출부(113)는 Dense Optical Flow방식을 이용하여 동작 개체의 움직임을 검출할 수 있다. 모션 검출부(113)는 영상 데이터상의 모든 픽셀에 대해서 모션 벡터(Motion Vector)를 연산하여 각 픽셀에 대한 움직임을 검출할 수 있다. Dense Optical Flow방식의 경우 모든 픽셀에 대하여 모션 벡터를 연산하기 때문에 검출 정확도는 향상되지만 상대적으로 연산량은 증가하게 된다. 따라서, Dense Optical Flow방식은 이상상황이 발생된 것으로 의심되는 사육장이나 개체 숫자가 매우 많은 사육장 등 검출 정확도가 매우 높게 요구되는 특정 영역에 적용될 수 있다.The motion detection unit 113 can detect motion of the motion entity using the Dense Optical Flow scheme. The motion detecting unit 113 can detect a motion for each pixel by calculating a motion vector for all the pixels on the image data. In the case of the Dense Optical Flow method, since the motion vector is calculated for all the pixels, the detection accuracy is improved but the calculation amount is relatively increased. Therefore, the Dense Optical Flow method can be applied to a specific area where detection accuracy is very high, such as a kennel suspected to have an abnormal situation or a kennel with a large number of individuals.

또는 모션 검출부(113)는 Sparse Optical Flow방식을 이용하여 동작 개체의 움직임을 검출할 수 있다. 모션 검출부(113)는 영상 내 에지와 같은 움직임 추적이 쉬운 특징적인 일부 픽셀에 대해서만 모션 벡터를 연산하여 움직임을 검출할 수 있다. Sparse Optical Flow방식은 연산량이 감소하지만 한정적인 픽셀에 대한 결과만 얻을 수 있다. 따라서, Sparse Optical Flow방식은 개체 숫자가 적은 사육장 또는 개체가 중복되어 나타나지 않는 특정 영역에 적용될 수 있다.Or the motion detection unit 113 may detect motion of the motion entity using the Sparse Optical Flow scheme. The motion detecting unit 113 can detect a motion by calculating a motion vector only for some characteristic pixels that are easy to track, such as edges in an image. Sparse Optical Flow reduces the computational complexity but only results on limited pixels. Therefore, the Sparse Optical Flow method can be applied to a specific area where the number of individuals is small or where there is no duplication of objects.

또는 모션 검출부(113)는 Block Matching을 이용하여 동작 개체의 움직임을 검출할 수 있다. 모션 검출부(113)는 영상을 균등하게 또는 비균등하게 분할하여 분할 영역에 대해 모션 벡터를 연산하여 움직임을 검출할 수 있다. Block Matching은 분할 영역별로 모션 벡터를 연산하기 때문에 연산량이 감소하지만 영역별 모션 벡터에 대한 결과를 산출하기 때문에 검출 정확도가 상대적으로 낮을 수 있다. 따라서, Block Matching방식은 개체 숫자가 적은 사육장 또는 개체가 중복되어 나타나지 않는 특정 영역에 적용될 수 있다.Alternatively, the motion detecting unit 113 can detect motion of the motion entity using Block Matching. The motion detecting unit 113 can detect motion by dividing the image evenly or non-uniformly and calculating motion vectors for the divided regions. Since the block matching computes the motion vectors for each partition, the computation amount is reduced, but the detection accuracy is relatively low because the result for each motion vector is calculated. Therefore, the block matching method can be applied to a specific area where the number of entities is small or where the entities do not overlap.

또는 모션 검출부(113)는 Continuous Frame Difference방식을 이용하여 동작 개체의 움직임을 검출할 수 있다. 모션 검출부(113)는 연속하는 영상 프레임을 픽셀 별로 비교하고, 그 차이만큼의 값을 연산하여 움직임을 검출할 수 있다. Continuous Frame Difference방식은 프레임간 차이값을 이용하여 움직임을 검출하기 때문에, 전체적인 연산량은 감소하지만 부피가 큰 개체 또는 중복되어 나타나는 개체에 대한 검출 정확도가 상대적으로 낮을 수 있다. 또한, Continuous Frame Difference방식은 배경 영상과 움직이지 않는 개체를 구분할 수 없어 정확도가 상대적으로 낮을 수 있다. 따라서, Continuous Frame Difference방식은 개체 숫자가 적은 사육장 또는 개체가 중복되어 나타나지 않는 특정 영역에 적용될 수 있다.Alternatively, the motion detection unit 113 can detect the motion of the motion entity using the Continuous Frame Difference method. The motion detecting unit 113 may compare consecutive image frames on a pixel-by-pixel basis, and calculate a value of the difference to detect motion. Since the Continuous Frame Difference method detects motion using the inter-frame difference value, the overall computation amount decreases, but detection accuracy for a bulky object or a duplicated object may be relatively low. In addition, the Continuous Frame Difference method can not distinguish the background image from the non-moving object, so the accuracy may be relatively low. Therefore, the Continuous Frame Difference method can be applied to a specific area where the number of individuals is small or the individuals do not overlap.

또는 모션 검출부(113)는 Background Subtraction방식을 이용하여 동작 개체의 움직임을 검출할 수 있다. 모션 검출부(113)는 배경 영상을 초기에 학습한 상태에서 연속하는 영상 프레임을 픽셀 별로 비교하고, 그 차이만큼의 값을 연산하여 움직임을 검출할 수 있다. Background Subtraction방식은 배경 영상을 미리 학습하고 있기 때문에 배경 영상과 움직이지 않는 개체를 구분할 수 있다. 따라서, 배경 영상을 필터링하는 별도의 과정이 필요하여 연산량은 증가하지만 정확도는 향상된다. 따라서, Background Subtraction방식은 이상상황이 발생된 것으로 의심되는 사육장이나 개체 숫자가 매우 많은 사육장 등 검출 정확도가 매우 높게 요구되는 특정 영역에 적용될 수 있다. Background Subtraction방식에서 배경 영상은 지속적으로 업데이트 될 수 있다.Or the motion detection unit 113 can detect motion of the motion entity using the background subtraction method. The motion detecting unit 113 may compare the consecutive image frames on a pixel-by-pixel basis while initially learning the background image, and calculate a value corresponding to the difference to detect motion. Background subtraction method can distinguish background image from non-moving object because it learns background image in advance. Therefore, a separate process for filtering the background image is required, so that the amount of calculation is increased but the accuracy is improved. Therefore, the background subtraction method can be applied to a specific area where a detection accuracy is very high, such as a breeding ground suspected to have an abnormal situation or a breeding ground having a large number of individuals. In the background subtraction method, the background image can be continuously updated.

모션 검출부(113)는 사육장내의 환경과 외부의 설정에 따라 적절한 방식을 이용하여 분포도상에서 움직임을 검출한다.The motion detecting unit 113 detects the motion on the distribution map by using an appropriate method according to the environment in the breeding ground and the setting of the outside.

제어부(114)는 영상 데이터의 위치 분포 데이터 및 동작 데이터를 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성할 수 있다. 제어부(114)는 예를 들면, 제1위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체를 나타내는 제1이상 개체 데이터를 생성할 수 있다. 제어부(114)는 제1위치 분포 데이터와 제1동작 데이터를 비교하여, 제1위치 분포 데이터 상에서 움직임이 검출되지 않은 개체에 대한 정보를 나타내는 제1이상 개체 데이터를 생성할 수 있다. 즉, 제어부(114)는 개체의 위치를 나타내는 제1위치 분포 데이터 상에서 움직임이 검출되지 않은 개체를 질병에 걸린 것으로 추정하고, 이에 대한 제1이상 개체 데이터를 생성할 수 있다. 즉, 제1이상 개체 데이터는 단일 영상 데이터에 대한 개체의 위치 분포와 움직임 검출 정보를 이용하여 개체의 질병 여부를 판단한 결과 데이터를 의미할 수 있다.또는 제어부(114)는 복수개의 영상 데이터에 대한 위치 분포 데이터 및 동작 데이터를 비교하여 복수 개체의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수를 연산하고, 상기 움직임 검출 누적 횟수와 상기 움직임 비검출 누적 횟수에 따라 이상 개체 데이터를 생성할 수 있다. 제어부는 예를 들면, 제1이상 개체 데이터, 제2위치 분포 데이터 및 제2 동작 데이터를 비교하여 제2 이상 개체 데이터를 생성할 수 있다. 제어부는 제1이상 개체 데이터를 제2위치 분포데이터 및 제2동작 데이터와 비교하여 복수 개체의 움직임 검출 누적 횟수와 복수 개체의 움직임 비검출 누적 횟수를 연산하고, 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제2이상 개체 데이터를 생성할 수 있다. 즉, 제2이상 개체 데이터는 복수개의 영상 데이터에 대하여 누적된 개체의 위치 정보와 움직임 검출 정보를 이용하여 개체의 질병 여부를 판단한 결과 데이터를 의미할 수 있다.The control unit 114 may generate abnormal object data representing an abnormal object by comparing the position distribution data and the operation data of the image data. The control unit 114 may, for example, compare the first position distribution data and the first operation data to generate first abnormal entity data representing the abnormal entity. The control unit 114 may generate first abnormal entity data indicating the information on the object whose motion is not detected on the first positional distribution data by comparing the first positional distribution data with the first operation data. That is, the controller 114 can estimate that the motion is not detected on the first position distribution data indicating the position of the object, and generate the first abnormal object data. That is, the first abnormal entity data may be data obtained by judging whether or not an individual is diseased using the positional distribution of the object and the motion detection information with respect to the single image data. The position distribution data and the motion data are compared with each other to calculate the cumulative number of motion detection accumulations and the cumulative number of motion ratio detections of a plurality of entities and generate abnormal object data according to the cumulative number of motion detection times and the cumulative number of motion non- The control unit may, for example, generate the second ideal entity data by comparing the first ideal entity data, the second position distribution data, and the second operation data. The control unit compares the first abnormal entity data with the second motion distribution data and the second motion data to compute the cumulative number of motion detection accumulations of the plurality of entities and the accumulated cumulative detections of the plurality of entities, The second abnormal entity data can be generated according to the number of times. That is, the second abnormal entity data may indicate the result of determining whether the patient is diseased or not by using the position information and the motion detection information accumulated for a plurality of image data.

제어부(114)는 이상 개체 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 영상 데이터 상에서 복수개의 개체에 대한 픽셀 표시를 제어할 수 있다. 제어부는 예를 들면, 제2이상 개체 데이터에 따라 영상 데이터 상에서 상기 복수개의 개체에 대한 픽셀 표시를 제어할 수 있다. 여기서, 픽셀의 표시란 픽셀의 채도, 픽셀의 명암, 픽셀의 색상, 픽셀의 윤곽선, 마크 표시 등 임의의 지점에 대응되는 픽셀을 다른 픽셀과 구분하여 표시하기 위한 모든 개념을 포함할 수 있다. 본 발명의 실시예에서는 픽셀값의 조절을 통하여 픽셀의 표시를 제어할 수 있다. 픽셀값은 단계적으로 조절될 수 있으며, 픽셀값이 높은 픽셀의 경우, 픽셀값이 낮은 픽셀 보다 시각적으로 강조되어 표시될 수 있다. 그러나 이에 한정되는 것은 아니고, 픽셀값이 낮은 픽셀이 픽셀값이 높은 픽셀보다 강조되어 표시되는 것으로 설정할 수 있다. The controller 114 may control the pixel display of the plurality of objects on the image data according to the cumulative number of motion detection and the cumulative number of motion ratio detection of the abnormal object data. The control unit may, for example, control the pixel display of the plurality of objects on the image data according to the second ideal object data. Here, the display of a pixel may include all concepts for displaying a pixel corresponding to an arbitrary point, such as the saturation of the pixel, the brightness of the pixel, the color of the pixel, the outline of the pixel, In the embodiment of the present invention, the display of the pixels can be controlled through adjustment of pixel values. The pixel value can be adjusted stepwise, and in the case of a pixel with a high pixel value, the pixel value can be visually emphasized rather than a low pixel. However, the present invention is not limited to this, and it can be set that a pixel having a low pixel value is emphasized and displayed as a pixel having a high pixel value.

이하에서는 움직임이 검출된 픽셀과 개체를 동일시하여 설명하기 위하여 하나의 픽셀은 하나의 개체를 표현하는 것으로 한다. 이는 설명의 편의를 위한 것이며 실제로는 복수개의 픽셀이 하나의 개체를 표현하게 된다. 즉, 가금류의 일부 신체 영역의 움직임만을 검출하여 이상상황을 판단하기 위하여서는 픽셀별로 움직임을 검출하여 픽셀의 표시를 제어하는 방식이 사용될 것이다.Hereinafter, one pixel represents one entity in order to describe the motion-detected pixel and the entity. This is for convenience of explanation, and in practice, a plurality of pixels represent one entity. That is, in order to detect only the motion of some body regions of the poultry and determine an abnormal situation, a method of controlling the display of the pixels by detecting the motion for each pixel will be used.

제어부(114)는 특정 개체의 움직임이 검출되지 않을수록 이상개체로 분류하고, 움직임이 검출될수록 정상개체로 분류하여 픽셀값을 다르게 표시할 수 있다.The controller 114 classifies the abnormal entity as the abnormal entity as the motion of the specific entity is not detected, and displays the pixel value differently as the normal entity as the motion is detected.

이하, 도3 내지 도16은 사육장 상부에 설치된 촬상 장치로부터 촬영된 영상 데이터를 예시로 설명하기로 한다. 도3 내지 도11에서, n-k(k는 -1 에서 3사이의 자연수)프레임은 시간상 연속된 프레임을 의미하며, "0"는 각 프레임에서 움직임이 검출된 경우이고, "X"는 움직임이 비검출된 경우이다. 또한, 도3 내지 도6에서 영상 데이터의 각 개체의 픽셀값은 "0"으로 설정되어 있고, 도7 내지 도11에서 영상 데이터의 각 개체의 픽셀값은 "5"로 설정되어 있다. 도3 내지 도16에서 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 예를 들어, n-1번째 프레임이 제1영상 데이터인 경우, n번째 프레임은 제2영상 데이터를 의미할 수 있다. 또한, n번째 프레임이 제1영상 데이터인 경우, n+1번째 프레임은 제2영상 데이터를 의미할 수 있다. 도3은 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도3을 참고하면, 제어부는 움직임 비검출 누적 횟수에 따라 임의의 지점 또는 개체에 대응되는 픽셀값을 단계적으로 증가시킬 수 있다. 도3에서, 개체 A의 움직임 비검출 누적횟수는 5번이다. 따라서, 제어부는 개체 A의 픽셀값을 5단계 증가시킨다. 개체 B의 움직임 비검출 누적횟수는 3번이다. 따라서, 제어부는 개체 B의 픽셀값을 3단계 증가시킨다. 개체 C의 움직임 비검출 누적횟수는 2번이다. 따라서, 제어부는 개체 C의 픽셀값을 2단계 증가시킨다. 도3의 실시예에 따르면, 개체의 움직임 비검출 횟수의 총 누적 횟수가 커질수록 픽셀값이 증가하여 강조되어 표시될 수 있다. 즉, 분포도상에서 픽셀값이 높을 수록 적색으로 강조되어 표시될 수 있으며, 픽셀값이 낮을수록 원본 데이터 값에 가깝게 표시될 수 있다. 이에 따르면, 제어부는 일정 프레임 동안 움직임이 검출된 개체라 하더라도, 전체적인 움직임 비검출 누적 횟수가 많다면 이상개체에 가깝도록 강조 표시함으로써 질병에 대한 낮은 확률의 의심이 드는 개체라 하더라도 강조 표시할 수 있다.Hereinafter, Figs. 3 to 16 illustrate image data taken from an image pickup apparatus installed on the upper part of a cage. In Figs. 3 to 11, nk (k is a natural number between 3 and -1) denotes frames that are sequential in time, "0" is a case in which motion is detected in each frame, "X" . 3 to 6, the pixel value of each object of the image data is set to "0 ", and the pixel value of each object of the image data is set to" 5 " In FIG. 3 to FIG. 16, one piece of image data may mean a single frame. For example, if the (n-1) th frame is the first image data, the nth frame may mean the second image data. If the n-th frame is the first image data, the (n + 1) -th frame may mean the second image data. 3 is a view for explaining the operation of the control unit according to the embodiment of the present invention. Referring to FIG. 3, the controller may increment the pixel value corresponding to an arbitrary point or entity according to the accumulated number of times of motion detection. In FIG. 3, the cumulative number of times of detecting the motion non-detection of the object A is five. Therefore, the control unit increases the pixel value of the object A by five steps. The cumulative number of times of detection of the motion non-detection of the object B is three. Therefore, the control unit increments the pixel value of the object B by three steps. The cumulative number of motion non-detection of the object C is 2. Therefore, the control unit increases the pixel value of the object C by two steps. According to the embodiment of FIG. 3, as the total cumulative count of the motion detection ratio of the object becomes larger, the pixel value increases and can be emphasized and displayed. That is, the higher the pixel value on the distribution chart, the more emphasis can be displayed in red, and the lower the pixel value, the closer to the original data value can be displayed. According to this, even if the motion is detected during a certain frame, if the total number of motion non-detection accumulation times is large, the controller can highlight the object even if it is suspected of a low probability of disease .

도4는 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도4를 참고하면, 제어부는 연속된 움직임 비검출 누적 횟수에 따라 대응되는 개체의 픽셀값을 단계적으로 증가시킬 수 있다. 도4에서, 개체 A의 연속된 움직임 비검출 누적횟수는 5번이다. 따라서, 제어부는 개체 A의 픽셀값을 5단계 증가시킨다. 개체 B의 연속된 움직임 비검출 누적횟수는 2번이다. 따라서, 제어부는 개체 B의 픽셀값을 2단계 증가시킨다. 개체 C의 연속된 움직임 비검출 누적횟수는 1번이다. 따라서, 제어부는 개체 C의 픽셀값을 1단계 증가시킨다. 도4의 실시예에 따르면, 개체의 연속된 움직임 비검출 횟수의 총 누적 횟수가 커질수록 픽셀값이 증가하여 강조되어 표시될 수 있다. 이에 따르면, 제어부는 누적된 움직임 비검출 횟수가 크다 하더라도, 연속된 움직임 비검출 누적 횟수가 크지 않다면 정상개체에 가깝도록 표시할 수 있다.4 is a view for explaining the operation of the control unit according to the embodiment of the present invention. Referring to FIG. 4, the controller may increment the pixel value of the corresponding entity according to the cumulative number of successive motion non-detection counts. In FIG. 4, the cumulative number of consecutive motion non-detection counts of entity A is five. Therefore, the control unit increases the pixel value of the object A by five steps. The cumulative number of consecutive motion non-detection of the object B is 2. Thus, the control unit increments the pixel value of object B by two steps. The cumulative number of consecutive motion non-detection of the object C is 1. Therefore, the control unit increments the pixel value of the object C by one step. According to the embodiment of FIG. 4, as the total cumulative count of consecutive motion non-detection times of an entity becomes larger, the pixel value increases and can be emphasized and displayed. According to this, even if the accumulated number of times of motion detection is large, the control unit can display it so as to be close to the normal entity if the cumulative number of motion non-detection counts is not large.

도5는 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도5를 참고하면, 제어부는 움직임 비검출 누적 횟수가 제1임계값을 초과할 경우 대응되는 개체의 픽셀값을 제1설정값으로 제어할 수 있다. 여기서 제1임계값 및 제1설정값은 유저 인터페이스부를 통하여 설정될 수 있다. 또는 관리 서버의 제어 명령을 통하여 설정될 수 있다. 도5에서 제1임계값은 2회로 설정되어 있다. 제1설정값은 픽셀값의 최댓값을 의미할 수 있다. 도5에서 제1설정값은 픽셀의 최대 적색값을 의미할 수 있다. 도5에서, 개체 A의 움직임 비검출 누적횟수는 5번으로 제1임계값을 초과한다. 따라서, 제어부는 개체 A의 픽셀값을 최대 적색값으로 제어한다. 개체 B의 움직임 비검출 누적횟수는 3번으로 제1임계값을 초과한다. 따라서, 제어부는 개체 B의 픽셀값을 최대 적색값으로 제어한다. 개체 C의 연속된 움직임 비검출 누적횟수는 1번으로 제1임계값을 초과하지 않는다. 따라서, 제어부는 개체 C의 픽셀값을 현상태로 유지시킨다. 도5의 실시예에 따르면, 개체의 움직임 비검출 횟수의 총 누적 횟수가 특정횟수를 초과하는 경우에는 픽셀값을 최대한 강조하여 표시할 수 있다.5 is a view for explaining the operation of the control unit according to the embodiment of the present invention. Referring to FIG. 5, the controller may control a pixel value of a corresponding entity to a first set value when the accumulated number of motion non-detection times exceeds a first threshold value. Here, the first threshold and the first set value may be set through the user interface unit. Or through a control command of the management server. In Fig. 5, the first threshold value is set to two. The first set value may mean the maximum value of the pixel value. In FIG. 5, the first set value may mean the maximum red value of the pixel. 5, the cumulative number of motion non-detection times of entity A exceeds the first threshold value 5 times. Therefore, the control unit controls the pixel value of the object A to the maximum red value. The cumulative number of times of non-detection of the motion of the object B is 3, which exceeds the first threshold value. Therefore, the control unit controls the pixel value of the object B to the maximum red value. The cumulative number of consecutive motion non-detection counts of the object C is 1 and does not exceed the first threshold value. Therefore, the control unit maintains the pixel value of the object C in the current state. According to the embodiment of FIG. 5, when the total cumulative count of the motion detection ratio of the object exceeds a predetermined number, the pixel value can be maximally emphasized and displayed.

도6은 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도6을 참고하면, 제어부는 연속된 움직임 비검출 누적 횟수가 제1임계값을 초과할 경우 대응되는 개체의 픽셀값을 제1설정값으로 제어할 수 있다. 여기서 제1임계값 및 제1설정값은 유저 인터페이스부를 통하여 설정될 수 있다. 또는 관리 서버의 제어 명령을 통하여 설정될 수 있다. 도6에서 제1임계값은 2회로 설정되어 있다. 제1설정값은 픽셀값의 최댓값을 의미할 수 있다. 도6에서 제1설정값은 픽셀의 최대 적색값을 의미할 수 있다. 개체 A의 연속된 움직임 비검출 누적횟수는 5번으로 제1임계값을 초과한다. 따라서, 제어부는 개체 A의 픽셀값을 최대 적색값으로 제어한다. 개체 B의 연속된 움직임 비검출 누적횟수는 2번으로 제1임계값을 초과하지 않는다. 따라서, 제어부는 개체 B의 픽셀값을 현상태로 유지시킨다. 개체 C의 연속된 움직임 비검출 누적횟수는 1번으로 제1임계값을 초과하지 않는다. 따라서, 제어부는 개체 C의 픽셀값을 현상태로 유지시킨다. 도6의 실시예에 따르면, 개체가 연속하여 움직이지 않는 프레임의 수가 제1임계값을 초과하는 경우에만 픽셀값을 최대한 강조하여 표시함으로써 좀 더 엄격한 기준에 따른 이상개체 판별이 가능하다.6 is a view for explaining the operation of the control unit according to the embodiment of the present invention. Referring to FIG. 6, the controller may control a pixel value of a corresponding entity to a first set value when the cumulative number of motion non-detection counts exceeds a first threshold value. Here, the first threshold and the first set value may be set through the user interface unit. Or through a control command of the management server. In Fig. 6, the first threshold value is set to two times. The first set value may mean the maximum value of the pixel value. In FIG. 6, the first set value may mean the maximum red value of the pixel. The cumulative number of consecutive motion non-detection times of the object A exceeds the first threshold value 5 times. Therefore, the control unit controls the pixel value of the object A to the maximum red value. The cumulative number of consecutive motion non-detection times of the object B is 2 and does not exceed the first threshold value. Therefore, the control unit maintains the pixel value of the object B in the current state. The cumulative number of consecutive motion non-detection counts of the object C is 1 and does not exceed the first threshold value. Therefore, the control unit maintains the pixel value of the object C in the current state. According to the embodiment of FIG. 6, it is possible to discriminate an abnormal object according to a stricter criterion by maximizing the pixel value only when the number of consecutive frames of the object does not exceed the first threshold value.

도7은 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도7을 참고하면, 제어부는 움직임 검출 누적 횟수에 따라 대응되는 개체의 픽셀값을 단계적으로 감소시킬 수 있다. 개체 A의 움직임 검출 누적횟수는 5번이다. 따라서, 제어부는 개체 A의 픽셀값을 5단계 감소시킨다. 개체 B의 움직임 검출 누적횟수는 3번이다. 따라서, 제어부는 개체 B의 픽셀값을 3단계 감소시킨다. 개체 C의 움직임 검출 누적횟수는 2번이다. 따라서, 제어부는 개체 C의 픽셀값을 2단계 감소시킨다. 도7의 실시예에 따르면, 개체의 움직임 검출 횟수의 총 누적 횟수가 커질수록 픽셀값이 감소함으로써 비강조되어 표시될 수 있다. 즉, 분포도상에서 픽셀값이 낮을 수록 원본 데이터 값에 가깝게 표시되거나 또는 희미하게 표시될 수 있다. 이에 따르면, 제어부는 일정 프레임 동안 움직임이 비검출된 개체라 하더라도, 전체적인 움직임 검출 누적 횟수가 많다면 정상개체에 가깝도록 비강조하여 표시할 수 있다.7 is a view for explaining the operation of the control unit according to the embodiment of the present invention. Referring to FIG. 7, the controller may stepwise decrease the pixel value of the corresponding entity according to the cumulative number of motion detection times. The cumulative number of motion detection of the object A is 5. Therefore, the control unit decreases the pixel value of the object A by five steps. The cumulative number of motion detection of the object B is 3. Thus, the control unit reduces the pixel value of object B by three steps. The cumulative number of motion detection of the object C is 2. Accordingly, the control unit decreases the pixel value of the object C by two steps. According to the embodiment of FIG. 7, as the total cumulative count of the motion detection times of the object becomes larger, the pixel value decreases and can be emphasized and displayed. That is, the lower the pixel value on the distribution chart, the closer it is to the original data value or it can be dimly displayed. According to this, even if the motion is not detected for a certain frame, the controller can emphasize and display the motion object close to the normal object if the accumulated number of motion detection is large.

도8은 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도8을 참고하면, 제어부는 연속된 움직임 검출 누적 횟수에 따라 대응되는 개체의 픽셀값을 단계적으로 감소시킬 수 있다. 도8에서, 개체 A의 연속된 움직임 검출 누적횟수는 5번이다. 따라서, 제어부는 개체 A의 픽셀값을 5단계 감소시킨다. 개체 B의 연속된 움직임 검출 누적횟수는 2번이다. 따라서, 제어부는 개체 B의 픽셀값을 2단계 감소시킨다. 개체 C의 연속된 움직임 검출 누적횟수는 1번이다. 따라서, 제어부는 개체 C의 픽셀값을 1단계 감소시킨다. 도8의 실시예에 따르면, 개체의 연속된 움직임 검출 횟수의 누적 횟수가 커질수록 픽셀값이 감소하여 비강조 표시될 수 있다. 이에 따르면, 제어부는 누적된 움직임 검출 횟수가 크다 하더라도, 연속된 움직임 검출 누적 횟수가 크지 않다면 이상개체에 가깝도록 표시할 수 있다.8 is a view for explaining the operation of the control unit according to the embodiment of the present invention. Referring to FIG. 8, the controller may stepwise decrease the pixel value of the corresponding entity according to the cumulative number of motion detection accumulations. In FIG. 8, the cumulative number of successive motion detection of the object A is five. Therefore, the control unit decreases the pixel value of the object A by five steps. The cumulative number of successive motion detection of the object B is 2. Therefore, the control unit decreases the pixel value of object B by two steps. The cumulative number of successive motion detection of the object C is 1. Therefore, the control unit decreases the pixel value of the object C by one step. According to the embodiment of FIG. 8, as the cumulative number of times of successive motion detection of the object becomes larger, the pixel value decreases and can be emphasized. According to this, even if the cumulative number of motion detection is large, the control unit can display it so as to be close to the abnormal object if the cumulative number of cumulative motion detection is not large.

도9는 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도9를 참고하면, 제어부는 움직임이 검출된 개체의 픽셀값을 제2설정값으로 제어할 수 있다. 여기서 제2설정값은 유저 인터페이스부를 통하여 설정될 수 있다. 또는 관리 서버의 제어 명령을 통하여 설정될 수 있다. 도9에서 제2설정값은 원본 영상 데이터의 픽셀값이다. 도9에서, 개체 A 내지 개체 C는 n-1 내지 n+3의 영상 프레임동안 모두 한번 이상의 움직임이 검출되었다. 따라서, 제어부는 개체 A 내지 개체 C의 픽셀값을 원본 영상 데이터의 픽셀값으로 설정한다. 이에 따르면, 분석 영상 프레임 기간 동안 한 번이라도 움직임이 검출된 개체는 정상 개체로 분류하여 원본 영상 데이터의 픽셀값으로 표시할 수 있다.9 is a view for explaining the operation of the control unit according to the embodiment of the present invention. Referring to FIG. 9, the controller may control the pixel value of the motion-detected entity to a second set value. Here, the second set value may be set through the user interface unit. Or through a control command of the management server. In FIG. 9, the second set value is the pixel value of the original image data. In Fig. 9, object A to object C have detected motion more than once during all of the image frames of n-1 to n + 3. Accordingly, the controller sets the pixel values of the objects A to C as the pixel values of the original image data. According to this, an entity whose motion is detected even once during the analysis image frame period can be classified as a normal entity and displayed as a pixel value of the original image data.

도10은 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도10을 참고하면, 제어부는 움직임 검출 누적 횟수가 제2임계값을 초과할 경우 대응되는 개체의 픽셀값을 제2설정값으로 제어할 수 있다. 여기서 제2임계값 및 제2설정값은 유저 인터페이스부를 통하여 설정될 수 있다. 또는 관리 서버의 제어 명령을 통하여 설정될 수 있다. 도10에서 제2임계값은 2회로 설정되어 있다. 제2설정값은 원본 영상 데이터의 픽셀값이다. 도10에서, 개체 A의 움직임 검출 누적횟수는 5번으로 제2임계값을 초과한다. 따라서, 제어부는 개체 A의 픽셀값을 원본 영상 데이터의 픽셀값으로 제어한다. 개체 B의 움직임 검출 누적횟수는 3번으로 제2임계값을 초과한다. 따라서, 제어부는 개체 B의 픽셀값을 원본 영상 데이터의 픽셀값으로 제어한다. 개체 C의 연속된 움직임 검출 누적횟수는 1번으로 제2임계값을 초과하지 않는다. 따라서, 제어부는 개체 C의 픽셀값을 현상태로 유지시킨다. 도10의 실시예에 따르면, 개체의 움직임 검출 횟수의 총 누적 횟수가 특정횟수를 초과하는 경우에는 픽셀값을 원본 영상 데이터의 픽셀값으로 표시할 수 있다.10 is a view for explaining the operation of the control unit according to the embodiment of the present invention. Referring to FIG. 10, the controller may control the pixel value of the corresponding entity to a second set value when the cumulative number of motion detection times exceeds a second threshold value. Here, the second threshold value and the second set value may be set through the user interface unit. Or through a control command of the management server. In Fig. 10, the second threshold value is set to two. The second set value is the pixel value of the original image data. In FIG. 10, the cumulative number of motion detection times of entity A exceeds the second threshold value 5 times. Therefore, the control unit controls the pixel value of the object A as the pixel value of the original image data. The cumulative number of motion detection times of the object B exceeds 3 and exceeds the second threshold value. Accordingly, the control unit controls the pixel value of the object B as the pixel value of the original image data. The cumulative number of successive motion detection of the object C does not exceed the second threshold value by one. Therefore, the control unit maintains the pixel value of the object C in the current state. According to the embodiment of FIG. 10, when the cumulative total number of motion detection times of an object exceeds a specific number, the pixel value may be displayed as a pixel value of the original image data.

도11은 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도11을 참고하면, 제어부는 연속된 움직임 검출 누적 횟수가 제2임계값을 초과할 경우 대응되는 개체의 픽셀값을 제2설정값으로 제어할 수 있다. 여기서 제2임계값 및 제2설정값은 유저 인터페이스부를 통하여 설정될 수 있다. 또는 관리 서버의 제어 명령을 통하여 설정될 수 있다. 도11에서 제2임계값은 2회로 설정되어 있다. 제2설정값은 원본 영상 데이터의 픽셀값이다. 도11에서, 개체 A의 움직임 검출 누적횟수는 5번으로 제2임계값을 초과한다. 따라서, 제어부는 개체 A의 픽셀값을 원본 영상 데이터의 픽셀값으로 제어한다. 개체 B의 움직임 검출 누적횟수는 2번으로 제2임계값을 초과하지 않는다. 따라서, 제어부는 개체 B의 픽셀값을 현상태로 유지시킨다. 개체 C의 연속된 움직임 검출 누적횟수는 1번으로 제2임계값을 초과하지 않는다. 따라서, 제어부는 개체 C의 픽셀값을 현상태로 유지시킨다. 도11의 실시예에 따르면, 개체의 연속된 움직임 검출 횟수의 총 누적 횟수가 특정횟수를 초과하는 경우에만 픽셀값을 원본 영상 데이터의 픽셀값으로 표시할 수 있다.11 is a view for explaining the operation of the control unit according to the embodiment of the present invention. Referring to FIG. 11, the controller may control a pixel value of a corresponding object to a second set value when the cumulative number of successive motion detection times exceeds a second threshold value. Here, the second threshold value and the second set value may be set through the user interface unit. Or through a control command of the management server. In Fig. 11, the second threshold value is set to two. The second set value is the pixel value of the original image data. 11, the cumulative number of motion detection times of entity A exceeds the second threshold value 5 times. Therefore, the control unit controls the pixel value of the object A as the pixel value of the original image data. The cumulative number of motion detection times of entity B is 2 and does not exceed the second threshold. Therefore, the control unit maintains the pixel value of the object B in the current state. The cumulative number of successive motion detection of the object C does not exceed the second threshold value by one. Therefore, the control unit maintains the pixel value of the object C in the current state. According to the embodiment of FIG. 11, the pixel value can be displayed as the pixel value of the original image data only when the total cumulative count of consecutive motion detection times of the object exceeds a specific number.

도12는 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도12를 참고하면, 제어부는 움직임이 검출된 개체의 대응되는 픽셀값을 제2설정값으로 제어하고, 이상 개체 데이터상에서 제외시킴으로써 이후 분석 대상에서 제외할 수 있다. 여기서 제2설정값은 유저 인터페이스부를 통하여 설정될 수 있다. 또는 관리 서버의 제어 명령을 통하여 설정될 수 있다. 도12에서 제2설정값은 원본 영상 데이터의 픽셀값이다. 도12에서, 개체 A의 경우, 제어부는 움직임이 검출된 n-1프레임에서 개체 A의 픽셀값을 원본 영상 데이터 픽셀값으로 설정하고, 이후 n 내지 n+3프레임 기간동안 분석 대상에서 제외한다. 개체 B의 경우, 제어부는 움직임이 검출된 n프레임에서 개체 B의 픽셀값을 원본 영상 데이터 픽셀값으로 설정하고, 이후 n+1 내지 n+3프레임 기간동안 분석 대상에서 제외한다. 개체 C의 경우, 제어부는 움직임이 검출된 n+2프레임에서 개체 C의 픽셀값을 원본 영상 데이터 픽셀값으로 설정하고, 이후 n+3프레임 기간동안 분석 대상에서 제외한다.12 is a view for explaining the operation of the control unit according to the embodiment of the present invention. Referring to FIG. 12, the control unit may control the corresponding pixel values of the object in which the motion is detected to a second set value, and exclude it from the ideal object data, so that it can be excluded from the analysis object. Here, the second set value may be set through the user interface unit. Or through a control command of the management server. 12, the second set value is the pixel value of the original image data. 12, in the case of the object A, the control unit sets the pixel value of the object A in the n-1 frame in which the motion is detected as the original image data pixel value, and then excludes the object pixel from the analysis during the n to n + 3 frame periods. In the case of the object B, the control unit sets the pixel value of the object B as the original image data pixel value in the n frames in which the motion is detected, and excludes it from the analysis object for the n + 1 to n + 3 frame periods thereafter. In the case of entity C, the controller sets the pixel value of the object C to the original image data pixel value in the n + 2 frame in which the motion is detected, and excludes it from the analysis object during the n + 3 frame period thereafter.

도13은 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도13을 참고하면, 제어부는 움직임 검출 누적 횟수가 제2임계값을 초과하는 개체에 대응되는 픽셀값을 제2설정값으로 제어하고, 이상 개체 데이터상에서 제외시킴으로써 이후 분석 대상에서 제외할 수 있다. 여기서 제2임계값 및 제2설정값은 유저 인터페이스부를 통하여 설정될 수 있다. 또는 관리 서버의 제어 명령을 통하여 설정될 수 있다. 도13에서 제2임계값은 1회로 설정되어 있다. 제2설정값은 원본 영상 데이터의 픽셀값이다. 도13에서, 개체 A의 경우 n프레임에서 움직임 누적 검출 횟수가 2회로 나타난다. 따라서, 제어부는 n프레임에서 개체 A의 픽셀값을 원본 영상 데이터 픽셀값으로 설정하고, 이후 n+1 내지 n+3프레임 기간동안 분석 대상에서 제외한다. 개체 B의 경우 n+2프레임에서 움직임 누적 검출 횟수가 2회로 나타난다. 따라서, 제어부는 n+2프레임에서 개체 B의 픽셀값을 원본 영상 데이터 픽셀값으로 설정하고, 이후 n+3프레임 기간동안 분석 대상에서 제외한다. 개체 C의 경우 분석 프레임 기간 동안 움직임 검출 누적 횟수가 2회 미만으로 나타났기 때문에 제어부는 이후 프레임에서도 지속적으로 분석을 수행하여 픽셀값을 제어하게 된다.13 is a view for explaining the operation of the control unit according to the embodiment of the present invention. Referring to FIG. 13, the controller may control a pixel value corresponding to an entity whose cumulative number of motion detection times exceeds a second threshold to a second set value, and exclude it from abnormal object data, thereby excluding the pixel value from the analysis object. Here, the second threshold value and the second set value may be set through the user interface unit. Or through a control command of the management server. In Fig. 13, the second threshold value is set to one. The second set value is the pixel value of the original image data. In Fig. 13, in the case of entity A, the number of motion accumulation detection times is two in n frames. Therefore, the controller sets the pixel value of the object A as the original image data pixel value in the n frame, and excludes it from the analysis object during the (n + 1) to (n + 3) frame period thereafter. In case of entity B, the number of motion accumulation detection times in the (n + 2) frame is two. Therefore, the controller sets the pixel value of the object B as the original image data pixel value in the (n + 2) -th frame, and excludes it from the analysis object during the (n + 3) -th frame period. In the case of entity C, since the cumulative number of motion detection times is less than two times during the analysis frame period, the control unit continuously performs the analysis in the subsequent frame to control the pixel value.

도14는 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도14를 참고하면, 제어부는 연속된 움직임 검출 누적 횟수가 제2임계값을 초과하는 개체에 대응되는 픽셀값을 제2설정값으로 제어하고, 이상 개체 데이터상에서 제외시킴으로써 이후 분석 대상에서 제외할 수 있다. 여기서 제2임계값 및 제2설정값은 유저 인터페이스부를 통하여 설정될 수 있다. 또는 관리 서버의 제어 명령을 통하여 설정될 수 있다. 도14에서 제2임계값은 1회로 설정되어 있다. 제2설정값은 원본 영상 데이터의 픽셀값이다. 도14에서, 개체 A의 경우 n프레임에서 연속된 움직임 누적 검출 횟수가 2회로 나타난다. 따라서, 제어부는 n프레임에서 개체 A의 픽셀값을 원본 영상 데이터 픽셀값으로 설정하고, 이후 n+1 내지 n+3프레임 기간동안 분석 대상에서 제외한다. 개체 B및 개체 C의 경우 분석 프레임 기간 동안 연속된 움직임 검출 누적 횟수가 2회 미만으로 나타났기 때문에 제어부는 이후 프레임에서도 지속적으로 분석을 수행하여 픽셀값을 제어하게 된다.14 is a view for explaining the operation of the control unit according to the embodiment of the present invention. 14, the controller may control the pixel value corresponding to the object in which the cumulative number of cumulative motion detection cumulative times exceeds the second threshold to a second set value, and exclude it from the abnormal object data, have. Here, the second threshold value and the second set value may be set through the user interface unit. Or through a control command of the management server. In Fig. 14, the second threshold is set to one. The second set value is the pixel value of the original image data. In Fig. 14, in the case of entity A, the number of consecutive motion accumulation detection times in n frames appears twice. Therefore, the controller sets the pixel value of the object A as the original image data pixel value in the n frame, and excludes it from the analysis object during the (n + 1) to (n + 3) frame period thereafter. In the case of the object B and the object C, since the cumulative number of successive motion detection is less than two times during the analysis frame period, the control unit continuously performs the analysis in the subsequent frame to control the pixel value.

도12 내지 도14의 경우 움직임 검출 횟수에 따라 특정 조건을 만족하는 개체의 경우 정상 개체로 판단하고, 정상 개체로 판단한 시점 이후에는 분석 대상에서 제외함으로써 분석을 위한 데이터 연산량을 감소시킬 수 있다. 이에 따라 적게는 수백마리 많게는 수만마리의 가금류가 생활하는 사육장 내부를 촬영한 영상 데이터의 분석 속도와 정확성, 그리고 효율성을 크게 향상시킬 수 있다.In the case of FIGS. 12 to 14, it can be determined that the entity satisfying a specific condition is determined to be a normal entity according to the number of motion detection times. Thus, the speed, accuracy, and efficiency of the image data captured inside the breeding ground where hundreds of thousands of poultry live in a few hundred or fewer animals can be greatly improved.

도15는 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도15를 참고하면, 제어부는 움직임 검출 누적 횟수가 제2임계값 이상인 개체에 대응되는 픽셀값을 제2설정값으로 제어하고, 분석 대상에서 제외할 수 있다. 여기서 제2임계값 및 제2설정값은 유저 인터페이스부를 통하여 설정될 수 있다. 또는 관리 서버의 제어 명령을 통하여 설정될 수 있다. 도15에서 제2임계값은 2회로 설정되어 있다. 제2설정값은 해당 개체 또는 해당 픽셀이 시각적으로 표시되지 않기 위한 모든 수단으로 구현될 수 있다. 제2설정값은 예를 들면, 해당 개체 또는 해당 픽셀에 대한 마스킹 처리, 모자이크 처리, 투명 픽셀 처리 등에 의하여 구현될 수 있다. 이에 따라 정상 개체로 분류될 경우 영상 데이터 상에 시각적으로 표시되지 않게 되어 이상 개체를 보다 정확하게 판별할 수 있다는 이점이있다. 15 is a view for explaining the operation of the control unit according to the embodiment of the present invention. Referring to FIG. 15, the controller may control a pixel value corresponding to an object whose motion detection cumulative count is equal to or greater than a second threshold value to a second set value, and exclude the pixel value from analysis. Here, the second threshold value and the second set value may be set through the user interface unit. Or through a control command of the management server. In Fig. 15, the second threshold is set to two. The second set value may be implemented by any means for preventing the corresponding object or the corresponding pixel from being visually displayed. The second set value may be implemented, for example, by a masking process, a mosaic process, a transparent pixel process, or the like for the object or the corresponding pixel. Accordingly, when the object is classified as a normal object, the object is not visually displayed on the image data, and the abnormal object can be discriminated more accurately.

다시 도1 및 도2를 참고하면, 제어부(114)는 촬상 장치(100)의 동작을 위한 각종 명령을 수행할 수 있다. Referring again to FIGS. 1 and 2, the controller 114 may perform various commands for the operation of the image capturing apparatus 100.

제어부(114)는 예를 들면, 유저 인터페이스부(117) 또는 데이터 베이스(119)에 저장된 명령을 수행하여 촬상 장치(100)의 동작을 수행할 수 있다.The control unit 114 can perform an operation of the image capturing apparatus 100 by executing an instruction stored in the user interface unit 117 or the database 119, for example.

또는 제어부(114)는 관리 서버(200)로부터 수신한 명령을 이용하여 촬상 장치(100)의 각종 동작을 제어할 수 있다.Or the control unit 114 can control various operations of the image capturing apparatus 100 by using the command received from the management server 200. [

제어부(114)는 촬영부(11)를 제어하여 움직임 비검출 누적 횟수가 제3설정값 이상인 지점 또는 개체를 추적 촬영할 수 있다. 제3설정값은 유저 인터페이스부(117)를 통하여 설정되거나 또는 관리 서버(200)의 제어 명령을 통하여 설정될 수 있다. 제어부(114)는 촬영부(111)를 제어하여 이상개체가 있는 특정 영역을 추적 촬영하여 영상 데이터를 생성하게 함으로써 지속적인 모니터링을 수행할 수 있게 한다.The control unit 114 may control the photographing unit 11 to track and photograph a point or an object whose cumulative number of times of motion detection is equal to or greater than a third set value. The third set value may be set through the user interface unit 117 or through a control command of the management server 200. [ The control unit 114 controls the photographing unit 111 to track and photograph a specific area having an abnormal object to generate image data, thereby enabling continuous monitoring.

이 때, 제어부(114)는 촬상 장치(100)의 팬틸트부(121)를 제어하여 추적 촬영을 수행할 수 있다. 팬틸트부(121)는 팬(Pan, 수평방향) 및 틸트(Tilt, 수직 방향) 2개의 모터를 구동하여 촬영부(111)의 촬영 영역을 제어할 수 있다. 팬틸트부(121)는 제어부(114)의 제어에 따라 특정 영역을 촬영하기 위하여 촬영부(111)의 지향 방향을 조절할 수 있다. 또한, 팬틸트부(121)는 제어부(114)의 제어에 따라 특정 개체를 트래킹하기 위하여 촬영부(111)의 지향 방향을 조절할 수 있다.At this time, the control unit 114 may control the pan tilt unit 121 of the image pickup apparatus 100 to perform tracking photographing. The pan tilt section 121 can drive two motors in a pan (horizontal direction) and a tilt (vertical direction) to control the photographing area of the photographing section 111. The pan tilt unit 121 can adjust the direction of the shooting unit 111 to capture a specific area under the control of the controller 114. [ In addition, the pan tilt unit 121 may adjust the direction of the shooting unit 111 to track a specific object under the control of the controller 114.

통신부(115)는 타 촬상 장치, 데이터 수집장치(150) 또는 관리 서버(200)와 데이터 통신을 수행할 수 있다. 예를 들면, 통신부(115)는 무선랜(Wireless LAN: WLAN), 와이 파이(Wi-Fi), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등의 원거리 통신 기술을 사용하여 데이터 통신을 수행할 수 있다.The communication unit 115 can perform data communication with another imaging device, the data collection device 150, or the management server 200. For example, the communication unit 115 may be a wireless LAN (WLAN), a Wi-Fi, a Wireless Broadband (Wibro), a World Interoperability for Microwave Access The mobile terminal can perform data communication using a long distance communication technology such as Packet Access, IEEE 802.16, Long Term Evolution (LTE), and Wireless Mobile Broadband Service (WMBS).

또는 통신부(115)는 블루투스, RFID(RadioFrequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비, 인접 자장 통신(NFC) 등이 포함될 수 있다. 또한, 유선 통신 기술로는, USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등의 근거리 통신 기술을 사용하여 데이터 통신을 수행할 수 있다.Or communication unit 115 may include Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wide Band (UWB), ZigBee, and Near Field Communication (NFC). The wired communication technology can perform data communication using a short distance communication technology such as USB communication, Ethernet, serial communication, and optical / coaxial cable.

예를 들면, 통신부(115)는 근거리 통신 기술을 사용하여 타 촬상 장치 또는 데이터 수집장치(150)와 데이터 통신을 수행하고, 원거리 통신 기술을 사용하여 관리 서버(200)와 데이터 통신을 수행할 수 있다, 그러나 이에 한정되는 것은 아니고, 사육장(10)의 제반 사항 등을 고려하여 다양한 통신 기술이 사용될 수 있다.For example, the communication unit 115 may perform data communication with another imaging device or data collection device 150 using a local communication technique, and may perform data communication with the management server 200 using a remote communication technique However, the present invention is not limited thereto, and various communication technologies can be used in consideration of various matters of the breeding ground 10.

통신부(115)는 촬영부(111)에서 촬영한 원본 영상 데이터를 데이터 수집장치(150) 또는 관리 서버(200)에 전송할 수 있다.The communication unit 115 can transmit the original image data photographed by the photographing unit 111 to the data collection device 150 or the management server 200. [

또는 통신부(115)는 데이터 수집장치(150) 또는 원격의 관리 서버(200) 중 적어도 하나로 픽셀값이 조절된 영상 데이터, 위치 분포 데이터, 동작 데이터 및 좌표 정보 중 적어도 하나를 전송할 수 있다. 이 때, 좌표 정보는 이상개체로 의심되는 지점 또는 개체에 대한 좌표를 의미할 수 있다.Alternatively, the communication unit 115 may transmit at least one of the image data, the position distribution data, the operation data, and the coordinate information having the pixel value adjusted to at least one of the data collection device 150 and the remote management server 200. In this case, the coordinate information may refer to a point suspected of being an abnormal entity or a coordinate of an object.

통신부(115)를 통하여 전송되는 데이터는 인코딩부(118)를 통하여 인코딩된 압축 데이터일 수 있다.The data transmitted through the communication unit 115 may be compressed data encoded through the encoding unit 118.

표시부(116)는 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode: OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display unit 116 may be a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT LCD), an organic light emitting diode (OLED), a flexible display ), A three-dimensional display (3D display), and an electronic ink display (e-ink display).

표시부(116)는 제어부(114)를 통하여 픽셀값이 조절된 영상 데이터 및 분포 데이터 중 적어도 하나를 디스플레이할 수 있다.The display unit 116 may display at least one of image data and distribution data whose pixel values are adjusted through the control unit 114. [

또한, 표시부(116)는 촬영부(111)에서 촬영한 원본 영상 데이터를 화면에 출력할 수 있다. Also, the display unit 116 can output the original image data photographed by the photographing unit 111 on the screen.

또한, 표시부(116)는 다양한 사용자 인터페이스 또는 그래픽 사용자 인터페이스를 화면에 출력할 수 있다.In addition, the display unit 116 may output various user interfaces or graphic user interfaces to the screen.

유저 인터페이스부(117)는 촬상 장치(100)의 동작 제어를 위한 입력 데이터를 발생시킨다. 유저 인터페이스부(117)는 키 패드, 돔 스위치, 터치 패드, 조그 휠, 조그 스위치 등으로 구성될 수 있다. 표시부(116)와 터치패드가 상호 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 표시부(116)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. The user interface unit 117 generates input data for controlling the operation of the image sensing apparatus 100. The user interface unit 117 may include a key pad, a dome switch, a touch pad, a jog wheel, a jog switch, and the like. When the display unit 116 and the touch pad have a mutual layer structure to constitute a touch screen, the display unit 116 can be used as an input device in addition to the output device.

유저 인터페이스부(117)는 촬상 장치의 동작을 위한 다양한 명령을 입력받을 수 있다.The user interface unit 117 can receive various commands for operation of the image capturing apparatus.

인코딩부(118)는 촬영부(111)에서 촬영한 원본 영상 데이터 또는 데이터 처리부(112), 모션 검출부(113), 제어부(114) 등을 통하여 가공된 가공 영상 데이터를 디지털 신호로 부호화한다. 예를 들면, 인코딩부(118)는 H.264, H.265, MPEG(Moving Picture Experts Group), M-JPEG(Motion Joint Photographic Experts Group) 표준에 따라 영상 데이터를 인코딩할 수 있다.The encoding unit 118 encodes the original image data photographed by the photographing unit 111 or the processed image data processed through the data processing unit 112, the motion detecting unit 113, and the control unit 114 into digital signals. For example, the encoding unit 118 may encode image data according to H.264, H.265, Moving Picture Experts Group (MPEG), and Motion JPEG standard (Motion JPEG) standards.

데이터 베이스(119)는, 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. 또한, 촬상 장치(100)는 인터넷(internet) 상에서 데이터 베이스(119)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영하거나, 또는 웹 스토리지와 관련되어 동작할 수도 있다.The database 119 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory, etc.) A random access memory (SRAM), a read-only memory (ROM), an electrically erasable programmable read-only memory (EEPROM), a PROM Programmable Read-Only Memory). In addition, the image sensing apparatus 100 may operate in association with web storage or operate a web storage that performs a storage function of the database 119 on the Internet.

데이터 베이스(119)는 촬영부(111)에서 촬영한 영상 데이터를 저장할 수 있으며, 과거 일정 기간 동안의 영상 데이터를 저장할 수 있다.The database 119 may store image data taken by the photographing unit 111 and may store image data for a certain period of time.

또한, 데이터 베이스(119)는, 촬상 장치(100)가 동작하는데 필요한 데이터와 프로그램 등을 저장할 수 있다.In addition, the database 119 may store data, programs, and the like necessary for the imaging apparatus 100 to operate.

또한, 데이터 베이스(119)는, 다양한 사용자 인터페이스(User Interface: UI) 또는 그래픽 사용자 인터페이스(Graphic User Interface: GUI)를 저장할 수 있다.In addition, the database 119 may store various user interfaces (UI) or graphical user interfaces (GUI).

광원부(120)는 제어부(114)의 제어에 따라 지향하는 방향으로 광을 조사할 수 있다. 예를 들면, 광원부(120)는 적어도 하나의 레이저 다이오드(LD), 발광 다이오드(LED)를 포함할 수 있다. 광원부는 제어부의 제어에 따라 다양한 파장대의 광을 조사할 수 있다.The light source unit 120 can irradiate light in a direction that is directed by the control of the controller 114. For example, the light source unit 120 may include at least one laser diode (LD), a light emitting diode (LED). The light source unit can irradiate light of various wavelength ranges under the control of the control unit.

예를 들면, 광원부(120)는 야간 촬영을 위하여 적외선 파장대의 광을 조사할 수 있다. 또는, 광원부(120)는 사육장내 가축의 광화학 치료(photochemotherapy)를 위하여 자외선 파장대의 광을 조사할 수 있다.For example, the light source unit 120 may irradiate light of an infrared wavelength band for night image capturing. Alternatively, the light source unit 120 may irradiate ultraviolet light for photochemotherapy of cattle in a cage.

도16은 본 발명의 실시예에 따른 이상 개체 검출 방법의 순서도이다.16 is a flowchart of an abnormal entity detection method according to an embodiment of the present invention.

도16을 참고하면, 먼저 촬영부는 복수 개체를 포함하는 이미지를 촬영한다. 촬영부는 사육장 내부에 배치되어 가금류를 포함하는 복수 개체를 촬영한다(S1601).Referring to FIG. 16, first, the photographing section photographs an image including a plurality of objects. The photographing unit is disposed inside the breeding ground to photograph a plurality of objects including poultry (S1601).

다음으로, 촬영부는 복수 개체를 포함하는 이미지를 이용하여 영상 데이터를 생성한다. 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 데이터 처리부는 순차적으로 촬영되는 이미지를 이용하여 복수개의 영상 데이터를 생성한다(S1602).Next, the photographing unit generates image data using an image including a plurality of objects. One piece of image data may mean a single frame. The data processor sequentially generates a plurality of image data using an image (S1602).

다음으로, 데이터 처리부는 영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성한다. 데이터 처리부는 시계열적으로 생성된 복수개의 영상 데이터에 대한 위치 분포 데이터를 생성한다(S1603).Next, the data processing unit generates the position distribution data indicating the position distribution of the plurality of objects using the image data. The data processing unit generates position distribution data for a plurality of image data generated in a time-series manner (S1603).

다음으로, 모션 검출부는 영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성한다. 데이터 처리부는 시계열적으로 생성된 복수개의 영상 데이터에 대한 동작 데이터를 생성한다(S1604).Next, the motion detection unit generates motion data representing the movement of the motion entity among the plurality of entities using the image data. The data processor generates operation data for a plurality of image data generated in a time-series manner (S1604).

위치 분포 데이터 생성 및 동작 데이터를 생성하는 단계는 동시에 수행되거나, 어느 하나의 데이터 생성 과정이 먼저 이루어 질 수 있다. 그러나 위치 분포 데이터 생성 및 동작 데이터 중 어느 하나의 데이터 생성 단계가 다른 데이터 생성 단계에 반드시 선행될 필요는 없다. The generation of the position distribution data and the generation of the operation data may be performed simultaneously, or any one of the data generation processes may be performed first. However, the data generation step of any one of the position distribution data generation and the operation data need not necessarily be preceded by another data generation step.

다음으로, 제어부는 영상 데이터의 위치 분포 데이터 및 동작 데이터를 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성한다. 제어부는 복수개의 영상 데이터에 대한 위치 분포 데이터 및 동작 데이터를 비교하여 복수 개체의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수를 연산하고, 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 이상 개체 데이터를 생성할 수 있다(S1605). Next, the control unit compares the position distribution data of the image data and the operation data to generate abnormal object data representing the abnormal object. The control unit compares the motion detection cumulative count and the cumulative motion detection cumulative count of the plurality of objects by comparing the position distribution data and the motion data with respect to the plurality of video data, and outputs the abnormal object data according to the accumulated motion detection cumulative count and the cumulative motion detection cumulative count (S1605).

다음으로, 제어부는 이상 개체 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 영상 데이터 상에서 복수개의 개체에 대한 픽셀 표시를 제어한다. 제어부는 특정 개체의 움직임이 검출되지 않은 횟수와 움직임이 검출된 횟우에 따라 정상개체 및 이상개체로 분류하고, 영상 데이터 상에서 정상개체 및 이상개체에 대응되는 픽셀값을 다르게 표시한다(S1606).Next, the control unit controls pixel display of a plurality of objects on the image data according to the cumulative number of motion detection and the cumulative number of motion ratio detection of abnormal object data. In operation S1606, the control unit classifies the normal object and the abnormal object according to the number of times the motion of the specific object is not detected and the number of times the motion is detected, and displays the pixel value corresponding to the normal object and the abnormal object differently on the image data.

실시예에 따른 이상 개체 검출 방법은 아래와 같은 수학식 1을 적용할 수 있다.The abnormal entity detection method according to the embodiment may be expressed by Equation (1).

[수학식1][Equation 1]

Pixelt = Pixelt-1(1-μ) + ㎼t - Ft Pixel t = Pixel t-1 ( 1-μ) + ㎼ t - F t

수학식 1에서 μ는 updateparameter로 설정에 따라 변경될 수 있다.In Equation (1), μ can be changed according to the setting in the updateparameter.

수학식 1에서 Pixelt, Pixelt-1은 이상 개체 데이터로서, 이상 개체의 존재 여부를 픽셀에 표시하기 위한 값으로서 픽셀의 농도를 의미할 수 있다. 이상 개체가 존재할 확률이 높은 픽셀일수록 더 진한 색으로 표시할 수 있도록 하는 것이다. 예를 들어, 이상 개체가 존재할 확률이 없으면 원색(하얀색)으로 표시되고, 이상 개체가 존재할 확률이 높을수록 빨강색에 가깝게 표현하고, 이상 개체가 존재할 확률이 아주 높다고 판단되면 가장 진한 빨강색으로 표시되게 하는 것이다. 따라서, Pixelt, Pixelt-1은 0에서 1 사이의 값을 가지도록 설정할 수 있으며, 0에 가까울수록 원색(하얀색)에 가깝게 표시되고, 1에 가까울수록 빨강색으로 표시된다.In Equation (1), Pixel t and Pixelt-1 are abnormal object data, which may indicate the pixel concentration as a value for displaying the presence or absence of an ideal object in pixels. A pixel having a higher probability that an abnormal object exists is displayed in a darker color. For example, if there is no probability that an ideal object exists, it is displayed as a primary color (white). The higher the probability of an ideal object is, the closer it is to red. . Therefore, Pixel t and Pixelt-1 can be set to have a value between 0 and 1, and the closer to 0, the closer to the primary color (white), and the closer to 1, the reder.

수학식 1에서 Pixelt - 1는 위치 분포 데이터 및 동작 데이터가 누적된 직전 프레임의 이상 개체 데이터이다. 수학식 1에서 Pixelt 현재 프레임의 위치분포 데이터와 동작 데이터를 적용하여 업데이트된 이상 개체 데이터이다.In Equation (1), Pixel t - 1 is ideal object data of the immediately preceding frame in which the position distribution data and the operation data are accumulated. In Equation 1, Pixel t And is updated by applying position distribution data and motion data of the current frame.

수학식 1에서 Wt는 현재 프레임의 위치 분포 데이터일 수 있다. 위치 분포 데이터는 해당 픽셀에 개체가 존재하는지 확률로서 0에서 1 사이의 값을 가질 수 있다. 위치 분포 데이터에는 update parameter μ가 적용될 수 있다. μ는 아주 작은 값으로 예를 들어 0.001일 수 있다. 즉, 위치 분포 데이터가 오랫 동안 누적이 되어야만 서서히 픽셀에 표시되도록 제어하는 것이다. In Equation (1), Wt may be position distribution data of the current frame. The position distribution data may have a value between 0 and 1 as a probability of existence of an object in the corresponding pixel. The update parameter μ may be applied to the position distribution data. μ may be a very small value, for example 0.001. That is, the position distribution data is gradually accumulated in the pixel for a long time to be displayed on the pixel.

수학식 1에서 Ft 는 현재 프레임의 동작 데이터일 수 있다. 동작 데이터는 모션 벡터의 절대값을 산출한 것으로서 0 이상의 값을 가질 수 있다. 모션 벡터의 크기는 개체의 속도에 대응되므로 1이상의 값을 가질 수 있다. 동작 데이터에는 별도의 파라미터 를 반영하지 않아 해당 픽셀에서 동작이 검출된 경우에는 해당 픽셀의 표시는 초기화가 되도록 제어한다.In Equation (1), F t may be operation data of the current frame. The motion data is obtained by calculating the absolute value of the motion vector and may have a value of 0 or more. The size of the motion vector corresponds to the speed of the object, and therefore can have a value of 1 or more. When the operation data is not reflected in the operation data and the operation is detected in the corresponding pixel, the display of the corresponding pixel is controlled to be initialized.

또는 실시예에 따른 이상 개체 검출 방법은 아래와 같은 수학식 2를 적용할 수 있다.Alternatively, the abnormal entity detection method according to the embodiment may be expressed by Equation (2) below.

[수학식2]&Quot; (2) "

Pixelt = Pixelt-1(1-μ+ ε) + ㎼t - Ft Pixel t = Pixel t-1 (1-μ + ε) + ㎼ t -F t

※μ: update parameter, ε: offset parameter※: update parameter, ε: offset parameter

수힉식2는 수학식1에서 offset parameter ε가 추가된 것으로 수학식1과 동일한 설명은 생략한다. offset parameter ε는 위치 분포 데이터의 누적을 조정하는 parameter로서 μ대비 1/10~1/100의 값을 가질 수 있다. In Equation (2), offset parameter? Is added in Equation (1), and the same explanation as Equation (1) is omitted. The offset parameter ε is a parameter that adjusts the accumulation of the position distribution data and can have a value of 1/10 to 1/100 relative to μ.

또는 실시예에 따른 이상 개체 검출 방법은 아래와 같은 수학식 3또는 수학식 4를 적용할 수 있다.Alternatively, the abnormal entity detection method according to the embodiment may apply Equation 3 or Equation 4 as follows.

[수학식3]&Quot; (3) "

Pixelt = Pixelt-1(1-μ) + μWt - κFtPixelt = Pixelt-1 (1-μ) + μWt - κFt

[수학식4]&Quot; (4) "

Pixelt = Pixelt-1(1-μ+ ε) + ㎼t - κFt Pixel t = Pixel t-1 ( 1-μ + ε) + ㎼ t - κF t

※μ: update parameter, ε: offset parameter, κ: update parameter※: update parameter, ε: offset parameter, κ: update parameter

수학식3 또는 수학식4는 동작 데이터 Ft에 update parameter κ를 곱한 것으로서 수학식1 및 수학식2와 동일한 내용은 생략한다. constant κ는 동작 데이터의 누적을 조정하는 parameter이다.Equation (3) or (4) is obtained by multiplying the operation data F t by the update parameter κ, and the same contents as in Equations (1) and (2) are omitted. constant κ is a parameter that adjusts the accumulation of operation data.

수학식 1 내지 4에 따른 이상 개체 검출 방법은 아래와 같은 수학식 5를 추가적으로 적용할 수 있다.The abnormal entity detection method according to Equations (1) to (4) can additionally apply the following Equation (5).

[수학식5]&Quot; (5) "

max(수학식 1,2,3 또는4, 0)max (Equation 1, 2, 3 or 4, 0)

수학식 5는 수학식 1,2,3 또는 4의 값이 0 이하로 떨어지는 것을 방지하기 위한 수식이다. 예를들어, 동작 데이터(Ft)의 크기가 다른 파라미터 값의 합보다 크게 되어, 수학식 1,2,3 또는 4의 값이 0보다 작은 음수가 될 경우 이를 보정하여 0으로 표시될 수 있도록 보정하는 제어 방법이다.Equation (5) is a formula for preventing the value of Equation (1), (2), (3) or (4) from falling below zero. For example, when the magnitude of the operation data (F t ) is greater than the sum of the other parameter values and the value of Equation 1, 2, 3 or 4 becomes a negative value smaller than 0, Which is a control method for correcting the error.

도17은 본 발명의 실시예에 따른 이상 개체 검출 방법의 순서도이다.17 is a flowchart of an abnormal entity detection method according to an embodiment of the present invention.

도17을 참고하면, 먼저 촬영부는 복수 개체를 포함하는 제1이미지를 촬영한다. 촬영부는 사육장 내부에 배치되어 가금류를 포함하는 복수 개체를 촬영한다(S1701).Referring to FIG. 17, the photographing unit first photographs a first image including a plurality of objects. The photographing unit is disposed inside the breeding ground and photographs a plurality of objects including poultry (S1701).

다음으로, 촬영부는 복수 개체를 포함하는 제1이미지를 이용하여 제1영상 데이터를 생성한다. 제1 영상 데이터는 단일 프레임을 의미할 수 있다(S1702).Next, the photographing unit generates first image data using a first image including a plurality of objects. The first image data may indicate a single frame (S1702).

다음으로, 데이터 처리부는 제1영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제1위치 분포 데이터를 생성한다(S1703).Next, the data processing unit generates the first position distribution data indicating the position distribution of the plurality of objects using the first image data (S1703).

다음으로, 모션 검출부는 제1영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제1동작 데이터를 생성한다(S1704).Next, the motion detection unit generates the first motion data indicating motion of the motion entity among the plurality of entities using the first image data (S1704).

제1위치 분포 데이터 생성 및 제1동작 데이터를 생성하는 단계는 동시에 수행되거나, 어느 하나의 데이터 생성 과정이 먼저 이루어 질 수 있다. 그러나 제1위치 분포 데이터 생성 및 제1동작 데이터 중 어느 하나의 데이터 생성 단계가 다른 데이터 생성 단계에 반드시 선행될 필요는 없다. The generation of the first position distribution data and the generation of the first operation data may be performed simultaneously or any one of the data generation processes may be performed first. However, any one of the generation of the first position distribution data and the generation of the first operation data need not necessarily precede the other data generation steps.

다음으로, 제어부는 제1위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체를 나타내는 제1이상 개체 데이터를 생성한다. 제어부는 제1영상 데이터에 대한 제1위치 분포 데이터 및 제1동작 데이터를 비교하여 복수 개체별 움직임에 따라 제1이상 개체 데이터를 생성할 수 있다(S1705). Next, the control unit compares the first position distribution data and the first operation data to generate first abnormal entity data representing the abnormal entity. In operation S1705, the controller compares the first position data and the first motion data with respect to the first image data, and generates the first abnormal entity data according to motion of the plurality of objects.

다음으로, 촬영부는 복수 개체를 포함하는 제2이미지를 촬영한다(S1706).Next, the photographing section photographs a second image including a plurality of objects (S1706).

다음으로, 촬영부는 복수 개체를 포함하는 제2이미지를 이용하여 제2영상 데이터를 생성한다. 제2 영상 데이터는 단일 프레임을 의미할 수 있다(S1707).Next, the photographing unit generates second image data using a second image including a plurality of objects. The second image data may indicate a single frame (S1707).

다음으로, 데이터 처리부는 제2영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제2위치 분포 데이터를 생성한다(S1708).Next, the data processing unit generates second position distribution data indicating the position distribution of the plurality of objects using the second image data (S1708).

다음으로, 모션 검출부는 제2영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제2동작 데이터를 생성한다(S1709).Next, the motion detection unit generates second motion data indicating motion of the motion entity among the plurality of entities using the second image data (S1709).

제2위치 분포 데이터 생성 및 제2동작 데이터를 생성하는 단계는 동시에 수행되거나, 어느 하나의 데이터 생성 과정이 먼저 이루어 질 수 있다. 그러나 제2위치 분포 데이터 생성 및 제2동작 데이터 중 어느 하나의 데이터 생성 단계가 다른 데이터 생성 단계에 반드시 선행될 필요는 없다. The generation of the second position distribution data and the generation of the second operation data may be performed simultaneously, or any one of the data generation processes may be performed first. However, any one of the second position distribution data generation and the second operation data generation step need not necessarily be preceded by another data generation step.

다음으로, 제어부는 제1이상 개체 데이터, 제2위치 분포 데이터 및 제2 동작 데이터를 비교하여 제2 이상 개체 데이터를 생성한다. 제어부는 제1이상 개체 데이터를 제2위치 분포데이터 및 제2동작 데이터와 비교하여 복수 개체의 움직임 검출 누적 횟수와 복수 개체의 움직임 비검출 누적 횟수를 연산하고, 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제2이상 개체 데이터를 생성한다(S1710). Next, the control unit compares the first ideal entity data, the second position distribution data, and the second operation data to generate second ideal entity data. The control unit compares the first abnormal entity data with the second motion distribution data and the second motion data to compute the cumulative number of motion detection accumulations of the plurality of entities and the accumulated cumulative detections of the plurality of entities, The second abnormal entity data is generated according to the number of times (S1710).

다음으로, 제어부는 제2이상 개체 데이터에 따라 영상 데이터 상에서 복수개의 개체에 대한 픽셀 표시를 제어한다. 제어부는 특정 개체의 움직임이 검출되지 않은 횟수와 움직임이 검출된 횟수에 따라 정상개체 및 이상개체로 분류하고, 영상 데이터 상에서 정상개체 및 이상개체에 대응되는 픽셀값을 다르게 표시한다(S1711).Next, the control unit controls pixel display of a plurality of objects on the image data according to the second ideal object data. The control unit classifies the normal object and the abnormal object according to the number of times the motion of the specific object is not detected and the number of times the motion is detected, and displays the pixel value corresponding to the normal object and the abnormal object differently on the image data (S1711).

상기S1701 내지 S1711 단계는 제1 이상 개체 데이터 및 제2 이상 개체 데이터를 생성하는 것으로 간략하게 도시되었으나, 이상 개체 데이터는 이미지 촬영을 통한 영상 데이터 생성이 연속적으로 이루어짐에 따라 지속적으로 생성 및 업데이트 되어 픽셀 표시를 제어하도록 동작한다.Although steps S1701 to S1711 are briefly shown as generating the first ideal entity data and the second ideal entity data, the abnormal entity data is constantly generated and updated as the image data generation through the image capturing is continuously performed, And controls the display.

본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 개체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.As used in this embodiment, the term " portion " refers to a hardware component such as software or an FPGA (field-programmable gate array) or ASIC, and 'part' performs certain roles. However, 'part' is not meant to be limited to software or hardware. &Quot; to " may be configured to reside on an addressable storage medium and may be configured to play one or more processors. Thus, by way of example, 'parts' are intended to be broadly interpreted as including the constituent elements, such as software components, object oriented software components, class components and task components, and processes, , Subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. The functions provided in the components and components may be further combined with a smaller number of components and components or further components and components. In addition, the components and components may be implemented to play back one or more CPUs in a device or a secure multimedia card.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention as defined by the following claims It can be understood that

100: 촬상 장치
111: 촬영부
112: 데이터 처리부
113: 모션 검출부
114: 제어부
115: 통신부
116: 표시부
117: 유저 인터페이스부
118: 인코딩부
119: 데이터베이스
120: 광원부
121: 팬틸트부
100:
111:
112:
113:
114:
115:
116:
117: User interface section
118:
119: Database
120: Light source
121: Pan tilt part

Claims (37)

복수 개체를 포함하는 이미지로부터 생성된 영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성하는 데이터 처리부;
상기 생성된 영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성하는 모션 검출부; 및
상기 위치 분포 데이터 및 상기 동작 데이터를 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성하는 제어부를 포함하며,
상기 위치 분포 데이터는 상기 영상 데이터상에서 픽셀별로 개체의 존재 여부가 확률로서 표시된 데이터이고,
상기 동작 데이터는 상기 영상 데이터상에서 픽셀별로 움직임 존재 여부가 표시된 데이터이고,
상기 이상 개체 데이터는 픽셀 별로 이상 개체의 존재 여부가 확률로서 표시된 데이터를 포함하고,
상기 이상 개체의 존재 여부가 확률로서 표시된 데이터는 과거 생성된 이상 개체의 존재 여부가 확률로서 표시된 데이터, 상기 개체의 존재 여부가 확률로서 표시된 데이터 및 상기 움직임 존재 여부가 표시된 데이터에 의하여 생성되는 이상 개체 검출 장치.
A data processing unit for generating position distribution data representing a position distribution of the plurality of objects using image data generated from an image including a plurality of objects;
A motion detector for generating motion data representing movement of the motion object among the plurality of objects using the generated image data; And
And a controller for comparing the position distribution data and the operation data to generate abnormal entity data representing an abnormal entity,
Wherein the location distribution data is data on which the presence or absence of an entity is displayed as a probability on a pixel-
Wherein the operation data is data indicating whether or not a motion exists for each pixel on the image data,
Wherein the abnormal entity data includes data indicating the presence or absence of an abnormal entity for each pixel as a probability,
The data in which the existence of the abnormal entity is displayed as a probability includes data indicating the presence or absence of the generated abnormal entity as a probability, data in which the existence of the entity is indicated as a probability, Detection device.
제1항에 있어서,
상기 제어부는 상기 움직임 존재 여부가 표시된 데이터를 이용하여 복수개의 영상 데이터에 대한 픽셀별 움직임 검출 누적 횟수 및 픽셀별 움직임 비검출 누적 횟수를 연산하고, 상기 과거 생성된 이상 개체의 존재 여부가 확률로서 표시된 데이터 및 상기 개체의 존재 여부가 확률로서 표시된 데이터에 반영하여 상기 이상 개체 데이터를 생성하는 이상 개체 검출 장치.
The method according to claim 1,
Wherein the control unit calculates a cumulative number of motion detection accumulations and a cumulative cumulative motion accumulation count per pixel for each of the plurality of image data using the data indicating the presence or absence of the motion, And generating the abnormal object data by reflecting the data and the presence or absence of the object on data displayed as a probability.
제2항에 있어서,
상기 제어부는 상기 이상 개체 데이터에 따라 상기 영상 데이터 상에서 상기 복수개의 개체에 대한 픽셀 표시를 제어하는 이상 개체 검출 장치.
3. The method of claim 2,
Wherein the control unit controls pixel display of the plurality of objects on the image data according to the abnormal entity data.
제3항에 있어서,
상기 제어부는 상기 동작 데이터의 상기 움직임 비검출 누적 횟수에 따라 대응되는 픽셀값을 단계적으로 증가시키는 이상 개체 검출 장치.
The method of claim 3,
Wherein the controller increments the pixel value corresponding to the motion non-detection cumulative count of the operation data step by step.
제3항에 있어서,
상기 제어부는 상기 동작 데이터의 연속된 상기 움직임 비검출 누적 횟수에 따라 대응되는 픽셀값을 단계적으로 증가시키는 이상 개체 검출 장치.
The method of claim 3,
Wherein the controller increments the corresponding pixel values in accordance with the number of consecutive motion non-detection accumulation times of the operation data.
제3항에 있어서,
상기 제어부는 상기 동작 데이터의 상기 움직임 비검출 누적 횟수가 제1임계값을 초과할 경우 대응되는 픽셀값을 제1설정값으로 제어하는 이상 개체 검출 장치.
The method of claim 3,
Wherein the control unit controls the pixel value corresponding to the motion non-detection cumulative count of the operation data when the cumulative number of times of motion non-detection exceeds the first threshold to a first set value.
제3항에 있어서,
상기 제어부는 상기 동작 데이터의 연속된 상기 움직임 비검출 누적 횟수가 제1임계값을 초과할 경우 대응되는 픽셀값을 제1설정값으로 제어하는 이상 개체 검출 장치.
The method of claim 3,
Wherein the control unit controls the pixel value corresponding to the continuous motion non-detection cumulative count of the operation data to exceed a first threshold value to a first set value.
제6항 또는 제7항에 있어서,
상기 제1설정값은 상기 픽셀값의 최댓값인 이상 개체 검출 장치.
8. The method according to claim 6 or 7,
Wherein the first set value is a maximum value of the pixel values.
제3항에 있어서,
상기 제어부는 상기 동작 데이터의 상기 움직임 검출 누적 횟수에 따라 대응되는 픽셀값을 단계적으로 감소시키는 이상 개체 검출 장치.
The method of claim 3,
Wherein the control unit gradually reduces the pixel value corresponding to the motion detection cumulative count of the operation data.
제3항에 있어서,
상기 제어부는 상기 동작 데이터의 연속된 상기 움직임 검출 누적 횟수에 따라 대응되는 픽셀값을 단계적으로 감소시키는 이상 개체 검출 장치.
The method of claim 3,
Wherein the controller gradually reduces the pixel values corresponding to the consecutive motion detection cumulative counts of the operation data.
제3항에 있어서,
상기 제어부는 상기 동작 데이터에서 움직임이 검출된 픽셀값을 제2설정값으로 제어하는 이상 개체 검출 장치.
The method of claim 3,
Wherein the control unit controls the pixel value in which motion is detected in the operation data to a second set value.
제11항에 있어서,
상기 제어부는 상기 동작 데이터에서 움직임이 검출된 픽셀을 상기 이상 개체 데이터상에서 제외시키는 이상 개체 검출 장치.
12. The method of claim 11,
Wherein the control unit excludes, on the abnormal entity data, a pixel whose motion has been detected in the operation data.
제3항에 있어서,
상기 제어부는 상기 동작 데이터의 상기 움직임 검출 누적 횟수가 제2임계값을 초과할 경우 대응되는 픽셀값을 제2설정값으로 제어하는 이상 개체 검출 장치.
The method of claim 3,
Wherein the control unit controls the pixel value corresponding to the motion detection cumulative count of the operation data when the cumulative number of motion detection exceeds the second threshold to a second set value.
제13항에 있어서,
상기 제어부는 상기 동작 데이터의 상기 움직임 검출 누적 횟수가 제2임계값을 초과한 픽셀을 상기 이상 개체 데이터상에서 제외시키는 이상 개체 검출 장치.
14. The method of claim 13,
Wherein the control section excludes, on the abnormal entity data, a pixel whose motion detection cumulative number of operation data exceeds a second threshold value.
제3항에 있어서,
상기 제어부는 상기 동작 데이터의 연속된 상기 움직임 검출 누적 횟수가 제2임계값을 초과할 경우 대응되는 픽셀값을 제2설정값으로 제어하는 이상 개체 검출 장치.
The method of claim 3,
Wherein the control unit controls the pixel value corresponding to the continuous motion detection cumulative count of the motion data to exceed a second threshold value to a second set value.
제15항에 있어서,
상기 제어부는 상기 동작 데이터의 연속된 상기 움직임 검출 누적 횟수가 제2임계값을 초과한 픽셀을 상기 이상 개체 데이터상에서 제외시키는 이상 개체 검출 장치.
16. The method of claim 15,
Wherein the control unit excludes, on the abnormal entity data, a pixel whose consecutive motion detection cumulative count of the operation data exceeds a second threshold value.
제11항 내지 제16 중 어느 한 항에 있어서,
상기 제2설정값은 원본 영상 데이터의 픽셀값인 이상 개체 검출 장치.
17. The method according to any one of claims 11 to 16,
And the second set value is a pixel value of the original image data.
제1항에 있어서,
상기 데이터 처리부는 상기 영상 데이터에서 상기 개체의 특징점을 추출하고, 학습 알고리즘을 통해 상기 개체의 존재 여부를 확률로 나타내는 상기 위치 분포 데이터를 생성하는 이상 개체 검출 장치.
The method according to claim 1,
Wherein the data processing unit extracts feature points of the object from the image data, and generates the position distribution data indicating a presence or absence of the object by using a learning algorithm.
제3항에 있어서,
상기 제어부는 상기 동작 데이터에서 움직임이 검출된 픽셀값을 초기화하는 이상 개체 검출 장치.
The method of claim 3,
Wherein the control unit initializes a pixel value in which motion is detected in the operation data.
제1항에 있어서,
상기 제어부는 상기 개체의 존재 여부가 확률로서 표시된 데이터 및 상기 움직임 존재 여부가 표시된 데이터의 차이값을 상기 과거 생성된 이상 개체의 존재 여부가 확률로서 표시된 데이터에 합산하여 상기 이상 개체 데이터를 생성하는 이상 개체 검출 장치.
The method according to claim 1,
Wherein the control unit adds the difference data of the data indicating the existence of the entity as a probability and the data indicating the presence or absence of the motion to the data displayed as the probability of existence of the previously generated ideal entity, Object detecting device.
복수 개체를 포함하는 이미지를 촬영하여 영상 데이터를 생성하는 촬영부;
상기 영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성하는 데이터 처리부;
상기 영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성하는 모션 검출부; 및
상기 위치 분포 데이터 및 상기 동작 데이터를 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성하는 제어부를 포함하며,
상기 위치 분포 데이터는 상기 영상 데이터상에서 픽셀별로 개체의 존재 여부가 확률로서 표시된 데이터이고,
상기 동작 데이터는 상기 영상 데이터상에서 픽셀별로 움직임 존재 여부가 표시된 데이터이고,
상기 이상 개체 데이터는 픽셀 별로 이상 개체의 존재 여부가 확률로서 표시된 데이터를 포함하고,
상기 이상 개체의 존재 여부가 확률로서 표시된 데이터는 과거 생성된 이상 개체의 존재 여부가 확률로서 표시된 데이터, 상기 개체의 존재 여부가 확률로서 표시된 데이터 및 상기 움직임 존재 여부가 표시된 데이터에 의하여 생성되는 촬상 장치.
A photographing unit photographing an image including a plurality of objects and generating image data;
A data processing unit for generating position distribution data representing a position distribution of the plurality of objects using the image data;
A motion detector for generating motion data representing movement of the motion object among the plurality of objects using the image data; And
And a controller for comparing the position distribution data and the operation data to generate abnormal entity data representing an abnormal entity,
Wherein the location distribution data is data on which the presence or absence of an entity is displayed as a probability on a pixel-
Wherein the operation data is data indicating whether or not a motion exists for each pixel on the image data,
Wherein the abnormal entity data includes data indicating the presence or absence of an abnormal entity for each pixel as a probability,
Wherein the data indicating the presence or absence of the abnormal entity is displayed as data indicating the presence or absence of the generated abnormal entity as a probability, data indicating the presence or absence of the entity as a probability, .
제21항에 있어서,
상기 제어부는 상기 움직임 존재 여부가 표시된 데이터를 이용하여 복수개의 영상 데이터에 대한 픽셀별 움직임 검출 누적 횟수 및 픽셀별 움직임 비검출 누적 횟수를 연산하고, 상기 과거 생성된 이상 개체의 존재 여부가 확률로서 표시된 데이터 및 상기 개체의 존재 여부가 확률로서 표시된 데이터에 반영하여 상기 이상 개체 데이터를 생성하는 촬상 장치.
22. The method of claim 21,
Wherein the control unit calculates a cumulative number of motion detection accumulations and a cumulative cumulative motion accumulation count per pixel for each of the plurality of image data using the data indicating the presence or absence of the motion, And generating the abnormal object data by reflecting the data and the presence or absence of the object on data displayed as a probability.
제21항에 있어서,
상기 제어부는 상기 개체의 존재 여부가 확률로서 표시된 데이터 및 상기 움직임 존재 여부가 표시된 데이터의 차이값을 상기 과거 생성된 이상 개체의 존재 여부가 확률로서 표시된 데이터에 합산하여 상기 이상 개체 데이터를 생성하는 촬상 장치.
22. The method of claim 21,
Wherein the control unit adds the difference data of the data indicating the existence of the entity as a probability and the data of the presence or absence of the motion to the data displayed as the probability of existence of the past abnormal entity created in the past, Device.
제21항에 있어서,
상기 제어부는 상기 이상 개체 데이터에 따라 상기 영상 데이터 상에서 픽셀 표시를 제어하는 촬상 장치.
22. The method of claim 21,
Wherein the control unit controls pixel display on the image data according to the abnormal entity data.
복수 개체를 포함하는 이미지를 촬영하여 영상 데이터를 생성하는 단계;
상기 영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성하는 단계;
상기 영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성하는 단계; 및
상기 위치 분포 데이터 및 상기 동작 데이터를 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성하는 단계를 포함하며,
상기 위치 분포 데이터는 상기 영상 데이터상에서 픽셀별로 개체의 존재 여부가 확률로서 표시된 데이터이고,
상기 동작 데이터는 상기 영상 데이터상에서 픽셀별로 움직임 존재 여부가 표시된 데이터이고,
상기 이상 개체 데이터는 픽셀 별로 이상 개체의 존재 여부가 확률로서 표시된 데이터를 포함하고,
상기 이상 개체의 존재 여부가 확률로서 표시된 데이터는 과거 생성된 이상 개체의 존재 여부가 확률로서 표시된 데이터, 상기 개체의 존재 여부가 확률로서 표시된 데이터 및 상기 움직임 존재 여부가 표시된 데이터에 의하여 생성되는 이상 개체 검출 방법.
Capturing an image including a plurality of objects to generate image data;
Generating position distribution data indicating a position distribution of the plurality of objects using the image data;
Generating motion data indicating movement of an operation object among the plurality of objects using the image data; And
Comparing the position distribution data and the operation data to generate abnormal entity data representing an abnormal entity,
Wherein the location distribution data is data on which the presence or absence of an entity is displayed as a probability on a pixel-
Wherein the operation data is data indicating whether or not a motion exists for each pixel on the image data,
Wherein the abnormal entity data includes data indicating the presence or absence of an abnormal entity for each pixel as a probability,
The data in which the existence of the abnormal entity is displayed as a probability includes data indicating the presence or absence of the generated abnormal entity as a probability, data in which the existence of the entity is indicated as a probability, Detection method.
제25항에 있어서,
상기 이상 개체 데이터를 생성하는 단계는,
상기 움직임 존재 여부가 표시된 데이터를 이용하여 복수개의 영상 데이터에 대한 픽셀별 움직임 검출 누적 횟수 및 픽셀별 움직임 비검출 누적 횟수를 연산하고, 상기 과거 생성된 이상 개체의 존재 여부가 확률로서 표시된 데이터 및 상기 개체의 존재 여부가 확률로서 표시된 데이터에 반영하여 상기 이상 개체 데이터를 생성하는 단계를 포함하는이상 개체 검출 방법.
26. The method of claim 25,
Wherein the generating of the abnormal entity data comprises:
A motion detection unit for calculating a cumulative number of motion detection accumulations and a cumulative number of motion accumulation per pixel for each of the plurality of image data using the data indicating the presence or absence of the motion, And generating the abnormal object data by reflecting the presence or absence of the object on data displayed as a probability.
제25항에 있어서,
상기 이상 개체를 생성하는 단계는,
상기 개체의 존재 여부가 확률로서 표시된 데이터 및 상기 움직임 존재 여부가 표시된 데이터의 차이값을 상기 과거 생성된 이상 개체의 존재 여부가 확률로서 표시된 데이터에 합산하여 상기 이상 개체 데이터를 생성하는 단계를 포함하는 이상 개체 검출 방법.
26. The method of claim 25,
Wherein the step of generating the abnormal entity comprises:
Generating the abnormal entity data by adding the difference value of the data indicating the presence or absence of the entity as the probability and the data indicating the presence or absence of the motion to the data displayed as the probability of existence of the abnormal entity generated in the past Anomaly detection method.
제25항에 있어서,
상기 이상 개체 데이터에 따라 상기 영상 데이터 상에서 픽셀 표시를 제어하는 단계를 더 포함하는 이상 개체 검출 방법.
26. The method of claim 25,
And controlling pixel display on the image data according to the abnormal entity data.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020180017177A 2018-02-12 2018-02-12 Apparatus and method for detecting abnormal object and imaging device comprising the same KR101944374B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180017177A KR101944374B1 (en) 2018-02-12 2018-02-12 Apparatus and method for detecting abnormal object and imaging device comprising the same
KR1020190008170A KR102307609B1 (en) 2018-02-12 2019-01-22 Apparatus and method for detecting abnormal object and imaging device comprising the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180017177A KR101944374B1 (en) 2018-02-12 2018-02-12 Apparatus and method for detecting abnormal object and imaging device comprising the same

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020190008170A Division KR102307609B1 (en) 2018-02-12 2019-01-22 Apparatus and method for detecting abnormal object and imaging device comprising the same

Publications (1)

Publication Number Publication Date
KR101944374B1 true KR101944374B1 (en) 2019-01-31

Family

ID=65323315

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180017177A KR101944374B1 (en) 2018-02-12 2018-02-12 Apparatus and method for detecting abnormal object and imaging device comprising the same

Country Status (1)

Country Link
KR (1) KR101944374B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019168323A1 (en) * 2018-02-27 2019-09-06 엘지이노텍 주식회사 Apparatus and method for detecting abnormal object, and photographing device comprising same
WO2019212237A1 (en) * 2018-05-03 2019-11-07 엘지이노텍 주식회사 Abnormal entity detection device and method
CN113221864A (en) * 2021-04-12 2021-08-06 蚌埠学院 Method for constructing and applying diseased chicken visual recognition model with multi-region depth feature fusion
WO2024046470A1 (en) * 2022-09-01 2024-03-07 顺丰科技有限公司 Weighing abnormality detection method and apparatus, and related apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012212236A (en) * 2011-03-30 2012-11-01 Secom Co Ltd Left person detection device
JP2015069253A (en) * 2013-09-27 2015-04-13 株式会社リコー Individual condition determination device, individual condition determination method, and individual condition determination program
KR20150080863A (en) * 2014-01-02 2015-07-10 삼성테크윈 주식회사 Apparatus and method for providing heatmap

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012212236A (en) * 2011-03-30 2012-11-01 Secom Co Ltd Left person detection device
JP2015069253A (en) * 2013-09-27 2015-04-13 株式会社リコー Individual condition determination device, individual condition determination method, and individual condition determination program
KR20150080863A (en) * 2014-01-02 2015-07-10 삼성테크윈 주식회사 Apparatus and method for providing heatmap

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019168323A1 (en) * 2018-02-27 2019-09-06 엘지이노텍 주식회사 Apparatus and method for detecting abnormal object, and photographing device comprising same
WO2019212237A1 (en) * 2018-05-03 2019-11-07 엘지이노텍 주식회사 Abnormal entity detection device and method
CN113221864A (en) * 2021-04-12 2021-08-06 蚌埠学院 Method for constructing and applying diseased chicken visual recognition model with multi-region depth feature fusion
WO2024046470A1 (en) * 2022-09-01 2024-03-07 顺丰科技有限公司 Weighing abnormality detection method and apparatus, and related apparatus

Similar Documents

Publication Publication Date Title
CN109461168B (en) Target object identification method and device, storage medium and electronic device
US20210227126A1 (en) Deep learning inference systems and methods for imaging systems
KR101944374B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
CN109040709B (en) Video monitoring method and device, monitoring server and video monitoring system
CN108027874B (en) Computer vision based security system using depth camera
RU2628745C2 (en) Protective observation system and relevant method of initializing alarm
US20170213091A1 (en) Video processing
IL261696A (en) System and method for training object classifier by machine learning
US11350610B2 (en) Rearing place management device and method
KR102615986B1 (en) Apparatus and method for determining abnormal object
KR102609461B1 (en) Imaging device, apparatus and method for managing of fowl comprising the same
US12014541B2 (en) Device for managing environment of breeding farm
US20220122360A1 (en) Identification of suspicious individuals during night in public areas using a video brightening network system
KR102505691B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR20200139616A (en) Apparatus and method for detecting abnormal objects
KR20200002315A (en) System, terminal and method for managing farm environment
KR20200009530A (en) System and method for detecting abnormal object
KR20200002314A (en) System, terminal and method for managing farm environment
KR102307609B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR102606062B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR20230123226A (en) Noise Reduction of Surveillance Camera Image Using Object Detection Based on Artificial Intelligence
KR20190113360A (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR102619829B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR102609804B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR20190114529A (en) System and method for detecting abnormal object

Legal Events

Date Code Title Description
A107 Divisional application of patent
GRNT Written decision to grant