KR102078265B1 - Aapparatus of processing image and method of providing image thereof - Google Patents
Aapparatus of processing image and method of providing image thereof Download PDFInfo
- Publication number
- KR102078265B1 KR102078265B1 KR1020180003443A KR20180003443A KR102078265B1 KR 102078265 B1 KR102078265 B1 KR 102078265B1 KR 1020180003443 A KR1020180003443 A KR 1020180003443A KR 20180003443 A KR20180003443 A KR 20180003443A KR 102078265 B1 KR102078265 B1 KR 102078265B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- processing apparatus
- image processing
- appearance
- information
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/462—Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
-
- G06K9/00221—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/258—Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
- H04N21/25866—Management of end-user data
- H04N21/25875—Management of end-user data involving end-user authentication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Security & Cryptography (AREA)
- Computer Graphics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Alarm Systems (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
본 실시예는 카메라로부터 모니터링 영역을 촬영한 제1 영상을 획득하는 단계; 통신부로부터 주변에 위치한 하나 이상의 디바이스로부터 각 디바이스의 실행 여부, 실행 시점 및 실행되는 동작을 포함하는 감지 데이터를 획득하는 단계; 상기 제1 영상 또는 상기 감지 데이터를 분석한 결과를 이용하여, 상기 제1 영상에 출현한 객체를 식별하는 단계; 및 상기 객체의 식별 정보를 이용하여 비활성 조건의 만족 여부를 판단하고, 판단 결과, 상기 객체의 식별 정보가 비활성 조건을 만족하는 경우, 통신부의 전송 기능을 비활성화시키는 단계;를 포함하는, 출현 객체를 식별하여 객체에 따라 차등적으로 영상을 처리하는 영상 처리 장치의 영상 제공 방법을 개시한다. The present embodiment includes the steps of acquiring a first image of photographing a monitoring area from a camera; Acquiring sensing data including whether each device is executed, an execution time point, and an executed operation from one or more devices located around the communication unit; Identifying an object appearing in the first image by using the result of analyzing the first image or the sensing data; And determining whether the inactive condition is satisfied using the identification information of the object, and if the identification information of the object satisfies the inactive condition, deactivating a transmission function of the communication unit. Disclosed is a method of providing an image of an image processing apparatus that discriminates and processes an image differentially according to an object.
Description
본 실시예들은 출현 객체를 식별하여 객체에 따라 차등적으로 영상을 처리하는 영상 처리 장치 및 그의 영상 제공 방법에 관한 것이다.The present embodiments are directed to an image processing apparatus and an image providing method thereof for identifying an appearance object and processing an image differentially according to the object.
최근 많은 웹 상의 서비스 증가에 따라 보안 이슈가 크게 대두되고 있으며, 이러한 보안 문제로 인해 보안 카메라의 개인 생활 침해 문제 및 해킹에 대한 두려움 등이 제기되고 있다. Recently, with the increase in the number of services on the web, security issues have emerged, and these security issues have raised security camera privacy problems and fears of hacking.
본 발명의 실시예들은 프라이버시 침해와 보안의 어느 한쪽에 치우치지 않고 모두 만족할 수 있는 보안 시스템을 제공하고자 한다.Embodiments of the present invention are to provide a security system that can be satisfactorily both without privacy bias and security.
본 발명의 실시예들에 따른 영상 제공 방법은 카메라로부터 모니터링 영역의 제1 영상을 획득하는 단계; 통신부로부터 주변에 위치한 디바이스로부터 감지 데이터를 획득하는 단계; 상기 제1 영상 및 상기 감지 데이터를 분석한 결과를 이용하여, 상기 제1 영상에 출현한 객체를 식별하는 단계; 상기 객체의 식별 정보를 기초로 통신부의 전송 기능을 비활성화시키는 단계;를 포함할 수 있다. According to embodiments of the present invention, an image providing method includes: acquiring a first image of a monitoring area from a camera; Obtaining sensed data from a device located at a periphery from the communication unit; Identifying an object appearing in the first image by using the result of analyzing the first image and the sensed data; And deactivating a transmission function of the communication unit based on the identification information of the object.
본 발명의 실시예들에 따른 영상 제공 방법은 상기 객체의 식별 정보를 기초로, 상기 제1 객체의 출현 영역을 편집하는 단계;를 더 포함할 수 있다. The image providing method according to embodiments of the present invention may further include editing an appearance area of the first object based on the identification information of the object.
상기 객체를 식별하는 단계는 상기 제1 영상의 특정 영역을 분석하여 해당 영역에 포함된 객체 영역을 획득하고, 객체 영역에 포함된 제1 객체의 특징값들을 분석하여 상기 제1 객체의 식별 정보를 결정하는 점을 특징으로 할 수 있다. The identifying of the object may include obtaining an object area included in the corresponding area by analyzing a specific area of the first image, analyzing feature values of the first object included in the object area, and identifying identification information of the first object. It may be characterized by the decision point.
상기 객체를 식별하는 단계는 상기 감지 데이터를 조합하여, 출현 객체의 이동 정보를 추론하는 단계;를 더 포함하고, 상기 제1 영상 및 상기 출현 객체의 이동 정보를 기초로 객체를 식별하는 것을 특징으로 할 수 있다. The identifying of the object may further include inferring movement information of the appearance object by combining the sensing data, and identifying the object based on the first image and the movement information of the appearance object. can do.
상기 객체를 식별하는 단계는 상기 제1 영상을 분석하여 생체 정보를 인식하는 단계;를 더 포함하고, 상기 생체 정보 및 상기 이동 정보를 기초로 객체를 식별하는 것을 특징으로 할 수 있다. The identifying of the object may further include recognizing the biometric information by analyzing the first image, and may identify the object based on the biometric information and the movement information.
상기 객체를 식별하는 단계는 상기 제1 영상으로부터 복수의 객체가 인식 또는 감지된 경우, 상기 생체 정보 및 상기 이동 정보를 페어링하고, 페어링된 생체 정보 및 이동 정보를 기초로 각 객체를 식별하는 점을 특징으로 할 수 있다. The identifying of the object may include pairing the biometric information and the movement information when a plurality of objects are recognized or detected from the first image, and identifying each object based on the paired biometric information and the movement information. It can be characterized.
본 발명의 실시예들에 따른 영상 처리 장치는 카메라로부터 모니터링 영역의 제1 영상을 획득하고 분석하는 영상 분석부; 통신부로부터 주변에 위치한 디바이스로부터 감지 데이터를 획득하고, 상기 감지 데이터를 분석하는 주변 정보 분석부; 상기 제1 영상 및 상기 감지 데이터를 분석한 결과를 이용하여, 상기 제1 영상에 출현한 객체를 식별하는 객체 식별부; 상기 객체의 식별 정보를 기초로 통신부의 전송 기능을 비활성화시키는 영상 처리부;를 포함할 수 있다. An image processing apparatus according to embodiments of the present invention may include an image analyzer configured to acquire and analyze a first image of a monitoring area from a camera; A peripheral information analyzer configured to acquire sensing data from a device located around the communication unit and to analyze the sensing data; An object identification unit for identifying an object appearing in the first image by using the result of analyzing the first image and the sensed data; And an image processor to deactivate a transmission function of the communication unit based on the identification information of the object.
상기 영상 처리부는 상기 객체의 식별 정보를 기초로, 상기 제1 객체의 출현 영역을 편집하는 점을 특징으로 할 수 있다. The image processor may be configured to edit an appearance area of the first object based on the identification information of the object.
상기 객체 식별부는 상기 제1 영상의 특정 영역을 분석하여 해당 영역에 포함된 객체 영역을 획득하고, 객체 영역에 포함된 제1 객체의 특징값들을 분석하여 상기 제1 객체의 식별 정보를 결정하는 점을 특징으로 할 수 있다. The object identification unit analyzes a specific area of the first image to obtain an object area included in the corresponding area, and determines characteristic information of the first object by analyzing feature values of the first object included in the object area. It may be characterized by.
상기 객체 식별부는 상기 감지 데이터를 조합하여, 출현 객체의 이동 정보를 추론하고, 상기 제1 영상 및 상기 출현 객체의 이동 정보를 기초로 객체를 식별하는 것을 특징으로 할 수 있다. The object identifying unit may combine the sensing data to infer movement information of an appearance object and identify an object based on the first image and movement information of the appearance object.
상기 객체 식별부는 상기 제1 영상을 분석하여 생체 정보를 인식하고, 상기 생체 정보 및 상기 이동 정보를 기초로 객체를 식별하는 것을 특징으로 할 수 있다. The object identification unit may recognize the biometric information by analyzing the first image, and identify the object based on the biometric information and the movement information.
상기 객체 식별부는 상기 제1 영상으로부터 복수의 객체가 인식 또는 감지된 경우, 상기 생체 정보 및 상기 이동 정보를 페어링하고, 페어링된 생체 정보 및 이동 정보를 기초로 각 객체를 식별하는 점을 특징으로 할 수 있다. When the plurality of objects are recognized or detected from the first image, the object identification unit pairs the biometric information and the movement information and identifies each object based on the paired biometric information and the movement information. Can be.
컴퓨터를 이용하여 본 발명의 실시예에 따른 영상 처리 방법 중 어느 하나의 방법을 실행시키기 위하여 매체에 저장될 수 있다. It may be stored in a medium for executing any one of the image processing method according to an embodiment of the present invention using a computer.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공된다. In addition, there is further provided a computer readable recording medium for recording another method for implementing the present invention, another system, and a computer program for executing the method.
전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해 질 것이다.Other aspects, features, and advantages other than those described above will become apparent from the following drawings, claims, and detailed description of the invention.
본 발명의 실시예들에 따른 영상 처리 장치, 영상 처리 방법 및 컴퓨터 프로그램은 주변의 디바이스로부터 수신한 감지 데이터 및 카메라로부터 수신한 영상을 기초로 영상에 포함된 객체를 식별할 수 있다. An image processing apparatus, an image processing method, and a computer program according to embodiments of the present disclosure may identify an object included in an image based on sensing data received from a peripheral device and an image received from a camera.
또한, 본 발명의 실시예들에 따른 영상 처리 장치, 영상 처리 방법 및 컴퓨터 프로그램은 등록 객체에 의해 설정된 설정에 따라 등록 객체가 출현한 영상을 처리할 수 있다. In addition, the image processing apparatus, the image processing method, and the computer program according to the embodiments of the present invention may process an image in which the registration object appears according to a setting set by the registration object.
도 1은 본 발명의 일 실시예에 따른 보안 시스템을 개략적으로 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 영상 처리 장치의 구성을 개략적으로 도시한 블록도이다.
도 3 내지 도 5는 본 발명의 실시예들에 따른 영상 처리 방법의 흐름도들이다.
도 6a 및 도 6b는 객체의 출현 영역에 대해서 이펙트를 추가한 실시예들에 대한 것이다.
도 7a 및 도 7b는 영상 처리 장치에 의해 제공되는 얼굴 인식 기능을 설명하기 위한 도면이다.
도 8은 영상 처리 장치에 의해 제공되는 영역 설정 기능을 설명하기 위한 도면이다. 1 is a view schematically showing a security system according to an embodiment of the present invention.
2 is a block diagram schematically illustrating a configuration of an image processing apparatus according to an embodiment of the present invention.
3 to 5 are flowcharts of an image processing method according to embodiments of the present invention.
6A and 6B illustrate embodiments in which an effect is added to an appearance area of an object.
7A and 7B are diagrams for describing a face recognition function provided by an image processing apparatus.
8 is a diagram for describing a region setting function provided by an image processing apparatus.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all transformations, equivalents, and substitutes included in the spirit and scope of the present invention. In the following description of the present invention, if it is determined that the detailed description of the related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.
이하의 실시예에서, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. In the following embodiments, terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are only used to distinguish one component from another.
이하의 실시예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 이하의 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the following examples, terms such as "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more It is to be understood that it does not exclude in advance the possibility of the presence or addition of other features or numbers, steps, operations, components, components or combinations thereof.
본 발명의 실시예들은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명의 실시예의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 발명의 실시예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명의 실시예들은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. 매커니즘, 요소, 수단, 구성과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.Embodiments of the present invention can be represented by functional block configurations and various processing steps. Such functional blocks may be implemented in various numbers of hardware or / and software configurations that perform particular functions. For example, embodiments of the invention may be implemented directly, such as memory, processing, logic, look-up table, etc., capable of executing various functions by the control of one or more microprocessors or other control devices. Circuit configurations can be employed. Similar to the components of an embodiment of the present invention may be implemented in software programming or software elements, embodiments of the present invention include various algorithms implemented in combinations of data structures, processes, routines or other programming constructs. It may be implemented in a programming or scripting language such as C, C ++, Java, assembler, or the like. Functional aspects may be implemented in algorithms running on one or more processors. In addition, embodiments of the present invention may employ the prior art for electronic configuration, signal processing, and / or data processing. Terms such as mechanism, element, means, configuration can be used broadly and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in conjunction with a processor or the like.
도 1은 본 발명의 일 실시예에 따른 보안 시스템을 개략적으로 나타낸 도면이다. 1 is a view schematically showing a security system according to an embodiment of the present invention.
도 1을 참조하면, 보안 시스템(1)은 카메라 그룹(10), 디바이스 그룹(30), 단말 그룹(50) 및 영상 처리 장치(70)를 포함할 수 있다. 보안 시스템의 카메라 그룹(10), 디바이스 그룹(30), 단말 그룹(50) 및 영상 처리 장치(70) 중 하나 이상의 구성요소는 하나의 장치에 구비되어 전기적으로 연결될 수 있다. 예를 들어, 카메라 그룹(10), 영상 처리 장치(70)은 하나의 장치로 구비되거나 통신망으로 연결된 분리된 장치에 각각 구비될 수 있다. 또한, 영상 처리 장치(70) 및 디바이스 그룹(30)은 하나의 장치로 구비되거나 통신망으로 연결된 분리된 장치들에 각각 구비될 수 있다. 카메라 그룹(10), 디바이스 그룹(30), 및 영상 처리 장치(70)는 하나의 장치로 구비되거나 통신망으로 연결된 분리된 장치에 각각 구비될 수 있다. Referring to FIG. 1, the
카메라 그룹(10)은 적어도 하나의 카메라(CAM1 내지 CAMn)를 포함할 수 있다. 적어도 하나의 카메라(CAM1 내지 CAMn)는 특정 장소의 고정된 위치에 배치되고, 팬(Pan)/틸트(Tilt)/줌(Zoom) 기능을 갖는 PTZ 카메라일 수 있다. 적어도 하나의 카메라(CAM1 내지 CAMn)는 구동장치에 의하여 패닝 및/또는 틸팅 회전하거나, 줌 렌즈를 줌-인 또는 줌-아웃 하여 줌 배율을 조정하면서, 다양한 영상을 획득할 수 있다. 적어도 하나의 카메라(CAM1 내지 CAMn)는 사무실, 주택, 병원은 물론 은행이나 보안이 요구되는 공공건물 등의 내외 또는 공원 등의 야외에 설치되며, 그 설치 장소 및 사용목적에 따라 일자형, 돔형 등 다양한 형태를 가질 수 있다. The
적어도 하나의 카메라(CAM1 내지 CAMn)는 자신에게 할당된 영역을 감시하면서 객체를 탐지할 수 있다. 적어도 하나의 카메라(CAM1 내지 CAMn)에는 고유 식별 정보로서 ID가 부여될 수 있다. 적어도 하나의 카메라(CAM1 내지 CAMn)는 정해진 영역을 촬영하여 획득된 영상을 영상 처리 장치(70) 및/또는 단말 그룹(50)의 적어도 하나의 단말(UE1 내지 UEn)로 출력할 수 있다. At least one camera CAM1 to CAMn may detect an object while monitoring an area allocated to it. At least one camera CAM1 to CAMn may be given an ID as unique identification information. The at least one camera CAM1 to CAMn may output an image obtained by photographing a predetermined region to at least one terminal UE1 to UEn of the
디바이스 그룹(30)은 적어도 하나의 디바이스(DE1 내지 DEn)를 포함할 수 있다. 적어도 하나의 디바이스(DE1 내지 DEn)는 상이한 감지 데이터를 획득하는 다수의 이기종 센서들일 수 있다. 적어도 하나의 디바이스(DE1 내지 DEn)는 오디오 센서, 모션 센서, 지문 센서, 홍채 센서 등을 포함할 수 있다. 적어도 하나의 디바이스(DE1 내지 DEn)는 적어도 하나의 카메라(CAM1 내지 CAMn)와 페어를 이루는 상태로 설치될 수 있다. 그러나, 적어도 하나의 카메라(CAM1 내지 CAMn)가 모션 인식 및 추적 기능을 갖는 경우 적어도 하나의 디바이스(DE1 내지 DEn)는 독립적으로 설치될 수 있다. The
단말 그룹(50)은 적어도 하나의 사용자 단말(UE1 내지 UEn)을 포함할 수 있다. 적어도 하나의 사용자 단말(UE1 내지 UEn)은 고유 식별 정보로서 ID가 부여될 수 있다. ID는 얼굴, 음성, 지문, 홍채 등의 개인을 인증하는 생체 정보와 매핑될 수 있다. 적어도 하나의 사용자 단말(UE1 내지 UEn)은 각 사용자로부터의 입력을 수신하여 영상 처리 장치(70)로 전달하고, 영상 처리 장치(70)로부터 수신한 데이터를 화면에 표시할 수 있다.The
적어도 하나의 사용자 단말(UE1 내지 UEn)은 노트북, 핸드헬드 장치, 스마트폰, 탭 등의 모바일 단말, 데스크 탑 컴퓨터, 또는 이러한 장치를 이용하거나 직접적으로 또는 간접적으로 이와 연결된 임의의 적절한 장치일 수 있다. The at least one user terminal UE1-UEn can be a laptop terminal, a handheld device, a smartphone, a mobile terminal such as a tab, a desktop computer, or any suitable device using or directly or indirectly connected to such a device. .
영상 처리 장치(70)는 카메라 그룹(10) 및/또는 디바이스(DE1 내지 DEn) 그룹(30)으로 입력되는 영상 및 감지 데이터를 수신할 수 있다. 영상 처리 장치(70)는 본 발명의 실시예들에 따른 프라이버시 기능을 수행할 수 있다. 영상 처리 장치(70)는 수신한 영상 및 감지 데이터를 분석하고, 영상의 일부 또는 전부에 대한 블라인드 처리를 수행할 수 있다. 영상 처리 장치(70)는 수신한 영상 및 감지 데이터를 분석하고, 영상의 처리 방법을 결정할 수 있다. 영상 처리 장치(70)는 수신한 원본 영상 및/또는 블라인드 처리된 영상을 저장할 수 있다. 영상 처리 장치(70)는 사용자에게 설정된 보안 등급에 따라 원본 영상이 적어도 하나의 사용자 단말(UE1 내지 UEn)에 제공되지 않도록 할 수 있다. 영상 처리 장치(70)는 수신한 영상 및/또는 감지 데이터를 분석하고 이벤트를 검출할 수 있다. 영상 처리 장치(70)는 이벤트가 검출되면 적어도 하나의 단말(UE1 내지 UEn)에 알람을 제공할 수 있다.The
영상 처리 장치(70)는 적어도 하나의 사용자 단말(UE1 내지 UEn)로부터 전화번호, 단말고유 ID, ID/패스워드, 생체 정보, 패턴 중 적어도 하나를 수신하고, 기 저장된 ID/패스워드, 생체 정보, 패턴과 비교하여 사용자를 인증할 수 있다. The
영상 처리 장치(70)는 적어도 하나의 카메라(CAM1 내지 CAMn) 및/또는 적어도 하나의 디바이스(DE1 내지 DEn)로부터 입력되는 생체 정보를 수신하고, 사용자를 식별할 수 있다. The
일 실시예에서, 영상 처리 장치(70)는 적어도 하나의 카메라(CAM1 내지 CAMn)에 내장된 마이크로 칩이나, 마이크로 칩을 구비하는 회로 보드로 구현될 수 있다. In one embodiment, the
다른 실시예에서, 영상 처리 장치(70)는 적어도 하나의 카메라(CAM1 내지 CAMn), 적어도 하나의 디바이스(DE1 내지 DEn) 및 적어도 하나의 사용자 단말(UE1 내지 UEn)과 통신 네트워크, 예를 들면, LAN, TCP/IP로 연결될 수 있다. 통신 네트워크는 유선 네트워크 및 3G, 4G(LTE), 5G, 와이파이(WiFi), 와이브로(Wibro), 와이맥스(Wimax) 등과 같은 무선 인터넷 및 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee) 등의 근거리 통신을 포함하는 무선 네트워크를 포함할 수 있다. 영상 처리 장치(70)는 와이파이(Wi-Fi) 통신 방식 및/또는 LTE 통신 방식을 지원하는 무선 접속 장치, 게이트웨이 등의 중계 장치, 디지털 비디오 레코더(DVR: digital video recorder) 또는 네트워크 비디오 레코더(NVR: network video recorder) 등의 레코딩 장치, 인터넷 상에서 저장 기능을 제공하는 클라우드 컴퓨팅 장치 등일 수 있다. In another embodiment, the
영상 처리 장치(70)를 구성하는 구성요소들 중 적어도 일부가 운영 시스템, 응용 프로그램 모듈 및 기타 프로그램 모듈 중 적어도 하나 이상을 포함하는 소프트웨어나 회로들로 구현될 수 있다.At least some of the components constituting the
도 2는 본 발명의 일 실시예에 따른 영상 처리 장치의 구성을 개략적으로 도시한 블록도이다.2 is a block diagram schematically illustrating a configuration of an image processing apparatus according to an embodiment of the present invention.
도 2를 참조하면, 영상 처리 장치(70)는 통신부(701), 영상 분석부(702), 주변 정보 분석부(703), 객체 식별부(704), 저장부(705), 영상 처리부(706), 데이터 관리부(707)를 포함할 수 있다. Referring to FIG. 2, the
통신부(701)는 외부 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. 통신부(701)는 카메라 그룹(10) 및 디바이스(DE1 내지 DEn) 그룹(30)과 데이터를 송수신하는 제1 통신 모듈 및 단말 그룹(50)과 데이터를 송수신하는 제2 통신 모듈을 포함할 수 있다. The
제1 통신 모듈은 카메라 그룹(10)으로부터 영상을 수신하고, 디바이스 그룹(30)으로부터 감지 데이터를 수신할 수 있다. 감지 데이터는 디바이스의 전원 관련 정보, 디바이스의 동작, 상태 정보를 포함할 수 있다. 제1 통신 모듈은 카메라 모듈(10)으로부터 PTZ값을 포함하는 카메라 제어 신호를 전송할 수 있다. The first communication module may receive an image from the
제2 통신 모듈은 적어도 하나의 사용자 단말(UE1 내지 UEn)로부터 사용자 인증 정보를 수신하고, 인증된 사용자로부터의 영상 요청 신호에 응답하여 실시간 영상 또는 저장된 영상을 전송할 수 있다. 제2 통신 모듈은 적어도 하나의 사용자 단말(UE1 내지 UEn)로부터의 기능 실행 요청에 응답하여 프라이버시 기능 설정 메뉴를 제공하고, 설정 데이터를 수신할 수 있다. 제2 통신 모듈은 영상이 외부로 유출되는 것을 방지할 수 있다. 즉, 제2 통신 모듈은 영상 요청 신호가 수신되더라도 영상에 등록 객체가 출현하는 동안에는 영상이 외부로 전달되지 않도록 제어된다. 영상 요청 신호가 수신되더라도 영상에 등록 객체가 출현하는 동안에는 제2 통신 모듈은 비활성화될 수 있다. 또는 제2 통신 모듈이 비활성화되지 않고 영상에 설정된 전송 플래그에 따라 영상의 전송 여부를 결정할 수 있다. The second communication module may receive user authentication information from at least one user terminal UE1 to UEn and transmit a real time image or a stored image in response to an image request signal from an authenticated user. The second communication module may provide a privacy function setting menu and receive setting data in response to a function execution request from at least one user terminal UE1 to UEn. The second communication module may prevent the image from leaking to the outside. That is, even if the image request signal is received, the second communication module is controlled such that the image is not transmitted to the outside while the registration object appears in the image. Even when the image request signal is received, the second communication module may be deactivated while the registration object appears in the image. Alternatively, the second communication module may determine whether to transmit the image based on the transmission flag set in the image without being deactivated.
영상 분석부(702)는 카메라를 통해 획득된 영상을 분석하여, 영상에 포함되는 생체 정보를 인식할 수 있다. 영상 분석부(702)는 인식된 생체 정보를 이용하여 영상의 출현 객체를 식별할 수 있다. 생체 정보는 얼굴, 음성, 지원 및 홍채 중 적어도 하나를 포함할 수 있다. 등록된 객체는 다양한 방법으로 등록된 객체를 말하며, 모니터링 영역에 대해서 소유자, 책임자, 관리자 등의 소정의 권한을 가진 자 일 수 있다. 또한, 등록된 객체는 단말 그룹(50)의 단말을 소유 및 사용하는 사용자일 수 있다. 영상 분석부(702)는 촬영된 영상의 일부에 생체 정보가 감지되는 경우, 생체 정보를 인식, 식별, 감지할 수 있는 해상도로 조절할 수 있다. 영상 분석부(702)는 지문, 홍채와 같이 신체의 일부를 감지하는 경우, 생체 정보를 감지할 수 있는 정도로 촬영 영역, 해상도, 배율 등을 조절할 수 있다. 영상 분석부(702)는 촬영된 영상의 일부에 생체 정보가 감지되는 경우, 생체 정보를 인식, 식별, 조절된 촬영 영역, 해상도, 배율 등으로 촬영된 영상을 통해 사용자의 생체 정보를 감지할 수 있다. 영상 분석부(702)는 영상에 출현한 객체를 식별하여, 촬영 여부, 촬영된 영상의 외부 전송 여부, 촬영된 영상의 저장 여부, 촬영된 영상의 모자이크 처리 여부 등을 결정할 수 있다. 이때, 영상에 출현한 객체의 보안 등급 또는 접근 권한 등을 고려할 수 있다. 즉, 객체의 보안 등급 또는 접근 권한 등을 고려하여 촬영 여부, 촬영된 영상의 외부 전송 여부, 촬영된 영상의 저장 여부, 촬영된 영상의 모자이크 처리 여부 등을 결정할 수 있다. The
영상 분석부(702)는 카메라를 통해 획득된 영상을 분석하여 이동 정보를 인식하고, 인식된 이동 정보와 기존 이동 정보의 비교를 통해 객체를 식별할 수 있다. 예를 들어, 제1 사용자의 이동 경로가 화장실, 주방, 안방의 순서로 설정된 경우, 화장실, 주방, 안방의 순서로 이동하는 객체가 제1 사용자와 동일하다고 판단할 수 있다. 영상 분석부(702)는 영상에 포함된 객체의 이동 경로를 통해 객체를 식별할 수 있다. 영상 분석부(702)는 영상에 포함된 객체의 이동 경로를 통해 등록된 객체와 미등록된 객체를 식별할 수 있다. 이동 정보는 객체의 움직임, 위치 변화를 포함할 수 있다. 이동 정보는 객체의 위치와 대응되는 지점(예, 현관, 부엌, 화장실 등)을 포함할 수 있다. 이때, 영상 분석부(702)는 이동 정보 뿐만 아니라, 사용자의 인상 착의 정보를 추가적으로 더 고려할 수 있다. 예를 들어, 화장실, 주방, 안방 순서로 이동하는 객체가 복수로 설정된 경우, 각 객체의 인상 착의 정보인 신장, 체구, 체형 등의 특징을 추가적으로 등록하여 각 객체를 식별하는데 이용할 수 있다. The
영상 분석부(702)는 영상을 분석하여 이벤트 발생 조건에 만족하는 경우 이벤트를 발생시킬 수 있다. 여기서, 이벤트라 함은, 미등록 객체의 출현, 얼굴 인식이 불가능한 얼굴 등장, 미등록 목소리, 비정상적인 음원(예를 들어, 유리 깨지는 소리, 경보음, 충돌음, 고함, 비명, 울음소리 등) 발생, 임계값 이상의 음성 발생 등과 같이 사용자에 의해 설정된 이벤트를 포함할 수 있다. The
영상 분석부(702)는 영상 데이터의 분석 결과를 나타내는 메타 데이터를 생성하여 영상 데이터와 함께 처리할 수 있다. 영상 분석부(702)는 영상 데이터의 처리를 위해서 메타 데이터를 추가적으로 저장할 수 있다. 예를 들어, 제1 객체를 촬영한 영상은 제1 객체에 의해 등록된 미승인 객체에게는 전송, 공유되지 않을 수 있다. 제1 객체를 촬영한 영상 중에서, 특정 조건(샤워 장면, 자는 장면 등)을 만족하는 영상은 저장되지 않거나, 제1 객체가 포함된 영역이 표현되지 않도록 모자이크 처리할 수 있다. 메타 데이터는 텍스트(text) 기반의 메타 데이터 또는 영상(image) 기반의 메타 데이터를 포함할 수 있다. 메타 데이터는 영상 정보 및 이벤트 정보를 포함할 수 있다. 영상 정보는 영상 획득 시간, 영상 내 검출된 객체 정보를 포함할 수 있다. 이벤트 정보는 이벤트 유형, 이벤트 발생 영역, 이벤트 발생 시간 등을 포함할 수 있다. 본 발명의 실시예들은 이벤트 정보를 메타 데이터로 변환하고 영상 데이터와 함께 저장되도록 처리함으로써, 프라이버시를 위해서는 공유되지 않아야 하는 영상이 보안 등의 이유로 공개의 필요가 있는 경우라면, 원본 영상이 그대로 저장되고 다른 객체들과 공유되도록 처리할 수 있다. 이때, 출현 객체의 식별 정보 등으로 암호화함으로써, 출현 객체 만이 영상을 복호화하도록 처리할 수 있다. 주변 정보 분석부(703)는 주변에 인접하여 존재하고, 통신 기능을 가지며 전자 제품으로 기능하는 디바이스로부터 수신된 감지 데이터를 분석한다. 주변 정보 분석부(703)은 영상 촬영이 불가능한 경우, 또는 영상 촬영이 제한된 경우에 객체의 출현 및 출현된 객체를 식별하기 위해서, 전자 제품의 사용에 대한 감지 데이터(실행 여부, 실행 시점, 실행 동작 등)를 획득할 수 있다. 조명이 부재하여 객체의 식별가능한 촬영이 불가능한 경우, 사용자의 인위적인 촬영 장치의 방향 전환, 촬영 장치의 전원 제거 등의 경우에 주변 정보 분석부(703)는 촬영 영상이 없이 하나 이상의 디바이스로부터 수신한 감지 데이터를 이용하여 객체를 식별할 수 있다. 감지 데이터는 디바이스가 파워 온(power on)되는 시간, 디바이스의 현재 상태 정보(status), 디바이스가 파워 다운(power down)되는 시간을 포함할 수 있다. 주변 정보 분석부(703)는 적어도 하나의 디바이스로부터 수신된 감지 데이터들을 시간 순으로 리스팅하고 조합하여 객체의 이동 정보를 추론할 수 있다. 예를 들어, 제1 장치가 제1 시간에 파워 온 되고, 제2 장치가 제2 시간에 파워 온 된 것으로 감지된 경우, 출현 객체의 위치는 제1 장치의 인근에서 제2 장치의 인근으로 이동한 것이 된다. 출현 객체의 이동 정보가 제1 장치와 대응되는 제1 지점에서 제2 장치와 대응되는 제2 지점으로 이동하게 될 수 있다. 출현 객체의 이동 정보는 패턴화하여, 객체의 식별에 활용될 수 있다. 객체의 행동, 또는 이동 등은 객체 별로 정형화되는 점을 근거로 객체의 이동 정보를 이용하여 객체를 식별할 수 있다. The
객체 식별부(704)는 영상 분석부(702), 및 주변 정보 분석부(703)을 통해 획득된 정보를 기초로 영상에 포함된 객체를 식별할 수 있다. 객체 식별부(704)는 생체 정보, 이동 정보를 기초로 객체를 식별할 수 있다. 객체 식별부(704)는 미리 저장된 생체 정보, 또는 미리 저장된 이동 정보와의 비교를 통해 객체를 식별하게 될 수 있다. The
객체 식별부(704)는 영상의 객체 출현 영역에 포함된 특징값들을 추출하고, 상기 특징값들을 기초로 출현된 객체를 식별할 수 있다. The
복수의 객체가 인식 또는 감지된 경우, 객체 식별부(704)는 획득된 생체 정보 및 이동 정보를 페어링하고, 페어링된 생체 정보 및 이동 정보를 통해 각 객체를 식별할 수 있다.When a plurality of objects are recognized or detected, the
저장부(705)는 획득된 영상을 저장할 수 있다. 이때, 저장부(705)는 출현 객체와 관련된 정보를 이용하여 획득된 영상을 암호화 할 수 있다. 저장부(705)는 영상에 미등록 객체가 포함된 경우에는 영상을 획득된 그대로 저장할 수 있다. 저장부(705)는 영상에 등록 객체가 포함된 경우에는 영상을 저장하고, 별개의 영상을 편집하여 저장할 수 있다. The
영상 처리부(706)는 영상에 출현한 객체에 따라 영상을 처리할 수 있다. 영상 처리부(706)는 영상에 출현한 객체에 대한 식별 정보를 기초로 각 객체의 보안 등급을 검색하고, 객체의 보안 등급을 고려하여 객체를 촬영한 영상을 처리할 수 있다. 객체의 보안 등급은 모니터링 영역과 관련하여 등록된 객체인지 여부로 결정될 수 있다. 예를 들어, ‘우리집’에 대해서, 우리 가족인 엄마, 아빠, 자녀 등은 등록된 객체로 보안 등급이 높게 설정될 수 있다. 등록되지 않은 객체는 보안 등급이 0 또는 -1과 같이 최저값으로 설정될 수 있다. 또한, 등록된 객체라고 하더라도, 모니터링 영역 내에서의 역할에 따라서 각 객체의 보안 등급은 다르게 설정될 수 있다. 예를 들어, ‘회사’에 대해서, 회사 내의 직급의 순서로, 즉, 사장, 상무, 부장, 차장, 과장 순서로 보안 등급은 낮게 설정될 수 있다. 객체의 보안 등급에 따라 객체를 촬영한 영상은 다르게 처리될 수 있다. The
보안 등급이 ‘5’로 설정된 객체가 출현한 영상은 ‘5’ 미만의 보안 등급의 객체에게는 공유되지 않도록 처리할 수 있다. 보안 등급이 최고 값으로 설정된 객체가 출현한 영상은 해당 객체와 관련되어 등록된 관리자 단말기로만 공유될 수 있다. 선택적으로, 영상 처리부(706)는 출현 객체의 보안 등급과 무관하게 위험 상황 등의 이벤트가 발생되는 것으로 판단되는 경우에는, 객체 영상이 등록 객체에게 모두 공유되도록 처리할 수 있다. An image in which an object whose security level is set to '5' appears may be processed so as not to be shared with an object having a security level lower than '5'. An image in which an object whose security level is set to the highest value appears may be shared only with a manager terminal registered in association with the object. Optionally, when it is determined that an event such as a dangerous situation occurs, regardless of the security level of the appearance object, the
다른 실시예에서, 영상 처리부(706)는 실시간으로 수신된 신호에 따라 전달되어야 하는 영상을 처리할 수 있다. In another embodiment, the
객체의 보안 등급 이외에도, 영상 처리부(706)는 영상 및 감지 데이터를 기초로 촬영 영상이 비활성 조건을 만족하는지 여부를 판단하고, 비활성 조건을 만족하는 경우, 영상의 일부 영역을 식별하기 어렵게 처리하거나, 통신부 등의 구성 요소 일부의 기능을 비활성화시킬 수 있다. 여기서, 비활성 조건은 객체의 보안 등급 이외의 공간 및 행동, 시간 구간 등으로 설정되는 것 일 수 있다. 예를 들어, ‘안방의 침대’와 대응되는 구역은 수면 시간 동안에 비활성 조건으로 등록될 수 있고, ‘안방의 침대’와 대응되는 구역은 수면 시간 동안에 촬영 영상은 일부 영역을 식별하기 어렵게 처리하거나 외부로의 전송 기능이 비활성화 될 수 있다. In addition to the security level of the object, the
영상 처리부(706)는 객체의 보안 등급, 영상에 출현된 객체 등을 기초로 출현 객체가 비활성 조건을 만족하는지 여부를 판단하고, 출현 객체가 비활성 조건을 만족하는 경우, 영상의 일부 영역을 식별하기 어렵게 처리하고, 영상을 전달한다. 영상 처리부(706)는 등록 객체의 출현에 따라 영상의 전송 자체가 차단 또는 비활성화 되도록 제어할 수 있다. 전송이 차단된다고 하더라도, 촬영된 영상은 저장부에 저장될 수 있다. 사후적으로, 특정 승인을 통해 원본 영상은 그대로 공개, 공유될 수 있다. The
등록 객체의 출현이 감지되거나 비활성 조건을 만족하거나, 객체의 보안 등급이 기 설정된 임계 등급 이상인 경우, 영상 처리부(706)는 영상에 포함된 제1 출현 영역에 시각적 이펙트(그래픽 인터페이스 등)를 마스킹할 수 있다. 마스킹한다는 것은 영상 위에 이펙트를 추가하는 것으로, 대응 픽셀 값들에 다른 값들이 마스킹될 수 있다. 등록 객체의 출현이 감지되거나 비활성 조건을 만족하거나, 객체의 보안 등급이 기 설정된 임계 등급 이상인 경우, 영상 처리부(706)는 단말로부터의 요청에 응답하여 영상을 전송하지 않을 수 있으며, 출현 객체의 보안 등급 보다 높은 보안 등급을 가진 단말로부터의 요청에 응답하여 영상을 전송할 수 있다. 등록 객체의 출현이 감지되거나 비활성 조건을 만족하거나, 객체의 보안 등급이 기 설정된 임계 등급 이상인 경우, 영상 처리부(706)는 영상 자체를 저장하지 않을 수 있다. 등록 객체에 의해 미리 입력된 지시대로 촬영된 영상이 처리될 수 있다. When the appearance of the registered object is detected or satisfies an inactive condition, or when the security level of the object is greater than or equal to a preset threshold level, the
영상 처리부(706)은 영상에 출현한 객체들이 복수인 경우, 각 객체의 출현 영역을 상이하게 처리할 수 있다. 예를 들어, 보안 등급이 다른 객체들이 감지되거나 또는 등록 객체 및 미등록 객체의 출현이 모두 감지된 동안에는 영상 처리부(706)는 영상에 포함된 등록 객체(보안 등급이 임계 등급 보다 높은 객체)의 제2 출현 영역을 검출하고, 상기 제2 출현 영역에 시각적 이펙트를 마스킹(masking)하거나, 미등록 객체(보안 등급이 임계 등급 보다 낮은 객체)의 제3 출현 영역을 검출하고, 상기 제3 출현 영역을 제외한 나머지 영역에 시각적 이펙트를 마스킹(masking)할 수 있다. When there are a plurality of objects appearing in the image, the
등록 객체의 출현이 감지되거나 비활성 조건이 감지되는 경우, 또는 보안 등급이 임계 등급 이상의 객체의 출현이 감지되는 동안에는 영상 처리부(706)는 영상에 포함된 등록 객체(보안 등급이 임계 등급 보다 높은 객체)의 출현 영역에 시각적 이펙트를 포함시키는 것이 원칙이나 예외적으로 촬영이 필요한 위험 상황 등의 이벤트가 감지되게 되면 상기 시각적 이펙트를 제거한 원본 영상을 그대로 저장할 수 있다. When an appearance of a registered object is detected or an inactive condition is detected, or while an appearance of an object having a security level of more than a critical level is detected, the
이벤트가 감지되는 경우에는 영상 처리부(706)는 이벤트의 감지에 응답하여 출현 객체 별로 등록된 관리자 단말로 위험 메시지를 전송할 수 있다. 이벤트가 감지된 시점으로부터 소정의 시간 간격 동안의 영상이 관리자 단말로 전송하도록 제어할 수 있다. When an event is detected, the
영상 처리부(706)는 정해진 촬영 중단 신호에 따라 촬영을 중단시킬 수 있다. 영상 처리부(706)는 객체의 음성, 객체의 행동, 특정 텍스트 입력에 따라 촬영을 중단 시킬 수 있다. The
데이터 관리부(707)는 과거 시점의 영상을 관리할 수 있다. 데이터 관리부(707)는 영상을 요청하는 신호에 응답하여 제1 시간 구간에 촬영된 영상을 단말로 전송할 수 있다. 이때, 전송 여부는 단말에게 부여된 보안 등급에 따라 결정될 수 있다. 이때 전송되는 영상은 단말에게 부여된 보안 등급에 따라 상이할 수 있다. 보안 등급이 출현 객체의 보안 등급보다 낮은 경우, 식별이 어렵도록 영상 처리부(706)에 의해 처리된 영상이 수신될 수 있다. 보안 등급이 출현 객체의 보안 등급보다 높은 경우, 원본 영상이 수신될 수 있다. The
객체의 출현 영역은 객체의 자세 등에 따라 다를 수 있다. 객체가 서 있는 경우 및 객체가 앉아 있는 경우 사이의 객체의 출현 영역은 달라지게 된다. The appearance area of the object may vary depending on the posture of the object. The appearance area of the object is different between when the object is standing and when the object is sitting.
다른 실시예에서, 영상 처리 장치는 사용자의 모션, 제스처, 음성, 얼굴 등의 특징 검출에 의해 사용자를 검출하고, 식별할 수 있다. 영상 처리 장치는 식별된 사용자에 의해 지정된 영역(침실, 화장실 등)에 해당 사용자가 출현하면 자동으로 영상의 전송을 제한할 수 있다. In another embodiment, the image processing apparatus may detect and identify the user by detecting features of the user such as motion, gesture, voice, and face. The image processing apparatus may automatically limit the transmission of an image when the corresponding user appears in an area (bedroom, bathroom, etc.) designated by the identified user.
영상 처리 장치는 사용자가 모니터링 영역에서 소정 시간 동안 카메라를 응시하면 저장된 얼굴과 비교를 통해 사용자를 식별할 수 있다. 영상 처리 장치는 식별된 사용자가 설정한대로 영상을 처리하거나 영상의 전송을 제한할 수 있다. If the user gazes at the camera for a predetermined time in the monitoring area, the image processing apparatus may identify the user through comparison with the stored face. The image processing apparatus may process the image or limit the transmission of the image as set by the identified user.
본 발명의 실시예들에 따른 영상 처리 장치는 모니터링 영역에 발생된 출현 객체의 변화, 상황의 변화 등을 동적으로 감지하고, 감지된 결과에 따라 촬영 영상을 처리함으로써, 공개 또는 공유의 필요성이 낮거나 개인의 프라이버시를 침해하는 영상이 그대로 공개되는 것을 방지할 수 있다. 도 3 내지 도 5는 본 발명의 실시예들에 따른 영상 처리 방법의 흐름도들이다. The image processing apparatus according to the embodiments of the present invention dynamically detects a change in an appearance object, a change in a situation, and the like generated in the monitoring area, and processes a photographed image according to the detected result, thereby requiring low disclosure or sharing. Or infringing an individual's privacy can be prevented from being released. 3 to 5 are flowcharts of an image processing method according to embodiments of the present invention.
도 3를 참조하면, 영상 처리 방법은 영상 및 감지 데이터를 획득하는 단계(S110), 제1 영상을 분석하는 단계(S120), 감지 데이터를 분석하는 단계(S130), 제1 객체를 식별하는 단계(S140), 제1 영상을 처리하는 단계(S150)를 포함할 수 있다. Referring to FIG. 3, the image processing method may include obtaining an image and sensing data (S110), analyzing a first image (S120), analyzing a sensing data (S130), and identifying a first object. In operation S140, the method may include processing a first image in operation S150.
S110에서는 영상 처리 장치는 카메라로부터 모니터링 영역을 촬영한 제1 영상을 획득한다. 영상 처리 장치는 주변에 위치한 적어도 하나의 디바이스로부터 감지 데이터를 획득한다. In S110, the image processing apparatus obtains a first image of photographing a monitoring area from a camera. The image processing apparatus obtains sensing data from at least one device located in the vicinity.
S120에서는 영상 처리 장치는 제1 영상을 분석한다. In operation S120, the image processing apparatus analyzes the first image.
영상 처리 장치는 영상을 분석하여 생체 정보를 인식할 수도 있다. 영상 처리 장치는 인식된 생체 정보를 이용하여 영상에 출현한 객체를 식별할 수 있다. 영상 처리 장치는 영상을 분석하여 이동 정보를 인식하고 인식된 이동 정보와 기존 이동 정보의 비교를 통해 객체를 식별할 수 있다. 영상 처리 장치는 영상을 분석하여 미등록 객체의 출현, 얼굴 인식이 불가능한 얼굴 등장, 미등록 음성, 유리 깨지는 소리, 경보음, 충돌음, 고함, 비명, 울음소리 등의 발생, 임계값 이상의 음성 발생 등의 이벤트 발생 조건에 만족하는 경우 이벤트를 발생시킬 수 있다. 영상 처리 장치는 영상 데이터의 분석 결과를 나타내는 메타 데이터를 생성할 수 있다. The image processing apparatus may recognize the biometric information by analyzing the image. The image processing apparatus may identify the object appearing in the image by using the recognized biometric information. The image processing apparatus may recognize the moving information by analyzing the image and identify the object by comparing the recognized moving information with the existing moving information. The image processing apparatus analyzes the image to detect events such as the appearance of an unregistered object, the appearance of a face that cannot be recognized, an unregistered voice, a glass cracking sound, an alarm sound, a collision sound, a shout, a scream, a crying sound, or a voice over a threshold An event can be generated when the occurrence condition is satisfied. The image processing apparatus may generate metadata representing the analysis result of the image data.
S130에서는 영상 처리 장치는 주변에 인접하여 존재하고, 통신 기능을 가지며 전자 제품으로 기능하는 적어도 하나의 디바이스로부터 수신된 감지 데이터를 분석할 수 있다. 영상 처리 장치는 영상 촬영이 불가능한 경우, 영상 촬영이 제한된 경우에 객체의 출현 및 출현된 객체를 식별하기 위해서, 전자 제품의 사용과 관련된 감지 데이터를 요청하여 획득할 수 있다. 영상 처리 장치는 적어도 하나의 디바이스로부터 수신된 감지 데이터들을 조합하여 객체의 이동 정보를 추론할 수 있다. In operation S130, the image processing apparatus may analyze sensing data received from at least one device that is adjacent to the periphery, has a communication function, and functions as an electronic product. When image capturing is impossible, the image processing apparatus may request and acquire sensing data related to the use of an electronic product in order to identify the appearance of the object and the emerged object when the image capturing is limited. The image processing apparatus may infer movement information of the object by combining the sensing data received from the at least one device.
S140에서는 영상 처리 장치는 제1 영상 또는 감지 데이터를 분석한 결과를 이용하여 제1 객체를 식별할 수 있다. 영상 처리 장치는 획득된 생체 정보 및 이동 정보를 페어링하고, 페어링된 생체 정보 및 이동 정보를 통해 각 객체를 식별할 수 있다. 예를 들어, 획득된 제1 생체 정보와 대응되는 객체의 이동 정보가 화장실, 부엌, 거실로 이어지는 경우, 이동 정보와 대응되는 객체를 검색하고, 검색된 객체가 상기 제1 생체 정보와 매칭되는지 여부를 산출함으로써, 영상 처리 장치는 객체를 식별할 수 있다. In operation S140, the image processing apparatus may identify the first object by using the result of analyzing the first image or the sensing data. The image processing apparatus may pair the obtained biometric information and the movement information, and identify each object through the paired biometric information and the movement information. For example, when the movement information of the object corresponding to the obtained first biometric information leads to a bathroom, a kitchen, or a living room, an object corresponding to the movement information is searched for, and whether the retrieved object matches the first biometric information. By calculating, the image processing apparatus may identify the object.
S150에서는 영상 처리 장치는 식별된 결과를 이용하여 제1 영상의 소정의 영역에 시각적 이펙트를 포함시키거나, 제1 영상을 삭제할 수 있다. In operation S150, the image processing apparatus may include a visual effect in a predetermined area of the first image or delete the first image by using the identified result.
영상 처리 장치는 영상에 출현한 객체에 대한 식별 정보를 기초로 각 객체의 보안 등급을 검색하고 객체의 보안 등급을 고려하여 객체를 촬영한 영상을 처리할 수 있다. 객체의 보안 등급은 모니터링 영역과 관련하여 등록된 객체인지 여부로 결정될 수 있다. The image processing apparatus may search for the security level of each object based on the identification information of the object appearing in the image and process the image photographing the object in consideration of the security level of the object. The security level of the object may be determined by whether the object is registered in relation to the monitoring area.
영상 처리 장치는 영상에 출현한 객체의 보안 등급 및 영상에 비활성 조건의 발생 여부 등을 기초로 영상의 일부 영역을 식별하기 어렵게 처리할 수 있다. 등록 객체의 출현이 감지되거나 비활성 조건을 만족하거나, 객체의 보안 등급이 기 설정된 임계 등급 이상인 경우, 영상 처리 장치는 영상에 포함된 제1 출현 영역에 시각적 이펙트를 마스킹할 수 있다.The image processing apparatus may make it difficult to identify a partial region of the image based on a security level of an object appearing in the image and whether an inactive condition occurs in the image. When the appearance of the registered object is detected or satisfies an inactive condition or the security level of the object is equal to or greater than a preset threshold level, the image processing apparatus may mask a visual effect on the first appearance area included in the image.
추가적으로, 영상 처리 장치는 식별된 결과를 이용하여 제1 영상의 저장 영역을 결정할 수 있다. 등록 객체가 출현된 영상은 전기적으로 연결된 저장부(705)에 저장할 수 있다. In addition, the image processing apparatus may determine the storage area of the first image by using the identified result. The image in which the registration object appears may be stored in the
영상 처리 장치는 식별된 결과를 이용하여 제1 영상의 전송 플래그를 설정할 수 있다. 영상 처리 장치는 영상의 전송 플래그에 따라 영상의 전송 여부를 결정할 수 있다. The image processing apparatus may set a transmission flag of the first image by using the identified result. The image processing apparatus may determine whether to transmit the image based on the transmission flag of the image.
도 4를 참조하면, 영상 처리 방법은 단말로부터 영상 요청 신호를 수신하는 단계(S210), 단말의 액세스 권한이 있는지 여부를 판단하는 단계(220), 단말에게 영상을 전달하는 단계(S230)를 포함한다. Referring to FIG. 4, the image processing method includes receiving an image request signal from a terminal (S210), determining whether the terminal has access authority (220), and transmitting an image to the terminal (S230). do.
S210에서는 영상 처리 장치는 제1 단말로부터 영상 요청 신호를 수신할 수 있다. S220에서는 영상 처리 장치는 제1 단말에게 부여된 액세스 권한이 있는지 여부를 판단한다. 만약 제1 단말에게 부여된 액세스 권한이 있다면, 영상 처리 장치는 제1 단말에게 영상 요청 신호에 의해 지정된 영상을 전달할 수 있다. 액세스 권한은 절대적으로 설정되기도 하지만, 등록 객체에 의해 설정된 규칙에 따라 상대적으로 설정될 수 있다. 즉, 등록 객체는 자신이 출현한 영상에 대해서는 제한적으로 전송되도록 액세스 권한을 상대적으로 설정할 수 있다. 액세스 권한을 가지는 사용자의 단말은 영상에 출현된 객체에 따라 영상을 수신받지 못할 수 있다. In S210, the image processing apparatus may receive an image request signal from the first terminal. In operation S220, the image processing apparatus determines whether there is an access right granted to the first terminal. If there is an access right granted to the first terminal, the image processing apparatus may transmit the image designated by the image request signal to the first terminal. Access rights may be set absolutely, but may be set relatively according to rules set by the registration object. That is, the registration object may relatively set an access right so that the registered object is limitedly transmitted to the image in which the registered object appears. A terminal of a user having access authority may not receive an image according to an object appearing in the image.
다른 실시예에서, 제1 단말에게 부여된 액세스 권한이 없는 경우에도, 영상 처리 장치는 제1 단말에게 부여된 액세스 권한 뿐만 아니라 제1 단말과 영상에 출현된 객체 사이의 매칭 여부를 판단하고, 제1 단말과 출현된 객체 사이의 매칭도가 기 설정된 매칭도 이상인 것으로 판단되는 경우, 제1 단말에게 영상을 제공할 수 있다. 영상에 출현된 객체는 등록 객체 또는 미등록 객체 일 수 있다. 액세스 권한은 객체의 보안 등급을 기초로 판단될 수 있다. 예를 들어, 사용자의 보안 등급이 임계 등급 이상이거나, 출현 객체의 보안 등급 보다 높은 경우, 사용자에게 액세스 권한이 있다고 판단될 수 있다. In another embodiment, even when there is no access right granted to the first terminal, the image processing apparatus determines not only the access right granted to the first terminal, but also a match between the first terminal and an object appearing in the image. When it is determined that the matching degree between the first terminal and the appeared object is equal to or greater than the preset matching degree, an image may be provided to the first terminal. The object appearing in the image may be a registered object or an unregistered object. The access right may be determined based on the security level of the object. For example, if the security level of the user is above the threshold level or higher than the security level of the appearance object, it may be determined that the user has access.
영상 처리 장치는 액세스 권한이 없는 단말로부터의 영상 요청 신호가 수신되면, 영상 요청 신호의 응답으로 영상을 전달하지 않는다. The image processing apparatus does not transmit an image in response to the image request signal when an image request signal is received from a terminal without access authority.
도 5를 참조하면, 영상 처리 방법은 제2 단말로부터 영상 요청 신호를 수신하는 단계(S310), 영상에 등록 객체가 있는지 여부를 판단하는 단계(S320), 영상을 그대로 전달하는 단계(S321), 영상이 미등록 객체가 있는지 여부를 판단하는 단계(S330), 제2 단말의 액세스 권한에 따라 영상을 처리하여 전달하는 단계(S331), 영상이 이벤트 발생 조건을 만족하는지 여부를 판단하는 단계(S340), 영상을 그대로 전달하는 단계(S341)을 포함할 수 있다. Referring to FIG. 5, the image processing method may include receiving an image request signal from a second terminal (S310), determining whether a registration object exists in the image (S320), transferring the image as it is (S321), Determining whether the image has an unregistered object (S330), Processing and transmitting the image according to the access authority of the second terminal (S331), Determining whether the image satisfies an event occurrence condition (S340) The method may include transmitting the image as it is (S341).
S310에서는 영상 처리 장치는 제2 단말로부터 영상 요청 신호를 수신한다. 이때, 영상 요청 신호는 실시간으로 촬영된 영상이 아닌 과거의 촬영 영상에 대한 지정 정보를 포함할 수 있다. S320에서는 영상 처리 장치는 영상 요청 신호와 대응되는 영상에 등록 객체가 포함하는지 여부를 판단한다. 영상 처리 장치는 해당 영상과 연결된 메타 데이터를 분석하여 영상에 출현된 객체 중에서, 등록 객체가 있는지 여부를 결정할 수 있다. S321에서는 만약 영상에 등록 객체가 포함되어 있지 않다면, 영상 처리 장치는 영상 요청 신호의 응답으로 영상을 그대로 전달할 수 있다. 등록 객체가 출현하는 동안에는 영상 처리 장치는 촬영 영상In operation S310, the image processing apparatus receives an image request signal from the second terminal. In this case, the image request signal may include designation information about a past photographed image, not an image captured in real time. In operation S320, the image processing apparatus determines whether a registration object is included in an image corresponding to the image request signal. The image processing apparatus may determine whether there is a registered object among the objects appearing in the image by analyzing metadata associated with the corresponding image. In operation S321, if the registration object is not included in the image, the image processing apparatus may transfer the image as it is in response to the image request signal. While the registered object is present, the image processing apparatus may capture a captured image.
S330에서는 영상 처리 장치는 영상에 미등록 객체가 포함하는지 여부를 판단한다. 영상 처리 장치는 해당 영상과 연결된 메타 데이터를 분석하여 영상에 출현된 객체 중에서 미등록 객체가 있는지 여부를 결정할 수 있다. S331에서는 영상 처리 장치는 단말의 액세스 권한에 따라 영상을 처리하여 전달할 수 있다. 영상 처리 장치는 영상에 등록 객체 및 미등록 객체를 모두 포함하는 경우에는 등록 객체의 출현 영역 및 미등록 객체의 출현 영역을 다르게 편집하고, 편집한 영상을 미등록 객체의 처리 방식과 동일하게 처리할 수 있다. 미등록 객체의 출현 영역은 선명하게 보이도록 편집되고, 등록 객체의 출현 영역은 다른 이미지를 덧붙이거나 블러, 모자이크 처리 될 수 있다. 미등록 객체는 감시의 대상이 되는 객체로 볼 수 있으며, 미등록 객체가 출현한 경우에는 모니터링 영역의 촬영이 강화되도록 처리할 수 있다. In operation S330, the image processing apparatus determines whether an unregistered object is included in the image. The image processing apparatus may determine whether there is an unregistered object among the objects appearing in the image by analyzing metadata associated with the corresponding image. In operation S331, the image processing apparatus may process and transmit an image according to an access right of the terminal. When the image processing apparatus includes both the registered object and the unregistered object, the image processing apparatus may edit the appearance area of the registered object and the appearance area of the unregistered object differently, and process the edited image in the same manner as the processing method of the unregistered object. The appearance area of the unregistered object is edited to be clearly visible, and the appearance area of the registered object can be added, blurred or mosaic other images. The unregistered object may be viewed as an object to be monitored, and when an unregistered object appears, the unregistered object may be processed to enhance the shooting of the monitoring area.
S340에서는 영상 처리 장치는 영상이 이벤트 발생 조건(미등록 객체의 출현, 얼굴 인식이 불가능한 얼굴 등장, 비정상적인 음원, 유리 깨지는 소리, 경보음, 충돌음, 고함, 비명, 울음소리 등의 발생, 임계값 이상의 음성 발생)을 만족하는지 여부를 판단한다. 영상 처리 장치는 해당 영상과 연결된 메타 데이터를 분석하여 영상이 이벤트 발생 조건을 만족하는지 여부를 판단할 수 있다. 영상 처리 장치는 영상이 이벤트 발생 조건을 만족하는 경우에는 영상에 등록 객체가 포함되어 있다고 하더라도, 영상을 그대로 전달할 수 있다. 위험 상황을 포함하는 영상은 그대로 전달되도록 제어할 수 있다. In S340, the image processing apparatus may determine that the image is an event occurrence condition (appearance of an unregistered object, appearance of a face that cannot be recognized by a face, abnormal sound source, glass cracking sound, alarm sound, collision sound, shouting, screaming, crying, etc., voice over a threshold value. Occurrence). The image processing apparatus may determine whether the image satisfies an event occurrence condition by analyzing metadata associated with the corresponding image. If the image satisfies the event occurrence condition, the image processing apparatus may deliver the image as it is even if the image includes a registration object. Images including dangerous situations can be controlled to be delivered as they are.
도 6a 및 도 6b는 객체의 출현 영역에 대해서 이펙트를 추가한 실시예들에 대한 것이다. 6A and 6B illustrate embodiments in which an effect is added to an appearance area of an object.
본 발명의 실시예에 따른 영상 처리 장치는 등록 객체에 의해 설정된 방법으로 등록 객체의 출현 영역을 편집할 수 있다. 이때, 등록 객체의 출현 영역이 명확하게 드러나지 않도록 기 설정된 이미지(601)로 표현할 수 있다. 설정된 이미지(601)는 등록 객체에 대한 기본적인 정보를 포함하도록 구성될 수 있다. The image processing apparatus according to the embodiment of the present invention may edit the appearance area of the registration object in a manner set by the registration object. In this case, it may be expressed as a
영상 처리 장치는 등록 객체의 출현 영역의 모양을 등록 객체의 자세에 따라 변경할 수 있다. 영상 처리 장치는 등록 객체의 출현 영역을 포함하는 다양한 도형(602)으로 표현할 수 있다. The image processing apparatus may change the shape of the appearance area of the registration object according to the posture of the registration object. The image processing apparatus may be represented by various figures 602 including an appearance area of a registration object.
도 7a 및 도 7b는 영상 처리 장치에 의해 제공되는 얼굴 인식 기능을 설명하기 위한 도면이다. 7A and 7B are diagrams for describing a face recognition function provided by an image processing apparatus.
본 발명의 실시예에 따른 영상 처리 장치는 단말 그룹에 얼굴 인식 기능을 제공할 수 있다. 등록 객체는 미리 자신의 얼굴을 등록하는 절차를 수행할 수 있다. 도 7a에 도시된 바와 같이 단말을 통해 등록 객체를 촬영하는 기능이 제공된다. 등록 객체의 얼굴은 단말에 포함된 카메라를 통해 획득되며, 미리보기 영역(701)을 통해 제공될 수 있다. 촬영된 이미지에 대해서 저장하기(702) 또는 취소하기(703)의 아이콘이 제공된다. An image processing apparatus according to an embodiment of the present invention may provide a face recognition function to a terminal group. The registration object may perform a procedure of registering its own face in advance. As shown in FIG. 7A, a function of photographing a registration object through a terminal is provided. The face of the registration object may be obtained through a camera included in the terminal, and may be provided through the
도 8은 영상 처리 장치에 의해 제공되는 영역 설정 기능을 설명하기 위한 도면이다. 8 is a diagram for describing a region setting function provided by an image processing apparatus.
본 발명의 실시예들에 따른 영상 처리 장치는 모니터링 영역의 특정 영역을 프라이버시 영역으로 설정할 수 있다. 프라이버시 영역으로 설정된 영역에 대해서는 항상 이펙트를 추가해서 제공하도록 구현될 수 있다. The image processing apparatus according to the embodiments of the present invention may set a specific area of the monitoring area as a privacy area. The area set as the privacy area may be implemented to always provide an effect.
영역 설정 기능은 등록 객체에 의해서만 실행되며, 등록 객체는 구체적인 동작이 노출되지 않도록, 제1 구역(801), 제2 구역(802)를 프라이버시 영역으로 설정할 수 있다. 영상 처리 장치는 상기 설정에 따라 등록 객체가 출현되는 동안에는 제1 구역(801) 및 제2 구역(802)를 블러처리, 모자이크 처리, 이펙트 추가 등과 같이 불명확하게 표현할 수 있다. 미등록 객체 또는 다른 등록 객체가 출현되는 동안에는 영상 처리 장치는 제1 구역(801) 및 제2 구역(802)에 대해서 아무런 처리를 하지 않게 된다. 각 등록 객체는 자신의 모습이 공개되지 않도록 설정되는 프라이버시 영역을 미리 등록할 수 있다. 제1 등록 객체에 의해 설정된 프라이버시 영역에서는 제1 등록 객체의 모습은 다양한 방법으로 처리되어 표현될 수 있다. 그러나, 이벤트 발생 조건을 만족하는 이벤트가 감지되면 모니터링 기능을 강화하기 위해서 영상 처리 장치는 등록 객체에 의해 설정된 프라이버시 영역에 대한 처리를 제거할 수 있다. The zone setting function is executed only by the registration object, and the registration object may set the
(메타 데이터 및 영상 데이터 사이의 상관 관계 위주로 작성함)(Written mainly on the correlation between meta data and image data)
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the devices and components described in the embodiments are, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors, microcomputers, field programmable gate arrays (FPGAs). May be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of explanation, one processing device may be described as being used, but one of ordinary skill in the art will appreciate that the processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the above, and may configure the processing device to operate as desired, or process independently or collectively. You can command the device. Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. Or may be permanently or temporarily embodied in a signal wave to be transmitted. The software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner. Software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described by the limited embodiments and the drawings as described above, various modifications and variations are possible to those skilled in the art from the above description. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different form than the described method, or other components. Or, even if replaced or substituted by equivalents, an appropriate result can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the claims that follow.
10: 카메라 그룹 30: 디바이스 그룹
50: 단말 그룹 70: 영상 처리 장치
701: 통신부 702: 영상 분석부
703: 주변 정보 분석부 704: 객체 식별부
705: 저장부 706: 영상 처리부
707: 데이터 관리부10: camera group 30: device group
50: terminal group 70: image processing apparatus
701: communication unit 702: image analysis unit
703: peripheral information analysis unit 704: object identification unit
705: storage unit 706: image processing unit
707: data management unit
Claims (5)
통신부로부터 주변에 위치한 하나 이상의 디바이스로부터 각 디바이스의 실행 여부, 실행 시점 및 실행되는 동작을 포함하는 감지 데이터를 획득하는 단계-상기 감지 데이터는 디바이스가 파워 온 되는 시간, 디바이스의 현재 상태 정보, 및 파워 다운되는 시간을 포함함;
상기 제1 영상 또는 상기 감지 데이터를 분석한 결과를 이용하여, 상기 감지 데이터들을 시간 순으로 리스팅하고 조합하여 상기 제1 영상에 출현한 객체의 이동 정보를 인식하고
인식한 이동 정보와 기존 이동 정보의 비교를 통해 출현한 상기 객체를 식별하되 상기 제1 영상에 포함된 객체의 이동 정보를 통해 등록된 객체 인지 미등록된 객체 중 하나로 식별하는 단계 - 상기 이동 정보는 객체의 위치와 대응되는 지점, 객체의 움직임, 객체의 위치 변화를 포함함-; 및
상기 객체에 대한 식별 정보를 기초로 상기 객체의 보안 등급을 검색하고 상기 객체의 보안 등급이 기 설정된 임계 등급 이상이거나, 상기 객체가 등록된 객체이거나, 상기 제1 영상이 비활성 조건을 만족하는 경우, 통신부의 전송 기능을 비활성화시키는 단계;를 포함하는,
상기 비활성화시키는 단계는
상기 제1 영상이 촬영되는 동안에 위험 상황의 이벤트가 감지되는 경우에는 출현한 객체 별로 등록된 관리자 단말로 위험 메시지를 전송하고, 상기 이벤트가 감지된 시점으로부터 소정의 시간 간격 동안의 영상을 상기 관리자 단말로 전송하는 단계를 더 포함하는, 출현 객체를 식별하여 객체에 따라 차등적으로 영상을 처리하는 영상 처리 장치의 영상 제공 방법.
Acquiring a first image of the monitoring area from the camera;
Acquiring, from the communication unit, sensing data, including whether each device is executed, an execution time, and an executed operation, from one or more devices located around the communication unit; Includes time down;
By using the result of analyzing the first image or the sensing data, the sensing data is listed and combined in chronological order to recognize movement information of an object appearing in the first image.
Identifying the object that has appeared through comparison of the recognized movement information and the existing movement information, and identifying the object as one of registered objects or unregistered objects through movement information of the object included in the first image, wherein the movement information is an object Including a point corresponding to the position of the object, the movement of the object, and the position of the object; And
When the security level of the object is searched based on the identification information of the object and the security level of the object is equal to or greater than a preset threshold level, the object is a registered object, or the first image satisfies an inactive condition, Deactivating a transmission function of the communication unit; including,
Deactivating the
When an event of a dangerous situation is detected while the first image is captured, a risk message is transmitted to a manager terminal registered for each object that appears, and the manager terminal displays an image for a predetermined time interval from when the event is detected. The image providing method of the image processing apparatus further comprising the step of transmitting, to identify the emergent object and process the image differentially according to the object.
상기 비활성화시키는 단계 이후에,
상기 객체의 식별 정보를 기초로, 상기 제1 객체의 출현 영역을 나머지 영역과 다르게 시각적 이펙트를 추가하도록 편집하는 단계;를 더 포함하는, 출현 객체를 식별하여 객체에 따라 차등적으로 영상을 처리하는 영상 처리 장치의 영상 제공 방법.
The method of claim 1,
After the deactivation step,
Editing the appearance area of the first object to add a visual effect differently from the remaining areas based on the identification information of the object; identifying the appearance object and processing an image differentially according to the object An image providing method of an image processing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180003443A KR102078265B1 (en) | 2018-01-10 | 2018-01-10 | Aapparatus of processing image and method of providing image thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180003443A KR102078265B1 (en) | 2018-01-10 | 2018-01-10 | Aapparatus of processing image and method of providing image thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190085376A KR20190085376A (en) | 2019-07-18 |
KR102078265B1 true KR102078265B1 (en) | 2020-02-19 |
Family
ID=67469498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180003443A KR102078265B1 (en) | 2018-01-10 | 2018-01-10 | Aapparatus of processing image and method of providing image thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102078265B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220160936A (en) * | 2021-05-28 | 2022-12-06 | 오성진 | Bath device using artificial intelligence technology |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102081545B1 (en) * | 2019-10-04 | 2020-02-25 | 진수용 | A monitoring system and method based on image analysis for preventing accidents in school |
CN111327821B (en) * | 2020-02-24 | 2021-08-17 | 珠海格力电器股份有限公司 | Control method and device of intelligent camera device, computer equipment and storage medium |
KR102429216B1 (en) * | 2020-12-22 | 2022-08-05 | 엑스퍼트아이엔씨 주식회사 | Apparatus and method for providing remote assistance service for visually impaired by using smart glasses |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101622610B1 (en) * | 2014-12-09 | 2016-05-23 | 주식회사 에스원 | Smart Certification System of Home Wireless Network Camera by Using UWB Sensor and Methof thereof |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050077826A (en) * | 2004-01-28 | 2005-08-04 | 주식회사데이콤 | The authentication service method using a mobile terminal with camera |
KR20120035299A (en) * | 2010-10-05 | 2012-04-16 | 한국인터넷진흥원 | Image protection processing apparatus for privacy protection, and image security system and method using the same |
KR20130003886A (en) | 2011-07-01 | 2013-01-09 | 주식회사 인터파크에이치엠 | Security service server and smart security method |
-
2018
- 2018-01-10 KR KR1020180003443A patent/KR102078265B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101622610B1 (en) * | 2014-12-09 | 2016-05-23 | 주식회사 에스원 | Smart Certification System of Home Wireless Network Camera by Using UWB Sensor and Methof thereof |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220160936A (en) * | 2021-05-28 | 2022-12-06 | 오성진 | Bath device using artificial intelligence technology |
KR102632863B1 (en) | 2021-05-28 | 2024-02-05 | 주식회사 베누펫 | Bath device using artificial intelligence technology |
Also Published As
Publication number | Publication date |
---|---|
KR20190085376A (en) | 2019-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10819904B2 (en) | Image processing device and image providing method therefor | |
KR102078265B1 (en) | Aapparatus of processing image and method of providing image thereof | |
US10049515B2 (en) | Trusted user identification and management for home automation systems | |
US11657605B2 (en) | User interfaces to configure a thermal imaging system | |
US9350914B1 (en) | Methods of enforcing privacy requests in imaging systems | |
US10937290B2 (en) | Protection of privacy in video monitoring systems | |
CN104980653B (en) | Method for updating camera parameters in video monitoring system | |
WO2017161880A1 (en) | Regional monitoring and alarming system and alarming method | |
KR101858396B1 (en) | Intelligent intrusion detection system | |
US11281900B2 (en) | Devices, methods, and systems for occupancy detection | |
KR102237086B1 (en) | Apparatus and method for controlling a lobby phone that enables video surveillance through a communication terminal that can use a 5G mobile communication network based on facial recognition technology | |
KR101626546B1 (en) | Apparatus and method for processing image information to support protection of personal information | |
CN108632573A (en) | System and method for enabling dynamic privacy zone in the visual field of safety camera based on motion detection | |
US9965612B2 (en) | Method and system for visual authentication | |
JP2006188853A (en) | Security device | |
WO2023024729A1 (en) | Device configuration method, electronic device, and computer-readable storage medium | |
Vimal et al. | Development of cloud integrated internet of things based intruder detection system | |
JP5002131B2 (en) | Imaging device for monitoring and control method thereof | |
JP2006338467A (en) | Surveillance system and controlling method for it | |
Meliones et al. | Privacy-preserving intelligent networked video surveillance for patient monitoring and alarm detection | |
KR101832363B1 (en) | Intelligent IP camera and video management system which can detect unauthorized access | |
JP7334686B2 (en) | Controllers, programs and control systems | |
KR20130104774A (en) | Method and system for controlling entrance using image information | |
KR101581293B1 (en) | Security data collection appatatusand method collection method of the same | |
JP2024033723A (en) | Imaging control device, program, and imaging control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |