Nothing Special   »   [go: up one dir, main page]

KR102253918B1 - Emotion analysis system and operation method of the same - Google Patents

Emotion analysis system and operation method of the same Download PDF

Info

Publication number
KR102253918B1
KR102253918B1 KR1020190019388A KR20190019388A KR102253918B1 KR 102253918 B1 KR102253918 B1 KR 102253918B1 KR 1020190019388 A KR1020190019388 A KR 1020190019388A KR 20190019388 A KR20190019388 A KR 20190019388A KR 102253918 B1 KR102253918 B1 KR 102253918B1
Authority
KR
South Korea
Prior art keywords
image
images
storage unit
audiences
analysis
Prior art date
Application number
KR1020190019388A
Other languages
Korean (ko)
Other versions
KR20200101137A (en
Inventor
남성규
장우석
Original Assignee
주식회사딜루션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사딜루션 filed Critical 주식회사딜루션
Priority to KR1020190019388A priority Critical patent/KR102253918B1/en
Publication of KR20200101137A publication Critical patent/KR20200101137A/en
Application granted granted Critical
Publication of KR102253918B1 publication Critical patent/KR102253918B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus, e.g. for MRI, optical tomography or impedance tomography apparatus; Arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Psychiatry (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Educational Technology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Physiology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 실시예에 따른 감정 분석 시스템은, 관객들을 촬영 기간 동안 촬영하여, 제1 영상을 생성하는 영상 촬영부; 상기 제1 영상을 복수의 제2 영상들로 분할하고, 상기 복수의 제2 영상들을 저장 단위 시간에 따라 전송하는 영상 처리 장치; 및 분석 기간 동안 상기 복수의 제2 영상들을 분석하여 상기 복수의 제2 영상들에 각각에 대한 감정 정보를 생성하는 영상 분석 장치를 포함하고, 상기 영상 처리 장치는, 상기 제1 영상을 분할하여 상기 복수의 제2 영상들을 저장하는 분할부; 및 상기 복수의 제2 영상들이 상기 저장 단위 시간 동안 저장되면, 저장된 복수의 제2 영상들을 상기 영상 분석 장치로 전송하는 전송부를 포함한다.An emotion analysis system according to an embodiment of the present invention includes: an image photographing unit that photographs audiences during a photographing period and generates a first image; An image processing device that divides the first image into a plurality of second images and transmits the plurality of second images according to a storage unit time; And an image analysis device that analyzes the plurality of second images during an analysis period to generate emotion information for each of the plurality of second images, wherein the image processing device divides the first image A dividing unit for storing a plurality of second images; And a transmission unit configured to transmit the stored plurality of second images to the image analyzing apparatus when the plurality of second images are stored for the storage unit time.

Description

감정 분석 시스템 및 이의 동작 방법{EMOTION ANALYSIS SYSTEM AND OPERATION METHOD OF THE SAME}Emotion analysis system and its operation method {EMOTION ANALYSIS SYSTEM AND OPERATION METHOD OF THE SAME}

본 발명의 실시예는 감정 분석 시스템 및 이의 동작 방법, 특히 영상 컨텐츠가 상영되는 동안 관객들을 촬영하여, 관객들의 표정 및 행동 패턴을 기초로 감정을 분석할 수 있는 감정 분석 시스템 및 이의 동작 방법에 관한 것이다.An embodiment of the present invention relates to an emotion analysis system and an operation method thereof, in particular, an emotion analysis system capable of analyzing emotions based on facial expressions and behavior patterns of the viewers by photographing audiences while video content is being screened, and an operation method thereof. will be.

종래의 영화나 드라마, 게임 등과 같은 영상 컨텐츠에 대한 관객들의 관람 만족도를 측정하고 흥행 가능성을 예측하려는 시도가 있었다. 이 경우 관객들을 대상으로 해당 영상 컨텐츠에 대한 정성적 가치를 판단하기 위해, 영상 컨텐츠에 대한 집중도, 영상 컨텐츠에 따른 반응 등을 조사할 필요성이 있었다. There have been attempts to measure audience satisfaction with conventional video content such as movies, dramas, and games, and to predict the possibility of box office success. In this case, in order to determine the qualitative value of the video content targeting the audience, it was necessary to investigate the degree of concentration on the video content and the response to the video content.

하지만, 종래의 영상 컨텐츠에 대한 관객 분석은 설문조사 형식을 취하기 때문에 영상 컨텐츠의 전체적인 집중도에 대한 평가만이 이루어지게 되며 주관적인 의사가 반영되어 객관화된 결과를 얻지 못하는 문제점이 있었다.However, since the conventional audience analysis for video content takes the form of a questionnaire survey, only the evaluation of the overall concentration of the video content is made, and there is a problem in that the subjective intention is reflected and an objectified result cannot be obtained.

더욱이, 이러한 조사를 위해서는 관객 별도로 시간을 할애하여 설문조사에 응해야 하고, 관객 전체에 대한 평가결과를 획득하기가 제한되며 일부 무성의한 응답자에 대한 조사데이터가 평가결과에 반영되기 때문에 평가데이터의 신뢰도가 저하되는 문제점이 있었다. 또한, 관객들의 표정을 분석하는 경우에도, 분석 시스템의 사용자가 영상 컨텐츠의 상영이 종료된 이후 즉각적으로 분석 결과를 받아 볼 수 없는 문제점이 있었다.Moreover, for such a survey, the audience has to take a separate time to respond to the survey, and it is limited to obtain the assessment results for the entire audience, and the reliability of the assessment data is reflected in the assessment results because the survey data on some of the unaffected respondents is reflected in the assessment results. There was a problem of deterioration. In addition, even in the case of analyzing the facial expressions of the audience, there is a problem that the user of the analysis system cannot receive the analysis result immediately after the screening of the video content is finished.

한국공개특허 제2018-0077680호 '얼굴 표정 인식기반의서비스 제공 장치 및 그 방법'(2018.07.09. 공개)Korean Patent Laid-Open Patent No. 2018-0077680'Face expression recognition-based service providing apparatus and its method' (published on July 9, 2018) 일본공개특허 제2006-012171호 '생체 인식을 이용한 리뷰관리시스템 및 관리 방법'(2006.01.12. 공개)Japanese Patent Publication No. 2006-012171'Review management system and management method using biometric recognition' (published on January 12, 2006)

본 발명의 해결하고자 하는 과제는 영상 컨텐츠가 상영되는 동안 관객들을 촬영하여, 관객들의 표정 및 행동 패턴을 기초로 감정을 분석할 수 있는 감정 분석 시스템 및 이의 동작 방법을 제공하는 것이다.An object to be solved of the present invention is to provide an emotion analysis system and an operation method thereof capable of analyzing emotions based on facial expressions and behavior patterns of the audience by photographing audiences while video content is being screened.

또한, 본 발명의 해결하고자 하는 다른 과제는 관객들의 얼굴 영상을 얼굴 인식 결과에 따라 복수의 분할 영상들로 분할하여 영상 분석 장치로 전송함으로써, 분석 속도를 향상시킬 수 있는 감정 분석 시스템 및 이의 동작 방법을 제공하는 것이다.In addition, another problem to be solved by the present invention is an emotion analysis system capable of improving the analysis speed and an operation method thereof by dividing the face image of the audience into a plurality of divided images according to the face recognition result and transmitting it to the image analysis device. Is to provide.

또한, 본 발명의 해결하고자 하는 다른 과제는 영상 분석 장치가 복수의 분할 영상들에 대하여 병렬로 분석을 수행함으로써 분석 속도를 향상시킬 수 있는 감정 분석 시스템 및 이의 동작 방법을 제공하는 것이다.In addition, another problem to be solved by the present invention is to provide an emotion analysis system and an operation method thereof capable of improving the analysis speed by performing an analysis on a plurality of divided images in parallel by an image analysis apparatus.

또한, 본 발명의 해결하고자 하는 다른 과제는 영상 컨텐츠가 상영되는 동안 분석을 완료할 수 있는 감정 분석 시스템 및 이의 동작 방법을 제공하는 것이다.In addition, another problem to be solved by the present invention is to provide an emotion analysis system and an operation method thereof capable of completing analysis while video content is being screened.

상술한 목적을 달성하기 위하여, 본 발명의 실시예에 따른 감정 분석 시스템은, 관객들을 촬영 기간 동안 촬영하여, 제1 영상을 생성하는 영상 촬영부; 상기 제1 영상을 복수의 제2 영상들로 분할하고, 상기 복수의 제2 영상들을 저장 단위 시간에 따라 전송하는 영상 처리 장치; 및 분석 기간 동안 상기 복수의 제2 영상들을 분석하여 상기 복수의 제2 영상들에 각각에 대한 감정 정보를 생성하는 영상 분석 장치를 포함하고, 상기 영상 처리 장치는, 상기 제1 영상을 분할하여 상기 복수의 제2 영상들을 저장하는 분할부; 및 상기 복수의 제2 영상들이 상기 저장 단위 시간 동안 저장되면, 저장된 복수의 제2 영상들을 상기 영상 분석 장치로 전송하는 전송부를 포함한다.In order to achieve the above object, an emotion analysis system according to an embodiment of the present invention includes: an image photographing unit that photographs audiences during a photographing period and generates a first image; An image processing device that divides the first image into a plurality of second images and transmits the plurality of second images according to a storage unit time; And an image analysis device that analyzes the plurality of second images during an analysis period to generate emotion information for each of the plurality of second images, wherein the image processing device divides the first image A dividing unit for storing a plurality of second images; And a transmission unit configured to transmit the stored plurality of second images to the image analyzing apparatus when the plurality of second images are stored for the storage unit time.

본 발명에서, 상기 분할부는, 상기 제1 영상에 포함된 상기 관객들의 얼굴을 인식하고, 상기 관객들의 수를 추출하는 얼굴 인식부; 상기 관객들의 수와 기준값을 비교하고, 비교 결과에 따라 서로 상이한 방식으로 상기 제1 영상의 촬영 영역을 복수의 분할 영역들로 분할하는 분할 영역 설정부; 상기 복수의 분할 영역들 중 적어도 하나를 분석 대상으로 선택하는 분석 대상 선택부; 및 상기 분석 대상에 따라, 상기 복수의 제2 영상들을 저장하는 영상 저장부를 포함한다. In the present invention, the division unit may include: a face recognition unit configured to recognize faces of the audience included in the first image and extract the number of the audience; A divided area setting unit that compares the number of audiences and a reference value, and divides the photographing area of the first image into a plurality of divided areas in different ways according to the comparison result; An analysis target selection unit selecting at least one of the plurality of divided regions as an analysis target; And an image storage unit that stores the plurality of second images according to the analysis target.

본 발명에서, 상기 관객들의 수가 상기 기준값보다 작거나 같은 경우, 상기 분할 영역 설정부는, 상기 관객들의 수에 따라 상기 촬영 영역을 상기 복수의 분할 영역들로 분할하고, 상기 복수의 분할 영역들 각각은, 한명의 관객의 얼굴을 나타낸다. In the present invention, when the number of audiences is less than or equal to the reference value, the divided area setting unit divides the photographing area into the plurality of divided areas according to the number of audiences, and each of the plurality of divided areas , It represents the face of one spectator.

본 발명에서, 상기 관객들의 수가 상기 기준값보다 큰 경우, 상기 분할 영역 설정부는, 사용자로부터 분할 영역들의 수를 입력받고, 입력받은 상기 분할 영역의 수에 따라 상기 촬영 영역을 상기 복수의 분할 영역들로 분할한다. In the present invention, when the number of audiences is greater than the reference value, the divided area setting unit receives the number of divided areas from a user, and divides the photographing area into the plurality of divided areas according to the number of the received divided areas. Divide.

본 발명에서, 상기 관객들의 수가 상기 기준값보다 큰 경우, 상기 분할 영역 설정부는, 서로 인접한 관객들끼리 그룹핑하고, 생성된 그룹들의 수에 따라 상기 촬영 영역을 상기 복수의 분할 영역들로 분할한다. In the present invention, when the number of audiences is greater than the reference value, the divided area setting unit groups adjacent audiences with each other, and divides the photographing area into the plurality of divided areas according to the number of generated groups.

본 발명에서, 상기 분할 영역 설정부는, 상기 관객들에 대하여 K-평균 알고리즘을 이용하여, 서로 인접한 관객들에 대하여 그룹핑을 수행함으로써 복수의 그룹들을 생성한다. In the present invention, the divided area setting unit generates a plurality of groups by grouping adjacent audiences using a K-average algorithm for the audiences.

본 발명에서, 상기 전송부는, 상기 저장 단위 시간을 결정하는 결정부; 상기 복수의 제2 영상들을 저장하는 동안, 상기 저장 단위 시간을 카운트하는 카운터; 및 상기 저장 단위 시간이 도과한 경우, 상기 저장된 복수의 제2 영상들을 영상 분석 장치로 영상 전송부를 포함하고, 상기 카운터는, 상기 촬영 기간이 도과하지 않은 경우, 상기 저장 단위 시간을 다시 카운트한다.In the present invention, the transmission unit includes: a determination unit that determines the storage unit time; A counter for counting the storage unit time while storing the plurality of second images; And an image transmitting unit to transmit the stored plurality of second images to an image analysis apparatus when the storage unit time has passed, and the counter counts the storage unit time again when the capturing period has not passed.

본 발명에서, 상기 결정부는, 상기 저장 단위 시간을 사용자로부터 입력받는다. In the present invention, the determination unit receives the storage unit time input from the user.

본 발명에서, 상기 결정부는, 상기 저장 단위 시간을 상기 복수의 제2 영상들의 용량이 상기 영상 분석 장치의 최대 처리 용량 이하로 설정되도록 결정한다.In the present invention, the determination unit determines the storage unit time so that the capacity of the plurality of second images is set to be less than or equal to the maximum processing capacity of the image analysis apparatus.

본 발명에서, 상기 카운터는, 상기 촬영 기간이 도과한 경우, 카운트를 중지한다.In the present invention, the counter stops counting when the photographing period has elapsed.

상술한 목적을 달성하기 위하여, 본 발명의 실시예에 따른 감정 분석 시스템의 동작 방법은, 관객들을 촬영 기간 동안 촬영하여, 제1 영상을 생성하는 단계; 상기 제1 영상을 분할하여 복수의 제2 영상들을 저장하는 단계; 상기 복수의 제2 영상들이 저장 단위 시간 동안 저장되면, 저장된 복수의 제2 영상들을 영상 분석 장치로 전송하는 단계; 분석 기간 동안 상기 복수의 제2 영상들을 분석하여 상기 복수의 제2 영상들에 각각에 대한 감정 정보를 생성하는 단계; 및 상기 감정 정보를 통합하여 통합 감정 정보를 생성하는 단계를 포함한다. In order to achieve the above object, a method of operating an emotion analysis system according to an embodiment of the present invention includes: photographing audiences during a photographing period and generating a first image; Dividing the first image and storing a plurality of second images; If the plurality of second images are stored for a storage unit time, transmitting the stored plurality of second images to an image analysis device; Generating emotion information for each of the plurality of second images by analyzing the plurality of second images during an analysis period; And generating integrated emotion information by integrating the emotion information.

본 발명에서, 상기 복수의 제2 영상들을 저장하는 단계는, 상기 제1 영상에 포함된 상기 관객들의 얼굴을 인식하고, 상기 관객들의 수를 추출하는 단계; 상기 관객들의 수와 기준값을 비교하고, 비교 결과에 따라 서로 상이한 방식으로 상기 제1 영상의 촬영 영역을 복수의 분할 영역들로 분할하는 단계; 상기 복수의 분할 영역들 중 적어도 하나를 분석 대상으로 선택하는 단계; 및 상기 분석 대상에 따라, 상기 복수의 제2 영상들을 저장하는 단계를 포함한다. In the present invention, the storing of the plurality of second images may include recognizing faces of the audience included in the first image and extracting the number of the audience; Comparing the number of audiences and a reference value, and dividing the photographing area of the first image into a plurality of divided areas in different ways according to the comparison result; Selecting at least one of the plurality of divided regions as an analysis target; And storing the plurality of second images according to the analysis target.

본 발명에서, 상기 촬영 영역을 상기 복수의 분할 영역들로 분할하는 단계는, 상기 관객들의 수와 기준값을 비교하는 단계; 및 상기 관객들의 수가 상기 기준값보다 작거나 같은 경우, 상기 관객들의 수에 따라 상기 촬영 영역을 상기 복수의 분할 영역들로 분할하는 단계를 포함하고, 상기 복수의 분할 영역들 각각은, 한명의 관객의 얼굴이 나타낸다. In the present invention, the step of dividing the photographing area into the plurality of divided areas may include comparing the number of audiences and a reference value; And when the number of audiences is less than or equal to the reference value, dividing the photographing area into the plurality of divided areas according to the number of audiences, wherein each of the plurality of divided areas is a face of one audience. This indicates.

본 발명에서, 상기 촬영 영역을 상기 복수의 분할 영역들로 분할하는 단계는, 상기 관객들의 수가 상기 기준값보다 큰 경우, 사용자로부터 분할 영역들의 수를 입력받고, 입력받은 상기 분할 영역의 수에 따라 상기 촬영 영역을 상기 복수의 분할 영역들로 분할하는 단계를 더 포함한다. In the present invention, the step of dividing the photographing area into the plurality of divided areas comprises, when the number of audiences is greater than the reference value, the number of divided areas is input from a user, and the number of divided areas is input according to the number of divided areas. And dividing the photographing area into the plurality of divided areas.

본 발명에서, 상기 촬영 영역을 상기 복수의 분할 영역들로 분할하는 단계는, 상기 관객들의 수가 상기 기준값보다 큰 경우, 서로 인접한 관객들끼리 그룹핑하고, 생성된 그룹들의 수에 따라 상기 촬영 영역을 상기 복수의 분할 영역들로 분할하는 단계를 더 포함한다. In the present invention, the step of dividing the photographing region into the plurality of divided regions comprises, when the number of viewers is greater than the reference value, grouping adjacent viewers with each other, and separating the photographing region according to the number of created groups. It further includes dividing into a plurality of divided regions.

본 발명에서, 상기 저장된 복수의 제2 영상들을 전송하는 단계는, 상기 저장 단위 시간을 결정하는 단계; 상기 복수의 제2 영상들을 저장하는 동안, 상기 저장 단위 시간을 카운트하는 단계; 및 상기 저장 단위 시간이 도과한 경우, 상기 저장된 복수의 제2 영상들을 전송하는 단계를 포함하고, 상기 촬영 기간이 도과하지 않은 경우, 상기 저장 단위 시간을 카운트하는 단계로 다시 진행한다.In the present invention, the transmitting of the stored plurality of second images may include determining the storage unit time; Counting the storage unit time while storing the plurality of second images; And transmitting the plurality of stored second images when the storage unit time has elapsed, and when the photographing period has not elapsed, proceeds to counting the storage unit time again.

본 발명에서, 상기 저장 단위 시간을 결정하는 단계는, 사용자로부터 상기 저장 단위 시간을 입력받는다.In the present invention, determining the storage unit time includes receiving the storage unit time from a user.

본 발명에서, 상기 저장 단위 시간을 결정하는 단계는, 상기 복수의 제2 영상들의 용량이 상기 영상 분석 장치의 최대 처리 용량 이하로 설정되도록 상기 저장 단위 시간을 결정한다.In the present invention, in the determining of the storage unit time, the storage unit time is determined so that the capacity of the plurality of second images is set to be less than or equal to the maximum processing capacity of the image analyzing apparatus.

본 발명에서, 상기 촬영 기간은 상기 분석 기간에 부분적으로 중첩된다.In the present invention, the photographing period partially overlaps the analysis period.

본 발명에서, 상기 촬영 기간 및 상기 분석 기간은 서로 동일하다.In the present invention, the photographing period and the analysis period are the same as each other.

본 발명의 실시예에 따른 감정 분석 시스템 및 이의 동작 방법은 영상 컨텐츠가 상영되는 동안 관객들을 촬영하여, 관객들의 표정 및 행동 패턴을 기초로 감정을 분석할 수 있다.The emotion analysis system and its operation method according to an embodiment of the present invention may capture audiences while video content is being screened, and analyze emotions based on their facial expressions and behavior patterns.

또한, 본 발명의 실시예에 따른 감정 분석 시스템 및 이의 동작 방법은 얼굴 영상을 얼굴 인식 결과에 따라 복수의 분할 영상들로 분할하여 영상 분석 장치로 전송함으로써, 분석 속도를 향상시킬 수 있다.In addition, the emotion analysis system and the operation method thereof according to an exemplary embodiment of the present invention may improve analysis speed by dividing a face image into a plurality of divided images according to a face recognition result and transmitting the divided images to the image analysis apparatus.

또한, 본 발명의 실시예에 따른 감정 분석 시스템 및 이의 동작 방법은 영상 분석 장치가 복수의 분할 영상들에 대하여 병렬로 분석을 수행함으로써 분석 속도를 향상시킬 수 있다.In addition, the emotion analysis system and the operation method thereof according to an embodiment of the present invention can improve the analysis speed by the image analysis apparatus performing analysis on a plurality of divided images in parallel.

또한, 본 발명의 실시예에 따른 감정 분석 시스템 및 이의 동작 방법은 영상 컨텐츠가 상영되는 동안 분석을 완료할 수 있다.In addition, the emotion analysis system and the operation method thereof according to an embodiment of the present invention may complete the analysis while the video content is being screened.

본 발명에서 얻을 수 있는 효과는 상기 효과들에 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The effects obtainable in the present invention are not limited to the above effects, and other effects that are not mentioned will be clearly understood by those of ordinary skill in the art from the following description.

도 1 및 도 2는 본 발명의 실시예에 따른 감정 분석 시스템을 나타내는 도면이다.
도 3은 본 발명의 실시예에 따른 영상 처리 장치를 나타내는 도면이다.
도 4는 본 발명의 실시예에 따른 분할부를 나타내는 도면이다.
도 5 내지 도 7은 본 발명의 실시예에 따른 분할부의 동작을 나타내는 도면이다.
도 8은 본 발명의 실시예에 다른 전송부를 나타내는 도면이다.
도 9 내지 도 11은 본 발명의 실시예에 따른 감정 분석 시스템의 동작을 나타내는 타이밍도이다.
도 12는 본 발명의 실시예에 따른 감정 정보를 나타내는 도면이다.
도 13은 본 발명의 실시예에 따른 감정 분석 시스템의 동작 방법을 나타내는 순서도이다.
도 14는 본 발명의 실시예에 따른 감정 분석 시스템의 동작 방법을 상세하게 나타내는 순서도이다.
도 15는 본 발명의 실시예에 따른 감정 분석 시스템의 동작 방법을 상세하게 나타내는 순서도이다.
도 16는 본 발명의 실시예에 따른 감정 분석 시스템의 동작 방법을 상세하게 나타내는 순서도이다.
도 17는 본 발명의 실시예에 따른 감정 분석 시스템의 동작 방법을 상세하게 나타내는 순서도이다.
1 and 2 are diagrams illustrating an emotion analysis system according to an embodiment of the present invention.
3 is a diagram illustrating an image processing apparatus according to an embodiment of the present invention.
4 is a view showing a division unit according to an embodiment of the present invention.
5 to 7 are diagrams showing the operation of the dividing unit according to an embodiment of the present invention.
8 is a diagram illustrating a transmission unit according to an embodiment of the present invention.
9 to 11 are timing diagrams showing the operation of the emotion analysis system according to an embodiment of the present invention.
12 is a diagram showing emotion information according to an embodiment of the present invention.
13 is a flowchart illustrating a method of operating an emotion analysis system according to an embodiment of the present invention.
14 is a flowchart illustrating in detail a method of operating an emotion analysis system according to an embodiment of the present invention.
15 is a flowchart illustrating in detail a method of operating an emotion analysis system according to an embodiment of the present invention.
16 is a flowchart illustrating in detail a method of operating the emotion analysis system according to an embodiment of the present invention.
17 is a flowchart illustrating in detail an operating method of the emotion analysis system according to an embodiment of the present invention.

본 발명을 더욱 상세히 설명한다.The present invention will be described in more detail.

이하 첨부한 도면을 참고하여 본 발명의 실시예 및 그 밖에 당업자가 본 발명의 내용을 쉽게 이해하기 위하여 필요한 사항에 대하여 상세히 기재한다. 다만, 본 발명은 청구범위에 기재된 범위 안에서 여러 가지 상이한 형태로 구현될 수 있으므로 하기에 설명하는 실시예는 표현 여부에 불구하고 예시적인 것에 불과하다.Hereinafter, embodiments of the present invention and other matters necessary for a person skilled in the art to easily understand the contents of the present invention will be described in detail with reference to the accompanying drawings. However, since the present invention may be implemented in various different forms within the scope of the claims, the embodiments described below are merely exemplary regardless of whether or not they are expressed.

동일한 도면부호는 동일한 구성요소를 지칭한다. 또한, 도면들에 있어서, 구성요소들의 두께, 비율, 및 치수는 기술적 내용의 효과적인 설명을 위해 과장된 것이다. "및/또는"은 연관된 구성들이 정의할 수 있는 하나 이상의 조합을 모두 포함할 수 있다.The same reference numerals refer to the same elements. In addition, in the drawings, thicknesses, ratios, and dimensions of components are exaggerated for effective description of technical content. "And/or" may include all combinations of one or more that the associated configurations may define.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.Terms such as first and second may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another component. For example, without departing from the scope of the present invention, a first element may be referred to as a second element, and similarly, a second element may be referred to as a first element. Singular expressions may include plural expressions unless the context clearly indicates otherwise.

또한, "아래에", "하측에", "위에", "상측에" 등의 용어는 도면에 도시된 구성들의 연관관계를 설명하기 위해 사용된다. 상기 용어들은 상대적인 개념으로, 도면에 표시된 방향을 기준으로 설명된다.In addition, terms such as “below”, “lower”, “above”, and “upper” are used to describe the relationship between the components shown in the drawings. The terms are relative concepts and are described based on the directions indicated in the drawings.

"포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features, numbers, or steps. It is to be understood that it does not preclude the possibility of addition or presence of, operations, components, parts, or combinations thereof.

즉, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 이하의 설명에서 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라 그 중간에 다른 소자를 사이에 두고 전기적으로 연결되어 있는 경우도 포함할 수 있다. 또한, 도면에서 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 참조번호 및 부호로 나타내고 있음에 유의해야 한다. That is, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms. In the following description, when a certain part is connected to another part, it is directly connected. In addition, it may include a case in which the device is electrically connected with another element interposed therebetween. In addition, it should be noted that the same components in the drawings are indicated by the same reference numerals and reference numerals as much as possible, even if they are indicated on different drawings.

도 1 및 도 2는 본 발명의 실시예에 따른 감정 분석 시스템(10)을 나타내는 도면이다. 1 and 2 are diagrams illustrating an emotion analysis system 10 according to an exemplary embodiment of the present invention.

도 1 및 도 2를 참조하면, 감정 분석 시스템(10)은 영상 촬영 장치(100), 영상 처리 장치(200), 및 영상 분석 장치(300)를 포함할 수 있다. 1 and 2, the emotion analysis system 10 may include an image capturing apparatus 100, an image processing apparatus 200, and an image analysis apparatus 300.

영상 촬영 장치(100)는 관객들을 촬영 기간 동안 촬영할 수 있다. 예컨대, 관객들은 TV, 영화, 연극, 뮤지컬, 공연 등의 모든 종류의 영상을 관람할 수 있으며, 본 발명이 이에 제한되는 것은 아니다. 관객들이 영화관에서 영화를 관람하는 경우, 영상 촬영 장치(100)는 관객석(AS)에 앉은 관객들의 얼굴(AF)을 촬영할 수 있다. 일반적으로, 영화관에는 200개 또는 그 이상의 관객석이 배치될 수 있다. 예컨대, 영상 촬영 장치(100)는 영상 처리 장치(200)로부터 수신한 촬영 제어 정보에 기초하여, 촬영을 하고, 제1 영상(즉, 기본 영상)을 생성할 수 있다. 즉, 제1 영상은 영화를 관람하는 관객들을 촬영한 영상일 수 있다. 예컨대, 촬영 제어 정보는 영상 촬영 장치(100)의 촬영 기간, 해상도, 프레임 레이트(frame rate) 및 코덱(codec) 중 적어도 하나를 포함할 수 있다. 실시예에 따라, 영상 촬영 장치(100)는 적어도 하나의 카메라(camera)를 포함할 수 있다. The image photographing apparatus 100 may photograph the audience during the photographing period. For example, audiences may view all types of images such as TV, movies, plays, musicals, and performances, and the present invention is not limited thereto. When audiences watch a movie in a movie theater, the image capturing apparatus 100 may photograph the faces AF of the audience seated in the audience seat AS. In general, 200 or more audience seats may be arranged in a movie theater. For example, the image capturing device 100 may take a picture based on the capturing control information received from the image processing device 200 and generate a first image (ie, a basic image). That is, the first image may be an image photographing audiences watching a movie. For example, the capturing control information may include at least one of a capturing period, a resolution, a frame rate, and a codec of the image capturing apparatus 100. Depending on the embodiment, the image capturing apparatus 100 may include at least one camera.

영상 처리 장치(200)는 제1 영상을 복수의 제2 영상(즉, 분할 영상)들로 분할하고, 복수의 제2 영상들을 저장할 수 있다. 그리고, 영상 처리 장치(200)는 복수의 제2 영상들을 영상 분석 장치(300)로 전송할 수 있다. 이때, 영상 처리 장치(200)는 영상 분석 장치(300)로 저장 단위 시간에 따라 전송할 수 있다. 이를 통해, 본 발명의 실시예에 따른 영상 처리 장치(200)는 관객의 관람이 종료되기 전에 미리 제1 영상을 복수의 제2 영상들로 분할하고, 영상 분석 장치(300)로 저장 단위 시간에 따라 전송함으로써, 분석 속도를 비약적으로 향상시킬 수 있다. 영상 처리 장치(200)에 관한 상세한 내용은 도 3에서 설명된다. The image processing apparatus 200 may divide the first image into a plurality of second images (ie, divided images) and store the plurality of second images. In addition, the image processing apparatus 200 may transmit a plurality of second images to the image analysis apparatus 300. In this case, the image processing apparatus 200 may transmit to the image analysis apparatus 300 according to a storage unit time. Through this, the image processing apparatus 200 according to an embodiment of the present invention divides the first image into a plurality of second images in advance before the viewer's viewing ends, and stores the first image in the image analysis device 300 in a unit time. By sending along, the analysis speed can be dramatically improved. Details of the image processing apparatus 200 will be described with reference to FIG. 3.

영상 분석 장치(300)는 영상 처리 장치(200)로부터 수신한 영상에 대하여, 감정 분석을 수행할 수 있다. 특히, 영상 분석 장치(300)는 분석 기간 동안 수신한 복수의 영상들에 대하여 병렬로 감정 분석을 수행할 수 있다. 그리고, 영상 분석 장치(300)는 감정 분석을 통해 감정 정보를 생성할 수 있다. 예컨대, 감정 정보는 사람의 무관심, 지겨움, 기쁨, 분노, 슬픔, 즐거움, 공포, 사랑, 혐오, 증오, 욕망 등의 일반 감정들 중 어느 하나를 포함할 수 있고, 각 상응하는 감정에 대한 정도를 퍼센트로 나타낸 수치를 더 포함할 수 있다. The image analysis apparatus 300 may perform emotion analysis on an image received from the image processing apparatus 200. In particular, the image analysis apparatus 300 may perform emotion analysis on a plurality of images received during the analysis period in parallel. In addition, the image analysis apparatus 300 may generate emotion information through emotion analysis. For example, the emotional information may include any one of general emotions such as indifference, boredom, joy, anger, sadness, joy, fear, love, disgust, hate, desire, etc. of a person, and the degree of each corresponding emotion It may further include a number expressed as a percentage.

즉, 영상 분석 장치(300)는 복수의 제2 영상들 각각에 포함된 관객들의 얼굴(AF)의 표정 또는 관객들의 행동 패턴(예컨대, 하품, 대화, 자리 비움, 핸드폰 사용 등)을 분석하여, 관객들의 감정을 나타내는 감정 정보를 생성할 수 있다. That is, the image analysis device 300 analyzes the facial expressions of the faces (AF) of the audience included in each of the plurality of second images or the behavioral patterns of the audience (eg, yawning, conversation, away from the room, use of a mobile phone, etc.), It is possible to generate emotional information representing the emotions of the audience.

예컨대, 영상 분석 장치(300)는 관객들의 얼굴(AF)에 나타난 표정의 종류 및 표정이 발생하는 빈도, 그리고 관객들의 행동의 종류 및 행동이 발생하는 빈도를 이용하여, 관객들의 얼굴(AF)에 나타난 표정과 관객들의 행동 패턴을 분석할 수 있다. For example, the image analysis device 300 uses the types of facial expressions displayed on the faces of the viewers AF and the frequency of occurrence of the facial expressions, and the types of behaviors and the frequency of occurrences of the viewers' faces. You can analyze the facial expressions that appear and the behavior patterns of the audience.

이때, 감정 정보는 복수의 제2 영상들에 대하여 각각 생성될 수 있다. 영상 분석 장치(300)는 생성된 감정 정보를 영상 처리 장치(200)로 전송할 수 있다. 실시예에 따라, 영상 분석 장치(300)는 별도의 서버 장치로 구현될 수 있다. 그러나, 본 발명이 이에 한정되는 것은 아니며, 실시예에 따라, 영상 분석 장치(300)는 감정 분석 시스템(10)의 일 장치로서 구현될 수 있다.In this case, emotion information may be generated for each of the plurality of second images. The image analysis device 300 may transmit the generated emotion information to the image processing device 200. Depending on the embodiment, the image analysis device 300 may be implemented as a separate server device. However, the present invention is not limited thereto, and according to embodiments, the image analysis apparatus 300 may be implemented as an apparatus of the emotion analysis system 10.

영상 촬영 장치(100), 영상 처리 장치(200), 및 영상 분석 장치(300) 중 적어도 둘 이상은 무선 네트워크 또는 유선 네트워크를 통해 데이터/신호를 송수신할 수 있다. 이때, 무선 네트워크 또는 유선 네트워크는 특별히 한정되지 않으며, 본 발명의 목적을 달성하기 위한 범위 내에서 가용한 모든 종류의 네트워크 시스템이 적용될 수 있다. At least two or more of the image capturing apparatus 100, the image processing apparatus 200, and the image analysis apparatus 300 may transmit and receive data/signals through a wireless network or a wired network. In this case, the wireless network or the wired network is not particularly limited, and all types of network systems available within the range for achieving the object of the present invention may be applied.

실시예에 따라, 영상 촬영 장치(100), 영상 처리 장치(200), 및 영상 분석 장치(300) 중 적어도 둘 이상은 통합되어 일체로 구현될 수 있다. Depending on the embodiment, at least two or more of the image capturing apparatus 100, the image processing apparatus 200, and the image analysis apparatus 300 may be integrated and implemented integrally.

도 3은 본 발명의 실시예에 따른 영상 처리 장치(200)를 나타내는 도면이다. 설명의 편의를 위하여, 도 3에서 영상 촬영 장치(100) 및 영상 분석 장치(300)가 함께 도시된다. 3 is a diagram illustrating an image processing apparatus 200 according to an embodiment of the present invention. For convenience of explanation, the image capturing apparatus 100 and the image analysis apparatus 300 are shown together in FIG. 3.

도 3을 참조하면, 영상 처리 장치(200)는 분할부(210), 전송부(220), 제어부(230) 및 통합부(240)를 포함할 수 있다. Referring to FIG. 3, the image processing apparatus 200 may include a division unit 210, a transmission unit 220, a control unit 230, and an integration unit 240.

분할부(210)는 제1 영상(IM1)을 복수의 제2 영상(IM2)들로 분할하고, 복수의 제2 영상(IM2)들을 저장할 수 있다. 즉, 분할부(210)는 제1 영상(IM1)의 촬영 영역을 복수의 분할 영역들로 분할하고, 복수의 분할 영역들 중 적어도 하나를 분석 대상으로 선택할 수 있다. 분할부(210)는 분석 대상에 따라 복수의 제2 영상(IM2)들을 생성하여 저장할 수 있다. 분할부(210)와 관련된 상세한 내용은 도 4에서 설명된다.The dividing unit 210 may divide the first image IM1 into a plurality of second images IM2 and store the plurality of second images IM2. That is, the division unit 210 may divide the photographing area of the first image IM1 into a plurality of divided areas, and select at least one of the plurality of divided areas as an analysis target. The dividing unit 210 may generate and store a plurality of second images IM2 according to an analysis target. Details related to the division unit 210 will be described in FIG. 4.

전송부(220)는 복수의 제2 영상(IM2)들이 저장 단위 시간 동안 저장되면, 저장된 복수의 제2 영상(IM2)들을 영상 분석 장치(300)로 전송할 수 있다. 전송부(220)와 관련된 상세한 내용은 도 8에서 설명된다.When the plurality of second images IM2 are stored for a storage unit time, the transmitter 220 may transmit the stored second images IM2 to the image analysis apparatus 300. Details related to the transmission unit 220 are described in FIG. 8.

제어부(230)는 영상 촬영 장치(100)의 동작을 제어할 수 있다. 즉, 제어부(230)는 촬영 제어 정보(PCI)를 생성하여, 영상 촬영 장치(100)로 전송할 수 있다. 예컨대, 촬영 제어 정보는 영상 촬영 장치(100)의 촬영 기간, 해상도, 프레임 레이트(frame rate) 및 코덱(codec) 중 적어도 하나를 포함할 수 있다.The controller 230 may control the operation of the image capturing apparatus 100. That is, the controller 230 may generate photographing control information (PCI) and transmit it to the image photographing apparatus 100. For example, the capturing control information may include at least one of a capturing period, a resolution, a frame rate, and a codec of the image capturing apparatus 100.

통합부(240)는 영상 분석 장치(300)로부터 감정 정보(EI)를 수신할 수 있다. 감정 정보(EI)는 복수의 제2 영상(IM2)들 각각에 대응한다. 따라서, 통합부(240)는 감정 정보(EI)를 통합하여 제1 영상(IM1)에 대응하는 통합 감정 정보를 생성할 수 있다. The integration unit 240 may receive the emotion information EI from the image analysis device 300. The emotion information EI corresponds to each of the plurality of second images IM2. Accordingly, the integration unit 240 may generate integrated emotion information corresponding to the first image IM1 by integrating the emotion information EI.

도 4는 본 발명의 실시예에 따른 분할부(210)를 나타내는 도면이다. 도 5 내지 도 7은 본 발명의 실시예에 따른 분할부의 동작을 나타내는 도면이다.4 is a diagram illustrating a division part 210 according to an embodiment of the present invention. 5 to 7 are diagrams showing the operation of a division unit according to an embodiment of the present invention.

도 4를 참조하면, 분할부(210)는 얼굴 인식부(211), 분할 영역 설정부(212), 분석 대상 선택부(213) 및 영상 저장부(214)를 포함할 수 있다. Referring to FIG. 4, the segmentation unit 210 may include a face recognition unit 211, a segmentation region setting unit 212, an analysis target selection unit 213, and an image storage unit 214.

얼굴 인식부(211)는 제1 영상에 포함된 관객들의 얼굴을 인식할 수 있다. 그리고, 얼굴 인식부(211)는 얼굴 인식을 통해 관객들의 수를 추출할 수 있다. The face recognition unit 211 may recognize faces of viewers included in the first image. In addition, the face recognition unit 211 may extract the number of audiences through face recognition.

분할 영역 설정부(212)는 관객들의 수와 기준값을 비교할 수 있다. 그리고, 분할 영역 설정부(212)는 비교 결과에 따라 서로 상이한 방식으로 제1 영상의 촬영 영역을 복수의 분할 영역들로 분할할 수 있다. 이때, 기준값은 기 설정된 값으로서, 실시예에 따라 10이하의 값을 가질 수 있다. 이를 통해, 관객들의 수가 기준값 이하인 경우와 초과인 경우 각각에 대하여 분할부(210)의 동작을 달리함으로써, 한정된 성능 자원을 보다 효율적으로 사용할 수 있다. The divided area setting unit 212 may compare the number of audiences and a reference value. In addition, the divided area setting unit 212 may divide the photographing area of the first image into a plurality of divided areas in different ways according to the comparison result. In this case, the reference value is a preset value and may have a value of 10 or less depending on the embodiment. Through this, the operation of the dividing unit 210 is different for the case where the number of spectators is less than or exceeding the reference value, so that limited performance resources can be used more efficiently.

분석 대상 선택부(213)는 복수의 분할 영역들 중 적어도 하나를 분석 대상으로 선택할 수 있다. 즉, 분석 대상 선택부(213)는 복수의 분할 영역들 중에서, 분석이 수행될 영역들을 분석 대상으로 선택할 수 있다. 이때, 분석 대상 선택부(213)는 별도의 사용자 선택 또는 기 설정된 분석 대상에 대한 정보를 이용하여, 복수의 분할 영역들 중에서 분석 대상인 적어도 하나의 분할 영역을 선택할 수 있다. The analysis target selector 213 may select at least one of a plurality of divided regions as an analysis target. That is, the analysis target selector 213 may select, from among a plurality of divided areas, areas to be analyzed as targets for analysis. In this case, the analysis target selector 213 may select at least one divided region as an analysis target from among a plurality of divided regions, using a separate user selection or information on a preset analysis target.

영상 저장부(214)는 분석 대상에 따라 복수의 제2 영상(IM2)들을 저장할 수 있다. 즉, 복수의 제2 영상(IM2)들은 분석 대상으로 선택된 적어도 하나의 분할 영역에 대응할 수 있으며, 영상 저장부(214)는 복수의 제2 영상(IM2)을 저장할 수 있다. 실시예에 따라, 영상 저장부(214)는 별도의 저장 장치(storage device) 또는 클라우드 서버(cloud server)로 구현될 수 있다. The image storage unit 214 may store a plurality of second images IM2 according to an analysis target. That is, the plurality of second images IM2 may correspond to at least one divided region selected as an analysis target, and the image storage unit 214 may store the plurality of second images IM2. Depending on the embodiment, the image storage unit 214 may be implemented as a separate storage device or a cloud server.

도 5는, 관객들의 수가 기준값보다 작거나 같은 경우, 분할부(210)의 동작을 도시한다. 이때, 관객들의 수는 8이고, 기준값은 10인 것으로 가정한다. 5 shows the operation of the division unit 210 when the number of spectators is less than or equal to the reference value. In this case, it is assumed that the number of audiences is 8 and the reference value is 10.

도 3 및 도 5를 참조하면, 얼굴 인식부(211)는 관객들의 얼굴을 인식하여, 관객들의 수를 추출할 수 있다. 분할 영역 설정부(212)는 얼굴 인식부(211)에 의해 추출된 관객들의 수와 기준값을 비교할 수 있다. 3 and 5, the face recognition unit 211 may recognize the faces of audiences and extract the number of audiences. The divided area setting unit 212 may compare the number of spectators extracted by the face recognition unit 211 with a reference value.

관객들의 수가 기준값보다 작으므로, 분할 영역 설정부(212)는 관객들의 수에 따라 촬영 영역(PA)을 복수의 분할 영역들(DA1 내지 DA8)로 분할할 수 있다. 이때, 복수의 분할 영역들(DA1 내지 DA8)은 관객들 각각에 대응하며, 복수의 분할 영역들(DA1 내지 DA8) 각각은 한명의 관객의 얼굴을 나타낼 수 있다.Since the number of audiences is smaller than the reference value, the divided area setting unit 212 may divide the photographing area PA into a plurality of divided areas DA1 to DA8 according to the number of audiences. In this case, the plurality of divided areas DA1 to DA8 correspond to each of the audience, and each of the plurality of divided areas DA1 to DA8 may represent the face of one audience.

각각이 한명의 관객의 얼굴을 나타내는 분할 영역들에 따라 생성된 제2 영상들에 대하여 영상 분석 장치가 분석을 수행하므로, 하나의 영상에 다수의 관객들의 얼굴들이 포함되는 경우보다 정확도 및 신뢰도가 향상될 수 있다. 따라서, 상술한 방식을 통해, 본 발명의 실시예에 따른 감정 분석 시스템 및 이의 동작 방법은, 관객들의 수가 일정 수 이하인 경우, 관객들 각각에 대하여 영상을 생성하고 분석을 수행함으로써, 분석 정확도와 신뢰도를 향상시킬 수 있다. Since the image analysis device analyzes the second images, each of which is generated according to the divided regions representing one viewer's face, accuracy and reliability will be improved compared to the case where multiple viewers' faces are included in one image. I can. Accordingly, through the above-described method, the emotion analysis system and its operation method according to an embodiment of the present invention, when the number of audiences is less than a certain number, generate an image for each of the audiences and perform analysis, thereby analyzing accuracy and reliability. Can improve.

도 6은, 관객들의 수가 기준값보다 큰 경우, 분할부(210)의 동작을 도시한다. 이때, 관객들의 수는 적어도 30 이상이고, 기준값은 10인 것으로 가정한다. 그리고, 관객들은 관객석에 고르게 분포한 것으로 가정한다. 6 shows the operation of the division unit 210 when the number of spectators is greater than the reference value. In this case, it is assumed that the number of audiences is at least 30 and the reference value is 10. And, it is assumed that the audience is evenly distributed in the audience seats.

도 3 및 도 6을 참조하면, 얼굴 인식부(211)는 관객들의 얼굴을 인식하여, 관객들의 수를 추출할 수 있다. 분할 영역 설정부(212)는 얼굴 인식부(211)에 의해 추출된 관객들의 수와 기준값을 비교할 수 있다.3 and 6, the face recognition unit 211 may recognize the faces of audiences and extract the number of audiences. The divided area setting unit 212 may compare the number of spectators extracted by the face recognition unit 211 with a reference value.

관객들의 수가 기준값보다 크므로, 분할 영역 설정부(212)는 사용자로부터 분할 영역들의 수를 입력받을 수 있다. 즉, 사용자는 분할 영역들의 수를 임의로 설정하여 입력할 수 있다. 그러나 본 발명이 이에 한정되는 것은 아니며, 실시예에 따라, 분할 영역의 수는 기 설정된 수로 설정될 수 있다. Since the number of audiences is greater than the reference value, the divided area setting unit 212 may receive the number of divided areas from the user. That is, the user can arbitrarily set and input the number of divided areas. However, the present invention is not limited thereto, and according to embodiments, the number of divided regions may be set to a preset number.

분할 영역 설정부(212)는 사용자로부터 입력받은 분할 영역들의 수에 따라, 촬영 영역(PA)을 복수의 분할 영역들(DA1 내지 DA4)로 분할할 수 있다. 이때, 복수의 분할 영역들(DA1 내지 DA4)은 관객들의 좌석 배치에 기초한 다수의 관객들에 대응하며, 복수의 분할 영역들(DA1 내지 DA4) 각각은 다수의 관객들의 얼굴들을 나타낼 수 있다.The divided area setting unit 212 may divide the photographing area PA into a plurality of divided areas DA1 to DA4 according to the number of divided areas input from the user. In this case, the plurality of divided areas DA1 to DA4 correspond to a plurality of audiences based on the seating arrangement of the audience, and each of the plurality of divided areas DA1 to DA4 may represent faces of a plurality of audiences.

예컨대, 분할 영역 설정부(212)는 사용자로부터 4의 분할 영역의 수를 입력받고, 촬영 영역(PA)에 대하여 1개의 가로선 또는 세로선을 설정함으로써, 4개의 분할 영역들을 설정할 수 있다. 그에 따라, 촬영 영역(PA)은 다수의 관객들을 나타내는 4개의 분할 영역(DA1 내지 DA4)로 분할될 수 있다. For example, the divided area setting unit 212 may set four divided areas by receiving the number of divided areas of 4 from the user and setting one horizontal line or vertical line for the photographing area PA. Accordingly, the photographing area PA may be divided into four divided areas DA1 to DA4 representing a plurality of audiences.

다수의 관객들의 얼굴들을 나타내는 분할 영역들에 따라 생성된 제2 영상들에 대하여 연상 분석 장치가 분석을 수행하므로, 하나의 영상에 하나의 관객의 얼굴이 포함되는 경우보다 분석 속도가 향상될 수 있다. 따라서, 상술한 방식을 통해, 본 발명의 실시예에 따른 감정 분석 시스템 및 이의 동작 방법은, 관객의 수가 일정 수 이상인 경우, 다수의 관객들에 대하여 영상을 생성하고 분석을 수행함으로써, 분석 속도를 향상시킬 수 있다. Since the association analysis device analyzes the second images generated according to the divided regions representing the faces of a plurality of viewers, the analysis speed may be improved compared to the case where one viewer's face is included in one image. . Therefore, through the above-described method, the emotion analysis system and its operation method according to an embodiment of the present invention, when the number of spectators is more than a certain number, generate an image for a plurality of spectators and perform analysis, thereby increasing the analysis speed. Can be improved.

도 7은, 관객들의 수가 기준값보다 큰 경우, 분할부(210)의 동작을 도시한다. 도 7은 도 6에 도시된 실시예와 다른 실시예를 도시한다. 도 6 및 도 7에 도시된 실시예들 사이의 차이점은 아래에서 설명된다. 이때, 관객들의 수는 20명이고, 기준값은 10인 것으로 가정한다. 그리고, 관객들은 관객석에 고르지 않게 분포된 것으로 가정한다. 7 shows the operation of the division unit 210 when the number of spectators is greater than the reference value. 7 shows an embodiment different from the embodiment shown in FIG. 6. The differences between the embodiments shown in FIGS. 6 and 7 are described below. In this case, it is assumed that the number of spectators is 20 and the reference value is 10. And, it is assumed that the audience is unevenly distributed in the audience seats.

도 3 및 도 7을 참조하면, 얼굴 인식부(211)는 관객들의 얼굴을 인식하여, 관객들의 수를 추출할 수 있다. 분할 영역 설정부(212)는 얼굴 인식부(211)에 의해 추출된 관객들의 수와 기준값을 비교할 수 있다.3 and 7, the face recognition unit 211 may recognize the faces of audiences and extract the number of audiences. The divided area setting unit 212 may compare the number of spectators extracted by the face recognition unit 211 with a reference value.

관객들의 수가 기준값보다 크므로, 분할 영역 설정부(212)는 서로 인접한 관객들끼리 그룹핑할 수 있다. 즉, 분할 영역 설정부(212)는 서로 인접한 관객들에 대하여 그룹을 설정할 수 있다. Since the number of audiences is greater than the reference value, the divided area setting unit 212 may group adjacent audiences with each other. That is, the divided area setting unit 212 may set a group for audiences adjacent to each other.

실시예에 따라, 분할 영역 설정부(212)는 K-최근접 이웃 알고리즘(K-nearest neighbors algorithm) 또는 K-평균 알고리즘(K-means algorithm)을 이용하여, 서로 인접한 관객들끼리 그룹핑할 수 있다. 이때, K-최근접 이웃 알고리즘은, 데이터의 특성값(예컨대, 좌석 위치)에 따라 지역적으로 근접한 데이터를 분류하는 알고리즘이다. K-평균 알고리즘은, 주어진 데이터를 K개의 클러스터(cluster)로 묶은 알고리즘으로, 각 클러스터와 거리 차이의 분산을 최소화하는 방식으로 동작할 수 있다. According to an embodiment, the segmentation region setting unit 212 may group audiences adjacent to each other using a K-nearest neighbors algorithm or a K-means algorithm. . In this case, the K-nearest neighbor algorithm is an algorithm that classifies locally adjacent data according to a characteristic value of the data (eg, seat position). The K-means algorithm is an algorithm that combines given data into K clusters, and can operate in a manner that minimizes the variance of the difference between each cluster and the distance.

분할 영역 설정부(212)는 설정된 그룹들의 수에 따라, 촬영 영역(PA)을 복수의 분할 영역들(DA1 내지 DA5)로 분할할 수 있다. 이때, 복수의 분할 영역들(DA1 내지 DA5)은 인접한 관객들에 대응하며, 복수의 분할 영역들(DA1 내지 DA5) 각각은 인접한 관객들의 얼굴들을 나타낼 수 있다.The divided area setting unit 212 may divide the photographing area PA into a plurality of divided areas DA1 to DA5 according to the set number of groups. In this case, the plurality of divided areas DA1 to DA5 correspond to adjacent audiences, and each of the plurality of divided areas DA1 to DA5 may represent faces of adjacent audiences.

예컨대, 분할 영역 설정부(212)는 인접한 관객들을 포함하는 5개의 그룹들을 설정하고, 설정된 그룹들의 수에 따라 각 그룹에 대응하는 복수의 분할 영역들을 설정할 수 있다. 그에 따라, 촬영 영역(PA)은 인접한 관객들의 그룹을 나타내는 5개의 분할 영역(DA1 내지 DA5)로 분할될 수 있다. For example, the divided area setting unit 212 may set five groups including adjacent audiences, and may set a plurality of divided areas corresponding to each group according to the set number of groups. Accordingly, the photographing area PA may be divided into five divided areas DA1 to DA5 representing groups of adjacent audiences.

다수의 관객들의 얼굴들을 나타내는 분할 영역들에 따라 생성된 제2 영상들에 대하여 연상 분석 장치가 분석을 수행하므로, 하나의 영상에 하나의 관객의 얼굴이 포함되는 경우보다 분석 속도가 향상될 수 있다. 따라서, 상술한 방식을 통해, 본 발명의 실시예에 따른 감정 분석 시스템 및 이의 동작 방법은, 관객의 수가 일정 수 이상인 경우, 다수의 관객들에 대하여 영상을 생성하고 분석을 수행함으로써, 분석 속도를 향상시킬 수 있다.Since the association analysis device analyzes the second images generated according to the divided regions representing the faces of a plurality of viewers, the analysis speed may be improved compared to the case where one viewer's face is included in one image. . Therefore, through the above-described method, the emotion analysis system and its operation method according to an embodiment of the present invention, when the number of spectators is more than a certain number, generate an image for a plurality of spectators and perform analysis, thereby increasing the analysis speed. Can be improved.

또한, 관객들이 고르지 않게 분포된 경우, 도 6에 도시된 실시예에 따라 분할 영역들을 설정하게 되면, 하나의 제2 영상에 빈좌석이 다수 포함되게 되어 정확성 및 신뢰성이 감소될 수 있다. 따라서, 도 7에 도시된 실시예에 따라 분할 영역들을 설정하는 경우, 하나의 제2 영상에 빈좌석을 최소화함으로써, 정확성 및 신뢰성이 과도하고 감소하는 것을 방지할 수 있다. In addition, when the audience is unevenly distributed, if the divided regions are set according to the exemplary embodiment illustrated in FIG. 6, a plurality of empty seats are included in one second image, so that accuracy and reliability may be reduced. Accordingly, in the case of setting the divided regions according to the exemplary embodiment illustrated in FIG. 7, by minimizing empty seats in one second image, it is possible to prevent excessive and decrease in accuracy and reliability.

실시예에 따라, 도 6 및 도 7에 도시된 실시예들은 통합되어 하나로 구현될 수 있다. 즉, 관객들의 수가 일정한 수 이상일 때, 분할부(210)는 관객들의 분포를 분석하여, 관객들의 분포도에 따라 도 6의 실시예와 도 7의 실시예를 다르게 채용할 수 있다. Depending on the embodiment, the embodiments shown in FIGS. 6 and 7 may be integrated and implemented as one. That is, when the number of spectators is greater than or equal to a certain number, the division unit 210 may analyze the distribution of spectators and adopt the embodiment of FIG. 6 differently from the embodiment of FIG.

도 8은 본 발명의 실시예에 따른 전송부(220)를 나타내는 도면이다.8 is a diagram illustrating a transmission unit 220 according to an embodiment of the present invention.

도 8을 참조하면, 전송부(220)는 결정부(221), 카운터(222) 및 영상 전송부(223)를 포함할 수 있다. Referring to FIG. 8, the transmission unit 220 may include a determination unit 221, a counter 222, and an image transmission unit 223.

결정부(221)는 저장 단위 시간을 결정할 수 있다. 실시예에 따라, 결정부(221)는 저장 단위 시간을 사용자로부터 입력받을 수 있다. 예컨대, 결정부(221)는 단위 시간을 나타내는 사용자의 입력 내용에 기초하여 저장 단위 시간을 결정할 수 있다. 이를 통해, 본 발명의 실시예에 따른 감정 분석 시스템 및 이의 동작 방법은 사용자 편의성을 향상시킬 수 있다. The determiner 221 may determine the storage unit time. According to an embodiment, the determiner 221 may receive a storage unit time input from a user. For example, the determiner 221 may determine the storage unit time based on the user's input indicating the unit time. Through this, the emotion analysis system and the operation method thereof according to an embodiment of the present invention can improve user convenience.

다른 실시예에 따라, 결정부(221)는 저장 단위 시간을 복수의 제2 영상들의 용량이 영상 분석 장치(300, 도 1 참조)의 최대 처리 용량 이하로 설정되도록 결정할 수 있다. 즉, 영상 분석 장치(300)는 처리 가능한 영상의 용량 제한이 있을 수 있고, 영상의 용량은 촬영 기간, 해상도, 프레임 레이트(frame rate) 및 코덱(codec) 등에 의해 결정될 수 있다. 따라서, 결정부(221)는 영상 분석 장치(300)의 최대 처리 용량을 초과하지 않도록, 저장 단위 시간을 결정하고, 영상 분석 장치(300)는 저장 단위 시간 단위로 영상들을 수신할 수 있다.According to another embodiment, the determiner 221 may determine the storage unit time to be set to a capacity of a plurality of second images equal to or less than the maximum processing capacity of the image analyzing apparatus 300 (see FIG. 1 ). That is, the image analysis apparatus 300 may have a limit on the capacity of an image that can be processed, and the capacity of the image may be determined by a shooting period, a resolution, a frame rate, a codec, and the like. Accordingly, the determiner 221 may determine a storage unit time so as not to exceed the maximum processing capacity of the image analysis apparatus 300, and the image analysis apparatus 300 may receive images in a storage unit time unit.

카운터(222)는 복수의 제2 영상들을 저장하는 동안 저장 단위 시간을 카운트할 수 있다. 즉, 카운터(222)는 분할부(210, 도 4 참조)의 영상 저장부(214)가 복수의 제2 영상들을 저장하는 동안 저장 단위 시간을 카운트할 수 있다. 카운터(222)는 카운트 결과에 따라, 저장 단위 시간이 도과하는 경우, 영상 전송부(223)로 신호를 전송할 수 있다. 그리고, 카운터(222)는 촬영 기간이 도과하지 않은 경우 저장 단위 시간을 다시 카운트할 수 있고, 촬영 기간이 도과한 경우 카운트를 중지할 수 있다. 따라서, 카운터(222)는 촬영 기간 동안 저장 단위 시간을 반복적으로 카운터할 수 있다. The counter 222 may count the storage unit time while storing the plurality of second images. That is, the counter 222 may count the storage unit time while the image storage unit 214 of the dividing unit 210 (refer to FIG. 4) stores a plurality of second images. The counter 222 may transmit a signal to the image transmission unit 223 when the storage unit time elapses according to the count result. In addition, the counter 222 may count the storage unit time again when the shooting period has not elapsed, and may stop counting when the shooting period has elapsed. Accordingly, the counter 222 may repeatedly counter the storage unit time during the photographing period.

영상 전송부(223)는 저장 단위 시간이 도과한 경우, 저장된 복수의 제2 영상들을 영상 분석 장치(300)로 전송할 수 있다. 즉, 영상 전송부(223)는 카운터(222)의 신호에 따라 저장 단위 시간이 도과한지 여부를 판단하고, 저장 단위 시간이 도과하는 경우, 영상 저장부(214, 도 4 참조)에 저장된 복수의 제2 영상(IM2)들을 영상 분석 장치(300)로 전송할 수 있다. When the storage unit time has elapsed, the image transmission unit 223 may transmit a plurality of stored second images to the image analysis apparatus 300. That is, the image transmission unit 223 determines whether the storage unit time has passed according to the signal of the counter 222, and when the storage unit time has passed, the plurality of images stored in the image storage unit 214 (refer to FIG. 4). The second images IM2 may be transmitted to the image analysis apparatus 300.

도 9는 본 발명의 일 실시예에 따른 감정 분석 시스템의 동작을 나타내는 타이밍도이다. 9 is a timing diagram illustrating the operation of the emotion analysis system according to an embodiment of the present invention.

도 1 내지 도 9를 참조하면, 관객들은 러닝 타임(RT) 동안 상영되는 영상 컨텐츠를 관람할 수 있다. Referring to FIGS. 1 to 9, audiences may view video content screened during the running time (RT).

그리고, 영상 촬영 장치(100)는 영상 컨텐츠를 관람하는 관객들을 촬영 기간(PT)동안 촬영하여 제1 영상(IM1)을 생성할 수 있다. 도 9 내지 도 11에서 러닝 타임(RT) 및 촬영 기간(PT)이 동일한 것으로 도시되었으나, 본 발명이 이에 한정되는 것은 아니다. 실시예에 따라 러닝 타임(RT) 및 촬영 기간(PT)은 상이할 수 있다. In addition, the image capturing apparatus 100 may generate a first image IM1 by photographing audiences viewing the image content during the capturing period PT. In FIGS. 9 to 11, the running time (RT) and the photographing period (PT) are illustrated as being the same, but the present invention is not limited thereto. Depending on the embodiment, the running time (RT) and the photographing period (PT) may be different.

영상 처리 장치(200)는 제1 영상(IM1)을 복수의 제2 영상(IM2)들로 분할하고, 복수의 제2 영상(IM2)들을 저장 단위 시간(ST)에 따라 전송할 수 있다. 즉, 영상 처리 장치(200)는 복수의 제2 영상(IM2)들을 저장 단위 시간(ST) 마다 영상 분석 장치(300)로 전송할 수 있다. The image processing apparatus 200 may divide the first image IM1 into a plurality of second images IM2 and transmit the plurality of second images IM2 according to a storage unit time ST. That is, the image processing apparatus 200 may transmit the plurality of second images IM2 to the image analysis apparatus 300 every storage unit time ST.

영상 분석 장치(300)는 복수의 제2 영상(IM2)을 저장 단위 시간(ST)마다 전송받고, 복수의 제2 영상(IM2)들에 나타난 관객들의 얼굴 표정 또는 행동 패턴을 분석 기간(AD)동안 분석할 수 있다. 도 9에 도시된 실시예와 같이, 영상 분석 장치(300)는 저장 단위 시간(ST)마다 전송되는 복수의 제2 영상(IM2)들을 분석하여, 감정 정보(EI)를 생성할 수 있다. 도 9에 도시된 실시예에 따라, 촬영 기간(PT)은 분석 기간(AD)에 부분적으로 중첩될 수 있다. 즉, 분석 기간(AD)은 촬영 기간(PT)에 대하여 저장 단위 시간(ST)만큼 지연된 기간일 수 있다. 상술한 방식을 통해 본 발명의 실시예에 따른 감정 분석 시스템 및 이의 동작 방법은, 관객들이 영상 컨텐츠를 관람하는 동안 영상 분석을 수행함으로써, 분석 속도를 개선할 수 있다.The image analysis apparatus 300 receives a plurality of second images IM2 every storage unit time ST, and analyzes the facial expressions or behavior patterns of the viewers displayed in the plurality of second images IM2 during the analysis period AD. While you can analyze. 9, the image analysis apparatus 300 may generate emotion information EI by analyzing a plurality of second images IM2 transmitted every storage unit time ST. According to the embodiment illustrated in FIG. 9, the photographing period PT may partially overlap the analysis period AD. That is, the analysis period AD may be a period delayed by the storage unit time ST with respect to the photographing period PT. Through the above-described method, the emotion analysis system and the operation method thereof according to an embodiment of the present invention can improve the analysis speed by performing image analysis while viewers are viewing the image content.

도 10은 본 발명의 다른 실시예에 따른 감정 분석 시스템의 동작을 나타내는 타이밍도이다. 설명의 중복을 방지하기 위하여, 도 9에 도시된 실시예와의 차이점을 중심으로 설명한다. 10 is a timing diagram illustrating an operation of an emotion analysis system according to another embodiment of the present invention. In order to prevent duplication of description, a description will be made focusing on differences from the embodiment shown in FIG. 9.

도 1 내지 도 10을 참조하면, 도 10에 도시된 실시예에 따른 감정 분석 시스템(10)의 영상 분석 장치(300)는 저장 단위 시간(ST) 마다 수신한 복수의 제2 영상(IM2)들 중 마지막 저장 단위 시간(ST)에 대응하는 부분에서 대하여 분석을 수행하지 않을 수 있다. 영상 분석 장치(300)의 분석 기간(AD)은 영상 촬영 장치(100)의 촬영 기간(PT)이 종료되는 시점에 종료될 수 있다. 즉, 영상 분석 장치(300)는 임의로 영상 촬영 장치(100)의 촬영 기간(PT)이 종료되는 시점에 분석을 종료할 수 있다. 1 to 10, the image analysis apparatus 300 of the emotion analysis system 10 according to the embodiment illustrated in FIG. 10 includes a plurality of second images IM2 received every storage unit time ST. The analysis may not be performed in the portion corresponding to the last storage unit time ST. The analysis period AD of the image analysis apparatus 300 may be terminated at a point in time when the photographing period PT of the image capture apparatus 100 ends. That is, the image analysis apparatus 300 may optionally terminate the analysis at the point in time when the photographing period PT of the image photographing apparatus 100 ends.

이에 따라, 도 10에 도시된 실시예에 따른 감정 분석 시스템 및 이의 동작 방법은, 도 9에 도시된 실시예에 비하여, 영상 분석 결과를 빠르게 도출하고, 더욱이 영상 컨텐츠의 러닝 타임(RT)이 끝남과 동시에 감정 분석을 종료함으로써, 보다 신속하게 분석 결과를 도출해낼 수 있다. 특히, 본 실시예는 영화 평가 시사회나 공연 리허설 등에 이용될 수 있으며 관람이 종료됨과 동시에 즉각적으로 분석 결과를 알아낼 수 있다는 점에서, 강점을 가질 수 있다. Accordingly, the emotion analysis system and its operation method according to the embodiment shown in FIG. 10 quickly derive the video analysis result, and furthermore, the running time (RT) of the video content ends, compared to the embodiment shown in FIG. 9. At the same time, by terminating the emotion analysis, the analysis result can be derived more quickly. In particular, the present embodiment may be used for a movie evaluation preview or performance rehearsal, and may have an advantage in that an analysis result can be immediately determined when viewing is terminated.

도 11은 본 발명의 또 다른 실시예에 따른 감정 분석 시스템의 동작을 나타내는 타이밍도이다. 설명의 중복을 방지하기 위하여 도 9에 도시된 실시예와의 차이점을 중심으로 설명한다. 11 is a timing diagram illustrating an operation of an emotion analysis system according to another embodiment of the present invention. In order to prevent duplication of description, a description will be made focusing on differences from the embodiment shown in FIG. 9.

도 1 내지 도 11을 참조하면, 도 11에 도시된 실시예에 따른 감정 분석 시스템(10)의 영상 처리 장치(200)는 실시간으로 복수의 제2 영상(IM2)들을 영상 분석 장치(300)로 전송할 수 있다. 즉, 이 경우, 저장 단위 시간(ST)은 실질적으로 0에 해당하는 수로 설정될 수 있다. 이때, 실시간으로 분석이 수행되므로, 영상 분석 장치(300)의 분석 기간(AD)은 영상 촬영 장치(100)의 촬영 기간(PT)과 동일할 수 있다. 1 to 11, the image processing apparatus 200 of the emotion analysis system 10 according to the embodiment illustrated in FIG. 11 converts a plurality of second images IM2 to the image analysis apparatus 300 in real time. Can be transmitted. That is, in this case, the storage unit time ST may be set to a number substantially equal to zero. In this case, since the analysis is performed in real time, the analysis period AD of the image analysis apparatus 300 may be the same as the photographing period PT of the image capturing apparatus 100.

이에 따라, 도 11에 도시된 실시예에 따른 감정 분석 시스템 및 이의 동작 방법은, 도 9에 도시된 실시예에 비하여 영상 분석 결과를 빠르게 도출할 수 있고, 도 10에 도시된 실시예에 비하여 관객의 표정이 누락됨이 없이 분석을 수행함으로써 신뢰도를 향상시킬 수 있다. 특히, 본 실시예는 장르 영화에 대한 평가 시사회 등에 이용될 수 있으며 관람이 종료됨과 동시에 즉각적으로 신뢰도 높은 분석 결과를 알아낼 수 있다는 점에서, 강점을 가질 수 있다. Accordingly, the emotion analysis system and its operation method according to the embodiment shown in FIG. 11 can quickly derive an image analysis result compared to the embodiment shown in FIG. 9, and compared to the embodiment shown in FIG. Reliability can be improved by performing an analysis without omission of expressions. In particular, this embodiment can be used for an evaluation preview of a genre movie, and has a strength in that it is possible to immediately find out a highly reliable analysis result when viewing is terminated.

도 12는 본 발명의 실시예에 따른 감정 정보(EI)를 나타내는 도면이다.12 is a diagram illustrating emotion information EI according to an embodiment of the present invention.

도 12를 참조하면, 감정 정보(EI)는 사람의 무관심, 지겨움, 기쁨, 분노, 슬픔, 즐거움, 공포, 사랑, 혐오, 증오, 욕망, 무관심, 지루함 등의 일반 감정들 중 어느 하나를 포함할 수 있고, 각 상응하는 감정에 대한 정도를 퍼센트로 나타낸 수치를 더 포함할 수 있다. Referring to FIG. 12, the emotion information (EI) may include any one of general emotions such as indifference, boredom, joy, anger, sadness, joy, fear, love, disgust, hate, desire, indifference, boredom, etc. It may be, and may further include a numerical value representing the degree of each corresponding emotion in percent.

실시예에 따라, 감정 정보(EI)는 사람의 순간 감정을 나타낼 수 있고, 또 다른 실시예에 따라, 감정 정보(EI)는 기 설정된 기간(예컨대, 저장 단위 시간) 동안의 평균 감정을 나타낼 수 있다. According to an embodiment, the emotion information EI may represent a person's momentary emotion, and according to another embodiment, the emotion information EI may represent an average emotion for a preset period (eg, storage unit time). have.

도 13은 본 발명의 실시예에 따른 감정 분석 시스템(10)의 동작 방법을 나타내는 순서도이다. 13 is a flowchart illustrating a method of operating the emotion analysis system 10 according to an embodiment of the present invention.

도 1 내지 도 13을 참조하면, 영상 촬영 장치(100)는 관객들을 촬영 기간(PT) 동안 촬영하여 제1 영상(IM1)을 생성할 수 있다(S10). 예컨대, 영상 촬영 장치(100)가 영화관에 설치된 경우, 관객들은 관객석(AS)에 앉아 영화를 관람할 수 있고, 영상 촬영 장치(100)는 관객들을 촬영하여, 제1 영상(IM1)을 생성할 수 있다.1 to 13, the image capturing apparatus 100 may generate a first image IM1 by photographing audiences during the capturing period PT (S10). For example, when the image capturing device 100 is installed in a movie theater, the audience can sit in the audience seat AS to watch a movie, and the image capturing device 100 shoots the audience to generate the first image IM1. have.

영상 처리 장치(200)는 제1 영상(IM1)을 분할하여 복수의 제2 영상(IM2)들을 저장할 수 있다(S20). 예컨대, 영상 처리 장치(200)의 분할부(210)는 제1 영상(IM1)을 복수의 제2 영상(IM2)들로 분할하여 저장할 수 있다.The image processing apparatus 200 may divide the first image IM1 and store a plurality of second images IM2 (S20). For example, the dividing unit 210 of the image processing apparatus 200 may divide and store the first image IM1 into a plurality of second images IM2.

영상 처리 장치(200)는 복수의 제2 영상(IM2)들이 저장 단위 시간(ST)동안 저장되면, 저장된 복수의 제2 영상(IM2)들을 영상 분석 장치(300)로 전송할 수 있다(S30). 즉, 영상 처리 장치(200)의 전송부(220)는 분할부(210)에 저장된 복수의 제2 영상(IM2)들을 저장 단위 시간(ST) 마다 영상 분석 장치(300)로 전송할 수 있다.When the plurality of second images IM2 are stored during the storage unit time ST, the image processing apparatus 200 may transmit the stored plurality of second images IM2 to the image analysis apparatus 300 (S30). That is, the transmission unit 220 of the image processing apparatus 200 may transmit the plurality of second images IM2 stored in the dividing unit 210 to the image analysis apparatus 300 every storage unit time ST.

영상 분석 장치(300)는 분석 기간(AD) 동안 복수의 제2 영상(IM2)들을 분석하여 복수의 제2 영상(IM2)들 각각에 대한 감정 정보(EI)를 생성할 수 있다(S40). 즉, 영상 분석 장치(300)는 복수의 제2 영상(IM2)들 각각에 포함된 관객들의 얼굴(AF)의 표정 또는 행동 패턴을 분석 기간 동안 분석하여, 관객들의 감정을 나타내는 감정 정보(EI)를 생성할 수 있다.The image analysis apparatus 300 may generate emotion information EI for each of the plurality of second images IM2 by analyzing the plurality of second images IM2 during the analysis period AD (S40 ). That is, the image analysis device 300 analyzes the facial expressions or behavior patterns of the faces AF of the viewers included in each of the plurality of second images IM2 during the analysis period, and the emotion information EI representing the emotions of the audience Can be created.

영상 처리 장치(200)는 감정 정보(EI)를 통합하여, 제1 영상(IM1)에 대응하는 통합 감정 정보를 생성할 수 있다(S50). 즉, 영상 처리 장치(200)의 통합부(240)는 감정 정보(EI)를 수신하고, 통합할 수 있다. 결과적으로 통합부(240)는 제1 영상(IM1)에 대응하는 통합 감정 정보를 생성할 수 있다. The image processing apparatus 200 may generate integrated emotion information corresponding to the first image IM1 by integrating the emotion information EI (S50). That is, the integration unit 240 of the image processing apparatus 200 may receive and integrate the emotion information EI. As a result, the integration unit 240 may generate integrated emotion information corresponding to the first image IM1.

도 14는 본 발명의 실시예에 따른 감정 분석 시스템(10)의 동작 방법을 상세하게 나타내는 순서도이다. 도 14에서는, 도 13에 도시된 복수의 제2 영상(IM2)들을 저장하는 단계(S20)가 상세하게 설명된다. 14 is a flowchart illustrating in detail an operation method of the emotion analysis system 10 according to an embodiment of the present invention. In FIG. 14, the step S20 of storing the plurality of second images IM2 shown in FIG. 13 will be described in detail.

도 1 내지 도 14를 참조하면, 분할부(210)는 제1 영상(IM1)에 포함된 관객들의 얼굴(AF)을 인식하고, 관객들의 수를 추출할 수 있다(S21). 즉, 분할부(210)의 얼굴 인식부(211)는 일반적인 얼굴 인식 기술을 이용하여 영상속에 포함된 얼굴을 검출함으로써, 관객들의 수를 추출할 수 있다. 1 to 14, the division unit 210 may recognize the faces AF of the audience included in the first image IM1 and extract the number of audiences (S21). That is, the face recognition unit 211 of the segmentation unit 210 may extract the number of viewers by detecting faces included in the image using a general face recognition technology.

분할부(210)는 관객들의 수와 기준값을 비교하여, 비교 결과에 따라 서로 상이한 방식으로 제1 영상(IM1)의 촬영 영역(PA)을 복수의 분할 영역들로 분할할 수 있다(S22). 즉, 분할부(210)의 분할 영역 설정부(212)는 비교 결과에 따라 서로 상이한 방식으로 제1 영상(IM1)의 촬영 영역(PA)을 복수의 분할 영역들로 분할할 수 있다.The dividing unit 210 may compare the number of audiences and a reference value, and divide the photographing area PA of the first image IM1 into a plurality of divided areas in a different manner according to the comparison result (S22). That is, the divided area setting unit 212 of the dividing unit 210 may divide the photographing area PA of the first image IM1 into a plurality of divided areas in different ways according to the comparison result.

분할부(210)는 복수의 분할 영역들 중 적어도 하나를 분석 대상으로 선택할 수 있다(S23). 즉, 분할부(210)의 분석 대상 선택부(213)는 복수의 분할 영역들 중에서, 분석이 수행될 영역들을 분석 대상으로 선택할 수 있다. 이때, 분석 대상 선택부(213)는 별도의 사용자 선택 또는 기 설정된 분석 대상에 대한 정보를 이용하여, 복수의 분할 영역들 중에서 분석 대상인 적어도 하나의 분할 영역을 선택할 수 있다. The division unit 210 may select at least one of the plurality of divided areas as an analysis target (S23). That is, the analysis target selection unit 213 of the dividing unit 210 may select regions to be analyzed from among a plurality of divided regions as analysis targets. In this case, the analysis target selector 213 may select at least one divided region as an analysis target from among a plurality of divided regions, using a separate user selection or information on a preset analysis target.

분할부(210)는 분석 대상에 따라 복수의 제2 영상(IM2)들을 저장할 수 있다(S24). 즉, 분할부(210)의 영상 저장부(214)는 분석 대상에 따라 복수의 제2 영상(IM2)들을 저장할 수 있다.The dividing unit 210 may store a plurality of second images IM2 according to an analysis target (S24). That is, the image storage unit 214 of the dividing unit 210 may store a plurality of second images IM2 according to an analysis target.

도 15는 본 발명의 실시예에 따른 감정 분석 시스템의 동작 방법을 상세하게 나타내는 순서도이다. 도 15에서는, 도 14에 도시된 촬영 영역(PA)을 복수의 분할 영역들로 분할하는 단계(S22)의 일 실시예가 상세하게 설명된다.15 is a flowchart illustrating in detail a method of operating an emotion analysis system according to an embodiment of the present invention. In FIG. 15, an exemplary embodiment of dividing the photographing area PA shown in FIG. 14 into a plurality of divided areas (S22) will be described in detail.

도 1 내지 도 15를 참조하면, 분할부(210)는 관객들의 수와 기준값을 비교할 수 있다(S221). 즉, 분할부(210)의 분할 영역 설정부(212)는 관객들의 수와 기준값을 비교할 수 있다.1 to 15, the division unit 210 may compare the number of audiences and a reference value (S221). That is, the divided area setting unit 212 of the divided unit 210 may compare the number of audiences and a reference value.

분할부(210)는 관객의 수가 기준값보다 작거나 같은 경우(S222의 NO), 관객들의 수에 따라 촬영 영역(PA)을 복수의 분할 영역들로 분할할 수 있다(S223). When the number of audiences is less than or equal to the reference value (NO in S222), the division unit 210 may divide the photographing area PA into a plurality of divided areas according to the number of audiences (S223).

분할부(210)는 관객의 수가 기준값보다 큰 경우(S222의 YES), 사용자로부터 분할 영역들의 수를 입력받을 수 있다(S224).When the number of spectators is greater than the reference value (YES in S222), the segmentation unit 210 may receive the number of segmented regions from the user (S224).

그리고, 분할부(210)는 분할 영역들의 수에 따라 촬영 영역(PA)을 복수의 분할 영역들로 분할할 수 있다(S225). In addition, the dividing unit 210 may divide the photographing area PA into a plurality of divided areas according to the number of divided areas (S225).

도 15에 도시된 동작 방법은 도 5 및 도 6에 도시된 실시예들의 결합에 의해 구현된 동작일 수 있다. The operation method illustrated in FIG. 15 may be an operation implemented by a combination of the embodiments illustrated in FIGS. 5 and 6.

도 16는 본 발명의 다른 실시예에 따른 감정 분석 시스템의 동작 방법을 상세하게 나타내는 순서도이다. 도 16에서는, 도 13에 도시된 촬영 영역(PA)을 복수의 분할 영역들로 분할하는 단계(S22)의 다른 실시예가 상세하게 설명된다.16 is a flowchart illustrating in detail a method of operating an emotion analysis system according to another embodiment of the present invention. In FIG. 16, another embodiment of the step S22 of dividing the photographing area PA shown in FIG. 13 into a plurality of divided areas (S22) will be described in detail.

도 16은 도 15에 도시된 실시예와 다른 실시예를 도시한다. 설명의 중복을 방지하기 위하여, 도 15 및 도 16에 도시된 실시예들 사이의 차이점을 중심으로 설명한다. 16 shows an embodiment different from the embodiment shown in FIG. 15. In order to prevent duplication of description, the description will focus on differences between the embodiments shown in FIGS. 15 and 16.

도 1 내지 도 16을 참조하면, 분할부(210)는 관객의 수가 기준값보다 큰 경우(S222의 YES), 서로 인접한 관객들끼리 그룹핑할 수 있다(S226). 실시예에 따라, 분할 영역 설정부(212)는 K-최근접 이웃 알고리즘(K-nearest neighbors algorithm) 또는 K-평균 알고리즘(K-means algorithm)을 이용하여, 서로 인접한 관객들끼리 그룹핑할 수 있다.Referring to FIGS. 1 to 16, when the number of audiences is greater than the reference value (YES in S222), the divider 210 may group adjacent audiences with each other (S226). According to an embodiment, the segmentation region setting unit 212 may group audiences adjacent to each other using a K-nearest neighbors algorithm or a K-means algorithm. .

그리고, 분할부(210)는 생성된 그룹들의 수에 따라 촬영 영역(PA)을 복수의 분할 영역들로 분할할 수 있다(S227). In addition, the dividing unit 210 may divide the photographing area PA into a plurality of divided areas according to the number of generated groups (S227).

도 16에 도시된 동작 방법은 도 5 및 도 7에 도시된 실시예들의 결합에 의해 구현된 동작일 수 있다. The operation method illustrated in FIG. 16 may be an operation implemented by a combination of the embodiments illustrated in FIGS. 5 and 7.

도 17는 본 발명의 실시예에 따른 감정 분석 시스템의 동작 방법을 상세하게 나타내는 순서도이다. 도 17에서는, 도 14에 도시된 저장된 복수의 제2 영상(IM2)들을 영상 분석 장치(300)로 전송하는 단계(S30)가 상세하게 설명된다. 17 is a flowchart illustrating in detail a method of operating an emotion analysis system according to an embodiment of the present invention. In FIG. 17, an operation S30 of transmitting a plurality of stored second images IM2 shown in FIG. 14 to the image analysis apparatus 300 will be described in detail.

도 1 내지 도 17을 참조하면, 전송부(220)는 저장 단위 시간(ST)을 결정할 수 있다(S31). 실시예에 따라, 전송부(220)의 결정부(221)는 저장 단위 시간(ST)을 사용자로부터 입력받고, 이를 기초로 저장 단위 시간(ST)을 결정할 수 있다. 다른 실시예에 따라, 결정부(221)는 저장 단위 시간(ST)을 복수의 제2 영상(IM2)들의 용량이 영상 분석 장치(300)의 최대 처리 용량 이하로 설정되도록 결정할 수 있다.1 to 17, the transmission unit 220 may determine a storage unit time ST (S31). According to an embodiment, the determination unit 221 of the transmission unit 220 may receive a storage unit time ST from a user, and determine the storage unit time ST based on this. According to another exemplary embodiment, the determiner 221 may determine the storage unit time ST to be set so that the capacity of the plurality of second images IM2 is less than or equal to the maximum processing capacity of the image analysis apparatus 300.

전송부(220)는 분할부(210)가 복수의 제2 영상들을 저장하는 동안 저장 단위 시간(ST)을 카운트할 수 있다(S32). 즉, 전송부(220)의 카운터(222)는 분할부(210)의 영상 저장부(214)가 복수의 제2 영상들을 저장하는 동안 저장 단위 시간(ST)을 카운트할 수 있다.The transmission unit 220 may count the storage unit time ST while the dividing unit 210 stores a plurality of second images (S32). That is, the counter 222 of the transmission unit 220 may count the storage unit time ST while the image storage unit 214 of the dividing unit 210 stores a plurality of second images.

전송부(220)는 저장 단위 시간(ST)이 도과하지 않은 경우(S33의 NO), 다시 저장 단위 시간(ST)을 카운트할 수 있다(S32). When the storage unit time ST does not exceed (NO in S33), the transmission unit 220 may count the storage unit time ST again (S32).

전송부(220)는 저장 단위 시간(ST)이 도과한 경우(S33의 YES), 저장된 복수의 제2 영상(IM2)들을 전송할 수 있다(S34). 즉, 전송부(220)의 영상 전송부(223)는 저장 단위 시간(ST)이 도과한 경우, 저장된 복수의 제2 영상들을 영상 분석 장치(300)로 전송할 수 있다.When the storage unit time ST exceeds (YES in S33), the transmission unit 220 may transmit a plurality of stored second images IM2 (S34). That is, the image transmission unit 223 of the transmission unit 220 may transmit a plurality of stored second images to the image analysis apparatus 300 when the storage unit time ST has passed.

전송부(220)는 촬영 기간(PT)이 도과하지 않은 경우(S36의 NO), 다시 저장 단위 시간(ST)을 카운트할 수 있다(S32). When the photographing period PT has not elapsed (NO in S36), the transmission unit 220 may count the storage unit time ST again (S32).

전송부(220)는 촬영 기간(PT)이 도과한 경우(S36의 YES), 카운트를 종료할 수 있다. When the shooting period PT has elapsed (YES in S36), the transmission unit 220 may end the count.

즉, 전송부(220)의 카운터(222)는 촬영 기간(PT)이 도과하지 않은 경우 저장 단위 시간(ST)을 다시 카운트할 수 있고, 촬영 기간(PT)이 도과한 경우 카운트를 중지할 수 있다. 따라서, 카운터(222)는 촬영 기간(PT) 동안 저장 단위 시간(ST)을 반복적으로 카운터할 수 있다. That is, the counter 222 of the transmission unit 220 can count the storage unit time (ST) again when the recording period (PT) has not elapsed, and can stop counting when the recording period (PT) has elapsed. have. Accordingly, the counter 222 may repeatedly counter the storage unit time ST during the photographing period PT.

본 발명의 실시예에 따른 감정 분석 시스템 및 이의 동작 방법은 영상 컨텐츠가 상영되는 동안 관객들을 촬영하여, 관객들의 표정 및 행동 패턴을 기초로 감정을 분석할 수 있다.The emotion analysis system and its operation method according to an embodiment of the present invention may capture audiences while video content is being screened, and analyze emotions based on their facial expressions and behavior patterns.

또한, 본 발명의 실시예에 따른 감정 분석 시스템 및 이의 동작 방법은 얼굴 영상을 얼굴 인식 결과에 따라 복수의 분할 영상들로 분할하여 영상 분석 장치로 전송함으로써, 분석 속도를 향상시킬 수 있다.In addition, the emotion analysis system and the operation method thereof according to an exemplary embodiment of the present invention may improve analysis speed by dividing a face image into a plurality of divided images according to a face recognition result and transmitting the divided images to the image analysis apparatus.

또한, 본 발명의 실시예에 따른 감정 분석 시스템 및 이의 동작 방법은 영상 분석 장치가 복수의 분할 영상들에 대하여 병렬로 분석을 수행함으로써 분석 속도를 향상시킬 수 있다.In addition, the emotion analysis system and the operation method thereof according to an embodiment of the present invention can improve the analysis speed by the image analysis apparatus performing analysis on a plurality of divided images in parallel.

또한, 본 발명의 실시예에 따른 감정 분석 시스템 및 이의 동작 방법은 영상 컨텐츠가 상영되는 동안 분석을 완료할 수 있다.In addition, the emotion analysis system and the operation method thereof according to an embodiment of the present invention may complete the analysis while the video content is being screened.

이상 본 명세서에서 설명한 기능적 동작과 본 주제에 관한 실시형태들은 본 명세서에서 개시한 구조들 및 그들의 구조적인 등가물을 포함하여 디지털 전자 회로나 컴퓨터 소프트웨어, 펌웨어 또는 하드웨어에서 또는 이들 중 하나 이상이 조합에서 구현 가능하다. The functional operations described in this specification and embodiments related to this subject are implemented in digital electronic circuits, computer software, firmware, or hardware, including structures disclosed in this specification and structural equivalents thereof, or in a combination of one or more of them. It is possible.

본 명세서에서 기술하는 주제의 실시형태는 하나 이상이 컴퓨터 프로그램 제품, 다시 말해 데이터 처리 장치에 의한 실행을 위하여 또는 그 동작을 제어하기 위하여 유형의 프로그램 매체 상에 인코딩되는 컴퓨터 프로그램 명령에 관한 하나 이상이 모듈로서 구현될 수 있다. 유형의 프로그램 매체는 전파형 신호이거나 컴퓨터로 판독 가능한 매체일 수 있다. 전파형 신호는 컴퓨터에 의한 실행을 위하여 적절한 수신기 장치로 전송하기 위한 정보를 인코딩하기 위하여 생성되는 예컨대 기계가 생성한 전기적, 광학적 또는 전자기 신호와 같은 인공적으로 생성된 신호이다. 컴퓨터로 판독 가능한 매체는 기계로 판독 가능한 저장장치, 기계로 판독 가능한 저장 기판, 메모리 장치, 기계로 판독 가능한 전파형 신호에 영향을 미치는 물질의 조합 또는 이들 중 하나 이상이 조합일 수 있다.Embodiments of the subject matter described herein include one or more of a computer program product, i.e., one or more relating to computer program instructions encoded on a tangible program medium for execution by or to control its operation It can be implemented as a module. The tangible program medium may be a radio wave signal or a computer-readable medium. A radio wave signal is an artificially generated signal, such as a machine-generated electrical, optical or electromagnetic signal, generated to encode information for transmission to an appropriate receiver device for execution by a computer. The computer-readable medium may be a machine-readable storage device, a machine-readable storage substrate, a memory device, a combination of materials that affect a machine-readable radio wave signal, or a combination of one or more of them.

컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 어플리케이션, 스크립트 또는 코드로도 알려져 있음)은 컴파일되거나 해석된 언어나 선험적 또는 절차적 언어를 포함하는 프로그래밍 언어의 어떠한 형태로도 작성될 수 있으며, 독립형 프로그램이나 모듈, 컴포넌트, 서브루틴 또는 컴퓨터 환경에서 사용하기에 적합한 다른 유닛을 포함하여 어떠한 형태로도 전개될 수 있다. A computer program (also known as a program, software, software application, script or code) can be written in any form of a compiled or interpreted language or a programming language, including a priori or procedural language, and can be written as a standalone program or module, It can be deployed in any form, including components, subroutines, or other units suitable for use in a computer environment.

컴퓨터 프로그램은 파일 장치의 파일에 반드시 대응하는 것은 아니다. 프로그램은 요청된 프로그램에 제공되는 단일 파일 내에, 또는 다중의 상호 작용하는 파일(예컨대, 하나 이상이 모듈, 하위 프로그램 또는 코드의 일부를 저장하는 파일) 내에, 또는 다른 프로그램이나 데이터를 보유하는 파일의 일부(예컨대, 마크업 언어 문서 내에 저장되는 하나 이상이 스크립트) 내에 저장될 수 있다. Computer programs do not necessarily correspond to files on the file device. A program may be in a single file provided to the requested program, or in multiple interactive files (e.g., files in which one or more stores modules, subprograms, or portions of code), or in files that hold other programs or data. Some (eg, one or more stored within a markup language document may be stored within a script).

컴퓨터 프로그램은 하나의 사이트에 위치하거나 복수의 사이트에 걸쳐서 분산되어 통신 네트워크에 의해 상호 접속된 다중 컴퓨터나 하나의 컴퓨터 상에서 실행되도록 전개될 수 있다.The computer program may be deployed to run on one computer or multiple computers located at one site or distributed across a plurality of sites and interconnected by a communication network.

부가적으로, 본 특허문헌에서 기술하는 논리 흐름과 구조적인 블록도는 개시된 구조적인 수단의 지원을 받는 대응하는 기능과 단계의 지원을 받는 대응하는 행위 및/또는 특정한 방법을 기술하는 것으로, 대응하는 소프트웨어 구조와 알고리즘과 그 등가물을 구축하는 데에도 사용 가능하다. Additionally, the logical flows and structural block diagrams described in this patent document describe the corresponding actions and/or specific methods supported by the corresponding functions and steps supported by the disclosed structural means. It can also be used to build software structures and algorithms and their equivalents.

본 명세서에서 기술하는 프로세스와 논리 흐름은 입력 데이터 상에서 동작하고 출력을 생성함으로써 기능을 수행하기 위하여 하나 이상이 컴퓨터 프로그램을 실행하는 하나 이상이 프로그래머블 프로세서에 의하여 수행 가능하다.One or more of the processes and logic flows described herein may be executed by a programmable processor, one or more executing a computer program in order to perform a function by operating on input data and generating an output.

컴퓨터 프로그램의 실행에 적합한 프로세서는, 예컨대 범용 및 특수 목적의 마이크로프로세서 양자 및 어떤 형태의 디지털 컴퓨터의 어떠한 하나 이상이 프로세서라도 포함한다. 일반적으로, 프로세서는 읽기 전용 메모리나 랜덤 액세스 메모리 또는 양자로부터 명령어와 데이터를 수신할 것이다. Processors suitable for execution of computer programs include, for example, both general purpose and special purpose microprocessors and any one or more of any type of digital computer being a processor. In general, the processor will receive instructions and data from read-only memory, random access memory, or both.

컴퓨터의 핵심적인 요소는 명령어와 데이터를 저장하기 위한 하나 이상이 메모리 장치 및 명령을 수행하기 위한 프로세서이다. 또한, 컴퓨터는 일반적으로 예컨대 자기, 자기 광학 디스크나 광학 디스크와 같은 데이터를 저장하기 위한 하나 이상이 대량 저장 장치로부터 데이터를 수신하거나 그것으로 데이터를 전송하거나 또는 그러한 동작 둘 다를 수행하기 위하여 동작가능 하도록 결합되거나 이를 포함할 것이다. 그러나, 컴퓨터는 그러한 장치를 가질 필요가 없다.The key elements of a computer are one or more memory devices for storing instructions and data, and a processor for carrying out the instructions. In addition, computers are generally operable to receive data from, transfer data to, or perform both of the mass storage devices, such as one or more for storing data, such as magnetic, magneto-optical disks or optical disks. Combined or will include. However, computers do not need to have such devices.

본 기술한 설명은 본 발명의 최상의 모드를 제시하고 있으며, 본 발명을 설명하기 위하여, 그리고 당업자가 본 발명을 제작 및 이용할 수 있도록 하기 위한 예를 제공하고 있다. 이렇게 작성된 명세서는 그 제시된 구체적인 용어에 본 발명을 제한하는 것이 아니다. The present description presents the best mode of the invention, and provides examples to illustrate the invention and to enable those skilled in the art to make and use the invention. The written specification is not intended to limit the present invention to the specific terms presented.

이상에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자 또는 해당 기술 분야에 통상의 지식을 갖는 자라면, 후술될 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to the preferred embodiments of the present invention, those skilled in the art or those of ordinary skill in the art will not depart from the spirit and scope of the present invention described in the claims to be described later. It will be appreciated that various modifications and changes can be made to the present invention within the scope of the invention.

따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허청구범위에 의해 정하여져야만 할 것이다.Accordingly, the technical scope of the present invention should not be limited to the contents described in the detailed description of the specification, but should be determined by the claims.

10: 감정 분석 시스템 100: 영상 촬영 장치
200: 영상 처리 장치 210: 분할부
220: 전송부 230: 제어부
240: 통합부 300: 영상 분석 장치
10: emotion analysis system 100: video capture device
200: image processing device 210: division unit
220: transmission unit 230: control unit
240: integration unit 300: image analysis device

Claims (20)

관객들을 촬영 기간 동안 촬영하여, 제1 영상을 생성하는 영상 촬영부;
상기 제1 영상을 복수의 제2 영상들로 분할하고, 상기 복수의 제2 영상들을 저장 단위 시간에 따라 전송하는 영상 처리 장치; 및
분석 기간 동안 상기 복수의 제2 영상들을 분석하여 상기 복수의 제2 영상들에 각각에 대한 감정 정보를 생성하는 영상 분석 장치를 포함하고,
상기 영상 처리 장치는,
상기 제1 영상을 분할하여 상기 복수의 제2 영상들을 저장하는 분할부; 및
상기 복수의 제2 영상들이 상기 저장 단위 시간 동안 저장되면, 저장된 복수의 제2 영상들을 상기 영상 분석 장치로 전송하는 전송부를 포함하고,
상기 분할부는,
상기 제1 영상에 포함된 상기 관객들의 얼굴을 인식하고, 상기 관객들의 수를 추출하는 얼굴 인식부;
상기 관객들의 수와 기준값을 비교하고, 비교 결과에 따라 서로 상이한 방식으로 상기 제1 영상의 촬영 영역을 복수의 분할 영역들로 분할하는 분할 영역 설정부;
상기 복수의 분할 영역들 중 적어도 하나를 분석 대상으로 선택하는 분석 대상 선택부; 및
상기 분석 대상에 따라, 상기 복수의 제2 영상들을 저장하는 영상 저장부를 포함하는 것을 특징으로 하는 감정 분석 시스템.
An image photographing unit that photographs the audience during the photographing period and generates a first image;
An image processing device that divides the first image into a plurality of second images and transmits the plurality of second images according to a storage unit time; And
Including an image analysis device for analyzing the plurality of second images during the analysis period to generate emotion information for each of the plurality of second images,
The image processing device,
A dividing unit for dividing the first image and storing the plurality of second images; And
When the plurality of second images are stored for the storage unit time, a transmission unit for transmitting the stored plurality of second images to the image analysis device,
The division part,
A face recognition unit for recognizing the faces of the audience included in the first image and extracting the number of the audience;
A divided area setting unit that compares the number of audiences and a reference value, and divides the photographing area of the first image into a plurality of divided areas in different ways according to the comparison result;
An analysis target selection unit selecting at least one of the plurality of divided regions as an analysis target; And
And an image storage unit configured to store the plurality of second images according to the analysis target.
삭제delete 제1항에 있어서,
상기 관객들의 수가 상기 기준값보다 작거나 같은 경우,
상기 분할 영역 설정부는, 상기 관객들의 수에 따라 상기 촬영 영역을 상기 복수의 분할 영역들로 분할하고,
상기 복수의 분할 영역들 각각은, 한명의 관객의 얼굴을 나타내는 것을 특징으로 하는 감정 분석 시스템.
The method of claim 1,
If the number of audiences is less than or equal to the reference value,
The divided area setting unit divides the photographing area into the plurality of divided areas according to the number of the audience,
Each of the plurality of divided areas represents a face of one audience.
제3항에 있어서,
상기 관객들의 수가 상기 기준값보다 큰 경우,
상기 분할 영역 설정부는, 사용자로부터 분할 영역들의 수를 입력받고, 입력받은 상기 분할 영역의 수에 따라 상기 촬영 영역을 상기 복수의 분할 영역들로 분할하는 것을 특징으로 하는 감정 분석 시스템.
The method of claim 3,
When the number of audiences is greater than the reference value,
The divided area setting unit receives the number of divided areas from a user, and divides the photographing area into the plurality of divided areas according to the received number of divided areas.
제3항에 있어서,
상기 관객들의 수가 상기 기준값보다 큰 경우,
상기 분할 영역 설정부는, 서로 인접한 관객들끼리 그룹핑하고, 생성된 그룹들의 수에 따라 상기 촬영 영역을 상기 복수의 분할 영역들로 분할하는 것을 특징으로 하는 감정 분석 시스템.
The method of claim 3,
When the number of audiences is greater than the reference value,
The divided area setting unit groups adjacent audiences with each other, and divides the photographing area into the plurality of divided areas according to the number of generated groups.
제5항에 있어서,
상기 분할 영역 설정부는, 상기 관객들에 대하여 K-평균 알고리즘을 이용하여, 서로 인접한 관객들에 대하여 그룹핑을 수행함으로써 복수의 그룹들을 생성하는 것을 특징으로 하는 감정 분석 시스템.
The method of claim 5,
The divided region setting unit generates a plurality of groups by grouping adjacent audiences using a K-average algorithm for the audiences.
관객들을 촬영 기간 동안 촬영하여, 제1 영상을 생성하는 영상 촬영부;
상기 제1 영상을 복수의 제2 영상들로 분할하고, 상기 복수의 제2 영상들을 저장 단위 시간에 따라 전송하는 영상 처리 장치; 및
분석 기간 동안 상기 복수의 제2 영상들을 분석하여 상기 복수의 제2 영상들에 각각에 대한 감정 정보를 생성하는 영상 분석 장치를 포함하고,
상기 영상 처리 장치는,
상기 제1 영상을 분할하여 상기 복수의 제2 영상들을 저장하는 분할부; 및
상기 복수의 제2 영상들이 상기 저장 단위 시간 동안 저장되면, 저장된 복수의 제2 영상들을 상기 영상 분석 장치로 전송하는 전송부를 포함하고,
상기 전송부는,
상기 저장 단위 시간을 결정하는 결정부;
상기 복수의 제2 영상들을 저장하는 동안, 상기 저장 단위 시간을 카운트하는 카운터; 및
상기 저장 단위 시간이 도과한 경우, 상기 저장된 복수의 제2 영상들을 영상 분석 장치로 영상 전송부를 포함하고,
상기 카운터는, 상기 촬영 기간이 도과하지 않은 경우, 상기 저장 단위 시간을 다시 카운트하는 것을 특징으로 하는 감정 분석 시스템.
An image photographing unit that photographs the audience during the photographing period and generates a first image;
An image processing device that divides the first image into a plurality of second images and transmits the plurality of second images according to a storage unit time; And
An image analysis device that analyzes the plurality of second images during an analysis period and generates emotion information for each of the plurality of second images,
The image processing device,
A dividing unit for dividing the first image and storing the plurality of second images; And
When the plurality of second images are stored for the storage unit time, a transmission unit for transmitting the stored plurality of second images to the image analysis device,
The transmission unit,
A determination unit determining the storage unit time;
A counter for counting the storage unit time while storing the plurality of second images; And
When the storage unit time has elapsed, the stored plurality of second images include an image transmission unit to an image analysis device,
And the counter counts the storage unit time again when the photographing period has not elapsed.
제7항에 있어서,
상기 결정부는, 상기 저장 단위 시간을 사용자로부터 입력받는 것을 특징으로 하는 감정 분석 시스템.
The method of claim 7,
And the determination unit receives the storage unit time from a user.
제7항에 있어서,
상기 결정부는, 상기 저장 단위 시간을 상기 복수의 제2 영상들의 용량이 상기 영상 분석 장치의 최대 처리 용량 이하로 설정되도록 결정하는 것을 특징으로 하는 감정 분석 시스템.
The method of claim 7,
And the determination unit determines the storage unit time so that the capacity of the plurality of second images is set to be less than or equal to the maximum processing capacity of the image analyzing apparatus.
제7항에 있어서,
상기 카운터는, 상기 촬영 기간이 도과한 경우, 카운트를 중지하는 것을 특징으로 하는 감정 분석 시스템.
The method of claim 7,
And the counter stops counting when the photographing period has passed.
관객들을 촬영 기간 동안 촬영하여, 제1 영상을 생성하는 단계;
상기 제1 영상을 분할하여 복수의 제2 영상들을 저장하는 단계;
상기 복수의 제2 영상들이 저장 단위 시간 동안 저장되면, 저장된 복수의 제2 영상들을 영상 분석 장치로 전송하는 단계;
분석 기간 동안 상기 복수의 제2 영상들을 분석하여 상기 복수의 제2 영상들에 각각에 대한 감정 정보를 생성하는 단계; 및
상기 감정 정보를 통합하여 통합 감정 정보를 생성하는 단계를 포함하고,
상기 복수의 제2 영상들을 저장하는 단계는,
상기 제1 영상에 포함된 상기 관객들의 얼굴을 인식하고, 상기 관객들의 수를 추출하는 단계;
상기 관객들의 수와 기준값을 비교하고, 비교 결과에 따라 서로 상이한 방식으로 상기 제1 영상의 촬영 영역을 복수의 분할 영역들로 분할하는 단계;
상기 복수의 분할 영역들 중 적어도 하나를 분석 대상으로 선택하는 단계; 및
상기 분석 대상에 따라, 상기 복수의 제2 영상들을 저장하는 단계를 포함하는 것을 특징으로 하는 감정 분석 시스템의 동작 방법.
Photographing the audience during the shooting period and generating a first image;
Dividing the first image and storing a plurality of second images;
If the plurality of second images are stored for a storage unit time, transmitting the stored plurality of second images to an image analysis device;
Generating emotion information for each of the plurality of second images by analyzing the plurality of second images during an analysis period; And
Including the step of integrating the emotion information to generate integrated emotion information,
Storing the plurality of second images,
Recognizing the faces of the audience included in the first image and extracting the number of the audience;
Comparing the number of audiences and a reference value, and dividing the photographing area of the first image into a plurality of divided areas in different ways according to the comparison result;
Selecting at least one of the plurality of divided regions as an analysis target; And
And storing the plurality of second images according to the analysis target.
삭제delete 제11항에 있어서,
상기 촬영 영역을 상기 복수의 분할 영역들로 분할하는 단계는,
상기 관객들의 수와 기준값을 비교하는 단계; 및
상기 관객들의 수가 상기 기준값보다 작거나 같은 경우, 상기 관객들의 수에 따라 상기 촬영 영역을 상기 복수의 분할 영역들로 분할하는 단계를 포함하고,
상기 복수의 분할 영역들 각각은, 한명의 관객의 얼굴이 나타내는 것을 특징으로 하는 감정 분석 시스템의 동작 방법.
The method of claim 11,
Dividing the photographing area into the plurality of divided areas,
Comparing the number of audiences and a reference value; And
When the number of audiences is less than or equal to the reference value, dividing the photographing area into the plurality of divided areas according to the number of audiences,
Each of the plurality of divided areas is represented by a face of one audience.
제13항에 있어서,
상기 촬영 영역을 상기 복수의 분할 영역들로 분할하는 단계는,
상기 관객들의 수가 상기 기준값보다 큰 경우, 사용자로부터 분할 영역들의 수를 입력받고, 입력받은 상기 분할 영역의 수에 따라 상기 촬영 영역을 상기 복수의 분할 영역들로 분할하는 단계를 더 포함하는 것을 특징으로 하는 감정 분석 시스템의 동작 방법.
The method of claim 13,
Dividing the photographing area into the plurality of divided areas,
When the number of audiences is greater than the reference value, receiving the number of divided areas from a user, and dividing the photographing area into the plurality of divided areas according to the input number of the divided areas. How the emotion analysis system works.
제13항에 있어서,
상기 촬영 영역을 상기 복수의 분할 영역들로 분할하는 단계는,
상기 관객들의 수가 상기 기준값보다 큰 경우, 서로 인접한 관객들끼리 그룹핑하고, 생성된 그룹들의 수에 따라 상기 촬영 영역을 상기 복수의 분할 영역들로 분할하는 단계를 더 포함하는 것을 특징으로 하는 감정 분석 시스템의 동작 방법.
The method of claim 13,
Dividing the photographing area into the plurality of divided areas,
When the number of audiences is greater than the reference value, grouping the audiences adjacent to each other, and dividing the photographing area into the plurality of divided areas according to the number of generated groups. Method of operation.
제11항에 있어서,
상기 저장된 복수의 제2 영상들을 전송하는 단계는,
상기 저장 단위 시간을 결정하는 단계;
상기 복수의 제2 영상들을 저장하는 동안, 상기 저장 단위 시간을 카운트하는 단계; 및
상기 저장 단위 시간이 도과한 경우, 상기 저장된 복수의 제2 영상들을 전송하는 단계를 포함하고,
상기 촬영 기간이 도과하지 않은 경우, 상기 저장 단위 시간을 카운트하는 단계로 다시 진행하는 것을 특징으로 하는 감정 분석 시스템의 동작 방법.
The method of claim 11,
Transmitting the stored plurality of second images,
Determining the storage unit time;
Counting the storage unit time while storing the plurality of second images; And
When the storage unit time has elapsed, transmitting the stored plurality of second images,
When the photographing period has not elapsed, the operation method of the emotion analysis system proceeds again to the step of counting the storage unit time.
제16항에 있어서,
상기 저장 단위 시간을 결정하는 단계는, 사용자로부터 상기 저장 단위 시간을 입력받는 것을 특징으로 하는 감정 분석 시스템의 동작 방법.
The method of claim 16,
The determining of the storage unit time comprises receiving the storage unit time from a user.
제16항에 있어서,
상기 저장 단위 시간을 결정하는 단계는, 상기 복수의 제2 영상들의 용량이 상기 영상 분석 장치의 최대 처리 용량 이하로 설정되도록 상기 저장 단위 시간을 결정하는 것을 특징으로 하는 감정 분석 시스템의 동작 방법.
The method of claim 16,
The determining of the storage unit time comprises determining the storage unit time so that the capacities of the plurality of second images are set to be less than or equal to the maximum processing capacity of the image analyzing apparatus.
제11항에 있어서,
상기 촬영 기간은 상기 분석 기간에 부분적으로 중첩되는 것을 특징으로 하는 감정 분석 시스템의 동작 방법.
The method of claim 11,
The operation method of the emotion analysis system, characterized in that the photographing period partially overlaps the analysis period.
제19항에 있어서,
상기 촬영 기간 및 상기 분석 기간은 서로 동일한 것을 특징으로 하는 감정 분석 시스템의 동작 방법.
The method of claim 19,
The operation method of the emotion analysis system, characterized in that the photographing period and the analysis period are the same.
KR1020190019388A 2019-02-19 2019-02-19 Emotion analysis system and operation method of the same KR102253918B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190019388A KR102253918B1 (en) 2019-02-19 2019-02-19 Emotion analysis system and operation method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190019388A KR102253918B1 (en) 2019-02-19 2019-02-19 Emotion analysis system and operation method of the same

Publications (2)

Publication Number Publication Date
KR20200101137A KR20200101137A (en) 2020-08-27
KR102253918B1 true KR102253918B1 (en) 2021-05-20

Family

ID=72237570

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190019388A KR102253918B1 (en) 2019-02-19 2019-02-19 Emotion analysis system and operation method of the same

Country Status (1)

Country Link
KR (1) KR102253918B1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050289582A1 (en) 2004-06-24 2005-12-29 Hitachi, Ltd. System and method for capturing and using biometrics to review a product, service, creative work or thing
EP2678820A4 (en) * 2011-02-27 2014-12-03 Affectiva Inc Video recommendation based on affect
KR101403143B1 (en) * 2012-09-28 2014-06-03 경희대학교 산학협력단 Method for estimating response of audience group concerning content
KR20180077680A (en) 2016-12-29 2018-07-09 재단법인대구경북과학기술원 Apparatus for providing service based on facial expression recognition and method thereof

Also Published As

Publication number Publication date
KR20200101137A (en) 2020-08-27

Similar Documents

Publication Publication Date Title
KR102102453B1 (en) Viewer rating calculation server, viewer rating calculation method, and viewer rating calculation remote device
US20160021376A1 (en) Measurement of video quality
US20140280879A1 (en) Detecting User Interest in Presented Media Items by Observing Volume Change Events
KR101895846B1 (en) Facilitating television based interaction with social networking tools
US11706500B2 (en) Computing system with content-characteristic-based trigger feature
KR20190083216A (en) Method and Apparatus for Adjusting Output Characteristics of Video
US10542298B2 (en) Autonomously generated video channels
US10349093B2 (en) System and method for deriving timeline metadata for video content
KR102253918B1 (en) Emotion analysis system and operation method of the same
Ying et al. Telepresence video quality assessment
CN110300118B (en) Streaming media processing method, device and storage medium
US10771828B2 (en) Content consensus management
KR20220124813A (en) Video stream processing method and processing device, computer device, storage medium and computer program
CN112752110A (en) Video presentation method and device, computing equipment and storage medium
Kaiser et al. The fascinate production scripting engine
KR20160019427A (en) Method and system for recommending media to a user
US20220337903A1 (en) Predicting future viewership
US9747330B2 (en) Demographic determination for media consumption analytics
KR102093733B1 (en) Image recommending apparatus, and control method thereof
KR102540817B1 (en) Real-time evaluation method, apparatus and program of video broadcasting quality based on machime leaning
EP2902924A1 (en) Method for automatically selecting a real-time video stream among a plurality of available real-time video streams, and associated system
CN114079777A (en) Video processing method and device
US20230123577A1 (en) Unified Representation Learning of Media Features for Diverse Tasks
CN110100445A (en) Information processing system, information processing unit and program
US20230388601A1 (en) Methods and systems for operating a group watching session

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant