Nothing Special   »   [go: up one dir, main page]

KR102442449B1 - 영상 처리 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체 - Google Patents

영상 처리 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체 Download PDF

Info

Publication number
KR102442449B1
KR102442449B1 KR1020170111970A KR20170111970A KR102442449B1 KR 102442449 B1 KR102442449 B1 KR 102442449B1 KR 1020170111970 A KR1020170111970 A KR 1020170111970A KR 20170111970 A KR20170111970 A KR 20170111970A KR 102442449 B1 KR102442449 B1 KR 102442449B1
Authority
KR
South Korea
Prior art keywords
image
visual
parameter
image processing
original
Prior art date
Application number
KR1020170111970A
Other languages
English (en)
Other versions
KR20190025385A (ko
Inventor
안일준
조기흠
박용섭
박재연
오희석
이태미
천민수
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020170111970A priority Critical patent/KR102442449B1/ko
Priority to EP18851168.7A priority patent/EP3649612A4/en
Priority to CN201880056861.8A priority patent/CN111095350B/zh
Priority to PCT/KR2018/010089 priority patent/WO2019045499A1/en
Priority to US16/121,057 priority patent/US10922798B2/en
Publication of KR20190025385A publication Critical patent/KR20190025385A/ko
Application granted granted Critical
Publication of KR102442449B1 publication Critical patent/KR102442449B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

영상 처리 장치가 개시된다. 본 영상 처리 장치는, 영상을 입력받는 통신부, 입력된 영상을, 영상 처리를 위한 파라미터를 이용하여 영상 처리한 제1 영상을 생성하고, 제1 영상을 기설정된 비율로 축소한 제2 영상을 생성하고, 생성된 제1 영상 및 생성된 제2 영상 각각의 시각적 특징을 추출하는 프로세서를 포함하고, 프로세서는, 제1 영상의 시각적 특징과 제2 영상의 시각적 특징의 차이가 기설정된 범위 내에 있도록 파라미터를 조정한다.

Description

영상 처리 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체{ IMAGE PROCESSING APPARATUS, METHOD FOR PROCESSING IMAGE AND COMPUTER-READABLE RECORDING MEDIUM }
본 개시는 영상 처리 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체에 대한 것으로, 보다 상세하게는, 고화질 영상을 생성하기 위한 영상 처리 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체에 관한 것이다.
정량적 화질평가에서 일반적으로 많이 사용되는 PSNR (peak signal-to-noise ratio), SSIM (structural similarity) 등의 관점에서 화질을 개선하는 연구들은 많이 진행되어 왔다. 하지만, 영상의 화질은 인간의 감성이나 기호 등의 다양한 요소들의 영향을 받기 때문에, 현재까지 개발된 기술들을 이용하여 인지적 관점에서 화질을 개선하는데 한계가 있다.
최근 artificial intelligence (AI)가 발전함에 따라 이를 화질 개선에 적용하는 사례들이 늘고 있다. 하지만, 풀(grass), 천(fabric) 등과 같이, 인지적 관점에서 질감을 표현하지만, 고주파 성분이 많은 텍스쳐(texture) 영역에서의 성능은 여전히 부족한 실정이다. 특히, 화질 개선 과정에서 메모리 소모량이 많아 TV나 모바일 단말에 적용하기에는 어려움이 있다. 이러한 문제점들을 해결하기 위해 본 발명에서는 컴퓨팅 계산량을 최소화하면서 고화질 원본 영상과 유사성을 향상시키기 위한 화질 개선 기술의 필요성이 대두되었다.
본 개시는 상술한 필요성에 따른 것으로, 본 개시의 목적은 기계 학습을 이용한 영상의 자가 변형을 통해 고화질 영상을 생성하는 영상 처리 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체를 제공함에 있다.
본 개시의 일 실시 예에 따른 영상 처리 장치는, 영상을 입력받는 통신부, 상기 입력된 영상을, 영상 처리를 위한 파라미터를 이용하여 영상 처리한 제1 영상을 생성하고, 상기 제1 영상을 기설정된 비율로 축소한 제2 영상을 생성하고, 상기 생성된 제1 영상 및 상기 생성된 제2 영상 각각의 시각적 특징을 추출하는 프로세서를 포함하고, 상기 프로세서는, 상기 제1 영상의 시각적 특징과 상기 제2 영상의 시각적 특징의 차이가 기설정된 범위 내에 있도록 상기 파라미터를 조정한다.
이 경우, 상기 프로세서는, 기계 학습 방식을 이용하여 상기 파라미터를 조정할 수 있다.
한편, 상기 프로세서는, 상기 제1 영상의 시각적 특징과 상기 제2 영상의 시각적 특징의 차이가 기설정된 범위 내에 있도록, 상기 제1 영상의 생성, 제2 영상의 생성, 상기 제1 영상 및 제2 영상의 시각적 특징 추출 및 파라미터의 조정을 반복적으로 수행할 수 있다.
한편, 상기 프로세서는, 상기 제2 영상의 시각적 특징이 상기 제1 영상의 시각적 특징의 기설정된 범위 내에 있도록 상기 파라미터를 조정할 수 있다.
한편, 상기 프로세서는, 상기 제1 영상을 서로 다른 복수의 비율로 축소하고, 상기 복수의 축소된 영상 중 상기 입력된 영상보다 고화질의 영상에서 추출한 시각적 특징과 가장 유사한 시각적 특징을 갖는 축소된 영상을 선택하고, 상기 선택된 축소된 영상에 대응되는 비율을 상기 기설정된 비율로 이용할 수 있다.
한편, 상기 통신부는, 상기 입력된 영상보다 고화질의 제3 영상을 입력받고,
상기 프로세서는, 상기 제1 영상 및 상기 제3 영상 각각의 구조적 특징을 추출하고, 상기 제1 영상의 구조적 특징과 상기 제3 영상의 구조적 특징의 차이가 기설정된 범위 내에 있도록 상기 파라미터를 기계 학습 방식으로 조정할 수 있다.
한편, 상기 통신부는, 상기 입력된 영상보다 고화질의 제3 영상을 입력받고, 상기 프로세서는, 상기 제1 영상 및 상기 제3 영상 각각의 구조적 특징을 추출하고, 상기 제1 영상의 시각적 특징과 상기 제2 영상의 시각적 특징의 차이와, 상기 제1 영상의 구조적 특징과 상기 제3 영상의 구조적 특징의 차이의 합이 기설정된 범위 내에 있도록 상기 파라미터를 기계 학습 방식으로 조정할 수 있다.
한편, 상기 프로세서는, 상기 조정된 파라미터를 이용하여 입력된 영상에 대한 영상 처리를 수행할 수 있다.
이 경우, 상기 영상 처리된 영상을 표시하는 디스플레이를 더 포함할 수 있다.
한편, 상기 프로세서는, 상기 영상 처리된 영상을 외부 장치에 전송하도록 상기 통신부를 제어할 수 있다.
한편, 본 개시의 일 실시 예에 따른 영상 처리 방법은, 영상을 입력받는 단계 및 상기 입력된 영상을 영상 처리하기 위한 파라미터를 조정하는 단계를 포함하고, 상기 조정하는 단계는, 상기 입력된 영상을, 기설정된 파라미터를 이용하여 영상 처리한 제1 영상을 생성하는 단계, 상기 제1 영상을 기설정된 비율로 축소한 제2 영상을 생성하는 단계, 상기 생성된 제1 영상 및 상기 생성된 제2 영상 각각의 시각적 특징을 추출하는 단계 및 상기 제1 영상의 시각적 특징과 상기 제2 영상의 시각적 특징의 차이가 기설정된 범위 내에 있도록 상기 파라미터를 변경하는 단계를 포함한다.
이 경우, 상기 조정하는 단계는, 기계 학습 방식을 이용하여 상기 파라미터를 반복적으로 조정할 수 있다.
한편, 상기 변경하는 단계는, 상기 제2 영상의 시각적 특징이 상기 제1 영상의 시각적 특징의 기설정 범위 내에 있도록 상기 파라미터를 변경할 수 있다.
한편, 상기 제2 영상을 생성하는 단계는, 상기 제1 영상을 서로 다른 복수의 비율로 축소하여 복수의 축소된 영상을 생성하는 단계, 상기 복수의 축소된 영상 중 상기 입력된 영상보다 고화질의 영상에서 추출한 시각적 특징과 가장 유사한 시각적 특징을 갖는 축소된 영상을 선택하는 단계 및 상기 선택된 축소된 영상에 대응되는 비율로 상기 제1 영상을 축소하는 단계를 포함할 수 있다.
한편, 상기 입력된 영상보다 고화질의 제3 영상을 입력받는 단계;를 더 포함하고, 상기 조정하는 단계는, 상기 제1 영상 및 상기 제3 영상 각각의 구조적 특징을 추출하는 단계 및 상기 제1 영상의 구조적 특징과 상기 제3 영상의 구조적 특징의 차이가 기설정된 범위 내에 있도록 상기 파라미터를 변경하는 단계를 더 포함할 수 있다.
한편, 상기 입력된 영상보다 고화질의 제3 영상을 입력받는 단계를 더 포함하고, 상기 조정하는 단계는, 상기 제1 영상 및 상기 제3 영상 각각의 구조적 특징을 추출하는 단계 및 상기 제1 영상의 시각적 특징과 상기 제2 영상의 시각적 특징의 차이와, 상기 제1 영상의 구조적 특징과 상기 제3 영상의 구조적 특징의 차이의 합이 기설정된 범위 내에 있도록 상기 파라미터를 변경하는 단계를 더 포함할 수 있다.
한편, 상기 조정된 파라미터를 이용하여 입력된 영상에 대한 영상 처리를 수행하는 단계를 더 포함할 수 있다.
이 경우, 상기 영상 처리된 영상을 표시하는 단계를 더 포함할 수 있다.
한편, 상기 영상 처리된 영상을 외부 장치에 전송하는 단계를 더 포함할 수 있다.
한편, 본 개시의 일 실시 예에 따른 영상 처리 방법을 실행하기 위한 프로그램을 포함하는 컴퓨터 판독가능 기록 매체에 있어서, 상기 영상 처리 방법은, 영상을 입력받는 단계 및 상기 입력된 영상을 영상 처리하기 위한 파라미터를 조정하는 단계를 포함하고, 상기 조정하는 단계는, 상기 입력된 영상을, 기설정된 파라미터를 이용하여 영상 처리한 제1 영상을 생성하는 단계, 상기 제1 영상을 기설정된 비율로 축소한 제2 영상을 생성하는 단계, 상기 생성된 제1 영상 및 상기 생성된 제2 영상 각각의 시각적 특징을 추출하는 단계 및 상기 제1 영상의 시각적 특징과 상기 제2 영상의 시각적 특징의 차이가 기설정된 범위 내에 있도록 상기 파라미터를 변경하는 단계를 포함한다.
도 1은 본 개시의 일 실시 예에 따른 영상 처리 장치의 간략한 구성을 설명하기 위한 블럭도,
도 2는 본 개시의 일 실시 예에 따른 영상 처리 장치의 구체적인 구성을 설명하기 위한 블럭도,
도 3은 본 개시의 일 실시 예에 따른 영상 처리 방법을 보다 개략적으로 설명하기 위한 흐름도,
도 4는 본 개시의 일 실시 예에 따른 도 3의 영상 처리 방법 중 시각적 특징을 이용한 파라미터 변경 과정을 설명하기 위한 흐름도,
도 5는 본 개시의 일 실시 예에 따른 축소 비율 결정 방법을 나타내는 흐름도, 그리고,
도 6은 본 개시의 일 실시 예에 따른 시각적 특징 추출 방법을 설명하기 위한 도면이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 개시에 대해 구체적으로 설명하기로 한다.
본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 개시의 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 발명된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시 예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시의 실시 예에서 '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 혹은 복수의 '부'는 특정한 하드웨어로 구현될 필요가 있는 '모듈' 혹은 '부'를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
이하에서는 도면을 참조하여 본 발명에 대해 더욱 상세히 설명하기로 한다.
도 1은 본 개시의 일 실시 예에 따른 영상 처리 장치의 간략한 구성을 설명하기 위한 블럭도이다.
도 1을 참조하면, 영상 처리 장치(100)는 통신부(110) 및 프로세서(120)를 포함한다. 여기서, 영상 처리 장치(100)는 입력된 영상을 처리하여 별도의 디스플레이 장치로 전송하는 셋탑박스, 서버 형태로 구현될 수 있다. 그러나, 이에 한정되지 않고, 장치 자체에서 표시할 수 있는 디스플레이를 구비한 TV, PC, 모바일 장치 등의 디스플레이 장치일 수 있다.
통신부(110)는 다양한 유형의 통신 방식에 따라 다양한 유형의 외부 기기와 통신을 수행하는 구성이다. 구체적으로, 통신부(110)는 외부 장치로부터 저화질 영상을 수신하고, 프로세서(120)에 의해 생성된 고화질 영상을 별도의 디스플레이 장치와 같은 외부 장치로 전송할 수 있다. 그리고, 통신부(110)는 저화질 영상에 대응되는 고화질 영상인 원본 영상도 입력받을 수 있다.
구체적으로, 통신부(110)는 외부 장치로부터 안테나, 케이블 또는 포트와 같은 유선 방식을 통하여 영상을 입력받거나, 와이파이(Wi-Fi), 블루투스와 같은 무선 방식을 통하여 영상을 입력받을 수 있다. 한편, 실제 구현시에는, 영상 처리 장치(100)는 영상 처리 장치(100)에 구비된 저장부(미도시)에 저장된 복수의 영상 중 사용자가 선택한 영상을 입력받아 영상 처리할 수도 있다.
영상 처리 장치(100)가 무선 통신이 가능한 경우, 통신부(110)는 와이파이칩, 블루투스 칩, 무선 통신 칩, NFC 칩을 포함할 수 있다. 구체적으로, 와이파이 칩, 블루투스 칩은 각각 WiFi 방식, 블루투스 방식으로 통신을 수행한다. 와이파이 칩이나 블루투스 칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신 칩은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. NFC 칩은 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz 등과 같은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 동작하는 칩을 의미한다.
프로세서(120)는 통신부(110)에 의해 입력된 영상을, 영상 처리를 위한 파라미터를 이용하여 영상 처리할 수 있다. 구체적으로, 영상 처리는 화질 개선 처리를 의미할 수 있으며, 프로세서(120)는 기저장된 영상 처리를 위한 파라미터를 이용하여, 입력된 영상을 업스케일링(up-scaling)한 고화질 영상을 생성할 수 있다.
여기서, 업스케일링은 저화질 영상에서 고화질 영상 구현을 위해 늘어난 화소를 보정하는 것을 의미하며, 화면의 크기가 동일한 경우 원래 화면보다 선명하고 뚜렷한 영상을 얻을 수 있으며, 화면의 크기가 커지는 경우에도 원래 화면보다 화질이 저하되지 않은 영상을 얻을 수 있다.
이때, 프로세서(120)는 생성된 고화질 영상을 이용하여 기저장된 파라미터를 조정할 수 있다. 구체적으로, 프로세서(120)는 생성된 고화질 영상 및 생성된 고화질 영상을 기설정된 비율로 축소한 영상으로부터 시각적 특징을 각각 추출하고, 추출된 시각적 특징을 이용하여 기저장된 파라미터를 조정할 수 있다.
여기서, 시각적 특징은 사용자가 영상을 눈으로 보았을 때 인지할 수 있는 특징으로, 영상의 밝기, 색감, 명암, 채도, 대비 등의 영상의 속성 뿐만 아니라, 영상 내 각 영역의 영상 신호의 주파수 형태, 영상에 포함된 에지의 형태 및 밀도, 색상의 배열 등으로부터 느껴지는 질감을 나타내는 텍스쳐(texture) 특징을 포함할 수 있다.
여기서, 기설정된 비율은, 생성된 고화질 영상을 서로 다른 복수의 비율로 축소된 복수의 축소된 영상 중 고화질 원본 영상에서 추출한 시각적 특징과 가장 유사한 시각적 특징을 갖는 축소된 영상에 대응되는 축소 비율일 수 있다. 여기서, 축소 비율은 0과 1 사이일 수 있다. 이러한 축소 비율 결정 과정은 프로세서(120)에 의해 수행되거나, 외부 장치로부터 미리 기계 학습을 통해 결정된 값일 수 있다. 유사도를 이용하여 축소 비율을 결정하는 구체적인 방법은 이하 도 5를 참조하여 자세히 설명한다.
한편, 프로세서(120)는 입력된 영상의 열화 정도에 따라 축소 비율을 결정할 수 있다. 구체적으로, 영상 처리 장치(100)는 영상의 복수의 열화 정도에 각각 대응되는 복수의 축소 비율 정보를 미리 저장하고 있을 수 있으며, 이때, 복수의 축소 비율 정보는 룩업테이블 형태로 저장되어 있을 수 있다. 한편, 프로세서(120)는 생성된 고화질 영상의 열화 정도에 따라 축소 비율을 결정할 수도 있다.
프로세서(120)는 생성된 고화질 영상 및 생성된 고화질 영상을 기설정된 비율로 축소한 영상에서 각각 추출된 시각적 특징을 비교하고, 시각적 특징의 차이가 기설정된 범위 내에 있도록 파라미터를 변경할 수 있다. 바람직하게는, 프로세서(120)는 시각적 특징의 차이가 최소가 되도록 파라미터를 조정할 수 있다.
여기서, 시각적 특징이 기설정된 범위 내에 있다는 것은, 생성된 고화질 영상에서 추출된 시각적 특징을 기준으로, 생성된 고화질 영상에서 추출된 시각적 특징이 축소된 영상에서 추출된 시각적 특징의 기설정된 범위 내에 있다는 것을 의미할 수 있다. 한편, 이에 한정되지는 않으며, 다양한 기준으로 파라미터 조정 범위가 결정될 수 있다.
그리고, 프로세서(120)는 기저장된 파라미터를 이용하여 생성된 고화질 영상 및 통신부(110)를 통해 입력된 고화질 원본 영상의 구조적 특징을 각각 추출하고, 추출된 구조적 특징을 이용하여 기저장된 파라미터를 조정할 수 있다. 구체적으로, 프로세서(120)는 각각 추출된 구조적 특징의 차이가 기설정된 범위 내에 있도록 파라미터를 변경할 수 있다. 바람직하게는, 프로세서(120)는 구조적 특징의 차이가 최소가 되도록 파라미터를 조정할 수 있다.
여기서, 구조적 특징은 영상을 분석하였을 때 객관적으로 획득할 수 있는 특징으로, 영상의 밝기, 색감, 명암, 채도, 대비 등의 영상의 속성 뿐만 아니라, 영상의 하나의 프레임 전체에 포함된 윤곽, 에지의 위치, 굵기, 선명도, 에지 주변의 밝기, 색감, 명암, 채도 등의 차이 등 영상 프레임을 구성하는 특징을 포함할 수 있다.
구체적으로, 프로세서(120)는 영상 신호 변화에 기초하여 영상 프레임의 에지의 위치를 통해 윤곽을 검출하고, 에지의 폭, 에지의 선명도 등을 검출하여 영상 프레임의 구조적 특징을 추출할 수 있다.
한편, 프로세서(120)는 생성된 고화질 영상 및 생성된 고화질 영상을 기설정된 비율로 축소한 영상에서 각각 추출된 시각적 특징의 차이와, 생성된 고화질 영상 및 입력된 고화질 원본 영상에서 각각 추출된 구조적 특징의 차이의 합이 기설정된 범위 내에 있도록 파라미터를 변경할 수 있다. 바람직하게는, 프로세서(120)는 시각적 특징의 차이 및 구조적 특징의 차이의 합이 최소가 되도록 파라미터를 조정할 수 있다.
이때, 프로세서(120)는 기계 학습(machine learnning) 방식을 이용하여 파라미터를 조정할 수 있다. 여기서, 기계 학습 방식은 새로운 정보를 습득하고, 습득한 정보를 효율적으로 사용할 수 있는 능력으로, 데이터의 생성량, 생성 주기, 생성 형식 등이 방대한 빅데이터 기술에서 한 단계 진보한 형태로 데이터들을 분석해 예측하는 기술을 일컫는다. 또한, 기계 학습은 작업을 반복적으로 수행함으로써 결과를 얻어내는 기술의 개선 과정을 포함할 수 있다.
구체적으로, 프로세서(120)는 생성된 고화질 영상에서 추출된 시각적 특징과 생성된 고화질 영상을 축소한 영상에서 추출된 시각적 특징의 차이가 기설정된 범위 내에 있도록, 기계 학습 방식을 이용하여 파라미터를 반복적으로 조정할 수 있다. 이를 위해 프로세서(120)는 고화질 영상 생성 동작, 생성된 고화질 영상 축소 동작, 고화질 영상 및 축소된 영상 각각의 시각적 특징 추출 동작 및 추출된 시각적 특징을 이용하여 파라미터를 변경하는 동작을 반복적으로 수행하여 파라미터를 조정할 수 있다.
한편, 프로세서(120)는 생성된 고화질 영상에서 추출된 구조적 특징과 입력된 고화질 원본 영상에서 추출된 구조적 특징의 차이가 기설정된 범위 내에 있도록, 기계 학습 방식을 이용하여 파라미터를 반복적으로 조정할 수 있다. 그리고, 프로세서(120)는 생성된 고화질 영상 및 생성된 고화질 영상을 기설정된 비율로 축소한 영상에서 각각 추출된 시각적 특징의 차이와, 생성된 고화질 영상 및 입력된 고화질 원본 영상에서 각각 추출된 구조적 특징의 차이의 합이 기설정된 범위 내에 있도록 파라미터를 반복적으로 조정할 수 있다.
한편, 프로세서(120)는 저화질 영상이 입력되면, 조정된 파라미터를 이용하여 입력된 저화질 영상에 대한 영상 처리를 수행할 수 있다.
상술한 본 개시의 다양한 실시 예에 따르면, 입력된 영상에 텍스쳐 영역과 비 텍스쳐 영역이 혼재된 경우에도 종래 기술보다 월등히 높은 화질의 영상을 생성할 수 있다. 또한, 기저장된 파라미터를 이용하여 생성된 고화질 영상을 이용하는 바, 고화질 원본 영상만 이용한 종래 기술보다 용이한 범위 내에서 파라미터 조정이 가능하다는 효과가 있다.
도 2는 본 개시의 일 실시 예에 따른 영상 처리 장치의 구체적인 구성을 설명하기 위한 블럭도이다.
도 2를 참조하면, 영상 처리 장치(100)는 통신부(110), 프로세서(120), 저장부(130), 디스플레이(140), 버튼(150), 비디오 프로세서(160), 오디오 프로세서(170), 마이크부(180), 촬상부(185), 오디오 출력부(190)를 포함할 수 있다. 여기서, 통신부(110) 및 프로세서(120)는 도 1에 도시된 구성과 동일한 바, 중복된 기재는 생략한다.
저장부(130)는 영상 처리 장치(100)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 구체적으로는, 저장부(130)에는 입력된 영상을 영상 처리하기 위한 파라미터가 저장될 수 있다. 이때, 저장된 파라미터는 이전부터 입력된 저화질 영상 및 이에 대응되는 고화질 영상을 기초로 기계 학습된 것일 수 있다.
그리고, 저장부(130)는 입력된 영상을 축소하는데 사용하기 위한 축소 비율이 저장될 수 있다. 이때, 저장되는 축소 비율은 제조사가 기계 학습을 통해 계산해낸 것으로, 출고시에 기저장되었거나, 주기적인 펌웨어 업그레이드를 통해 갱신될 수 있다. 한편, 저장부(130)는 축소 비율을 도출하기 위한 알고리즘을 저장할 수도 있다.
그리고, 저장부(130)는 고화질 영상으로 업스케일링 될 복수의 저화질 영상을 저장할 수 있다. 프로세서(120)는 저장된 복수의 저화질 영상 중 사용자에 의해 선택된 저화질 영상에 대한 고화질 영상을 생성할 수 있다.
그리고, 저장부(130)는 영상의 열화 정도에 대응되는 축소 비율에 대한 정보가 저장될 수 있다. 이때, 열화 정도에 따른 축소 비율은 룩업테이블 형태로 저장될 수 있다.
그리고, 저장부(130)는 저화질 영상을 업스케일링 하기 위한 프로그램 및 데이터 등을 저장할 수 있다. 이로 인해, 프로세서(120)는 저장부(130)에 저장된 프로그램 및 데이터를 이용하여 입력된 저화질 영상으로 고화질 영상을 생성할 수 있고, 경우에 따라 파라미터 업데이트 과정 또는 업스케일링 과정에서 이용되는 축소 비율을 결정할 수 있다.
디스플레이(140)는 입력된 영상을 조정된 파라미터를 이용하여 영상 처리한 영상을 표시할 수 있다. 이때, 디스플레이(140)에 의해 표시되는 영상 처리된 영상은 입력된 영상을 조정된 파라미터로 화질 개선 처리하여 생성된 영상일 수 있다. 디스플레이(140)는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이(140) 내에는 a-si TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 또한, 디스플레이(140)은 플렉서블 디스플레이로 구현될 수도 있다.
그리고, 디스플레이(140)는 사용자의 터치 제스처를 감지하기 위한 터치 센서를 포함할 수 있다. 터치 센서는 정전식이나, 감압식, 압전식 등과 같은 다양한 유형의 센서로 구현될 수 있다. 정전식은 디스플레이 표면에 코팅된 유전체를 이용하여, 사용자의 신체 일부가 디스플레이(140) 표면에 터치되었을 때 사용자의 인체로 여기되는 미세 전기를 감지하여 터치 좌표를 산출하는 방식이다. 감압식은 디스플레이(140)에 내장된 두 개의 전극 판을 포함하여, 사용자가 화면을 터치하였을 경우, 터치된 지점의 상하 판이 접촉되어 전류가 흐르게 되는 것을 감지하여 터치 좌표를 산출하는 방식이다. 이 밖에도, 영상 처리 장치(100)가 펜 입력 기능도 지원하는 경우, 디스플레이(140)는 사용자의 손가락 이외에도 펜과 같은 입력 수단을 이용한 사용자 제스처도 감지할 수 있다. 입력 수단이 내부에 코일을 포함하는 스타일러스 펜일 경우, 영상 처리 장치(100)는 스타일러스 펜 내부의 코일에 의해 변화되는 자기장을 감지할 수 있는 자기장 감지 센서를 포함할 수도 있다. 이에 따라, 터치 제스처뿐만 아니라 근접 제스처, 즉, 호버링(hovering)도 감지할 수 있게 된다.
한편, 이상에서는 표시 기능과 제스처 감지 기능이 동일한 구성에서 수행되는 것으로 설명하였지만, 서로 다른 구성에서 수행될 수도 있다. 그리고, 다양한 실시 형태에 따라, 영상 처리 장치(100)에 디스플레이(140)는 구비되지 않을 수도 있다.
프로세서(120)는 RAM(121), ROM(122), CPU(123), GPU(Graphic Processing Unit)(124), 버스(125)를 포함할 수 있다. RAM(121), ROM(122), CPU(123), GPU(Graphic Processing Unit)(124) 등은 버스(125)를 통해 서로 연결될 수 있다.
CPU(123)는 저장부(130)에 액세스하여, 저장부(130)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고 저장부(130)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.
ROM(122)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴-온 명령이 입력되어 전원이 공급되면, CPU(123)는 ROM(122)에 저장된 명령어에 따라 저장부(140)에 저장된 O/S를 RAM(121)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, CPU(123)는 저장부(140)에 저장된 각종 프로그램을 RAM(121)에 복사하고, RAM(121)에 복사된 프로그램을 실행시켜 각종 동작을 수행한다.
GPU(124)는 영상 처리 장치(100)의 부팅이 완료되면, 디스플레이(140)에 UI를 디스플레이한다. 구체적으로는, GPU(124)는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성할 수 있다. 연산부는 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다. 렌더링부는 연산부에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성한다. 렌더링부에서 생성된 화면(또는 사용자 인터페이스 창)은 디스플레이(140)로 제공되어, 메인 표시 영역 및 서브 표시 영역에 각각 표시된다.
버튼(150)은 영상 처리 장치(100)의 본체 외관의 전면부나 측면부, 배면부 등의 임의의 영역에 형성된 기계적 버튼, 터치 패드, 휠 등과 같은 다양한 유형의 버튼이 될 수 있다.
비디오 프로세서(160)는 통신부(110)를 통해 수신된 컨텐츠 또는, 저장부(130)에 저장된 컨텐츠에 포함된 비디오 데이터를 처리하기 위한 구성요소이다. 비디오 프로세서(160)에서는 비디오 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 프레임 레이트 변환, 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다.
오디오 프로세서(170)는 통신부(110)를 통해 수신된 컨텐츠 또는, 저장부(130)에 저장된 컨텐츠에 포함된 오디오 데이터를 처리하기 위한 구성요소이다. 오디오 프로세서(170)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다.
프로세서(120)는 멀티미디어 컨텐츠에 대한 재생 애플리케이션이 실행되면 비디오 프로세서(160) 및 오디오 프로세서(170)를 구동시켜, 해당 컨텐츠를 재생할 수 있다. 이때, 디스플레이(140)는 비디오 프로세서(160)에서 생성한 이미지 프레임을 메인 표시 영역, 서브 표시 영역 중 적어도 하나의 영역에 디스플레이할 수 있다.
오디오 출력부(190)는 오디오 프로세서(170)에서 생성한 오디오 데이터를 출력한다.
마이크부(180)는 사용자 음성이나 기타 소리를 입력받아 오디오 데이터로 변환하기 위한 구성이다. 프로세서(120)는 마이크부(180)를 통해 입력되는 사용자 음성을 통화(call) 과정에서 이용하거나, 오디오 데이터로 변환하여 저장부(130)에 저장할 수 있다. 한편, 마이크부(180)는 복수의 위치에서 소리 입력을 받는 스테레오 마이크로 구성될 수 있다.
촬상부(185)는 사용자의 제어에 따라 정지 영상 또는 동영상을 촬상하기 위한 구성이다. 촬상부(185)는 전면 카메라, 후면 카메라와 같이 복수 개로 구현될 수 있다. 상술한 바와 같이, 촬상부(185)는 사용자의 시선 추적을 위한 실시 예에서 사용자의 이미지를 획득하기 위한 수단으로 사용될 수 있다.
촬상부(185) 및 마이크부(180)가 마련된 경우, 프로세서(120)는 마이크부(180)를 통해 입력되는 사용자 음성이나 촬상부(185)에 의해 인식되는 사용자 모션에 따라 제어 동작을 수행할 수도 있다. 즉, 영상 처리 장치(100)는 모션 제어 모드나 음성 제어 모드로 동작할 수 있다. 모션 제어 모드로 동작하는 경우, 프로세서(120)는 촬상부(185)를 활성화시켜 사용자를 촬상하고, 사용자의 모션 변화를 추적하여 그에 대응되는 제어 동작을 수행한다. 음성 제어 모드로 동작하는 경우 프로세서(120)는 마이크부(180)를 통해 입력된 사용자 음성을 분석하고, 분석된 사용자 음성에 따라 제어 동작을 수행하는 음성 인식 모드로 동작할 수도 있다.
모션 제어 모드나 음성 제어 모드가 지원되는 영상 처리 장치(100)에서는, 음성 인식 기술 또는 모션 인식 기술이 상술한 다양한 실시 예에 사용될 수 있다. 가령, 사용자가 홈 화면에 표시된 오브젝트를 선택하는 듯한 모션을 취하거나, 그 오브젝트에 대응되는 음성 명령어를 발음하는 경우, 해당 오브젝트가 선택된 것으로 판단하고, 그 오브젝트에 매칭된 제어 동작을 수행할 수 있다.
그 밖에, 도 2에 도시하지는 않았으나, 실시 예에 따라서는, 영상 처리 장치(100) 내에 USB 커넥터가 연결될 수 있는 USB 포트나, 헤드셋, 마우스, LAN 등과 같은 다양한 외부 단자와 연결하기 위한 다양한 외부 입력 포트, DMB(Digital Multimedia Broadcasting) 신호를 수신하여 처리하는 DMB 칩, 다양한 센서 등을 더 포함할 수 있음은 물론이다.
도 3은 본 개시의 일 실시 예에 따른 영상 처리 방법을 보다 구체적으로 설명하기 위한 흐름도이다.
도 3을 참조하면, 우선 영상 처리 장치는 저화질 영상(31)을 입력받는다. 이때, 영상 처리 장치는 저화질 영상(31)보다 고화질인 원본 고화질 영상(33)을 함께 입력받을 수 있다. 이때, 저화질 영상(31)은 원본 고화질 영상(33)의 화질이 저하된 영상일 수 있다. 그리고, 영상 처리 장치는 입력받은 저화질 영상(31)을 기저장된 파라미터로 영상 처리를 수행할 수 있다(S310). 이때, 기저장된 파라미터는 영상 처리를 위한 파라미터로, 미리 기계 학습된 것일 수 있다.
그 다음, 영상 처리 장치는 영상 처리하여 생성된 고화질 영상(32) 및 입력된 원본 고화질 영상(33) 각각의 구조적 특징을 추출하고, 추출된 구조적 특징을 분석할 수 있다(S320).
그리고, 영상 처리 장치는 생성된 고화질 영상(32)의 구조적 특징과 입력된 원본 고화질 영상(33)의 구조적 특징의 차이가 기설정된 범위 이내에 있도록 파라미터를 조정할 수 있다(S330). 이때, 구조적 특징의 차이가 기설정된 범위 이내에 있다는 것은, 생성된 고화질 영상(32)의 구조적 특징이 원본 고화질 영상(33)의 구조적 특징의 기설정된 범위 내에 있다는 것을 의미할 수 있다.
한편, 영상 처리 장치는 영상의 시각적 특징을 이용하여 파라미터를 조정할 수 있다. 구체적으로, 영상 처리 장치는 입력된 원본 고화질 영상(33)을 이용하여 생성된 고화질 영상(32)을 기설정된 비율로 축소할 수 있다. 여기서, 기설정된 비율은, 생성된 고화질 영상(32)을 서로 다른 복수의 축소 비율로 축소한 복수의 축소된 영상 중 추출된 시각적 특징이 원본 고화질 영상(33)에서 추출된 시각적 특징과 가장 유사한 영상에 대응되는 축소 비율일 수 있다.
그리고, 영상 처리 장치는 생성된 고화질 영상(32)을 기설정된 비율로 축소하여 생성한 축소된 영상(34)과 생성된 고화질 영상(32)에서 각각의 시각적 특징을 추출하고, 추출된 시각적 특징을 분석할 수 있다(S350).
그리고, 영상 처리 장치는 축소된 영상(34)의 시각적 특징과 생성된 고화질 영상(32)의 시각적 특징의 차이가 기설정된 범위 이내에 있도록 파라미터를 조정할 수 있다(S360). 이때, 시각적 특징의 차이가 기설정된 범위 이내에 있다는 것은, 축소된 영상 생성된 고화질 영상(32)의 시각적 특징이 축소된 영상(34)의 시각적 특징의 기설정된 범위 이내에 있다는 것을 의미할 수 있다. 시각적 특징 추출 및 추출된 시각적 특징으로 파라미터를 변경하는 구체적인 방법은 이하도 4를 참조하여 자세히 설명하기로 한다.
한편, 이상에서는 설명의 편의를 위해 구조적 특징 분석에 따른 파라미터 조정 이후 시각적 특징 분석에 따른 파라미터 조정을 수행하는 것으로 도시하고 설명하였으나, 순서는 한정되지 않으며, 동시에 수행될 수도 있다. 또한, 이상에서 설명한 바와 같이 파라미터 조정이 특징 분석에 따라 각각 수행될 수도 있고, 실제 구현시에는, 시각적 특징 및 구조적 특징 분석을 모두 고려하여 파라미터를 조정할 수 있다. 구체적으로, 영상 처리 장치는 시각적 특징의 차이 및 구조적 특징의 차이의 합이 최소가 되도록 파라미터를 조정할 수 있다.
상술한 본 개시의 다양한 실시 예에 따르면, 입력된 영상에 텍스쳐 영역과 비 텍스쳐 영역이 혼재된 경우에도 종래 기술보다 월등히 높은 화질의 영상을 생성할 수 있다. 또한, 기저장된 파라미터를 이용하여 생성된 고화질 영상을 이용하는 바, 고화질 원본 영상만 이용한 종래 기술보다 용이한 범위 내에서 파라미터 조정이 가능하다는 효과가 있다.
도 4는 본 개시의 일 실시 예에 따른 도 3의 영상 처리 방법 중 시각적 특징을 이용한 파라미터 변경 과정을 설명하기 위한 흐름도이다.
도 4를 참조하면, 우선 영상 처리 장치는 영상을 입력받을 수 있다(S410). 구체적으로, 영상 처리 장치는 외부 장치로부터 영상을 입력받을 수 있으며, 입력된 영상은 저화질 영상일 수 있다. 이때, 영상 처리 장치는 저화질 영상에 대응되는 고화질 원본 영상을 함께 입력받을 수 있으며, 여기서 저화질 영상은 고화질 원본 영상의 화질이 저하된 영상일 수 있다. 한편, 영상 처리 장치는 구비된 저장부에 저장된 복수의 영상 중 어느 하나를 입력받을 수도 있다.
그 다음, 영상 처리 장치는 기설정된 파라미터를 이용하여 영상 처리한 제1 영상을 생성할 수 있다(S420). 여기서, 기설정된 파라미터는 저장부에 기저장된 것일 수 있으며, 영상의 화질 개선을 위한 파라미터일 수 있다. 그리고, 기설정된 파라미터는 복수의 입력된 영상의 화질 개선을 수행하면서 기계 학습된 것일 수 있다. 그리고, 기설정된 파라미터를 이용하여 영상 처리한 제1 영상은 입력된 영상보다 화질이 개선된 고화질 영상일 수 있다.
그 다음, 영상 처리 장치는 생성된 제1 영상을 기설정된 비율로 축소한 제2 영상을 생성할 수 있다(S430). 구체적으로, 기설정된 비율은 제1 영상을 서로 다른 복수의 축소 비율로 축소한 복수의 축소 영상 중 입력된 고화질 원본 영상의 시각적 특징과 가장 유사한 시각적 특징을 갖는 축소 영상에 대응되는 것일 수 있다. 한편, 이에 한정되지 않고, 기설정된 비율은 복수의 축소 비율 중 입력된 저화질 영상 또는 제1 영상의 화질 열화 정도에 따라 하나의 축소 비율로 선택되는 것일 수 있다.
그 다음, 영상 처리 장치는 제1 영상 및 제2 영상의 시각적 특징을 각각 추출할 수 있다(S440). 구체적으로, 영상 처리 장치는 멀티-레이어(multi-layer)기법을 이용하여 제1 영상 및 제2 영상의 시각적 특징을 추출하고, 추출된 복수의 시각적 특징 각각에 대한 다양한 크기의 특징 맵(feature map)을 계산할 수 있다. 이때, 축소된 영상인 제2 영상의 특징 맵은 제1 영상의 특징 맵의 크기와 일치시키기 위해 제1 영상의 특징 맵의 크기와 대응되도록 제2 영상을 여러개 배열한 상태에서 계산된 것일 수 있다. 예를 들어, 제1 영상을 0.5배로 축소하여 제2 영상을 생성하였다면, 영상 처리 장치는 제2 영상을 2 x 2로 배열한 뒤, 배열된 영상에서 시각적 특징에 대한 특징 맵을 계산할 수 있다.
여기서, 레이어는 영상의 크기와 연관된 것으로, 레이어 지수가 증가할수록 전체 영상의 크기는 작아진다. 예를 들어, 레이어 지수가 작으면, 영상 내 국소 범위에 대한 특징 맵이 계산되고, 레이어 지수가 크면, 영상 내 보다 넓은 범위에 대한 특징 맵이 계산된다. 다양한 레이어에 대한 실시 예는 이하 도 6을 참조하여 설명하기로 한다.
그리고, 계산된 특징 맵에 기초하여 각각의 레이어 상에서 특징 맵 간의 연관 관계를 측정하는 그램 매트릭스(Gram matrix)를 계산할 수 있다.
기저장된 파라미터에 의해 생성된 고화질 영상인 제1 영상에서 추출된 시각적 특징이 제1 영상을 축소한 제2 영상의 시각적 특징과 유사하기 위해서는 각 레이어에서 구한 그램 매트릭스가 유사해야 하는 바, 우선 영상 처리 장치는 각 레이어 상에서 제1 영상의 시각적 특징과 제2 영상의 시각적 특징의 그램 매트릭스의 차이를 구할 수 있다.
각 레이어 상에서 나온 영상의 시각적 특징(
Figure 112017085206924-pat00001
)을 이용하여 다음과 같이 그램 매트릭스(
Figure 112017085206924-pat00002
)를 계산할 수 있다.
Figure 112017085206924-pat00003
여기서, z는 입력 영상, l은 레이어의 인덱스, i 및 j는 시각적 특징의 인덱서, k는 시각적 특징의 픽셀의 인덱스를 나타낸다. 그램 매트릭스의 차이(
Figure 112017085206924-pat00004
)는 각 레이어 별로 가중치
Figure 112017085206924-pat00005
를 주어 다음과 같이 계산할 수 있다.
Figure 112017085206924-pat00006
Figure 112017085206924-pat00007
여기서, x는 제1 영상, s는 제2 영상을 나타낸다.
그 다음, 영상 처리 장치는 제1 영상의 시각적 특징과 제2 영상의 시각적 특징의 상호 대응되는 픽셀 값의 차(
Figure 112017085206924-pat00008
)를 계산할 수 있다.
Figure 112017085206924-pat00009
Figure 112017085206924-pat00010
그 다음, 영상 처리 장치는 이에 기초하여 제1 영상의 시각적 특징 및 제2 영상의 시각적 특징의 차이가 기설정된 범위 내에 있도록 기저장된 파라미터를 변경할 수 있다(S450).
한편, 실제 구현시에는 이상의 과정을 여러 번 반복하는 기계 학습을 통하여 원본 영상과 유사한 고화질 영상을 생성하는데 가장 적합한 파라미터를 도출할 수 있다.
한편, 이상에 기재한 시각적 특징 추출 및 파라미터 변경 과정은 구조적 특징을 이용한 파라미터 변경 과정에서 동일한 순서로 적용 가능하다. 구체적으로, 영상 처리 장치는 생성된 고화질 영상의 구조적 특징을 추출한 특징 맵과 원본 고화질 영상의 구조적 특징을 추출한 특징 맵의 상호 대응되는 픽셀 값의 차를 계산하여 차이가 기설정된 범위 이내가 되도록 파라미터를 변경할 수 있다.
한편, 시각적 특징 및 구조적 특징을 모두 이용한 파라미터 변경 과정에도 적용 가능함은 물론이다. 구체적으로, 영상 처리 장치는 제1 영상의 시각적 특징과 제2 영상의 시각적 특징의 상호 대응되는 그램 매트릭스의 차와, 생성된 고화질 영상의 구조적 특징의 특징 맵과 원본 고화질 영상의 구조적 특징의 특징 맵의 상호 대응되는 픽셀 값의 차의 합을 다음과 같이 계산하여, 차의 합(C)이 기설정된 범위 이내가 되도록 파라미터를 변경할 수 있다.
Figure 112017085206924-pat00011
상술한 본 개시의 다양한 실시 예에 따르면, 입력된 영상에 텍스쳐 영역과 비 텍스쳐 영역이 혼재된 경우에도 종래 기술보다 월등히 높은 화질의 영상을 생성할 수 있다. 또한, 기저장된 파라미터를 이용하여 생성된 고화질 영상을 이용하는 바, 고화질 원본 영상만 이용한 종래 기술보다 용이한 범위 내에서 파라미터 조정이 가능하다는 효과가 있다.
도 5는 본 개시의 일 실시 예에 따른 축소 비율 결정 방법을 나타내는 흐름도이다.
도 5를 참조하면, 영상 처리 장치는 생성된 고화질 영상을 서로 다른 복수의 비율로 축소할 수 있다(S510). 예를 들어, 영상 처리 장치는 0.1, 0.3, 0.5, 0.7, 0.9와 같은 5개의 축소 비율을 이용하여 생성된 고화질 영상을 축소한 5개의 축소 영상을 생성할 수 있다.
그 다음, 영상 처리 장치는 복수의 축소된 영상의 시각적 특징 및 입력 영상보다 고화질인 영상의 시각적 특징을 추출 및 비교할 수 있다(S520). 여기서 입력 영상보다 고화질인 영상은 저화질인 입력 영상에 대응되는 고화질 원본 영상일 수 있다.
구체적으로, 영상 처리 장치는 각 축소 비율로 축소된 영상 복수 개를 입력된 영상의 크기에 대응되도록 배열하고, 배열된 각 영상에서 시각적 특징을 추출할 수 있다. 예를 들어, 영상 처리 장치는 0.1의 스케일 팩터로 축소된 영상 복수 개를 이용하여 입력된 영상과 대응되는 크기로 배열하고, 배열된 영상에서 시각적 특징을 추출할 수 있다. 동일하게, 영상 처리 장치는 0.3, 0.5, 0.7, 0.9의 스케일 팩터 각각에 대한 시각적 특징을 추출할 수 있다. 한편, 실제 구현시에는 스케일 팩터가 이상의 예시에 기재된 값들에 한정되지 않으며, 스케일 팩터의 개수 또한 4개 이하 6개 이상일 수 있다.
그리고, 영상 처리 장치는 복수의 축소 영상에서 각각 추출된 복수의 시각적 특징 및 고화질 원본 영상의 시각적 특징을 각각 비교할 수 있다. 구체적으로, 영상 처리 장치는 멀티-레이어(multi-layer)기법을 이용하여 고화질 원본 영상의 시각적 특징 및 복수의 축소 영상에서 각각 추출된 복수의 시각적 특징 각각에 대한 다양한 크기의 특징 맵을 계산할 수 있다. 여기서, 레이어는 영상의 크기와 연관된 것으로, 레이어 지수가 증가할수록 전체 영상의 크기는 작아진다. 예를 들어, 레이어 지수가 작으면, 영상 내 국소 범위에 대한 특징 맵이 계산되고, 레이어 지수가 크면, 영상 내 보다 넓은 범위에 대한 특징 맵이 계산된다.
그리고, 계산된 특징 맵에 기초하여 각각의 레이어 상에서 특징 맵 간의 연관 관계를 측정하는 그램 매트릭스(Gram matrix)를 계산할 수 있다.
축소된 영상에서 추출된 시각적 특징이 고화질 원본 영상의 시각적 특징과 유사하기 위해서는, 각 레이어에서 구한 그램 매트릭스가 유사해야 하는 바, 우선 영상 처리 장치는 각 레이어 상에서 고화질 원본 영상의 시각적 특징과 축소 영상에서 추출된 시각적 특징의 그램 매트릭스의 차이를 구한다.
그 다음, 영상 처리 장치는 고화질 원본 영상의 시각적 특징과 축소 영상에서 추출된 시각적 특징의 상호 대응되는 그램 매트릭스의 차이의 평균을 계산할 수 있다.
그 다음, 영상 처리 장치는 복수의 축소 영상에서 각각 추출된 복수의 시각적 특징 중 고화질 원본 영상의 시각적 특징과 유사도가 가장 높은 축소 영상을 선택할 수 있다(S530). 여기서, 유사도가 가장 높다는 것은, 그램 매트릭스 차이의 평균이 최소임을 의미한다. 즉, 영상 처리 장치는 복수의 축소 비율 중 고화질 원본 영상의 시각적 특징과 그램 매트릭스 차이의 평균이 최소인 시각적 특징을 갖는 축소 영상을 선택할 수 있다.
그 다음, 영상 처리 장치는 선택된 축소된 영상에 대응되는 비율을 기설정된 비율로 이용할 수 있다(S540).
한편, 이상에서는 특징 맵을 이용하여 고화질 원본 영상과 가장 유사한 시각적 특징을 갖는 축소 영상에 대응되는 축소 비율을 결정하였으나, 실제 구현시에는 입력된 저화질 영상의 화질 열화 정도에 따라 축소 비율을 결정할 수 있다.
구체적으로, 입력된 저화질 영상에 비해 생성된 고화질 영상의 화질 개선률에 기초하여 입력된 영상의 화질 열화 정도를 결정할 수 있으며, 화질 열화 정도에 따라 이에 대응되는 축소 비율을 결정할 수 있다. 이때, 화질 열화 정도와 축소 비율은 룩업 테이블 형태로 기저장된 것일 수 있다.
상술한 바와 같이, 외부 장치 등에서 미리 결정된 축소 비율을 사용했던 선행 기술에 비해, 입력된 영상마다 축소 비율을 결정하는 바, 보다 원본 영상에 가깝도록 영상 처리가 가능하다는 효과를 기대할 수 있다.
도 6은 본 개시의 일 실시 예에 따른 시각적 특징 추출 방법을 설명하기 위한 도면이다. 구체적으로, 도 6은 멀티 레이어 기법을 이용하여 입력된 영상의 시각적 특징을 추출하는 방법을 설명하기 위한 도면이다.
도 6을 참조하면, 영상 처리 장치에 도 6(a)에 도시된 영상이 입력되는 경우, 영상 처리 장치는 다양한 레벨에서의 특징 맵을 계산할 수 있다. 구체적으로, 영상 처리 장치는 도 6(b) 내지 도 6(d)에 도시된 바와 같이 높은 레벨에서 낮은 레벨에서의 특징 맵을 계산할 수 있다. 도 6에서는 설명의 편의를 위하여 높은 레벨에서 낮은 레벨 순으로 도시하였으나, 실제 구현시에는 낮은 레벨에서 높은 레벨 순으로 처리될 수도 있다.
여기서, 레벨이 낮아진다는 것은 전체 영상의 크기가 커진다는 의미일 수 있다. 예를 들어, 레벨이 낮으면 영상 내 국소 범위에 대한 특징 맵이 계산되고, 레벨이 높으면 영상 내에서 보다 넓은 범위에 대한 특징 맵이 계산될 수 있다. 즉, 높은 레벨에서 낮은 레벨로 갈수록, 입력 영상 내에서 시각적 특징이 추출되는 범위는 좁아지나, 국소 범위를 확대하여 시각적 특징을 추출하는 바, 상세한 특징이 추출될 수 있다.
높은 레벨에서의 특징 맵인 도 6(b)를 참조하면, 도 6(b) 내지 도 6(d) 중 입력 영상 내에서 가장 넓은 범위인 얼굴 전체 범위에 대한 특징 맵이 계산될 수 있다.
보다 낮은 레벨에서의 특징 맵인 도 6(c)를 참조하면, 입력 영상 내에서 계산되는 특징 맵은 얼굴의 각 부위인 눈, 코, 입에 대한 것이며, 도 6(b)에서의 얼굴 전체에 대한 특징 맵보다 좁은 범위이고, 도 6(c)의 특징 맵을 포함한 전체 영상의 크기는 도 6(b)의 전체 영상의 크기보다 클 수 있다.
가장 낮은 레벨에서의 특징 맵인 도 6(d)를 참조하면, 입력 영상 내에서 계산되는 특징 맵은 눈, 코 및 입의 일부에 대한 것이며, 도 6(c)에서의 각 부위에 대한 특징 맵보다 좁은 범위이고, 도 6(d)의 특징 맵을 포함한 전체 영상의 크기는 도 6(b) 내지 도 6(d) 중에서 가장 클 수 있다.
이상에 기재한 다양한 실시 예에 따라, 입력된 영상에 텍스쳐 영역과 비 텍스쳐 영역이 혼재된 경우에도 종래 기술보다 월등히 높은 화질의 영상을 생성할 수 있다. 또한, 기저장된 파라미터를 이용하여 생성된 고화질 영상을 이용하는 바, 고화질 원본 영상만 이용한 종래 기술보다 용이한 범위 내에서 파라미터 조정이 가능하다는 효과가 있다.
한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합된 것을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 하드웨어적인 구현에 의하면, 본 개시에서 설명되는 실시 예들은 ASICs(Application Specific Integrated Circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛(unit) 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시 예들이 프로세서(120) 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 영상 처리 방법은 비일시적 판독 가능 매체(non-transitory readable medium) 에 저장될 수 있다. 이러한 비일시적 판독 가능 매체는 다양한 장치에 탑재되어 사용될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 방법을 수행하기 위한 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시가 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.
100 : 영상 처리 장치 110 : 통신부
120 : 프로세서

Claims (20)

  1. 영상 처리 장치에 있어서,
    원본 영상 및 상기 원본 영상보다 낮은 품질의 저화질 영상을 입력받는 통신부; 및
    프로세서;를 포함하고,
    상기 프로세서는,
    상기 저화질 영상을 영상 처리를 위한 파라미터를 이용하여 상기 저화질 영상보다 고화질의 제1 영상을 생성하고,
    복수의 서로 다른 비율로 상기 제1 영상을 축소한 복수의 축소된 영상을 생성하며,
    상기 원본 영상과 상기 복수의 축소된 영상 각각으로부터 시각적 특징을 추출하고,
    상기 복수의 축소된 영상 중 상기 원본 영상으로부터 추출된 시각적 특징과 가장 유사한 시각적 특징을 가지는 축소된 영상을 제2 영상으로 선택하며,
    상기 제1 영상의 시각적 특징과 상기 제2 영상의 시각적 특징의 차이가 기설정된 제1 범위 내에 있도록 상기 파라미터를 조정하는 영상 처리 장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    기계 학습 방식을 이용하여 상기 파라미터를 조정하는 영상 처리 장치.
  3. 제1항에 있어서,
    상기 프로세서는,
    상기 제1 영상의 시각적 특징과 상기 제2 영상의 시각적 특징의 차이가 상기 기설정된 제1 범위 내에 있도록, 상기 제1 영상의 생성, 제2 영상의 생성, 상기 원본 영상 및 제2 영상의 시각적 특징 추출 및 파라미터의 조정을 반복적으로 수행하는 영상 처리 장치.
  4. 제1항에 있어서,
    상기 프로세서는,
    상기 제2 영상의 시각적 특징이 상기 제1 영상의 시각적 특징의 기설정된 제1 범위 내에 있도록 상기 파라미터를 조정하는 영상 처리 장치.
  5. 삭제
  6. 제1항에 있어서,
    상기 프로세서는,
    상기 제1 영상 및 상기 원본 영상 각각의 구조적 특징을 추출하고, 상기 제1 영상의 구조적 특징과 상기 원본 영상의 구조적 특징의 차이가 기설정된 제2 범위 내에 있도록 상기 파라미터를 기계 학습 방식으로 조정하는 영상 처리 장치.
  7. 제1항에 있어서,
    상기 프로세서는,
    상기 제1 영상 및 상기 원본 영상 각각의 구조적 특징을 추출하고, 상기 제1 영상의 시각적 특징과 상기 제2 영상의 시각적 특징의 차이와, 상기 제1 영상의 구조적 특징과 상기 원본 영상의 구조적 특징의 차이의 합이 기설정된 제3 범위 내에 있도록 상기 파라미터를 기계 학습 방식으로 조정하는 영상 처리 장치.
  8. 제1항에 있어서,
    상기 프로세서는,
    상기 조정된 파라미터를 이용하여 입력된 영상에 대한 영상 처리를 수행하는 영상 처리 장치.
  9. 제8항에 있어서,
    상기 입력된 영상에 대한 영상 처리된 영상을 표시하는 디스플레이;를 더 포함하는 영상 처리 장치.
  10. 제8항에 있어서,
    상기 프로세서는,
    상기 입력된 영상에 대한 영상 처리된 영상을 외부 장치에 전송하도록 상기 통신부를 제어하는 영상 처리 장치.
  11. 영상 처리 방법에 있어서,
    원본 영상 및 상기 원본 영상보다 낮은 품질의 저화질 영상을 입력받는 단계; 및
    상기 입력된 영상을 영상 처리하기 위한 파라미터를 조정하는 단계;를 포함하고,
    상기 조정하는 단계는,
    상기 저화질 영상을 영상 처리를 위한 파라미터를 이용하여 상기 저화질 영상보다 고화질의 제1 영상을 생성하는 단계;
    복수의 서로 다른 비율로 상기 제1 영상을 축소한 복수의 축소된 영상을 생성하는 단계;
    상기 원본 영상과 상기 복수의 축소된 영상 각각으로부터 시각적 특징을 추출하는 단계;
    상기 복수의 축소된 영상 중 상기 원본 영상으로부터 추출된 시각적 특징과 가장 유사한 시각적 특징을 가지는 축소된 영상을 제2 영상으로 선택하는 단계; 및
    상기 제1 영상의 시각적 특징과 상기 제2 영상의 시각적 특징의 차이가 기설정된 제1 범위 내에 있도록 상기 파라미터를 변경하는 단계;를 포함하는 영상 처리 방법.
  12. 제11항에 있어서,
    상기 조정하는 단계는,
    기계 학습 방식을 이용하여 상기 파라미터를 반복적으로 조정하는 영상 처리 방법.
  13. 제11항에 있어서,
    상기 변경하는 단계는,
    상기 제2 영상의 시각적 특징이 상기 제1 영상의 시각적 특징의 기설정 제1 범위 내에 있도록 상기 파라미터를 변경하는 영상 처리 방법.
  14. 삭제
  15. 제11항에 있어서,
    상기 조정하는 단계는,
    상기 제1 영상 및 상기 원본 영상 각각의 구조적 특징을 추출하는 단계; 및
    상기 제1 영상의 구조적 특징과 상기 원본 영상의 구조적 특징의 차이가 기설정된 제2 범위 내에 있도록 상기 파라미터를 변경하는 단계;를 더 포함하는 영상 처리 방법.
  16. 제11항에 있어서,
    상기 조정하는 단계는,
    상기 제1 영상 및 상기 원본 영상 각각의 구조적 특징을 추출하는 단계; 및
    상기 제1 영상의 시각적 특징과 상기 제2 영상의 시각적 특징의 차이와, 상기 제1 영상의 구조적 특징과 상기 원본 영상의 구조적 특징의 차이의 합이 기설정된 제3 범위 내에 있도록 상기 파라미터를 변경하는 단계;를 더 포함하는 영상 처리 방법.
  17. 제11항에 있어서,
    상기 조정된 파라미터를 이용하여 입력된 영상에 대한 영상 처리를 수행하는 단계;를 더 포함하는 영상 처리 방법.
  18. 제17항에 있어서,
    상기 입력된 영상에 대한 영상 처리된 영상을 표시하는 단계;를 더 포함하는 영상 처리 방법.
  19. 제17항에 있어서,
    상기 입력된 영상에 대한 영상 처리된 영상을 외부 장치에 전송하는 단계;를 더 포함하는 영상 처리 방법.
  20. 영상 처리 방법을 실행하기 위한 프로그램을 포함하는 컴퓨터 판독가능 기록 매체에 있어서,
    상기 영상 처리 방법은,
    원본 영상 및 상기 원본 영상보다 낮은 품질의 저화질 영상을 입력받는 단계; 및
    상기 입력된 영상을 영상 처리하기 위한 파라미터를 조정하는 단계;를 포함하고,
    상기 조정하는 단계는,
    상기 저화질 영상을 영상 처리를 위한 파라미터를 이용하여 상기 저화질 영상보다 고화질의 제1 영상을 생성하는 단계;
    복수의 서로 다른 비율로 상기 제1 영상을 축소한 복수의 축소된 영상을 생성하는 단계;
    상기 원본 영상과 상기 복수의 축소된 영상 각각으로부터 시각적 특징을 추출하는 단계;
    상기 복수의 축소된 영상 중 상기 원본 영상으로부터 추출된 시각적 특징과 가장 유사한 시각적 특징을 가지는 축소된 영상을 제2 영상으로 선택하는 단계; 및
    상기 제1 영상의 시각적 특징과 상기 제2 영상의 시각적 특징의 차이가 기설정된 제1 범위 내에 있도록 상기 파라미터를 변경하는 단계;를 포함하는 컴퓨터 판독가능 기록 매체.
KR1020170111970A 2017-09-01 2017-09-01 영상 처리 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체 KR102442449B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020170111970A KR102442449B1 (ko) 2017-09-01 2017-09-01 영상 처리 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체
EP18851168.7A EP3649612A4 (en) 2017-09-01 2018-08-30 IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND COMPUTER-READABLE RECORDING MEDIUM
CN201880056861.8A CN111095350B (zh) 2017-09-01 2018-08-30 图像处理设备、用于处理图像的方法和计算机可读记录介质
PCT/KR2018/010089 WO2019045499A1 (en) 2017-09-01 2018-08-30 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM
US16/121,057 US10922798B2 (en) 2017-09-01 2018-09-04 Image processing apparatus, method for processing image and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170111970A KR102442449B1 (ko) 2017-09-01 2017-09-01 영상 처리 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체

Publications (2)

Publication Number Publication Date
KR20190025385A KR20190025385A (ko) 2019-03-11
KR102442449B1 true KR102442449B1 (ko) 2022-09-14

Family

ID=65517391

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170111970A KR102442449B1 (ko) 2017-09-01 2017-09-01 영상 처리 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체

Country Status (5)

Country Link
US (1) US10922798B2 (ko)
EP (1) EP3649612A4 (ko)
KR (1) KR102442449B1 (ko)
CN (1) CN111095350B (ko)
WO (1) WO2019045499A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102442449B1 (ko) * 2017-09-01 2022-09-14 삼성전자주식회사 영상 처리 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체
US10789675B2 (en) 2018-12-28 2020-09-29 Intel Corporation Apparatus and method for correcting image regions following upsampling or frame interpolation
KR102676093B1 (ko) 2019-11-28 2024-06-19 삼성전자주식회사 전자 장치 및 그 제어 방법
KR20210155695A (ko) 2020-06-16 2021-12-23 삼성전자주식회사 화질 튜닝을 수행하는 이미지 처리 시스템 및 화질 튜닝 방법
US20210390671A1 (en) * 2020-06-16 2021-12-16 Samsung Electronics Co., Ltd. Image processing system for performing image quality tuning and method of performing image quality tuning
US20230025347A1 (en) * 2021-07-19 2023-01-26 Mediatek Inc. Graphics fusion technology scene detection and resolution controller

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090237686A1 (en) * 2008-03-18 2009-09-24 Ricoh Company, Limited Image processing apparatus, image processing method, and computer program product
US20150242178A1 (en) * 2014-02-24 2015-08-27 Samsung Electronics Co., Ltd. Display device, mobile device, system including the same, and image quality matching method thereof

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5232964B2 (ja) * 2000-05-25 2013-07-10 ゴールドチャームリミテッド 画像表示システム
JP2007181030A (ja) * 2005-12-28 2007-07-12 Funai Electric Co Ltd 画像表示装置
JP2007257585A (ja) * 2006-03-27 2007-10-04 Fujifilm Corp 画像処理方法および装置ならびにプログラム
JP2008178075A (ja) * 2006-12-18 2008-07-31 Sony Corp 表示制御装置、表示制御方法、及びプログラム
JP4978378B2 (ja) * 2007-08-31 2012-07-18 セイコーエプソン株式会社 画像処理装置
JP5272581B2 (ja) 2008-08-25 2013-08-28 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
US8379130B2 (en) * 2009-08-07 2013-02-19 Qualcomm Incorporated Apparatus and method of processing images based on an adjusted value of an image processing parameter
KR20110042980A (ko) * 2009-10-20 2011-04-27 삼성전자주식회사 반복 처리를 통해 화질을 개선하는 디스플레이 장치 및 이에 적용되는 영상 처리 방법
JP2011123587A (ja) * 2009-12-09 2011-06-23 Seiko Epson Corp 画像処理装置、画像表示装置および画像処理方法
WO2012164896A1 (ja) * 2011-05-31 2012-12-06 パナソニック株式会社 画像処理装置及び画像処理方法並びにデジタルカメラ
KR101960844B1 (ko) * 2011-11-01 2019-03-22 삼성전자주식회사 영상 처리 장치 및 방법
US20130163854A1 (en) * 2011-12-23 2013-06-27 Chia-Ming Cheng Image processing method and associated apparatus
JP2013135365A (ja) * 2011-12-27 2013-07-08 Canon Inc 画像処理装置、画像処理方法及びプログラム
CN102842115B (zh) 2012-05-31 2015-11-25 哈尔滨工业大学(威海) 基于双重字典学习的压缩感知图像超分辨率重建方法
JP2014179756A (ja) * 2013-03-14 2014-09-25 Canon Inc 画像処理装置、その制御方法、および制御プログラム
US9256919B2 (en) * 2013-04-05 2016-02-09 Grit Design, Inc. Systems and methods for image processing using a resizing template
KR102091136B1 (ko) * 2013-07-02 2020-03-19 삼성전자주식회사 영상 화질 개선 방법, 장치 및 기록 매체
US9396523B2 (en) 2013-07-24 2016-07-19 Microsoft Technology Licensing, Llc Image restoration cascade
JP6282133B2 (ja) * 2014-02-17 2018-02-21 キヤノン株式会社 撮像装置、その制御方法、および制御プログラム
CA2939928C (en) * 2014-02-19 2021-06-22 Evergaze, Inc. Apparatus and method for improving, augmenting or enhancing vision
JP6349962B2 (ja) * 2014-05-27 2018-07-04 富士ゼロックス株式会社 画像処理装置およびプログラム
JP6406949B2 (ja) * 2014-09-12 2018-10-17 キヤノン株式会社 画像処理装置及び画像処理方法
JP6494313B2 (ja) * 2015-02-09 2019-04-03 キヤノン株式会社 画像処理方法、装置システム、プログラム、記憶媒体
US9665927B2 (en) 2015-06-03 2017-05-30 Samsung Electronics Co., Ltd. Method and apparatus of multi-frame super resolution robust to local and global motion
KR20180128888A (ko) * 2015-07-24 2018-12-04 에테하 취리히 지각 다운스케일링 방법을 사용하여 이미지를 다운스케일링하기 위한 이미지 처리 시스템
JP6643827B2 (ja) * 2015-07-31 2020-02-12 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US10269092B2 (en) * 2016-06-17 2019-04-23 Nec Corporation Image processing device, image processing method, and storage medium
US10482574B2 (en) * 2016-07-06 2019-11-19 Gopro, Inc. Systems and methods for multi-resolution image stitching
CN106529419B (zh) 2016-10-20 2019-07-26 北京航空航天大学 视频显著性堆栈式聚合的对象自动检测方法
KR102384234B1 (ko) 2016-10-26 2022-04-07 삼성전자주식회사 영상처리장치, 영상처리방법 및 컴퓨터 판독가능 기록 매체
KR102442449B1 (ko) * 2017-09-01 2022-09-14 삼성전자주식회사 영상 처리 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090237686A1 (en) * 2008-03-18 2009-09-24 Ricoh Company, Limited Image processing apparatus, image processing method, and computer program product
US20150242178A1 (en) * 2014-02-24 2015-08-27 Samsung Electronics Co., Ltd. Display device, mobile device, system including the same, and image quality matching method thereof

Also Published As

Publication number Publication date
US10922798B2 (en) 2021-02-16
EP3649612A1 (en) 2020-05-13
EP3649612A4 (en) 2020-08-05
CN111095350B (zh) 2023-12-19
CN111095350A (zh) 2020-05-01
WO2019045499A1 (en) 2019-03-07
US20190073757A1 (en) 2019-03-07
KR20190025385A (ko) 2019-03-11

Similar Documents

Publication Publication Date Title
KR102271285B1 (ko) 영상처리장치 및 영상처리방법
KR102442449B1 (ko) 영상 처리 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체
US11825033B2 (en) Apparatus and method with artificial intelligence for scaling image data
US8897552B2 (en) Setting an operating-system color using a photograph
KR102452653B1 (ko) 전자 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체
CN103888840B (zh) 一种视频移动终端实时拖动与缩放的方法及装置
CN111699673B (zh) 电子设备及其操作方法
KR102178258B1 (ko) 디스플레이 장치 및 이의 글자 효과 제공 방법
US11006108B2 (en) Image processing apparatus, method for processing image and computer-readable recording medium
KR102384234B1 (ko) 영상처리장치, 영상처리방법 및 컴퓨터 판독가능 기록 매체
KR102408344B1 (ko) 영상 처리 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체
EP3340015B1 (en) Display device for adjusting transparency of indicated object and display method for the same
KR102460390B1 (ko) 영상 처리 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant