Nothing Special   »   [go: up one dir, main page]

KR102226817B1 - 콘텐츠 재생 방법 및 그 방법을 처리하는 전자 장치 - Google Patents

콘텐츠 재생 방법 및 그 방법을 처리하는 전자 장치 Download PDF

Info

Publication number
KR102226817B1
KR102226817B1 KR1020140132409A KR20140132409A KR102226817B1 KR 102226817 B1 KR102226817 B1 KR 102226817B1 KR 1020140132409 A KR1020140132409 A KR 1020140132409A KR 20140132409 A KR20140132409 A KR 20140132409A KR 102226817 B1 KR102226817 B1 KR 102226817B1
Authority
KR
South Korea
Prior art keywords
electronic device
content
sound
space
module
Prior art date
Application number
KR1020140132409A
Other languages
English (en)
Other versions
KR20160039400A (ko
Inventor
김재훈
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140132409A priority Critical patent/KR102226817B1/ko
Priority to US14/872,798 priority patent/US10148242B2/en
Publication of KR20160039400A publication Critical patent/KR20160039400A/ko
Application granted granted Critical
Publication of KR102226817B1 publication Critical patent/KR102226817B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G5/00Tone control or bandwidth control in amplifiers
    • H03G5/16Automatic control
    • H03G5/165Equalizers; Volume or gain control in limited frequency bands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72442User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for playing music files
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/307Frequency adjustment, e.g. tone control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/265Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
    • G10H2210/295Spatial effects, musical uses of multiple audio channels, e.g. stereo
    • G10H2210/305Source positioning in a soundscape, e.g. instrument positioning on a virtual soundstage, stereo panning or related delay or reverberation changes; Changing the stereo width of a musical source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/101Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
    • G10H2220/106Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters using icons, e.g. selecting, moving or linking icons, on-screen symbols, screen regions or segments representing musical elements or parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/351Environmental parameters, e.g. temperature, ambient light, atmospheric pressure, humidity, used as input for musical purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/371Vital parameter control, i.e. musical instrument control based on body signals, e.g. brainwaves, pulsation, temperature or perspiration; Biometric information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/371Vital parameter control, i.e. musical instrument control based on body signals, e.g. brainwaves, pulsation, temperature or perspiration; Biometric information
    • G10H2220/376Vital parameter control, i.e. musical instrument control based on body signals, e.g. brainwaves, pulsation, temperature or perspiration; Biometric information using brain waves, e.g. EEG
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/395Acceleration sensing or accelerometer use, e.g. 3D movement computation by integration of accelerometer data, angle sensing with respect to the vertical, i.e. gravity sensing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/441Image sensing, i.e. capturing images or optical patterns for musical purposes or musical control purposes
    • G10H2220/455Camera input, e.g. analyzing pictures from a video camera and using the analysis results as control data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/005Device type or category
    • G10H2230/015PDA [personal digital assistant] or palmtop computing devices used for musical purposes, e.g. portable music players, tablet computers, e-readers or smart phones in which mobile telephony functions need not be used
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers
    • H04M1/6016Substation equipment, e.g. for use by subscribers including speech amplifiers in the receiver circuit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/11Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/40Visual indication of stereophonic sound image

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Stereophonic System (AREA)
  • Quality & Reliability (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)

Abstract

데이터를 재생하기 위한 전자 장치 및 방법이 개시되어 있는 바, 다양한 실시예에 따르면, 전자 장치는 메모리 및 콘텐츠를 재생하는 위치에 대한 공간적 특성을 판단하여 메모리에 저장하고, 콘텐츠 재생시 저장된 공간적 특성을 기반으로 음향을 변경하도록 구성된 프로세서를 포함할 수 있다. 다른 실시예들이 가능하다.

Description

콘텐츠 재생 방법 및 그 방법을 처리하는 전자 장치{METHOD FOR REPRODUCING CONTENTS AND AN ELECTRONIC DEVICE THEREOF}
다양한 실시예는 전자 장치에 관한 것으로, 예컨대, 콘텐츠를 재생하기 위한 장치 및 방법에 관한 것이다.
최근 들어 하나 또는 그 이상의 기능을 복합적으로 수행하는 전자 장치들이 점점 늘어나고 있다. 더욱이 전자 장치들로는 소위 '스마트 폰'이라 대별되는 이동 단말기가 주류를 이루고 있다. 이동 단말기와 같은 전자 장치는 대화면 터치 방식의 디스플레이 모듈을 구비하고 있으며, 상대방과의 통신이라는 기본적인 기능 이외에 고화소 카메라 모듈을 구비하고 있어 정지 영상 또는 동영상 촬영이 가능하고, 네트워크 망에 접속하여 웹 서핑을 수행할 수도 있다. 이러한 전자 장치는 점차 고성능 프로세서를 구비함으로써 다양한 기능을 수행할 수 있다.
최근 전자 장치는 전자책, 음악, 동영상 등과 같은 다양한 종류의 멀티미디어 콘텐츠를 재생할 수 있다.
종래 기술에 따르면, 상기 전자 장치는 내부 또는 외부에 저장된 콘텐츠(다시 말해, 미리 저장된 콘텐츠, 서버 또는 다른 전자 장치에 저장된 콘텐츠)를 호출하여 화면, 스피커 등을 통해 재생되도록 처리할 수 있다.
일반적으로, 상기 전자 장치는 콘텐츠의 음향을 변형시킴으로써 콘텐츠 재생 성능을 향상시킬 수 있다. 예를 들어, 상기 전자 장치는 이퀄라이저 기능을 이용하여 특정 음역을 강화시킬 수 있다. 다른 예로, 상기 전자 장치는 음장 효과를 이용하여 에코, 잔향 등을 강화시킬 수 있다.
상기와 같은 방식의 기능에 대하여 사용자는 효과가 부가되는 상황을 인지할 수 없는 문제점이 발생할 수 있다. 예를 들어, 상기 이퀄라이저 기능을 통해 고음 및 저음을 부각시킬 수 있으나, 음향에 관심이 많지 않은 일반적인 사용자는 어떠한 상황에서 고음 및 저음이 부각되는지 알 수 없다.
본 발명의 다양한 실시예에 따르면, 전자 장치에서 음향을 변경하는 상황을 시각적으로 제공하기 위한 장치 및 방법을 제공할 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치에서 공간적 특성을 정의함으써 음향을 변경하기 위한 장치 및 방법을 제공할 수 있다.
본 발명의 다양한 실시예에 따르면, 전자 장치에서 콘텐츠 재생 시점의 환경 정보 또는 상황 정보를 기반으로 공간적 특성을 파악하기 위한 장치 및 방법을 제공할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 메모리 및 콘텐츠를 재생하는 위치에 대한 공간적 특성을 판단하여 메모리에 저장하고, 콘텐츠 재생시 저장된 공간적 특성을 기반으로 음향을 변경하도록 구성된 프로세서를 포함할 수 있다.
다양한 실시예에 따르면, 전자 장치의 동작 방법은 콘텐츠 재생 환경을 정의하는 설정 화면을 출력하는 동작, 상기 출력된 설정 화면에 대한 입력을 감지하여 공간적 특성을 정의하는 동작 및 정의된 공간적 특성을 기반으로, 음향을 변경하여 콘텐츠를 재생하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 컴퓨터 판독 가능한 기록 매체는 콘텐츠 재생 환경을 정의하는 설정 화면을 출력하는 동작, 상기 출력된 설정 화면에 대한 입력을 감지하여 공간적 특성을 정의하는 동작 및 정의된 공간적 특성을 기반으로, 음향을 변경하여 콘텐츠를 재생하는 동작을 실행하도록 하는 프로그램을 기록할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치의 콘텐츠 재생 방법 및 장치는, 예를 들어, 콘텐츠를 재생하는 공간적 특성을 정의하는 설정 화면을 제공하여 상황에 맞게 쉽게 음향을 변경할 수 있다.
도 1은 다양한 실시예에 따른, 전자 장치를 포함하는 네트워크 환경을 도시한다.
도 2는 본 발명의 다양한 실시예에 따른 콘텐츠 재생 모듈의 구성을 도시한다.
도 3은 본 발명의 다양한 실시예에 따른 전자 장치의 콘텐츠 재생 동작을 도시한 흐름도이다.
도 4는 본 발명의 다양한 실시예에 따른 전자 장치의 콘텐츠 재생 동작을 도시한 흐름도이다.
도 5는 본 발명이 다양한 실시예에 따른 전자 장치에서 콘텐츠에 대한 음향을 변경하는 동작을 도시한 도면이다.
도 6은 본 발명이 다양한 실시예에 따른 전자 장치에서 콘텐츠에 대한 음향을 변경하는 동작을 도시한 도면이다.
도 7은 본 발명이 다양한 실시예에 따른 전자 장치에서 콘텐츠에 대한 음향을 변경하는 동작을 도시한 도면이다.
도 8은 본 발명이 다양한 실시예에 따른 전자 장치에서 콘텐츠에 대한 음향을 변경하는 동작을 도시한 도면이다.
도 9는 본 발명이 다양한 실시예에 따른 전자 장치에서 콘텐츠에 대한 음향을 변경하는 동작을 도시한 도면이다.
도 10은 본 발명의 다양한 실시예에 따른 전자 장치에서 설정 화면을 출력한 화면을 도시한다.
도 11은 다양한 실시예들에 따른 전자 장치의 블록도를 도시한다.
이하, 첨부된 도면을 참조하여 본 개시(present disclosure)를 설명한다. 본 개시는 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 개시를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.
본 개시 가운데 사용될 수 있는“포함한다” 또는 “포함할 수 있다” 등의 표현은 개시된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 개시에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시에서 “또는” 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, “A 또는 B”는, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.
본 개시 가운데 “제 1,”“제2,”“첫째,”또는“둘째,”등의 표현들이 본 개시의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분 짓기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제 2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 개시의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 개시에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 개시를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 개시에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 개시에 따른 전자 장치는, 통신 기능 이 포함된 장치일 수 있다. 예를 들면, 전자 장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 또는 스마트 와치(smartwatch))중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 통신 기능을 갖춘 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들자면, 전자 장치는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 또는 산업용 또는 가정용 로봇 중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 통신 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 본 개시에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 본 개시에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다.
이하, 첨부된 도면을 참조하여 다양한 실시예에 따른 전자 장치에 대해서 살펴본다. 다양한 실시예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 다양한 실시예에 따른, 전자 장치 101을 포함하는 네트워크 환경 100을 도시한다. 도 1을 참조하면, 상기 전자 장치 101은 버스 110, 프로세서 120, 메모리 130, 입출력 인터페이스 140, 디스플레이 150, 통신 인터페이스 160 및 콘텐츠 재생 모듈 170을 포함할 수 있다.
상기 버스 110은 전술한 구성요소들을 서로 연결하고, 전술한 구성요소들 간의 통신(예: 제어 메시지)을 전달하는 회로일 수 있다.
상기 프로세서 120은, 예를 들면, 상기 버스 110을 통해 전술한 다른 구성요소들(예: 상기 메모리 130, 상기 입출력 인터페이스 140, 상기 디스플레이 150, 상기 통신 인터페이스 160, 또는 상기 콘텐츠 재생 모듈 170 등)로부터 명령을 수신하여, 수신된 명령을 해독하고, 해독된 명령에 따른 연산이나 데이터 처리를 실행할 수 있다.
상기 메모리 130은, 상기 프로세서 120 또는 다른 구성요소들(예: 상기 입출력 인터페이스 140, 상기 디스플레이 150, 상기 통신 인터페이스 160, 또는 상기 콘텐츠 재생 모듈 170 등)로부터 수신되거나 상기 프로세서 120 또는 다른 구성요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 상기 메모리 130은, 예를 들면, 커널 131, 미들웨어 132, 애플리케이션 프로그래밍 인터페이스(API: application programming interface) 133 또는 애플리케이션 134 등의 프로그래밍 모듈들을 포함할 수 있다. 전술한 각각의 프로그래밍 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.
상기 커널 131은 나머지 다른 프로그래밍 모듈들, 예를 들면, 상기 미들웨어 132, 상기 API 133 또는 상기 애플리케이션 134에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 상기 버스 110, 상기 프로세서 120 또는 상기 메모리 130 등)을 제어 또는 관리할 수 있다. 또한, 상기 커널 131은 상기 미들웨어 132, 상기 API 133 또는 상기 애플리케이션 134에서 상기 전자 장치 101의 개별 구성요소에 접근하여 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
상기 미들웨어 132는 상기 API 133 또는 상기 애플리케이션 134가 상기 커널 131과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 상기 미들웨어 132는 상기 애플리케이션 134로부터 수신된 작업 요청들과 관련하여, 예를 들면, 상기 애플리케이션 134 중 적어도 하나의 애플리케이션에 상기 전자 장치 101의 시스템 리소스(예: 상기 버스 110, 상기 프로세서 120 또는 상기 메모리 130 등)를 사용할 수 있는 우선 순위를 배정하는 등의 방법을 이용하여 작업 요청에 대한 제어(예: 스케쥴링 또는 로드 밸런싱)을 수행할 수 있다.
상기 API 133은 상기 애플리케이션 134가 상기 커널 131 또는 상기 미들웨어 132에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 화상 처리 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.
다양한 실시예에 따르면, 상기 애플리케이션 134는 SMS/MMS 애플리케이션, 이메일 애플리케이션, 달력 애플리케이션, 알람 애플리케이션, 건강 관리(health care) 애플리케이션(예: 운동량 또는 혈당 등을 측정하는 애플리케이션) 또는 환경 정보 애플리케이션(예: 기압, 습도 또는 온도 정보 등을 제공하는 애플리케이션) 등을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 애플리케이션 134는 상기 전자 장치 101과 외부 전자 장치(예: 전자 장치 104) 사이의 정보 교환과 관련된 애플리케이션일 수 있다. 상기 정보 교환과 관련된 애플리케이션은, 예를 들어, 상기 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 애플리케이션, 또는 상기 외부 전자 장치를 관리하기 위한 장치 관리(device management) 애플리케이션을 포함할 수 있다.
예를 들면, 상기 알림 전달 애플리케이션은 상기 전자 장치 101의 다른 애플리케이션(예: SMS/MMS 애플리케이션, 이메일 애플리케이션, 건강 관리 애플리케이션 또는 환경 정보 애플리케이션 등)에서 발생한 알림 정보를 외부 전자 장치(예: 전자 장치 104)로 전달하는 기능을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 알림 전달 애플리케이션은, 예를 들면, 외부 전자 장치(예: 전자 장치 104)로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다. 상기 장치 관리 애플리케이션은, 예를 들면, 상기 전자 장치 101과 통신하는 외부 전자 장치(예: 전자 장치 104)의 적어도 일부에 대한 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴온/턴오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 상기 외부 전자 장치에서 동작하는 애플리케이션 또는 상기 외부 전자 장치에서 제공되는 서비스(예: 통화 서비스 또는 메시지 서비스)를 관리(예: 설치, 삭제 또는 업데이트)할 수 있다.
다양한 실시예에 따르면, 상기 애플리케이션 134는 상기 외부 전자 장치(예: 전자 장치 104)의 속성(예: 전자 장치의 종류)에 따라 지정된 애플리케이션을 포함할 수 있다. 예를 들어, 외부 전자 장치가 MP3 플레이어인 경우, 상기 애플리케이션 134는 음악 재생과 관련된 애플리케이션을 포함할 수 있다. 유사하게, 외부 전자 장치가 모바일 의료기기인 경우, 상기 애플리케이션 134는 건강 관리와 관련된 애플리케이션을 포함할 수 있다. 한 실시예에 따르면, 상기 애플리케이션 134는 전자 장치 101에 지정된 애플리케이션 또는 외부 전자 장치(예: 서버 106 또는 전자 장치 104)로부터 수신된 애플리케이션 중 적어도 하나를 포함할 수 있다.
상기 입출력 인터페이스 140은, 입출력 장치(예: 센서, 키보드 또는 터치 스크린)를 통하여 사용자로부터 입력된 명령 또는 데이터를, 예를 들면, 상기 버스 110를 통해 상기 프로세서 120, 상기 메모리 130, 상기 통신 인터페이스 160, 또는 상기 콘텐츠 재생 모듈 170에 전달할 수 있다. 예를 들면, 상기 입출력 인터페이스 140은 터치 스크린을 통하여 입력된 사용자의 터치에 대한 데이터를 상기 프로세서 120로 제공할 수 있다. 또한, 상기 입출력 인터페이스 140은, 예를 들면, 상기 버스 110을 통해 상기 프로세서 120, 상기 메모리 130, 상기 통신 인터페이스 160, 또는 상기 콘텐츠 재생 모듈 170으로부터 수신된 명령 또는 데이터를 상기 입출력 장치(예: 스피커 또는 디스플레이)를 통하여 출력할 수 있다. 예를 들면, 상기 입출력 인터페이스 140은 상기 프로세서 120을 통하여 처리된 음성 데이터를 스피커를 통하여 사용자에게 출력할 수 있다.
상기 디스플레이 150은 사용자에게 각종 정보(예: 멀티미디어 데이터 또는 텍스트 데이터 등)을 표시할 수 있다.
상기 통신 인터페이스 160은 상기 전자 장치 101과 외부 장치(예: 전자 장치 104 또는 서버 106) 간의 통신을 연결할 수 있다. 예를 들면, 상기 통신 인터페이스 160은 무선 통신 또는 유선 통신을 통해서 네트워크 162에 연결되어 상기 외부 장치와 통신할 수 있다. 상기 무선 통신은, 예를 들어, Wifi(wireless fidelity), BT(Bluetooth), NFC(near field communication), GPS(global positioning system) 또는 cellular 통신(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등) 중 적어도 하나를 포함할 수 있다. 상기 유선 통신은, 예를 들어, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard 232) 또는 POTS(plain old telephone service) 중 적어도 하나를 포함할 수 있다.
한 실시예에 따르면, 상기 네트워크 162는 통신 네트워크(telecommunications network)일 수 있다. 상기 통신 네트워크는 컴퓨터 네트워크(computer network), 인터넷(internet), 사물 인터넷(internet of things) 또는 전화망(telephone network) 중 적어도 하나를 포함할 수 있다. 한 실시예에 따르면, 상기 전자 장치 101과 외부 장치 간의 통신을 위한 프로토콜(예: transport layer protocol, data link layer protocol 또는 physical layer protocol))은 애플리케이션 134, API 133, 상기 미들웨어 132, 커널 131 또는 통신 인터페이스 160 중 적어도 하나에서 지원될 수 있다.
상기 서버 106은 상기 전자 장치 101에서 구현되는 동작(또는, 기능)들 중 적어도 하나의 동작을 수행함으로써, 상기 전자 장치 101의 구동을 지원할 수 있다. 예를 들면, 상기 서버 106은 상기 전자 장치 101에 구현된 콘텐츠 재생 모듈 170을 지원할 수 있는 데이터 생성 서버 모듈 108을 포함할 수 있다. 예컨대, 상기 데이터 생성 서버 모듈 108은 콘텐츠 재생 모듈 170의 적어도 하나의 구성요소를 포함하여, 콘텐츠 재생 모듈 170이 수행하는 동작들 중 적어도 하나의 동작을 수행(예: 대행)할 수 있다.
상기 콘텐츠 재생 모듈 170은, 한 실시예에 따르면, 콘텐츠에 대한 음향을 변경하기 위한 설정 화면을 출력할 수 있다. 일 실시예에 따르면, 상기 콘텐츠 재생 모듈 170은 콘텐츠를 재생하는 위치에 대한 공간적 특성을 설정할 수 있는 설정 화면을 출력할 수 있다. 예를 들어, 상기 공간적 특성은 콘텐츠를 재생하는 공간의 크기, 공간의 재질, 상기 공간에 대한 음원의 위치, 상기 공간에 대한 사용자의 위치 등을 포함할 수 있다.
다양한 실시예에 따르면, 상기 콘텐츠 재생 모듈 170은, 설정 화면을 통해 설정된 공간적 특성을 기반으로 콘텐츠에 대한 음향을 변경할 수 있다.
일 실시예에 따르면, 상기 콘텐츠 재생 모듈 170은, 콘텐츠를 재생하는 공간적 특성을 기반으로, 콘텐츠 재생 시, 특정 음역을 강조하거나 에코(또는 리벌브) 효과, 잔향 효과 등을 제공할 수 있다.
후술하는 도 2 내지 도 10을 통하여 상기 콘텐츠 재생 모듈 170에 대한 추가적인 정보가 제공된다.
도 2는 본 발명의 다양한 실시예에 따른 콘텐츠 재생 모듈(170)의 구성을 도시한다. 상기 도 2를 참조하면, 상기 콘텐츠 재생 모듈(170)은 출력 모듈(210), 설정 모듈(220), 저장 모듈(230) 및 재생 모듈(240)을 포함하여 구성될 수 있다.
상기 출력 모듈(210)은 콘텐츠에 대한 음향을 변경하기 위한 설정 화면을 출력할 수 있다. 예를 들어, 상기 콘텐츠에 대한 음향을 변경하는 것은 음향에 대한 주파수 특성을 보완하거나 공간감(또는 입체감)을 부여하는 것이 될 수 있다. 일 실시예에 따르면, 상기 주파수 특성을 부여하는 것은 이퀄라이저 설정을 변경(예를 들어, 저음 강화, 고음 강화, 음향 발생 방향 조절 등)하는 것이 될 수 있으며, 상기 공간감을 부여하는 것은 음장 설정을 변경(예를 들어, 스테레오 강화, 잔향 강화, 에코 강화 등)하는 것이 될 수 있다.
다양한 실시예에 따르면, 상기 설정 화면은 재생 환경을 설정할 수 있는 인터페이스로 구성될 수 있다. 일 실시예에 따르면, 상기 재생 환경은 콘텐츠를 재생하는 위치에 대한 공간적 특성일 수 있다. 일 실시예에 따르면, 상기 공간적 특성은 콘텐츠를 재생하는 공간의 크기, 공간의 재질, 상기 공간에 대한 음원의 위치, 상기 공간에 대한 사용자의 위치 등을 포함할 수 있다.
일 실시예에 따르면, 상기 공간적 특성은 콘텐츠에 대한 음향을 변경하는 것과 연관될 수 있다. 예를 들어, 콘텐츠를 재생하는 공간의 크기, 공간의 재질 등은 콘텐츠에 대한 에코(또는 리벌브) 효과 및 잔향 효과와 관련이 있을 수 있다. 다른 예로, 콘텐츠를 재생하는 공간에 대한 음원의 위치, 사용자의 위치 등은 콘텐츠에 대한 입체 효과와 관련이 있을 수 있다.
다양한 실시예에 따르면, 상기 출력 모듈(210)은 에코 효과를 조절할 수 있도록 공간의 크기, 공간의 재질 등을 선택할 수 있는 설정 화면을 출력할 수 있다. 예를 들어, 상기 출력 모듈(210)은 공간의 벽 또는 바닥을 연관시킬 수 있는 다수의 재질, 예를 들어, 카펫 재질, 타일 재질, 나무 재질 등에 대한 리스트를 제공할 수 있다. 일 실시예에 따르면, 상기 출력 모듈(210)은 에코 효과를 감소시키기 위한 재질로 카펫 재질을 제공할 수 있으며, 에코 효과를 증가시키기 위한 재질로 타일 재질을 제공할 수 있다.
다양한 실시예에 따르면, 상기 출력 모듈(210)은 잔향 효과를 조절할 수 있도록 공간의 크기를 선택할 수 있는 설정 화면을 출력할 수 있다. 예를 들어, 상기 출력 모듈(210)은 콘텐츠를 재생하는 단말기의 위치와 연관시킬 수 있는 다수의 가상 공간, 예를 들어, 콘서트 홀, 야외 강당, 실내 강당 등에 대한 리스트를 제공할 수 있다. 일 실시예에 따르면, 상기 출력 모듈(210)은 잔향 효과를 증가시키기 위한 가상의 공간으로 콘서트 홀을 제공할 수 있으며, 잔향 효과를 감소시키기 위한 가상의 공간으로 야외 강당을 제공할 수 있다.
다양한 실시예에 따르면, 상기 출력 모듈(210)은 입체 효과를 조절할 수 있도록 음원의 위치, 음원 갯 수를 선택할 수 있는 설정 화면을 출력할 수 있다. 예를 들어, 상기 출력 모듈(210)은 음향을 발생시키는 음원(예를 들어, 악기, 스피커, 마이크 등)과 연관시킬 수 있는 위치를 제공할 수 있다.
상기 설정 모듈(220)은 상기 출력 모듈(210)에 의해 출력된 설정 화면에 대한 입력(예를 들어, 터치 입력, 키버튼 입력, 음성 입력, 제스처 입력 등)을 기반으로 콘텐츠에 대한 재생 환경을 설정할 수 있다.
일 실시예에 따르면, 상기 설정 모듈(220)은 사용자의 입력을 감지하여, 콘텐츠를 재생하는 공간의 크기, 공간의 재질, 음원의 위치 등을 결정할 수 있다.
다양한 실시예에 따르면, 상기 설정 모듈(220)은 재생 환경에 대응하여 콘텐츠에 대한 음향이 변경되도록 처리할 수 있다. 예를 들어, 상기 설정 모듈(220)은 공간의 크기 및 공간의 재질을 기반으로, 콘텐츠 재생 시 에코 및 잔향 효과가 발생될 수 있도록 이퀄라이저 또는 음장을 설정할 수 있다. 다른 예를 들면, 상기 설정 모듈(220)은 음원 위치를 기반으로, 콘텐츠 재생 시 입체 효과가 발생되도록 이퀄라이저 또는 음장을 설정할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치가 위치한 공간의 특성을 파악하는 경우, 상기 설정 모듈(210)은 상기 파악된 특성에 대응하여 콘텐츠를 재생하는 공간의 크기, 공간의 재질, 음원의 위치 등을 결정할 수 있다. 예를 들어, 상기 설정 모듈(210)은 음향 또는 콘텐츠를 재생하는 공간에 대한 이미지를 분석하여 현재 공간의 특성(예를 들어, 공간 크기, 공간 재질)을 파악하고, 파악된 공간에 대한 정보를 제공하거나 또는 파악된 공간의 특성에 대응하여 음향이 변경되도록 처리할 수 있다.
상기 저장 모듈(230)은 적어도 하나 이상의 콘텐츠를 저장할 수 있다. 상기 저장 모듈(230)에 저장되는 콘텐츠는 전자 장치에 의해 생성될 수 있으며, 다른 전자 장치 또는 서버로부터 획득되어 저장될 수 있다. 다양한 실시예에 따르면, 상기 저장 모듈(230)은 사용자의 입력에 대응하여 설정된 재생 환경을 저장할 수 있다. 일 실시예에 따르면, 상기 재생 환경은 각각의 콘텐츠와 연관될 수 있다. 다양한 실시예에 따르면, 상기 저장 모듈(230)은 각각의 공간적 특성에 대응하여 변경되어야 하는 음향에 대한 정보를 저장할 수 있다.
상기 재생 모듈(240)은 기 저장된 적어도 하나 이상의 콘텐츠를 재생하도록 처리할 수 있다. 다양한 실시예에 따르면, 상기 재생 모듈(240)은 기 설정된 재생 환경을 기반으로 콘텐츠를 재생할 수 있다. 예를 들어, 상기 재생 모듈(240)은 기 설정되어 있는 공간의 크기, 재질, 음원의 위치 등에 대응하는 음향으로 콘텐츠가 출력되도록 처리할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 메모리 및 콘텐츠를 재생하는 위치에 대한 공간적 특성을 판단하여 메모리에 저장하고, 콘텐츠 재생시 저장된 공간적 특성을 기반으로 음향을 변경하도록 구성된 프로세서를 포함할 수 있다.
다양한 실시예에 따르면, 상기 프로세서는 사용자 입력, 상기 전자장치에 의해 획득된 환경 정보 또는 상황 정보 가운데 적어도 하나를 기반으로 콘텐츠를 재생하는 가상의 공간을 정의한 공간적 특성을 판단하도록 구성될 수 있다.
다양한 실시예에 따르면, 상기 프로세서는 콘텐츠를 재생하는 공간의 크기, 공간의 재질, 상기 공간에 대한 음원의 위치, 상기 공간에 대한 음원의 크기, 상기 공간에 대한 사용자의 위치 가운데 적어도 하나를 기반으로 공간적 특성을 판단하도록 구성될 수 있다.
다양한 실시예에 따르면, 상기 프로세서는 상기 공간적 특성을 기반으로 음향에 대한 주파수 특성을 보완하도록 구성될 수 있다.
다양한 실시예에 따르면, 상기 프로세서는 상기 공간적 특성을 기반으로 음향에 대한 입체감을 부여하도록 구성될 수 있다.
다양한 실시예에 따르면, 상기 프로세서는 주변 환경과 관련된 밝기 정보, 주변 환경과 관련된 이미지, 주변 환경과 관련된 음향 정보 가운데 적어도 하나를 기반으로 환경 정보를 확인하도록 구성될 수 있다.
다양한 실시예에 따르면, 상기 프로세서는 시간, 상기 전자장치의 움직임 가운데 적어도 하나와 연관된 정보를 기반으로 상황 정보를 확인하도록 구성될 수 있다.
다양한 실시예에 따르면, 상기 프로세서는 특정 음역과 관련된 악기 리스트를 제공하도록 구성될 수 있다.
다양한 실시예에 따르면, 상기 프로세서는 악기 리스트에서 선택된 악기와 연관된 주파수를 이용하여 음향을 변경하도록 구성될 수 있다.
도 3은 본 발명의 다양한 실시예에 따른 전자 장치의 콘텐츠 재생 동작을 도시한 흐름도이다.
다양한 실시예에 따르면, 상기 전자 장치는 공간적 특성을 이용하여 콘텐츠의 음향을 변경할 수 있다.
동작 301에서, 상기 전자 장치는 재생 환경을 설정할 수 있다. 일 실시예에 따르면, 상기 재생 환경은 콘텐츠의 음향을 변경하기 위한 환경이 될 수 있으며, 상기 전자 장치는 콘텐츠를 재생하는 위치(공간)에 대한 공간적 특성을 정의함으로써 재생 환경을 설정할 수 있다. 일 실시예에 따르면, 상기 공간적 특성은 콘텐츠를 재생하는 공간의 크기, 공간의 바닥 또는 벽면 재질, 상기 공간에 대한 음원(예; 스피커)의 위치, 상기 공간에 대한 사용자의 위치 등을 포함할 수 있다. 다양한 실시예에 따르면, 상기 전자 장치는 사용자의 입력을 감지하여 재생 환경을 설정하는 모드로 진입할 수 있다.
동작 303에서, 상기 전자 장치는 공간적 특성을 정의(또는 설정)할 수 있는 설정 화면을 출력할 수 있다. 다양한 실시예에 따르면, 상기 설정 화면은 공간적 특성을 이용하여 콘텐츠에 대한 에코(또는 리벌브) 효과, 잔향 효과, 입체 효과 등을 조절하기 위한 화면일 수 있다. 다양한 실시예에 따르면, 상기 설정 화면은 에코 효과를 조절하기 위하여 음원 또는 사용자의 위치, 공간 재질을 변경하도록 구성될 수 있다. 다양한 실시예에 따르면, 상기 설정 화면은 잔향 효과를 조절하기 위하여 공간 크기를 조절하도록 구성될 수 있다. 다양한 실시예에 따르면, 상기 설정 화면은 입체 효과를 조절하기 위하여 음원을 추가 또는 삭제, 특정 음역을 강조하는 악기를 추가 또는 삭제하도록 구성될 수 있다.
동작 305에서, 상기 전자 장치는 입력에 대응하여, 음향을 변형시킬 수 있는 재생 환경을 정의할 수 있다. 다양한 실시예에 따르면, 상기 전자 장치는 출력된 설정 화면을 통해 콘텐츠를 재생하는 공간의 크기, 공간의 재질, 공간에 대한 음원의 위치, 공간에 대한 사용자의 위치 등을 정의하는 입력을 감지할 수 있다.
일 실시예에 따르면, 상기 전자 장치는 출력된 설정 화면에서, 콘텐츠 재생 시 출력되는 음원(예를 들어, 스피커)의 위치를 사용자 위치 기준으로 상, 하, 좌, 우측으로 이동시키는 입력을 감지하여 특정 방향의 음원을 강조하는 재생 환경을 정의할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 출력된 설정 화면에서, 공간의 재질 또는 공간의 크기을 선택하는 입력을 감지하여 에코 및 잔향을 강조하는 재생 환경을 정의할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 출력된 설정 화면에서, 음원을 추가하는 입력을 감지하여 입체감을 제공하는 재생 환경을 정의할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 상기 출력된 설정 화면에서, 특정 음역 대역과 관련된 악기를 추가하는 입력을 감지하여 특정 음역을 강조하는 재생 환경을 정의할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 각각의 재생 환경에 대응하여 음장 또는 이퀄라이저 설정을 변경할 수 있다.
동작 307에서, 상기 전자 장치는 입력에 대응하여 설정 또는 정의된 재생 환경을 저장할 수 있다.
동작 309에서, 상기 전자 장치는 콘텐츠 재생 요청을 감지할 수 있으며, 동작 311에서, 상기 전자 장치는 저장된 재생 환경을 기반으로 콘텐츠를 재생할 수 있다.
도 4는 본 발명의 다양한 실시예에 따른 전자 장치의 콘텐츠 재생 동작을 도시한 흐름도이다.
다양한 실시예에 따르면, 상기 전자 장치는 환경 정보 또는 상황 정보를 기반으로 공간적 특성을 파악할 수 있다.
동작 401에서, 상기 전자 장치는 콘텐츠 재생 요청을 감지할 수 있다. 다양한 실시예에 따르면, 상기 전자 장치는 내부(예를 들어, 메모리) 또는 외부(예를 들어, 서버 또는 다른 전자 장치)에 저장된 콘텐츠를 호출하여 재생할 수 있다.
동작 403에서, 상기 전자 장치는 콘텐츠를 재생하는 공간, 다시 말해서, 상기 전자 장치가 위치한 공간을 판단하기 위한 정보를 수집할 수 있다. 다양한 실시예에 따르면, 상기 전자 장치는 상기 공간을 판단하기 위하여 환경 정보 또는 상황 정보를 수집할 수 있다. 일 실시예에 따르면, 상기 환경 정보는 콘텐츠의 재생하는 시점의 주변 환경에 대한 정보가 될 수 있으며, 상기 전자 장치는 주변 밝기 정보, 주변 이미지 또는 주변 음향 정보 등을 인지하여 상기 전자 장치의 주변 환경을 판단할 수 있다. 일 실시예에 따르면, 상기 상황 정보는 콘텐츠를 재생하는 전자 장치의 상태에 대한 정보가 될 수 있으며, 상기 전자 장치는 시간, 상기 전자장치의 움직임 등을 인지하여 상기 전자 장치의 상태를 판단할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 이미지 센서, 마이크로폰 또는 움직임 또는 상황을 판단할 수 있는 다수의 센서 등을 이용하여 상황 정보 및 환경 정보를 획득할 수 있다. 일 실시예에 따르면, 상기 다수의 센서는 그립 센서, 지자기센서, 가속도센서, 디지털나침반, 수평센서, 광센서, 접근센서 등을 포함할 수 있다.
동작 405에서, 상기 전자 장치는 콘텐츠 재생 공간을 판단할 수 있다. 다양한 실시예에 따르면, 상기 전자 장치는 환경 정보 또는 상황 정보를 기반으로 콘텐츠 재생 공간을 판단할 수 있다. 일 실시예에 따르면, 상기 정보는 상기 전자 장치에 의해 획득된 이미지가 될 수 있다. 예를 들어, 상기 전자 장치는 콘텐츠 재생 시점에 이미지 센서를 통해 전자 장치의 주변을 촬영한 이미지를 획득할 수 있으며, 상기 전자 장치는 획득된 이미지를 분석하여 현재 전자 장치가 위치한 공간의 종류(예를 들어, 방), 공간의 벽면 재질, 공간의 크기를 판단할 수 있다.
동작 407에서, 상기 전자 장치는 콘텐츠 재생 공간을 판단함에 대응하여 음향을 변화시킬 수 있도록 콘텐츠 재생 환경을 정의할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 상황 정보 또는 환경 정보로 판단된 공간의 특성에 대응하는 에코(또는 리벌브) 효과, 잔향 효과, 입체 효과 등이 제공될 수 있도록 재생 환경을 정의할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 각각의 재생 환경에 대응하여 변경해야하는 음장 또는 이퀄라이저 설정을 저장할 수 있으며, 기 정의된 설정을 상기 판단된 공간의 특성에 해당하는 설정으로 변경할 수 있다.
동작 409에서, 상기 전자 장치는 정의된 재생 환경을 기반으로 콘텐츠를 재생할 수 있다.
도 5는 본 발명이 다양한 실시예에 따른 전자 장치에서 콘텐츠에 대한 음향을 변경하는 동작을 도시한 도면이다.
다양한 실시예에 따르면, 상기 전자 장치(510)는 공간적 특성을 이용하여 콘텐츠에 대하여 특정 방향의 음원을 강조하는 재생 환경을 정의할 수 있는 설정 화면을 출력(503)할 수 있다. 일 실시예에 따르면, 상기 설정 화면(503)은 콘텐츠를 재생하는 공간을 화면으로 출력한 가상의 공간이 될 수 있다. 도시된 도면은, 사용자 전방에 두 개의 스피커가 배치된 공간을 나타내는 설정 화면이 출력된 상황이 될 수 있다.
다양한 실시예에 따르면, 상기 설정 화면(503)은 음원(501), 사용자(505)의 위치를 정의할 수 있도록 구성될 수 있다. 일 실시예에 따르면, 상기 설정 화면(503)에 출력된 사용자(505)와 음원(501)의 위치는 사용자의 입력에 의해 변경될 수 있다.
일 실시예에 따르면, 상기 전자 장치(510)는 사용자의 위치(505)를 변경하고자 하는 입력, 예를 들어, 터치 입력을 감지하고 터치 입력의 이동 위치로 사용자의 위치를 변경(520)할 수 있다.
일 실시예에 따르면, 상기 전자 장치(510)는 사용자의 위치를 변경하는 방법과 유사하게 음원(501)의 위치를 변경하고자 하는 터치 입력을 감지하고, 터치 입력의 이동 위치로 음원의 위치를 변경(530)할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 사용자의 입력에 의해 변경된 음원 및 사용자의 위치를 기반으로, 음장 또는 이퀄라이저 설정을 변경할 수 있다. 예를 들어, 상기 전자 장치는 우측 전방에 배치되었던 음원이 사용자 우측으로 이동함을 확인함에 따라, 콘텐츠 재생 시 우측 음이 잘 들리도록 음장 또는 이퀄라이저 설정을 변경할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 입력에 의해 변경된 음원 또는 사용자의 위치를 기반으로 음장 또는 이퀄라이저 설정을 변경한 후, 변경된 음원 또는 사용자의 위치를 원래의 위치로 복원시킬 수 있다.
일 실시예에 따르면, 사용자는 우측 음을 강조하기 위하여 음원의 위치를 사용자 우측으로 근접하게 배치할 수 있으나, 이러한 설정은 우측 청력이 좋지 않다는 신체적 핸디캡으로 인식될 수 있다. 이러한 문제점을 해결하기 위하여, 상기 전자 장치는 음장 또는 이퀄라이저 설정을 변경한 후, 변경된 음원 또는 사용자의 위치를 원래의 위치로 복원할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 음원의 크기를 조절하는 입력을 감지할 수 있으며, 입력에 의해 변경되는 음원 크기에 따라 음향의 변경 정도를 결정할 수 있다. 예를 들어, 상기 전자 장치는 우측 음원의 크기를 2배 증가시키는 입력을 감지할 경우, 우측 음향이 2배로 증가되도록 음장 또는 이퀄라이저 설정을 변경할 수 있다.
도 6은 본 발명이 다양한 실시예에 따른 전자 장치에서 콘텐츠에 대한 음향을 변경하는 동작을 도시한 도면이다.
다양한 실시예에 따르면, 상기 전자 장치는 공간적 특성을 이용하여 콘텐츠에 대하여 에코(또는 리벌브) 효과를 조절할 수 있는 설정 화면을 출력할 수 있다. 다양한 실시예에 따르면, 상기 설정 화면은 음원, 사용자의 위치를 정의할 수 있으며, 추가로 콘텐츠를 재생하는 공간의 재질을 정의할 수 있도록 구성될 수 있다. 일 실시예에 따르면, 상기 전자 장치는 공간의 재질을 이용하여 에코를 강조하는 효과를 제공할 수 있다.
일 실시예에 따르면, 상기 설정 화면은 콘텐츠를 재생하는 가상의 공간이 될 수 있으며, 상기 설정 화면의 배경(610)은 콘텐츠를 재생하는 공간의 재질을 나타낼 수 있다.
예를 들어, 상기 전자 장치는 공간의 재질을 설정하는 입력, 예를 들어, 터치 입력(601)을 감지함에 대응하여, 가상 공간의 재질에 대한 리스트를 출력(603)할 수 있다. 일 실시예에 따르면, 상기 가상 공간의 재질은 카펫, 타일, 나무 등을 포함할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 출력된 리스트에서 재질을 선택하는 입력을 감지할 경우, 선택된 재질을 설정 화면에 적용(605)할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 각각의 재질에 대한 이퀄라이저 또는 음장 효과의 설정을 정의하고 있으며, 선택된 재질에 상응하는 효과가 설정되도록 처리할 수 있다. 예를 들어, 실제 카펫 재질로 된 공간에서는 음향이 흡수될 수 있음으로, 상기 전자 장치는 사용자에 의해 카펫 재질이 선택되는 경우 에코 효과가 발생되지 않도록 처리할 수 있다. 다른 예로, 실제 타일 재질로 된 공간에서는 음향이 반사될 수 있음으로, 상기 전자 장치는 사용자에 의해 타일 재질이 선택되는 경우 에코 효과가 증가되도록 처리할 수 있다.
도 7은 본 발명이 다양한 실시예에 따른 전자 장치에서 콘텐츠에 대한 음향을 변경하는 동작을 도시한 도면이다.
다양한 실시예에 따르면, 상기 전자 장치는 공간적 특성을 이용하여 콘텐츠에 대하여, 잔향 효과를 조절할 수 있는 설정 화면(701)을 출력할 수 있다. 다양한 실시예에 따르면, 상기 설정 화면(701)은 콘텐츠를 재생하는 공간의 크기를 조절할 수 있도록 구성될 수 있다. 일 실시예에 따르면, 상기 전자 장치는 공간의 크기를 이용하여 잔향을 강조하는 효과를 제공할 수 있다.
일 실시예에 따르면, 상기 설정 화면(701)은 콘텐츠를 재생하는 가상의 공간이 될 수 있으며, 상기 설정 화면의 배경은 콘텐츠를 재생하는 공간의 크기 또는 크기에 대한 배율을 나타낼 수 있다.
예를 들어, 상기 전자 장치는 공간의 크기를 설정하는 입력, 예를 들어, 터치 입력(703)을 감지함에 대응하여, 현재 출력된 가상 공간의 크기를 늘리거나 줄이도록 처리할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 각각의 크기에 대한 이퀄라이저 또는 음장 효과의 설정을 정의하고 있으며, 선택된 크기에 상응하는 효과가 설정되도록 처리할 수 있다.
예를 들어, 실제 넓은 공간에서 콘텐츠를 재생하는 경우, 잔향 효과가 증가될 수 있음으로, 상기 전자 장치는 사용자에 의해 공간의 크기가 늘어나는 경우, 잔향이 증가되도록 처리할 수 있다. 다른 예로, 실제 좁은 공간에서 콘텐츠를 재생하는 경우, 잔향이 감소될 수 있음으로, 상기 전자 장치는 사용자에 의해 공간의 크기가 줄어드는 경우, 잔향이 감소되도록 처리할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 사용자의 입력에 의해 변경되는 공간 크기에 따라 설정 화면에 포함된 구성, 예를 들어, 사용자 및 음원에 대한 크기도 조절(705)할 수 있다.
도 8은 본 발명이 다양한 실시예에 따른 전자 장치에서 콘텐츠에 대한 음향을 변경하는 동작을 도시한 도면이다.
다양한 실시예에 따르면, 상기 전자 장치는 공간적 특성을 이용하여 콘텐츠에 대하여, 입체 효과 등을 조절할 수 있는 설정 화면(801)을 출력할 수 있다. 다양한 실시예에 따르면, 상기 설정 화면(801)은 특정 음역을 강조하는 악기 또는 음원을 추가 또는 삭제하도록 하는 메뉴(803)를 포함할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 음원 또는 악기를 설정하도록 하는 입력, 예를 들어, 터치 입력(805)을 감지함에 대응하여, 현재 출력된 설정 화면에 추가할 수 있는 악기 또는 음원의 리스트를 출력(807)할 수 있다.
도 9는 본 발명이 다양한 실시예에 따른 전자 장치에서 콘텐츠에 대한 음향을 변경하는 동작을 도시한 도면이다.
다양한 실시예에 따르면, 현재 출력된 설정 화면에 추가할 수 있는 악기 또는 음원의 리스트를 출력할 수 있으며, 입력에 대응하여 입체 효과를 제공하는 설정(901) 또는 특정 음역을 강조하는 설정(903)을 확인할 수 있다.
일 실시예에 따르면, 상기 전자 장치는 음원을 추가하는 입력에 대응하여 입체 효과를 제공할 수 있다. 예를 들어, 상기 전자 장치는 입력에 의해 추가되는 음원의 위치 및 갯 수에 의해 2.1 채널 효과, 5.1 채널 효과 등을 제공할 수 있다. 일 실시예에 따르면, 상기 전자 장치는 도 8에서 출력된 리스트의 음원을 설정 화면에 추가하는 입력을 감지하여 입체 효과를 제공하는 설정을 확인할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 악기를 추가하는 입력에 대응하여 악기를 추가함으로써 특정 음역을 강조하는 효과를 제공할 수 있다. 일 실시예에 따르면, 상기 전자 장치는 저음을 강조하기 위한 악기를 설정 화면 상에 추가하는 입력에 대응하여 저음을 강조하는 효과를 제공하도록 처리할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 발성 파트를 이용하여 특정 음역을 강조하는 효과를 제공할 수도 있다. 예를 들어, 상기 전자 장치는 저음을 발성하는 파트(예; 베이스 파트)를 추가하는 입력에 대응하여 저음을 강조하는 효과를 제공할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 음원 위치를 악기로 지정하는 입력을 감지할 경우, 각 악기의 위치를 기반으로 특정 음역을 강조하는 효과를 제공할 수 있다. 예를 들어, 상기 전자 장치는 입력에 대응하여 보컬에 대한 음향을 가까운 거리에서 발생되도록 처리하고, 드럼에 대한 음향을 먼 거리에서 발생되도록 처리할 수 있다.
도 10은 본 발명의 다양한 실시예에 따른 전자 장치에서 설정 화면을 출력한 화면을 도시한다.
다양한 실시예에 따르면, 상기 전자 장치는 콘텐츠를 재생하는 공간을 화면으로 나타내는 설정 화면을 출력할 수 있다. 다양한 실시예에 따르면, 상기 전자 장치는 입체감을 가지는 설정 화면을 출력할 수 있다.
일 실시예에 따르면, 상기 전자 장치는 사용자의 시점을 기준으로 음원이 배치되어 있는 설정 화면을 출력할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 입력에 대응하여 출력된 음원 및 사용자의 위치를 변경할 수 있다.
예를 들어, 상기 전자 장치는 사용자 전방에 두 개의 음원이 위치함을 알리는 설정 화면을 출력(1001)할 수 있으며, 우측 전방에 위치한 음원을 사용자 근처로 이동시키는 사용자의 입력을 감지(1003)할 수 있다. 일 실시예에 따르면, 상기 전자 장치는 상기 입력을 감지하여 사용자의 우측 음향이 강조되도록 콘텐츠를 재생할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치는 음원이 존재하는 이미지를 획득하여 설정 화면으로 사용할 수 있다. 일 실시예에 따르면, 상기 전자 장치는 미리 저장된 이미지 또는 입력에 의해 이미지 센서를 통해 획득된 이미지를 분석하여 음원을 확인하고, 입력에 의해 이동되는 음원의 위치를 확인할 수 있다. 다른 실시예에 따르면, 상기 전자 장치는 증강 현실 기법으로 음원이 존재하는 이미지를 설정 화면으로 사용할 수도 있다.
다양한 실시예에 따르면, 전자 장치의 동작 방법은 콘텐츠 재생 환경을 정의하는 설정 화면을 출력하는 동작, 상기 출력된 설정 화면에 대한 입력을 감지하여 공간적 특성을 정의하는 동작 및 정의된 공간적 특성을 기반으로, 음향을 변경하여 콘텐츠를 재생하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 공간적 특성을 정의하는 동작은 사용자의 위치에 대하여 음원 위치를 결정하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 공간적 특성을 정의하는 동작은 상기 설정 화면에 추가될 수 있는 음원 리스트를 출력하는 동작을 포함하는 동작, 입력에 대응하여 출력된 음원을 설정 화면에 배치하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 공간적 특성을 정의하는 동작은 상기 콘텐츠를 재생하는 공간의 크기, 공간의 재질 가운데 하나 이상을 결정하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 정의된 공간적 특성을 기반으로, 음향을 변경하여 콘텐츠를 재생하는 동작은 상기 공간적 특성을 기반으로 이퀄라이저 또는 음장 설정을 변경하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 설정 화면에 추가될 수 있는 음원 리스트를 출력하는 동작은 특정 음역과 관련된 악기 리스트를 출력하는 동작을 더 포함할 수 있다. 다양한 실시예에 따르면, 상기 설정 영역에 배치된 악기와 연관된 주파수를 이용하여 음향을 변경하는 동작을 더 포함할 수 있다.
다양한 실시예에 따르면, 상기 전자 장치의 동작 방법은 주변 환경과 관련된 이미지를 분석하여 공간적 특성을 정의하는 동작을 더 포함할 수 있다.
도 11은 다양한 실시예들에 따른 전자 장치 1101의 블록도 1100을 도시한다. 상기 전자 장치 1101은, 예를 들면, 도 1에 도시된 전자 장치 101의 전체 또는 일부를 구성할 수 있다. 도 11을 참조하면, 상기 전자 장치 1101은 하나 이상의 애플리케이션 프로세서(AP: application processor) 1110, 통신 모듈 1120, SIM(subscriber identification module) 카드 1124, 메모리 1130, 센서 모듈 1140, 입력 장치 1150, 디스플레이 1160, 인터페이스 1170, 오디오 모듈 1180, 카메라 모듈 1191, 전력관리 모듈 1195, 배터리 1196, 인디케이터 1197 및 모터 1198을 포함할 수 있다.
상기 AP 1110은 운영체제 또는 응용 프로그램을 구동하여 상기 AP 1110에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. 상기 AP 1110은, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시예에 따르면, 상기 AP 1110는 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
상기 통신 모듈 1120(예: 도 1의 상기 통신 인터페이스 160)은 상기 전자 장치 1101(예: 상기 전자 장치 101)과 네트워크를 통해 연결된 다른 전자 장치들(예: 도 1의 전자 장치 104 또는 서버 106) 간의 통신에서 데이터 송수신을 수행할 수 있다. 한 실시예에 따르면, 상기 통신 모듈 1120은 셀룰러 모듈 1121, Wifi 모듈 1123, BT 모듈 1125, GPS 모듈 1127, NFC 모듈 1128 및 RF(radio frequency) 모듈 1129를 포함할 수 있다.
상기 셀룰러 모듈 1121은 통신망(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등)을 통해서 음성 통화, 영상 통화, 문자 서비스 또는 인터넷 서비스 등을 제공할 수 있다. 또한, 상기 셀룰러 모듈 1121은, 예를 들면, 가입자 식별 모듈(예: SIM 카드 1124)을 이용하여 통신 네트워크 내에서 전자 장치의 구별 및 인증을 수행할 수 있다. 한 실시예에 따르면, 상기 셀룰러 모듈 1121은 상기 AP 1110가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 예를 들면, 상기 셀룰러 모듈 1121은 멀티 미디어 제어 기능의 적어도 일부를 수행할 수 있다.
한 실시예에 따르면, 상기 셀룰러 모듈 1121은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다. 또한, 상기 셀룰러 모듈 1121은, 예를 들면, SoC로 구현될 수 있다. 도 11에서는 상기 셀룰러 모듈 1121(예: 커뮤니케이션 프로세서), 상기 메모리 1130 또는 상기 전력관리 모듈 1195 등의 구성요소들이 상기 AP 1110과 별개의 구성요소로 도시되어 있으나, 한 실시예에 따르면, 상기 AP 1110가 전술한 구성요소들의 적어도 일부(예: 셀룰러 모듈 1121)를 포함하도록 구현될 수 있다.
한 실시예에 따르면, 상기 AP 1110 또는 상기 셀룰러 모듈 1121(예: 커뮤니케이션 프로세서)은 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 상기 AP 1110 또는 상기 셀룰러 모듈 1121은 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
상기 Wifi 모듈 1123, 상기 BT 모듈 1125, 상기 GPS 모듈 1127 또는 상기 NFC 모듈 1128 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 도 11에서는 셀룰러 모듈 1121, Wifi 모듈 1123, BT 모듈 1125, GPS 모듈 1127 또는 NFC 모듈 1128이 각각 별개의 블록으로 도시되었으나, 한 실시예에 따르면, 셀룰러 모듈 1121, Wifi 모듈 1123, BT 모듈 1125, GPS 모듈 1127 또는 NFC 모듈 1128 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. 예를 들면, 셀룰러 모듈 1121, Wifi 모듈 1123, BT 모듈 1125, GPS 모듈 1127 또는 NFC 모듈 1128 각각에 대응하는 프로세서들 중 적어도 일부(예: 셀룰러 모듈 1121에 대응하는 커뮤니케이션 프로세서 및 Wifi 모듈 1123에 대응하는 Wifi 프로세서)는 하나의 SoC로 구현될 수 있다.
상기 RF 모듈 1129는 데이터의 송수신, 예를 들면, RF 신호의 송수신을 할 수 있다. 상기 RF 모듈 1129는, 도시되지는 않았으나, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, 상기 RF 모듈 1129는 무선 통신에서 자유 공간상의 전자파를 송수신하기 위한 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다. 도 11에서는 셀룰러 모듈 1121, Wifi 모듈 1123, BT 모듈 1125, GPS 모듈 1127 및 NFC 모듈 1128이 하나의 RF 모듈 1129를 서로 공유하는 것으로 도시되어 있으나, 한 실시예에 따르면, 셀룰러 모듈 1121, Wifi 모듈 1123, BT 모듈 1125, GPS 모듈 1127 또는 NFC 모듈 1128 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호의 송수신을 수행할 수 있다.
상기 SIM 카드 1124는 가입자 식별 모듈을 포함하는 카드일 수 있으며, 전자 장치의 특정 위치에 형성된 슬롯에 삽입될 수 있다. 상기 SIM 카드 1124는 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
상기 메모리 1130(예: 도 1의 메모리 130)은 내장 메모리 1132 또는 외장 메모리 1134를 포함할 수 있다. 상기 내장 메모리 1132는, 예를 들면, 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다.
한 실시예에 따르면, 상기 내장 메모리 1132는 Solid State Drive (SSD)일 수 있다. 상기 외장 메모리 1134는 flash drive, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 Memory Stick 등을 더 포함할 수 있다. 상기 외장 메모리 1134는 다양한 인터페이스를 통하여 상기 전자 장치 1101과 기능적으로 연결될 수 있다. 한 실시예에 따르면, 상기 전자 장치 1101은 하드 드라이브와 같은 저장 장치(또는 저장 매체)를 더 포함할 수 있다.
상기 센서 모듈 1140은 물리량을 계측하거나 전자 장치 1101의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 상기 센서 모듈 1140은, 예를 들면, 제스처 센서 1140A, 자이로 센서 1140B, 기압 센서 1140C, 마그네틱 센서 1140D, 가속도 센서 1140E, 그립 센서 1140F, 근접 센서 1140G, color 센서 1140H(예: RGB(red, green, blue) 센서), 생체 센서 1140I, 온/습도 센서 1140J, 조도 센서 1140K 또는 UV(ultra violet) 센서 1140M 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 센서 모듈 1140은, 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시), IR(infra red) 센서(미도시), 홍채 센서(미도시) 또는 지문 센서(미도시) 등을 포함할 수 있다. 상기 센서 모듈 1140은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.
상기 입력 장치 1150은 터치 패널(touch panel) 1152, (디지털) 펜 센서(pen sensor) 1154, 키(key) 1156 또는 초음파(ultrasonic) 입력 장치 1158을 포함할 수 있다. 상기 터치 패널 1152는, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 인식할 수 있다. 또한, 상기 터치 패널 1152는 제어 회로를 더 포함할 수도 있다. 정전식의 경우, 물리적 접촉 또는 근접 인식이 가능하다. 상기 터치 패널 1152는 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 상기 터치 패널 1152는 사용자에게 촉각 반응을 제공할 수 있다.
상기 (디지털) 펜 센서 1154는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 인식용 쉬트(sheet)를 이용하여 구현될 수 있다. 상기 키 1156은, 예를 들면, 물리적인 버튼, 광학식 키 또는 키패드를 포함할 수 있다. 상기 초음파(ultrasonic) 입력 장치 1158은 초음파 신호를 발생하는 입력 도구를 통해, 전자 장치 1101에서 마이크(예: 마이크 1188)로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 인식이 가능하다. 한 실시예에 따르면, 상기 전자 장치 1101은 상기 통신 모듈 1120을 이용하여 이와 연결된 외부 장치(예: 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.
상기 디스플레이 1160(예: 도 1의 디스플레이 150)은 패널 1162, 홀로그램 장치 1164 또는 프로젝터 1166을 포함할 수 있다. 상기 패널 1162는, 예를 들면, LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 상기 패널 1162는, 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 상기 패널 1162은 상기 터치 패널 1152과 하나의 모듈로 구성될 수도 있다. 상기 홀로그램 장치 1164은 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 상기 프로젝터 1166는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 상기 스크린은, 예를 들면, 상기 전자 장치 1101의 내부 또는 외부에 위치할 수 있다. 한 실시예에 따르면, 상기 디스플레이 1160은 상기 패널 1162, 상기 홀로그램 장치 1164, 또는 프로젝터 1166을 제어하기 위한 제어 회로를 더 포함할 수 있다.
상기 인터페이스 1170은, 예를 들면, HDMI(high-definition multimedia interface) 1172, USB(universal serial bus) 1174, 광 인터페이스(optical interface) 1176 또는 D-sub(D-subminiature) 1178을 포함할 수 있다. 상기 인터페이스 1170은, 예를 들면, 도 1에 도시된 통신 인터페이스 160에 포함될 수 있다. 추가적으로 또는 대체적으로, 상기 인터페이스 1170은, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure Digital) 카드/MMC(multi-media card) 인터페이스 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
상기 오디오 모듈 1180은 소리(sound)와 전기신호를 쌍방향으로 변환시킬 수 있다. 상기 오디오 모듈 1180의 적어도 일부 구성요소는, 예를 들면, 도 1 에 도시된 입출력 인터페이스 140에 포함될 수 있다. 상기 오디오 모듈 1180은, 예를 들면, 스피커 1182, 리시버 1184, 이어폰 1186 또는 마이크 1188 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
상기 카메라 모듈 1191은 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈(미도시), ISP(image signal processor, 미도시) 또는 플래쉬(flash, 미도시)(예: LED 또는 xenon lamp)를 포함할 수 있다.
상기 전력 관리 모듈 1195는 상기 전자 장치 1101의 전력을 관리할 수 있다. 도시하지는 않았으나, 상기 전력 관리 모듈 1195는, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다.
상기 PMIC는, 예를 들면, 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 상기 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다. 한 실시예에 따르면, 상기 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로 또는 정류기 등의 회로가 추가될 수 있다.
상기 배터리 게이지는, 예를 들면, 상기 배터리 1196의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 상기 배터리 1196은 전기를 저장 또는 생성할 수 있고, 그 저장 또는 생성된 전기를 이용하여 상기 전자 장치 1101에 전원을 공급할 수 있다. 상기 배터리 1196은, 예를 들면, 충전식 전지(rechargeable battery) 또는 태양 전지(solar battery)를 포함할 수 있다.
상기 인디케이터 1197은 상기 전자 장치 1101 혹은 그 일부(예: 상기 AP 1110)의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 상기 모터 1198은 전기적 신호를 기계적 진동으로 변환할 수 있다. 도시되지는 않았으나, 상기 전자 장치 1101은 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 상기 모바일 TV지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 개시에 따른 전자 장치의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 본 개시에 따른 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 개시에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
본 개시에 사용된 용어 “모듈”은, 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. “모듈”은 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. “모듈”은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. “모듈”은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. “모듈”은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, 본 개시에 따른 “모듈”은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따르면, 본 개시에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그래밍 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어는, 하나 이상의 프로세서 (예: 상기 프로세서 210)에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 상기 메모리 220가 될 수 있다. 상기 프로그래밍 모듈의 적어도 일부는, 예를 들면, 상기 프로세서210에 의해 구현(implement)(예: 실행)될 수 있다. 상기 프로그래밍 모듈 의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트 (sets of instructions) 또는 프로세스 등을 포함할 수 있다.
상기 컴퓨터로 판독 가능한 기록 매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 마그네틱 매체(Magnetic Media)와, CD-ROM(Compact Disc Read Only Memory), DVD(Digital Versatile Disc)와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 그리고 ROM(Read Only Memory), RAM(Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령(예: 프로그래밍 모듈)을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 개시의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
본 개시에 따른 모듈 또는 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 개시에 따른 모듈, 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
다양한 실시예에 따르면, 명령들을 저장하고 있는 저장 매체에 있어서, 상기 명령들은 적어도 하나의 프로세서에 의하여 실행될 때에 상기 적어도 하나의 프로세서로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은, 콘텐츠 재생 환경을 정의하는 설정 화면을 출력하는 동작, 상기 출력된 설정 화면에 대한 입력을 감지하여 공간적 특성을 정의하는 동작, 정의된 공간적 특성을 기반으로, 음향을 변경하여 콘텐츠를 재생하는 동작을 포함할 수 있다.
그리고 본 명세서와 도면에 개시된 본 개시의 실시 예들은 본 개시의 기술 내용을 쉽게 설명하고 본 개시의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 개시의 범위를 한정하고자 하는 것은 아니다. 따라서 본 개시의 범위는 여기에 개시된 실시 예들 이외에도 본 개시의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.

Claims (18)

  1. 전자 장치에 있어서,
    디스플레이;
    메모리; 및
    상기 디스플레이 및 상기 메모리와 작동적으로 연결된 프로세서를 포함하고,
    상기 프로세서는, 음원을 나타내는 적어도 하나의 객체들을 포함하고 콘텐츠를 재생하는 가상의 공간을 포함하고, 콘텐츠를 재생하는 환경에 대한 공간적 특성을 정의하기 위한, 설정 화면을 상기 디스플레이에 출력하고, 사용자 입력을 검출하고, 상기 검출된 사용자 입력, 및 상기 전자 장치에 의해 획득된 환경 정보 또는 상황 정보 가운데 적어도 하나를 기반으로 상기 가상의 공간의 공간적 특성을 판단하여 상기 공간적 특성을 상기 메모리에 저장하고, 콘텐츠 재생시 저장된 상기 공간적 특성을 기반으로 콘텐츠의 음향을 변경하도록 구성된 전자 장치.
  2. 제 1항에 있어서,
    상기 공간적 특성은 콘텐츠를 재생하는 가상의 공간을 정의하도록 구성된 전자 장치.
  3. 제 1항에 있어서,
    상기 프로세서는,
    콘텐츠를 재생하는 공간의 크기, 공간의 재질, 상기 공간에 대한 음원의 위치, 상기 공간에 대한 음원의 크기, 상기 공간에 대한 사용자의 위치 가운데 적어도 하나를 기반으로 공간적 특성을 판단하도록 구성된 전자 장치.
  4. 제 1항에 있어서,
    상기 프로세서는,
    상기 공간적 특성을 기반으로 음향에 대한 주파수 특성을 보완하도록 구성된 전자 장치.
  5. 제 1항에 있어서,
    상기 프로세서는,
    상기 공간적 특성을 기반으로 음향에 대한 입체감을 부여하도록 구성된 전자 장치.
  6. 제 2항에 있어서,
    상기 프로세서는,
    주변 환경과 관련된 밝기 정보, 주변 환경과 관련된 이미지, 주변 환경과 관련된 음향 정보 가운데 적어도 하나를 기반으로 환경 정보를 확인하도록 구성된 전자 장치.
  7. 제 2항에 있어서,
    상기 프로세서는,
    시간, 상기 전자장치의 움직임 가운데 적어도 하나와 연관된 정보를 기반으로 상황 정보를 확인하도록 구성된 전자 장치.
  8. 제 1항에 있어서,
    상기 프로세서는,
    상기 설정 화면에 특정 음역과 관련된 악기 리스트를 추가하여 제공하도록 구성된 전자 장치.
  9. 제 8항에 있어서,
    상기 프로세서는,
    악기 리스트에서 선택된 악기와 연관된 주파수를 이용하여 음향을 변경하도록 구성된 전자 장치.
  10. 전자 장치의 동작 방법에 있어서,
    음원을 나타내는 적어도 하나의 객체들을 포함하고 콘텐츠를 재생하는 가상의 공간을 포함하고, 콘텐츠를 재생하는 환경에 대한 공간적 특성을 정의하기 위한, 설정 화면을 상기 전자 장치의 디스플레이에 출력하는 동작;
    사용자 입력을 검출하는 동작;
    상기 검출된 사용자 입력, 및 상기 전자 장치에 의해 획득된 환경 정보 또는 상황 정보 가운데 적어도 하나를 기반으로 상기 가상의 공간의 공간적 특성을 판단하는 동작; 및
    상기 공간적 특성을 기반으로 음향을 변경하여 콘텐츠를 재생하는 동작을 포함하는 방법.
  11. 제 10항에 있어서,
    상기 공간적 특성을 정의하는 동작은,
    사용자의 위치에 대하여 음원 위치를 결정하는 동작을 포함하는 방법.
  12. 제 10항에 있어서,
    상기 공간적 특성을 정의하는 동작은,
    상기 설정 화면에 추가될 수 있는 음원 리스트를 출력하는 동작을 포함하는 동작;
    입력에 대응하여 출력된 음원을 상기 설정 화면에 배치하는 동작을 포함하는 방법.
  13. 제 10항에 있어서,
    상기 공간적 특성을 정의하는 동작은,
    상기 콘텐츠를 재생하는 공간의 크기, 공간의 재질 가운데 하나 이상을 결정하는 동작을 포함하는 방법.
  14. 제 10항에 있어서,
    상기 정의된 공간적 특성을 기반으로, 음향을 변경하여 콘텐츠를 재생하는 동작은,
    상기 공간적 특성을 기반으로 이퀄라이저 또는 음장 설정을 변경하는 동작을 포함하는 방법.
  15. 제 12항에 있어서,
    상기 설정 화면에 추가될 수 있는 음원 리스트를 출력하는 동작은,
    특정 음역과 관련된 악기 리스트를 출력하는 동작을 더 포함하는 방법.
  16. 제 15항에 있어서,
    상기 설정 화면에 배치된 악기와 연관된 주파수를 이용하여 음향을 변경하는 동작을 더 포함하는 방법.
  17. 제 10항에 있어서,
    상기 전자 장치의 동작 방법은,
    주변 환경과 관련된 이미지를 분석하여 공간적 특성을 정의하는 동작을 더 포함하는 방법.
  18. 음원을 나타내는 적어도 하나의 객체들을 포함하고 콘텐츠를 재생하는 가상의 공간을 포함하고, 콘텐츠를 재생하는 환경에 대한 공간적 특성을 정의하기 위한, 설정 화면을 전자 장치의 디스플레이에 출력하는 동작;
    사용자 입력을 검출하는 동작;
    상기 검출된 사용자 입력, 및 상기 전자 장치에 의해 획득된 환경 정보 또는 상황 정보 가운데 적어도 하나를 기반으로 상기 가상의 공간의 공간적 특성을 판단하는 동작; 및
    상기 공간적 특성을 기반으로 음향을 변경하여 콘텐츠를 재생하는 동작을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체.
KR1020140132409A 2014-10-01 2014-10-01 콘텐츠 재생 방법 및 그 방법을 처리하는 전자 장치 KR102226817B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140132409A KR102226817B1 (ko) 2014-10-01 2014-10-01 콘텐츠 재생 방법 및 그 방법을 처리하는 전자 장치
US14/872,798 US10148242B2 (en) 2014-10-01 2015-10-01 Method for reproducing contents and electronic device thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140132409A KR102226817B1 (ko) 2014-10-01 2014-10-01 콘텐츠 재생 방법 및 그 방법을 처리하는 전자 장치

Publications (2)

Publication Number Publication Date
KR20160039400A KR20160039400A (ko) 2016-04-11
KR102226817B1 true KR102226817B1 (ko) 2021-03-11

Family

ID=55633220

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140132409A KR102226817B1 (ko) 2014-10-01 2014-10-01 콘텐츠 재생 방법 및 그 방법을 처리하는 전자 장치

Country Status (2)

Country Link
US (1) US10148242B2 (ko)
KR (1) KR102226817B1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102358025B1 (ko) 2015-10-07 2022-02-04 삼성전자주식회사 전자 장치 및 전자 장치의 음악 컨텐츠 시각화 방법
US10206040B2 (en) * 2015-10-30 2019-02-12 Essential Products, Inc. Microphone array for generating virtual sound field
US10991349B2 (en) * 2018-07-16 2021-04-27 Samsung Electronics Co., Ltd. Method and system for musical synthesis using hand-drawn patterns/text on digital and non-digital surfaces
KR102234642B1 (ko) * 2019-01-17 2021-04-01 엘지전자 주식회사 이동 로봇 및 이동 로봇의 제어방법
JP7436280B2 (ja) * 2020-05-11 2024-02-21 ローランド株式会社 演奏プログラム及び演奏装置
US12096160B2 (en) * 2021-06-14 2024-09-17 Hyundai Mobis Co., Ltd. Light source control apparatus and lamp
CN116489572B (zh) * 2022-01-14 2024-09-06 华为技术有限公司 一种电子设备控制方法、装置及电子设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130315405A1 (en) * 2012-05-24 2013-11-28 Kabushiki Kaisha Toshiba Sound processor, sound processing method, and computer program product

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69841857D1 (de) * 1998-05-27 2010-10-07 Sony France Sa Musik-Raumklangeffekt-System und -Verfahren
US7149691B2 (en) * 2001-07-27 2006-12-12 Siemens Corporate Research, Inc. System and method for remotely experiencing a virtual environment
KR100542129B1 (ko) * 2002-10-28 2006-01-11 한국전자통신연구원 객체기반 3차원 오디오 시스템 및 그 제어 방법
US7928310B2 (en) * 2002-11-12 2011-04-19 MediaLab Solutions Inc. Systems and methods for portable audio synthesis
WO2006004099A1 (ja) * 2004-07-05 2006-01-12 Pioneer Corporation 残響調整装置、残響補正方法、および、音響再生システム
EP1617702B1 (en) * 2004-07-13 2010-09-08 Sony Ericsson Mobile Communications AB Portable electronic equipment with 3D audio rendering
US7636448B2 (en) * 2004-10-28 2009-12-22 Verax Technologies, Inc. System and method for generating sound events
JP4513578B2 (ja) 2005-01-17 2010-07-28 ソニー株式会社 音響再生装置、音響再生方法、プログラム、及びテレビジョン装置
CA2598575A1 (en) * 2005-02-22 2006-08-31 Verax Technologies Inc. System and method for formatting multimode sound content and metadata
JP4295798B2 (ja) * 2005-06-21 2009-07-15 独立行政法人科学技術振興機構 ミキシング装置及び方法並びにプログラム
JP4940671B2 (ja) * 2006-01-26 2012-05-30 ソニー株式会社 オーディオ信号処理装置、オーディオ信号処理方法及びオーディオ信号処理プログラム
US8689132B2 (en) * 2007-01-07 2014-04-01 Apple Inc. Portable electronic device, method, and graphical user interface for displaying electronic documents and lists
US7792674B2 (en) * 2007-03-30 2010-09-07 Smith Micro Software, Inc. System and method for providing virtual spatial sound with an audio visual player
US9253560B2 (en) * 2008-09-16 2016-02-02 Personics Holdings, Llc Sound library and method
US8280068B2 (en) * 2008-10-03 2012-10-02 Adaptive Sound Technologies, Inc. Ambient audio transformation using transformation audio
US8166398B2 (en) * 2008-10-29 2012-04-24 Cyberlink Corp. Method and system for dynamically displaying a control bar of a multimedia player
KR101510484B1 (ko) * 2009-03-31 2015-04-08 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
WO2011119401A2 (en) * 2010-03-23 2011-09-29 Dolby Laboratories Licensing Corporation Techniques for localized perceptual audio
CN103201731B (zh) * 2010-12-02 2016-01-20 英派尔科技开发有限公司 增强现实系统
US20140226842A1 (en) * 2011-05-23 2014-08-14 Nokia Corporation Spatial audio processing apparatus
NL2006997C2 (en) * 2011-06-24 2013-01-02 Bright Minds Holding B V Method and device for processing sound data.
EP3893521B1 (en) * 2011-07-01 2024-06-19 Dolby Laboratories Licensing Corporation System and method for adaptive audio signal generation, coding and rendering
US8762315B2 (en) 2012-02-07 2014-06-24 Alan A. Yelsey Interactive portal for facilitating the representation and exploration of complexity
KR20130107974A (ko) * 2012-03-23 2013-10-02 삼성전자주식회사 플로팅 사용자 인터페이스 제공 장치 및 방법
EP2831873B1 (en) * 2012-03-29 2020-10-14 Nokia Technologies Oy A method, an apparatus and a computer program for modification of a composite audio signal
JP6086188B2 (ja) * 2012-09-04 2017-03-01 ソニー株式会社 音響効果調整装置および方法、並びにプログラム
US9047054B1 (en) * 2012-12-20 2015-06-02 Audible, Inc. User location-based management of content presentation
US10827292B2 (en) * 2013-03-15 2020-11-03 Jawb Acquisition Llc Spatial audio aggregation for multiple sources of spatial audio
WO2014175668A1 (ko) * 2013-04-27 2014-10-30 인텔렉추얼디스커버리 주식회사 오디오 신호 처리 방법
KR20160005695A (ko) * 2013-04-30 2016-01-15 인텔렉추얼디스커버리 주식회사 헤드 마운트 디스플레이 및 이를 이용한 오디오 콘텐츠 제공 방법
US20140376754A1 (en) * 2013-06-20 2014-12-25 Csr Technology Inc. Method, apparatus, and manufacture for wireless immersive audio transmission
US9883311B2 (en) * 2013-06-28 2018-01-30 Dolby Laboratories Licensing Corporation Rendering of audio objects using discontinuous rendering-matrix updates
GB2516056B (en) * 2013-07-09 2021-06-30 Nokia Technologies Oy Audio processing apparatus
US20150189457A1 (en) * 2013-12-30 2015-07-02 Aliphcom Interactive positioning of perceived audio sources in a transformed reproduced sound field including modified reproductions of multiple sound fields
US9648436B2 (en) * 2014-04-08 2017-05-09 Doppler Labs, Inc. Augmented reality sound system
WO2015175511A1 (en) * 2014-05-13 2015-11-19 Crutchfield William G Virtual simulation of spatial audio characteristics
US9462406B2 (en) * 2014-07-17 2016-10-04 Nokia Technologies Oy Method and apparatus for facilitating spatial audio capture with multiple devices
JP6202277B2 (ja) * 2014-08-05 2017-09-27 パナソニックIpマネジメント株式会社 音声処理システム及び音声処理方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130315405A1 (en) * 2012-05-24 2013-11-28 Kabushiki Kaisha Toshiba Sound processor, sound processing method, and computer program product

Also Published As

Publication number Publication date
US10148242B2 (en) 2018-12-04
US20160099009A1 (en) 2016-04-07
KR20160039400A (ko) 2016-04-11

Similar Documents

Publication Publication Date Title
KR102207208B1 (ko) 음악 정보 시각화 방법 및 장치
KR102226817B1 (ko) 콘텐츠 재생 방법 및 그 방법을 처리하는 전자 장치
CN106060378B (zh) 用于设置拍摄模块的装置和方法
KR102183413B1 (ko) 콘텐트 표현 방법 및 시스템
KR102160473B1 (ko) 볼륨을 제어하는 방법 및 전자 장치
KR20160026585A (ko) 복수의 마이크를 포함하는 전자 장치 및 이의 운용 방법
KR20150091839A (ko) 전자 장치 및 이의 정보 제공 방법
KR20160042739A (ko) 화면을 공유하기 위한 방법 및 그 전자 장치
KR20160055337A (ko) 텍스트 표시 방법 및 그 전자 장치
KR102268540B1 (ko) 데이터 관리 방법 및 그 방법을 처리하는 전자 장치
US9621986B2 (en) Electronic device, audio device, and method for supplying power to the audio device
KR20150100394A (ko) 이미지 표시 방법 및 장치
KR102216881B1 (ko) 전자장치에서 마이크의 감도에 따른 자동 이득 조절 방법 및 장치
KR102187227B1 (ko) 컨텐츠 생성 방법 및 그 전자 장치
KR102238905B1 (ko) 전자 장치의 비콘 전달 방법 및 그 전자 장치
KR20150125464A (ko) 메시지 표시 방법 및 전자 장치
KR102131626B1 (ko) 미디어 데이터 싱크 방법 및 장치
US20150339008A1 (en) Method for controlling display and electronic device
KR102240526B1 (ko) 전자 장치의 컨텐츠 다운로드 방법 및 그 전자 장치
KR102213429B1 (ko) 사운드 제공 방법 및 이를 구현하는 전자 장치
KR20160045441A (ko) 동영상 재생 방법 및 장치
KR102220766B1 (ko) 메시지를 구성하는 전자 장치와 방법 및 메시지를 수신하여 실행하는 웨어러블 전자 장치와 방법
KR102216656B1 (ko) 이미지 처리 방법 및 그 전자 장치
KR102627012B1 (ko) 전자 장치 및 전자 장치의 동작 제어 방법
KR102140294B1 (ko) 전자 장치의 광고 방법 및 그 전자 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right