KR20200101221A - 사용자 입력 처리 방법 및 이를 지원하는 전자 장치 - Google Patents
사용자 입력 처리 방법 및 이를 지원하는 전자 장치 Download PDFInfo
- Publication number
- KR20200101221A KR20200101221A KR1020190019546A KR20190019546A KR20200101221A KR 20200101221 A KR20200101221 A KR 20200101221A KR 1020190019546 A KR1020190019546 A KR 1020190019546A KR 20190019546 A KR20190019546 A KR 20190019546A KR 20200101221 A KR20200101221 A KR 20200101221A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- information
- electronic device
- users
- target
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 31
- 238000012545 processing Methods 0.000 title claims description 22
- 238000004891 communication Methods 0.000 claims abstract description 73
- 230000033001 locomotion Effects 0.000 claims description 15
- 238000003672 processing method Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 description 33
- 238000010586 diagram Methods 0.000 description 22
- 230000004044 response Effects 0.000 description 11
- 230000000007 visual effect Effects 0.000 description 8
- 230000007704 transition Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0016—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/22—Command input arrangements
- G05D1/221—Remote-control arrangements
- G05D1/222—Remote-control arrangements operated by humans
- G05D1/223—Command input arrangements on the remote controller, e.g. joysticks or touch screens
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/24—Arrangements for determining position or orientation
- G05D1/247—Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3343—Query execution using phonetics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G06K9/20—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/083—Recognition networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/54—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/227—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Remote Sensing (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Radar, Positioning & Navigation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Robotics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Signal Processing (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Mechanical Engineering (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
도 2는 일 실시 예에 따른 인텔리전트(intelligent) 시스템을 도시한 도면이다.
도 3은 일 실시 예에 따른 인텔리전트(intelligent) 서버를 도시한 도면이다.
도 4는 일 실시 예에 따른 전자 장치를 도시한 도면이다.
도 5는 일 실시 예에 따른 전자 장치의 사용자 발화 예측 형태를 도시한 도면이다.
도 6은 일 실시 예에 따른 전자 장치의 타겟(target) 식별 형태를 도시한 도면이다.
도 7은 일 실시 예에 따른 전자 장치의 공간 판단 형태를 도시한 도면이다.
도 8은 일 실시 예에 따른 전자 장치의 이동 형태를 도시한 도면이다.
도 9는 일 실시 예에 따른 전자 장치의 기능 설정 화면을 도시한 도면이다.
도 10은 일 실시 예에 따른 전자 장치의 사용자 입력 처리 방법을 도시한 도면이다.
도 11은 일 실시 예에 따른 네트워크 환경 내의 전자 장치를 도시한 도면이다.
도면의 설명과 관련하여, 동일 또는 대응되는 구성요소에 대해서는 동일한 참조 번호가 부여될 수 있다.
Claims (20)
- 전자 장치에 있어서,
메모리;
마이크;
통신 회로;
구동 모듈;
센서 모듈; 및
상기 메모리, 상기 마이크, 상기 통신 회로, 상기 구동 모듈 및 상기 센서 모듈과 작동적(operatively)으로 연결되는 프로세서;를 포함하고,
상기 프로세서는,
상기 메모리에 복수의 사용자 각각에 관계되는 정보를 저장하고,
상기 마이크를 통하여 상기 전자 장치의 태스크(task) 수행과 관계되는 사용자 발화를 수신하고,
상기 통신 회로를 이용하여 상기 사용자 발화와 관계되는 제1 데이터를 지정된 외부 장치로 전송하고,
상기 통신 회로를 이용하여 상기 태스크 수행과 관련한 상기 전자 장치의 적어도 하나의 동작 정보 및 상기 동작을 수행하는데 요구되는 적어도 하나의 파라미터를 포함하는 제2 데이터를 상기 외부 장치로부터 수신하고,
상기 적어도 하나의 파라미터에 기초하여 상기 복수의 사용자 중 상기 태스크 수행의 타겟과 관계되는 제1 사용자를 식별하고,
상기 복수의 사용자 각각에 관계되는 정보가 포함하는 상기 제1 사용자 관련 정보에 기초하여 상기 타겟의 위치를 추론하고,
상기 구동 모듈을 제어하여 상기 추론에 기반한 제1 위치로 상기 전자 장치를 이동시키고,
상기 제1 위치에서 상기 센서 모듈 또는 상기 마이크를 이용하여 획득되는 정보 및 상기 제1 사용자 관련 정보를 비교하여 상기 제1 사용자를 탐색하고,
상기 탐색에 기반하여 상기 제1 사용자가 인식되면, 상기 센서 모듈을 이용하여 상기 제1 사용자의 지정된 신체 정보가 획득되도록, 상기 구동 모듈을 제어하여 상기 제1 사용자를 기준한 지정된 임계 거리 범위 내의 제2 위치로 상기 전자 장치를 이동시키도록 설정된, 전자 장치. - 제1항에 있어서,
상기 프로세서는,
상기 복수의 사용자 중 적어도 일부의 사용자 각각으로부터 입력되는 시간대 별 공간 정보를 이용하여 상기 적어도 일부의 사용자 각각에 대응하는 공간 인식 모델을 생성하고,
상기 공간 인식 모델을 상기 적어도 일부의 사용자 각각에 관계되는 정보로서 저장하고,
상기 전자 장치가 상기 태스크를 수행하지 않는 상태에서, 상기 공간 인식 모델에 기초하여 현재 시각에 대응하는 시간대의 공간 정보가 식별되면, 상기 구동 모듈을 제어하여 상기 전자 장치를 상기 식별된 공간 정보에 대응하는 제3 위치로 이동시키도록 설정된, 전자 장치. - 제1항에 있어서,
상기 프로세서는,
상기 복수의 사용자 각각으로부터 입력되는 사용자 개인 정보를 상기 복수의 사용자 각각에 관계되는 정보로서 저장하고,
상기 제2 데이터 수신 시, 상기 사용자 개인 정보 중 상기 적어도 하나의 파라미터에 대응하는 사용자 개인 정보를 식별하고,
상기 식별된 사용자 개인 정보에 대응하는 사용자를 상기 태스크 수행의 타겟과 관계되는 제1 사용자로 식별하도록 설정된, 전자 장치. - 제1항에 있어서,
상기 프로세서는,
상기 복수의 사용자 각각으로부터 입력되는 공간 정보를 이용하여 상기 복수의 사용자 각각에 대응하는 공간 인식 모델을 생성하고,
상기 공간 인식 모델을 상기 복수의 사용자 각각에 관계되는 정보로서 저장하고,
상기 타겟의 위치를 추론하는 동작의 적어도 일부로서, 상기 공간 인식 모델을 이용하여 상기 제1 사용자와 관계된 공간 정보에 대응하는 공간을 상기 제1 위치로 판단하도록 설정된, 전자 장치. - 제1항에 있어서,
상기 프로세서는,
상기 복수의 사용자 각각으로부터 입력되는 공간 정보를 이용하여 상기 복수의 사용자 각각에 대응하는 공간 인식 모델을 생성하고,
상기 공간 인식 모델을 상기 복수의 사용자 각각에 관계되는 정보로서 저장하고,
전자 장치 이동 시, 상기 센서 모듈을 통한 촬영 또는 상기 마이크를 통한 음성 신호 수신을 기반으로 특정 사용자가 인식되면, 상기 특정 사용자가 인식된 공간 정보 및 상기 인식의 타임 스탬프 정보를 매핑하여 상기 특정 사용자에 대응하는 공간 인식 모델에 포함시키도록 설정된, 전자 장치. - 제5항에 있어서,
상기 프로세서는,
상기 타겟의 위치를 추론하는 동작의 적어도 일부로서, 상기 제1 사용자에 대응하는 공간 인식 모델의 타임 스탬프 정보 포함 여부를 판단하고,
상기 제1 사용자에 대응하는 공간 인식 모델이 상기 타겟의 위치를 추론하는 시각(time)을 기준하여 지정된 임계 시간 범위 내의 타임 스탬프 정보를 포함하면, 상기 임계 시간 범위 내의 타임 스탬프 정보와 매핑된 공간 정보에 대응하는 공간을 상기 제1 위치로 판단하도록 설정된, 전자 장치. - 제1항에 있어서,
상기 프로세서는,
상기 복수의 사용자 중 적어도 일부의 사용자 각각으로부터 입력되는 시간대 별 공간 정보를 이용하여 상기 적어도 일부의 사용자 각각에 대응하는 공간 인식 모델을 생성하고,
상기 공간 인식 모델을 상기 적어도 일부의 사용자 각각에 관계되는 정보로서 저장하고,
상기 타겟의 위치를 추론하는 동작의 적어도 일부로서, 상기 제1 사용자에 대응하는 공간 인식 모델의 상기 타겟의 위치를 추론하는 시각(time)을 포함하는 시간대의 공간 정보 포함 여부를 판단하고,
상기 제1 사용자에 대응하는 공간 인식 모델이 상기 타겟의 위치를 추론하는 시각을 포함하는 시간대의 공간 정보를 포함하면, 상기 타겟의 위치를 추론하는 시각을 포함하는 시간대의 공간 정보에 대응하는 공간을 상기 제1 위치로 판단하도록 설정된, 전자 장치. - 제1항에 있어서,
상기 프로세서는,
상기 복수의 사용자 각각으로부터 수신하는 발화 정보 또는 상기 복수의 사용자 각각에 대하여 촬영하는 영상 정보를 이용하여 상기 복수의 사용자 각각에 대응하는 화자 인식 모델을 생성하고,
상기 화자 인식 모델을 상기 복수의 사용자 각각에 관계되는 정보로서 저장하고,
상기 사용자 발화 수신 시, 상기 화자 인식 모델을 이용하여 상기 사용자 발화를 수행한 제2 사용자를 인식하도록 설정된, 전자 장치. - 제1항에 있어서,
상기 프로세서는,
상기 제1 위치로의 상기 전자 장치 이동이 완료되면, 상기 구동 모듈을 제어하여 상기 전자 장치를 지정된 각도로 회전시키고,
상기 센서 모듈 또는 상기 마이크를 이용하여 상기 제1 위치에서의 주변 환경에 대한 정보를 획득하도록 설정된, 전자 장치. - 제1항에 있어서,
상기 프로세서는,
상기 복수의 사용자 각각으로부터 수신하는 발화 정보 또는 상기 복수의 사용자 각각에 대하여 촬영하는 영상 정보를 이용하여 상기 복수의 사용자 각각에 대응하는 타겟 인식 모델을 생성하고,
상기 타겟 인식 모델을 상기 복수의 사용자 각각에 관계되는 정보로서 저장하고,
상기 제1 위치에서 상기 센서 모듈을 이용하여 획득되는 영상 정보 내의 오브젝트(object) 또는 상기 마이크를 이용하여 획득되는 음성 정보가 상기 제1 사용자에 대응하는 타겟 인식 모델과 지정된 비율 이상으로 일치하면, 상기 오브젝트 또는 상기 음성과 관계되는 사용자를 상기 제1 사용자로 인식하도록 설정된, 전자 장치. - 제10항에 있어서,
상기 제1 사용자에 대응하는 타겟 인식 모델은 상기 제1 사용자의 정면 얼굴 정보를 포함하고,
상기 프로세서는,
상기 전자 장치가 상기 지정된 임계 거리 범위 내로 이동하는 상태에서, 상기 센서 모듈을 이용하여 상기 제1 사용자의 지정된 신체 정보를 획득하기 위한 촬영을 수행하고,
상기 제1 사용자의 정면 얼굴 정보와 지정된 비율 이상으로 일치하는 상기 촬영에 의한 영상 정보가 획득되는 상기 지정된 임계 거리 범위 내의 위치를 상기 제2 위치로 결정하도록 설정된, 전자 장치. - 제1항에 있어서,
스피커;를 더 포함하고,
상기 제2 데이터는,
상기 제1 데이터에 대응하는 음성 데이터를 더 포함하고,
상기 프로세서는,
상기 전자 장치가 상기 제2 위치로 이동되면, 상기 스피커를 이용하여 상기 음성 데이터를 출력하도록 설정된, 전자 장치. - 전자 장치에 있어서,
하우징;
유저 인터페이스;
상기 하우징을 이동시키도록 상기 하우징에 배치되거나, 상기 하우징에 연결된 구동부;
상기 하우징에 또는 상기 하우징 내부에 위치하는 제1 센서 및 제2 센서;
상기 하우징 내부에 위치하는 무선 통신 회로;
상기 유저 인터페이스, 상기 구동부, 상기 제1 센서, 상기 제2 센서 및 상기 무선 통신 회로와 작동적으로 연결되는 프로세서; 및
상기 프로세서와 작동적으로 연결된 메모리;를 포함하고,
상기 메모리는, 실행 시에, 상기 프로세서가,
상기 유저 인터페이스를 통해 태스크를 수행하기 위한 사용자의 발화를 수신하고,
상기 제1 센서를 이용하여 감지된 제1 정보 및/또는 상기 무선 통신 회로를 통해 외부 장치로부터 수신된 제2 정보에 적어도 일부 기반하여, 상기 태스크를 수행하기 위한 대상의 위치를 파악하고,
상기 구동부를 이용하여 상기 위치로 상기 하우징을 이동하고,
상기 제2 센서를 이용하여 오브젝트를 인식하고,
상기 인식된 오브젝트가 상기 대상과 일치하는지 결정하고,
상기 유저 인터페이스를 통해 상기 오브젝트에 대하여 상기 태스크를 수행하도록 하는 인스트럭션들을 저장하는, 전자 장치. - 전자 장치의 사용자 입력 처리 방법에 있어서,
복수의 사용자 각각에 관계되는 정보를 저장하는 동작;
상기 전자 장치의 태스크(task) 수행과 관계되는 사용자 발화를 수신하는 동작;
상기 사용자 발화와 관계되는 제1 데이터를 지정된 외부 장치로 전송하는 동작;
상기 태스크 수행과 관련한 상기 전자 장치의 적어도 하나의 동작 정보 및 상기 동작을 수행하는데 요구되는 적어도 하나의 파라미터를 포함하는 제2 데이터를 상기 외부 장치로부터 수신하는 동작;
상기 적어도 하나의 파라미터에 기초하여 상기 복수의 사용자 중 상기 태스크 수행의 타겟과 관계되는 제1 사용자를 식별하는 동작;
상기 복수의 사용자 각각에 관계되는 정보가 포함하는 상기 제1 사용자 관련 정보에 기초하여 상기 타겟의 위치를 추론하는 동작;
상기 추론에 기반한 제1 위치로 상기 전자 장치가 이동하는 동작;
상기 제1 위치에서 획득되는 정보 및 상기 제1 사용자 관련 정보를 비교하여 상기 제1 사용자를 탐색하는 동작; 및
상기 탐색에 기반하여 상기 제1 사용자가 인식되면, 상기 제1 사용자의 지정된 신체 정보가 획득되도록, 상기 제1 사용자를 기준한 지정된 임계 거리 범위 내의 제2 위치로 상기 전자 장치가 이동하는 동작;을 포함하는, 사용자 입력 처리 방법. - 제14항에 있어서,
상기 복수의 사용자 각각에 관계되는 정보를 저장하는 동작은,
상기 복수의 사용자 각각으로부터 입력되는 사용자 개인 정보를 상기 복수의 사용자 각각에 관계되는 정보로서 저장하는 동작;을 포함하고,
상기 제1 사용자를 식별하는 동작은,
상기 제2 데이터 수신 시, 상기 사용자 개인 정보 중 상기 적어도 하나의 파라미터에 대응하는 사용자 개인 정보를 식별하는 동작; 및
상기 식별된 사용자 개인 정보에 대응하는 사용자를 상기 태스크 수행의 타겟과 관계되는 제1 사용자로 식별하는 동작;을 포함하는, 사용자 입력 처리 방법. - 제14항에 있어서.
상기 복수의 사용자 각각에 관계되는 정보를 저장하는 동작은,
상기 복수의 사용자 각각으로부터 입력되는 공간 정보를 이용하여 상기 복수의 사용자 각각에 대응하는 공간 인식 모델을 생성하는 동작; 및
상기 공간 인식 모델을 상기 복수의 사용자 각각에 관계되는 정보로서 저장하는 동작;을 포함하고,
상기 타겟의 위치를 추론하는 동작은,
상기 공간 인식 모델을 이용하여 상기 제1 사용자와 관계되는 공간 정보에 대응하는 공간을 상기 제1 위치로 판단하는 동작;을 포함하는, 사용자 입력 처리 방법. - 제14항에 있어서,
상기 복수의 사용자 각각에 관계되는 정보를 저장하는 동작은,
상기 복수의 사용자 중 적어도 일부의 사용자 각각으로부터 입력되는 시간대 별 공간 정보를 이용하여 상기 적어도 일부의 사용자 각각에 대응하는 공간 인식 모델을 생성하는 동작; 및
상기 공간 인식 모델을 상기 적어도 일부의 사용자 각각에 관계되는 정보로서 저장하는 동작;을 포함하고,
상기 타겟의 위치를 추론하는 동작은,
상기 제1 사용자에 대응하는 공간 인식 모델의 상기 타겟의 위치를 추론하는 시각(time)을 포함하는 시간대의 공간 정보 포함 여부를 판단하는 동작; 및
상기 제1 사용자에 대응하는 공간 인식 모델이 상기 타겟의 위치를 추론하는 시각을 포함하는 시간대의 공간 정보를 포함하면, 상기 타겟의 위치를 추론하는 시각을 포함하는 시간대의 공간 정보에 대응하는 공간을 상기 제1 위치로 판단하는 동작;을 포함하는, 사용자 입력 처리 방법. - 제14항에 있어서,
상기 제1 위치로의 상기 전자 장치 이동이 완료되면, 상기 구동 모듈을 제어하여 상기 전자 장치가 지정된 각도로 회전하는 동작; 및
상기 제1 위치에서의 주변 환경에 대한 정보를 획득하는 동작;을 더 포함하는, 사용자 입력 처리 방법. - 제18항에 있어서,
상기 복수의 사용자 각각에 관계되는 정보를 저장하는 동작은,
상기 복수의 사용자 각각으로부터 수신하는 발화 정보 또는 상기 복수의 사용자 각각에 대하여 촬영하는 영상 정보를 이용하여 상기 복수의 사용자 각각에 대응하는 타겟 인식 모델을 생성하는 동작; 및
상기 타겟 인식 모델을 상기 복수의 사용자 각각에 관계되는 정보로서 저장하는 동작;을 포함하고,
상기 제1 사용자를 탐색하는 동작은,
상기 제1 위치에서 획득되는 영상 정보 내의 오브젝트(object) 또는 음성 정보가 상기 제1 사용자에 대응하는 타겟 인식 모델과 지정된 비율 이상으로 일치하면, 상기 오브젝트 또는 상기 음성과 관계되는 사용자를 상기 제1 사용자로 인식하는 동작;을 포함하는, 사용자 입력 처리 방법. - 제19항에 있어서,
상기 제1 사용자를 기준한 지정된 임계 거리 범위 내의 제2 위치로 상기 전자 장치가 이동하는 동작은,
상기 전자 장치가 상기 지정된 임계 거리 범위 내로 이동하는 상태에서, 상기 제1 사용자의 지정된 신체 정보를 획득하기 위한 촬영을 수행하는 동작; 및
상기 제1 사용자의 정면 얼굴 정보와 지정된 비율 이상으로 일치하는 상기 촬영에 의한 영상 정보가 획득되는 상기 지정된 임계 거리 범위 내의 위치를 상기 제2 위치로 결정하는 동작;을 포함하는, 사용자 입력 처리 방법.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190019546A KR102740847B1 (ko) | 2019-02-19 | 2019-02-19 | 사용자 입력 처리 방법 및 이를 지원하는 전자 장치 |
PCT/KR2020/002327 WO2020171548A1 (ko) | 2019-02-19 | 2020-02-18 | 사용자 입력 처리 방법 및 이를 지원하는 전자 장치 |
US17/406,727 US12197204B2 (en) | 2019-02-19 | 2021-08-19 | User input processing method and electronic device supporting same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190019546A KR102740847B1 (ko) | 2019-02-19 | 2019-02-19 | 사용자 입력 처리 방법 및 이를 지원하는 전자 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200101221A true KR20200101221A (ko) | 2020-08-27 |
KR102740847B1 KR102740847B1 (ko) | 2024-12-13 |
Family
ID=72144125
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190019546A KR102740847B1 (ko) | 2019-02-19 | 2019-02-19 | 사용자 입력 처리 방법 및 이를 지원하는 전자 장치 |
Country Status (3)
Country | Link |
---|---|
US (1) | US12197204B2 (ko) |
KR (1) | KR102740847B1 (ko) |
WO (1) | WO2020171548A1 (ko) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024043446A1 (ko) * | 2022-08-23 | 2024-02-29 | 삼성전자주식회사 | 사용자의 위치를 식별하기 위한 전자 장치 및 그 제어 방법 |
WO2024181647A1 (ko) * | 2023-02-27 | 2024-09-06 | 삼성전자주식회사 | 사용자의 위치에 기반하여 미디어 콘텐트를 표시하기 위한 전자 장치, 방법, 및 비-일시적 컴퓨터 판독 가능 저장 매체 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102740847B1 (ko) * | 2019-02-19 | 2024-12-13 | 삼성전자주식회사 | 사용자 입력 처리 방법 및 이를 지원하는 전자 장치 |
FR3103955A1 (fr) * | 2019-11-29 | 2021-06-04 | Orange | Dispositif et procédé d’analyse environnementale, et dispositif et procédé d’assistance vocale les implémentant |
US12002458B1 (en) * | 2020-09-04 | 2024-06-04 | Amazon Technologies, Inc. | Autonomously motile device with command processing |
US12117838B1 (en) * | 2021-03-31 | 2024-10-15 | Amazon Technologies, Inc. | Object tracking and entity resolution |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140106891A (ko) * | 2013-02-27 | 2014-09-04 | 주식회사 케이티 | 이동 로봇에서의 퀴즈 게임 서비스 제공 방법 및 이를 위한 이동 로봇 |
KR20140126539A (ko) * | 2013-04-23 | 2014-10-31 | 삼성전자주식회사 | 이동로봇, 사용자단말장치 및 그들의 제어방법 |
KR20180038871A (ko) * | 2016-10-07 | 2018-04-17 | 엘지전자 주식회사 | 공항용 로봇 및 그의 동작 방법 |
US20180288104A1 (en) * | 2017-03-30 | 2018-10-04 | Intel Corporation | Methods, systems and apparatus to enable voice assistant device communication |
KR20180109625A (ko) * | 2017-03-28 | 2018-10-08 | 삼성전자주식회사 | 음성 인식 서비스 운용 방법 및 이를 지원하는 전자 장치 |
KR20180134628A (ko) * | 2017-06-09 | 2018-12-19 | 네이버 주식회사 | 무빙 디바이스를 이용하여 사용자의 위치 및 공간에 알맞은 정보를 제공하는 방법 및 장치 |
Family Cites Families (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140254896A1 (en) | 2011-07-18 | 2014-09-11 | Tiger T G Zhou | Unmanned drone, robot system for delivering mail, goods, humanoid security, crisis negotiation, mobile payments, smart humanoid mailbox and wearable personal exoskeleton heavy load flying machine |
JP4026758B2 (ja) | 2002-10-04 | 2007-12-26 | 富士通株式会社 | ロボット |
KR20040042242A (ko) * | 2002-11-13 | 2004-05-20 | 삼성전자주식회사 | 홈서버를 이용하는 홈로봇 및 이를 포함하는 홈네트워크시스템 |
US20050131645A1 (en) | 2003-06-09 | 2005-06-16 | Panopoulos Peter J. | Machine having automatic transport with scanning and GPS functions |
JP4257230B2 (ja) * | 2004-02-26 | 2009-04-22 | 株式会社東芝 | 移動ロボット |
JP4266211B2 (ja) * | 2005-03-23 | 2009-05-20 | 株式会社東芝 | ロボット装置、ロボット装置の移動方法、および、プログラム |
JP4455417B2 (ja) * | 2005-06-13 | 2010-04-21 | 株式会社東芝 | 移動ロボット、プログラム及びロボット制御方法 |
US20090143910A1 (en) | 2007-12-03 | 2009-06-04 | Electronics And Telecommunications Research Institute | Intelligent printing system with delivery robots for delivering printed documents and method therefor |
US9259842B2 (en) * | 2011-06-10 | 2016-02-16 | Microsoft Technology Licensing, Llc | Interactive robot initialization |
JP5765153B2 (ja) | 2011-09-12 | 2015-08-19 | 日本電気株式会社 | 人物監視システム、ロボット、人物監視方法およびロボット制御プログラム |
US9557740B2 (en) | 2013-07-02 | 2017-01-31 | David Crawley | Autonomous mobile platform for service applications |
US9471059B1 (en) * | 2015-02-17 | 2016-10-18 | Amazon Technologies, Inc. | Unmanned aerial vehicle assistant |
US20170090456A1 (en) * | 2015-09-25 | 2017-03-30 | Multimedia Image Solution Limited | Autonomous cleaning robot |
AU2017285019B2 (en) * | 2016-06-15 | 2022-11-10 | Irobot Corporation | Systems and methods to control an autonomous mobile robot |
US10120386B2 (en) * | 2016-11-18 | 2018-11-06 | Robert Bosch Start-Up Platform North America, LLC, Series 1 | Robotic creature and method of operation |
KR101907548B1 (ko) | 2016-12-23 | 2018-10-12 | 한국과학기술연구원 | 휴먼 추종을 위한 이동로봇의 주행 및 탐색방법 |
KR102616403B1 (ko) | 2016-12-27 | 2023-12-21 | 삼성전자주식회사 | 전자 장치 및 그의 메시지 전달 방법 |
US10574945B1 (en) * | 2017-02-03 | 2020-02-25 | Alarm.com Incorported | Asset management monitoring |
WO2018151933A1 (en) * | 2017-02-16 | 2018-08-23 | Walmart Apollo, Llc | Unmanned aerial/ground vehicle (uagv) detection system and method |
US10754351B2 (en) * | 2017-02-28 | 2020-08-25 | Toyota Jidosha Kabushiki Kaisha | Observability grid-based autonomous environment search |
WO2018180454A1 (ja) * | 2017-03-28 | 2018-10-04 | 日本電産株式会社 | 移動体 |
CN110476133B (zh) * | 2017-04-10 | 2022-06-07 | 三菱电机株式会社 | 地图管理装置和自主移动体控制装置 |
KR102391914B1 (ko) * | 2017-06-30 | 2022-04-27 | 엘지전자 주식회사 | 이동 로봇의 동작 방법 |
US10606269B2 (en) * | 2017-12-19 | 2020-03-31 | X Development Llc | Semantic obstacle recognition for path planning |
US11687869B2 (en) * | 2018-02-22 | 2023-06-27 | Flytrex Aviation Ltd. | System and method for securing delivery using an autonomous vehicle |
JP7363764B2 (ja) * | 2018-02-26 | 2023-10-18 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP7102169B2 (ja) * | 2018-02-28 | 2022-07-19 | パナソニックホールディングス株式会社 | 装置、ロボット、方法、及びプログラム |
US20190278294A1 (en) * | 2018-03-07 | 2019-09-12 | Casio Computer Co., Ltd. | Autonomous mobile apparatus, autonomous move method, and recording medium |
US20210018912A1 (en) * | 2018-04-10 | 2021-01-21 | Fetch Robotics, Inc. | Robot Management System |
US10852724B2 (en) * | 2018-04-30 | 2020-12-01 | DJI Research LLC | Customizable waypoint missions |
KR101919354B1 (ko) * | 2018-07-05 | 2018-11-16 | 주식회사 스토리안트 | 기계학습과 음성인식 기반의 스마트폰 착탈식 지능형 이동로봇 시스템 |
WO2020008755A1 (ja) * | 2018-07-06 | 2020-01-09 | ソニー株式会社 | 情報処理装置、情報処理システム、行動計画方法及びプログラム |
US11460849B2 (en) * | 2018-08-09 | 2022-10-04 | Cobalt Robotics Inc. | Automated route selection by a mobile robot |
JP7205148B2 (ja) * | 2018-10-04 | 2023-01-17 | カシオ計算機株式会社 | ロボット、制御方法、及び、プログラム |
US11433546B1 (en) * | 2018-10-24 | 2022-09-06 | Amazon Technologies, Inc. | Non-verbal cuing by autonomous mobile device |
US20220019213A1 (en) * | 2018-12-07 | 2022-01-20 | Serve Robotics Inc. | Delivery robot |
KR20200076438A (ko) * | 2018-12-19 | 2020-06-29 | 삼성전자주식회사 | 사용자의 액티비티를 추적하는 전자 장치 및 전자 장치의 동작 방법 |
US20200201338A1 (en) * | 2018-12-24 | 2020-06-25 | Harmonicareu co., Ltd. | Hospital Automated Guided Vehicle and Method of Operating the Same |
US12036917B2 (en) * | 2019-01-12 | 2024-07-16 | Zmp Inc. | Autonomous vehicle, delivery system, and program |
KR20200094396A (ko) * | 2019-01-30 | 2020-08-07 | 삼성전자주식회사 | 전자 장치 및 복수의 액션들을 포함하는 태스크를 결정하는 방법 |
KR102740847B1 (ko) * | 2019-02-19 | 2024-12-13 | 삼성전자주식회사 | 사용자 입력 처리 방법 및 이를 지원하는 전자 장치 |
US12202125B2 (en) * | 2021-11-19 | 2025-01-21 | Google Llc | Robotic computing device with adaptive user-interaction |
-
2019
- 2019-02-19 KR KR1020190019546A patent/KR102740847B1/ko active IP Right Grant
-
2020
- 2020-02-18 WO PCT/KR2020/002327 patent/WO2020171548A1/ko active Application Filing
-
2021
- 2021-08-19 US US17/406,727 patent/US12197204B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140106891A (ko) * | 2013-02-27 | 2014-09-04 | 주식회사 케이티 | 이동 로봇에서의 퀴즈 게임 서비스 제공 방법 및 이를 위한 이동 로봇 |
KR20140126539A (ko) * | 2013-04-23 | 2014-10-31 | 삼성전자주식회사 | 이동로봇, 사용자단말장치 및 그들의 제어방법 |
KR20180038871A (ko) * | 2016-10-07 | 2018-04-17 | 엘지전자 주식회사 | 공항용 로봇 및 그의 동작 방법 |
KR20180109625A (ko) * | 2017-03-28 | 2018-10-08 | 삼성전자주식회사 | 음성 인식 서비스 운용 방법 및 이를 지원하는 전자 장치 |
US20180288104A1 (en) * | 2017-03-30 | 2018-10-04 | Intel Corporation | Methods, systems and apparatus to enable voice assistant device communication |
KR20180134628A (ko) * | 2017-06-09 | 2018-12-19 | 네이버 주식회사 | 무빙 디바이스를 이용하여 사용자의 위치 및 공간에 알맞은 정보를 제공하는 방법 및 장치 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024043446A1 (ko) * | 2022-08-23 | 2024-02-29 | 삼성전자주식회사 | 사용자의 위치를 식별하기 위한 전자 장치 및 그 제어 방법 |
WO2024181647A1 (ko) * | 2023-02-27 | 2024-09-06 | 삼성전자주식회사 | 사용자의 위치에 기반하여 미디어 콘텐트를 표시하기 위한 전자 장치, 방법, 및 비-일시적 컴퓨터 판독 가능 저장 매체 |
Also Published As
Publication number | Publication date |
---|---|
KR102740847B1 (ko) | 2024-12-13 |
US20210383806A1 (en) | 2021-12-09 |
WO2020171548A1 (ko) | 2020-08-27 |
US12197204B2 (en) | 2025-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11443744B2 (en) | Electronic device and voice recognition control method of electronic device | |
US12197204B2 (en) | User input processing method and electronic device supporting same | |
US10832674B2 (en) | Voice data processing method and electronic device supporting the same | |
US11677690B2 (en) | Method for providing service by using chatbot and device therefor | |
KR20190022109A (ko) | 음성 인식 서비스를 활성화하는 방법 및 이를 구현한 전자 장치 | |
KR20200109954A (ko) | IoT 기기의 위치 추론 방법, 이를 지원하는 서버 및 전자 장치 | |
US11804224B2 (en) | Electronic device and method for operation thereof | |
US11392346B2 (en) | Electronic device for providing voice-based service using external device, external device and operation method thereof | |
KR20200050235A (ko) | 전자 장치 및 그의 지능형 인터랙션 방법 | |
KR102347208B1 (ko) | 외부 장치를 이용한 태스크 수행 방법 및 이를 지원하는 전자 장치, 서버 및 저장 매체 | |
KR20210016815A (ko) | 복수의 지능형 에이전트를 관리하는 전자 장치 및 그의 동작 방법 | |
EP3777115B1 (en) | Electronic device supporting personalized device connection and method thereof | |
US11817082B2 (en) | Electronic device for performing voice recognition using microphones selected on basis of operation state, and operation method of same | |
US11636867B2 (en) | Electronic device supporting improved speech recognition | |
CN111919248A (zh) | 用于处理用户发声的系统及其控制方法 | |
CN112912955B (zh) | 提供基于语音识别的服务的电子装置和系统 | |
CN111640429B (zh) | 提供语音识别服务的方法和用于该方法的电子装置 | |
KR20210036527A (ko) | 사용자 발화를 처리하는 전자 장치 및 그 작동 방법 | |
US12183327B2 (en) | Voice recognition service operating method and electronic device supporting same | |
US11749271B2 (en) | Method for controlling external device based on voice and electronic device thereof | |
KR102512614B1 (ko) | 오디오 개선을 지원하는 전자 장치 및 이를 위한 방법 | |
KR20210061091A (ko) | 인텔리전트 어시스턴스 서비스를 제공하기 위한 전자 장치 및 그의 동작 방법 | |
CN112219235A (zh) | 包括处理用户语音的电子设备和控制电子设备上语音识别的方法的系统 | |
KR20210044606A (ko) | 웨이크업 모델 생성 방법 및 이를 위한 전자 장치 | |
US11562741B2 (en) | Electronic device and controlling method using non-speech audio signal in the electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20190219 |
|
PG1501 | Laying open of application | ||
A201 | Request for examination | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20211222 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20190219 Comment text: Patent Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20231110 Patent event code: PE09021S01D |
|
E601 | Decision to refuse application | ||
PE0601 | Decision on rejection of patent |
Patent event date: 20240708 Comment text: Decision to Refuse Application Patent event code: PE06012S01D |
|
PX0701 | Decision of registration after re-examination |
Patent event date: 20241016 Comment text: Decision to Grant Registration Patent event code: PX07013S01D |
|
X701 | Decision to grant (after re-examination) | ||
PG1601 | Publication of registration |