Nothing Special   »   [go: up one dir, main page]

KR20130086971A - Question answering system using speech recognition and its application method thereof - Google Patents

Question answering system using speech recognition and its application method thereof Download PDF

Info

Publication number
KR20130086971A
KR20130086971A KR1020130006811A KR20130006811A KR20130086971A KR 20130086971 A KR20130086971 A KR 20130086971A KR 1020130006811 A KR1020130006811 A KR 1020130006811A KR 20130006811 A KR20130006811 A KR 20130006811A KR 20130086971 A KR20130086971 A KR 20130086971A
Authority
KR
South Korea
Prior art keywords
voice
answer
question
sentence
text
Prior art date
Application number
KR1020130006811A
Other languages
Korean (ko)
Inventor
진삼순
Original Assignee
진삼순
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 진삼순 filed Critical 진삼순
Publication of KR20130086971A publication Critical patent/KR20130086971A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/40Arrangements for generating radiation specially adapted for radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/42Arrangements for detecting radiation specially adapted for radiation diagnosis
    • A61B6/4283Arrangements for detecting radiation specially adapted for radiation diagnosis characterised by a detector unit being housed in a cassette

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Engineering & Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PURPOSE: A voice recognition question and answer system and an operation method thereof are provided to respond to a question with a voice or to store an answer with the voice. CONSTITUTION: A voice input unit (210) converts an inputted analog signal into a digital signal. A voice recognition unit (220) stores and converts the recognized voice into text by recognizing the voice for the digital signal. A natural language processor (230) executes a question and answer process based on the converted information and the voice file of the voice. A screen output unit (250) outputs the answer transmitted from the natural language processor. A voice output unit (260) outputs the corresponding voice file to a voice output device (300). [Reference numerals] (100) Voice input device (Microphone); (200) Terminal; (210) Voice input unit; (211) Voice recognition; (220) Voice recognition unit; (230) Natural language processor; (231) Indexing; (232) Sentence analysis; (233) Question and answer; (240) Voice DB; (241) Voice question and answer DB; (242) Indexing DB; (243) Question and answer DB; (250) Screen output unit; (251) Text output; (260) Voice output unit; (300) Voice output device (Earphone, Speaker)

Description

음성인식 질의응답 시스템 및 그것의 운용방법{Question answering system using speech recognition and its application method thereof}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a speech recognition system and a speech recognition system,

본 발명은 음성인식 질의응답 시스템 및 그 방법에 관한 것으로, 더욱 상세하게는 사용자의 음성으로부터 질문과 답변에 대한 음성을 인식해서 질문과 답변 문장으로 변환하고, 사용자가 음성으로 질문을 입력하면 문장분석 후 질의응답을 수행하는 음성인식 질의응답 시스템 및 그것의 운용방법에 관한 것이다.The present invention relates to a voice recognition question and answer system and a method thereof, and more particularly, to recognize a voice for a question and an answer from a user's voice and convert the voice to a question and answer sentence. The present invention relates to a speech recognition question answering system for performing a post-answer question and a method of operating the same.

질의응답시스템은 사용자가 원하는 지식을 얻기 위해 시스템에게 질문을 하고, 시스템은 이를 분석하여 관련 답변을 출력하는 것으로서, 현재까지 다양한 방법으로 질의응답 시스템을 구현하여 왔다. 그러나, 기존 시스템은 모두 질문과 답변이 텍스트형태로 저장되고 표현되는 한계점을 가지고 있다.The question and answer system asks the system to obtain the knowledge desired by the user, and the system analyzes it and outputs the related answer. Until now, the question and answer system has been implemented in various ways. However, all existing systems have limitations in that questions and answers are stored and expressed in text form.

본 발명은 상기와 같은 종래 기술의 문제점을 해결하기 위하여 제안된 것으로서, 음성으로 질문과 답변 문장을 저장하는 시스템 및 방법과, 음성으로 대화하는 시스템 및 방법을 제공하는데 그 목적이 있다.The present invention has been proposed to solve the problems of the prior art, and an object thereof is to provide a system and method for storing question and answer sentences by voice, and a system and method for dialogue by voice.

이와 같은 목적을 달성하기 위한 본 발명의 음성인식 질의응답 시스템은 사용자의 음성으로부터 질문과 답변에 대한 음성을 인식해서 질문과 답변 문장으로 변환하여, 상기 질문과 답변에 대한 텍스트파일을 저장하고, 상기 질문과 답변문장을 인덱싱하여 저장하며, 사용자가 음성으로 질문을 입력하면, 음성인식 후 텍스트로 변환하고, 질의응답을 수행하여, 상기 질의 응답에 의해서 입력한 문장에 대한 답변을 음성과 텍스트로 출력하는 단말기가 구성되는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a voice recognition question answering system for recognizing a voice of a question and an answer from a voice of a user and converting the voice into a question and answer sentence, storing a text file of the question and answer, When a user inputs a question by voice, the speech and the sentence are converted into text, and a question and answer is performed, and the answer to the sentence inputted by the question and answer is outputted as voice and text The terminal is configured to be a terminal.

한편, 본 발명의 음성인식 질의응답 시스템은 사용자의 음성으로부터 질문과 답변에 대한 음성을 인식해서 질문과 답변 문장으로 변환하여, 상기 질문과 답변에 대한 텍스트파일을 저장하고, 상기 질문과 답변문장을 인덱싱하여 저장하며, 사용자가 음성으로 질문을 입력하면, 음성인식 후 텍스트로 변환하고, 질의응답을 수행하여, 상기 질의 응답에 의해서 입력한 문장에 대한 답변을 음성과 텍스트로 출력하는 것을 특징으로 한다.Meanwhile, the speech recognition question answering system of the present invention recognizes a voice of a question and an answer from a voice of a user, converts the voice into a question and an answer sentence, stores a text file of the question and an answer, Indexes and stores the texts. When a user inputs a question by voice, the speech is recognized and converted into text, a query response is performed, and a response to the sentence input by the query response is output as voice and text .

여기서, 상기 질문과 답변에 대한 음성파일을 저장하고, 상기 질문과 답변 음성파일을 인덱싱하여 저장하는 것을 특징으로 한다.Here, the voice file for the question and answer is stored, and the question and answer voice file is indexed and stored.

그리고, 음성을 입력받는 음성입력장치; 상기 음성입력장치를 통해서 전달된 아날로그 음성을 디지털신호로 변환하는 음성입력부; 상기 음성입력부에서 수신된 음성정보로부터 음성인식을 수행하는 음성인식부; 상기 음성인식부에 의해 음성에서 텍스트로 변환된 정보를 기반으로 인덱싱, 질의응답을 수행하는 자연어처리부; 상기 자연어처리부로부터 전달된 답변을 텍스트로 화면에 출력하는 화면출력부; 상기 음성을 디지털 신호에서 아날로그 신호로 변환하는 음성출력부; 및 상기 음성을 출력시키는 음성출력장치를 포함하여 구성되는 것을 특징으로 한다.A voice input device for inputting voice; A voice input unit for converting the analog voice transmitted through the voice input device into a digital signal; A voice recognition unit for performing voice recognition from the voice information received by the voice input unit; A natural language processing unit for performing indexing and querying based on information converted from speech to text by the speech recognition unit; A screen output unit for outputting a reply sent from the natural language processing unit as text; A voice output unit for converting the voice into a digital signal to an analog signal; And a voice output device for outputting the voice.

그리고, 상기 음성인식부는 음성인식 알고리즘에 의해 음성을 인식해서 텍스트로 변환하여, 텍스트는 텍스트파일로 저장하는 것을 특징으로 한다.The speech recognition unit recognizes speech by a speech recognition algorithm and converts the speech into text, and stores the text as a text file.

또한, 상기 자연어처리부는 상기 음성인식부에 의해 음성에서 텍스트로 변환된 질문과 답변 문장정보를 기반으로 형태소 분석 후, 인덱싱과정을 수행하고, 특정 질문에 대한 답변을 찾는 질의응답을 위해서 문장분석, 질의응답의 처리 과정을 수행하는 것을 특징으로 한다.The natural language processing unit performs an indexing process on the basis of the question-and-answer sentence information converted from the speech to the text by the speech recognition unit, analyzes the morpheme based on the question and answer sentence information, And a query response process is performed.

또한, 상기 화면출력부는 상기 자연어처리부로부터 전달된 응답문장을 화면에 텍스트로 출력하는 것을 특징으로 한다.The screen output unit may output a response sentence sent from the natural language processing unit as text on a screen.

또한, 상기 음성출력부는 상기 자연어처리부로부터 전달된 응답문장에 해당하는 음성파일을 스피커 또는 이어폰으로 출력하는 것을 특징으로 한다.The voice output unit may output a voice file corresponding to a response sentence sent from the natural language processing unit to a speaker or an earphone.

또한, 상기 질문과 답변에 대한 음성파일을 저장하고, 상기 질문과 답변 음성파일을 인덱싱하여 저장하는 것을 특징으로 한다.In addition, a voice file for the question and answer is stored, and the voice file for question and answer is indexed and stored.

또한, 상기 답변 문장을 음성으로 변환하는 티티에스부가 더 구성되는 것을 특징으로 한다.Further, the present invention is characterized by further comprising a text portion for converting the answer sentence into speech.

한편, 본 발명의 음성인식 질의응답 시스템의 운용방법에서 음성으로 질문과 답변문장을 저장하는 방법은, 질문과 답변을 음성으로 입력하는 1단계; 상기 음성으로부터 음성인식하는 2단계; 상기 음성인식한 음성과 상기 음성인식 후 발생한 텍스트를 인덱싱하는 3단계를 포함하여 구성되는 것을 특징으로 한다.Meanwhile, in the method of operating the voice recognition question answering system of the present invention, a method of storing a question and an answer sentence by voice includes a step 1) of inputting a question and an answer as a voice; A second step of recognizing speech from the speech; And indexing the speech-recognized speech and the text generated after the speech recognition.

여기서, 상기 음성인식한 음성을 음성파일로 저장하는 2a단계를 더 포함하여 구성되는 것을 특징으로 한다.Here, the method may further include a step 2a of storing the voice recognized as a voice file.

그리고, 상기 질문문장과 답변문장에 해당하는 음성파일을 상기 질문문장과 답변문장과 연동하여 각각 저장하는 것을 특징으로 한다.The voice file corresponding to the question sentence and the answer sentence is stored in association with the question sentence and the answer sentence, respectively.

이때, 상기 질문과 답변을 음성으로 입력하는 1단계는, 사용자에게 질문입력버턴을 제공하여, 음성입력버턴이 활성화되는지 체크하여, 음성이 모두 입력되었으면, 질문입력 완료를 표시하고, 사용자에게 답변입력버턴을 제공하여, 음성입력버턴이 활성화되는지 체크하여, 음성이 모두 입력되었으면, 답변입력 완료를 표시하고, 상기 입력된 질문과 답변을 각각 음성인식단계로 전송하는 것을 특징으로 한다.At this time, in the step 1 of inputting the question and the answer by voice, a question input button is provided to the user to check whether the voice input button is activated, and when the voice is inputted, the completion of the question input is displayed, A button is provided to check whether a voice input button is activated, and if the voice is inputted, the completion of answer input is displayed, and the inputted question and answer are respectively transmitted to the voice recognition step.

또한, 상기 음성으로부터 음성인식하는 2단계는, 상기 질문입력 음성과 답변입력 음성을 각각 전달 받아 음성을 텍스트로 변환한 뒤 질문문장과 답변문장으로 사용자에게 표시하는 것을 특징으로 한다.In the second step of voice recognition from the voice, the question input voice and the answer input voice are received, respectively, and the voice is converted into text and displayed to the user as a question sentence and a reply sentence.

또한, 상기 음성 인식한 음성과 상기 음성인식 후 발생한 텍스트를 인덱싱하는 3단계는, 상기 질문문장과 답변문장에 나타난 키워드 리스트를 추출하고, 상기 키워드가 나타난 다른 질문문장과 답변문장의 위치정보를 단어 리스트에 기입하여, 인덱싱 DB에 저장하는 것을 특징으로 한다.The third step of indexing the speech recognized speech and the text generated after the speech recognition includes extracting a keyword list displayed in the question sentence and an answer sentence, And stores it in the indexing DB.

대안적으로, 음성인식한 문장을 질문과 답변 문장으로 저장하는 2b단계를 더 포함하여 구성되는 것을 특징으로 한다.Alternatively, the speech recognition apparatus may further comprise a step 2b of storing the sentence in which the speech is recognized as the question and answer sentence.

또 한편, 본 발명의 음성인식 질의응답 시스템의 운용방법에서 음성으로 질의응답 대화하는 방법은, 질문 음성을 입력받는 1단계; 상기 음성으로부터 음성인식하는 2단계; 상기 음성인식 후 발생한 텍스트로 문장분석하는 3단계; 및 상기 문장분석 후, 질의응답하는 4단계; 상기 질의응답 후, 질의응답 DB에서 추출되거나 질의응답DB를 통해서 생성된 답변을 음성 및 텍스트로 출력하는 5단계를 포함하여 구성되는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method of operating a voice recognition system, the method comprising the steps of: receiving a question voice; A second step of recognizing speech from the speech; A third step of analyzing a sentence with text generated after the speech recognition; And a fourth step of performing a query response after analyzing the sentence; And a fifth step of outputting the answers extracted from the query response DB or generated through the query response DB as voice and text after the query response.

또 한편, 본 발명의 음성인식 질의응답 시스템의 운용방법에서 음성으로 질의응답 대화하는 방법은, 음성으로 질문을 입력 받는 1단계; 음성인식하는 2단계; 상기 음성인식 후 발생한 문장정보로 질의응답처리하는 3단계; 및 상기 질의응답에 의해서 추출되거나 생성된 답변을 답변 음성과 답변텍스트로 출력하는 4단계를 포함하여 구성되는 것을 특징으로 한다.On the other hand, in the operating method of the voice recognition question and answer system of the present invention, a method for question-answer conversation by voice comprises: a step of receiving a question by voice; Two steps of speech recognition; A step 3 for answering questions with sentence information generated after the speech recognition; And outputting the answer extracted or generated by the question and answer as an answer voice and an answer text.

이와 같이 구성된 본 발명의 음성인식 질의응답 시스템 및 그것의 운용방법은 음성으로 질문과 답변 문장을 저장하거나, 음성으로 대화하는 유용한 효과가 있다.The speech recognition question answering system and its operation method of the present invention configured as described above have a useful effect of storing a question and answer sentence by voice or talking by voice.

도 1은 본 발명의 일 실시예에 따른 음성인식 질의응답 시스템의 구성을 도시한 도면;
도 2는 본 발명의 일 실시예에 따른 음성인식 질의응답 시스템의 음성으로부터 질문과 답변을 저장하는 순서를 나타낸 도면;
도 3은 본 발명의 일 실시예에 따른 음성인식 질의응답 시스템의 음성으로부터 질문과 답변을 저장하는 운용방법 절차를 나타낸 도면;
도 4는 본 발명의 일 실시예에 따른 음성인식 질의응답 시스템의 음성으로 질의응답 대화하는 순서를 나타낸 도면;
도 5는 본 발명의 일 실시예에 따른 음성인식 질의응답 시스템의 음성으로 질의응답 대화하는 운용방법 절차를 나타낸 도면;
도 6은 본 발명의 일 실시예에 따른 음성인식 질의응답 시스템의 음성입력 및 음성인식 결과를 표시한 도면;
도 7은 본 발명의 일 실시예에 따른 음성인식 질의응답 시스템의 내부 구성을 나타내는 도면;
도 8은 본 발명의 일 실시예에 따른 음성인식 질의응답 시스템에서 음성으로부터 질문과 답변을 저장하는 방법을 나타내는 흐름도;
도 9는 본 발명의 일 실시예에 따른 음성인식 질의응답 시스템에서 음성으로부터 질문과 답변을 저장하는 방법을 나타낸 도면;
도 10은 본 발명의 일 실시예에 따른 음성인식 질의응답 시스템에서 음성으로 질의응답 대화하는 방법을 나타내는 흐름도;
도 11은 본 발명의 일 실시예에 따른 음성인식 질의응답 시스템에서 음성으로 질의응답 대화하는 방법을 나타낸 도면;
도 12는 본 발명의 일 실시예에 따른 음성인식 질의응답 시스템에서 음성으로 대화하는 화면;
도 13은 본 발명의 일 실시예에 따른 음성인식 질의응답 시스템에서 음성으로 대화하는 화면;
도 14 및 도 15는 본 발명의 일 실시예에 따른 음성인식 질의응답 시스템에서 질문과 답변 음성입력 후, 질문과 답변 문장 표시 화면이다.
1 is a block diagram of a voice recognition query response system according to an embodiment of the present invention;
FIG. 2 illustrates a procedure for storing questions and answers from a voice in a voice recognition query response system according to an embodiment of the present invention; FIG.
3 is a diagram illustrating an operation method procedure for storing a question and an answer from a voice of a voice recognition question and answer system according to an embodiment of the present invention;
FIG. 4 is a diagram illustrating a procedure for a voice-response-based conversation of a voice-recognition question-and-answer system according to an embodiment of the present invention; FIG.
5 is a diagram illustrating an operation method procedure of a voice-response-based conversation in a voice-recognition question-and-answer system according to an embodiment of the present invention;
FIG. 6 is a diagram illustrating speech input and speech recognition results of a speech recognition query response system according to an embodiment of the present invention; FIG.
7 is a diagram illustrating an internal configuration of a voice recognition question answering system according to an embodiment of the present invention;
FIG. 8 is a flowchart illustrating a method for storing a question and an answer from a voice in a voice recognition query response system according to an embodiment of the present invention; FIG.
9 is a diagram illustrating a method for storing questions and answers from a voice in a voice recognition query response system according to an embodiment of the present invention;
FIG. 10 is a flowchart illustrating a method for voice-based query-response conversation in a speech recognition query response system according to an exemplary embodiment of the present invention; FIG.
FIG. 11 is a diagram illustrating a method for voice-based query-response conversation in a voice-recognition query response system according to an embodiment of the present invention; FIG.
12 is a screen for voice conversation in a voice recognition question answering system according to an embodiment of the present invention;
13 is a screen for voice conversation in a voice recognition question answering system according to an embodiment of the present invention;
14 and 15 are a screen for displaying a question and an answer sentence after inputting a question and answer voice in a voice recognition question answering system according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세하게 설명하면 다음과 같다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, so that those skilled in the art can easily carry out the present invention.

본 발명은 여러 가지 상이한 형태로 구현될 수 있으므로, 여기에서 설명하는 실시예에 한정되지 않으며, 도면에서 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략하였다.The present invention can be embodied in various different forms, and thus the present invention is not limited to the embodiments described herein.

도 1은 본 발명의 일 실시예에 따른 음성인식 질의응답 시스템의 구성을 도시한 도면이다.1 is a block diagram of a voice recognition query response system according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명은 단말기(200)가 구성되며, 음성입력장치(100)와 음성출력장치(300)를 포함하여 구성될 수 있다.As shown in FIG. 1, the present invention may include a terminal 200, and may include a voice input device 100 and a voice output device 300.

단말기(200)는 사용자의 음성으로부터 질문과 답변에 대한 음성을 인식해서 질문과 답변 문장으로 변환하여, 상기 질문과 답변에 대한 음성파일과 상기 질문과 답변에 대한 텍스트파일을 저장하고, 상기 질문과 답변문장, 상기 질문과 답변 음성파일을 인덱싱(Indexing)하여 저장한다.The terminal 200 recognizes a voice of a question and an answer from a voice of a user and converts the voice into a question and an answer sentence to store a voice file for the question and answer and a text file for the question and answer, An answer sentence, and the question and answer voice file are indexed and stored.

여기서, 단말기(200)는 상기 질문과 답변에 대한 음성파일을 저장하고, 상기 질문과 답변 음성파일을 인덱싱하여 저장할 수 있다.Here, the terminal 200 may store a voice file for the question and answer, and index and store the voice file of the question and answer.

그리고, 단말기(200)는 사용자가 음성으로 질문을 입력하면, 음성인식 후 텍스트로 변환하고, 텍스트 처리후 질의응답을 수행하여, 상기 질의 응답에 의해서 입력한 문장에 대한 답변을 음성과 텍스트로 출력한다.Then, when the user inputs a question by voice, the terminal 200 converts it into text after speech recognition, performs a query response after text processing, and outputs the answer to the sentence inputted by the query response as voice and text do.

음성입력장치(100)는 음성을 입력하고, 음성출력장치(300)는 상기 단말기에 인가되는 음성을 출력한다.The voice input apparatus 100 inputs voice and the voice output apparatus 300 outputs voice to be applied to the terminal.

구체적으로, 상기 단말기(200)는, 음성입력부(210), 음성인식부(220), 자연어처리부(230), 화면출력부(250) 및 음성출력부(260)를 포함하여 구성된다.Specifically, the terminal 200 includes an audio input unit 210, a voice recognition unit 220, a natural language processing unit 230, a screen output unit 250, and a sound output unit 260.

상기 음성입력부(210)는 아날로그 음성을 디지털신호로 디코딩하며, 외부마이크나 단말기 내부 마이크에서 전달된 아날로그 신호를 디지털신호로 변환시킨다.The voice input unit 210 decodes the analog voice into a digital signal and converts the analog signal transmitted from the external microphone or the internal microphone of the terminal into a digital signal.

음성인식부(220)는 상기 음성입력부(210)에서 수신된 음성정보로부터 음성인식을 수행하며, 음성인식 알고리즘에 의해 음성을 인식해서 텍스트로 변환하여, 텍스트는 텍스트파일로 저장한다.The speech recognition unit 220 performs speech recognition from the speech information received from the speech input unit 210, recognizes speech by a speech recognition algorithm, converts the speech into text, and stores the text as a text file.

여기서, 상기 음성인식부(220)는 음성인식 알고리즘에 의해 음성을 인식해서 텍스트로 변환하여, 음성은 음성파일로 저장할 수 있다.Here, the speech recognition unit 220 may recognize speech by a speech recognition algorithm and convert the speech into text, and store the speech as a speech file.

자연어처리부(230)는 상기 음성인식부(220)에 의해 음성에서 텍스트로 변환된 정보와 상기 음성의 음성파일을 토대로 인덱싱, 문장분석(형태소분석, 구문분석, 의미분석), 질의응답을 수행한다.The natural language processing unit 230 performs indexing, sentence analysis (morpheme analysis, syntax analysis, semantic analysis), and query response based on the speech-to-text converted information and the speech voice file by the speech recognition unit 220 .

즉, 상기 자연어처리부(230)는 상기 음성인식부(220)에 의해 음성에서 텍스트로 변환된 질문과 답변 문장정보를 기반으로 형태소 분석 후, 인덱싱과정을 수행하고, 특정 질문에 대한 답변을 찾는 질의응답을 위해서 문장분석(구문분석, 의미분석, 통계분석), 질의응답(응답문장추출 알고리즘(유사도검색, 패턴검색) 또는 응답문장생성 알고리즘)의 처리 과정을 수행한다.That is, the natural language processing unit 230 performs an indexing process on the basis of the question-and-answer sentence information converted from speech to text by the speech recognition unit 220, performs an indexing process, (Sentence analysis, semantic analysis, statistical analysis), query response (response sentence extraction algorithm (similarity search, pattern search), or response sentence generation algorithm).

화면출력부(250)는 상기 자연어처리부(230)로부터 전달된 응답을 텍스트로 화면에 출력하고, 음성출력부(260)는 상기 자연어처리부(230)로부터 전달된 응답문장에 해당하는 음성 파일을 스피커 또는 이어폰으로 출력한다.The speech output unit 260 outputs a speech file corresponding to the response sentence sent from the natural language processing unit 230 to the speech output unit 250. [ Or the earphone.

또한, 상기 단말기(200)는, 질문 입력부와 답변 입력부를 제공하고, 사용자에게 상기 질문 입력부를 제공하여 질문을 음성으로 입력받고, 상기 답변 입력부를 제공하여 답변을 음성으로 입력받으면, 상기 질문과 답변에 대한 음성을 음성인식해서 질문문장과 답변문장으로 변환하고, 상기 질문문장과 답변문장을 인덱싱하여, 특정 단어(키워드)가 발생한 질문문장과 답변문장의 위치정보(문장번호)를 저장한다.In addition, the terminal 200 provides a question input unit and an answer input unit, provides the user with the question input unit to receive a question as a voice, provides the answer input unit and receives a response as a voice, And stores the question and sentence where the specific word (keyword) is generated and the position information (sentence number) of the answer sentence by indexing the question sentence and the answer sentence.

여기서, 상기 단말기(200)는 상기 질문문장과 답변문장의 음성파일 경로정보를 DB에 저장할 수 있다.Here, the terminal 200 may store the question sentence and the voice file path information of the answer sentence in the DB.

또한, 상기 단말기(200)는, 사용자의 음성을 입력 받으면, 음성인식 후, 상기 음성을 텍스트로 변환하고, 문장분석(형태소분석으로 문장에서 단어 추출) 후 질의응답을 수행하여, 상기 질의 응답에 의해서 입력한 문장에 대한 답변을 인덱싱DB와 질의응답DB에서 가져와서 음성과 텍스트로 출력한다.In addition, upon receiving the voice of the user, the terminal 200 converts the voice into text, recognizes the voice, performs a query response after analyzing the sentence (word extraction in sentence by morphological analysis) And retrieves the answer to the sentence from the indexing DB and the question and answer DB, and outputs it as voice and text.

여기서, 상기 단말기(200)는 상기 질의 응답에 의해서 입력한 문장에 대한 답변을 음성DB에서 가져와서 음성으로 출력할 수 있다.Here, the terminal 200 may extract the answer to the sentence input by the query response from the voice DB and output it as a voice.

도 2는 본 발명의 일 실시예에 따른 음성인식 질의응답 시스템의 음성으로부터 질문과 답변을 저장하는 순서를 나타낸 도면이다.2 is a diagram illustrating a procedure for storing a question and an answer from a voice in a voice recognition question answering system according to an embodiment of the present invention.

본 발명의 음성인식 질의응답 시스템의 운용방법에서 음성으로 질문과 답변문장을 저장하는 방법은, 질문과 답변을 음성으로 입력하는 1단계(S100a), 상기 음성으로부터 음성인식하는 2단계(S200a), 상기 음성 인식한 음성을 음성파일로 저장하는 3단계(S300a), 상기 음성 인식한 음성과 상기 음성인식 후 발생한 텍스트를 인덱싱하는 4단계(S400a)를 포함하여 구성된다.A method for storing a question and an answer sentence by voice in a method of operating a voice recognition question answering system according to the present invention includes a first step S100a of inputting a question and an answer by voice, a second step S200a of recognizing a voice from the voice, (S300a) of storing the speech-recognized speech as a speech file (S300a); and 4th step S400a of indexing the speech-recognized speech and the text generated after the speech recognition.

구체적으로, 상기 질문과 답변을 음성으로 입력하는 1단계(S100a)는, 사용자에게 질문입력버턴을 제공하여, 음성입력버턴이 활성화되는지 체크해서, 음성이 모두 입력되었으면, 질문입력 완료를 표시하고, 질문입력 음성을 메모리에 저장하며, 사용자에게 답변입력버턴을 제공하여, 음성입력버턴이 활성화되는지 체크해서, 음성이 모두 입력되었으면, 답변입력 완료를 표시하고, 답변입력 음성을 메모리에 저장하고, 각각 음성인식단계로 전송한다.Specifically, in the first step S100a of inputting the question and the answer by voice, a question input button is provided to the user to check whether or not the voice input button is activated. When all the voice is input, A question input voice is stored in a memory and an answer input button is provided to the user to check whether a voice input button is activated so as to indicate completion of answer input when voice is inputted and store answer input voice in a memory, To the speech recognition step.

그리고, 상기 음성으로부터 음성인식하는 2단계(S200a)는 상기 질문입력 음성과 답변입력 음성을 각각 전달 받아 음성을 텍스트로 변환한 뒤에 질문문장과 답변문장으로 사용자에게 표시한다.In the second step S200a of speech recognition from the speech, the question input speech and the answer input speech are received, and the speech is converted into text and displayed to the user as a question sentence and a reply sentence.

다음으로, 상기 음성 인식한 음성을 음성파일로 저장하는 3단계(S300a)는 상기 질문문장과 답변문장에 해당하는 음성파일을 상기 질문문장과 답변문장과 연동하여 각각 저장한다.Next, in step S300a of storing the voice recognized as a voice file, voice files corresponding to the question sentence and the answer sentence are stored in association with the question sentence and the answer sentence, respectively.

마지막으로, 상기 음성 인식한 음성과 상기 음성인식 후 발생한 텍스트를 인덱싱하는 4단계(S400a)는 상기 질문문장과 답변문장에 나타난 단어(키워드) 리스트를 추출하고, 상기 단어가 나타난 다른 질문문장과 답변문장의 위치정보(문장번호), 질문문장과 답변문장의 음성파일 경로정보를 단어 리스트에 기입하여, 인덱싱 DB(122)에 저장한다.Finally, in step S400a of indexing the speech-recognized speech and the text generated after the speech recognition, a word (keyword) list shown in the question sentence and the answer sentence is extracted, (Sentence number) of a sentence, voice file path information of a question sentence and an answer sentence into a word list, and stores it in the indexing DB 122. [

도 3은 본 발명의 일 실시예에 따른 음성인식 질의응답 시스템의 음성으로부터 질문과 답변을 저장하는 운용방법 절차를 나타낸 도면이다.3 is a diagram illustrating an operation method procedure for storing a question and an answer from a voice in a voice recognition question answering system according to an embodiment of the present invention.

먼저, 사용자의 음성이 입력되면, 질문과 답변이 입력되었는지 체크하여 음성인식을 수행하고, 음성은 음성파일로 음성DB(240)에 저장하며, 텍스트는 질문과 답변 문장을 구분해서 질의응답DB(243)에 저장한다. 이때, 질의응답DB(243)에 포함된 질문과 답변 문장은 해당 문장의 음성파일 경로정보를 음성질의정보DB(241)에 저장한다.First, when a voice of a user is input, voice recognition is performed by checking whether a question and an answer are inputted, voice is stored in a voice DB 240 in a voice file, and text is divided into a question and answer DB 243). At this time, the question and answer sentence included in the question and answer DB 243 stores the voice file path information of the sentence in the voice query information DB 241.

이후, 질의응답정보DB(243)와 음성질의정보DB(241)를 기반으로 정보검색분야에서 많이 사용하는 전통적인 인덱싱과정을 수행하여 인덱싱DB(242)에 저장하게 된다.Thereafter, the conventional indexing process, which is frequently used in the information search field, is performed based on the query response information DB 243 and the voice query information DB 241, and is stored in the indexing DB 242.

상기 인덱싱DB(242)에는 질의응답DB(243)에 있는 질문과 답변 문장에서 추출한 단어(키워드)리스트 정보와 해당 단어가 포함되어 있는 질문과 답변 문장의 위치정보(문장번호), 해당 질문과 답변 문장의 음성파일 경로 정보가 포함되어 있다.The indexing DB 242 stores word and keyword list information extracted from a question and answer sentence in the question and answer DB 243, position information (a sentence number) of a question and an answer sentence including the corresponding word, Includes voice file path information for sentences.

도 4는 본 발명의 일 실시예에 따른 음성인식 질의응답 시스템의 음성으로 질의응답 대화하는 순서를 나타낸 도면이다.4 is a diagram illustrating a procedure for a voice-response-based conversation in a voice recognition query response system according to an embodiment of the present invention.

본 발명의 음성인식 질의응답 시스템의 운용방법에서 음성으로 질의응답 대화하는 방법은, 질문 음성을 입력받는 1단계(S100b), 상기 음성으로부터 음성인식하는 2단계(S200b), 상기 음성인식 후 발생한 텍스트로 문장분석하는 3단계(S300b), 상기 문장분석 후, 질의응답하는 4단계(S400b); 상기 질의응답 후, 질의응답DB(243)에서 추출되거나 질의응답DB(243)를 통해서 생성된 답변을 음성 및 텍스트로 출력하는 5단계(S500b)를 포함한다.A method for performing a query-response dialogue by voice in a method for operating a speech recognition query response system of the present invention includes a first step (S100b) of receiving a question voice, a second step (S200b) of recognizing speech from the speech, (S300b), a fourth step (S400b) of querying and responding after the sentence analysis; And a fifth step (S500b) of outputting the answers extracted from the question and answer DB 243 or the answers generated through the question and answer DB 243 as voice and text after the question and answer.

상기 질문 음성을 입력받는 1단계(S100b)는 별도의 음성입력장치(100)가 단말기(200) 외부에 부착되거나 내장된 음성입력장치(마이크)(100)를 이용하여 사용자의 질문 음성을 실시간으로 입력받는다.In step 1 (S100b) of receiving the question voice, a separate voice input device 100 is used to attach a question voice of a user in real time using a voice input device (microphone) 100 attached or built in the outside of the terminal 200 Receive input.

그리고, 상기 음성으로부터 음성인식하는 2단계(S200b)는 사용자의 음성을 입력 받아 음성인식을 수행하여, 상기 사용자의 음성을 텍스트로 변환한다.The second step S200b of recognizing the voice from the voice receives the voice of the user, performs voice recognition, and converts the voice of the user into text.

다음으로, 상기 음성인식 후 발생한 텍스트로 문장분석하는 3단계(S300b)는 상기 텍스트를 형태소분석하여 문장에서 단어를 추출함으로써, 질의응답을 수행할 수 있는 전처리 과정을 수행한다.Next, in a third step S300b of analyzing a sentence with text generated after the speech recognition, a preprocessing process is performed to extract a word from a sentence by morphological analysis of the text to perform a query response.

그리고, 상기 문장분석 후, 질의응답하는 4단계(S400b)는 소정의 문장분석(구문분석, 의미분석, 통계분석), 응답문장추출 알고리즘(유사도검색, 패턴검색) 또는 응답문장생성 알고리즘의 처리 과정을 수행한다.After analyzing the sentence, the fourth step (S400b) of querying and responding is a process of analyzing a sentence (analysis of semantics, statistical analysis), response sentence extraction algorithm (similarity search, pattern search) .

마지막으로, 상기 질의응답 후, 질의응답DB(243)에서 추출되거나 질의응답DB(243)를 통해서 생성된 답변을 음성 및 텍스트로 출력하는 5단계(S500b)는 질의응답DB(243)를 통해서 기존 답변 문장이 추출되었을 경우에는, 상기 기존 답변문장을 음성파일을 통해서 음성을 출력하고 텍스트로 표시하며, 질의응답 DB(243)를 통해서 새로운 답변 문장이 생성되었을 경우에는, 해당 답변 문장을 티티에스를 통해서 음성을 출력하고 해당 답변 문장을 텍스트로 표시한다.Finally, in step 5 (S500b) of outputting the answers extracted from the query response DB 243 or generated through the query response DB 243 as voice and text after the query response, When a reply sentence is extracted, the existing answer sentence is outputted as a voice through a voice file and displayed as text. When a new answer sentence is generated through the question and answer DB 243, And displays the corresponding answer text as text.

여기서, 티티에스(TTS)는 문자음성 자동변환 기술로써, Text to speech의 줄임말이다Here, TTS (TTS) is a text-to-speech automatic conversion technology, short for Text to speech

도 5는 본 발명의 일 실시예에 따른 음성인식 질의응답 시스템의 음성으로 질의응답 대화하는 운용방법 절차를 나타낸 도면이다.FIG. 5 is a diagram illustrating an operation method procedure of a voice-response-based conversation in a voice-recognition question-and-answer system according to an embodiment of the present invention.

본 발명의 음성으로 질의응답 대화하는 운용방법은, 먼저, 사용자의 음성이 입력되면, 상기 음성으로부터 음성인식 과정을 수행하고, 상기 과정으로 추출된 텍스트를 바탕으로 문장분석을 수행한다.According to the present invention, when a voice of a user is input, a voice recognition process is performed from the voice, and a sentence analysis is performed based on the extracted text.

문장 분석에서는 형태소분석 등을 통해서 입력된 질문 텍스트에서 주요 키워드 조합을 추출할 수 있기 때문에 기본적인 자연어처리를 위한 사전 준비가 완료된다. 그리고, 별도로 구문분석, 의미분석 과정을 거쳐서 사용자의 의도까지 파악하게 된다.In the sentence analysis, basic keyword combinations can be extracted from the inputted question text through morphological analysis, so that preparation for basic natural language processing is completed. Then, the user's intention is grasped through a separate analysis and semantic analysis process.

이후, 문장문석을 통해서 추출된 키워드 정보, 문장정보, 의미정보를 이용해서 이미 많이 알려진 질의응답을 위한 다양한 절차를 수행할 수 있으며, 질문에 대한 답변을 질의응답DB(243)에서 가져오거나 생성할 수 있다. 이렇게 추출된 답변은 기존에 저장된 음성파일 경로 정보를 가져와서 음성으로 출력하거나 텍스트로 표시하게 된다.Thereafter, it is possible to perform various procedures for the already-known query response using the keyword information, sentence information, and semantic information extracted through the sentence sentence, and to obtain the answer to the question from the question and answer DB 243 . The extracted answer is retrieved from the previously stored voice file path information and outputted as voice or displayed as text.

도 6은 본 발명의 일 실시예에 따른 음성인식 질의응답 시스템의 음성입력 및 음성인식 결과를 표시한 도면이다.6 is a diagram illustrating speech input and speech recognition results of the speech recognition question answering system according to an embodiment of the present invention.

음성으로부터 질문과 답변을 저장하기 위해서는 먼저, 음성입력 전에, 질문음성입력시작 버턴을 눌러서 사용자의 음성을 입력 받는다. 입력 받은 후, 음성인식이 수행되면 음성인식한 문장(예를 들어 사랑해요)이 표시된다.In order to store a question and an answer from a voice, a voice of a user is input by pressing a question voice input start button before voice input. After receiving the input, if the speech recognition is performed, the speech recognition sentence (for example, I love you) is displayed.

또한, 답변음성입력시작 버턴을 눌러서 사용자의 음성을 입력 받는다. 입력 받은 후, 음성인식이 수행되면 음성인식한 문장(예를 들어 나도 사랑해요)이 표시된다.Also, the answer voice input start button is pressed to receive the voice of the user. After receiving the input, when the speech recognition is performed, the speech recognition sentence (for example, I love you) is displayed.

입력완료버턴을 누르면, 음성으로부터 입력한 질문과 답변에 해당하는 음성은 음성파일로, 음성인식된 결과는 텍스트로 각각 저장된다.When the input completion button is pressed, the voice corresponding to the question and answer inputted from the voice is stored as the voice file, and the voice recognition result is stored as the text, respectively.

한편, 도 7은 본 발명의 일 실시예에 따른 (티티에스를 이용한) 음성인식 질의응답 시스템의 내부 구성을 나타내는 도면이다.Meanwhile, FIG. 7 is a diagram showing an internal configuration of a voice recognition question and answer system (using a voice recognition system) according to an embodiment of the present invention.

도 7에 도시된 바와 같이, 본 발명은 음성입력장치(1100), 음성입력부(1110), 음성인식부(1120), 자연어처리부(1130), 텍스트출력부(1140), 티티에스부(1161), 음성출력부(1160) 및 음성출력장치(1170)를 포함하여 구성된다.7, the present invention includes a voice input device 1100, a voice input unit 1110, a voice recognition unit 1120, a natural language processing unit 1130, a text output unit 1140, a TTI unit 1161, An audio output unit 1160, and a sound output apparatus 1170. [

음성입력장치(1100)는 음성을 입력받고, 음성입력부(1110)는 상기 음성입력장치를 통해서 전달된 아날로그 음성을 디지털신호로 변환하며, 음성인식부(1120)는 상기 음성입력부(1110)에서 수신된 음성정보로부터 음성인식을 수행한다.The voice input unit 1100 receives the voice, the voice input unit 1110 converts the analog voice transmitted through the voice input device to a digital signal, and the voice recognition unit 1120 receives the voice from the voice input unit 1110 And performs voice recognition from the voice information.

자연어처리부(1130)는 상기 음성인식부(1120)에 의해 음성에서 텍스트로 변환된 정보를 토대로 인덱싱하거나 질의응답을 수행하고, 텍스트출력부(1140)는 상기 자연어처리부(1130)로부터 전달된 답변을 텍스트로 모니터(1150) 화면에 출력한다.The natural language processing unit 1130 performs indexing or querying based on the information converted from speech to text by the speech recognizing unit 1120 and the text output unit 1140 outputs the answer transmitted from the natural language processing unit 1130 And outputs it to the monitor 1150 screen as text.

티티에스부(1161)는 상기 답변 문장을 음성으로 바꾸고, 음성출력부(1160)는 상기 음성을 디지털 신호에서 아날로그 신호로 변환하며, 음성출력장치(1170)는 상기 음성을 이어폰이나 스피커로 출력시킨다.The TTI unit 1161 converts the answer sentence into a voice, the voice output unit 1160 converts the voice into a digital signal to an analog signal, and the voice output device 1170 outputs the voice to the earphone or speaker .

이러한 구성에 의해 사용자의 음성으로부터 질문과 답변에 대한 음성을 인식해서 질문과 답변 문장으로 변환하여, 상기 질문과 답변에 대한 텍스트파일을 저장하고, 상기 질문과 답변문장을 인덱싱하여 저장한다.According to this configuration, the voice of the question and answer is recognized from the voice of the user, converted into the question and answer sentence, the text file for the question and answer is stored, and the question and answer sentence is indexed and stored.

그리고, 사용자가 음성으로 질문을 입력하면, 음성인식 후 텍스트로 변환하고, 질의응답을 수행하여, 상기 질의 응답에 의해서 입력한 문장에 대한 답변을 음성과 텍스트로 출력할 수 있다.Then, when the user inputs a question by voice, the speech is recognized and converted into text, a query response is performed, and a reply to the sentence input by the query response can be outputted as speech and text.

본 발명의 일 실시예에 따른 (티티에스(TTS)를 이용한) 음성인식 질의응답 시스템은 개인용 컴퓨터(PC), 노트북, 스마트폰(아이폰, 안드로이드폰, 구글폰 등) 등 쌍방향 음성 및 데이터 통신이 가능한 매체에서 운용될 수 있다.The voice recognition query response system (using the TTS) according to an embodiment of the present invention provides two-way voice and data communication such as a personal computer (PC), a notebook, a smart phone (iPhone, Android phone, Lt; RTI ID = 0.0 > media.

구체적으로, 상기 음성입력부(1110)는 질문 입력부와 답변 입력부를 제공하고, 상기 질문 입력부는 사용자에게서 질문을 음성으로 입력받으면, 음성인식 후 질문음성을 질문문장으로 표시하고, 상기 답변 입력부는 사용자에게서 답변을 음성으로 입력받으면, 음성인식 후 답변음성을 답변문장으로 표시하고, 질문과 답변의 음성입력이 완료되어 사용자로부터 입력완료 버턴 클릭을 감지하면, 상기 질문문장과 상기 답변문장을 인덱싱하여, 특정 단어(키워드)가 발생한 질문문장과 답변문장의 위치정보(문장번호)를 DB에 저장한다.Specifically, the voice input unit 1110 provides a question input unit and an answer input unit. When the question input unit receives a voice as a voice from a user, the voice input unit 1110 displays a question voice after a voice recognition as a question sentence. When the answer is inputted by voice, the answer voice is displayed as a response sentence after speech recognition. When the voice input of the question and answer is completed and the user clicks the input completion button, the question sentence and the answer sentence are indexed, The query sentence in which the word (keyword) occurs and the location information (sentence number) of the answer sentence are stored in the DB.

그리고, 본 발명의 일 실시예에 따른 (티티에스를 이용한) 음성인식 질의응답 시스템은 사용자의 음성을 감지해서 음성인식된 결과를 질문입력창에 표시하고, 질의응답에 의해 상기 질문에 대한 답변문장을 찾아 답변입력창에 답변문장을 표시하고, 티티에스를 이용해서 답변음성을 출력한다.In addition, the voice recognition question answering system (using T-TES) according to an embodiment of the present invention detects a voice of a user, displays a voice recognition result on a question input window, and displays a response sentence , Displays the answer sentence in the answer input window, and outputs the answer voice using the text message.

또한, 티티에스를 이용해서 답변을 출력할 때에는 목소리 종류별, 나이별, 성별로 다양한 티티에스목소리를 제공하여, 사용자가 선택할 수 있다.In addition, when outputting answers using Titles, users can choose from a variety of voice-overs by voice, age, and gender.

또한, 사용자의 음성을 감지해서, 유의미한 음성으로 감지된 음성데이터를 음성인식 후, 음성인식된 결과가 없을 경우, 다시 음성을 입력하라는 메시지를 표시하여, 사용자에게 정확하게 음성을 입력하게 한다.In addition, when the voice of the user is sensed and voice data sensed with a meaningful voice is recognized, if there is no voice recognition result, a message prompting the user to input voice again is displayed, thereby prompting the user to input the voice accurately.

여기서, 음성입력과 출력방법은 외부 마이크나 단말기 내부 마이크인 음성입력장치(1100)로 전달된 아날로그 신호인 질문음성을 음성입력부(1110)에서 디지털신호로 변환하고, 음성출력부(1160)로 전달된 답변음성을 이어폰이나 스피커로 구성되는 음성출력장치(1170)를 통해서 아날로그 신호로 변환하여 출력한다. 이때, 텍스트 출력부(1140)는 텍스트정보를 단말기 화면상에 표시한다.Here, the voice input and output method converts a question voice, which is an analog signal transmitted to the voice input device 1100, which is an external microphone or a terminal internal microphone, from the voice input unit 1110 to a digital signal and transmits the voice to the voice output unit 1160 And outputs the converted answer voice to an analog signal through an audio output device 1170 including an earphone or a speaker. At this time, the text output unit 1140 displays the text information on the terminal screen.

한편, 상기 음성인식부(1120)에서 음성인식 후, 음성인식한 결과인 문장 텍스트정보는 질의응답DB(1121)에 저장하여, 상기 질의응답DB(1121)에 질문과 답변 문장의 쌍으로 구성된 정보를 바탕으로 인덱싱 과정을 수행하여 인덱싱DB(1122)에 저장한다.The sentence text information, which is the result of speech recognition after speech recognition in the speech recognition unit 1120, is stored in the query response DB 1121, and the query response DB 1121 receives information composed of pairs of question and answer sentences And stores the result in the indexing DB 1122. [

또한, 상기 음성인식부(1120)는 음성인식 알고리즘에 의해 음성을 인식해서 문장 텍스트로 변환하여, 상기 문장 텍스트는 텍스트정보로 저장한다.Further, the speech recognition unit 1120 recognizes speech by a speech recognition algorithm and converts the speech into sentence text, and stores the sentence text as text information.

상기 자연어처리부(1130)는 상기 음성인식부(1120)에 의해 음성에서 텍스트로 변환된 질문과 답변 문장정보를 기반으로, 특정 질문에 대한 답변을 찾는 질의응답모듈(1132)에 의해서 답변을 찾거나 답변을 생성한다.The natural language processing unit 1130 searches for an answer by a question and answer module 1132 that finds an answer to a specific question based on the question and answer sentence information converted from speech to text by the speech recognition unit 1120 Create an answer.

그리고, 상기 질의응답모듈(1132)은 질문문장으로부터 문장분석과정을 수행하여 정확한 질문 의도를 파악하고, 정확한 답변을 요구하는 질문은 미리 구축된 답변DB에서 답변을 가져오고, 특정 정보를 요청할 때는 해당 정보를 기반으로 답변을 생성하게 된다.The question-and-answer module 1132 analyzes sentences from a question sentence to determine the exact intent of a question. A question requesting an accurate answer includes an answer from a pre-established answer DB. When requesting specific information, An answer is generated based on the information.

상기 질의응답모듈(1132)은 질문문장이 시간, 뉴스, 날씨와 같은 특정 정보를 요청할 때에는 유무선 통신 네트워크를 통해서 해당 정보를 가져와서 답변을 생성할 수 있다.The inquiry response module 1132 may generate an answer by fetching the information through the wired / wireless communication network when the question sentence requests specific information such as time, news, and weather.

도 8은 본 발명의 일 실시예에 따른 (티티에스를 이용한) 음성인식 질의응답 시스템에서 음성으로부터 질문과 답변을 저장하는 방법을 나타내는 흐름도이다.8 is a flow diagram illustrating a method for storing questions and answers from a voice in a voice recognition query response system (using Titles) in accordance with an embodiment of the present invention.

도 8에 도시된 바와 같이, 본 발명의 (티티에스를 이용한) 음성인식 질의응답 시스템의 운용방법에서 음성으로 질문과 답변문장을 저장하는 방법은, 음성으로 질문과 답변을 입력받는 1단계(S100c), 음성인식하는 2단계(S200c), 음성인식한 문장을 질문과 답변 문장으로 저장하는 3단계(S300c), 상기 질문과 답변 문장을 인덱싱하는 4단계(S400c)를 포함하여 구성된다.As shown in FIG. 8, a method of storing a question and an answer sentence by voice in a method of operating a voice recognition question answering system (using T-TES) according to the present invention includes a first step S100c Step S200c of recognizing the speech, step S300c of storing the sentence as a question and answer sentence, and step S400c of indexing the question and answer sentence.

구체적으로, 질문과 답변에 대한 사용자의 음성을 입력받고(S100c), 질문과 답변에 대한 음성을 인식(S200c)해서 질문과 답변 문장으로 변환하여, 상기 질문과 답변에 대한 텍스트파일을 추출해서 질의응답DB(1132)에 저장(S300c)하며, 상기 질문과 답변문장을 인덱싱하여 인덱싱DB(1122))저장한다(S400c).Specifically, the user's voice about the question and the answer is inputted (S100c), the speech for the question and answer is recognized (S200c), converted into the question and answer sentence, the text file for the question and the answer is extracted, Stored in the response DB 1132 (S300c), indexes the question and answer sentence, and stores it in the indexing DB 1122 (S400c).

인덱싱DB(1122)에는 질문과 답변 문장에 나타난 단어들의 형태소 정보리스트와 이 형태소가 발생한 질문문장과 답변문장의 위치정보(문장번호)가 DB에 저장된다.The indexing DB 1122 stores the morpheme information list of the words in the question and answer sentences, the question sentences in which the morpheme is generated, and the location information (sentence numbers) of the answer sentences in the DB.

도 9는 본 발명의 일 실시예에 따른 (티티에스를 이용한) 음성인식 질의응답 시스템에서 음성으로부터 질문과 답변을 저장하는 방법을 나타낸 도면이다.9 is a diagram illustrating a method for storing questions and answers from a voice in a voice recognition query response system (using Titles) according to an embodiment of the present invention.

본 발명에서 상기 음성으로 질문과 답변을 입력 받는 절차는, 소정의 질문 입력부와 답변 입력부를 제공하고, 사용자에게 상기 질문 입력부를 제공하여 질문을 음성으로 입력받으면, 음성인식 결과를 회신 받아서, 질문음성을 질문텍스트로 표시하고, 사용자에게 상기 답변 입력부를 제공하여 답변을 음성으로 입력받으면, 음성인식 결과를 회신 받아서, 답변음성을 답변텍스트로 표시하고, 질문과 답변의 음성입력이 완료되어 사용자로부터 입력완료 버턴을 클릭이 감지되면, 상기 질문문장과 상기 답변문장을 인덱싱하여, 특정 단어(키워드)가 발생한 질문문장과 답변문장의 위치정보(문장번호)를 DB에 저장한다.In the present invention, a procedure for receiving a question and an answer with the voice may include providing a predetermined question input unit and an answer input unit, providing the user with the question input unit and receiving a voice as a voice, When the answer input unit is provided to the user and the answer is inputted by voice, the answer voice is received and the answer voice is displayed as the answer text, and the voice of the question and answer is inputted and input from the user When the completion button is clicked, the question sentence and the answer sentence are indexed, and the question sentence where the specific word (keyword) is generated and the location information (sentence number) of the answer sentence are stored in the DB.

그리고, 음성인식하고 저장할 때에는, 질문입력음성과 답변입력음성을 각각 전달받아서 음성을 질문문장과 답변문장으로 변환하여 DB에 저장하고, 형태소 분석 과정을 거쳐서 키워드별로 인덱싱하여, 상기 키워드별 상기 키워드가 나타난 질문문장과 답변문장의 위치정보(문장번호)를 기록한다.In the case of recognizing and storing the speech, the question input speech and the answer input speech are respectively received, and the speech is converted into the question sentence and the answer sentence, and is stored in the DB. The speech is then subjected to morphological analysis and indexed for each keyword. Record the position of the question sentence and the answer sentence (sentence number).

도 10은 본 발명의 일 실시예에 따른 (티티에스를 이용한) 음성인식 질의응답 시스템에서 음성으로 질의응답 대화하는 방법을 나타내는 흐름도이다.10 is a flow diagram illustrating a method for voice-based query-response conversation in a voice recognition query response system (using Titles) according to an embodiment of the present invention.

본 발명의 음성인식 질의응답 시스템의 운용방법에서 음성으로 질의응답 대화하는 방법은, 음성으로 질문을 입력 받는 1단계(S100d), 음성인식하는 2단계(S200d), 상기 음성인식 후 발생한 문장정보(텍스트)로 질의응답처리하는 3단계(S300d), 상기 질의응답에 의해서 추출되거나 생성된 답변을 답변 음성과 답변텍스트로 출력하는 4단계(S400d)를 포함하여 구성된다.The method of operating the voice recognition query response system of the present invention comprises the steps of: receiving a question by voice (S100d); performing a voice recognition step (S200d); generating sentence information (S300d), and outputting the answers extracted or generated by the query response as answer voice and answer text (S400d).

여기서, 음성으로 질문을 입력 받는 1단계(S100d)는 사용자의 음성을 감지해서 음성인식된 결과를 회신받아 질문입력창에 표시하고, 상기 질문에 대한 답변문장을 질의응답 후, 답변입력창에 답변문장을 표시하고, 답변음성을 티티에스로 출력한다.Here, in the first step (S100d) of receiving a question by voice, the voice of the user is sensed and the voice recognition result is received and displayed on the question input window, and the answer sentence for the question is sent to the answer input window Displays the sentence, and outputs the answer voice to the TTI.

이때, 별도의 음성입력장치(1100)가 단말기 외부에 부착되거나 내장된 음성입력장치(마이크)를 이용하여 사용자의 질문 음성을 실시간으로 입력 받을 수 있다. 여기서, 음성을 입력받지 못하면 텍스트를 입력받는 단계를 더 포함할 수 있다.At this time, a separate voice input device 1100 may be attached to the outside of the terminal or receive a voice of the user in real time using a built-in voice input device (microphone). Here, if the user does not receive the voice, the user may further receive the text.

그리고, 음성인식하는 2단계(S200d)는 소정의 음성인식 알고리즘에 의해 음성을 인식해서 텍스트(문장)로 변환할 수 있다.In the second step S200d of speech recognition, speech can be recognized by a predetermined speech recognition algorithm and converted into text (sentence).

다음으로, 상기 음성인식 후 발생한 텍스트(문장)로 질의응답처리하는 3단계(S300d)는 음성에서 텍스트(문장)로 변환된 질문정보를 토대로, 특정 질문에 대한 답변을 찾는 질의응답모듈(1132)에 의해서 답변을 찾거나 답변을 생성한다.Next, in a third step S300d of performing a question and answer process on the text (sentence) generated after the speech recognition, a question and answer module 1132 that finds an answer to a specific question based on the question information converted from a voice to a text (sentence) To find an answer or to generate an answer.

이때, 상기 질의응답모듈(1132)은 질문문장으로부터 문장분석과정(형태소분석, 구문분석, 의미분석, 화행분석)을 수행하여 정확한 질문 의도를 파악하고, 정확한 답변을 요구하는 질문은 미리 구축된 답변DB에서 답변을 가져오고, 특정 정보를 요청할 때는 해당 정보를 토대로 답변을 생성하고, 일상생활 또는 상식을 요구하는 답변은 유사도검색 방법을 이용하여 답변문장을 찾는다.At this time, the question answering module 1132 performs a sentence analysis process (morpheme analysis, syntax analysis, semantic analysis, and speech analysis) from the question sentences to grasp the precise intent of the question, When a specific information is requested, an answer is generated based on the information. In answering daily life or common sense, a reply sentence is searched using a similarity search method.

또한, 상기 질의응답모듈(1132)은 질문문장이 시간, 뉴스, 날씨와 같은 특정 정보를 요청할 때에는 유무선 유무선 통신 네트워크를 통해서 해당 정보를 가져와서 답변을 생성할 수 있다.In addition, when the question sentence requests specific information such as time, news, weather, etc., the question and answer module 1132 can generate the answer by fetching the information through the wire / wireless wire / wireless communication network.

마지막으로, 상기 질의응답에 의해서 추출되거나 생성된 답변을 답변 음성과 답변텍스트로 출력하는 4단계(S400d)는 질의응답에 의해서 추출되거나 생성된 답변문장(텍스트) 전달받아서, 티티에스를 통해서 음성을 출력하고 해당 답변 문장을 텍스트(문장)로 표시한다.Finally, in the fourth step S400d of outputting the answer extracted or generated by the query response as the answer voice and the answer text, the answer sentence (text) extracted or generated by the query response is transmitted, And displays the corresponding answer sentence as text (sentence).

이때, 질의응답에 의해서 추출되거나 생성된 답변문장(텍스트) 전달받아서, 티티에스를 통해서 음성을 출력할 때에는, 목소리 종류별, 나이별, 성별로 다양한 티티에스목소리를 제공하여, 사용자가 선택할 수 있다.At this time, when a voice is output through the voice recognition system by receiving the answer sentence (text) extracted or generated by the query response, the user can select various voices by voice type, age and gender.

또한, 상기 1단계(S100d) 후에는, 음성인식한 결과를 정확하게 입력되었는지 확인 받는 단계를 더 포함할 수 있다.In addition, after the first step S100d, it may further include confirming whether or not the result of speech recognition is correctly inputted.

도 11은 본 발명의 일 실시예에 따른 (티티에스를 이용한) 음성인식 질의응답 시스템에서 음성으로 질의응답 대화하는 방법을 나타낸 도면이다.FIG. 11 is a diagram illustrating a method for voice-based query-response conversation in a voice recognition query response system (using Titles) according to an embodiment of the present invention.

먼저, 사용자의 음성을 감지해서 질문을 입력받으면, 음성 아날로그 신호를 디지털신호로 변환하여 질문에 대한 음성을 인식해서(S400) 질문 문장으로 변환하며, 질의응답과정를 수행하여(S410), 상기 질문 문장에 대한 답변 텍스트 정보를 음성과 텍스트 형태로 출력한다.First, when a user's voice is detected and a question is input, the voice analog signal is converted into a digital signal to recognize a voice for a question (S400), converted into a question sentence, a query response process is performed (S410) And outputs the text information of the answer in the form of voice and text.

상기 질의응답(S410)은 질문문장으로부터 문장분석과정(형태소분석, 구문분석, 의미분석, 화행분석)을 수행하여 정확한 질문 의도를 파악하고, 정확한 답변(S430)을 요구하는 질문은 미리 구축된 답변DB(S431)에서 답변을 가져오고, 특정 정보를 요청(S440)할 때는 해당 정보를 토대로 답변을 생성하고, 일상생활 또는 상식을 요구하는 답변은 유사도검색 방법(S420)을 이용하여 인덱싱DB(S421)와 질의응답사전DB(S422)를 이용해서 답변문장을 찾는다.The query response S410 is a sentence analysis process (morpheme analysis, syntax analysis, semantic analysis, transcription analysis) from the question sentence to grasp the precise intent of the question, and a question requiring an accurate answer (S430) When an answer is requested from the DB (S431) and specific information is requested (S440), an answer is generated based on the information, and an answer requesting daily life or common sense is transmitted to the indexing DB S421 ) And a query response dictionary DB (S422).

즉, 질문문장에 포함되어 있는 형태소(단어)정보를 인덱싱 DB(S421)에서 찾고, 해당 형태소 정보가 포함된 질문, 답변 문장 번호를 질의응답사전DB(S422)에서 찾아서, 질문 문장에 포함된 형태소 정보가 가장 많이 나타난 질문이나 답변을 질의응답사전DB(S422)에 찾아서, 해당 질문과 답변 쌍에서 답변을 추출하고 음성과 텍스트 형태로 출력하게 한다.That is, the morpheme (word) information included in the question sentence is searched in the indexing DB S421, the question and answer sentence number including the morpheme information is searched in the question and answer dictionary DB (S422) Finds the most frequently asked questions or answers in the question and answer dictionary DB (S422), extracts answers from the question and answer pairs, and outputs them in voice and text form.

도 12는 본 발명의 일 실시예에 따른 티티에스를 이용한 음성인식 질의응답 시스템에서 음성으로 대화하는 화면이다.FIG. 12 is a screen for voice conversation in the voice recognition question and answer system using Titles according to an embodiment of the present invention.

음성으로 대화할 때에는 질문음성입력시작버턴(S500)을 클릭해서 사용자의 음성을 입력 받는다. 입력 받은 후, 음성인식이 수행되면 질문 음성입력창(S510)에 음성인식한 문장(예를 들어 너는 누구니?)이 표시된다.When talking with a voice, a question voice input start button (S500) is clicked to receive a voice of a user. When the speech recognition is performed after receiving the input, a sentence (for example, who you are?) Is displayed in the question speech input window S510.

그리고, 보내기(S520)를 클릭하면 질의응답 기능에 의해 답변문장 텍스트를 리턴하고, 이 답변문장을 답변표시창(S540)에 표시하면 (예를 들어 나는 로봇입니다.)가 출력된다. 또한, 답변 문장을 티티에스(TTS)를 이용해서 스피커나 이어폰으로 출력하게 된다.When the send (S520) is clicked, the answer sentence text is returned by the question and answer function and the answer sentence is displayed in the answer display window S540 (for example, I am a robot). In addition, the answer sentence is output to a speaker or earphone using a TTS.

또한, 보내기 버턴은 눌러도 되고 디폴트로 설정하여 누르지 않아도 질문 음성입력창에 음성인식한 문장을 표시하자 마자 질의응답 기능에 의해 답변 문장을 수신 받을 수 있다.In addition, the send button can be pressed and the answer sentence can be received by the question and answer function as soon as the speech recognition sentence is displayed on the question voice input window without setting it as the default.

도 13은 본 발명의 일 실시예에 따른 (티티에스를 이용한) 음성인식 질의응답 시스템에서 음성으로 대화하는 화면이다.FIG. 13 is a screen for voice conversation in a voice recognition query response system (using a TTIS) according to an embodiment of the present invention.

음성으로 대화할 때에는 자동으로 사용자의 음성을 입력 받을 수 있다(S500_1). 또한, 자동 음성입력이 감지되면, 질의응답 기능에 의해 자동 답변을 음성과 텍스트 형태로 출력할 수도 있다(S510_1).When talking with a voice, the user's voice can be automatically input (S500_1). In addition, if the automatic voice input is detected, the automatic answer may be outputted in voice and text form by the question and answer function (S510_1).

도 14는 본 발명의 일 실시예에 따른 (티티에스를 이용한) 음성인식 질의응답 시스템에서 질문과 답변 음성입력 후, 질문과 답변문장 표시 화면이다.FIG. 14 is a screen for displaying a question and an answer sentence after inputting a question and answer voice in a voice recognition question and answer system (using T-TES) according to an embodiment of the present invention.

음성으로부터 질문과 답변을 저장하기 위해서는 먼저, 음성입력 전에, 질문음성입력시작 버턴(S600)을 눌러서 사용자의 음성을 입력 받는다. 입력 받은 후, 음성인식이 수행되면 질문 음성입력창(S610)에 음성인식한 문장(예를 들어 사랑해요)이 표시된다.In order to store a question and an answer from a voice, a voice of a user is input by pressing a question voice input start button (S600) before voice input. After receiving the input, if the speech recognition is performed, a sentence (for example, I love you) that is recognized as a speech is displayed in the question speech input window S610.

또한, 답변음성입력시작 버턴(S630)을 눌러서 사용자의 음성을 입력 받는다. 입력 받은 후, 음성인식이 수행되면 답변입력창(S620)에 음성인식한 문장(나도 사랑해요)이 표시된다.Also, the answer voice input start button S630 is pressed to receive the voice of the user. When the speech recognition is performed after receiving the input, a sentence (I love you) which is recognized as a speech is displayed in the answer input window S620.

입력완료버턴(S660)을 누르면, 질의응답 기능에 의해 음성으로부터 입력한 질문과 답변에 해당하는 음성은, 음성인식되어 질문과 답변 문장 텍스트로 각각 저장된다.When the input completion button S660 is pressed, the voice inputted from the voice by the voice response function is voice recognized and stored as the question and answer sentence text, respectively.

초기화 버턴(S620, S650)을 누르면 음성입력창(S610)과 답변입력창(S620)에 입력된 문장을 삭제할 수 있다.If the initialization button S620 or S650 is pressed, the sentence entered in the voice input window S610 and the answer input window S620 can be deleted.

도 15는 본 발명의 일 실시예에 따른 (티티에스를 이용한) 음성인식 질의응답 시스템에서 질문과 답변 음성입력 후, 질문과 답변 문장 표시 화면이다.FIG. 15 is a screen for displaying a question and an answer sentence after inputting a question and an answer voice in a voice recognition question and answer system (using T-TES) according to an embodiment of the present invention.

음성으로부터 질문과 답변을 저장하기 위해서는 먼저, 질문 음성을 입력받고, 그 후 답변 음성을 입력 받는다. 입력완료버턴(S660_1)을 누르면, 질의응답 기능에 의해 음성으로부터 입력한 질문과 답변에 해당하는 음성은, 음성인식되어 질문과 답변 문장 텍스트로 각각 저장된다.In order to store the question and answer from the voice, first, a question voice is input and then an answer voice is input. When the input completion button (S660_1) is pressed, the voice corresponding to the question and answer input from the voice by the question and answer function is voice recognized and stored as the question and answer sentence text, respectively.

100 : 음성입력장치 200 : 단말기
210 : 음성입력부 220 : 음성인식부
221 : 음성인식 230 : 자연어처리부
231 : 인덱싱 232 : 문장분석
233 : 질의응답 240 : 음성DB
241 : 음성질의정보DB242 : 인덱싱DB
243 : 질의응답DB 250 : 화면출력부
251 : 텍스트 출력 260 : 음성출력부
300 : 음성출력장치 1100 : 음성입력장치
1110 : 음성입력부 1120 : 음성인식부
1130 : 자연어처리부 1140 : 텍스트 출력부
1150 : 모니터 1160 : 음성출력부
1161 : 티티에스부 1170 : 음성출력장치
100: voice input device 200:
210: voice input unit 220: voice recognition unit
221: speech recognition 230: natural language processing unit
231: Indexing 232: Statement Analysis
233: Q & A 240: Voice DB
241: voice query information DB242: indexing DB
243: query response DB 250:
251: Text output 260: Audio output unit
300: audio output device 1100: audio input device
1110: voice input unit 1120: voice recognition unit
1130: Natural language processing unit 1140: Text output unit
1150: Monitor 1160: Audio output unit
1161: TITLE SUB 1170: AUDIO OUTPUT DEVICE

Claims (50)

사용자의 음성으로부터 질문과 답변에 대한 음성을 인식해서 질문과 답변 문장으로 변환하여, 상기 질문과 답변에 대한 텍스트파일을 저장하고, 상기 질문과 답변문장을 인덱싱하여 저장하며,
사용자가 음성으로 질문을 입력하면, 음성인식 후 텍스트로 변환하고, 질의응답을 수행하여, 상기 질의 응답에 의해서 입력한 문장에 대한 답변을 음성과 텍스트로 출력하는 단말기가 구성되는 것을 특징으로 하는 음성인식 질의응답 시스템.
Recognizes a voice of a question and an answer from a voice of a user and converts the voice into a question and an answer sentence, stores a text file of the question and answer, indexes and stores the question and answer sentence,
And a terminal for outputting a response to the sentence inputted by the question and answer by voice and text when the user inputs a question by voice, Recognition query response system.
사용자의 음성으로부터 질문과 답변에 대한 음성을 인식해서 질문과 답변 문장으로 변환하여, 상기 질문과 답변에 대한 텍스트파일을 저장하고, 상기 질문과 답변문장을 인덱싱하여 저장하며,
사용자가 음성으로 질문을 입력하면, 음성인식 후 텍스트로 변환하고, 질의응답을 수행하여, 상기 질의 응답에 의해서 입력한 문장에 대한 답변을 음성과 텍스트로 출력하는 것을 특징으로 하는 음성인식 질의응답 시스템.
Recognizes a voice of a question and an answer from a voice of a user and converts the voice into a question and an answer sentence, stores a text file of the question and answer, indexes and stores the question and answer sentence,
Wherein when the user inputs a question by voice, the speech recognition unit converts the speech into text, performs a query response, and outputs a response to the sentence input by the query response as voice and text. .
제1항 또는 제2항에 있어서,
상기 질문과 답변에 대한 음성파일을 저장하고, 상기 질문과 답변 음성파일을 인덱싱하여 저장하는 것을 특징으로 하는 음성인식 질의응답 시스템.
The method according to claim 1 or 2,
Storing the voice file for the question and answer, and indexing the voice file for the question and answer and storing the voice file.
제1항 내지 제3항 중 어느 한 항에 있어서,
음성을 입력받는 음성입력장치;
상기 음성입력장치를 통해서 전달된 아날로그 음성을 디지털신호로 변환하는 음성입력부;
상기 음성입력부에서 수신된 음성정보로부터 음성인식을 수행하는 음성인식부;
상기 음성인식부에 의해 음성에서 텍스트로 변환된 정보를 기반으로 인덱싱, 질의응답을 수행하는 자연어처리부;
상기 자연어처리부로부터 전달된 답변을 텍스트로 화면에 출력하는 화면출력부;
상기 음성을 디지털 신호에서 아날로그 신호로 변환하는 음성출력부; 및
상기 음성을 출력시키는 음성출력장치를 포함하여 구성되는 것을 특징으로 하는 음성인식 질의응답 시스템.
4. The method according to any one of claims 1 to 3,
A voice input device for inputting voice;
A voice input unit for converting the analog voice transmitted through the voice input device into a digital signal;
A voice recognition unit for performing voice recognition from the voice information received by the voice input unit;
A natural language processing unit for performing indexing and querying based on information converted from speech to text by the speech recognition unit;
A screen output unit for outputting a reply sent from the natural language processing unit as text;
A voice output unit for converting the voice into a digital signal to an analog signal; And
And a voice output device for outputting the voice.
제4항에 있어서,
상기 음성입력부의 음성입력장치는 외부마이크나 단말기 내부 마이크인 것을 특징으로 하는 음성인식 질의응답 시스템.
5. The method of claim 4,
Wherein the voice input unit of the voice input unit is an external microphone or an internal microphone of the terminal.
제4항에 있어서,
상기 음성인식부는 음성인식 알고리즘에 의해 음성을 인식해서 텍스트로 변환하여, 텍스트는 텍스트파일로 저장하는 것을 특징으로 하는 음성인식 질의응답 시스템.
5. The method of claim 4,
Wherein the speech recognition unit recognizes speech by a speech recognition algorithm and converts the speech into text, and stores the text as a text file.
제6항에 있어서,
상기 음성인식부에서 음성인식 후, 음성인식한 결과인 문장 텍스트정보는 질의응답DB에 저장하여, 상기 질의응답DB에 쌍으로 구성된 질문과 답변 문장의 정보를 바탕으로 인덱싱 과정을 수행하여 인덱싱DB에 저장하는 것을 특징으로 하는 음성인식 질의응답 시스템.
The method according to claim 6,
The sentence text information, which is a result of speech recognition after speech recognition in the speech recognition unit, is stored in a query response DB, and an indexing process is performed based on information of a question and an answer sentence constructed in pairs in the query response DB, Wherein the voice recognition system comprises a voice recognition system.
제6항에 있어서,
상기 음성인식부는 인식된 음성을 음성파일로 저장하는 것을 특징으로 하는 음성인식 질의응답 시스템.
The method according to claim 6,
Wherein the voice recognition unit stores the recognized voice as a voice file.
제4항에 있어서,
상기 자연어처리부는 상기 음성인식부에 의해 음성에서 텍스트로 변환된 질문과 답변 문장정보를 기반으로 형태소 분석 후, 인덱싱과정을 수행하고, 특정 질문에 대한 답변을 찾는 질의응답을 위해서 문장분석, 질의응답의 처리 과정을 수행하는 것을 특징으로 하는 음성인식 질의응답 시스템.
5. The method of claim 4,
The natural language processing unit performs an indexing process on the basis of the question and answer sentence information converted from the speech to the text by the speech recognition unit, and then performs an indexing process. In order to inquire an answer to a specific question, And a voice recognition unit for performing a voice recognition process.
제9항에 있어서,
상기 특정질문에 대한 답변을 찾는 질의응답모듈이 더 구성되며, 상기 질의응답모듈은 질문문장으로부터 문장분석과정을 수행하여 정확한 질문 의도를 파악하고, 정확한 답변을 요구하는 질문은 미리 구축된 답변DB에서 답변을 가져오고, 특정 정보를 요청할 때는 해당 정보를 기반으로 답변을 생성하는 것을 특징으로 하는 음성인식 질의응답 시스템.
10. The method of claim 9,
And a question and answer module for finding answers to the specific questions. The question and answer module analyzes a sentence from a question sentence and grasps the intent of the correct question. And when a specific information is requested, an answer is generated based on the information.
제4항에 있어서,
상기 화면출력부는 상기 자연어처리부로부터 전달된 응답문장을 화면에 텍스트로 출력하는 것을 특징으로 하는 음성인식 질의응답 시스템.
5. The method of claim 4,
Wherein the screen output unit outputs a response sentence transmitted from the natural language processing unit as text on a screen.
제4항에 있어서,
상기 음성출력부는 상기 자연어처리부로부터 전달된 응답문장에 해당하는 음성파일을 스피커 또는 이어폰으로 출력하는 것을 특징으로 하는 음성인식 질의응답 시스템.
5. The method of claim 4,
Wherein the voice output unit outputs a voice file corresponding to a response sentence transmitted from the natural language processing unit to a speaker or an earphone.
제1항 내지 제3항 중 어느 한 항에 있어서,
질문 입력부와 답변 입력부를 제공하고, 사용자에게 상기 질문 입력부를 제공하여 질문을 음성으로 입력받고, 상기 답변 입력부를 제공하여 답변을 음성으로 입력받으면, 상기 질문과 답변에 대한 음성을 음성인식해서 질문문장과 답변문장으로 변환하고, 상기 질문문장과 답변문장을 인덱싱하여, 특정 키워드가 발생한 질문문장과 답변문장의 위치정보를 DB에 저장하는 것을 특징으로 하는 음성인식 질의응답 시스템.
4. The method according to any one of claims 1 to 3,
A question input unit and an answer input unit are provided, a question input unit is provided to a user to input a question as a voice, and when the answer input unit is provided and a response is inputted as a voice, And a response sentence, and indexes the question sentence and the answer sentence, and stores the question sentence in which the specific keyword occurs and the location information of the answer sentence in the DB.
제13항에 있어서,
상기 질문문장과 답변문장의 음성파일 경로정보를 DB에 저장하는 것을 특징으로 하는 음성인식 질의응답 시스템.
The method of claim 13,
And stores the question sentence and the voice file path information of the answer sentence in the DB.
제1항 내지 제3 항 중 어느 한 항에 있어서,
사용자의 음성을 입력 받으면, 음성인식 후 상기 음성을 텍스트로 변환하고, 문장분석 후 질의응답을 수행하여, 상기 질의 응답에 의해서 입력한 문장에 대한 답변을 인덱싱DB와 질의응답DB에서 가져와서 음성과 텍스트로 출력하는 것을 특징으로 하는 음성인식 질의응답 시스템.
The method according to any one of claims 1 to 3,
The user's voice is inputted, the voice is converted into a text, the sentence is analyzed and a question and answer is performed, and the answer to the sentence inputted by the question and answer is fetched from the indexing DB and the question and answer DB, And outputting the result as text.
제15항에 있어서,
상기 질의 응답에 의해서 입력한 문장에 대한 답변을 음성DB에서 가져와서 음성과 텍스트로 출력하는 것을 특징으로 하는 음성인식 질의응답 시스템.
16. The method of claim 15,
And the answer to the sentence inputted by the query response is fetched from the speech DB and outputted as speech and text.
제1항 내지 제3항 중 어느 한 항에 있어서,
사용자의 음성을 감지해서, 유의미한 음성으로 감지된 음성데이터를 음성인식 후, 음성인식된 결과가 없을 경우, 다시 음성을 입력하라는 메시지를 표시하여, 사용자에게 정확하게 음성을 입력하게 하는 것을 특징으로 하는 음성인식 질의응답 시스템.
4. The method according to any one of claims 1 to 3,
And a voice input unit for inputting a voice to the user when the voice data detected by the voice is sensed after the voice data is sensed by the user, Recognition query response system.
제1항 내지 제3항 중 어느 한 항에 있어서,
상기 질의응답을 수행할 때 질문문장이 시간, 뉴스, 날씨와 같은 특정 정보를 요청할 때에는 유무선 통신 네트워크를 통해서 해당 정보를 가져와서 답변을 생성하는 것을 특징으로 하는 음성인식 질의응답 시스템.
4. The method according to any one of claims 1 to 3,
Wherein when the question sentence requests specific information such as time, news, weather, etc., the information is fetched through the wired / wireless communication network to generate a response.
제1항 내지 제3항 중 어느 한 항에 있어서,
상기 질문과 답변에 대한 음성파일을 저장하고, 상기 질문과 답변 음성파일을 인덱싱하여 저장하는 것을 특징으로 하는 음성인식 질의응답 시스템.
4. The method according to any one of claims 1 to 3,
Storing the voice file for the question and answer, and indexing the voice file for the question and answer and storing the voice file.
제1항 내지 제3항 중 어느 한 항에 있어서,
상기 답변 문장을 음성으로 변환하는 티티에스부가 더 구성되는 것을 특징으로 하는 음성인식 질의응답 시스템.
4. The method according to any one of claims 1 to 3,
Further comprising a text-to-speech unit for converting the response sentence into speech.
제20항에 있어서,
사용자의 음성을 감지해서 음성인식된 결과를 질문입력창에 표시하고, 질의응답에 의해 상기 질문에 대한 답변문장을 찾아 답변입력창에 답변문장을 표시하고, 티티에스를 이용해서 답변음성을 출력하는 것을 특징으로 하는 음성인식 질의응답 시스템.
21. The method of claim 20,
The user's voice is detected, the voice recognition result is displayed on the question input window, the answer sentence for the question is found by inquiry response, the answer sentence is displayed on the answer input window, and the answer voice is output using the titles Wherein the voice recognition system comprises:
제20항에 있어서,
상기 티티에스를 이용해서 답변음성을 출력할 때에는 목소리 종류별, 나이별, 성별로 다양한 티티에스목소리를 사용자가 선택할 수 있는 것을 특징으로 하는 이용한 음성인식 질의응답 시스템.
21. The method of claim 20,
Wherein when the answer voice is output using the voice recognition method, the voice recognition voice response system can be user-selectable in various voices, age, sex, and the like.
음성으로 질문과 답변문장을 저장하는 방법은,
질문과 답변을 음성으로 입력하는 1단계;
상기 음성으로부터 음성인식하는 2단계;
상기 음성인식한 음성과 상기 음성인식 후 발생한 텍스트를 인덱싱하는 3단계를 포함하여 구성되는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
To save your question and answer sentences by voice,
A step 1 of voice inputting a question and an answer;
A second step of recognizing speech from the speech;
And a third step of indexing the speech recognized speech and the text generated after the speech recognition.
제23항에 있어서,
상기 음성인식한 음성을 음성파일로 저장하는 2a단계를 더 포함하여 구성되는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
24. The method of claim 23,
The method of claim 1, further comprising the step of storing the voice recognized as a voice file.
제23항 또는 제24항에 있어서,
상기 질문문장과 답변문장에 해당하는 음성파일을 상기 질문문장과 답변문장과 연동하여 각각 저장하는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
25. The method according to claim 23 or 24,
Wherein the voice file corresponding to the question sentence and the answer sentence is stored in association with the question sentence and the answer sentence, respectively.
제23항 또는 제24항에 있어서,
상기 질문과 답변을 음성으로 입력하는 1단계는,
사용자에게 질문입력버턴을 제공하여, 음성입력버턴이 활성화되는지 체크하여, 음성이 모두 입력되었으면, 질문입력 완료를 표시하고,
사용자에게 답변입력버턴을 제공하여, 음성입력버턴이 활성화되는지 체크하여, 음성이 모두 입력되었으면, 답변입력 완료를 표시하고,
상기 입력된 질문과 답변을 각각 음성인식단계로 전송하는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
25. The method according to claim 23 or 24,
In the first step of inputting the question and the answer by voice,
A question input button is provided to the user to check whether or not the voice input button is activated,
An answer input button is provided to the user to check whether or not the voice input button is activated,
And transmits the inputted question and answer to the voice recognition step, respectively.
제26항에 있어서,
질문입력 음성과 답변입력 음성을 메모리에 저장하는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
The method of claim 26,
Wherein the question input speech and the answer input speech are stored in a memory.
제23항 또는 제24항에 있어서,
상기 음성으로부터 음성인식하는 2단계는,
상기 질문입력 음성과 답변입력 음성을 각각 전달 받아 음성을 텍스트로 변환한 뒤 질문문장과 답변문장으로 사용자에게 표시하는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
25. The method according to claim 23 or 24,
In the second step of speech recognition from the speech,
Wherein the voice input unit receives the question input voice and the answer input voice, converts the voice into text, and displays the voice as a question and a reply to the user.
상기 제23항 또는 제24항에 있어서,
상기 음성 인식한 음성과 상기 음성인식 후 발생한 텍스트를 인덱싱하는 3단계는,
상기 질문문장과 답변문장에 나타난 키워드 리스트를 추출하고, 상기 키워드가 나타난 다른 질문문장과 답변문장의 위치정보를 단어 리스트에 기입하여, 인덱싱 DB에 저장하는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
The method according to claim 23 or 24,
The third step of indexing the speech recognized speech and the text generated after the speech recognition,
Extracting a keyword list appearing in the question sentence and an answer sentence and writing the position information of another question sentence and an answer sentence in which the keyword is displayed in a word list and storing the same in an indexing DB. Way.
제29항에 있어서,
상기 질문문장과 답변문장의 음성파일 경로정보를 단어 리스트에 기입하여, 인덱싱 DB에 저장하는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
30. The method of claim 29,
Wherein the query sentence and the voice file path information of the answer sentence are written into the word list and stored in the indexing DB.
제23항에 있어서,
음성인식한 문장을 질문과 답변 문장으로 저장하는 2b단계를 더 포함하여 구성되는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
24. The method of claim 23,
And storing the sentence as a question and an answer sentence in step 2b.
제31항에 있어서,
상기 음성으로 질문과 답변을 입력 받는 절차는,
질문 입력부와 답변 입력부를 제공하고, 사용자에게 상기 질문 입력부를 제공하여 질문을 음성으로 입력받으면, 음성인식 결과를 회신받아서, 질문음성을 질문텍스트로 표시하고,
사용자에게 상기 답변 입력부를 제공하여 답변을 음성으로 입력받으면, 음성인식 결과를 회신받아서, 답변음성을 답변텍스트로 표시하고,
질문과 답변의 음성입력이 완료되어 사용자로부터 입력완료 버턴을 클릭이 감지되면, 상기 질문문장과 상기 답변문장을 인덱싱하여, 특정 키워드가 발생한 질문문장과 답변문장의 위치정보를 DB에 저장하는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
32. The method of claim 31,
The procedure for inputting the question and the answer with the voice includes:
A question input unit and an answer input unit are provided and the question input unit is provided to the user to input a question as a voice, the speech recognition result is returned, the question voice is displayed as a question text,
When the answer input unit is provided to the user and the answer is inputted as a voice, the answer voice is received and the answer voice is displayed as the reply text,
When the voice input of the question and answer is completed and the click of the input completion button is detected by the user, the question sentence and the answer sentence are indexed and the position information of the question sentence and the answer sentence in which the specific keyword occurs is stored in the DB Wherein the speech recognition system comprises:
제31항에 있어서,
상기 음성인식하고 저장할 때에는,
질문입력음성과 답변입력음성을 각각 전달받아서 음성을 질문문장과 답변문장으로 변환하여 DB에 저장하고, 형태소 분석 과정을 거쳐서 키워드별로 인덱싱하여, 상기 키워드별 키워드가 나타난 질문문장과 답변문장의 위치정보를 기록하는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
32. The method of claim 31,
When recognizing and storing the speech,
A voice input unit for receiving a question input voice and an answer input voice, converting the voice into a question sentence and a response sentence, storing the sentence in a DB, and performing a morphological analysis process for each keyword to index the question sentence, Is recorded in the voice recognition system.
음성으로 질의응답 대화하는 방법은,
질문 음성을 입력받는 1단계;
상기 음성으로부터 음성인식하는 2단계;
상기 음성인식 후 발생한 텍스트로 문장분석하는 3단계;
상기 문장분석 후, 질의응답하는 4단계; 및
상기 질의응답 후, 질의응답 DB에서 추출되거나 질의응답DB를 통해서 생성된 답변을 음성 및 텍스트로 출력하는 5단계를 포함하여 구성되는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
How to communicate with the voice by voice,
A first step of receiving a question voice;
A second step of recognizing speech from the speech;
A third step of analyzing a sentence with text generated after the speech recognition;
After the sentence analysis, a fourth step of querying and responding; And
And outputting, as the voice and text, a reply extracted from the query response DB or generated through the query response DB after the query response.
제34항에 있어서,
상기 질문 음성을 입력받는 1단계는,
별도의 음성입력장치가 단말기 외부에 부착되거나 내장된 음성입력장치를 이용하여 사용자의 질문 음성을 실시간으로 입력받는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
35. The method of claim 34,
In the first step of receiving the question voice,
Wherein a separate voice input device is attached to the outside of the terminal or a user's voice is input in real time using the built-in voice input device.
제34항에 있어서,
상기 음성으로부터 음성인식하는 2단계는,
사용자의 음성을 입력받아 음성인식을 수행하여, 상기 사용자의 음성을 텍스트로 변환하는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
35. The method of claim 34,
In the second step of speech recognition from the speech,
A method of operating a voice recognition question answering system, the method comprising: receiving voice of a user and performing voice recognition to convert the voice of the user into text.
제34항에 있어서,
상기 음성인식 후 발생한 텍스트로 문장분석하는 3단계는,
상기 텍스트를 형태소 분석하여 문장에서 단어를 추출함으로써, 질의응답을 수행할 수 있는 전처리 과정을 수행하는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
35. The method of claim 34,
In the third step of analyzing the sentence with the text generated after the speech recognition,
And a preprocessing step of performing a query response by extracting words in a sentence by morpheme analysis of the text.
제34항에 있어서,
상기 문장분석 후, 질의응답하는 4단계는,
문장분석, 응답문장추출 알고리즘 또는 응답문장생성 알고리즘의 처리 과정 수행하는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
35. The method of claim 34,
After analyzing the sentence, the fourth step of query response is:
A sentence analysis, a response sentence extraction algorithm, or a response sentence generation algorithm.
제34항에 있어서,
상기 질의응답 후, 질의응답 DB에서 추출되거나 질의응답DB를 통해서 생성된 답변을 음성 및 텍스트로 출력하는 5단계는,
상기 질의응답DB를 통해서 기존 답변 문장이 추출되었을 경우에는, 상기 기존 답변문장을 음성파일을 통해서 음성을 출력하고 텍스트로 표시하며,
상기 질의응답 DB를 통해서 새로운 답변 문장이 생성되었을 경우에는, 해당 답변 문장을 티티에스를 통해서 음성을 출력하고 해당 답변 문장을 텍스트로 표시하는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
35. The method of claim 34,
After the query response, the fifth step of outputting the answers extracted from the query response DB or generated through the query response DB as voice and text,
When the existing answer sentence is extracted through the question and answer DB, the existing answer sentence is outputted as a voice through the voice file and displayed as text,
And when a new answer sentence is generated through the question and answer DB, the answer sentence is output to the corresponding answer sentence through a voice message, and the corresponding answer sentence is displayed as text.
음성으로 질의응답 대화하는 방법은,
음성으로 질문을 입력 받는 1단계;
음성인식하는 2단계;
상기 음성인식 후 발생한 문장정보로 질의응답처리하는 3단계; 및
상기 질의응답에 의해서 추출되거나 생성된 답변을 답변 음성과 답변텍스트로 출력하는 4단계를 포함하여 구성되는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
How to communicate with the voice by voice,
A step 1 for inputting a question by voice;
Two steps of speech recognition;
A third step of performing a query response processing on the sentence information generated after the speech recognition; And
And outputting the answers extracted or generated by the query response as an answer voice and an answer text.
제40항에 있어서,
상기 음성으로 질문을 입력 받는 1단계는,
사용자의 음성을 감지해서 음성인식된 결과를 회신받아 질문입력창에 표시하고, 상기 질문에 대한 답변문장을 질의응답 후, 답변입력창에 답변문장을 표시하고, 답변음성을 티티에스로 출력하는 것을 특징으로 음성인식 질의응답 시스템의 운용방법.
41. The method of claim 40,
In the first step of inputting the question by the voice,
The user's voice is detected and the voice recognition result is returned and displayed on the question input window. After the question and answer of the question, the answer sentence is displayed on the answer input window and the answer voice is output to the TTI A method of operating a voice recognition query response system.
제40항에 있어서,
별도의 음성입력장치가 단말기 외부에 부착되거나 내장된 음성입력장치를 이용하여 사용자의 질문 음성을 실시간으로 입력받는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
41. The method of claim 40,
Wherein a separate voice input device is attached to the outside of the terminal or a user's voice is input in real time using the built-in voice input device.
제40항에 있어서,
음성을 입력받지 못하면 텍스트를 입력받는 단계를 더 포함하여 구성되는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
41. The method of claim 40,
Further comprising the step of receiving a text if the voice input is not received.
제40항에 있어서,
상기 음성인식하는 2단계는,
음성인식 알고리즘에 의해 음성을 인식해서 텍스트로 변환하는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
41. The method of claim 40,
In the second step of speech recognition,
And recognizing the voice by the voice recognition algorithm and converting the voice into text.
제40항에 있어서,
상기 음성인식 후 발생한 텍스트로 질의응답처리하는 3단계는,
음성에서 텍스트로 변환된 질문정보를 기반으로, 특정 질문에 대한 답변을 찾는 질의응답모듈에 의해서 답변을 찾거나 답변을 생성하는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
41. The method of claim 40,
In the third step of performing the query response processing with the text generated after the speech recognition,
Wherein the answer is found by a question and answer module that finds an answer to a specific question based on the question information converted from voice to text, or an answer is generated.
제40항에 있어서,
상기 음성인식 후 발생한 텍스트로 질의응답처리하는 3단계는,
상기 질의응답모듈은 질문문장으로부터 문장분석과정을 수행하여 정확한 질문 의도를 파악하고, 정확한 답변을 요구하는 질문은 미리 구축된 답변DB에서 답변을 가져오고, 특정 정보를 요청할 때는 해당 정보를 기반으로 답변을 생성하고, 일상생활 또는 상식을 요구하는 답변은 유사도검색 방법을 이용하여 답변문장을 검색하는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
41. The method of claim 40,
In the third step of performing the query response processing with the text generated after the speech recognition,
The question and answer module analyzes a sentence analysis process from a question sentence to grasp an accurate question intention. A question requesting an accurate answer takes an answer from a pre-established answer DB. When requesting specific information, And a response sentence is searched by using a similarity search method to an answer requesting daily life or common sense.
제40항에 있어서,
상기 음성인식 후 발생한 텍스트로 질의응답처리하는 3단계는,
상기 질의응답모듈은 질문문장이 시간, 뉴스, 날씨와 같은 특정 정보를 요청할 때에는 유무선 통신 네트워크를 통해서 해당 정보를 가져와서 답변을 생성하는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
41. The method of claim 40,
In the third step of performing the query response processing with the text generated after the speech recognition,
Wherein the query response module generates the response by fetching the information through the wire / wireless communication network when the question sentence requests specific information such as time, news, and weather.
제40항에 있어서,
상기 질의응답에 의해서 추출되거나 생성된 답변을 답변 음성과 답변텍스트로 출력하는 4단계는,
질의응답에 의해서 추출되거나 생성된 답변문장을 전달받아서, 티티에스를 통해서 음성을 출력하고 해당 답변 문장을 텍스트로 표시하는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
41. The method of claim 40,
The fourth step of outputting the answer extracted or generated by the query response as the answer voice and the answer text,
Receiving a response sentence extracted or generated by a query response, outputting a voice through a text message, and displaying the response sentence in text form.
제40항에 있어서,
상기 질의응답에 의해서 추출되거나 생성된 답변을 답변음성과 답변텍스트로 출력하는 4단계는,
질의응답에 의해서 추출되거나 생성된 답변문장을 전달받아서, 티티에스를 통해서 음성을 출력할 때에는, 목소리 종류별, 나이별, 성별로 다양한 티티에스목소리를 사용자가 선택할 수 있도록 제공하는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
41. The method of claim 40,
The fourth step of outputting the answer extracted or generated by the query response as the answer voice and the answer text,
The voice recognition system according to claim 1 or 2, wherein when the speech sent out or generated by the query response is received and the voice is outputted through the voice recognition system, How to operate the Q & A system.
제40항에 있어서,
상기 1단계 후에,
음성인식한 결과를 정확하게 입력되었는지 확인 받는 단계를 더 포함하여 구성되는 것을 특징으로 하는 음성인식 질의응답 시스템의 운용방법.
41. The method of claim 40,
After the first step,
Further comprising the step of confirming whether the result of speech recognition is correctly inputted.
KR1020130006811A 2012-01-26 2013-01-22 Question answering system using speech recognition and its application method thereof KR20130086971A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020120008002 2012-01-26
KR20120008002 2012-01-26
KR20120038841 2012-04-14
KR1020120038841 2012-04-14

Publications (1)

Publication Number Publication Date
KR20130086971A true KR20130086971A (en) 2013-08-05

Family

ID=49213973

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130006811A KR20130086971A (en) 2012-01-26 2013-01-22 Question answering system using speech recognition and its application method thereof

Country Status (1)

Country Link
KR (1) KR20130086971A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101491843B1 (en) * 2013-11-13 2015-02-11 네이버 주식회사 Conversation based search system and search method
CN106648082A (en) * 2016-12-09 2017-05-10 厦门快商通科技股份有限公司 Intelligent service device capable of simulating human interactions and method
KR20200079928A (en) * 2018-12-26 2020-07-06 성재호 Apparatus and Method for Substitute Call Service
CN111883134A (en) * 2020-07-24 2020-11-03 北京贝塔科技股份有限公司 Voice input method and device, electronic equipment and storage medium
KR20210013193A (en) * 2018-06-27 2021-02-03 구글 엘엘씨 Rendering a response to a user's speech utterance using a local text-response map
KR20210075040A (en) * 2014-11-12 2021-06-22 삼성전자주식회사 Apparatus and method for qusetion-answering
KR20220082257A (en) 2020-12-10 2022-06-17 주식회사 투비유니콘 A system that analyzes natural language by calculating the recognition rate of natural language using a probability function

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101491843B1 (en) * 2013-11-13 2015-02-11 네이버 주식회사 Conversation based search system and search method
KR20210075040A (en) * 2014-11-12 2021-06-22 삼성전자주식회사 Apparatus and method for qusetion-answering
KR20220130655A (en) * 2014-11-12 2022-09-27 삼성전자주식회사 Apparatus and method for qusetion-answering
US11817013B2 (en) 2014-11-12 2023-11-14 Samsung Electronics Co., Ltd. Display apparatus and method for question and answer
CN106648082A (en) * 2016-12-09 2017-05-10 厦门快商通科技股份有限公司 Intelligent service device capable of simulating human interactions and method
KR20210013193A (en) * 2018-06-27 2021-02-03 구글 엘엘씨 Rendering a response to a user's speech utterance using a local text-response map
KR20230047514A (en) * 2018-06-27 2023-04-07 구글 엘엘씨 Rendering responses to a spoken utterance of a user utilizing a local text-response map
KR20200079928A (en) * 2018-12-26 2020-07-06 성재호 Apparatus and Method for Substitute Call Service
CN111883134A (en) * 2020-07-24 2020-11-03 北京贝塔科技股份有限公司 Voice input method and device, electronic equipment and storage medium
CN111883134B (en) * 2020-07-24 2024-06-04 北京贝塔科技有限公司 Voice input method and device, electronic equipment and storage medium
KR20220082257A (en) 2020-12-10 2022-06-17 주식회사 투비유니콘 A system that analyzes natural language by calculating the recognition rate of natural language using a probability function

Similar Documents

Publication Publication Date Title
CN109493850B (en) Growing type dialogue device
KR101689290B1 (en) Device for extracting information from a dialog
KR20130086971A (en) Question answering system using speech recognition and its application method thereof
KR20140123369A (en) Question answering system using speech recognition and its application method thereof
KR101775559B1 (en) Virtual counseling system and method using display
US11494434B2 (en) Systems and methods for managing voice queries using pronunciation information
KR20130108173A (en) Question answering system using speech recognition by radio wire communication and its application method thereof
KR20170034227A (en) Apparatus and method for speech recognition, apparatus and method for learning transformation parameter
TW200424951A (en) Presentation of data based on user input
KR20150014236A (en) Apparatus and method for learning foreign language based on interactive character
CN107844470B (en) Voice data processing method and equipment thereof
CN109543021B (en) Intelligent robot-oriented story data processing method and system
JP6154489B2 (en) Terminal device, program, and server device for providing information in response to user data input
CN105210147B (en) Method, apparatus and computer-readable recording medium for improving at least one semantic unit set
CN106713111B (en) Processing method for adding friends, terminal and server
WO2021051564A1 (en) Speech recognition method, apparatus, computing device and storage medium
WO2019031268A1 (en) Information processing device and information processing method
CN110427455A (en) A kind of customer service method, apparatus and storage medium
CN112669842A (en) Man-machine conversation control method, device, computer equipment and storage medium
US20210034662A1 (en) Systems and methods for managing voice queries using pronunciation information
WO2021179703A1 (en) Sign language interpretation method and apparatus, computer device, and storage medium
KR20150065523A (en) Method and apparatus for providing counseling dialogue using counseling information
KR20190115405A (en) Search method and electronic device using the method
KR102536944B1 (en) Method and apparatus for speech signal processing
US11410656B2 (en) Systems and methods for managing voice queries using pronunciation information

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application