KR101234289B1 - Congitive system realizing contextual human robot interaction for service robot and method thereof - Google Patents
Congitive system realizing contextual human robot interaction for service robot and method thereof Download PDFInfo
- Publication number
- KR101234289B1 KR101234289B1 KR1020110017697A KR20110017697A KR101234289B1 KR 101234289 B1 KR101234289 B1 KR 101234289B1 KR 1020110017697 A KR1020110017697 A KR 1020110017697A KR 20110017697 A KR20110017697 A KR 20110017697A KR 101234289 B1 KR101234289 B1 KR 101234289B1
- Authority
- KR
- South Korea
- Prior art keywords
- sentence
- robot
- information
- module
- unit
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/026—Acoustical sensing devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/445—Program loading or initiating
- G06F9/44568—Immediately runnable code
- G06F9/44573—Execute-in-place [XIP]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/448—Execution paradigms, e.g. implementations of programming paradigms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Acoustics & Sound (AREA)
- Manipulator (AREA)
Abstract
서비스 로봇을 위한 맥락적 상호작용이 가능한 인지 시스템이 개시된다. 이 시스템은 로봇의 외부 정보를 감지하기 위한 감지부와, 로봇의 외부로 행위하기 위한 행위부, 로봇의 기억이 저장되기 위한 기억부, 및 감지부에 의해 감지된 정보를 문장으로 표현하여 기억부에 저장하며 기억부에 저장된 기억을 추론하고 그 추론 결과에 따라 상기 행위부를 통해 외부로 행위하게 하는 추론 관리부를 포함한다. 이에 의해 서비스 로봇의 맥락적 상호작용이 가능해진다.A cognitive system capable of contextual interaction for a service robot is disclosed. The system expresses the sensing unit for sensing external information of the robot, the acting unit for acting outside of the robot, the storage unit for storing the robot's memory, and the information detected by the sensing unit in sentences. And an inference management unit for inferring the memory stored in the storage unit and acting outside through the acting unit according to the inference result. This enables the contextual interaction of service robots.
Description
본 발명은 로봇에 관련된 기술로, 특히 로봇이 인간과 상호 소통할 수 있도록 하기 위한 인지 기술에 관한 것이다. The present invention relates to a technology related to a robot, and more particularly, to a cognitive technology for allowing a robot to communicate with a human.
로봇 기술이 발전하면서 인간과 로봇이 생활 공간 안에서 일상생활을 함께하는 서비스 로봇에 대한 관심이 늘어나고 있다. 그동안 인간 로봇 상호작용(Human Robot Interface)의 관점에서 기초화(grounding)에 대한 연구가 진행되어 왔는데, Roy의 경우는 로봇에 의해 얻어지는 시각적 물체 정보를 마음 영상화(mental imagery)를 통해 모델화하고 이에 대한 대화가 가능하도록 하였다. Siskind는 동영상 속에 존재하는 물체와 손의 움직임을 역학적 의미를 가지는 언어적 표현으로 기술하였다. 이러한 연구들은 시간과 공간적 상황을 동시에 처리할 수 있는 문장 단위의 기초화 모델이 제시되고 있지 못하며, 기초화된 정보를 기억으로 저장하고 재생하는 것에 대한 연구는 아직 이루어지고 있지 않다.With the development of robot technology, there is a growing interest in service robots where humans and robots share their daily lives in the living space. In the meantime, research on grounding has been conducted in terms of human robot interface. In the case of Roy, visual object information obtained by robots is modeled through mental imagery and The conversation was made possible. Siskind described the movement of objects and hands in the video as linguistic expressions with mechanical meaning. These studies have not suggested a sentence-based basic model that can handle both temporal and spatial situations at the same time, and there are no studies on storing and reproducing the basic information as memory.
한편, 인지과학 분야에서는 인간의 마음의 구조와 연결하여 이를 모델화한 인지 구조(congnitive architecture)에 대한 연구가 진행되고 있는데, 카네기멜런대학의 ACT-R 이나 미시간대학의 SOAR의 경우 인간의 인지를 이해하고 시뮬레이션하는 연구들이다. 이 연구들은 인간의 인지 기능을 가능한 한 유사하게 모방하는 데에 일차적 목적을 두고 있으며, 로봇에 적용할 경우에 대한 효율성의 문제는 충분히 고려하고 있지 않다. 따라서 로봇의 인지 시스템으로 활용하기가 어려우며, 인간과 로봇이 맥락에 기반한 상호작용에 대한 발명은 이루어지지 못하였다.On the other hand, in the field of cognitive science, research on the cognitive architecture that models and connects with the structure of the human mind is being conducted.In the case of ACT-R at Carnegie Mellon University and SOAR at the University of Michigan, human cognition is understood. And simulations. These studies primarily aim to mimic human cognitive function as similarly as possible, and do not fully consider the issue of efficiency when applied to robots. Therefore, it is difficult to use it as a robot's cognitive system, and the invention about the context-based interaction between humans and robots has not been achieved.
인간과 일상생활을 함께하는 서비스 로봇이 되기 위해서는 인간과 경험을 공유하고 시공간적 맥락에 의거한 상호작용이 필수적으로 요구된다. 로봇과 인간의 상호작용은 외부로부터의 센싱과 외부로 향한 행동, 인지 정보에 대한 기억, 그리고 맥락에 의거한 재생 등의 기능이 요구된다. 이를 위해서는 인지 정보를 적절한 형태로 기술하고 저장하는 과정이 필요하다. 또한 상호 대화를 위한 언어를 활용하기 위해서는 로봇이 인간의 언어를 이해하고 필요에 따라 발화하는 기능이 요구된다. 이러한 기능들은 필수적으로 언어와 인지 정보의 결합 또는 연결이 요구되며 이로부터 맥락적 상호작용을 위한 정보를 이끌어낼 수 있다. 이와 같이 감지, 행위, 기억 등과 같은 인지 정보에 대한 언어적 표현과 인간으로부터 발화된 언어를 인지적 정보와 결합시키는 인지 시스템이 필요하다.In order to become a service robot that shares human life with everyday life, it is necessary to share experiences with humans and interact based on time and space context. Robot-human interaction requires functions such as sensing from the outside, acting outward, memory of cognitive information, and contextual reproduction. To do this, it is necessary to describe and store the cognitive information in an appropriate form. In addition, in order to utilize the language for mutual communication, the robot needs the ability to understand the human language and speak as needed. These functions necessarily require combining or linking language and cognitive information, and can derive information for contextual interaction. As such, there is a need for a cognitive system that combines verbal expressions of cognitive information such as sensing, behavior, and memory with cognitive information.
본 발명은 인간과 로봇이 맥락에 기반한 상호 작용을 가능하게 하는 기술적 방안을 제공함을 목적으로 한다.An object of the present invention is to provide a technical solution that enables a human-robot interaction based on the context.
전술한 기술적 과제를 달성하기 위한 본 발명의 일 양상에 따른 서비스 로봇을 위한 맥락적 상호작용이 가능한 인지 시스템은 로봇의 외부 정보를 감지하기 위한 감지부, 상기 로봇의 외부로 행위하기 위한 행위부, 상기 로봇의 기억이 저장되기 위한 기억부, 및 상기 감지부에 의해 감지된 정보를 문장으로 표현하여 상기 기억부에 저장하며, 상기 기억부에 저장된 기억을 추론하고 그 추론 결과에 따라 상기 행위부를 통해 외부로 행위하게 하는 추론 관리부를 포함한다.A cognitive system capable of contextual interaction for a service robot according to an aspect of the present invention for achieving the above technical problem includes a sensing unit for sensing external information of the robot, an acting unit for acting outside of the robot, A memory for storing the memory of the robot, and the information detected by the sensor is expressed in a sentence and stored in the memory, and the memory stored in the memory is inferred and the action is based on the result of the inference. It includes an inference management unit that causes an outside act.
한편, 전술한 기술적 과제를 달성하기 위한 본 발명의 일 양상에 따른 서비스 로봇의 맥락적 상호작용을 위한 인지 방법은 로봇의 청취 모듈에 의해 음성이 변환된 문장을 해석하는 단계, 상기 해석된 문장을 상기 로봇의 기억부에 저장하는 단계, 상기 해석된 문장의 내용을 추론하는 단계, 및 상기 추론 결과에 대한 행위를 실행하는 단계를 포함한다.On the other hand, the cognitive method for the contextual interaction of the service robot according to an aspect of the present invention for achieving the above technical problem is a step of interpreting the sentence, the speech is converted by the listening module of the robot, the interpreted sentence Storing in the storage unit of the robot, inferring contents of the interpreted sentence, and executing an action on the inference result.
전술한 기술적 과제를 달성하기 위한 본 발명의 다른 양상에 따른 서비스 로봇의 맥락적 상호작용을 위한 인지 방법은 로봇에 입력된 카메라 영상에서 인식된 물체에 대해 동일 물체에 대한 정보가 상기 로봇의 기억부의 물체기술자에 등록되어 있는지 판단하는 단계, 상기 판단 결과 등록되어 있지 않으면 상기 인식된 물체에 대한 정보를 상기 물체기술자에 새로이 등록하는 단계, 및 상기 새로운 물체 인식 사건에 대한 문장을 생성하여 상기 기억부에 저장하는 단계를 포함한다.According to another aspect of the present invention, there is provided a cognitive method for contextual interaction of a service robot, in which information about the same object is detected in a camera image input to the robot. Determining whether the object descriptor is registered with the object descriptor; if the determination result is not registered, newly registering information on the recognized object with the object descriptor; and generating a sentence for the new object recognition event to generate the sentence in the storage unit. Storing.
본 발명은 모든 사건을 문장으로 표현하여 기억하고 필요할 경우 이를 재생할 수 있는 기능을 통해 서비스 로봇의 맥락적 상호작용을 가능하게 하는 효과를 창출한다. 또한 본 발명은 언어적 표현만이 아닌 공간 정보와 같은 보조적 인지 정보를 제공하여 서비스 로봇의 맥락적 상호작용을 더욱 높일 수 있다.The present invention creates the effect of enabling the contextual interaction of the service robot through the function of expressing and remembering all events in sentences and reproducing them if necessary. In addition, the present invention can further enhance the contextual interaction of the service robot by providing auxiliary cognitive information such as spatial information as well as verbal expression.
도 1은 본 발명의 일 실시예에 따른 인지 시스템 개념도.
도 2는 본 발명의 일 실시예에 따른 인지 시스템 블록도.
도 3은 본 발명의 일 실시예에 따른 해석기 블록도.
도 4는 본 발명의 일 실시예에 따른 공간 추론기의 공간 추론 예시도.
도 5는 본 발명의 일 실시예에 따라 인지 시스템의 시각 모듈에서 발생하는 사건에 대한 인지 방법 흐름도.
도 6은 본 발명의 일 실시예에 따라 인지 시스템의 청취 모듈에서 발생하는 사건에 대한 인지 방법 흐름도.
도 7은 본 발명의 일 실시예에 따라 인지 시스템의 행위 모듈에서 발생하는 사건에 대한 인지 방법 흐름도.
도 8은 본 발명의 일 실시예에 따라 인지 시스템의 발화 모듈에서 발생하는 사건에 대한 인지 방법 흐름도.1 is a conceptual diagram of a cognitive system according to an embodiment of the present invention.
2 is a block diagram of a cognitive system in accordance with an embodiment of the present invention.
3 is an interpreter block diagram in accordance with an embodiment of the present invention.
Figure 4 is a spatial inference example of the spatial inference according to an embodiment of the present invention.
5 is a flow chart of a cognitive method for events occurring in a visual module of a cognitive system in accordance with an embodiment of the present invention.
6 is a flow diagram of a cognitive method for events occurring in a listening module of a cognitive system in accordance with an embodiment of the present invention.
7 is a flow diagram of a cognitive method for an event occurring in an action module of a cognitive system in accordance with one embodiment of the present invention.
8 is a flow diagram of a cognitive method for events occurring in a speech module of a cognitive system in accordance with an embodiment of the present invention.
전술한, 그리고 추가적인 본 발명의 양상들은 첨부된 도면을 참조하여 설명되는 바람직한 실시예들을 통하여 더욱 명백해질 것이다. 이하에서는 본 발명을 이러한 실시예를 통해 당업자가 용이하게 이해하고 재현할 수 있도록 상세히 설명하기로 한다.BRIEF DESCRIPTION OF THE DRAWINGS The foregoing and further aspects of the present invention will become more apparent from the following detailed description of preferred embodiments with reference to the accompanying drawings. Hereinafter, the present invention will be described in detail to enable those skilled in the art to easily understand and reproduce the present invention.
도 1은 본 발명의 일 실시예에 따른 인지 시스템 개념도이다.1 is a conceptual diagram of a cognitive system according to an embodiment of the present invention.
도 1은 인간과의 상호작용을 위해 로봇이 갖추어야 할 인지 시스템의 개념도로서, 인지 정보를 문장과 연결한 모습을 나타낸다. 외부로부터 감지 또는 청취한 정보를 문장으로 표현하고 저장 또는 추론하고, 외부로 행위를 하거나 발화할 경우에도 문장을 기준으로 하여 실행하게 한다는 것이다. 즉, 인지 정보와 언어를 연결하고 문장을 기본 단위로 기억 속에 저장하고 필요할 경우에 추론하고 재생한다. 그러나 추론시 기억 속에 저장된 문장 만으로는 한계를 가지는데, 문장의 연속으로만 기억이 구성됨으로써 문장으로 표현하기 어려운 인지 정보에 대한 추론이 어렵다. 따라서 본 발명에 따른 인지 시스템은 문장을 기반으로 하되 시각 등과 같은 추가적인 인지 정보를 보조 수단으로 활용함으로써 보다 효과적인 추론이 가능하도록 한다. 따라서 인지 정보의 언어적 표현과 이를 보조적 인지 정보와 연결하는 과정이 요구된다.1 is a conceptual diagram of a cognitive system to be equipped with a robot for interaction with a human, and shows a state in which cognitive information is connected to sentences. The information sensed or listened from the outside is expressed in sentences, stored or inferred, and executed based on sentences even when acting or speaking outward. That is, it connects cognitive information and language, stores sentences as basic units in memory, infers and plays them when necessary. However, only the sentences stored in the memory at the time of inference have limitations, and it is difficult to reason about cognitive information that is difficult to express in sentences because the memory is composed only of a series of sentences. Therefore, the cognitive system according to the present invention enables more effective reasoning by using additional cognitive information such as visual as an auxiliary means based on sentences. Therefore, the process of linking the verbal expression of cognitive information and auxiliary cognitive information is required.
한편, 도 1과 같은 방식에 의하면 다음과 같은 장점이 있다. 첫째, 대화 자체가 언어적 표현이므로 인지 정보의 언어적 표현은 발화나 청취 정보를 그대로 표현할 수 있으므로 다른 형태로 코드화할 필요가 없다. 둘째, 로봇이 감지하는 센싱 정보, 행동 정보뿐만 아니라 내부적 추론도 독백 형태의 언어로 표현할 수 있다. 셋째, 문장의 시간 태그를 포함한 순서적인 저장을 통해 인지 정보를 시간적으로 저장하고 필요할 경우에 재생할 수 있다. 넷째, 한 문장은 로봇이나 물체의 동작을 표현할 수 있는 최소 단위로서 의미적으로 완결적이며 사건의 기본 단위가 될 수 있다.On the other hand, according to the method as shown in Figure 1 has the following advantages. First, since the dialogue itself is a linguistic expression, the linguistic expression of the cognitive information can express the speech or listening information as it is, so there is no need to code it in another form. Second, internal reasoning as well as sensing information and behavior information detected by the robot can be expressed in a monologue language. Third, the cognitive information can be stored temporally and reproduced when necessary through the sequential storage including the time tag of the sentence. Fourth, a sentence is the smallest unit that can express the motion of a robot or an object. It is semantically complete and can be a basic unit of events.
도 2는 본 발명의 일 실시예에 따른 인지 시스템 블록도이다.2 is a block diagram of a cognitive system according to an embodiment of the present invention.
도시된 바와 같이, 인지 시스템은 감지부(100), 행위부(200), 기억부(300), 및 추론 관리부(400)를 포함한다. 감지부(100)는 로봇의 외부 정보를 감지하기 위한 구성이다. 일 실시예에 있어서, 감지부(100)는 시각 모듈(110)과 센서 모듈(130) 및 청취 모듈(120) 중 적어도 하나를 포함한다. 시각 모듈(110)은 카메라와 연결되어 카메라로 입력되는 영상을 획득하기 위한 구성이다. 청취 모듈(120)은 마이크와 연결되어 마이크로 입력되는 외부 음성을 획득하기 위한 구성이다. 이 청취 모듈(120)은 마이크로 입력된 음성을 문장으로 변환하기 위한 STT(Speech To Text) 기능을 포함할 수 있다. 그리고 센서 모듈(130)은 하나 이상의 센서로부터 센싱되는 데이터를 획득하기 위한 구성이다. 다수의 서로 다른 목적을 가진 센서들이 센서 모듈(130)과 연결될 수 있으며, 동일한 센서가 여러 개일 수 있다. 예를 들어, 센서로는 촉각 센서, 온도 센서, 습도 센서 등일 수 있다. 감지부(100)는 이러한 시각 모듈(110)과 청취 모듈(120) 및 센서 모듈(130)을 통해 로봇의 외부 상황을 감지할 수 있다.As shown, the cognitive system includes a
행위부(200)는 동작 모듈(210)과 발화 모듈(220)을 포함한다. 동작 모듈(210)은 로봇의 동작을 위한 다수의 액추에이터를 구동하기 위한 모듈이다. 동작 모듈(210)을 통해 로봇의 팔, 다리의 움직임은 물론 감정 표현을 위한 얼굴 표정의 움직임도 가능하다. 발화 모듈(220)은 로봇의 발화를 위한 구성으로서, 스피커와 연결된다. 바람직하게 발화 모듈(220)은 문장을 음성으로 변환하기 위한 TTS(Text To Speech) 기능을 포함한다.The
기억부(300)는 로봇의 기억을 저장하기 위한 구성이다. 이 기억부(300)는 하나 이상의 메모리를 포함한다. 메모리는 비휘발성 메모리임이 바람직하며, 플래시 메모리일 수 있다. 기억부(300)는 문장 저장부(310)와 물체기술자(320) 및 동작기술자(330)를 포함한다. 문장 저장부(310)와 물체기술자(320) 및 동작기술자(330)는 각각 물리적으로 구분된 메모리에 구현될 수 있다. 아니면 문장 저장부(310)와 물체기술자(320) 및 동작기술자(330)는 물리적으로 하나의 메모리에 저장되되, 논리적으로 구분되어 있을 수도 있다. 문장 저장부(310)에는 로봇과 관련된 사건이 문장으로 표현되어 저장된다. 물체기술자(320)에는 시각 모듈(110)에 의해 새로운 물체 혹은 물체의 자세가 바뀌었을 때 그 정보가 저장되며, 동작기술자(330)에는 로봇이 하는 동작과 그 동작순서에 대한 정보가 저장된다.The
추론 관리부(400)는 감지부(100)에 의해 감지된 정보를 문장으로 표현하여 기억부(300)에 저장하며, 기억부(300)에 저장된 기억을 추론하고 그 추론 결과에 따라 행위부(200)를 통해 외부로 행위하는 역할을 수행하기 위한 구성으로서, 컴퓨터 프로세서로 구현될 수 있다. 이 추론 관리부(400)는 감지부(100)에서 전달되는 정보를 모두 문장으로 표현하고 로봇 외부로 행위를 하기 위한 해석기(410)를 포함하고, 사건의 발생에 대한 지식과 정보를 추론하기 위한 지식 추론기(430)를 포함하며, 공간적 추론과 현재의 공간적 상황을 나타내기 위한 공간 추론기(420)를 포함한다.The
해석기(410)는 감지부(100)나 행위부(200)에 의해서 발생한 모든 정보, 즉 사건을 문장으로 표현하고, 그 사건이 언제 일어났는지를 알 수 있도록 시간 태그를 함께 붙여 기억부(300)의 문장 저장부(310)에 저장한다. 이는 로봇의 인간과의 맥락적 상호작용을 가능하게 한다. 표 1은 시각 모듈(110)을 통해 입력된 정보에 대해 문장으로 표현하여 문장 저장부(310)에 저장한 예를 나타내고 있다.The
표 1과 같은 문장 저장을 위해서, 시각 모듈(110)을 통해 입력된 정보를 문장으로 표현할 수 있도록, 해석기(410)는 시각 모듈(110)을 통해 입력된 정보를 해석하기 위한 시각 해석기(411)를 포함한다. 그 외에 해석기(410)는 센서 모듈(130)을 통해 입력된 정보, 예를 들어, 촉각 정보, 온도 정보, 습도 정보 등을 해석하기 위해서 센서 해석기(412)를 더 포함한다. 또한 해석기(410)는 시각 해석기(411) 및 센서 해석기(412)에 의해 해석된 내용을 문장으로 표현하기 위한 문장 발생기(413)를 더 포함한다.For storing the sentences as shown in Table 1, the
시각 해석기(411)에 의해 카메라 영상에 대한 내용이 해석되면, 문장 발생기(413)는 해석된 내용을 문장으로 발생시킨다. 시각 해석기(411) 및 문장 발생기(413)에 의해 시각 정보가 문장으로 표현된다. 이 문장은 그대로 문장 저장부(310)에 저장될 수도 있으나, 구문 해석 및 의미 해석을 통해 해석된 결과가 문장 저장부(310)에 저장될 수도 있다. 이를 위해 문장 해석기(414)는 구문 해석기(syntactic parser)(414A) 및 의미 해석기(semantic parser)(414B)를 포함한다. 여기서 구문 해석기(414A)와 의미 해석기(414B)로는 자연언어처리에서 제공하는 소프트웨어가 이용될 수 있다.When the contents of the camera image are interpreted by the
구문 해석기(414A)의 예를 들면 Penn Treebank라는 규칙에 따라 문장을 해석하게 되는데, 표 2에는 Penn Treebank의 태그집합을 보여주고 있다. 구문 해석기(414A)는 문장의 구를 태그 집합의 종류를 자동으로 판단하여 구의 종류를 나타내주는 역할을 하는 것이다.For example, the parser 414A interprets a sentence according to the rule of Penn Treebank. Table 2 shows the tag sets of the Penn Treebank. The syntax interpreter 414A automatically determines the type of tag set for a phrase of a sentence to indicate the type of phrase.
그리고 의미 해석기(414B)는 문장의 구 단위에 대해 각 논항의 의미역을 부여하는 기능을 한다. 자연어 처리 연구 분야에 의하면, 의미역은 크게 논항과 부가항으로 이루어진다. 아래 표 3은 논항과 부가항 태그의 종류를 나타내고 있다.The semantic interpreter 414B functions to give a semantic range of each argument to a phrase unit of a sentence. According to the field of natural language processing research, the semantic domain is largely composed of arguments and additional terms. Table 3 below shows the types of arguments and supplementary tags.
구문 해석기(414A)와 의미 해석기(414B)의 예를 다음과 같은 문장으로 살펴본다.An example of the syntax interpreter 414A and the semantic interpreter 414B will be described as follows.
Tom gave an apple to Peter at 6Tom gave an apple to Peter at 6
구문 해석기(414A)를 거치면 문장의 동사를 중심으로 한 구 단위의 해석이 이루어진다.The syntax interpreter 414A is used to interpret phrases centering on verbs in sentences.
(S (NP Tom) (VP gave (NP an apple) (PP to (NP peter)) (PP at (NP 6))) .)(S (NP Tom) (VP gave (NP an apple) (PP to (NP peter)) (PP at (NP 6))).
이를 다시 의미 해석기(414B)를 통과시키면 문장의 구에 대한 의미가 주어진다.Passing it again through the meaning interpreter 414B gives the meaning of the phrase in the sentence.
(S (NP_AGENT Tom) (VP gave (NP_THEME an apple) (PP_BENEFICIARY to (NP Peter)) (PP_TIME at (NP 6))) .)(S (NP_AGENT Tom) (VP gave (NP_THEME an apple) (PP_BENEFICIARY to (NP Peter)) (PP_TIME at (NP 6))).)
문장 저장부(310)에 저장되는 문장은 위와 같은 구문 해석과 의미 해석을 거쳐서 저장되나, 이와 달리 일반적인 문장을 그대로 저장하고 필요시에 구문 해석과 의미 해석을 하여 처리하는 방법도 가능하다.Sentences stored in the
한편, 공간 추론기(420)는 세계좌표계 상으로 로봇이 존재하는 공간에 대한 물체들의 배치를 나타내는 것이며, 필요시 과거의 사건을 회상할 경우 과거 기억의 공간적 상황에 대해 추론하는 기능을 한다. 도 4는 공간 추론기의 예를 보여주고 있다. 공간 추론기(420)가 현재의 공간적 상황을 나타내는 방법은, 시각 모듈(110)에서 시각 모듈(110)과 연결되어 있는 카메라로부터 물체의 형상을 인식하고 그 결과를 공간 추론기(420)에 표시한다. 그리고 공간 추론기(420)는 기억부(300)에 저장된 지금까지의 시각적 인식을 근거로 하여 현재 상태에 대해 세계좌표계의 공간을 구성하게 된다. 여기에 카메라로 입력된 영상에서 물체를 구분하고, 그 물체의 모양과 자세를 찾는다. 여기서 자세는 물체의 세계좌표계에서의 위치와 각도를 나타내는데, 2차원으로 표현할 경우 (x, t, θ)이며, 3차원으로 표현할 경우 위치정보와 각도정보로 이루어지는 (x, y, z, α, β, γ)로 표현하게 된다. 공간 추론기(420)가 과거의 기억을 추론할 경우는 물체기술자(320)의 물체의 모양정보와 자세정보를 검색하여 과거의 기억 공간을 만들고, 물체의 중심위치를 기준으로 하여 전후좌우 등의 공간적 정보를 파악하게 된다.On the other hand, the
지식 추론기(430)는 인지 시스템의 내부에서 발생하는 지식과 관련된 추론을 하는 기능으로서 다음과 같은 기능을 가진다. 외부에 의한 지식의 재생을 요청할 경우를 예를 들면, 외부의 인간이 로봇에게 과거의 기억에 대한 질의를 할 경우, 감지부(100)의 청취 모듈(120)에 의해 인간의 음성은 문장으로 변환되고, 해석기(410)의 구문 해석기(414A)와 의미 해석기(414B)에 의해 구문 해석과 의미 해석을 거치게 된다. 의미 해석의 결과로 나타나는 질의의 내용은 지식 추론기(430)에 의해 기억부(300)를 통해 검색되고, 필요에 따라서 발화 모듈(220)에서 발화하거나 동작 모듈(210)을 통해 동작으로 연결되게 된다. 따라서 지식 추론기(430)는 IF-THEN 형태의 산출 규칙이 되고, IF에 해당하는 내용은 조건부가 되며, THEN에 해당하는 내용은 추론의 결과가 된다. 예로써, 다음의 질의를 살펴본다.The
When did Tom go to the back of PeterWhen did Tom go to the back of Peter
지식 추론기(430)의 동작은 조건문에는 상황에 대한 내용과 결과문에는 그 조건에 대한 결과로서 함수를 호출하게 된다.The operation of the
IF (WHADVP TIME) (VP go) (TENSE PAST) (1PP1 to) (LOCATION the back of Peter);IF (WHADVP TIME) (VP go) (TENSE PAST) (1PP1 to) (LOCATION the back of Peter);
THEN CALL search(TIME, AGENT, 1PP1, LOCATION);THEN CALL search (TIME, AGENT, 1PP1, LOCATION);
추론 관리부(400)는 지식 추론기(430)와 공간 추론기(420) 중 적어도 하나에 의해 추론된 결과를 가지고 문장 발생기(413)에 의해 문장으로 발생하여 발화 모듈(220)을 통해 음성으로 변환 후 스피커로 출력되거나, 동작기술자(330)에 기술된 로봇의 동작 및 그 동작 순서를 조합하여 행위 모듈로 출력하여 로봇의 액추에이터를 구동함으로써 로봇이 동작하도록 한다. 아니면 추론 관리부(400)는 추론 결과에 따라 발화 행위 및 동작 행위를 모두 수행하도록 할 수도 있다.The
한편, 물체기술자(320)에 대해 표 4를 이용하여 설명하면 다음과 같다.On the other hand, the
물체기술자(320)는 물체에 대한 자료를 저장하는 자료 공간으로서, 시각 모듈(110)에 의해 인식된 물체의 모양과 자세를 저장하며, 물체의 특징 등을 저장하고 인지 시스템이 알고 있는 최근의 자세를 저장한다.The
동작기술자(330)에 대해 표 5를 이용하여 설명하면 다음과 같다.The
동작기술자(330)는 로봇의 동작에 있어서 기초가 되는 동작들의 집합이다. 표 5는 로봇이 물체를 집는 명령, 즉 “hold X”라는 명령을 받았을 때 취하는 동작이다. 여기서 각 문장은 기초 동작들이며, 이것의 조합에 의해 완전한 하나의 의미 있는 동작이 이루어진다.The
도 5는 본 발명의 일 실시예에 따라 인지 시스템의 시각 모듈에서 발생하는 사건에 대한 인지 방법 흐름도이다.5 is a flowchart illustrating a method for an event occurring in a visual module of a cognitive system according to an embodiment of the present invention.
시각 모듈(110)은 카메라로부터 지속적으로 영상을 입력받고 있으며, 입력되는 카메라 영상에 변화가 일어나면 영상 내부의 물체를 인식한다(S510)(S520). 여기서 물체를 인식한다는 것은 물체의 위치와 회전 및 물체의 형태를 인식한다는 의미이다. 인식이 완료되면, 추론 관리부(400)는 인식된 물체와 물체기술자(320)의 물체 데이터들과 비교한다(S530). 추론 관리부(400)는 비교를 통해 인식된 물체에 대해 물체기술자(320)에 기술된 물체들 중 동일 물체가 존재하는지를 판단한다(S540). 동일 물체가 존재하면, 추론 관리부(400)는 인식된 물체와 동일 물체의 자세를 비교하여 동일한 자세인지를 판단한다(S550). 동일한 자세가 아니면, 추론 관리부(400)는 물체기술자(320)에 자세 정보를 변경한다(S560). 한편, 동일 물체가 존재하지 않으면, 추론 관리부(400)는 인식된 물체가 로봇이 새롭게 접한 물체이므로 이를 물체기술자(320)에 등록한다(S570). 또한 물체기술자(320)가 변경된 경우 시간 모듈 상에 새로운 사건이 발생한 것이므로, 문장 저장부(310)에 그 사건을 문장으로 표현하여 등록한다(S580)(S590). 이때 추론 관리부(400)는 사건을 문장으로 표현하기 위해 시각 해석기(411)를 이용한다.The
상기 문장저장부(310)에 문장을 등록하기 위한 방법을 상세히 설명하면, 시각모듈(110)에서 물체의 모양과 자세정보를 검출하면, 시각해석기(411)에서 물체기술자(320)에 저장된 물체들과 비교하여 사건의 변경 여부를 결정한다. 만약 물체의 변동이 이루어 졌다고 한다면 문장발생기(413)에서 그 사건에 대한 내용을 문장으로 만들어 문장저장부(310)에 저장한다. 그 사건은 크게 두 가지로 나누어지는데, 새로운 물체가 등장한 경우와, 저장된 물체의 자세가 바뀐 경우이다. 먼저 새로운 물체가 등장한 경우는 The method for registering a sentence in the
A new object appeared at x1,y1,θ1A new object appeared at x1, y1, θ1
라고 표현될 수 있다. 여기서 ‘A new object’ 는 임의의 새로운 물체를 지칭하는 것이며, ‘appeared ’는 공간추론기(420) 상의 현재의 장면에 새로운 물체가 등장했음을 알리는 동사로 작용하며, ‘at'은 물체의 자세를 나타낸다. 여기서 ‘A new object’와 ‘appeared ’와 ‘at'는 문장발생기에서 자동으로 발생시키게 되며 (x1,y1,θ1)의 값은 청취모듈에서 인식된 값을 대응시킨다.It can be expressed as. Here, 'A new object' refers to an arbitrary new object, 'appeared' serves as a verb indicating that a new object has appeared in the current scene on the
센서모듈은 로봇에게 부착된 인간의 음성외의 모든 센서를 나타내며, 음향의 경우에도 자연어 인식은 청취모듈의 역할이나 외부의 노이즈나 음향 그리고 인간의 음성에서 나타나는 음성세기나 무드(mood)등은 모두 센서모듈에 해당된다. 센서모듈이 인식되는 과정과 해석되는 과정은 시각모듈의 것과도 유사한 과정인데, 센서는 외부로부터의 감지 정보를 이용하므로 외부로부터 감지된 정보를 해석하고 그 결과를 문장으로 발생시키게 된다. 센서로부터의 감지된 정보는 크게 센서의 종류, 센싱된 정보의 강도(intesnsity), 센싱정보의 시간적 연속성과 시간에 따른 신호의 특성 등이 된다. 이러한 센서정보는 센서모듈(120)에 의해 인식되어지며 그 내용은 센서해석기에서 의미를 정의하고 문장발생기에서 문장으로 발생시키게 된다. 예를 든다면 촉각센서에서 가벼운 두드림의 상황이 발생하면,The sensor module represents all sensors other than the human voice attached to the robot, and in the case of sound, the natural language recognition is the sensor of the listening module, the external noise or sound, and the voice intensity or mood appearing in the human voice. This is the module. The process of recognizing and interpreting the sensor module is similar to that of the visual module. Since the sensor uses the sensed information from the outside, the sensor interprets the information sensed from the outside and generates the result as a sentence. The sensed information from the sensor is largely the type of the sensor, the intensity of the sensed information, the temporal continuity of the sensing information and the characteristics of the signal over time. Such sensor information is recognized by the
Someone touches me.Someone touches me.
촉각센서에서 강하게 치는 상황이 발생하면,If you hit hard with the tactile sensor,
Someone beats me.Someone beats me.
라는 문장으로 표현한다. 여기서 ‘Someone’는 현재까지 확인되지 않은 에이전트를 의미하며 에이전트는 인간이나 로봇 동물이 될 수 있다. 'me'는 대상이 다른 에이전트가 아닌 로봇 자신임을 나타낸다. ‘touches'와 ’beats'는 센서해석기의 해석에 의해 결정되는데 센서해석기에 감지된 촉각센서의 정보의 세기가 미리 사전에 정의한 기준을 넘어선 경우와 그렇지 않은 경우에 따라 결정되는 것이다.Is expressed as a sentence. Here, "Someone" means an agent that has not been identified to date, and the agent may be a human or a robot animal. 'me' indicates that the target is the robot itself, not another agent. 'Touches' and 'beats' are determined by the interpretation of the sensor analyzer, which is determined when the intensity of the information of the tactile sensor detected by the sensor analyzer exceeds or exceeds the predefined criteria.
도 6은 본 발명의 일 실시예에 따라 인지 시스템의 청취 모듈에서 발생하는 사건에 대한 인지 방법 흐름도이다.6 is a flowchart illustrating a method for an event occurring in a listening module of a cognitive system according to an embodiment of the present invention.
청취 모듈(120)은 마이크를 통해 음성을 입력받는다(S610). 청취 모듈(120)은 입력된 음성을 내장된 음성 인식 기능을 통해 문장으로 변환한다(S620). 추론 관리부(400)의 문장 해석기(414)를 이용하여 변환된 문장의 의미를 해석하는데, 바람직하게 구문적 해석과 의미적 해석 과정을 수행한다(S630). 추론 관리부(400)는 구문적 해석과 의미적 해석이 완료된 문장을 문장 저장부(310)에 저장한다(S640). 이때 추론 관리부(400)는 그 문장에 대한 사건이 언제 일어났는지를 알 수 있도록 시간 태그를 함께 붙여 문장 저장부(310)에 저장한다. 추론 관리부(400)는 공간 추론기(420)와 지식 추론기(430) 중 적어도 하나를 이용하여 문장의 의미를 해석하는데, 이때 각 논항의 의미를 따라서 추론하게 된다(S650). 추론이 완료되면, 추론 관리부(400)는 추론 결과를 동작 모듈(210) 및/또는 발화 모듈(220)로 출력하여 추론 결과에 대한 행위를 실행시킨다(S660).The
도 7은 본 발명의 일 실시예에 따라 인지 시스템의 행위 모듈에서 발생하는 사건에 대한 인지 방법 흐름도이다.7 is a flowchart illustrating a method for an event occurring in an action module of a cognitive system according to an embodiment of the present invention.
추론 관리부(400)는 지식 추론기(430)를 이용하여 생성 규칙에 따라 행위 명령을 내리게 되며, 그 결과로 동작기술자(330)에 있는 동작을 검색하게 된다(S710)(S720). 추론 관리부(400)는 검색 결과에 따라 동작 모듈(210)을 통해 액추에이터를 구동하여 동작을 실행한다(S730).The
도 8은 본 발명의 일 실시예에 따라 인지 시스템의 발화 모듈에서 발생하는 사건에 대한 인지 방법 흐름도이다.8 is a flowchart illustrating a method for an event occurring in a speech module of a cognitive system according to an embodiment of the present invention.
새로운 물체가 발견되면, 추론 관리부(400)는 물체기술자(320)에 그 물체의 라벨이 존재하지 않음을 확인한다(S810). 추론 관리부(400)는 그 존재 없음을 확인한 후, 지식 추론기(430)에게 발화 문장을 작성하게 하고, 이어서 그 작성된 문장을 발화 모듈(220)에서 음성으로 변환하여 출력하도록 한다(S820)(S830).If a new object is found, the
도 7과 함께 행위부에 해당하는 동작모듈과 발화모듈의 예를 구체적으로 들면 다음과 같다. 동작모듈은 추론관리부에 의해 로봇의 동작이 요청되는 경우에 로봇이 가지고 있는 모터와 같은 엑츄에이터(actuator)에 의해 이루어지는 동작을 실행하는 기능을 한다. 예를 들어 외부인 인간이 청취모듈로 통해 다음과 같은 명령이 주어졌다고 하자.A detailed example of the operation module and the speech module corresponding to the acting unit together with FIG. 7 is as follows. The operation module functions to execute an operation made by an actuator such as a motor of the robot when the operation of the robot is requested by the inference management unit. For example, let's say that an external human is given the following command through a listening module.
Hold the cup.Hold the cup.
청취모듈은 이를 문장으로 만들고 문장저장부(310)에 문장해석기(414)를 통해 해석된 문장을 저장한다. 동시에 문장해석기(414)는 그 내용을 해석하여 지식추론기에 전달한다. 지식추론기(430)에는 상기한 바와 같이 어떤 상황에 대한 IF-THEN 형태의 추론이 이루어진다.The listening module makes the sentence and stores the sentence interpreted through the
IF (VP_IMPERATIVE hold) (OBJ the cup)IF (VP_IMPERATIVE hold) (OBJ the cup)
THEN CALL hold(the cup)THEN CALL hold (the cup)
이라는 추론의 결과에 의해 hold(the cup)이라는 동작 함수가 호출되는 것이다. 이에 따라 표 5와 같이 동작기술자에 존재하는 'hold X'를 호출하게 되면 컵을 집는 과정을 'hold X'에 포함된 기초 동작들의 함수를 호출함으로써 순서대로 컵을 집는 동작을 진행하게 되는 것이다.By the result of inference, the action function called hold (the cup) is called. Accordingly, when the 'hold X' is present in the motion descriptor as shown in Table 5, the process of picking the cup is performed by calling the functions of the basic operations included in the 'hold X'.
다음으로 도 8과 함께 발화모듈에 해당하는 경우를 예를 들면 다음과 같다. 발화모듈은 추론관리부의 요청에 의해 외부로 음성이 출력되는 것을 말한다. 발화모듈이 동작되는 경우는 크게 인지시스템 내부의 요청과 외부 세계의 요청에 의해 이루어 진다. 내부의 요청의 경우를 예를 들면, 상기한 바와 같이 새로운 물체가 등장하면 이에 대한 정보를 물체기술자에 저장하게 된다. 그런데 이 저장된 물체기술자(320)의 이름칸(label slot)에 물체의 이름(label)이 없는 상태이다. 따라서 이 물체를 가지고 인간과 대화할 수 없다. 따라서 새로운 물체를 발견하였을 때 즉시 그 물체에 대한 이름을 인간에게 질의한다. 이 과정은 지식추론기(430)가 일정시간 간격으로 물체기술자(320)의 상태를 점검하며 만약 이름이 없는 경우가 존재하면 발화모듈로 이름을 묻는 문장을 발생시키게 된다. Next, for example, the case corresponding to the speech module in conjunction with FIG. The speech module refers to the output of voice to the outside at the request of the inference management unit. When the speech module is operated, it is largely made by a request inside the cognitive system and a request from the outside world. In the case of an internal request, for example, as described above, when a new object appears, information about this is stored in the object descriptor. However, there is no label of an object in a label slot of the stored
IF label( Obj) == 0 ;IF label (Obj) == 0;
THEN CALL sentence(Obj);THEN CALL sentence (Obj);
예를 들어 오렌지 색깔의 둥근 물체가 있으면 지식추론기는 문장발생기로 통해 'sentence(Obj)‘라는 함수를 이용하여 다음과 같은 문장을 발생시키게 된다.For example, if there is a round object of orange color, the knowledge reasoner generates the following sentence using the function 'sentence (Obj)' through the sentence generator.
What is the new orange objectWhat is the new orange object
다음으로는 외부세계의 요구에 의해 발화되는 경우를 예를 드는데 주로 외부의 인간의 질문에 대한 답을 하는 경우이다. 예를 들어 외부 세계에서 청취모듈로 다음과 같은 문장이 입력되었다고 한다면,Next, the case is ignited by the demands of the outside world, mainly the answer to external human questions. For example, if the following sentence is input to the listening module from the outside world,
When did Ele go to the back of PupyWhen did Ele go to the back of Pupy
이 문장의 의미는 공간추론기로 통해 과거의 사건을 추론을 요청하고 그 결과를 발화모듈로 출력할 것을 요청하는 것이다. 'When'은 사건 발생의 시점을 묻는 것이며, 'go'는 'Ele'라는 물체가 이동한 사건을 나타내는 것이며 'to'는 물체가 향하는 방향성을 나타내는 것이며, "the back of Pupy" 목표 위치를 나타내는 것이다. 이에 대해 공간추론기는 문장메모리와 물체기술자의 정보를 이용하여 시점을 현재로부터 과거로 이동하면서 물체의 상호관계를 추론하게 된다. 문장메모리에 정의된 'Pupy'와 과거의 위치정보를 상호 비교하면서 'Ele'가 'Pupy'의 중심위치보다 뒤쪽으로 이동한 사건과 그 사건이 일어난 시점을 찾는다. 찾아진 후 그 사건을 다음과 같은 문장으로 문장발생기에서 만들어서 발화모듈로 통해 말로 출력되는 것이다.The meaning of this sentence is to request the reasoning of past events through the spatial reasoner and to output the result to the speech module. 'When' asks the time of occurrence of the event, 'go' indicates the event that the object called 'Ele' has moved, 'to' indicates the direction the object is facing, and indicates the target location of the "the back of Pupy". will be. On the other hand, the spatial inference machine uses the sentence memory and the information of the object descriptor to infer the interrelation of objects while moving the viewpoint from the present to the past. By comparing 'Pupy' defined in sentence memory with past positional information, we find the case where 'Ele' moves backward from the central position of 'Pupy' and when the event occurred. After finding, the event is made in the sentence generator with the following sentence and output in words through the speech module.
Ele went to the to the back of Pupy at 10:51Ele went to the to the back of Pupy at 10:51
이러한 일련의 과정을 나타내는 문장저장부의 예를 들면 다음과 같다. 각 문장들은 해석기를 거치지 않은 문장만을 나타내었다. An example of a sentence storage unit representing such a series of processes is as follows. Each sentence represents only a sentence without an interpreter.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. So far I looked at the center of the preferred embodiment for the present invention.
본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.
100 : 감지부 110 : 시각 모듈
120 : 청취 모듈 130 : 센서 모듈
200 : 행위부 210 : 동작 모듈
220 : 발화 모듈 300 : 기억부
310 : 문장 저장부 320 : 물체기술자
330 : 동작기술자 400 : 추론 관리부
410 : 해석기 411 : 시각 해석기
412 : 센서 해석기 413 : 문장 발생기
414 : 문장 해석기 414A : 구문 해석기
414B : 의미 해석기 420 : 공간 추론기
430 : 지식 추론기 100: detector 110: visual module
120: listening module 130: sensor module
200: action unit 210: operation module
220: ignition module 300: storage unit
310: sentence storage unit 320: object descriptor
330: motion engineer 400: inference management
410: interpreter 411: visual analyzer
412
414: Parsing Interpreter 414A: Parsing Interpreter
414B: Semantic Interpreter 420: Spatial Reasoner
430: Knowledge Reasoner
Claims (22)
상기 로봇의 외부로 행위하기 위한 행위부와;
상기 로봇의 기억이 저장되기 위한 기억부 및;
상기 감지부에 의해 감지된 정보를 문장으로 표현하여 상기 기억부에 저장하며, 상기 기억부에 저장된 기억을 추론하고 그 추론 결과에 따라 상기 행위부를 통해 외부로 행위하게 하는 추론 관리부를 포함하되;
상기 추론 관리부는 상기 로봇의 맥락적 기억을 위해 시간 태그와 함께 문장을 기억부에 저장하고,
상기 감지부는 카메라 영상을 획득하기 위한 시각 모듈와,
외부 음성을 획득하기 위한 청취 모듈 및,
상기 감지부는 하나 이상의 센싱 데이터를 획득하기 위한 센서 모듈을 구비하고,
상기 행위부는 상기 로봇의 동작을 위한 액추에이터를 구동하는 동작 모듈 및,
상기 로봇의 발화를 위해 발화 문장을 음성으로 변환하여 스피커로 출력하는 발화 모듈을 구비하며,
상기 기억부는 문장이 저장되기 위한 문장 저장부와,
상기 시각 모듈에 의해 획득된 물체 정보가 저장되기 위한 물체기술자 및,
상기 로봇의 동작과 그 동작 순서에 대한 정보가 저장되기 위한 동작기술자를 구비하고,
상기 추론 관리부는 상기 감지부를 통해 감지된 정보를 해석하여 문장으로 표현하고, 상기 추론 결과에 따라 상기 행위부를 제어하여 행위를 수행하는 해석기와,
상기 의미 해석된 문장에 대해 상기 기억부를 통해 추론하는 지식 추론기 및,
상기 시각 모듈에 의해 획득된 카메라 영상에서 물체를 구분하고 그 구분된 물체의 모양과 자세를 파악하여 상기 물체기술자를 갱신하기 위한 공간 추론기를 구비하며,
상기 해석기는 상기 문장을 구 단위로 해석하는 구문 해석기(syntactic parser)와 상기 구문 해석된 문장의 구에 대한 의미를 해석하는 의미 해석기(semantic parser)를 포함하는 문장 해석기를 구비하는 것을 특징으로 하는 서비스 로봇을 위한 맥락적 상호작용이 가능한 인지 시스템.A sensing unit for sensing external information of the robot;
An acting unit for acting outside of the robot;
A storage unit for storing the memory of the robot;
A reasoning management unit expressing the information sensed by the sensing unit in a sentence and storing the information in the storage unit, inferring the memory stored in the storage unit, and acting externally through the acting unit according to the inference result;
The reasoning management unit stores the sentence in the storage unit along with the time tag for the contextual memory of the robot,
The detection unit and a visual module for obtaining a camera image;
A listening module for obtaining an external voice,
The sensing unit includes a sensor module for obtaining one or more sensing data,
The acting unit is an operation module for driving an actuator for the operation of the robot,
It has a speech module for converting the spoken sentence into a voice for outputting the robot to output a speaker,
The memory unit is a sentence storage unit for storing the sentence,
An object descriptor for storing object information obtained by the visual module;
An operation descriptor for storing information about the operation of the robot and its operation sequence;
The reasoning management unit interprets the information sensed through the sensing unit to express the sentence, and an interpreter for performing an action by controlling the acting unit according to the inference result;
A knowledge reasoner which infers the meaning-interpreted sentence through the storage unit;
And a spatial inference device for classifying objects in the camera image obtained by the visual module, grasping the shape and posture of the separated objects, and updating the object descriptors.
The parser includes a sentence parser including a syntactic parser that parses the sentence in phrase units and a semantic parser that interprets the meaning of the phrase of the parsed sentence. Cognitive system with contextual interaction for robots.
상기 공간 추론기는 상기 로봇의 과거의 공간 기억을 추론할 경우, 상기 물체기술자의 물체의 모양정보와 자세정보를 검색하여 과거의 기억 공간을 만들고 물체의 중심위치를 기준으로 하여 전후좌우 공간정보를 추론함을 특징으로 하는 서비스 로봇을 위한 맥락적 상호작용이 가능한 인지 시스템.The method of claim 11,
When the spatial inference machine deduces the past spatial memory of the robot, the shape descriptor and the posture information of the object descriptor are searched to create the past memory space and the spatial information is deduced from the front, rear, left, and right based on the center position of the object. Contextually cognitive system for service robots.
상기 추론 관리부는 상기 지식 추론기와 상기 공간 추론기 중 적어도 하나에 의해 추론된 결과에 따라 문장을 발생시켜 상기 발화 모듈로 출력하거나 상기 동작기술자에 기술된 로봇의 동작 및 그 동작 순서를 조합하여 상기 행위 모듈로 출력함을 특징으로 하는 서비스 로봇을 위한 맥락적 상호작용이 가능한 인지 시스템.The method of claim 12,
The reasoning management unit generates a sentence based on a result inferred by at least one of the knowledge reasoner and the spatial reasoner and outputs the sentence to the speech module or combines the motions and the sequence of operations of the robot described in the motion descriptor. A contextually interactive cognitive system for service robots characterized by modular output.
상기 해석된 문장을 상기 로봇의 기억부에 저장하는 단계;
상기 해석된 문장의 내용을 추론하는 단계 및;
상기 추론 결과에 대한 행위를 실행하는 단계를 포함하되;
상기 해석 단계는 상기 음성이 변환된 문장을 구 단위로 구문 해석하는 단계 및,
상기 구문 해석된 문장의 구에 대한 의미를 해석하는 단계를 구비하고,
상기 저장 단계는 상기 로봇의 맥락적 기억을 위해 시간 태그와 함께 문장을 저장하며,
상기 추론 단계는 시간별로 저장된 문장과 카메라 영상을 통해 획득된 물체들에 대한 정보가 저장된 물체기술자가 저장된 상기 로봇의 기억부를 검색하여 상기 해석된 문장의 내용을 추론함을 특징으로 하는 서비스 로봇의 맥락적 상호작용을 위한 인지 방법.Interpreting the sentence in which the voice is converted by the listening module of the robot;
Storing the interpreted sentence in a memory of the robot;
Infer contents of the interpreted sentence;
Executing an action on the inference result;
The interpreting step may include: parsing the sentence in which the speech is converted into phrases;
Interpreting the meaning of the phrase in the parsed sentence,
The storing step stores a sentence with a time tag for the contextual memory of the robot,
The reasoning step is a context of a service robot, characterized by inferring the contents of the interpreted sentence by searching the memory of the robot, in which an object descriptor storing information about objects acquired through a sentence and a camera image stored by time is stored. Cognitive method for enemy interaction.
상기 추론 단계는 상기 해석된 문장의 내용에 따라 상기 로봇의 과거의 공간 기억을 추론할 경우, 상기 물체기술자의 물체의 모양정보와 자세정보를 검색하여 과거의 기억 공간을 만들고 물체의 중심위치를 기준으로 하여 전후좌우 공간정보를 추론함을 특징으로 하는 서비스 로봇의 맥락적 상호작용을 위한 인지 방법.18. The method of claim 17,
In the deduction step, when inferring the past spatial memory of the robot according to the contents of the interpreted sentence, the object descriptor searches for shape information and posture information of the object to create a past memory space and refers to the center position of the object. Cognitive method for contextual interaction of service robot characterized by inferring front, rear, left and right spatial information.
상기 실행 단계는 상기 추론 결과에 따라 문장을 발생시켜 상기 로봇의 발화 모듈로 출력하거나 상기 기억부의 동작기술자에 기술된 로봇의 동작 및 그 동작 순서를 조합하여 상기 로봇의 행위 모듈로 출력함을 특징으로 하는 서비스 로봇의 맥락적 상호작용을 위한 인지 방법.19. The method of claim 18,
The executing step may generate a sentence according to the inference result and output the sentence to the utterance module of the robot or combine the operation of the robot described in the operation descriptor of the storage unit and the sequence of the operation to the behavior module of the robot. Cognitive method for contextual interaction of service robots.
상기 판단 결과 등록되어 있지 않으면, 상기 인식된 물체에 대한 정보를 상기 물체기술자에 새로이 등록하는 단계 및;
상기 새로운 물체 인식 사건에 대한 문장을 생성하여 상기 기억부에 저장하는 단계를 포함하되;
상기 물체기술자에 등록되는 물체에 대한 정보는 물체의 모양과 자세에 대한 정보를 포함하고,
상기 판단 결과 등록되어 있으면, 상기 인식된 물체의 자세가 상기 동일 물체의 자세와 동일한지 판단하는 단계,
상기 판단 결과 자세가 동일하지 않으면, 상기 물체기술자에 상기 동일 물체의 자세 정보를 변경하는 단계 및,
상기 동일 물체의 자세 변경 사건을 문장으로 생성하여 상기 기억부에 저장하는 단계를 구비하는 것을 특징으로 하는 서비스 로봇의 맥락적 상호작용을 위한 인지 방법.Determining whether information about the same object is registered in the object descriptor of the storage unit of the robot with respect to the object recognized in the camera image input to the robot;
If it is not registered as a result of the determination, newly registering information about the recognized object with the object descriptor;
Generating a sentence for the new object recognition event and storing the sentence in the storage unit;
The information about the object registered to the object descriptor includes information about the shape and posture of the object,
If it is registered as a result of the determination, determining whether the recognized posture of the object is the same as the posture of the same object,
If the attitude is not the same, changing the attitude information of the same object to the object descriptor;
Generating a sentence in the form of a posture change event of the same object and storing it in the storage unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110017697A KR101234289B1 (en) | 2011-02-28 | 2011-02-28 | Congitive system realizing contextual human robot interaction for service robot and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110017697A KR101234289B1 (en) | 2011-02-28 | 2011-02-28 | Congitive system realizing contextual human robot interaction for service robot and method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20120098030A KR20120098030A (en) | 2012-09-05 |
KR101234289B1 true KR101234289B1 (en) | 2013-02-18 |
Family
ID=47109155
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110017697A KR101234289B1 (en) | 2011-02-28 | 2011-02-28 | Congitive system realizing contextual human robot interaction for service robot and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101234289B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101751297B1 (en) * | 2014-02-05 | 2017-06-30 | 한국전자통신연구원 | The method of robot knowledge generation and robot mission execution planning using crowdsourcing, and the system thereof |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100813668B1 (en) | 2006-12-20 | 2008-03-14 | 한국생산기술연구원 | Emotional expression equipment and method in android robot |
KR100814569B1 (en) | 2000-10-11 | 2008-03-17 | 소니 가부시끼 가이샤 | Robot control apparatus |
KR20110003811A (en) * | 2009-07-06 | 2011-01-13 | 한국전자통신연구원 | Interactable robot |
-
2011
- 2011-02-28 KR KR1020110017697A patent/KR101234289B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100814569B1 (en) | 2000-10-11 | 2008-03-17 | 소니 가부시끼 가이샤 | Robot control apparatus |
KR100813668B1 (en) | 2006-12-20 | 2008-03-14 | 한국생산기술연구원 | Emotional expression equipment and method in android robot |
KR20110003811A (en) * | 2009-07-06 | 2011-01-13 | 한국전자통신연구원 | Interactable robot |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101751297B1 (en) * | 2014-02-05 | 2017-06-30 | 한국전자통신연구원 | The method of robot knowledge generation and robot mission execution planning using crowdsourcing, and the system thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20120098030A (en) | 2012-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6505903B2 (en) | Method for estimating user intention in search input of conversational interaction system and system therefor | |
US10810371B2 (en) | Adaptive, interactive, and cognitive reasoner of an autonomous robotic system | |
Kruijff et al. | Situated dialogue processing for human-robot interaction | |
KR102498811B1 (en) | Dynamic and/or context specific hotwords to invoke automated assistants | |
Kruijff et al. | Situated dialogue and spatial organization: What, where… and why? | |
Brick et al. | Incremental natural language processing for HRI | |
US20130031476A1 (en) | Voice activated virtual assistant | |
Kruijff et al. | Incremental, multi-level processing for comprehending situated dialogue in human-robot interaction | |
Cantrell et al. | Learning actions from human-robot dialogues | |
US10839017B2 (en) | Adaptive, interactive, and cognitive reasoner of an autonomous robotic system utilizing an advanced memory graph structure | |
Holzapfel et al. | A dialogue approach to learning object descriptions and semantic categories | |
US11074491B2 (en) | Emotionally intelligent companion device | |
Lemaignan et al. | What are you talking about? grounding dialogue in a perspective-aware robotic architecture | |
Kumar et al. | Towards multimodal coreference resolution for exploratory data visualization dialogue: Context-based annotation and gesture identification | |
KR101234289B1 (en) | Congitive system realizing contextual human robot interaction for service robot and method thereof | |
Ahn | A sentential cognitive system of robots for conversational human-robot interaction | |
Huwel et al. | Robust speech understanding for multi-modal human-robot communication | |
Bitter et al. | Natural language processing: a prolog perspective | |
Schiffer | Integrating qualitative reasoning and human-robot interaction in domestic service robotics | |
Lemaignan et al. | Dialogue in situated environments: A symbolic approach to perspective-aware grounding, clarification and reasoning for robot | |
Liu et al. | KnowledgeBot: Improving Assistive Robot for Task Completion and Live Interaction via Neuro-Symbolic Reasoning | |
Lopes et al. | Towards a personal robot with language interface. | |
Persson et al. | Fluent human–robot dialogues about grounded objects in home environments | |
Flippo | A natural human-computer interface for controlling wheeled robotic vehicles | |
Kruijff | Context-sensitive utterance planning for CCG |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160212 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20170213 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20180202 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20200203 Year of fee payment: 8 |