JP2000187435A - 情報処理装置、携帯機器、電子ペット装置、情報処理手順を記録した記録媒体及び情報処理方法 - Google Patents
情報処理装置、携帯機器、電子ペット装置、情報処理手順を記録した記録媒体及び情報処理方法Info
- Publication number
- JP2000187435A JP2000187435A JP10365944A JP36594498A JP2000187435A JP 2000187435 A JP2000187435 A JP 2000187435A JP 10365944 A JP10365944 A JP 10365944A JP 36594498 A JP36594498 A JP 36594498A JP 2000187435 A JP2000187435 A JP 2000187435A
- Authority
- JP
- Japan
- Prior art keywords
- response
- voice
- emotion
- recognition result
- voice recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
- 238000000034 method Methods 0.000 title claims description 244
- 230000010365 information processing Effects 0.000 title claims description 113
- 238000003672 processing method Methods 0.000 title claims description 38
- 230000004044 response Effects 0.000 claims abstract description 526
- 238000012545 processing Methods 0.000 claims abstract description 131
- 230000008451 emotion Effects 0.000 claims description 406
- 230000008569 process Effects 0.000 claims description 188
- 230000006854 communication Effects 0.000 claims description 62
- 230000008859 change Effects 0.000 claims description 45
- 238000004891 communication Methods 0.000 claims description 43
- 230000004936 stimulating effect Effects 0.000 claims description 24
- 230000015572 biosynthetic process Effects 0.000 abstract description 5
- 238000003786 synthesis reaction Methods 0.000 abstract description 4
- 241001465754 Metazoa Species 0.000 description 23
- 238000010586 diagram Methods 0.000 description 18
- 230000006399 behavior Effects 0.000 description 10
- 239000004973 liquid crystal related substance Substances 0.000 description 8
- 238000012790 confirmation Methods 0.000 description 7
- 230000002194 synthesizing effect Effects 0.000 description 7
- 235000013305 food Nutrition 0.000 description 6
- 235000003642 hunger Nutrition 0.000 description 6
- 238000009395 breeding Methods 0.000 description 5
- 230000001488 breeding effect Effects 0.000 description 5
- 235000021438 curry Nutrition 0.000 description 5
- 230000035922 thirst Effects 0.000 description 5
- 206010041349 Somnolence Diseases 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 235000013399 edible fruits Nutrition 0.000 description 4
- 230000006397 emotional response Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 208000032140 Sleepiness Diseases 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 235000008429 bread Nutrition 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 206010025482 malaise Diseases 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000037321 sleepiness Effects 0.000 description 2
- 235000017060 Arachis glabrata Nutrition 0.000 description 1
- 241001553178 Arachis glabrata Species 0.000 description 1
- 235000010777 Arachis hypogaea Nutrition 0.000 description 1
- 235000018262 Arachis monticola Nutrition 0.000 description 1
- 241000675108 Citrus tangerina Species 0.000 description 1
- 102100031798 Protein eva-1 homolog A Human genes 0.000 description 1
- 102100022441 Sperm surface protein Sp17 Human genes 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 235000020232 peanut Nutrition 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000003867 tiredness Effects 0.000 description 1
- 208000016255 tiredness Diseases 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- A63F13/12—
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/424—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/70—Game security or game management aspects
- A63F13/71—Game security or game management aspects using secure communication between game devices and game servers, e.g. by encrypting game data or authenticating players
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/825—Fostering virtual characters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/027—Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1081—Input via voice recognition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/20—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
- A63F2300/204—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform the platform being a handheld device
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/40—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
- A63F2300/402—Communication between platforms, i.e. physical link to protocol
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/65—Methods for processing data by generating or executing the game program for computing the condition of a game character
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8058—Virtual breeding, e.g. tamagotchi
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0638—Interactive procedures
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Robotics (AREA)
- Computer Security & Cryptography (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Computer Hardware Design (AREA)
- Toys (AREA)
- Telephonic Communication Services (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
- Mobile Radio Communication Systems (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
- Telephone Set Structure (AREA)
Abstract
ット装置、情報処理手順を記録した記録媒体及び情報処
理方法に関し、例えば携帯電話、パーソナルコンピュー
タ等の各種情報機器に適用して、一段と身近な親しみ易
い電子ペット装置、電子ペットを有する情報処理装置、
携帯機器、情報処理手順を記録した記録媒体及び情報処
理方法を提案する。 【解決手段】 ネットワークに接続して種々のデータD
Tを送受し、また音声DAにより単語を登録できるよう
にし、またユーザー認証により応答を異ならせ、また音
声入力と応答とを分類してこの分類により応答を生成
し、さらに過去の履歴により感情を変化させる。
Description
帯機器、電子ペット装置、情報処理手順を記録した記録
媒体及び情報処理方法に関し、例えば携帯電話、パーソ
ナルコンピュータ等の各種情報機器に適用することがで
きる。本発明は、応答の生成に必要な各種データをネッ
トワークを介して交換することにより、また音声にて単
語等を登録できるようにすること等により、一段と身近
な親しみ易い電子ペット装置、電子ペットを有する情報
処理装置、携帯機器、情報処理手順を記録した記録媒体
及び情報処理方法を提案する。
は、いわゆる育成シュミレーションゲームソフトが提案
されている。この育成シュミレーションゲームは、コン
ピュータによる仮想現実空間においてペット(いわゆる
電子ペットである)を飼育するゲームであり、実際に動
物のペットを飼育する場合に比して簡易にペットとの交
流を図ることができる。
においては、その日の体調、周囲の環境等により種々に
異なる挙動を示す。また飼い主自体についてもこれを認
識し、飼い主と飼い主以外とでは異なる挙動を示す。さ
らに学習により挙動が変化することもある。
子ペットにおいても再現することができれば、電子ペッ
トを一段と身近な親しみ易いものとすることができると
考ええられる。
で、さらに一段と身近な親しみ易いものとすることがで
きる電子ペット装置、電子ペットを有する情報処理装
置、携帯機器、情報処理手順を記録した記録媒体及び情
報処理方法を提案しようとするものである。
め本発明においては、情報処理装置、携帯機器又は電子
ペット装置に適用して、所定の認識ルールに従って音声
認識結果を出力する音声認識手段と、所定の感情パラメ
ータ生成ルールに従って、少なくとも音声認識結果と時
間経過とにより変化する、擬似的に感情を示す感情パラ
メータを生成する感情生成手段と、少なくとも感情パラ
メータを基準にした所定の応答生成ルールに従って、音
声認識結果に対応する応答を生成する応答生成手段とに
関し、所定のネットワークに接続して、認識ルール、感
情パラメータ生成ルール又は応答生成ルールの更新処理
を実行する通信手段、又は認識ルール、感情パラメータ
生成ルール又は応答生成ルールに必要なデータの更新処
理を実行する通信手段を有するようにする。
ト装置に適用して、所定のネットワークに接続して、少
なくとも感情パラメータ又は感情パラメータの生成に必
要なデータを取得する通信手段を有するようにし、応答
生成手段が、この通信手段により取得した感情パラメー
タによる応答、又は通信手段により取得したデータより
生成した感情パラメータによる応答を出力するようにす
る。
用して、所定のネットワークに接続して、認識ルール、
感情パラメータ生成ルール又は応答生成ルールの更新処
理を実行する通信処理、又は認識ルール、感情パラメー
タ生成ルール又は応答生成ルールに必要なデータの更新
処理を実行する通信処理とが記録されてなるようにす
る。
用して、所定のネットワークに接続して、少なくとも感
情パラメータ又は感情パラメータの生成に必要なデータ
を取得する通信処理が記録され、応答生成処理が、通信
処理により取得した感情パラメータによる応答、又は通
信処理により取得したデータより生成した感情パラメー
タによる応答を出力する処理であるようにする。
トワークに接続して、認識ルール、感情パラメータ生成
ルール又は応答生成ルールの更新処理を実行する通信処
理、又は認識ルール、感情パラメータ生成ルール又は応
答生成ルールに必要なデータの更新処理を実行する通信
処理を有するようにする。
トワークに接続して、少なくとも感情パラメータ又は感
情パラメータの生成に必要なデータを取得する通信処理
を有するようにし、応答生成処理が、通信処理により取
得した感情パラメータによる応答、又は通信処理により
取得したデータより生成した感情パラメータによる応答
を出力する処理であるようにする。
ト装置に適用して、登録の動作モードにおいて、音声認
識結果に基づいて、少なくともデータベースに単語の音
声認識結果を登録することにより、音声によりデータベ
ースを変更可能な登録手段を備えるようにする。
用して、登録の動作モードにおいて、音声認識結果に基
づいて、少なくともデータベースに単語の音声認識結果
を登録することにより、音声によりデータベースを変更
可能な登録処理を記録するようにする。
モードにおいて、音声認識結果に基づいて、少なくとも
データベースに単語の音声認識結果を登録することによ
り、音声によりデータベースを変更可能な登録処理を有
するようにする。
ト装置に適用して、音声に基づいて、ユーザーを認証す
るユーザー認証手段を備えるようにし、応答生成手段
は、ユーザー認証手段の認証結果に基づいて、音声入力
者に応じて応答を異ならせるようにする。
用して、音声に基づいて、ユーザーを認証するユーザー
認証処理が記録され、応答生成処理は、ユーザー認証処
理の認証結果に基づいて、音声入力者に応じて応答を異
ならせるようにする。
いて、ユーザーを認証するユーザー認証処理を有するよ
うにし、応答生成処理が、ユーザー認証処理の認証結果
に基づいて、音声入力者に応じて応答を異ならせるよう
にする。
ト装置に適用して、所定の応答生成ルールに従って、音
声認識結果に対応する応答を生成するにつき、音声に基
づいて、音声による入力の種類を識別する発話分類手段
を備えるようにし、応答生成ルールが、入力の種類に応
じて、入力の種類に対応する応答の分類に従って、所定
の種類の応答を除く応答を生成するルールであるように
する。
用して、所定の応答生成ルールに従って、音声認識結果
に対応する応答を生成するにつき、音声に基づいて、音
声による入力の種類を識別する発話分類処理を記録する
ようにし、応答生成ルールは、入力の種類に応じて、入
力の種類に対応する応答の分類に従って、所定の種類の
応答を除く応答を生成するルールであるようにする。
生成ルールに従って、音声認識結果に対応する応答を生
成する情報処理手順につき、音声に基づいて、音声によ
る入力の種類を識別するようにし、応答生成ルールが、
入力の種類に応じて、入力の種類に対応する応答の分類
に従って、所定の種類の応答を除く応答を生成するルー
ルであるようにする。
ト装置に適用して、少なくとも音声認識結果と対応する
感情パラメータとによる履歴を記録する履歴記録手段を
有するようにし、音声認識結果に対する感情パラメータ
の変化を履歴に応じて変化させるようにする。
用して、少なくとも音声認識結果と対応する感情パラメ
ータとによる履歴を記録する履歴記録処理が記録されて
なるようにし、音声認識結果に対する感情パラメータの
変化を履歴に応じて変化させるようにする。
音声認識結果と対応する感情パラメータとによる履歴を
記録する履歴記録処理を有するようにし、音声認識結果
に対する感情パラメータの変化を履歴に応じて変化させ
るようにする。
置に適用して、所定の認識ルールに従って音声認識結果
を出力する音声認識手段と、所定の感情パラメータ生成
ルールに従って、少なくとも音声認識結果と時間経過と
により変化する、擬似的に感情を示す感情パラメータを
生成する感情生成手段と、少なくとも感情パラメータを
基準にした所定の応答生成ルールに従って、音声認識結
果に対応する応答を生成する応答生成手段とに関し、所
定のネットワークに接続して、認識ルール、感情パラメ
ータ生成ルール又は応答生成ルールの更新処理を実行す
る通信手段、又は認識ルール、感情パラメータ生成ルー
ル又は応答生成ルールに必要なデータの更新処理を実行
する通信手段を有するようにすれば、この通信手段によ
り応答の生成に必要な各種データを送出することができ
る。従ってこのネットワークに接続された同種の機器に
おいて、この情報処理装置等における音声入力に対する
応答とほぼ同一の応答を生成でき、これによりあたかも
電子ペットを外部の機器に連れ出したかのように取り扱
いをすることができ、動物のペットを実際に飼育してい
る場合のように電子ペットを親しみ易いものとすること
ができる。
ト装置に適用して、所定のネットワークに接続して、少
なくとも感情パラメータ又は感情パラメータの生成に必
要なデータを取得する通信手段を有するようにし、応答
生成手段が、この通信手段により取得した感情パラメー
タによる応答、又は通信手段により取得したデータより
生成した感情パラメータによる応答を出力すれば、ネッ
トワークに接続された同種の機器における応答とほぼ同
一の応答を生成でき、これによりあたかもにこのネット
ワークに接続された同種の機器より電子ペットを連れ出
したかのように取り扱うことができ、動物のペットを実
際に飼育している場合のように電子ペットを親しみ易い
ものとすることができる。また必要に応じて判別可能な
単語を増大させる等により知識を増大させることもでき
る。
用して、所定のネットワークに接続して、認識ルール、
感情パラメータ生成ルール又は応答生成ルールの更新処
理を実行する通信処理、又は認識ルール、感情パラメー
タ生成ルール又は応答生成ルールに必要なデータの更新
処理を実行する通信処理とが記録されてなるようにすれ
ば、ネットワークに接続された同種の機器において、こ
の記録媒体による処理手順を実行する装置の音声入力に
対する応答とほぼ同一の応答を生成でき、これによりあ
たかも電子ペットを外部の機器に連れ出したかのように
取り扱うことができ、動物のペットを実際に飼育してい
る場合のように電子ペットを親しみ易いものとすること
ができる。
用して、所定のネットワークに接続して、少なくとも感
情パラメータ又は感情パラメータの生成に必要なデータ
を取得する通信処理が記録され、応答生成処理が、通信
処理により取得した感情パラメータによる応答、又は通
信処理により取得したデータより生成した感情パラメー
タによる応答を出力する処理であるようにすれば、この
記録媒体による処理手順を実行する装置において、ネッ
トワークに接続された同種の機器の応答とほぼ同一の応
答を生成でき、これにより動物のペットを実際に飼育し
ている場合のように、あたかもにこのネットワークに接
続された同種の機器より電子ペットを連れ出したかのよ
うに取り扱うことができ、電子ペットを親しみ易いもの
とすることができる。また必要に応じて判別可能な単語
を増大させる等により知識を増大させることもできる。
トワークに接続して、認識ルール、感情パラメータ生成
ルール又は応答生成ルールの更新処理を実行する通信処
理、又は認識ルール、感情パラメータ生成ルール又は応
答生成ルールに必要なデータの更新処理を実行する通信
処理を有するようにすれば、ネットワークに接続された
同種の機器において、この情報処理方法を実行する装置
の音声入力に対する応答とほぼ同一の応答を生成でき、
これにより動物のペットを実際に飼育している場合のよ
うに、あたかも電子ペットを外部の機器に連れ出したか
のように取り扱うことができ、電子ペットを親しみ易い
ものとすることができる。
トワークに接続して、少なくとも感情パラメータ又は感
情パラメータの生成に必要なデータを取得する通信処理
を有するようにし、応答生成処理が、通信処理により取
得した感情パラメータによる応答、又は通信処理により
取得したデータより生成した感情パラメータによる応答
を出力する処理であるようにすれば、この情報処理方法
を実行する装置において、ネットワークに接続された同
種の機器の応答とほぼ同一の応答を生成でき、これによ
り動物のペットを実際に飼育している場合のように、あ
たかもにこのネットワークに接続された同種の機器より
電子ペットを連れ出したかのように取り扱うことができ
る。また必要に応じて判別可能な単語の増大等により知
識を増大させることもできる。
ト装置に適用して、登録の動作モードにおいて、音声認
識結果に基づいて、少なくともデータベースに単語の音
声認識結果を登録することにより、音声によりデータベ
ースを変更可能な登録手段を備えるようにすれば、音声
により電子ペットが認識可能な語彙を簡易に増やすこと
ができる。これにより実際に飼育している動物のペット
に躾けを教えるように電子ペットを取り扱うことがで
き、電子ペットを親しみ易いものとすることができる。
用して、登録の動作モードにおいて、音声認識結果に基
づいて、少なくともデータベースに単語の音声認識結果
を登録することにより、音声によりデータベースを変更
可能な登録処理を記録するようにすれば、この記録媒体
による処理手順を実行する装置において、電子ペットが
認識可能な語彙を音声により簡易に増やすことができ
る。これにより実際に飼育している動物のペットに躾け
を教えるように電子ペットを取り扱うことができ、電子
ペットを親しみ易いものとすることができる。
モードにおいて、音声認識結果に基づいて、少なくとも
データベースに単語の音声認識結果を登録することによ
り、少なくとも音声によりデータベースを変更可能な登
録処理を有するようにすれば、この情報処理方法の実行
により、電子ペットが認識可能な語彙を音声により簡易
に増やすことができる。これにより実際に飼育している
動物のペットに躾けを教えるように電子ペットを取り扱
うことができ、電子ペットを親しみ易いものとすること
ができる。
ト装置に適用して、音声に基づいて、ユーザーを認証す
るユーザー認証手段を備えるようにし、応答生成手段
が、ユーザー認証手段の認証結果に基づいて、音声入力
者に応じて応答を異ならせるようにすれば、電子ペット
の応答を例えば飼い主とそれ以外の者とで異ならせるよ
うにすることができる。これにより動物のペットのよう
な挙動を実現でき、電子ペットを一段と身近な親しみ易
いものとすることができる。
用して、音声に基づいて、ユーザーを認証するユーザー
認証処理が記録され、応答生成処理が、ユーザー認証処
理の認証結果に基づいて、音声入力者に応じて応答を異
ならせるようにすれば、電子ペットの応答を例えば飼い
主とそれ以外の者とで異ならせるようにすることがで
き、これにより動物のペットのような挙動を実現して、
電子ペットを一段と身近な親しみ易いものとすることが
できる。
いて、ユーザーを認証するユーザー認証処理を有するよ
うにし、応答生成処理が、ユーザー認証処理の認証結果
に基づいて、音声入力者に応じて応答を異ならせるよう
にすれば、電子ペットの応答を例えば飼い主とそれ以外
の者とで異ならせるようにすることができ、これにより
動物のペットのような挙動を実現して、電子ペットを一
段と身近な親しみ易いものとすることができる。
ト装置に適用して、所定の応答生成ルールに従って、音
声認識結果に対応する応答を生成するにつき、音声に基
づいて、音声による入力の種類を識別する発話分類手段
を備えるようにし、応答生成ルールが、入力の種類に応
じて、入力の種類に対応する応答の分類に従って、所定
の種類の応答を除く応答を生成するルールであるように
すれば、例えば問いに対して問いを返すような不自然な
応答を防止することができる。これにより電子ペットの
応答を自然な生き生きとしたものとでき、これによって
も電子ペットを一段と身近な親しみ易いものとすること
ができる。
用して、所定の応答生成ルールに従って、音声認識結果
に対応する応答を生成する情報処理手順について、音声
に基づいて、音声による入力の種類を識別する発話分類
手段を記録するようにし、応答生成ルールが、入力の種
類に応じて、入力の種類に対応する応答の分類に従っ
て、所定の種類の応答を除く応答を生成するルールであ
るようにすれば、例えば問いに対して問いを返すような
不自然な応答を防止することができる。これにより電子
ペットの応答を自然な生き生きとしたものとでき、これ
によっても電子ペットを一段と身近な親しみ易いものと
することができる。
生成ルールに従って、音声認識結果に対応する応答を生
成する情報処理するについて、音声に基づいて、音声に
よる入力の種類を識別するようにし、応答生成ルール
が、入力の種類に応じて、入力の種類に対応する応答の
分類に従って、所定の種類の応答を除く応答を生成する
ルールであるようにすれば、例えば問いに対して問いを
返すような不自然な応答を防止することができる。これ
により電子ペットの応答を自然な生き生きとしたものと
でき、これによっても電子ペットを一段と身近な親しみ
易いものとすることができる。
ト装置に適用して、少なくとも音声認識結果と対応する
感情パラメータとによる履歴を記録する履歴記録手段を
有するようにし、音声認識結果に対する感情パラメータ
の変化を履歴に応じて変化させるようにすれば、例えば
頻繁に発生される音声に対して慣れ、親しみ等の感情の
こもった応答を形成できる。これにより電子ペットの応
答を自然な生き生きとしたものとでき、これによっても
電子ペットを一段と身近な親しみ易いものとすることが
できる。
用して、少なくとも音声認識結果と対応する感情パラメ
ータとによる履歴を記録する履歴記録処理が記録されて
なるようにし、音声認識結果に対する感情パラメータの
変化を履歴に応じて変化させるようにすれば、例えば頻
繁に発生される音声に対して慣れ、親しみ等の感情のこ
もった応答を形成できる。これにより電子ペットの応答
を自然な生き生きとしたものとでき、これによっても電
子ペットを一段と身近な親しみ易いものとすることがで
きる。
音声認識結果と対応する感情パラメータとによる履歴を
記録する履歴記録処理を有するようにし、音声認識結果
に対する感情パラメータの変化を履歴に応じて変化させ
るようにしても、例えば頻繁に発生される音声に対して
慣れ、親しみ等の感情のこもった応答を形成できる。こ
れにより電子ペットの応答を自然な生き生きとしたもの
とでき、これによっても電子ペットを一段と身近な親し
み易いものとすることができる。
発明の実施の形態を詳述する。
置を示す平面図である。この電子ペット装置1は、上端
面に引き出し可能にアンテナ2が配置され、正面上部に
液晶表示パネル3が配置される。電子ペット装置1は、
この液晶表示パネル3に、電子ペットの姿、電子ペット
からのメッセージが表示されるようになされている。ま
た電子ペット装置1は、この液晶表示パネル3の下側
に、決定、キャンセルの操作子4A及び4B、カーソル
の操作子5が配置され、これらの操作により動作モード
等を切り換え得るようになされている。
セルの操作子4A及び4Bの下側に、スピーカ6及びマ
イク7が配置され、スピーカ6及びマイク7を用いて電
子ペットと会話できるようになされている。さらに電子
ペット装置1は、ICカード8を装着できるように、背
面側にソケットが配置される。
ック図である。電子ペット装置1において、アナログデ
ィジタル変換回路(A/D)10は、図示しない増幅回
路を介してマイク7より得られる音声信号を入力し、こ
の音声信号をアナログディジタル変換処理して音声デー
タDAを生成する。アナログディジタル変換回路10
は、この音声データDAを中央処理ユニット(CPU)
11に出力する。これにより電子ペット装置1において
は、ユーザーの音声を中央処理ユニット11により解析
できるようになされている。
2は、中央処理ユニット11より出力される音声データ
DBをディジタルアナログ変換回路処理して音声信号を
生成し、この音声信号をスピーカ6より出力する。これ
により電子ペット装置1においては、電子ペットの応答
等を音声により確認することができるようになされてい
る。
13は、中央処理ユニット11の制御によりバスを介し
て入力される画像データDVにより液晶表示パネル3を
駆動し、これにより液晶表示パネル3に電子ペットの画
像を表示する。
は、操作子4A、4B、5の操作を検出して中央処理ユ
ニット11に通知する。リードオンリメモリ(ROM)
15は、中央処理ユニット11の処理プログラム、マイ
ク7より取得される音声の解析に必要な各種データ等を
格納し、中央処理ユニット11の制御によりこれら保持
したデータを出力する。ランダムアクセスメモリ(RA
M)16は、中央処理ユニット11のワークエリアを構
成し、中央処理ユニット11の処理に必要な各種データ
を一時保持する。
ット11の制御により電話回線を介して所定のネットワ
ーク18に接続し、このネットワーク18との間で種々
のデータDTを交換することにより必要に応じてランダ
ムアクセスメモリ16の内容等を更新し、さらにはこの
ランダムアクセスメモリ16に格納したデータをネット
ワークを介して所望の端末に送出する。これにより電子
ペット装置1では、電子ペットの飼育、教育に必要な各
種データを必要に応じて取得できるようになされ、さら
には電子ペットを種々の環境に連れ出し、またこれとは
逆に外部の機器の電子ペットを飼育することができるよ
うになされている。
であり、必要に応じてランダムアクセスメモリ16の内
容等を更新し、さらにはこのランダムアクセスメモリ1
6に格納したデータを記録する。これにより電子ペット
装置1では、ICカード8を他の機器との間で交換して
各種データをやり取りすることにより、電子ペットの飼
育、教育に必要な各種データを必要に応じて取得できる
ようになされ、さらには電子ペットを種々の環境に連れ
出し、またこれとは逆に外部機器の電子ペットを飼育す
ることができるようになされている。
本的な構成を機能ブロックにより示すブロック図であ
る。なおこの図1に示す機能ブロックにおいて、矩形形
状により囲って示す機能ブロックは、中央処理ユニット
11がリードオンリメモリ15に記録された処理プログ
ラムを実行して形成される機能ブロックであり、磁気デ
ィスクのシンボルにより示す機能ブロックは、リードオ
ンリメモリ15、ランダムアクセスメモリ16、ICカ
ード8により形成される機能ブロックである。
部11Aは、所定の認識ルールに従って音声データDA
を音声認識処理し、その音声認識結果を出力する。すな
わち音声認識部11Aは、HMM(Hidden Marcov Mode
l )法により、順次入力される音声データDAによる音
声を音韻により区切り、この音韻の列により認識データ
16Aを参照する。音声認識部11Aは、この参照結果
に基づいて音声データDAによる単語、文言が事前に登
録された単語、文言の場合、これら単語、文言によるテ
キストデータを認識結果として出力する。かくするにつ
き認識データ16Aは、単語、文言のテキストデータと
対応する音韻の列とが対を形成するようにして記録され
たデータベースである。これにより電子ペット装置1
は、例えば、ユーザーが「いい子だね」とマイク7に向
かって言ったとき、この音声を認識して「いい子だね」
という内容のテキスト文字列に変換し、これらにより音
声による入力を文字列による入力に変換して処理するよ
うになされている。
体調変更部11C及び感情変更部11D等を起動する。
り、またこのタイマー11Bの起動により、体調データ
16Bを更新する。ここで体調データ16Bには、現在
の電子ペットの体調を示す変数が記録されるようになさ
れている。なおこの実施の形態において、体調データ1
6Bには、図4に示すように、現在の体調を「疲れ」、
「飢え」、「渇き」、「病気」、「眠気」の5つの要素
により分類し、各要素に割り当てた値が大きい程、体調
に占める各要素が大きくなるようになされている。従っ
て図4に示す例においては、現在、疲れており、飢えも
激しいことになる。
動により体調データ16Bを更新する場合、実際のペッ
トを飼育する場合の一般的な例に従った所定のルールに
より、例えば「飢え」、「渇き」、「眠気」の変数を順
次増大させ、これにより時間が経過すると電子ペットが
空腹になるようにする。また音声認識結果により体調デ
ータ16Bを更新する場合、例えば音声認識結果により
食べ物が与えられた場合、「飢え」の変数を低減させ、
また音声認識結果により飲み物が与えられた場合、「渇
き」の変数を低減させる。さらに音声認識結果によりユ
ーザーと遊ぶ場合には、徐々に「疲れ」の変数を増大さ
せ、ユーザーにより睡眠が指示されるとタイマーとの連
動により「眠気」の変数を徐々に低減する。
り、またタイマー11Bの起動により、現在の感情デー
タ16Cを更新する。ここで現在の感情データ16Cに
は、現在の電子ペットについて、擬似的に感情を示す変
数(擬似感情パラメータ)が記録されるようになされて
いる。なおこの実施の形態においては、図5に示すよう
に、現在の感情を「怒り」、「悲しみ」、「喜び」、
「恐れ」、「驚き」、「嫌悪」の6つの要素により表
し、各要素に割り当てた値が大きい程、現在の感情を示
すようになされている。従って図5に示す例において
は、現在、電子ペットは、喜びと怒りにあふれているこ
とになる。
する場合の一般的な例に従った感情パラメータ生成ルー
ルに従ってこの感情データ16Cを更新する。すなわち
感情変更部11Dは、タイマー11Bの起動により感情
データ16Cを更新する場合、これら「怒り」、「悲し
み」、「喜び」、「恐れ」、「驚き」、「嫌悪」の6つ
の要素が徐々に所定の基準値に近づくように各要素の変
数を更新し、これにより図5に示す場合では、「怒
り」、「悲しみ」等の感情が徐々に納まるようにする。
識結果により感情データ16Cを更新する場合、音声認
識結果により性格データ16Dを検索し、この検索結果
に従って感情データ16Cを更新する。
うに、音声認識結果に含まれる文言をキーワードにして
感情データ16Cの値を変更するデータが割り当てられ
て形成されるようになされている。なお図6において
は、例えばユーザーの発生した音声に「いい」と言う文
言が含まれていた場合、「怒り」、「悲しみ」、「喜
び」、「恐れ」、「驚き」、「嫌悪」の各変数を値−
1、+2、+20、−5、+5、−1だけ変更する旨、
「いい」のキーワードに対して感情データ16Cの値を
変更するデータが割り当てられていることになる。
ーザーが「いい子だね」と発声した場合、図5について
上述した感情データを図7に示すように更新することに
なる。これにより感情変更部11Dは、所定の感情パラ
メータ生成ルールに従って、少なくとも音声認識結果と
時間経過とにより変化する、擬似的に感情を示す擬似感
情パラメータを生成する感情生成手段を構成する。
にした所定の応答生成ルールに従って、音声認識結果に
対応する応答を生成する。パターンデータ16Eは、こ
の応答を生成するルールの集合である。ここでこれらの
ルールは、図8に示すように、それぞれ音声認識結果に
含まれる単語をキーフレーズに対して、各キーフレーズ
が音声入力された場合にはどのような応答を示すかがそ
れぞれ記述されて形成される。またこのときキーフレー
ズによっては、感情データ16C、体調データ16Bに
応じて異なる応答を示すように記述される。なおこの図
8においては、説明を簡略化するために、必要最低限度
のルールを示し、実際のルールにおいては、この図8に
示す条件以外(後述する属性等)の条件が記述される。
なお体調データ16Bについても、この図8のルール2
のように体調データ16Bだけの条件により、また感情
データ16Cとの組み合わせによりルールが記述され
る。
は、「愛してる」又は「お前が好き」との文言が入力さ
れた場合には、ユーザー認証された音声入力に対しては
「ぼくも愛してるよ」又は「おわっ、ボ、ボクはオスな
んですけど」の文言を無作為に出力することを、またユ
ーザー認証されていない音声入力に対しては「変な人」
又は「あなた誰?」の文言を無作為に出力することを示
している。またルール2においては、「こんにちわ」又
は「ハロー」との文言が入力された場合には、感情デー
タの各要素「怒り」、「悲しみ」、「喜び」、「恐
れ」、「驚き」、「嫌悪」に応じてそれぞれ割り当てら
れた「うるさいなあ」、「なあに?」、「こにゃにゃち
わ」、「わお驚いた」、「あらどうも」、「呼んだ?」
の文言のうちから、最も値の大きな変数が一定値を越え
ている場合に、この変数に対応する文言を選択的に出力
することを示している。
(A);(B)」は、後述するユーザー認証等により
「TRUE」がセットされている場合には(A)を、「TRU
E」がセットされていない場合には(B)を実行する意
であり、「random(“A”,“B”」は、無作為にA又
はBを実行する意である。
においては、「喜び」の変数が最も値が大きいことによ
り、ルール2においては、喜びに対応する応答「こにゃ
にゃちわ」が選択されることになる。
感情データ16Cによる応答と同様にして、キーフレー
ズによっては体調データ16Bに応じて、さらには感情
データ16C及び体調データ16Bに応じて応答を生成
し、これにより例えば電子ペットの体調が思わしくない
場合には、相当の応答を生成するようになされている。
声認識結果に対する応答を対話履歴16Fに記録し、必
要に応じてこの対話履歴16Fを参考して応答を生成
し、これによりユーザーとの間の不自然な会話を防止す
るようになされている。また同様にして知識16Gを参
考にして応答を生成し、これにより例えばユーザーによ
って応答を切り換え、ユーザー認証等の処理を実行でき
るようになされている。
より出力される応答に従って、音声データ16Hを検索
し、検索結果より応答に対応する音声データDBを出力
する。ここで図9に示すように、音声データ16Hは、
各応答に対応する音声ファイルであり、例えば「こにゃ
にゃちわ」という応答文が作成されたとすると「voice0
005.wav 」という音声ファイルを選択し、この音声ファ
イルによる音声データDBを出力する。
より出力される応答に従って、画像データ16Iを検索
し、検索結果より応答に対応する画像データDVを出力
する。ここで図10に示すように、画像データ16I
は、各応答に対応する画像データファイルであり、例え
ば「こにゃにゃちわ」という応答文が作成されたとする
と「fig0005.bmp 」というビットマップ形成の画像ファ
イルを選択し、この画像ファイルによる画像データDV
を出力する。
することによりネットワーク接続部17を介してネット
ワーク18に接続し、体調データ16B、感情データ1
6C、対話履歴16Fを所望の機器に送出する。これに
よりこの電子ペット装置1においては、これらのデータ
を送出した機器において、この電子ペット装置1におけ
る電子ペットを再現できるようになされ、電子ペットを
種々の環境に連れ出すことができるようになされてい
る。
ネットワーク18より体調データ16B、感情データ1
6C、対話履歴16Fを取得し、これにより他の電子ペ
ット装置で飼育されている電子ペットをこの電子ペット
装置1に連れ出すことができるようになされている。こ
の場合、電子ペット装置1において、このようにして取
得した体調データ16B、感情データ16C、対話履歴
16Fによる処理においては、上述した各機能ブロック
がそれぞれこの電子ペット装置1で飼育されている電子
ペットと、外部の機器で飼育されている電子ペットとに
ついて、同時並列的に上述した処理を実行することによ
り、あたかもこの電子ペット装置1に外部より他の電子
ペットが訪問したように応答を作成する。なお図1に示
す機能ブロックにおいては、このようにして取得した体
調データ16B、感情データ16C、対話履歴16Fに
よる処理については、データの流れを省略して示す。
6A、パターンデータ16E、知識16G、音声データ
16H、画像データ16Iをネットワーク18より取得
し、これにより音声認識可能な語彙を増強し、さらには
応答の種類を増大できるようになされている。これによ
り電子ペット装置1は、いわゆる電子ペットを育てて学
習させることができるようになされている。
求に応動してステップSP1からステップSP2に移
り、この接続要求を受け付ける。なおここで接続要求
は、タイマー11Bにより一定時間毎に定期的に発生さ
れ、またユーザーによる操作子の操作により、さらには
ネットワーク18からの呼により発生する。
SP3に移り、ここで所定の回線接続処理を実行して通
信を確立する。続いて中央処理ユニット11は、ステッ
プSP4に移り、接続要求の内容に応じて対応する各種
データを送受する。続いて中央処理ユニット11は、ス
テップSP5に移り、通信を切断した後、ステップSP
6に移ってこの処理手順を終了する。
を示す図表である。電子ペット装置1においては、ネッ
トワーク接続部17に配置されたインターフェースによ
り、また通話対象のインターフェースにより、このフォ
ーマットにより伝送に供するデータが送受される。ここ
で各データDTには、ヘッダが配置され、このヘッダ内
に各データのアドレス、種類等が記述され、ヘッダ続い
て伝送に供するパターンデータ16E、認識データ16
A、音声データ16H、画像データ16I等が順次必要
に応じて割り当てられる。
を更に詳細に示す機能ブロック図である。この機能ブロ
ック図において、登録部11Iは、音声認識結果より認
識データ16Aを登録し、これによりキーボード等によ
り単語を入力しなくても音声により種々の単語を電子ペ
ットに覚え込ませることができるようになされている。
述したように、HMM法により音声データDAを処理
し、これにより音韻列による認識結果を出力する。すな
わち音声認識部11Aは、日本語による音声を音韻によ
り識別し、各音韻を示す識別子の列により日本語の発音
を記述する。ここでこれら識別子は、「b」、「d」、
「g」、「p」、「t」、「k」、「m」、「n」、
「r」、「z」、「ch」、「ts」、「y」、
「w」、「h」、「i」、「e」、「a」、「o」、
「u」、「N」、「ei」、「ou」、「s」、「s
h」、「xy」、「j」、「f」 、「sil」とによ
り構成され、「sil」は無音である。
ーザーが「みかん」と入力すると、「sil m i
k a N sil」の識別子で記述される音韻列によ
り音声入力を認識する。このため音声認識部11Aは、
順次入力される音声データDAを順次処理して音韻を識
別すると共に、、この識別結果を図14に示す文法によ
り処理し、これにより識別子の連続してなる音韻列を検
出する。なおこの図14は、上述した全ての音韻の接続
を許す文法である。
おいては、このようにして検出した識別子の列により認
識データ16Aを検索し、この検索結果より単語、文言
のテキストデータにより認識結果を出力する。これによ
りこの実施の形態において、認識データ16Aに未登録
の単語が音声入力された場合、対応するテキストデータ
を生成することが困難になり、ユーザーの問い掛けに正
しく応答することが困難になる。
ット装置1は、ネットワーク接続部17を介してネット
ワークに接続し、ネットワークより認識データ16Aを
ダウンロードし、これにより電子ペットを学習させてユ
ーザーからの種々の問い掛けに応答できるようになされ
ている。
ユニット11は、操作子4A、4Bの操作により登録モ
ードが選択されると、図15に示す処理手順を実行し、
これによりユーザーが音声により入力した単語を認識デ
ータ16Aに登録する。
の操作に応動してステップSP11からステップSP1
2に移り、登録モードに入る。続いて中央処理ユニット
11は、ステップSP12に移り、画像合成部11Gを
駆動して液晶表示パネル3に所定のメッセージを表示
し、これによりユーザーに単語の発声を促す。
SP14に移り、順次入力される音声データDAを順次
音韻列により識別して音声認識し、ユーザーが所定の操
作子を操作して音声入力の終了を指示するとステップS
P15に移る。
結果である音韻列により音声合成部11Fを駆動してユ
ーザーの入力した音声を発声し、これによりユーザーに
認識結果を提示する。すなわち中央処理ユニット11
は、例えばユーザーが「ミカン」の単語を発生し、認識
結果として「sil m i k a N sil」が
得られると、この場合「みかんですか?」との音声を発
生する。続いて中央処理ユニット11は、ステップSP
16に移り、確認の操作子4A又はキャンセルの操作子
4Bの操作を検出することにより、確認の入力を受け付
ける。
SP17に移り、キャンセルの操作子4Bが操作された
場合、提示した認識結果がユーザーにより否定されたと
判断してステップSP13に戻り、再び音声入力を受け
付ける。これに対して確認の操作子4Aがユーザーによ
り操作された場合、ユーザーにより認識結果が肯定され
たと判断し、ステップSP18に移る。
像合成部11Gを駆動して液晶表示パネル3に所定のメ
ッセージを表示し、これによりユーザーに音声入力した
単語について、属性の発声を促す。ここで属性は、単語
により特定される対象を分類するための、この対象の性
質を示すキーワードであり、この実施の形態において例
えば「ミカン」は、属性が「果物」に分類される。
SP19に移り、順次入力される音声データDAを順次
音韻列により識別して音声認識し、ユーザーが所定の操
作子を操作して音声入力の終了を指示するとステップS
P20に移る。
結果である音韻列により音声合成部11Fを駆動してユ
ーザーの入力した音声を発声し、これによりユーザーに
属性の認識結果を提示する。すなわち中央処理ユニット
11は、例えばユーザーが「ミカン」の単語を発生した
後、属性として「果物」を入力すると、この場合「くだ
ものですか?」との音声を発生する。続いて中央処理ユ
ニット11は、ステップSP21に移り、確認の操作子
4A又はキャンセルの操作子4Bの操作を検出すること
により、確認の入力を受け付ける。
SP22に移り、キャンセルの操作子4Bが操作された
場合、提示した認識結果がユーザーにより否定されたと
判断してステップSP18に戻り、属性について再び音
声入力を受け付ける。これに対して確認の操作子4Aが
ユーザーにより操作された場合、ユーザーにより認識結
果が肯定されたと判断し、ステップSP23に移る。
いては認識データ16Aに登録し、属性については知識
16Gに登録した後、ステップSP24に移ってこの処
理手順を終了する。
登録された各単語、文言について、果物、飲み物等の分
類を示す属性のデータが記録されるようになされてい
る。これにより中央処理ユニット11においては、パタ
ーンデータ16Eに属性の記述を含めることにより、例
えばユーザーに対して「好きな食べ物は何ですか」と問
い掛け、この問い掛けに対するユーザーからの「みかん
が好きだよ」の返答に対し、「私はみかんは嫌いです」
との応答を発生できるようになされている。
子ペット装置1の持ち主である飼い主の名前、好み、ネ
ットワーク18よりもたらされる天気予報等の各種デー
タが記録され、必要に応じてこれらの情報をユーザーと
の対話に利用できるようになされている。すなわち例え
なユーザが「今日の天気は?」と問いかけた場合、「今
日」、「天気」をキーフレーズにしたルールにより「晴
れです」等の応答を発生できるようになされている。
うにして音声入力により認識データ16Aを登録した場
合、この音声入力に対応する正しいテキスト(上述の例
では「みかん」を記述したテキスト)が存在しないこと
により、認証結果であるテキストデータにおいて、対応
する単語、文言については音韻列の識別子であるアルフ
ァベットの標記(上述の例では「sil m i k
a N sil」の標記)によりこれら認識データ16
Aの単語、文言を記述して処理するようになされてい
る。またネットワーク18からのダウンロードにより必
要に応じてこのテキストを補い、補った後においては、
音韻列の識別子に代えて本来のテキストにより認証結果
を処理するようになされている。
音声入力により登録した単語、文言による認識データ1
6Aについても、ネットワーク18よりダウンロードし
た単語、文言による認識データ16A、事前に登録され
ている単語、文言による認識データ16Aと同様に処理
してユーザーと対話できるようになされている。
に詳細に示す機能ブロック図である。この機能ブロック
図において、認証データ16Kは、事前の設定によりユ
ーザー名が記録される。なおこの記録は、音声認識結果
により、又は購入時に実行される初期設定処理における
外部機器からのキーボード入力等により実行される。
すパターンデータ16Eのルール1に従って、「がぉ
ー」の音声が入力された場合、「あなたは本当にご主人
様?」との応答を返す。
「$USER」により定義される事前に登録されたユーザー
名が音声入力された場合であって(myLastUtter )、直
前の応答文作成部11Eにより「あなたは本当にご主人
様?」の文言を含む応答がなされている場合、関数「au
thenticated による変数を「TRUE」にセットする(seta
uthenticated (TRUE))。
認識結果より認証データ16Kを検索し、このような条
件が満足される場合に、音声入力した者がユーザーと認
証し、認証状態16Jをユーザー認証した状態にセット
する。また上述の条件が満足されない場合には認証状態
16Jをユーザー認証していない状態にセットする。
た場合には、ルール2に従って応答文作成部11Eによ
り「ははあ、ご主人様。」との応答が発生されることに
なる。
音声に基づいて、ユーザーを認証すると共に、図8につ
いて上述したルール1のようにして、飼い主とそれ以外
の人間とで応答を異ならせることができるようになさ
れ、例えば飼い主に特有の挙動を示して実際のペットに
近い挙動を示すようになされている。
て、事前に登録した単語の有無により、音声に基づいて
ユーザーを認証するようになされている。
ように、ユーザー認証した音声入力者との対話の中で、
知識16Gに記録したユーザーの嗜好、趣味等を問い掛
ける応答の出力を応答文作成部11Eに指示する。なお
図18においては、「ご主人さまの好きな食べ物は?」
との問い掛けによりユーザー認証した音声入力者の嗜好
を問い掛けていることになる。
したルール2と同様の処理により、続いてユーザーの音
声入力より嗜好の問い掛けに対する応答を判断し、この
応答の音声認識結果よりこの場合「ピーナッツ」の単語
を認証データ16Kに登録する。
話の中で、タイマー11Bの起動により、例えば図19
に示すように、認証データ16Kに登録した嗜好、趣味
等に関する問い掛けを発生する。なおこの図19に示す
例にあっては、図18について上述した嗜好の問い掛け
に対応して、「あなた本当にご主人様?好きな食べ物は
?」と問い掛けた場合である。
いて説明したルール2と同様の処理により、続いてユー
ザーの音声入力より嗜好の問い掛けに対する応答を判断
し、この場合飼い主にあっては「ピーナッツ」の応答が
得られることにより、この応答の音声認識結果より認証
状態を「TRUE」にセットする。また応答文作成部11E
にあっては、「本当にご主人様だ!」との応答を発生す
る。
声認識結果を基準にして音声認識結果を判定することに
より、音声に基づいてユーザーを認証するようになさ
れ、さらに詳しくは過去の音声認識結果に対応する質問
を応答として出力し、この応答に対する音声認識結果を
判定してユーザー認証するようになされている。
Bにより一定時間以上音声が入力されない場合、この場
合ユーザーが立ち去った場合等であることにより、認証
状態をリセットする。
更に詳細に示す機能ブロック図である。この機能ブロッ
ク図において、発話分類部11Mは、所定の分類ルール
16Mに従って、音声認識結果を識別することにより、
音声入力による会話を分類し、その分類結果である分類
コードを応答文作成部11Eに出力する。
よう」、「こんにちは」等の挨拶一般の音声入力につい
ては、「挨拶」に分類する。また「調子はどう」、「…
…は好き」等の問い掛けの音声入力については、「質
問」に分類し、「元気だよ」、「つまらない」等の感想
を述べた音声入力については、「感想」に分類する。
6Eに従って応答文を作成する際に、パターンデータ1
6Eに記録された応答文の分類と、この発話分類部11
Mで分類された分類パターンに従って応答を作成する。
さらにこのとき必要に応じて対話履歴16Fに記録され
た過去の対話記録に従って、応答を作成する。
ルールによっては図8との対比により図21に示すよう
に、各応答文の分類が設定されるようになされている。
なおこの分類は、発話分類部11Mにおける分類に対応
するように設定される。
「ボクも愛しているよ」、「おわっ、ボ、ボクはオスな
んですけど」の応答文には「状態」の分類が設定され、
「変な人」には「感想」、「あなた誰?」には「質問」
の分類が設定されるようになされている。またルール2
においては、「うるさいなあ」には「感想」、「なあに
?」には「質問」、「こにゃにゃちわ」には「挨拶」、
「わお驚いた」には「感想」、「あらどうも」には「挨
拶」、「呼んだ?」には「質問」の分類が設定されるよ
うになされている。
分類による会話の連続を禁止する種別制約が規定される
ようになされている。具体的には、ユーザーからの質問
に対しては質問を返さないように、種別制約が設定され
る。また「挨拶」、「挨拶」のやり取が続いた場合に
は、続いて「挨拶」の応答をしないよう種別制約が設定
されるようになされている(図21の場合)。
び図23に示すように、応答文作成部11Eによりユー
ザーと電子ペットとの対話が記録されるようになされて
いる。ここでこの記録は、音声を発生した行為者、その
音声の分類、音声の内容が記録されるようになされてい
る。図22の例においては、ユーザーによる分類「挨
拶」の「こんにちわ」の音声入力に続いて、電子ペット
が分類「挨拶」の「どうも」の応答をし、続いてユーザ
ーによる分類「質問」の「調子はどう」、電子ペットに
よる分類「状態」の「元気だよ」が続いたことが記録さ
れていることになる。
6Eに従って感情データ16Cにより応答を作成する際
に、この制約条件に従って対話履歴16Fを参照して、
対話履歴16Fに従って応答を作成する。すなわち応答
文作成部11Eは、種別制約に該当する場合、すなわち
図21においては、直前に「挨拶」のやり取りが続いた
場合、例えば喜びの変数が最も大きい場合でもこのルー
ル2を適用しないようにする。また同様にして「質問」
には「質問」を返さないようにする。
「挨拶」に対して「挨拶」を返すような第1のルール
と、種々の問い掛けに対して「挨拶」を返すような第2
のルールが規定されているような場合でも、第2及び第
1のルールの繰り返しの適用により、ユーザーとの間で
「挨拶」を何度も繰り返すような不自然な会話を防止す
るようになされている。
詳細に示す機能ブロック図である。この機能ブロック図
において、感情変更部11Dは、上述したようにタイマ
ー11Bの起動により、また音声認識結果に含まれる文
言をキーワードにした性格データ16Dの検索により、
感情データ16Cを更新する。
25に示すように、感情変化履歴16Nとして、感情デ
ータ16Cを構成する各変数の変化量、音声認識結果よ
り検出して各変数の変化に使用したキーワード、音声認
識結果によるテキストデータを記録する。さらに例えば
応答を出力した後等の所定のタイミングで、この感情変
化履歴16Nを検索し、特定のキーワードと対により所
定の単語が頻繁に使用されている場合、図6との対比に
より図26に示すように、この単語をキーワードとして
性格データ16Dに登録し、この単語が単独で入力され
た場合等にあっても、同様に各変数を変化させることが
できるようにする。
を変化させるキーワードである「汚い」の単語と、「カ
レーパン」の単語とが対になって頻繁に使用され、その
使用頻度が所定値以上になると、「カレーパン」の単語
をキーワードとして性格データ16Dに登録する。また
このときこの「カレーパン」によって、「汚い」の単語
が入力された場合と同じように各変数を変化させるよう
に、各変数の変化量を設定する。
連想により特定の感情が生まれるように設定され、この
感情による応答を発生できるようになされている。
て所定のタイミングで感情変化履歴を検索する際に、併
せて変数の変化に使用する各キーワードの使用頻度を検
出する。ここで一定の頻度以上で特定のキーワードが使
用されている場合、感情変更部11Dは、図6との対比
により図27に示すように、このキーワードによる変数
の変化量を低減する。なお図27においては、「汚い」
のキーワードが頻繁に使用された結果、この「汚い」の
キーワードによる変数の変化量を低減した場合であり、
「怒り」、「悲しみ」、「喜び」、「恐れ」、「驚
き」、「嫌悪」の6つの要素について、それぞれ変化量
を−1、−1、+2、+1、−1、−4だけ変化させた
場合である。
いわゆる慣れの感覚を形成できるようになされている。
て性格データ16Dに加えた単語の音声入力頻度が低下
した場合、この単語を性格データ16Dより消去する。
また同様に、変数の変化量を変更した単語について、音
声入力頻度が低下した場合、徐々に元の変化量に戻す。
いわゆる忘れ去る状況をも作り出すことができるように
なされている。
3)、ユーザーがマイク7より音声を入力すると、中央
処理ユニット11の処理により構成される機能ブロック
である音声認識部11Aにおいて、HMM法によりこの
音声が音声認識処理される。この音声認識処理におい
て、音声は、音韻列に変換された後、認識データ16A
との照合によりテキストデータに変換される。
して生成された音声認識結果であるテキストデータが、
体調変更部11Cに入力され、ここでこの体調変更部1
1Cにより、現在の体調を示す5つの要素「疲れ」、
「飢え」、「渇き」、「病気」、「眠気」(図4)によ
り構成される体調データ16Bが音声に含まれる単語に
応じて変更される。すなわち例えば音声認識結果により
食べ物が与えられた場合、「飢え」の変数が低減され、
また音声認識結果により飲み物が与えられた場合、「渇
き」の変数が低減される。
ユーザーの音声入力により体調が変化するようになされ
ている。さらにタイマー11Bを基準にした体調変更部
11Cの処理によっても、これら5つの要素に徐々に変
更が加えられる。これにより電子ペット装置1において
は、これら5つの要素による体調がユーザーからの音声
入力により、また時間経過により変化し、この5つの要
素を基準にして音声入力に対して応答を生成することに
より、ユーザーの音声に対する応答に電子ペットの体調
が反映されるようになされている。
部11Dに与えられ、ここでこの音声認識結果に含まれ
る単語に応じて現在の感情データ16Cが変更される
(図5)。ここでこの感情データ16Cの変更において
は、感情を変化させるキーワードと、このキーワードに
対して感情の変化を記述した性格データ16Dに従って
(図6)、感情を示す6つの要素「怒り」、「悲し
み」、「喜び」、「恐れ」、「驚き」、「嫌悪」による
変数が、音声に含まれる感情を変化させる単語に応じて
更新され、これによりこれら6つの変数により感情が表
されて、この感情がユーザーの問い掛けに応じて変化す
る。
ユーザーの音声入力に応じて電子ペットの感情が変化す
るようになされている。また電子ペット装置1において
は、先の体調データ16B、この感情データ16Cを参
考にして音声認識結果に応じて応答を作成することによ
り、電子ペットの反応に、電子ペットの体調、感情が反
映される。
認識結果は、応答文作成部11Eに入力され、この応答
文作成部11Eにおいて、パターンデータ16Eに記述
されたルールに従って音声認識結果に対応する応答文が
作成される(図8)。すなわち電子ペット装置1におい
ては、音声に含まれるキーフレーズに対してそれぞれ応
答文が記述されてパターンデータ16Eが生成されてお
り、応答文作成部11Eにおいては、音声認識結果によ
りパターンデータ16Eを検索して対応する応答文を出
力する。
による応答に対して、対応する音声による応答が音声合
成部11Fにより生成されてスピーカ6より出力され
(図9)、また同様に応答に対応する画像が画像合成部
11Gにより作成されて液晶表示パネル3に表示され
(図10)、これによりユーザーの音声入力による応答
が音声及び画像により提供される。
り応答を作成する際に、パターンデータ16Eにおいて
は、体調データ16B、感情データ16Cに応じて異な
る応答を発生するようにルールが記述され、電子ペット
装置1においては、このルールに従って応答を生成し、
これによりユーザーへの応答に電子ペットの体調、感情
が反映される。
ト装置1は、ユーザーが所定の操作子を操作すると、登
録の動作モードに切り換わり、認識データ16Aにより
音声認識可能な単語、文言が音声入力により登録可能と
なる。
ペット装置1は(図13及び図15)、ユーザーが登録
する単語等の音声を音声入力すると、通常の動作モード
における処理と同様にしてこの音声入力が音韻列に変換
され(図14)、この音韻列による音声が音声合成部1
1Fより発声され、この発声によりユーザーからの確認
が得られると、続いて先に入力された単語等の属性につ
いて音声入力が受け付けられる。
ト装置1においては、音声入力が音韻列に変換され、こ
の音韻列の発声によりユーザーからの確認が得られる
と、先に入力された単語等の音韻列が認識データ16A
に登録されるのに対し、この認識データ16Aに対応す
るようにして属性のデータが知識16Gとして登録され
る。
キーボード等の煩雑な操作によらなくても音声により単
語等を登録でき、その分使い勝手を向上することができ
るようになされている。また実際に動物のペットに躾け
を教えるように電子ペットを取り扱って語彙を増大させ
ることができ、その分電子ペットを身近な親しみ易いも
のとすることができるようになされている。
単語等にあっては、通常の音声認識処理においては、音
声認識処理における音韻列により認識データ16Aが検
索されて対応するテキストデータにより音声認識結果が
出力されるのに対し、このテキストデータに代えて音韻
列により表記されたテキストデータが出力されて同様に
応答文が作成され、このとき知識16Gに記録された属
性に従って応答文が作成され、これにより例えば体調デ
ータ16Bによる空腹時、食べ物の属性による問い掛け
に対して、「食べる」、「欲しい」等の応答を発生する
ことが可能となる。
力により登録するにつき、単語と属性とを区切って、そ
れぞれ音声認識結果を発声して確認を得ることにより、
簡易かつ確実に音声入力により単語を登録することがで
きる。
をユーザーが音声入力すると、電子ペット装置1におい
ては(図16及び図17)、事前に登録された例えばユ
ーザー名等の入力を促すルール1により音声が発声さ
れ、この音声に応答するユーザーの音声入力が音声認識
処理される。電子ペット装置1においては、この音声認
識結果が音声認証部11Jにおいて、事前に登録された
例えばユーザー等による認証データ16Kと照合され、
ここでユーザー認証されれば認証状態16Jに音声入力
者がユーザーである旨セットされる。
音声入力者がユーザーの場合と、ユーザーでない場合と
で区別するパターンデータ16Eにおけるルールの記述
に従って(図8、ルール1)、応答文作成部11Eにお
いて応答文を作成する際に、この認証状態16Jが参照
され、認証状態16Jの設定に応じて異なる応答が作成
される。
動物のペットのように、飼い主に対してだけ特定の挙動
を示すように応答することが可能となり、その分電子ペ
ットを親しみ易いものとすることができるようになされ
ている。
マー11Bにより音声認証部11Jが起動されて、一定
の時間間隔でユーザー認証処理が実行される。この一定
の時間間隔によるユーザー認証処理においては、知識1
6Gに記録したユーザーの嗜好、趣味等の問い掛けに対
する応答によりユーザーか否か判断され、これによりユ
ーザー認証の処理が実行される(図18及び図19)。
会話の途中でも必要に応じて会話の相手を確かめて飼い
主に対してだけ特定の挙動を示すように応答を作成する
ことが可能となる。
き、電子ペット装置1においては(図20、図22及び
図23)、発話分類ルール16Mに従って発話分類部1
1Mににより音声入力による会話が「挨拶」、「質問」
等に分類される。さらにユーザーによる音声入力に対し
て応答を作成する際に、パターンデータ16Eに記述さ
れた種別制約(図21)により、例えばユーザーの音声
入力が「質問」の場合には、特定のキーフレーズにより
応答として「質問」がルールにより特定される場合で
も、このルールによっては応答を生成しないようになさ
れる。
「質問」に「質問」を返すような不自然な会話が防止さ
れる。
る会話の分類が逐次対話履歴16Fに記録され、ユーザ
ーによる音声入力に対して応答を作成する際に、この対
話履歴16Fに記録した分類を参照してパターンデータ
16Eに記述された種別制約(図21)に従って応答を
作成することにより、「挨拶」に対して「挨拶」を返す
ようにルールが設定されている場合でも、例えば電子ペ
ット装置による「挨拶」、ユーザーによる「挨拶」が続
いた場合には、この「挨拶」に対して「挨拶」を返すル
ールによっては応答を生成しないようになされる。
するような不自然な会話が防止され、電子ペットを身近
なものとすることができる。
4及び図25)、感情を変化させるキーワードが同時に
使用された単語、キーワードによる感情の変化と共に感
情変化履歴16Nに順次記録される。電子ペット装置1
においては、一定の時間間隔等によりこの感情変化履歴
16Nが検査され、各キーワードについて、同時に使用
される頻度の高い単語については、この単語によっても
感情が変化するように性格データ16Dにこの単語が登
録される(図26)。
例えば「汚いカレーパン」とのフレーズが繰り返された
場合には、「カレーパン」の文言の音声入力だけで、
「汚い」の文言による音声が入力された場合と同様に感
情を変化させて応答を生成することになる。
動物に例えるならば条件反射するように、また人間に例
えると連想により、種々に感情を変化させることがで
き、またこの感情の変化を応答に反映させることができ
るようになされている。
の感情変化履歴16Nの検査により、頻繁に使用されて
いる感情を変化させるキーワードについては、感情の変
化量が低減するように(図27)、性格データ16Dが
更新される。これによりいわゆる慣れの状態を形成し、
この慣れの状態を応答に反映させることが可能となる。
1においては、ユーザーの操作によりネットワーク接続
部17(図1及び図2)を介して、ネットワーク18に
接続され、認識データ16A、知識16G、パターンデ
ータ16E等の音声認識処理、応答生成処理に必要なル
ールであるこれらのデータ、知識をダウンロードするこ
とが可能となる。これによりこれら認識データ16A、
知識16Gを更新して、一段と高度な会話を楽しむこと
が可能となる。また応答の具体的な出力である音声デー
タ16H、画像データ16Iをダウンロードして、同様
に応答の表現を向上することができる。
体調データ16B、感情データ16C、対話履歴16F
を所望の機器に送出することができるようになされ、こ
れによりこれらのデータを送出した機器において、この
電子ペット装置1における電子ペットを再現できるよう
になされ、電子ペットを種々の環境に連れ出すことが可
能となる。
体調データ16B、感情データ16C、対話履歴16F
を取得し、これによりあたかもこの電子ペット装置1に
外部より他の電子ペットが訪問したように応答を作成し
て、他の電子ペット装置で飼育されている電子ペットを
この電子ペット装置1に連れ出すことができるようにな
されている。
データ、応答生成のルールであるパターンデータ、感情
生成のルールである感情データ、体調データ、音声デー
タ、画像データをネットワークを介して更新できるよう
にすることにより、ネットワークに接続された同種の機
器における応答とほぼ同一の応答を生成でき、これによ
りあたかもにこのネットワークに接続された同種の機器
より電子ペットを連れ出したかのように取り扱うことが
でき、動物のペットを実際に飼育している場合のように
電子ペットを親しみ易いものとすることができる。また
必要に応じて判別可能な単語を増大させる等により知識
を増大させることもできる。
データ等を更新するすることにより、ユーザーを何ら煩
わすことなく、知識を増大させることができる。
タ、対話履歴をネットワークにより送出することによ
り、このネットワークに接続された同種の機器におい
て、この情報処理装置等における音声入力に対する応答
とほぼ同一の応答を生成でき、これによりあたかも電子
ペットを外部の機器に連れ出したかのように取り扱うこ
とができ、動物のペットを実際に飼育している場合のよ
うに電子ペットを親しみ易いものとすることができる。
交換可能な記憶媒体であるICカードを介して実行でき
るようにしたことにより、通信機能を備えていない種々
の機器との間でもこれらの処理を実行することができ
る。
結果に基づいて、単語の音声認識結果と単語の分類とを
登録することにより、電子ペットが認識可能な語彙を音
声により簡易に増やすことができる。これにより実際に
飼育している動物のペットに躾けを教えるように電子ペ
ットを取り扱うことができ、電子ペットを親しみ易いも
のとすることができる。
識結果に従って単語の音声認識結果と分類とを記録する
ことにより、単に音声を入力するだけで他の操作を何ら
必要とすることなく登録することができる。
認識結果をテキストデータとして出力し、登録において
は音韻列の記述により登録することにより、ルール等の
記述を簡略化することができる。
を受け付けることにより、簡易にこれらの登録の処理を
実行することができる。
結果に基づいて、音声入力者に応じて応答を異ならせる
ことにより、電子ペットの応答を例えば飼い主とそれ以
外の者とで異ならせるようにすることができる。これに
より動物のペットのような挙動を実現でき、電子ペット
を一段と身近な親しみ易いものとすることができる。
して音声認識結果を判定してユーザーを認証することに
より、例えばパスワード等の入力を求めることなく、会
話を通じてユーザー認証することができ、その分使い勝
手を向上することができる。
にした質問に対する答えを判定してユーザー認証するこ
とによっても、また所定の単語の発声によりユーザー認
証することによっても、自然な会話を通じてユーザー認
証することができ、その分使い勝手を向上することがで
きる。
の種類に対応する応答の分類に従って、所定の種類の応
答を除く応答を生成することにより、例えば問いに対し
て問いを返すような不自然な会話を防止することができ
る。これにより電子ペットの応答を自然な生き生きとし
たものとでき、これによっても電子ペットを一段と身近
な親しみ易いものとすることができる。
とによる履歴を参照して応答を生成することにより、挨
拶を繰り返しやり取りするような不自然な会話を防止す
ることができる。これにより電子ペットの応答を自然な
生き生きとしたものとでき、これによっても電子ペット
を一段と身近な親しみ易いものとすることができる。
ータとによる履歴に応じて感情パラメータの変化量を変
化させることにより、例えば頻繁に発生される音声に対
して慣れ、親しみ等の感情のこもった応答を形成するこ
とができる。これにより電子ペットの応答を自然な生き
生きとしたものとでき、これによっても電子ペットを一
段と身近な親しみ易いものとすることができる。
が、この感情を刺激する単語を同時に頻繁に使用される
場合、該単語によっても感情パラメータを変化させるこ
とにより、繰り返し対により使用される単語にも感情を
変化させて応答することができる。
単語が頻繁に使用される場合、該感情を刺激する単語に
より感情パラメータの変化量を低減することにより、い
わゆる慣れの感情を生成することができる。
して電子ペットを外出させ、また外部機器の電子ペット
の応答を出力し、さらには各種ルール等を学習させる場
合について述べたが、本発明はこれに限らず、必要に応
じてこれら何れかの処理のみ実行するようにしてもよ
い。また定期的なアクセス、ユーザーの操作によるアク
セス、外部機器からの呼によるアクセスの何れかにより
ネットワークにアクセスするようにしてもよい。
線によりネットワークに接続する場合について述べた
が、本発明はこれに限らず、モデム、パーソナルコンピ
ュータ等の他の機器を介してネットワークに接続する場
合にも広く適用することができる。
データ、パターンデータ、音声データ、画像データのダ
ウンロードによりいわゆる電子ペットを学習させる場合
について述べたが、本発明はこれに限らず、必要に応じ
てこれらの何れかのデータのダウンロードにより学習さ
せるようにしてもよい。また音声認識処理の手法、音声
データの生成手法、画像データの生成手法である制御プ
ログラム自体のダウンロードによりこれらの生成手法自
体変更するようにしてもよく、さらには感情データの生
成手法、応答文作成部の処理等についても変更するよう
にしてもよい。
ットを外部の機器に連れ出すにつき、体調データ、感情
データ、対話履歴を送出する場合について述べたが、本
発明はこれに限らず、必要に応じてこれらの何れかのデ
ータの送出によりこの処理を実行してよく、さらにはこ
れらのデータに加えて例えば知識等を送出するようにし
てもよい。またこのようなデータの送出に代えて、外部
機器からの音声認識結果の入力に対して応答を送出する
ようにしてもよい。
器の電子ペットをこの電子ペット装置1に連れ出すにつ
き、各種データを入力する場合について述べたが、本発
明はこれに限らず、上述した各種データの何れかのデー
タの受信によりこの処理を実行してもよく、さらにはこ
れらのデータに加えて例えば知識等を受信してこれらの
処理を実行してもよい。またこのようなデータを受信し
た内部処理に代えて、外部機器に対して音声認識結果を
出力し、外部機器より応答を入力するようにしてもよ
い。
音韻列により判定して音声認識する場合について述べた
が、本発明はこれに限らず、必要に応じて種々の音声認
識手法を広く適用することができる。
共に属性についても音声入力により発録する場合につい
て述べたが、本発明はこれに限らず、属性については操
作子の操作により選択入力するようにしてもよい。この
場合ユーザーにメニューの選択を促す方法等が考えられ
る。
力により登録した認証データについては、音韻列により
音声を表記したテキストデータにより音声認識結果を出
力し、一般の音声認識結果については、通常のテキスト
データを出力する場合について述べたが、本発明はこれ
に限らず、一般の音声認識結果においても、音韻列によ
り音声認識結果を表示するようにしてもよい。
ー名、ユーザーの嗜好によりユーザー認証する場合につ
いて述べたが、本発明はこれに限らず、例えば合言葉、
過去に会話を交わした日時等を確認してユーザー認証す
る場合等、過去の音声認識結果によりユーザー認証する
場合に広く適用することができる。
ーが特定の文言を発声した場合と、一定の周期でユーザ
ー認証する場合について述べたが、本発明はこれに限ら
ず、必要に応じてこれら何れかによりユーザー認証する
ようにしてもよい。
による音声認識処理において、特定の単語の発声を確認
してユーザー認証する場合について述べたが、本発明は
これに限らず、例えば音声の高低、周波数スペクトラム
等、音声の特徴を示す種々の特徴量によりユーザー認証
して上述の実施の形態と同様の効果を得ることができ
る。
ットの応答を例えば飼い主とそれ以外の者とで異ならせ
る場合について述べたが、本発明はこれに限らず、さら
に詳細に音声入力者を識別して、例えば家族と家族以外
で応答を異ならせるようにしてもよく、さらには家族の
個人でも応答を異ならせても良い。
種類と応答の分類とにより、単純に問いに対しては問い
を返さないようにする場合について述べたが、本発明は
これに限らず、例えば感情によっては問いに対して問い
を返すようにしてもよい。この場合、電子ペットがひね
くれている状況が形成される。
制御において、性格データを操作する場合について述べ
たが、本発明はこれに限らず性格データの操作に代えて
直接感情データを操作するようにしても良い。
ータ、画像データを出力する場合について述べたが、本
発明はこれに限らず、音声合成、画像合成により音声、
画像を出力するようにしてもよい。
理ユニットの処理により音声認識処理、画像合成処理す
る場合について述べたが、本発明はこれに限らず、図3
との対比により図28に示すように、音声認識処理、画
像合成処理を専用の処理回路により構成してもよい。
して音声及び画像を出力する電子ペット装置に本発明を
適用する場合について述べたが、本発明はこれに限ら
ず、例えば動物の動作をするロボットに適用して鳴き声
と動作により応答を出力する電子ペット装置等、種々の
形態により応答を出力する電子ペット装置に広く適用す
ることができる。
ットの専用装置である電子ペット装置に本発明を適用す
る場合について述べたが、本発明はこれに限らず、図2
との対比により図28に示すように、携帯電話に適用し
てもよく、さらにはGPS、携帯型のテープレコーダ、
光ディスク装置等、種々の携帯機器に広く適用すること
ができる。また携帯機器に限らず、例えばパーソナルコ
ンピュータ等の情報処理装置、さらにはこのパーソナル
コンピュータ上で動作する各種キャラクター等に適用す
ることができる。
ークに接続して種々のデータを送受することにより、ネ
ットワークに接続された同種の機器より電子ペットを連
れ出したかのように、またこれとは逆に同種の機器から
電子ペットを連れ出したように取り扱うことができ、動
物のペットを実際に飼育している場合のように電子ペッ
トを親しみ易いものとすることができる。また必要に応
じて判別可能な単語を増大させる等により知識を増大さ
せることもできる。
ることにより、電子ペットが認識可能な語彙を音声によ
り簡易に増やすことができ、これにより実際に飼育して
いる動物のペットに躾けを教えるように電子ペットを取
り扱うことができ、電子ペットを親しみ易いものとする
ことができる。
ることにより、電子ペットの応答を例えば飼い主とそれ
以外の者とで異ならせるようにすることができる。これ
により動物のペットのような挙動を実現でき、電子ペッ
トを一段と身近な親しみ易いものとすることができる。
により応答を生成することにより、例えば問いに対して
問いを返すような不自然な会話を防止することができ、
これにより電子ペットの応答を自然な生き生きとしたも
のとでき、これによっても電子ペットを一段と身近な親
しみ易いものとすることができる。
ことにより、例えば頻繁に発生される音声に対して慣
れ、親しみ等の感情のこもった応答を形成することがで
きる。これにより電子ペットの応答を自然な生き生きと
したものとでき、これによっても電子ペットを一段と身
近な親しみ易いものとすることができる。
す機能ブロック図である。
チャートである。
図表である。
詳細に示す機能ブロック図である。
ートである。
に示す機能ブロック図である。
たユーザー認証の説明に供する図表である。
細に示す機能ブロック図である。
を示す図表である。
示す機能ブロック図である。
データを示す図表である。
ブロック図である。
……タイマー、11C……体調変更部、11D……感情
変更部、11E……応答文作成部、11F……音声合成
部、11G……画像合成部、11I……登録部、11J
……音声認証部、11M……発話分類部、16A……認
識データ、16B……体調データ、16C……感情デー
タ、16D……性格データ、16E……パターンデー
タ、16F……対話履歴、16G……知識、16H……
音声データ、16I……画像データ、16J……認証状
態、16K……認証データ、16M……分類ルール、1
6N……感情変更履歴、17……ネットワーク接続部
Claims (109)
- 【請求項1】ユーザーの音声を入力する音声入力手段
と、 所定の認識ルールに従って前記音声入力手段より入力し
た前記音声を音声認識処理して音声認識結果を出力する
音声認識手段と、 所定の感情パラメータ生成ルールに従って、少なくとも
前記音声認識結果と時間経過とにより変化する、擬似的
に感情を示す感情パラメータを生成する感情生成手段
と、 少なくとも前記感情パラメータを基準にした所定の応答
生成ルールに従って、前記音声認識結果に対応する応答
を生成する応答生成手段と、 前記応答を出力する応答出力手段とを備え、 所定のネットワークに接続して、前記認識ルール、前記
感情パラメータ生成ルール又は前記応答生成ルールの更
新処理を実行する通信手段、又は前記認識ルール、前記
感情パラメータ生成ルール又は前記応答生成ルールに必
要なデータの更新処理を実行する通信手段を有すること
を特徴とする情報処理装置。 - 【請求項2】前記通信手段は、 定期的に前記ネットワークに接続して前記更新処理を実
行することを特徴とする請求項1に記載の情報処理装
置。 - 【請求項3】交換可能な記憶媒体を介して、少なくとも
前記感情パラメータ、又は前記感情パラメータの生成に
必要なデータとを更新できるようにしたことを特徴とす
る請求項1に記載の情報処理装置。 - 【請求項4】ユーザーの音声を入力する音声入力手段
と、 所定の認識ルールに従って前記音声入力手段より入力し
た前記音声を音声認識処理して音声認識結果を出力する
音声認識手段と、 所定の感情パラメータ生成ルールに従って、少なくとも
前記音声認識結果と時間経過とにより変化する、擬似的
に感情を示す感情パラメータを生成する感情生成手段
と、 少なくとも前記感情パラメータを基準にした所定の応答
生成ルールに従って、前記音声認識結果に対応する応答
を生成する応答生成手段と、 前記応答を出力する応答出力手段とを備え、 所定のネットワークに接続して、少なくとも前記感情パ
ラメータ又は前記感情パラメータの生成に必要なデータ
を取得する通信手段を有し、 前記応答生成手段は、 前記通信手段により取得した前記感情パラメータによる
応答、又は前記通信手段により取得した前記データより
生成した前記感情パラメータによる応答を出力すること
を特徴とする情報処理装置。 - 【請求項5】交換可能な記憶媒体を介して、少なくとも
前記感情パラメータ又は前記感情パラメータの生成に必
要なデータを交換できるようにしたことを特徴とする請
求項4に記載の情報処理装置。 - 【請求項6】ユーザーの音声を入力する音声入力手段
と、 所定の認識ルールに従って前記音声入力手段より入力し
た前記音声を音声認識処理して音声認識結果を出力する
音声認識手段と、 所定の感情パラメータ生成ルールに従って、少なくとも
前記音声認識結果と時間経過とにより変化する、擬似的
に感情を示す感情パラメータを生成する感情生成手段
と、 少なくとも前記感情パラメータを基準にした所定の応答
生成ルールに従って、前記音声認識結果に対応する応答
を生成する応答生成手段と、 前記応答を出力する応答出力手段とを備え、 所定のネットワークに接続して、前記認識ルール、前記
感情パラメータ生成ルール又は前記応答生成ルールの更
新処理を実行する通信手段、又は前記認識ルール、前記
感情パラメータ生成ルール又は前記応答生成ルールに必
要なデータの更新処理を実行する通信手段を有すること
を特徴とする携帯機器。 - 【請求項7】前記通信手段は、 定期的に前記ネットワークに接続して前記更新処理を実
行することを特徴とする請求項6に記載の携帯機器。 - 【請求項8】交換可能な記憶媒体を介して、少なくとも
前記感情パラメータ又は前記感情パラメータの生成に必
要なデータを交換できるようにしたことを特徴とする請
求項6に記載の携帯機器。 - 【請求項9】ユーザーの音声を入力する音声入力手段
と、 所定の認識ルールに従って前記音声入力手段より入力し
た前記音声を音声認識処理して音声認識結果を出力する
音声認識手段と、 所定の感情パラメータ生成ルールに従って、少なくとも
前記音声認識結果と時間経過とにより変化する、擬似的
に感情を示す感情パラメータを生成する感情生成手段
と、 少なくとも前記感情パラメータを基準にした所定の応答
生成ルールに従って、前記音声認識結果に対応する応答
を生成する応答生成手段と、 前記応答を出力する応答出力手段とを備え、 所定のネットワークに接続して、少なくとも前記感情パ
ラメータ又は前記感情パラメータの生成に必要なデータ
を取得する通信手段を有し、 前記応答生成手段は、 前記通信手段により取得した前記感情パラメータによる
応答、又は前記通信手段により取得した前記データより
生成した前記感情パラメータによる応答を出力すること
を特徴とする携帯機器。 - 【請求項10】交換可能な記憶媒体を介して、少なくと
も前記感情パラメータ又は前記感情パラメータの生成に
必要なデータを交換できるようにしたことを特徴とする
請求項9に記載の携帯機器。 - 【請求項11】ユーザーの音声を入力する音声入力手段
と、 所定の認識ルールに従って前記音声入力手段より入力し
た前記音声を音声認識処理して音声認識結果を出力する
音声認識手段と、 所定の感情パラメータ生成ルールに従って、少なくとも
前記音声認識結果と時間経過とにより変化する、擬似的
に感情を示す感情パラメータを生成する感情生成手段
と、 少なくとも前記感情パラメータを基準にした所定の応答
生成ルールに従って、前記音声認識結果に対応する応答
を生成する応答生成手段と、 前記応答を出力する応答出力手段とを備え、 所定のネットワークに接続して、前記認識ルール、前記
感情パラメータ生成ルール又は前記応答生成ルールの更
新処理を実行する通信手段、又は前記認識ルール、前記
感情パラメータ生成ルール又は前記応答生成ルールに必
要なデータの更新処理を実行する通信手段を有すること
を特徴とする電子ペット装置。 - 【請求項12】前記通信手段は、 定期的に前記ネットワークに接続して前記更新処理を実
行することを特徴とする請求項11に記載の電子ペット
装置。 - 【請求項13】交換可能な記憶媒体を介して、少なくと
も前記感情パラメータ又は前記感情パラメータの生成に
必要なデータとを交換できるようにしたことを特徴とす
る請求項11に記載の電子ペット装置。 - 【請求項14】ユーザーの音声を入力する音声入力手段
と、 所定の認識ルールに従って前記音声入力手段より入力し
た前記音声を音声認識処理して音声認識結果を出力する
音声認識手段と、 所定の感情パラメータ生成ルールに従って、少なくとも
前記音声認識結果と時間経過とにより変化する、擬似的
に感情を示す感情パラメータを生成する感情生成手段
と、 少なくとも前記感情パラメータを基準にした所定の応答
生成ルールに従って、前記音声認識結果に対応する応答
を生成する応答生成手段と、 前記応答を出力する応答出力手段とを備え、 所定のネットワークに接続して、少なくとも前記感情パ
ラメータ又は前記感情パラメータの生成に必要なデータ
を取得する通信手段を有し、 前記応答生成手段は、 前記通信手段により取得した前記感情パラメータによる
応答、又は前記通信手段により取得した前記データより
生成した前記感情パラメータによる応答を出力すること
を特徴とする電子ペット装置。 - 【請求項15】交換可能な記憶媒体を介して、少なくと
も前記感情パラメータ又は前記感情パラメータの生成に
必要なデータを交換できるようにしたことを特徴とする
請求項14に記載の電子ペット装置。 - 【請求項16】ユーザーの音声を入力する音声入力処理
と、 所定の認識ルールに従って前記音声入力処理で取得され
た前記音声を音声認識処理して音声認識結果を出力する
音声認識処理と、 所定の感情パラメータ生成ルールに従って、少なくとも
前記音声認識結果と時間経過とにより変化する、擬似的
に感情を示す感情パラメータを生成する感情生成処理
と、 少なくとも前記感情パラメータを基準にした所定の応答
生成ルールに従って、前記音声認識結果に対応する応答
を生成する応答生成処理と、 前記応答を出力する応答出力処理と、 所定のネットワークに接続して、前記認識ルール、前記
感情パラメータ生成ルール又は前記応答生成ルールの更
新処理を実行する通信処理、又は前記認識ルール、前記
感情パラメータ生成ルール又は前記応答生成ルールに必
要なデータの更新処理を実行する通信処理とが記録され
たことを特徴とする情報処理手順を記録した記録媒体。 - 【請求項17】前記通信処理は、 定期的に前記ネットワークに接続して前記更新処理を実
行することを特徴とする請求項16に記載の情報処理手
順を記録した記録媒体。 - 【請求項18】ユーザーの音声を入力する音声入力処理
と、 所定の認識ルールに従って前記音声入力処理より入力し
た前記音声を音声認識処理して音声認識結果を出力する
音声認識処理と、 所定の感情パラメータ生成ルールに従って、少なくとも
前記音声認識結果と時間経過とにより変化する、擬似的
に感情を示す感情パラメータを生成する感情生成処理
と、 少なくとも前記感情パラメータを基準にした所定の応答
生成ルールに従って、前記音声認識結果に対応する応答
を生成する応答生成処理と、 前記応答を出力する応答出力処理と、 所定のネットワークに接続して、少なくとも前記感情パ
ラメータ又は前記感情パラメータの生成に必要なデータ
を取得する通信処理とが記録され、 前記応答生成処理が、 前記通信処理により取得した前記感情パラメータによる
応答、又は前記通信処理により取得した前記データより
生成した前記感情パラメータによる応答を出力する処理
であることを特徴とする情報処理手順を記録した記録媒
体。 - 【請求項19】ユーザーの音声を入力する音声入力処理
と、 所定の認識ルールに従って前記音声入力処理より入力し
た前記音声を音声認識処理して音声認識結果を出力する
音声認識処理と、 所定の感情パラメータ生成ルールに従って、少なくとも
前記音声認識結果と時間経過とにより変化する、擬似的
に感情を示す感情パラメータを生成する感情生成処理
と、 少なくとも前記感情パラメータを基準にした所定の応答
生成ルールに従って、前記音声認識結果に対応する応答
を生成する応答生成処理と、 前記応答を出力する応答出力処理と、 所定のネットワークに接続して、前記認識ルール、前記
感情パラメータ生成ルール又は前記応答生成ルールの更
新処理を実行する通信処理、又は前記認識ルール、前記
感情パラメータ生成ルール又は前記応答生成ルールに必
要なデータの更新処理を実行する通信処理とを有するこ
とを特徴とする情報処理方法。 - 【請求項20】前記通信処理は、 定期的に前記ネットワークに接続して前記更新処理を実
行することを特徴とする請求項19に記載の情報処理方
法。 - 【請求項21】ユーザーの音声を入力する音声入力処理
と、 所定の認識ルールに従って前記音声入力処理より入力し
た前記音声を音声認識処理して音声認識結果を出力する
音声認識処理と、 所定の感情パラメータ生成ルールに従って、少なくとも
前記音声認識結果と時間経過とにより変化する、擬似的
に感情を示す感情パラメータを生成する感情生成処理
と、 少なくとも前記感情パラメータを基準にした所定の応答
生成ルールに従って、前記音声認識結果に対応する応答
を生成する応答生成処理と、 前記応答を出力する応答出力処理と、 所定のネットワークに接続して、少なくとも前記感情パ
ラメータ又は前記感情パラメータの生成に必要なデータ
を取得する通信処理とを有し、 前記応答生成処理が、 前記通信処理により取得した前記感情パラメータによる
応答、又は前記通信処理により取得した前記データより
生成した前記感情パラメータによる応答を出力する処理
であることを特徴とする情報処理方法。 - 【請求項22】ユーザーの音声を入力する音声入力手段
と、 前記音声入力手段より入力した音声を音声認識処理して
音声認識結果を出力する音声認識手段と、 前記音声に含まれる単語の前記音声認識結果と、対応す
る単語の分類とを保持する音声認識結果のデータベース
と、 前記音声認識結果を基準にして前記データベースを検索
し、前記音声認識結果の音声に含まれる単語の分類に従
って、前記音声認識結果に対応する応答を生成する応答
生成手段と、 前記応答を出力する応答出力手段と、 登録の動作モードにおいて、前記音声認識結果に基づい
て、少なくとも前記データベースに前記単語の音声認識
結果を登録することにより、音声により前記データベー
スを変更可能な登録手段とを備えることを特徴とする情
報処理装置。 - 【請求項23】前記音声入力手段は、 音韻列により前記音声を識別して前記音声認識結果を出
力し、 前記データベースは、 前記音声の音韻列による音声認識結果に従って前記単語
の音声認識結果と前記分類とを記録することを特徴とす
る請求項22に記載の情報処理装置。 - 【請求項24】前記音声認識手段は、 前記音声を変換したテキストデータにより前記音声認識
結果を出力することを特徴とする請求項22に記載の情
報処理装置。 - 【請求項25】前記音声認識手段は、 前記登録の動作モードにおいて、所定の区切りに従って
前記音声を区切って音声認識処理することを特徴とする
請求項22に記載の情報処理装置。 - 【請求項26】所定の擬似感情パラメータ生成ルールに
従って、少なくとも前記音声認識結果と時間経過とによ
り変化する、擬似的に感情を示す擬似感情パラメータを
生成する感情生成手段を有し、 前記応答生成手段は、 少なくとも前記擬似感情パラメータを基準にした所定の
応答生成ルールに従って、前記音声認識結果に対応する
応答を生成することを特徴とする請求項22に記載の情
報処理装置。 - 【請求項27】交換可能な記憶媒体を介して、少なくと
も前記擬似感情パラメータ又は前記擬似感情パラメータ
の生成に必要なデータを交換できるようにしたことを特
徴とする請求項22に記載の情報処理装置。 - 【請求項28】ユーザーの音声を入力する音声入力手段
と、 前記音声入力手段より入力した音声を音声認識処理して
音声認識結果を出力する音声認識手段と、 前記音声に含まれる単語の前記音声認識結果と、対応す
る単語の分類とを保持する音声認識結果のデータベース
と、 前記音声認識結果を基準にして前記データベースを検索
し、前記音声認識結果の音声に含まれる単語の分類に従
って、前記音声認識結果に対応する応答を生成する応答
生成手段と、 前記応答を出力する応答出力手段と、 登録の動作モードにおいて、前記音声認識結果に基づい
て、少なくとも前記データベースに前記単語の音声認識
結果を登録することにより、音声により前記データベー
スを変更可能な登録手段とを備えることを特徴とする携
帯機器。 - 【請求項29】前記音声入力手段は、 音韻列により前記音声を識別して前記音声認識結果を出
力し、 前記データベースは、 前記音声の音韻列による音声認識結果に従って前記単語
の音声認識結果と前記分類とを記録することを特徴とす
る請求項28に記載の携帯機器。 - 【請求項30】前記音声認識手段は、 前記音声を変換したテキストデータにより前記音声認識
結果を出力することを特徴とする請求項28に記載の携
帯機器。 - 【請求項31】前記音声認識手段は、 前記登録の動作モードにおいて、所定の区切りに従って
前記音声を区切って音声認識処理することを特徴とする
請求項28に記載の携帯機器。 - 【請求項32】所定の擬似感情パラメータ生成ルールに
従って、少なくとも前記音声認識結果と時間経過とによ
り変化する、擬似的に感情を示す擬似感情パラメータを
生成する感情生成手段を有し、 前記応答生成手段は、 少なくとも前記擬似感情パラメータを基準にした所定の
応答生成ルールに従って、前記音声認識結果に対応する
応答を生成することを特徴とする請求項28に記載の携
帯機器。 - 【請求項33】交換可能な記憶媒体を介して、少なくと
も前記擬似感情パラメータ又は前記擬似感情パラメータ
の生成に必要なデータを交換できるようにしたことを特
徴とする請求項28に記載の携帯機器。 - 【請求項34】ユーザーの音声を入力する音声入力手段
と、 前記音声入力手段より入力した音声を音声認識処理して
音声認識結果を出力する音声認識手段と、 前記音声に含まれる単語の前記音声認識結果と、対応す
る単語の分類とを保持する音声認識結果のデータベース
と、 前記音声認識結果を基準にして前記データベースを検索
し、前記音声認識結果の音声に含まれる単語の分類に従
って、前記音声認識結果に対応する応答を生成する応答
生成手段と、 前記応答を出力する応答出力手段と、 登録の動作モードにおいて、前記音声認識結果に基づい
て、少なくとも前記データベースに前記単語の音声認識
結果を登録することにより、音声により前記データベー
スを変更可能な登録手段とを備えることを特徴とする電
子ペット装置。 - 【請求項35】前記音声入力手段は、 音韻列により前記音声を識別して前記音声認識結果を出
力し、前記データベースは、 前記音声の音韻列による音声認識結果に従って前記単語
の音声認識結果と前記分類とを記録することを特徴とす
る請求項34に記載の電子ペット装置。 - 【請求項36】前記音声認識手段は、 前記音声を変換したテキストデータにより前記音声認識
結果を出力することを特徴とする請求項34に記載の電
子ペット装置。 - 【請求項37】前記音声認識手段は、 前記登録の動作モードにおいて、所定の区切りに従って
前記音声を区切って音声認識処理することを特徴とする
請求項34に記載の電子ペット装置。 - 【請求項38】所定の擬似感情パラメータ生成ルールに
従って、少なくとも前記音声認識結果と時間経過とによ
り変化する、擬似的に感情を示す擬似感情パラメータを
生成する感情生成手段を有し、 前記応答生成手段は、 少なくとも前記擬似感情パラメータを基準にした所定の
応答生成ルールに従って、前記音声認識結果に対応する
応答を生成することを特徴とする請求項34に記載の電
子ペット装置。 - 【請求項39】交換可能な記憶媒体を介して、少なくと
も前記擬似感情パラメータ又は前記擬似感情パラメータ
の生成に必要なデータを交換できるようにしたことを特
徴とする請求項34に記載の電子ペット装置。 - 【請求項40】ユーザーの音声を入力する音声入力処理
と、 前記音声入力処理より入力した音声を音声認識処理して
音声認識結果を出力する音声認識処理と、 前記音声認識結果を基準にして前記音声に含まれる単語
の前記音声認識結果と、対応する単語の分類とを保持す
る音声認識結果のデータベースを検索し、前記音声認識
結果の音声に含まれる単語の分類に従って、前記音声認
識結果に対応する応答を生成する応答生成処理と、 前記応答を出力する応答出力処理と、 登録の動作モードにおいて、前記音声認識結果に基づい
て、少なくとも前記データベースに前記単語の音声認識
結果を登録することにより、音声により前記データベー
スを変更可能な登録処理とを記録したことを特徴とする
情報処理手順を記録した記録媒体。 - 【請求項41】前記音声入力処理は、 音韻列により前記音声を識別して前記音声認識結果を出
力し、 前記データベースは、 前記音声の音韻列による音声認識結果に従って前記単語
の音声認識結果と前記分類とを記録して形成されたこと
を特徴とする請求項40に記載の情報処理手順を記録し
た記録媒体。 - 【請求項42】前記音声認識処理は、 前記音声を変換したテキストデータにより前記音声認識
結果を出力することを特徴とする請求項40に記載の情
報処理手順を記録した記録媒体。 - 【請求項43】前記音声認識処理は、 前記登録の動作モードにおいて、所定の区切りに従って
前記音声を区切って音声認識処理することを特徴とする
請求項40に記載の情報処理手順を記録した記録媒体。 - 【請求項44】所定の擬似感情パラメータ生成ルールに
従って、少なくとも前記音声認識結果と時間経過とによ
り変化する、擬似的に感情を示す擬似感情パラメータを
生成する感情生成処理が記録され、 前記応答生成処理は、 少なくとも前記擬似感情パラメータを基準にした所定の
応答生成ルールに従って、前記音声認識結果に対応する
応答を生成することを特徴とする請求項40に記載の情
報処理手順を記録した記録媒体。 - 【請求項45】ユーザーの音声を入力する音声入力処理
と、 前記音声入力処理より入力した音声を音声認識処理して
音声認識結果を出力する音声認識処理と、 前記音声認識結果を基準にして、前記音声に含まれる単
語の前記音声認識結果と、対応する単語の分類とを保持
する音声認識結果のデータベースを検索し、前記音声認
識結果の音声に含まれる単語の分類に従って、前記音声
認識結果に対応する応答を生成する応答生成処理と、 前記応答を出力する応答出力処理と、 登録の動作モードにおいて、前記音声認識結果に基づい
て、少なくとも前記データベースに前記単語の音声認識
結果を登録することにより、音声により前記データベー
スを変更可能な登録処理とを有することを特徴とする情
報処理方法。 - 【請求項46】前記音声入力処理は、 前記音韻列により前記音声を識別して前記音声認識結果
を出力し、 前記データベースは、 前記音声の音韻列による音声認識結果に従って前記単語
の音声認識結果と前記分類とを記録して形成されること
を特徴とする請求項45に記載の情報処理方法。 - 【請求項47】前記音声認識処理は、 前記音声を変換したテキストデータにより前記音声認識
結果を出力することを特徴とする請求項45に記載の情
報処理方法。 - 【請求項48】前記音声認識処理は、 前記登録の動作モードにおいて、所定の区切りに従って
前記音声を区切って音声認識処理することを特徴とする
請求項45に記載の情報処理方法。 - 【請求項49】所定の擬似感情パラメータ生成ルールに
従って、少なくとも前記音声認識結果と時間経過とによ
り変化する、擬似的に感情を示す擬似感情パラメータを
生成する感情生成処理を有し、 前記応答生成処理は、 少なくとも前記擬似感情パラメータを基準にした所定の
応答生成ルールに従って、前記音声認識結果に対応する
応答を生成することを特徴とする請求項45に記載の情
報処理方法。 - 【請求項50】ユーザーの音声を入力する音声入力手段
と、 前記音声入力手段をより入力した音声を音声認識処理し
て音声認識結果を出力する音声認識手段と、 所定の応答生成ルールに従って、前記音声認識結果に対
応する応答を生成する応答生成手段と、 前記応答を出力する応答出力手段と、 前記音声に基づいて、前記ユーザーを認証するユーザー
認証手段とを備え、 前記応答生成手段は、 前記ユーザー認証手段の認証結果に基づいて、音声入力
者に応じて前記応答を異ならせることを特徴とする情報
処理装置。 - 【請求項51】前記ユーザー認証手段は、 過去の音声認識結果を基準にして前記音声認識結果を判
定することにより、前記音声に基づいて前記ユーザーを
認証することを特徴とする請求項50に記載の情報処理
装置。 - 【請求項52】前記応答生成手段は、 過去の音声認識結果に対応する質問を前記応答として出
力し、 前記ユーザー認証手段は、 該質問の応答に対する音声認識結果を判定してユーザー
を認証することを特徴とする請求項51に記載の情報処
理装置。 - 【請求項53】前記過去の音声認識結果が所定の単語で
あることを特徴とする請求項51に記載の情報処理装
置。 - 【請求項54】前記ユーザー認証手段は、 前記音声認識結果より前記音声の特徴を示す特徴量を検
出し、前記特徴量に基づいて前記ユーザーを認証するこ
とにより、前記音声に基づいて前記ユーザーを認証する
ことを特徴とする請求項50に記載の情報処理装置。 - 【請求項55】所定の擬似感情パラメータ生成ルールに
従って、少なくとも前記音声認識結果と時間経過とによ
り変化する、擬似的に感情を示す擬似感情パラメータを
生成する感情生成手段を有し、 前記応答生成手段は、 少なくとも前記擬似感情パラメータを基準にして前記応
答生成ルールに従って、前記音声認識結果に対応する応
答を生成することを特徴とする請求項50に記載の情報
処理装置。 - 【請求項56】ユーザーの音声を入力する音声入力手段
と、 前記音声入力手段より入力した音声を音声認識処理して
音声認識結果を出力する音声認識手段と、 所定の応答生成ルールに従って、前記音声認識結果に対
応する応答を生成する応答生成手段と、 前記応答を出力する応答出力手段と、 前記音声に基づいて、前記ユーザーを認証するユーザー
認証手段とを備え、 前記応答生成手段は、 前記ユーザー認証手段の認証結果に基づいて、音声入力
者に応じて前記応答を異ならせることを特徴とする携帯
機器。 - 【請求項57】前記ユーザー認証手段は、 過去の音声認識結果を基準にして前記音声認識結果を判
定することにより、前記音声に基づいて前記ユーザーを
認証することを特徴とする請求項56に記載の携帯機
器。 - 【請求項58】前記応答生成手段は、 過去の音声認識結果に対応する質問を前記応答として出
力し、 前記ユーザー認証手段は、 該質問の応答に対する音声認識結果を判定してユーザー
を認証することを特徴とする請求項57に記載の携帯機
器。 - 【請求項59】前記過去の音声認識結果が所定の単語で
あることを特徴とする請求項57に記載の携帯機器。 - 【請求項60】前記ユーザー認証手段は、 前記音声認識結果より前記音声の特徴を示す特徴量を検
出し、前記特徴量に基づいて前記ユーザーを認証するこ
とにより、前記音声に基づいて前記ユーザーを認証する
ことを特徴とする請求項56に記載の携帯機器。 - 【請求項61】所定の擬似感情パラメータ生成ルールに
従って、少なくとも前記音声認識結果と時間経過とによ
り変化する、擬似的に感情を示す擬似感情パラメータを
生成する感情生成手段を有し、 前記応答生成手段は、 少なくとも前記擬似感情パラメータを基準にして前記応
答生成ルールに従って、前記音声認識結果に対応する応
答を生成することを特徴とする請求項56に記載の携帯
機器。 - 【請求項62】ユーザーの音声を入力する音声入力手段
と、 前記音声入力手段より入力した音声を音声認識処理して
音声認識結果を出力する音声認識手段と、 所定の応答生成ルールに従って、前記音声認識結果に対
応する応答を生成する応答生成手段と、 前記応答を出力する応答出力手段と、 前記音声に基づいて、前記ユーザーを認証するユーザー
認証手段とを備え、 前記応答生成手段は、 前記ユーザー認証手段の認証結果に基づいて、音声入力
者に応じて前記応答を異ならせることを特徴とする電子
ペット装置。 - 【請求項63】前記ユーザー認証手段は、 過去の音声認識結果を基準にして前記音声認識結果を判
定することにより、前記音声に基づいて前記ユーザーを
認証することを特徴とする請求項62に記載の電子ペッ
ト装置。 - 【請求項64】前記応答生成手段は、 過去の音声認識結果に対応する質問を前記応答として出
力し、 前記ユーザー認証手段は、 該質問の応答に対する音声認識結果を判定してユーザー
を認証することを特徴とする請求項63に記載の電子ペ
ット装置。 - 【請求項65】前記過去の音声認識結果が所定の単語で
あることを特徴とする請求項63に記載の電子ペット装
置。 - 【請求項66】前記ユーザー認証手段は、 前記音声認識結果より前記音声の特徴を示す特徴量を検
出し、前記特徴量に基づいて前記ユーザーを認証するこ
とにより、前記音声に基づいて前記ユーザーを認証する
ことを特徴とする請求項62に記載の電子ペット装置。 - 【請求項67】所定の擬似感情パラメータ生成ルールに
従って、少なくとも前記音声認識結果と時間経過とによ
り変化する、擬似的に感情を示す擬似感情パラメータを
生成する感情生成手段を有し、 前記応答生成手段は、 少なくとも前記擬似感情パラメータを基準にして前記応
答生成ルールに従って、前記音声認識結果に対応する応
答を生成することを特徴とする請求項62に記載の電子
ペット装置。 - 【請求項68】ユーザーの音声を入力する音声入力処理
と、 前記音声入力処理より入力した音声を音声認識処理して
音声認識結果を出力する音声認識処理と、 所定の応答生成ルールに従って、前記音声認識結果に対
応する応答を生成する応答生成処理と、 前記応答を出力する応答出力処理と、 前記音声に基づいて、前記ユーザーを認証するユーザー
認証処理とが記録され、 前記応答生成処理は、 前記ユーザー認証処理の認証結果に基づいて、音声入力
者に応じて前記応答を異ならせることを特徴とする情報
処理手順を記録した記録媒体。 - 【請求項69】前記ユーザー認証処理は、 過去の音声認識結果を基準にして前記音声認識結果を判
定することにより、前記音声に基づいて前記ユーザーを
認証することを特徴とする請求項68に記載の情報処理
手順を記録した記録媒体。 - 【請求項70】前記応答生成処理は、 過去の音声認識結果に対応する質問を前記応答として出
力し、 前記ユーザー認証処理は、 該質問の応答に対する音声認識結果を判定してユーザー
を認証する処理であることを特徴とする請求項69に記
載の情報処理手順を記録した記録媒体。 - 【請求項71】前記過去の音声認識結果が所定の単語で
あることを特徴とする請求項69に記載の情報処理手順
を記録した記録媒体。 - 【請求項72】前記ユーザー認証処理は、 前記音声認識結果より前記音声の特徴を示す特徴量を検
出し、前記特徴量に基づいて前記ユーザーを認証するこ
とにより、前記音声に基づいて前記ユーザーを認証する
ことを特徴とする請求項68に記載の情報処理手順を記
録した記録媒体。 - 【請求項73】所定の擬似感情パラメータ生成ルールに
従って、少なくとも前記音声認識結果と時間経過とによ
り変化する、擬似的に感情を示す擬似感情パラメータを
生成する感情生成処理が記録され、 前記応答生成処理は、 少なくとも前記擬似感情パラメータを基準にして前記応
答生成ルールに従って、前記音声認識結果に対応する応
答を生成することを特徴とする請求項68に記載の情報
処理手順を記録した記録媒体。 - 【請求項74】ユーザーの音声を入力する音声入力処理
と、 前記音声入力処理より入力した音声を音声認識処理して
音声認識結果を出力する音声認識処理と、 所定の応答生成ルールに従って、前記音声認識結果に対
応する応答を生成する応答生成処理と、 前記応答を出力する応答出力処理と、 前記音声に基づいて、前記ユーザーを認証するユーザー
認証処理とを有し、 前記応答生成処理は、 前記ユーザー認証処理の認証結果に基づいて、音声入力
者に応じて前記応答を異ならせることを特徴とする情報
処理方法。 - 【請求項75】前記ユーザー認証処理は、 過去の音声認識結果を基準にして前記音声認識結果を判
定することにより、前記音声に基づいて前記ユーザーを
認証することを特徴とする請求項74に記載の情報処理
方法。 - 【請求項76】前記応答生成処理は、 過去の音声認識結果に対応する質問を前記応答として出
力し、 前記ユーザー認証処理は、 該質問の応答に対する音声認識結果を判定してユーザー
を認証することを特徴とする請求項75に記載の情報処
理方法。 - 【請求項77】前記過去の音声認識結果が所定の単語で
あることを特徴とする請求項75に記載の情報処理方
法。 - 【請求項78】前記ユーザー認証処理は、 前記音声認識結果より前記音声の特徴を示す特徴量を検
出し、前記特徴量に基づいて前記ユーザーを認証するこ
とにより、前記音声に基づいて前記ユーザーを認証する
ことを特徴とする請求項74に記載の情報処理方法。 - 【請求項79】所定の擬似感情パラメータ生成ルールに
従って、少なくとも前記音声認識結果と時間経過とによ
り変化する、擬似的に感情を示す擬似感情パラメータを
生成する感情生成処理が記録され、 前記応答生成処理は、 少なくとも前記擬似感情パラメータを基準にして前記応
答生成ルールに従って、前記音声認識結果に対応する応
答を生成することを特徴とする請求項74に記載の情報
処理方法。 - 【請求項80】ユーザーの音声を入力する音声入力手段
と、 前記音声入力手段より入力した音声を音声認識処理して
音声認識結果を出力する音声認識手段と、 所定の応答生成ルールに従って、前記音声認識結果に対
応する応答を生成する応答生成手段と、 前記応答を出力する応答出力手段と、 前記音声に基づいて、前記音声による入力の種類を識別
する発話分類手段とを備え、 前記応答生成ルールが、 前記入力の種類に応じて、前記入力の種類に対応する応
答の分類に従って、所定の種類の応答を除く応答を生成
するルールであることを特徴とする情報処理装置。 - 【請求項81】少なくとも前記音声による入力の種類
と、前記応答生成手段により生成された前記応答の分類
とによる履歴を記録する履歴記録手段を有し、 前記応答出力手段は、 前記履歴記録手段に記録された履歴を参照して前記応答
を生成することを特徴とする請求項80に記載の情報処
理装置。 - 【請求項82】所定の擬似感情パラメータ生成ルールに
従って、少なくとも前記音声認識結果と時間経過とによ
り変化する、擬似的に感情を示す擬似感情パラメータを
生成する感情生成手段を有し、 前記応答生成手段は、 少なくとも前記擬似感情パラメータを基準にして前記応
答生成ルールに従って、前記音声認識結果に対応する応
答を生成することを特徴とする請求項80に記載の情報
処理装置。 - 【請求項83】ユーザーの音声を入力する音声入力手段
と、 前記音声入力手段より入力した音声を音声認識処理して
音声認識結果を出力する音声認識手段と、 所定の応答生成ルールに従って、前記音声認識結果に対
応する応答を生成する応答生成手段と、 前記応答を出力する応答出力手段と、 前記音声に基づいて、前記音声による入力の種類を識別
する発話分類手段とを備え、 前記応答生成ルールが、 前記入力の種類に応じて、前記入力の種類に対応する応
答の分類に従って、所定の種類の応答を除く応答を生成
するルールであることを特徴とする携帯機器。 - 【請求項84】少なくとも前記音声による入力の種類
と、前記応答生成手段により生成された前記応答の分類
とによる履歴を記録する履歴記録手段を有し、 前記応答出力手段は、 前記履歴記録手段に記録された履歴を参照して前記応答
を生成することを特徴とする請求項83に記載の携帯機
器。 - 【請求項85】所定の擬似感情パラメータ生成ルールに
従って、少なくとも前記音声認識結果と時間経過とによ
り変化する、擬似的に感情を示す擬似感情パラメータを
生成する感情生成手段を有し、 前記応答生成手段は、 少なくとも前記擬似感情パラメータを基準にして前記応
答生成ルールに従って、前記音声認識結果に対応する応
答を生成することを特徴とする請求項83に記載の携帯
機器。 - 【請求項86】ユーザーの音声を入力する音声入力手段
と、 前記音声入力手段より入力した音声を音声認識処理して
音声認識結果を出力する音声認識手段と、 所定の応答生成ルールに従って、前記音声認識結果に対
応する応答を生成する応答生成手段と、 前記応答を出力する応答出力手段と、 前記音声に基づいて、前記音声による入力の種類を識別
する発話分類手段とを備え、 前記応答生成ルールが、 前記入力の種類に応じて、前記入力の種類に対応する応
答の分類に従って、所定の種類の応答を除く応答を生成
するルールであることを特徴とする電子ペット装置。 - 【請求項87】少なくとも前記音声による入力の種類
と、前記応答生成手段により生成された前記応答の分類
とによる履歴を記録する履歴記録手段を有し、 前記応答出力手段は、 前記履歴記録手段に記録された履歴を参照して前記応答
を生成することを特徴とする請求項86に記載の電子ペ
ット装置。 - 【請求項88】所定の擬似感情パラメータ生成ルールに
従って、少なくとも前記音声認識結果と時間経過とによ
り変化する、擬似的に感情を示す擬似感情パラメータを
生成する感情生成手段を有し、 前記応答生成手段は、 少なくとも前記擬似感情パラメータを基準にして前記応
答生成ルールに従って、前記音声認識結果に対応する応
答を生成することを特徴とする請求項86に記載の電子
ペット装置。 - 【請求項89】ユーザーの音声を入力する音声入力処理
と、 前記音声入力処理より入力した音声を音声認識処理して
音声認識結果を出力する音声認識処理と、 所定の応答生成ルールに従って、前記音声認識結果に対
応する応答を生成する応答生成処理と、 前記応答を出力する応答出力処理と、 前記音声に基づいて、前記音声による入力の種類を識別
する発話分類処理とが記録され、 前記応答生成ルールは、 前記入力の種類に応じて、前記入力の種類に対応する応
答の分類に従って、所定の種類の応答を除く応答を生成
することを特徴とする情報処理手順を記録した記録媒
体。 - 【請求項90】少なくとも前記音声による入力の種類
と、前記応答生成処理により生成された前記応答の分類
とによる履歴を記録する履歴記録処理が記録され、 前記応答出力処理は、 前記履歴記録処理に記録された履歴を参照して前記応答
を生成することを特徴とする請求項89に記載の情報処
理手順を記録した記録媒体。 - 【請求項91】所定の擬似感情パラメータ生成ルールに
従って、少なくとも前記音声認識結果と時間経過とによ
り変化する、擬似的に感情を示す擬似感情パラメータを
生成する感情生成処理が記録され、 前記応答生成処理は、 少なくとも前記擬似感情パラメータを基準にして前記応
答生成ルールに従って、前記音声認識結果に対応する応
答を生成することを特徴とする請求項89に記載の情報
処理手順を記録した記録媒体。 - 【請求項92】ユーザーの音声を入力する音声入力処理
と、 前記音声入力処理より入力した音声を音声認識処理して
音声認識結果を出力する音声認識処理と、 所定の応答生成ルールに従って、前記音声認識結果に対
応する応答を生成する応答生成処理と、 前記応答を出力する応答出力処理と、 前記音声に基づいて、前記音声による入力の種類を識別
する発話分類処理を有し、 前記応答生成ルールは、 前記入力の種類に応じて、前記入力の種類に対応する応
答の分類に従って、所定の種類の応答を除く応答を生成
することを特徴とする情報処理方法。 - 【請求項93】少なくとも前記音声による入力の種類
と、前記応答生成処理により生成された前記応答の分類
とによる履歴を記録する履歴記録処理を有し、 前記応答出力処理は、 前記履歴記録処理に記録された履歴を参照して前記応答
を生成することを特徴とする請求項92に記載の情報処
理方法。 - 【請求項94】所定の擬似感情パラメータ生成ルールに
従って、少なくとも前記音声認識結果と時間経過とによ
り変化する、擬似的に感情を示す擬似感情パラメータを
生成する感情生成処理を有し、 前記応答生成処理は、 少なくとも前記擬似感情パラメータを基準にして前記応
答生成ルールに従って、前記音声認識結果に対応する応
答を生成することを特徴とする請求項92に記載の情報
処理方法。 - 【請求項95】ユーザーの音声を入力する音声入力手段
と、 所定の認識ルールに従って前記音声入力手段より入力し
た前記音声を音声認識処理して音声認識結果を出力する
音声認識手段と、 所定の感情パラメータ生成ルールに従って、少なくとも
前記音声認識結果と時間経過とにより変化する、擬似的
に感情を示す感情パラメータを生成する感情生成手段
と、 少なくとも前記感情パラメータを基準にした所定の応答
生成ルールに従って、前記音声認識結果に対応する応答
を生成する応答生成手段と、 前記応答を出力する応答出力手段とを備え、 前記感情生成手段は、 少なくとも前記音声認識結果と対応する感情パラメータ
とによる履歴を記録する履歴記録手段を有し、 前記音声認識結果に対する前記感情パラメータの変化を
前記履歴に応じて変化させることを特徴とする情報処理
装置。 - 【請求項96】前記感情生成手段は、 前記音声に含まれる感情を刺激する単語に応じて前記感
情パラメータを変化させ、 前記感情を刺激する単語以外の単語が、前記感情を刺激
する単語を同時に頻繁に使用される場合、該単語によっ
ても、同時に使用される頻度の高い前記感情を刺激する
単語による場合と同様に、前記感情パラメータを変化さ
せることを特徴とする請求項95に記載の情報処理装
置。 - 【請求項97】前記感情生成手段は、 前記音声に含まれる感情を刺激する単語に応じて前記感
情パラメータを変化させ、 前記感情を刺激する単語のうちの所定の単語が頻繁に使
用される場合、該感情を刺激する単語により前記感情パ
ラメータの変化量を低減することを特徴とする請求項9
5に記載の情報処理装置。 - 【請求項98】ユーザーの音声を入力する音声入力手段
と、 所定の認識ルールに従って前記音声入力手段より入力し
た前記音声を音声認識処理して音声認識結果を出力する
音声認識手段と、 所定の感情パラメータ生成ルールに従って、少なくとも
前記音声認識結果と時間経過とにより変化する、擬似的
に感情を示す感情パラメータを生成する感情生成手段
と、 少なくとも前記感情パラメータを基準にした所定の応答
生成ルールに従って、前記音声認識結果に対応する応答
を生成する応答生成手段と、 前記応答を出力する応答出力手段とを備え、 前記感情生成手段は、 少なくとも前記音声認識結果と対応する感情パラメータ
とによる履歴を記録する履歴記録手段を有し、 前記音声認識結果に対する前記感情パラメータの変化を
前記履歴に応じて変化させることを特徴とする携帯機
器。 - 【請求項99】前記感情生成手段は、 前記音声に含まれる感情を刺激する単語に応じて前記感
情パラメータを変化させ、 前記感情を刺激する単語以外の単語が、前記感情を刺激
する単語を同時に頻繁に使用される場合、該単語によっ
ても、同時に使用される頻度の高い前記感情を刺激する
単語による場合と同様に、前記感情パラメータを変化さ
せることを特徴とする請求項98に記載の携帯機器。 - 【請求項100】前記感情生成手段は、 前記音声に含まれる感情を刺激する単語に応じて前記感
情パラメータを変化させ、 前記感情を刺激する単語のうちの所定の単語が頻繁に使
用される場合、該感情を刺激する単語により前記感情パ
ラメータの変化量を低減することを特徴とする請求項9
8に記載の携帯機器。 - 【請求項101】ユーザーの音声を入力する音声入力手
段と、 所定の認識ルールに従って前記音声入力手段より入力し
た前記音声を音声認識処理して音声認識結果を出力する
音声認識手段と、 所定の感情パラメータ生成ルールに従って、少なくとも
前記音声認識結果と時間経過とにより変化する、擬似的
に感情を示す感情パラメータを生成する感情生成手段
と、 少なくとも前記感情パラメータを基準にした所定の応答
生成ルールに従って、前記音声認識結果に対応する応答
を生成する応答生成手段と、 前記応答を出力する応答出力手段とを備え、 前記感情生成手段は、 少なくとも前記音声認識結果と対応する感情パラメータ
とによる履歴を記録する履歴記録手段を有し、 前記音声認識結果に対する前記感情パラメータの変化を
前記履歴に応じて変化させることを特徴とする電子ペッ
ト装置。 - 【請求項102】前記感情生成手段は、 前記音声に含まれる感情を刺激する単語に応じて前記感
情パラメータを変化させ、 前記感情を刺激する単語以外の単語が、前記感情を刺激
する単語を同時に頻繁に使用される場合、該単語によっ
ても、同時に使用される頻度の高い前記感情を刺激する
単語による場合と同様に、前記感情パラメータを変化さ
せることを特徴とする請求項101に記載の電子ペット
装置。 - 【請求項103】前記感情生成手段は、 前記音声に含まれる感情を刺激する単語に応じて前記感
情パラメータを変化させ、 前記感情を刺激する単語のうちの所定の単語が頻繁に使
用される場合、該感情を刺激する単語により前記感情パ
ラメータの変化量を低減することを特徴とする請求項1
01に記載の電子ペット装置。 - 【請求項104】ユーザーの音声を入力する音声入力処
理と、 所定の認識ルールに従って前記音声入力処理より入力し
た前記音声を音声認識処理して音声認識結果を出力する
音声認識処理と、 所定の感情パラメータ生成ルールに従って、少なくとも
前記音声認識結果と時間経過とにより変化する、擬似的
に感情を示す感情パラメータを生成する感情生成処理
と、 少なくとも前記感情パラメータを基準にした所定の応答
生成ルールに従って、前記音声認識結果に対応する応答
を生成する応答生成処理と、 前記応答を出力する応答出力処理とが記録され、 前記感情生成処理は、 少なくとも前記音声認識結果と対応する感情パラメータ
とによる履歴を記録する履歴記録処理を有し、 前記音声認識結果に対する前記感情パラメータの変化を
前記履歴に応じて変化させる処理であることを特徴とす
る情報処理手順を記録した記録媒体。 - 【請求項105】前記感情生成処理は、 前記音声に含まれる感情を刺激する単語に応じて前記感
情パラメータを変化させ、 前記感情を刺激する単語以外の単語が、前記感情を刺激
する単語を同時に頻繁に使用される場合、該単語によっ
ても、同時に使用される頻度の高い前記感情を刺激する
単語による場合と同様に、前記感情パラメータを変化さ
せる処理であることを特徴とする請求項104に記載の
情報処理手順を記録した記録媒体。 - 【請求項106】前記感情生成処理は、 前記音声に含まれる感情を刺激する単語に応じて前記感
情パラメータを変化させ、 前記感情を刺激する単語のうちの所定の単語が頻繁に使
用される場合、該感情を刺激する単語により前記感情パ
ラメータの変化量を低減する処理であることを特徴とす
る請求項104に記載の情報処理手順を記録した記録媒
体。 - 【請求項107】ユーザーの音声を入力する音声入力処
理と、 所定の認識ルールに従って前記音声入力処理より入力し
た前記音声を音声認識処理して音声認識結果を出力する
音声認識処理と、 所定の感情パラメータ生成ルールに従って、少なくとも
前記音声認識結果と時間経過とにより変化する、擬似的
に感情を示す感情パラメータを生成する感情生成処理
と、 少なくとも前記感情パラメータを基準にした所定の応答
生成ルールに従って、前記音声認識結果に対応する応答
を生成する応答生成処理と、 前記応答を出力する応答出力処理とを有し、 前記感情生成処理が、 少なくとも前記音声認識結果と対応する感情パラメータ
とによる履歴を記録する履歴記録処理を有し、 前記音声認識結果に対する前記感情パラメータの変化を
前記履歴に応じて変化させる処理であることを特徴とす
る情報処理方法。 - 【請求項108】前記感情生成処理は、 前記音声に含まれる感情を刺激する単語に応じて前記感
情パラメータを変化させ、 前記感情を刺激する単語以外の単語が、前記感情を刺激
する単語を同時に頻繁に使用される場合、該単語によっ
ても、同時に使用される頻度の高い前記感情を刺激する
単語による場合と同様に、前記感情パラメータを変化さ
せる処理であることを特徴とする請求項107に記載の
情報処理方法。 - 【請求項109】前記感情生成処理は、 前記音声に含まれる感情を刺激する単語に応じて前記感
情パラメータを変化させ、 前記感情を刺激する単語のうちの所定の単語が頻繁に使
用される場合、該感情を刺激する単語により前記感情パ
ラメータの変化量を低減する処理であることを特徴とす
る請求項107に記載の情報処理方法。
Priority Applications (17)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10365944A JP2000187435A (ja) | 1998-12-24 | 1998-12-24 | 情報処理装置、携帯機器、電子ペット装置、情報処理手順を記録した記録媒体及び情報処理方法 |
KR1020067013436A KR20060086457A (ko) | 1998-12-24 | 1999-12-24 | 정보처리장치, 전자페트장치 및 정보처리방법 |
EP06124149A EP1748421B1 (en) | 1998-12-24 | 1999-12-24 | Speech input processing with emotion model based response generation |
CNB2004100351752A CN1253810C (zh) | 1998-12-24 | 1999-12-24 | 信息处理装置和信息处理方法 |
EP06124148A EP1750252A3 (en) | 1998-12-24 | 1999-12-24 | Speech input processing with catalog based response generation |
US09/622,772 US6792406B1 (en) | 1998-12-24 | 1999-12-24 | Information processing apparatus, portable device, electronic pet apparatus recording medium storing information processing procedures and information processing method |
EP99961362A EP1072297B1 (en) | 1998-12-24 | 1999-12-24 | Information processing apparatus |
CNB2004100351748A CN1252620C (zh) | 1998-12-24 | 1999-12-24 | 信息处理装置和信息处理方法 |
CNB998032344A CN1202511C (zh) | 1998-12-24 | 1999-12-24 | 信息处理装置和信息处理方法 |
DE69935909T DE69935909T2 (de) | 1998-12-24 | 1999-12-24 | Vorrichtung zur Informationsverarbeitung |
PCT/JP1999/007271 WO2000038808A1 (fr) | 1998-12-24 | 1999-12-24 | Processeur d'informations, dispositif portable, dispositif d'animal de compagnie electronique, support enregistre sur lequel la procedure de traitement des informations est enregistree et procede de traitement des informations |
DE69939755T DE69939755D1 (de) | 1998-12-24 | 1999-12-24 | Spracheingabeverarbeitung mit einer emotions-basierten Modell Antwort Generation |
KR1020007008863A KR100751957B1 (ko) | 1998-12-24 | 1999-12-24 | 전자페트장치, 정보처리장치 및 정보처리방법 |
CNB2004100351822A CN1253812C (zh) | 1998-12-24 | 1999-12-24 | 信息处理装置和信息处理方法 |
KR1020067013437A KR100702645B1 (ko) | 1998-12-24 | 1999-12-24 | 정보처리장치, 전자페트장치 및 정보처리방법 |
CNA200410035170XA CN1551047A (zh) | 1998-12-24 | 1999-12-24 | 信息处理装置和信息处理方法 |
CNB2004100351767A CN1253811C (zh) | 1998-12-24 | 1999-12-24 | 信息处理装置和信息处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10365944A JP2000187435A (ja) | 1998-12-24 | 1998-12-24 | 情報処理装置、携帯機器、電子ペット装置、情報処理手順を記録した記録媒体及び情報処理方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008329888A Division JP2009151314A (ja) | 2008-12-25 | 2008-12-25 | 情報処理装置及び情報処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000187435A true JP2000187435A (ja) | 2000-07-04 |
JP2000187435A5 JP2000187435A5 (ja) | 2006-02-02 |
Family
ID=18485522
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10365944A Abandoned JP2000187435A (ja) | 1998-12-24 | 1998-12-24 | 情報処理装置、携帯機器、電子ペット装置、情報処理手順を記録した記録媒体及び情報処理方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US6792406B1 (ja) |
EP (3) | EP1748421B1 (ja) |
JP (1) | JP2000187435A (ja) |
KR (3) | KR20060086457A (ja) |
CN (6) | CN1253810C (ja) |
DE (2) | DE69935909T2 (ja) |
WO (1) | WO2000038808A1 (ja) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002041276A (ja) * | 2000-07-24 | 2002-02-08 | Sony Corp | 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体 |
JP2002091482A (ja) * | 2000-09-13 | 2002-03-27 | Agi:Kk | 感情検出方法及び感情検出装置ならびに記録媒体 |
WO2002028603A1 (fr) * | 2000-10-05 | 2002-04-11 | Sony Corporation | Robot et procede de commande de celui-ci |
JP2002139987A (ja) * | 2000-10-31 | 2002-05-17 | Atr Media Integration & Communications Res Lab | 仮想生物飼育システム |
JP2002215183A (ja) * | 2001-01-16 | 2002-07-31 | Agi:Kk | 感性発生方法及び感性発生装置並びにソフトウェア |
JP2002268699A (ja) * | 2001-03-09 | 2002-09-20 | Sony Corp | 音声合成装置及び音声合成方法、並びにプログラムおよび記録媒体 |
JP2002311984A (ja) * | 2001-04-13 | 2002-10-25 | Bandai Co Ltd | 会話装置 |
JP2004097704A (ja) * | 2002-09-12 | 2004-04-02 | P To Pa:Kk | 遊技機、遊技制御方法、制御プログラム |
JP2005217539A (ja) * | 2004-01-27 | 2005-08-11 | Matsushita Electric Works Ltd | バーチャルコンパニオンシステム |
JPWO2004029905A1 (ja) * | 2002-09-27 | 2006-01-26 | 株式会社ギンガネット | 遠隔教育システム、受講確認方法および受講確認プログラム |
JP2007054102A (ja) * | 2005-08-22 | 2007-03-08 | Sanyo Product Co Ltd | 遊技システム及び遊技機用の電子端末 |
US7340393B2 (en) | 2000-09-13 | 2008-03-04 | Advanced Generation Interface, Inc. | Emotion recognizing method, sensibility creating method, device, and software |
US7623856B2 (en) | 2002-08-13 | 2009-11-24 | Nec Electronics Corporation | Method for testing communication protocol having collection of internal information of a mobile communication terminal by an external module |
JP2010262533A (ja) * | 2009-05-08 | 2010-11-18 | Yahoo Japan Corp | デバイス間でキャラクタが移動するデバイス及び通信システムの制御方法 |
CN107516511A (zh) * | 2016-06-13 | 2017-12-26 | 微软技术许可有限责任公司 | 意图识别和情绪的文本到语音学习系统 |
JP2020076923A (ja) * | 2018-11-09 | 2020-05-21 | 株式会社日立製作所 | 対話システム、装置、及びプログラム |
JP2021064947A (ja) * | 2020-12-11 | 2021-04-22 | 京セラ株式会社 | 携帯端末およびプログラム |
WO2021176780A1 (ja) * | 2020-03-04 | 2021-09-10 | 株式会社東海理化電機製作所 | 制御装置、制御システム、情報処理装置、およびプログラム |
JP2022002727A (ja) * | 2018-05-24 | 2022-01-11 | グリー株式会社 | ゲーム処理プログラム、ゲーム処理方法、および、ゲーム処理装置 |
US11380319B2 (en) | 2017-07-24 | 2022-07-05 | Kyocera Corporation | Charging stand, mobile terminal, communication system, method, and program |
JP7565764B2 (ja) | 2020-11-19 | 2024-10-11 | 株式会社コーエーテクモゲームス | ゲームプログラム、記録媒体、ゲーム処理方法、情報処理装置 |
Families Citing this family (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001154681A (ja) * | 1999-11-30 | 2001-06-08 | Sony Corp | 音声処理装置および音声処理方法、並びに記録媒体 |
JP3419754B2 (ja) * | 2000-10-30 | 2003-06-23 | 株式会社ソニー・コンピュータエンタテインメント | 入力音声をキャラクタの動作に反映させるエンタテインメント装置、方法および記憶媒体 |
GB2375969A (en) | 2001-05-31 | 2002-12-04 | Nokia Corp | Electronic gaming |
KR100624403B1 (ko) * | 2001-10-06 | 2006-09-15 | 삼성전자주식회사 | 인체의 신경계 기반 정서 합성 장치 및 방법 |
WO2003035334A1 (fr) * | 2001-10-22 | 2003-05-01 | Sony Corporation | Appareil robotique et procede de commande pour un tel appareil |
US7292976B1 (en) * | 2003-05-29 | 2007-11-06 | At&T Corp. | Active learning process for spoken dialog systems |
DE102004001801A1 (de) * | 2004-01-05 | 2005-07-28 | Deutsche Telekom Ag | Dialogsystem insbesondere zur Unterstützung der Patientenbetreuung |
US7865566B2 (en) * | 2004-01-30 | 2011-01-04 | Yahoo! Inc. | Method and apparatus for providing real-time notification for avatars |
US7707520B2 (en) * | 2004-01-30 | 2010-04-27 | Yahoo! Inc. | Method and apparatus for providing flash-based avatars |
KR100703281B1 (ko) * | 2004-04-30 | 2007-04-03 | 삼성전자주식회사 | 휴대단말기의 특정 상태에서 화면 표시장치 및 방법 |
US7472065B2 (en) * | 2004-06-04 | 2008-12-30 | International Business Machines Corporation | Generating paralinguistic phenomena via markup in text-to-speech synthesis |
US7873911B2 (en) * | 2004-08-31 | 2011-01-18 | Gopalakrishnan Kumar C | Methods for providing information services related to visual imagery |
JP3962766B2 (ja) * | 2004-10-08 | 2007-08-22 | 松下電器産業株式会社 | 対話支援装置 |
WO2006040971A1 (ja) * | 2004-10-08 | 2006-04-20 | Matsushita Electric Industrial Co., Ltd. | 対話支援装置 |
US7613613B2 (en) * | 2004-12-10 | 2009-11-03 | Microsoft Corporation | Method and system for converting text to lip-synchronized speech in real time |
US8340971B1 (en) * | 2005-01-05 | 2012-12-25 | At&T Intellectual Property Ii, L.P. | System and method of dialog trajectory analysis |
WO2006083684A2 (en) * | 2005-01-28 | 2006-08-10 | Aol Llc | Web query classification |
GB2427109B (en) | 2005-05-30 | 2007-08-01 | Kyocera Corp | Audio output apparatus, document reading method, and mobile terminal |
CN101248652B (zh) * | 2005-09-22 | 2011-05-18 | 中兴通讯股份有限公司 | 一种手机电子宠物的实现系统及方法 |
KR100869238B1 (ko) | 2005-11-09 | 2008-11-18 | 삼성전자주식회사 | 휴대단말기의 상태 표현 장치 및 방법 |
CN101246475B (zh) * | 2007-02-14 | 2010-05-19 | 北京书生国际信息技术有限公司 | 一种基于版面信息的检索方法 |
EP2132650A4 (en) * | 2007-03-01 | 2010-10-27 | Sony Comp Entertainment Us | SYSTEM AND METHOD FOR COMMUNICATING WITH A VIRTUAL WORLD |
CN101075301A (zh) * | 2007-06-28 | 2007-11-21 | 腾讯科技(深圳)有限公司 | 虚拟宠物系统和虚拟宠物聊天方法、装置 |
JP4392620B2 (ja) * | 2007-08-14 | 2010-01-06 | ソニー株式会社 | 情報処理装置、情報処理方法、演算装置、演算方法、プログラム、および記録媒体 |
CN101119209A (zh) | 2007-09-19 | 2008-02-06 | 腾讯科技(深圳)有限公司 | 虚拟宠物系统和虚拟宠物聊天方法、装置 |
JP2009104231A (ja) * | 2007-10-19 | 2009-05-14 | Ricoh Co Ltd | 情報処理装置、音出力装置、記号表示装置、画像形成装置、ユーザ属性判定方法、プログラム |
US8577685B2 (en) * | 2008-10-24 | 2013-11-05 | At&T Intellectual Property I, L.P. | System and method for targeted advertising |
CN101727904B (zh) * | 2008-10-31 | 2013-04-24 | 国际商业机器公司 | 语音翻译方法和装置 |
DE102010012427B4 (de) | 2010-03-23 | 2014-04-24 | Zoobe Gmbh | Verfahren zur Zuordnung von Sprachmerkmalen zu Bewegungsmustern |
US8483873B2 (en) * | 2010-07-20 | 2013-07-09 | Innvo Labs Limited | Autonomous robotic life form |
CN101961553B (zh) * | 2010-08-23 | 2013-06-05 | 福建捷联电子有限公司 | 一种用于发泄情绪的装置 |
JP5602653B2 (ja) * | 2011-01-31 | 2014-10-08 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 情報処理装置、情報処理方法、情報処理システム、およびプログラム |
CN102671383A (zh) * | 2011-03-08 | 2012-09-19 | 德信互动科技(北京)有限公司 | 基于声控的游戏实现装置和方法 |
US9229974B1 (en) | 2012-06-01 | 2016-01-05 | Google Inc. | Classifying queries |
US9563627B1 (en) * | 2012-09-12 | 2017-02-07 | Google Inc. | Contextual determination of related media content |
CN103905619A (zh) * | 2012-12-26 | 2014-07-02 | 腾讯科技(深圳)有限公司 | 一种基于移动终端的交互方法、系统及移动终端 |
AU2014214676A1 (en) | 2013-02-07 | 2015-08-27 | Apple Inc. | Voice trigger for a digital assistant |
KR101330158B1 (ko) * | 2013-07-12 | 2013-11-15 | 주식회사 메조미디어 | 텍스트의 감정지수 분석 방법 및 컴퓨터 판독 가능한 기록 매체 |
JP6359327B2 (ja) * | 2014-04-25 | 2018-07-18 | シャープ株式会社 | 情報処理装置および制御プログラム |
DE112017004363T5 (de) * | 2016-08-29 | 2019-06-19 | Groove X, Inc. | Autonom agierender roboter, der die richtung einer geräuschquelle erkennt |
US9786271B1 (en) | 2016-09-28 | 2017-10-10 | International Business Machines Corporation | Voice pattern coding sequence and cataloging voice matching system |
CN108925456A (zh) * | 2018-05-31 | 2018-12-04 | 广州粤创富科技有限公司 | 一种与宠物互动的方法、装置及可穿戴设备 |
CN111496802A (zh) * | 2019-01-31 | 2020-08-07 | 中国移动通信集团终端有限公司 | 人工智能设备的控制方法、装置、设备及介质 |
CN110033768A (zh) * | 2019-04-22 | 2019-07-19 | 贵阳高新网用软件有限公司 | 一种智能搜索发言人的方法及设备 |
CN112669046B (zh) * | 2019-10-16 | 2022-06-28 | 辰光能源科技有限公司 | 真食呈现系统 |
KR102696311B1 (ko) * | 2024-01-02 | 2024-08-19 | 최병술 | 음성 텍스트변환 녹취시스템 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4638445A (en) * | 1984-06-08 | 1987-01-20 | Mattaboni Paul J | Autonomous mobile robot |
US5029214A (en) * | 1986-08-11 | 1991-07-02 | Hollander James F | Electronic speech control apparatus and methods |
EP0543329B1 (en) * | 1991-11-18 | 2002-02-06 | Kabushiki Kaisha Toshiba | Speech dialogue system for facilitating human-computer interaction |
JPH0612401A (ja) * | 1992-06-26 | 1994-01-21 | Fuji Xerox Co Ltd | 感情模擬装置 |
US5732187A (en) * | 1993-09-27 | 1998-03-24 | Texas Instruments Incorporated | Speaker-dependent speech recognition using speaker independent models |
US5748841A (en) * | 1994-02-25 | 1998-05-05 | Morin; Philippe | Supervised contextual language acquisition system |
US5682469A (en) * | 1994-07-08 | 1997-10-28 | Microsoft Corporation | Software platform having a real world interface with animated characters |
PT789901E (pt) * | 1994-11-01 | 2000-04-28 | British Telecomm | Metodo e aparelho para o reconhecimento de voz |
US5842168A (en) * | 1995-08-21 | 1998-11-24 | Seiko Epson Corporation | Cartridge-based, interactive speech recognition device with response-creation capability |
US5774841A (en) * | 1995-09-20 | 1998-06-30 | The United States Of America As Represented By The Adminstrator Of The National Aeronautics And Space Administration | Real-time reconfigurable adaptive speech recognition command and control apparatus and method |
US5746602A (en) * | 1996-02-27 | 1998-05-05 | Kikinis; Dan | PC peripheral interactive doll |
JPH09305787A (ja) * | 1996-03-13 | 1997-11-28 | Sharp Corp | アニメーション作成・再生装置、及びアニメーション検索装置 |
KR19980065482A (ko) * | 1997-01-10 | 1998-10-15 | 김광호 | 스피킹 스타일을 변경하는 음성 합성 방법 |
JPH10206976A (ja) | 1997-01-22 | 1998-08-07 | Hitachi Ltd | 背面投写型表示装置 |
JPH10260976A (ja) * | 1997-03-18 | 1998-09-29 | Ricoh Co Ltd | 音声対話方法 |
JPH10276462A (ja) * | 1997-03-27 | 1998-10-13 | Canon Inc | メッセージ伝送システム及びメッセージ伝送方法 |
JPH10313357A (ja) * | 1997-05-13 | 1998-11-24 | Nec Corp | 留守番電話機 |
US5983190A (en) * | 1997-05-19 | 1999-11-09 | Microsoft Corporation | Client server animation system for managing interactive user interface characters |
US5953700A (en) * | 1997-06-11 | 1999-09-14 | International Business Machines Corporation | Portable acoustic interface for remote access to automatic speech/speaker recognition server |
AU9792198A (en) * | 1997-10-07 | 1999-04-27 | Health Hero Network, Inc. | Remotely programmable talking toy |
US6636219B2 (en) * | 1998-02-26 | 2003-10-21 | Learn.Com, Inc. | System and method for automatic animation generation |
US6185534B1 (en) * | 1998-03-23 | 2001-02-06 | Microsoft Corporation | Modeling emotion and personality in a computer user interface |
JP4036528B2 (ja) * | 1998-04-27 | 2008-01-23 | 富士通株式会社 | 意味認識システム |
-
1998
- 1998-12-24 JP JP10365944A patent/JP2000187435A/ja not_active Abandoned
-
1999
- 1999-12-24 KR KR1020067013436A patent/KR20060086457A/ko not_active Application Discontinuation
- 1999-12-24 KR KR1020007008863A patent/KR100751957B1/ko not_active IP Right Cessation
- 1999-12-24 CN CNB2004100351752A patent/CN1253810C/zh not_active Expired - Fee Related
- 1999-12-24 WO PCT/JP1999/007271 patent/WO2000038808A1/ja active IP Right Grant
- 1999-12-24 EP EP06124149A patent/EP1748421B1/en not_active Expired - Lifetime
- 1999-12-24 KR KR1020067013437A patent/KR100702645B1/ko not_active IP Right Cessation
- 1999-12-24 CN CNB2004100351748A patent/CN1252620C/zh not_active Expired - Fee Related
- 1999-12-24 EP EP99961362A patent/EP1072297B1/en not_active Expired - Lifetime
- 1999-12-24 DE DE69935909T patent/DE69935909T2/de not_active Expired - Fee Related
- 1999-12-24 CN CNA200410035170XA patent/CN1551047A/zh active Pending
- 1999-12-24 EP EP06124148A patent/EP1750252A3/en not_active Withdrawn
- 1999-12-24 US US09/622,772 patent/US6792406B1/en not_active Expired - Fee Related
- 1999-12-24 DE DE69939755T patent/DE69939755D1/de not_active Expired - Fee Related
- 1999-12-24 CN CNB2004100351767A patent/CN1253811C/zh not_active Expired - Fee Related
- 1999-12-24 CN CNB2004100351822A patent/CN1253812C/zh not_active Expired - Fee Related
- 1999-12-24 CN CNB998032344A patent/CN1202511C/zh not_active Expired - Fee Related
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002041276A (ja) * | 2000-07-24 | 2002-02-08 | Sony Corp | 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体 |
US7340393B2 (en) | 2000-09-13 | 2008-03-04 | Advanced Generation Interface, Inc. | Emotion recognizing method, sensibility creating method, device, and software |
JP2002091482A (ja) * | 2000-09-13 | 2002-03-27 | Agi:Kk | 感情検出方法及び感情検出装置ならびに記録媒体 |
WO2002028603A1 (fr) * | 2000-10-05 | 2002-04-11 | Sony Corporation | Robot et procede de commande de celui-ci |
US6711467B2 (en) | 2000-10-05 | 2004-03-23 | Sony Corporation | Robot apparatus and its control method |
JP2002139987A (ja) * | 2000-10-31 | 2002-05-17 | Atr Media Integration & Communications Res Lab | 仮想生物飼育システム |
JP2002215183A (ja) * | 2001-01-16 | 2002-07-31 | Agi:Kk | 感性発生方法及び感性発生装置並びにソフトウェア |
JP2002268699A (ja) * | 2001-03-09 | 2002-09-20 | Sony Corp | 音声合成装置及び音声合成方法、並びにプログラムおよび記録媒体 |
JP2002311984A (ja) * | 2001-04-13 | 2002-10-25 | Bandai Co Ltd | 会話装置 |
JP4646170B2 (ja) * | 2001-04-13 | 2011-03-09 | 株式会社バンダイ | 会話装置 |
US7623856B2 (en) | 2002-08-13 | 2009-11-24 | Nec Electronics Corporation | Method for testing communication protocol having collection of internal information of a mobile communication terminal by an external module |
JP2004097704A (ja) * | 2002-09-12 | 2004-04-02 | P To Pa:Kk | 遊技機、遊技制御方法、制御プログラム |
AU2003266591B2 (en) * | 2002-09-27 | 2007-11-01 | Ginganet Corporation | Remote education system, course attendance check method, and course attendance check program |
JPWO2004029905A1 (ja) * | 2002-09-27 | 2006-01-26 | 株式会社ギンガネット | 遠隔教育システム、受講確認方法および受講確認プログラム |
JP2005217539A (ja) * | 2004-01-27 | 2005-08-11 | Matsushita Electric Works Ltd | バーチャルコンパニオンシステム |
JP2007054102A (ja) * | 2005-08-22 | 2007-03-08 | Sanyo Product Co Ltd | 遊技システム及び遊技機用の電子端末 |
JP2010262533A (ja) * | 2009-05-08 | 2010-11-18 | Yahoo Japan Corp | デバイス間でキャラクタが移動するデバイス及び通信システムの制御方法 |
CN107516511A (zh) * | 2016-06-13 | 2017-12-26 | 微软技术许可有限责任公司 | 意图识别和情绪的文本到语音学习系统 |
US11238842B2 (en) | 2016-06-13 | 2022-02-01 | Microsoft Technology Licensing, Llc | Intent recognition and emotional text-to-speech learning |
CN107516511B (zh) * | 2016-06-13 | 2021-05-25 | 微软技术许可有限责任公司 | 意图识别和情绪的文本到语音学习系统 |
US11380319B2 (en) | 2017-07-24 | 2022-07-05 | Kyocera Corporation | Charging stand, mobile terminal, communication system, method, and program |
JP2022002727A (ja) * | 2018-05-24 | 2022-01-11 | グリー株式会社 | ゲーム処理プログラム、ゲーム処理方法、および、ゲーム処理装置 |
JP7203923B2 (ja) | 2018-05-24 | 2023-01-13 | グリー株式会社 | ゲーム処理プログラム、ゲーム処理方法、および、ゲーム処理装置 |
JP6993314B2 (ja) | 2018-11-09 | 2022-01-13 | 株式会社日立製作所 | 対話システム、装置、及びプログラム |
JP2020076923A (ja) * | 2018-11-09 | 2020-05-21 | 株式会社日立製作所 | 対話システム、装置、及びプログラム |
JP2021139997A (ja) * | 2020-03-04 | 2021-09-16 | 株式会社東海理化電機製作所 | 制御装置、制御システム、情報処理装置、およびプログラム |
WO2021176780A1 (ja) * | 2020-03-04 | 2021-09-10 | 株式会社東海理化電機製作所 | 制御装置、制御システム、情報処理装置、およびプログラム |
JP7437191B2 (ja) | 2020-03-04 | 2024-02-22 | 株式会社東海理化電機製作所 | 制御装置、制御システム、情報処理装置、およびプログラム |
JP7565764B2 (ja) | 2020-11-19 | 2024-10-11 | 株式会社コーエーテクモゲームス | ゲームプログラム、記録媒体、ゲーム処理方法、情報処理装置 |
JP2021064947A (ja) * | 2020-12-11 | 2021-04-22 | 京セラ株式会社 | 携帯端末およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN1549201A (zh) | 2004-11-24 |
EP1072297A4 (en) | 2005-12-14 |
EP1748421A2 (en) | 2007-01-31 |
CN1549199A (zh) | 2004-11-24 |
WO2000038808A1 (fr) | 2000-07-06 |
KR100751957B1 (ko) | 2007-08-24 |
CN1202511C (zh) | 2005-05-18 |
CN1253812C (zh) | 2006-04-26 |
KR20060086457A (ko) | 2006-07-31 |
KR20060084455A (ko) | 2006-07-24 |
US6792406B1 (en) | 2004-09-14 |
CN1252620C (zh) | 2006-04-19 |
KR20010040942A (ko) | 2001-05-15 |
DE69935909D1 (de) | 2007-06-06 |
CN1291112A (zh) | 2001-04-11 |
CN1253811C (zh) | 2006-04-26 |
CN1549200A (zh) | 2004-11-24 |
EP1748421B1 (en) | 2008-10-15 |
EP1750252A2 (en) | 2007-02-07 |
CN1253810C (zh) | 2006-04-26 |
KR100702645B1 (ko) | 2007-04-02 |
CN1551047A (zh) | 2004-12-01 |
DE69939755D1 (de) | 2008-11-27 |
EP1750252A3 (en) | 2007-07-25 |
DE69935909T2 (de) | 2008-01-10 |
EP1072297A1 (en) | 2001-01-31 |
EP1748421A3 (en) | 2007-07-25 |
EP1072297B1 (en) | 2007-04-25 |
CN1549202A (zh) | 2004-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100702645B1 (ko) | 정보처리장치, 전자페트장치 및 정보처리방법 | |
CN108962217B (zh) | 语音合成方法及相关设备 | |
CN104778945B (zh) | 响应自然语言语音口头表达的系统和方法 | |
US6526395B1 (en) | Application of personality models and interaction with synthetic characters in a computing system | |
CN108711423A (zh) | 智能语音交互实现方法、装置、计算机设备及存储介质 | |
US11646026B2 (en) | Information processing system, and information processing method | |
WO2001050342A1 (en) | Multiplicity interactive toy system in computer network | |
JP6633250B2 (ja) | 対話ロボットおよび対話システム、並びに対話プログラム | |
JP2003114692A (ja) | 音源データの提供システム、端末、玩具、提供方法、プログラム、および媒体 | |
CN108986804A (zh) | 人机交互处理方法、装置、用户终端、处理服务器及系统 | |
JP2009151314A (ja) | 情報処理装置及び情報処理方法 | |
CN114048299A (zh) | 对话方法、装置、设备、计算机可读存储介质及程序产品 | |
KR20210117827A (ko) | 인공지능을 활용한 음성 서비스 제공 시스템 및 제공 방법 | |
KR20010007842A (ko) | 완구에 있어서 대화형 음성 및 다감각인식 시스템 및 이의방법 | |
JP2001209644A (ja) | 情報処理装置および情報処理方法、並びに記録媒体 | |
WO2021064947A1 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
JP3179370B2 (ja) | おしゃべりオウム発声装置 | |
JP2001314649A (ja) | 音声遊技方法、装置および記録媒体 | |
CN116741143B (zh) | 基于数字分身的个性化ai名片的交互方法及相关组件 | |
JP7530688B1 (ja) | プログラム、コンピュータ、システムおよび情報処理方法 | |
JP2001195419A (ja) | 情報提供システム | |
JP7160076B2 (ja) | 対話制御装置、対話制御方法及びプログラム | |
WO2021064948A1 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
JP2023053442A (ja) | 対話システム、対話システムの制御方法、及びコンピュータプログラム | |
CN113257224A (zh) | 用于多轮对话的tts优化方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051110 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051110 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20051110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081225 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20090331 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20090402 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090630 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20090820 |