JP2002091491A - 複数機器の音声制御システム - Google Patents
複数機器の音声制御システムInfo
- Publication number
- JP2002091491A JP2002091491A JP2000284613A JP2000284613A JP2002091491A JP 2002091491 A JP2002091491 A JP 2002091491A JP 2000284613 A JP2000284613 A JP 2000284613A JP 2000284613 A JP2000284613 A JP 2000284613A JP 2002091491 A JP2002091491 A JP 2002091491A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- user
- control system
- controlled
- operation content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Electric Ovens (AREA)
Abstract
(57)【要約】
【課題】 使用者の発声方向を検出することによって、
制御対象となる機器の認識率を高めることのできる複数
機器の音声制御システムを提供する。 【解決手段】 制御対象となる機器80,82,84と、空間内
の複数箇所に配置され、使用者の音声を検出するマイク
ロホン20,22,24と、各マイクロホンが検出した音声デー
タを集める集音手段30と、集音手段に入力された音声デ
ータの内容を解析する音声認識手段40と、集音手段に入
力された音声データの大きさから、使用者の発声方向を
検出する分布分析手段50と、音声認識手段によって解析
された音声データの内容と、分布分析手段によって解析
された使用者の発声方向に基づいて、制御対象となる機
器と操作内容を決定する推論手段60と、推論手段により
決定された機器と操作内容に基づいて、制御対象となる
機器に制御信号を発する機器制御手段70と、を具える。
制御対象となる機器の認識率を高めることのできる複数
機器の音声制御システムを提供する。 【解決手段】 制御対象となる機器80,82,84と、空間内
の複数箇所に配置され、使用者の音声を検出するマイク
ロホン20,22,24と、各マイクロホンが検出した音声デー
タを集める集音手段30と、集音手段に入力された音声デ
ータの内容を解析する音声認識手段40と、集音手段に入
力された音声データの大きさから、使用者の発声方向を
検出する分布分析手段50と、音声認識手段によって解析
された音声データの内容と、分布分析手段によって解析
された使用者の発声方向に基づいて、制御対象となる機
器と操作内容を決定する推論手段60と、推論手段により
決定された機器と操作内容に基づいて、制御対象となる
機器に制御信号を発する機器制御手段70と、を具える。
Description
【0001】
【発明の属する技術分野】本発明は、音声により遠隔か
ら複数の機器を操作することのできる音声制御システム
に関するものであり、具体的には音声認識率を高めるこ
とのできる音声制御システムに関するものである。
ら複数の機器を操作することのできる音声制御システム
に関するものであり、具体的には音声認識率を高めるこ
とのできる音声制御システムに関するものである。
【0002】
【従来の技術】使用者の発した音声に基づいて、複数の
機器の操作を行なう音声制御システムが知られている。
この種音声制御システム(90)は、図6に示すように、1
つのマイクロホン(91)を通じて検出した使用者の音声を
集音手段(92)に集め、音声認識手段(93)で解析し、その
解析結果に基づいて機器制御手段(94)によって、対象と
なる機器(95)(96)(97)を操作するものである。音声認識
手段(93)には、予め操作対象となる機器(95)(96)(97)の
名称と操作内容を記憶させておき、入力された音声デー
タと、記憶されているデータとのパターンマッチングに
より、制御する機器の特定と操作内容が特定される。
機器の操作を行なう音声制御システムが知られている。
この種音声制御システム(90)は、図6に示すように、1
つのマイクロホン(91)を通じて検出した使用者の音声を
集音手段(92)に集め、音声認識手段(93)で解析し、その
解析結果に基づいて機器制御手段(94)によって、対象と
なる機器(95)(96)(97)を操作するものである。音声認識
手段(93)には、予め操作対象となる機器(95)(96)(97)の
名称と操作内容を記憶させておき、入力された音声デー
タと、記憶されているデータとのパターンマッチングに
より、制御する機器の特定と操作内容が特定される。
【0003】
【発明が解決しようとする課題】上記音声制御システム
は、雑音の多い環境、例えば台所などでは、音声の認識
が困難であり、上手く機能しないことがあった。また、
マイクロホン(91)は、集音率を高めるため、使用者が身
につけておく必要があった。また、従来の音声認識手段
(93)では、予め特定使用者の音声パターンを記憶させる
必要があり、さらに、記憶された特定使用者以外の音声
では認識率が大きく低下してしまう問題があった。
は、雑音の多い環境、例えば台所などでは、音声の認識
が困難であり、上手く機能しないことがあった。また、
マイクロホン(91)は、集音率を高めるため、使用者が身
につけておく必要があった。また、従来の音声認識手段
(93)では、予め特定使用者の音声パターンを記憶させる
必要があり、さらに、記憶された特定使用者以外の音声
では認識率が大きく低下してしまう問題があった。
【0004】本発明の目的は、使用者の発声方向を検出
することによって、制御対象となる機器の認識率を高め
ることのできる複数機器の音声制御システムを提供する
ことである。
することによって、制御対象となる機器の認識率を高め
ることのできる複数機器の音声制御システムを提供する
ことである。
【0005】
【課題を解決するための手段】上記課題を解決するため
に、本発明の複数機器の音声制御システム(10)は、制御
対象となる複数の機器(80)(82)(84)と、空間の複数箇所
に配置され、使用者の音声を検出する複数のマイクロホ
ン(20)(22)(24)と、各マイクロホン(20)(22)(24)が検出
した音声データを集める検出する集音手段(30)と、集音
手段(30)に入力された音声データの内容を解析する音声
認識手段(40)と、集音手段(30)に入力された音声データ
の大きさから、使用者の発声方向を検出する分布分析手
段(50)と、音声認識手段(40)によって解析された音声デ
ータの内容と、分布分析手段(50)によって解析された使
用者の発声方向に基づいて、制御対象となる機器(82)と
操作内容を決定する推論手段(60)と、推論手段(60)によ
り決定された機器(82)と操作内容に基づいて、制御対象
となる機器(82)に制御信号を発する機器制御手段(70)
と、を具える。
に、本発明の複数機器の音声制御システム(10)は、制御
対象となる複数の機器(80)(82)(84)と、空間の複数箇所
に配置され、使用者の音声を検出する複数のマイクロホ
ン(20)(22)(24)と、各マイクロホン(20)(22)(24)が検出
した音声データを集める検出する集音手段(30)と、集音
手段(30)に入力された音声データの内容を解析する音声
認識手段(40)と、集音手段(30)に入力された音声データ
の大きさから、使用者の発声方向を検出する分布分析手
段(50)と、音声認識手段(40)によって解析された音声デ
ータの内容と、分布分析手段(50)によって解析された使
用者の発声方向に基づいて、制御対象となる機器(82)と
操作内容を決定する推論手段(60)と、推論手段(60)によ
り決定された機器(82)と操作内容に基づいて、制御対象
となる機器(82)に制御信号を発する機器制御手段(70)
と、を具える。
【0006】
【作用及び効果】使用者が、制御対象となる機器(82)に
向かって、機器(82)の名称と操作内容を発声すると、音
声は複数位置に配置された各マイクロホン(20)(22)(24)
によって集音され、音声データは、各マイクロホン(20)
(22)(24)から集音手段(30)に送信される。集音手段(30)
は、各マイクロホン(20)(22)(24)からの音声データを、
音声認識手段(40)と分布分析手段(50)に送信する。音声
認識手段(40)は、受信した音声データの内容を解析し、
制御対象となる機器(82)と操作内容を特定する。また、
分布分析手段(50)は、受信した音声データに基づいて、
使用者の発声方向を解析し、使用者がどの機器に向かっ
て発声したかを特定する。推論手段(60)は、前記音声認
識手段(40)にて解析された音声データと、分布分析手段
(50)にて解析された発声方向の両方のデータに基づい
て、制御対象となる機器(82)を特定し、また、操作内容
を特定する。機器制御手段(70)は、推論手段(60)にて決
定された機器(82)と操作内容に基づいて、制御対象とな
る機器(82)に操作内容に応じた制御信号を発して、機器
(82)を操作する。
向かって、機器(82)の名称と操作内容を発声すると、音
声は複数位置に配置された各マイクロホン(20)(22)(24)
によって集音され、音声データは、各マイクロホン(20)
(22)(24)から集音手段(30)に送信される。集音手段(30)
は、各マイクロホン(20)(22)(24)からの音声データを、
音声認識手段(40)と分布分析手段(50)に送信する。音声
認識手段(40)は、受信した音声データの内容を解析し、
制御対象となる機器(82)と操作内容を特定する。また、
分布分析手段(50)は、受信した音声データに基づいて、
使用者の発声方向を解析し、使用者がどの機器に向かっ
て発声したかを特定する。推論手段(60)は、前記音声認
識手段(40)にて解析された音声データと、分布分析手段
(50)にて解析された発声方向の両方のデータに基づい
て、制御対象となる機器(82)を特定し、また、操作内容
を特定する。機器制御手段(70)は、推論手段(60)にて決
定された機器(82)と操作内容に基づいて、制御対象とな
る機器(82)に操作内容に応じた制御信号を発して、機器
(82)を操作する。
【0007】本発明では、使用者の発する音声の内容だ
けでなく、発声方向を検出して、制御対象となる機器を
特定するから、音声データの認識率を向上させることが
できる。使用者は、マイクロホンを身につける必要がな
く、また、マイクロホンの存在を意識せずに、制御した
い機器の方向に向かって発声を行なえばよいから、操作
が非常に簡単である。また、雑音の多い場所、例えば台
所などで、操作命令にノイズが入っても、分布分析手段
(50)によって機器の特定を行なうことができるから、音
声認識の精度向上を図ることができる。さらに、複数の
マイクロホンを使用することにより、集音率の向上を達
成でき、音声認識精度の向上が達成される。
けでなく、発声方向を検出して、制御対象となる機器を
特定するから、音声データの認識率を向上させることが
できる。使用者は、マイクロホンを身につける必要がな
く、また、マイクロホンの存在を意識せずに、制御した
い機器の方向に向かって発声を行なえばよいから、操作
が非常に簡単である。また、雑音の多い場所、例えば台
所などで、操作命令にノイズが入っても、分布分析手段
(50)によって機器の特定を行なうことができるから、音
声認識の精度向上を図ることができる。さらに、複数の
マイクロホンを使用することにより、集音率の向上を達
成でき、音声認識精度の向上が達成される。
【0008】
【発明の実施の形態】本発明の音声制御システム(10)
は、図1に示すように、複数のマイクロホン(20)(22)(2
4)(26)と、該マイクロホン(20)(22)(24)(26)に電気的に
接続された集音手段(30)と、集音手段(30)に電気的に接
続された音声認識手段(40)及び分布分析手段(50)と、音
声認識手段(40)及び分布分析手段(50)に電気的に接続さ
れた推論手段(60)と、推論手段(60)に電気的に接続され
た機器制御手段(70)と、機器制御手段(70)に電気的に接
続された制御対象となる複数の機器(80)(82)(84)から構
成される。なお、本明細書では、説明の便宜上音声認識
手段、分布分析手段等の名称を付けているが、ソフト上
で処理を行なうこともできる。
は、図1に示すように、複数のマイクロホン(20)(22)(2
4)(26)と、該マイクロホン(20)(22)(24)(26)に電気的に
接続された集音手段(30)と、集音手段(30)に電気的に接
続された音声認識手段(40)及び分布分析手段(50)と、音
声認識手段(40)及び分布分析手段(50)に電気的に接続さ
れた推論手段(60)と、推論手段(60)に電気的に接続され
た機器制御手段(70)と、機器制御手段(70)に電気的に接
続された制御対象となる複数の機器(80)(82)(84)から構
成される。なお、本明細書では、説明の便宜上音声認識
手段、分布分析手段等の名称を付けているが、ソフト上
で処理を行なうこともできる。
【0009】なお、以下では、本発明を図2に示す台所
(88)に適用した実施例について説明し、制御対象となる
機器として、流し(80)、ガスコンロ(82)及び電子レンジ
(84)を例に挙げ、各機器には、表1に示す操作内容の制
御を行なうものとする。
(88)に適用した実施例について説明し、制御対象となる
機器として、流し(80)、ガスコンロ(82)及び電子レンジ
(84)を例に挙げ、各機器には、表1に示す操作内容の制
御を行なうものとする。
【0010】
【表1】
【0011】マイクロホン(20)(22)(24)(26)は、台所(8
8)の天井、床又は壁面に、使用者(100)の作業空間を取
り囲むように複数配置される。図示の実施例では、マイ
クロホン(20)(22)(24)(26)を円周上に等間隔に配置して
いる。各マイクロホン(20)(22)(24)(26)は、台所(88)内
の音を集音し、集音された音は、集音手段(30)に送られ
る。例えば、使用者(100)がガスコンロ(82)の方向に向
かって、「ガスコンロ、強」という操作命令を発声した
ときには(図3のステップ1)、各マイクロホン(20)(22)
(24)が集音する音声の大きさは、図4に示すように、ガ
スコンロ(82)に近い位置に配備されたマイクロホン(22)
が最大となる。
8)の天井、床又は壁面に、使用者(100)の作業空間を取
り囲むように複数配置される。図示の実施例では、マイ
クロホン(20)(22)(24)(26)を円周上に等間隔に配置して
いる。各マイクロホン(20)(22)(24)(26)は、台所(88)内
の音を集音し、集音された音は、集音手段(30)に送られ
る。例えば、使用者(100)がガスコンロ(82)の方向に向
かって、「ガスコンロ、強」という操作命令を発声した
ときには(図3のステップ1)、各マイクロホン(20)(22)
(24)が集音する音声の大きさは、図4に示すように、ガ
スコンロ(82)に近い位置に配備されたマイクロホン(22)
が最大となる。
【0012】集音手段(30)は、マイクロホンが集音した
音声データを集める。なお、集音手段(30)等の以下の制
御手段は、台所(88)内の適所に配置される。集音手段(3
0)は、例えば、各マイクロホンごとに集音された音声デ
ータの振幅(図4参照)を夫々測定し(図3のステップ
2)、最大振幅となるマイクロホン(22)の音声データを
音声認識手段(40)に送信する(ステップ3)。また、各マ
イクロホン(20)(22)(24)(26)の音声データの振幅は、分
布分析手段(50)に送られる(ステップ4)。
音声データを集める。なお、集音手段(30)等の以下の制
御手段は、台所(88)内の適所に配置される。集音手段(3
0)は、例えば、各マイクロホンごとに集音された音声デ
ータの振幅(図4参照)を夫々測定し(図3のステップ
2)、最大振幅となるマイクロホン(22)の音声データを
音声認識手段(40)に送信する(ステップ3)。また、各マ
イクロホン(20)(22)(24)(26)の音声データの振幅は、分
布分析手段(50)に送られる(ステップ4)。
【0013】音声認識手段(40)には、予め制御対象とな
る機器名と操作内容の音声パターンが夫々入力されてお
り、最大振幅のマイクロホン(22)の音声データとのパタ
ーンマッチング等の公知の音声認識技術によって、制御
対象となる機器の特定と、操作内容の特定を行なう(ス
テップ3)。
る機器名と操作内容の音声パターンが夫々入力されてお
り、最大振幅のマイクロホン(22)の音声データとのパタ
ーンマッチング等の公知の音声認識技術によって、制御
対象となる機器の特定と、操作内容の特定を行なう(ス
テップ3)。
【0014】具体的には、音声認識手段(40)では、操作
命令に含まれる機器名と操作内容を、記憶されている機
器名と操作内容の音声パターンとパターンマッチング
し、機器名と操作内容の識別率を算出する。例えば、
「ガスコンロ、強」という操作命令に対して、音声認識
手段(40)での音声識別率が、表2のようである場合、機
器名と操作内容の各音声識別率を乗じて、どの機器名と
操作内容の組合せが、使用者の発した命令に近いかを、
表3に示すように算出してポイント化する。
命令に含まれる機器名と操作内容を、記憶されている機
器名と操作内容の音声パターンとパターンマッチング
し、機器名と操作内容の識別率を算出する。例えば、
「ガスコンロ、強」という操作命令に対して、音声認識
手段(40)での音声識別率が、表2のようである場合、機
器名と操作内容の各音声識別率を乗じて、どの機器名と
操作内容の組合せが、使用者の発した命令に近いかを、
表3に示すように算出してポイント化する。
【0015】
【表2】
【0016】
【表3】
【0017】上記により算出された「操作命令(機器名
と操作内容の組合せ)」と「ポイント」は、推論手段(6
0)へ送信される。
と操作内容の組合せ)」と「ポイント」は、推論手段(6
0)へ送信される。
【0018】分布分析手段(50)は、機器名の認識率を高
めるために、使用者がどの機器に向かって発声したの
か、使用者の発声方向を特定する(図3のステップ4)。
具体的には、各マイクロホン(20)(22)(24)(26)からの音
声データを、例えば、図4に示すような波形データとし
て受信する。分布分析手段(50)は、受信した各音声デー
タの最大振幅を測定して、二乗平均などにより使用者の
発声した方向の確率を算出する。例えば、各マイクロホ
ン(20)(22)(24)の最大振幅が図4に示すように、順に1
0dB、20dB、12dB、また、マイクロホン(26)
(26)(26)の最大振幅が夫々3dBであったとする。この
場合、使用者が各機器(80)(82)(84)の方向を向いている
確率は、二乗平均を用いて、表4に示すように算出する
ことができる。
めるために、使用者がどの機器に向かって発声したの
か、使用者の発声方向を特定する(図3のステップ4)。
具体的には、各マイクロホン(20)(22)(24)(26)からの音
声データを、例えば、図4に示すような波形データとし
て受信する。分布分析手段(50)は、受信した各音声デー
タの最大振幅を測定して、二乗平均などにより使用者の
発声した方向の確率を算出する。例えば、各マイクロホ
ン(20)(22)(24)の最大振幅が図4に示すように、順に1
0dB、20dB、12dB、また、マイクロホン(26)
(26)(26)の最大振幅が夫々3dBであったとする。この
場合、使用者が各機器(80)(82)(84)の方向を向いている
確率は、二乗平均を用いて、表4に示すように算出する
ことができる。
【0019】
【表4】
【0020】上記により算出された「機器名」と「確
率」は、推論手段(60)へ送信される。
率」は、推論手段(60)へ送信される。
【0021】推論手段(60)は、音声認識手段(40)で算出
された「機器名と操作内容の組合せ」の「ポイント」
(ステップ3)と、分布分析手段(50)で算出された「機器
名」の「確率」(ステップ4)を、ファジィ理論などを利
用して結合する(図3のステップ5)。具体的には、共通
する機器名のポイントと確率を乗じて、表5に示すよう
に、ポイント化する。
された「機器名と操作内容の組合せ」の「ポイント」
(ステップ3)と、分布分析手段(50)で算出された「機器
名」の「確率」(ステップ4)を、ファジィ理論などを利
用して結合する(図3のステップ5)。具体的には、共通
する機器名のポイントと確率を乗じて、表5に示すよう
に、ポイント化する。
【0022】
【表5】
【0023】推論手段(60)は、各ポイントの比率から
「機器名」と「操作内容」の推論結果とする。具体的に
は、表6に示すように、全てのポイントの総和を分母と
し、各ポイントを分子として推論結果の確率を算出す
る。
「機器名」と「操作内容」の推論結果とする。具体的に
は、表6に示すように、全てのポイントの総和を分母と
し、各ポイントを分子として推論結果の確率を算出す
る。
【0024】
【表6】
【0025】推論手段(60)で算出された推論結果のう
ち、最も確率の高い機器名と操作内容の組合せについ
て、予め定められた閾値と比較し、確率が閾値よりも高
ければ、その機器名と操作内容を機器制御手段(70)に送
信する。確率が閾値よりも低い場合には、送信は行なわ
ない。なお、この場合、音や光などにより、操作命令が
認識されなかったことを表示するようにしてもよい。
ち、最も確率の高い機器名と操作内容の組合せについ
て、予め定められた閾値と比較し、確率が閾値よりも高
ければ、その機器名と操作内容を機器制御手段(70)に送
信する。確率が閾値よりも低い場合には、送信は行なわ
ない。なお、この場合、音や光などにより、操作命令が
認識されなかったことを表示するようにしてもよい。
【0026】機器制御手段(70)は、推論手段(60)から送
信された機器名と操作内容とを含む操作命令を受信し、
制御対象となる機器に、操作内容に対応した操作信号を
送信する(図3のステップ6)。上記の実施例の場合、
「ガスコンロ」に「強」(火力を強める)という操作内容
を送信する。
信された機器名と操作内容とを含む操作命令を受信し、
制御対象となる機器に、操作内容に対応した操作信号を
送信する(図3のステップ6)。上記の実施例の場合、
「ガスコンロ」に「強」(火力を強める)という操作内容
を送信する。
【0027】制御対象となる機器(上記の場合、ガスコ
ンロ(82))は、受信した操作信号中の操作内容に基づい
て、その操作を実行する。
ンロ(82))は、受信した操作信号中の操作内容に基づい
て、その操作を実行する。
【0028】使用者(100)が、流し(80)や電子レンジ(8
4)の方向を向いて操作命令を発声した場合も、上記と同
様に機器の選択と操作内容の決定が行なわれる。なお、
使用者(100)が、これら機器(80)(82)(84)とは別の方
向、例えば、図2の矢印とは逆の方向を向いて、操作命
令を発声した場合には、マイクロホン(26)(26)(26)の何
れかの音声データが最大振幅となるから、分布分析手段
(50)で算出される機器(80)(82)(84)の方向を向いている
確率は低くなる。従って、たとえ操作命令が音声認識手
段(40)にて高い識別率で識別されても、推論手段(60)に
て算出される推論結果は低いものとなり、操作命令が機
器制御手段(70)に送信されることはない。
4)の方向を向いて操作命令を発声した場合も、上記と同
様に機器の選択と操作内容の決定が行なわれる。なお、
使用者(100)が、これら機器(80)(82)(84)とは別の方
向、例えば、図2の矢印とは逆の方向を向いて、操作命
令を発声した場合には、マイクロホン(26)(26)(26)の何
れかの音声データが最大振幅となるから、分布分析手段
(50)で算出される機器(80)(82)(84)の方向を向いている
確率は低くなる。従って、たとえ操作命令が音声認識手
段(40)にて高い識別率で識別されても、推論手段(60)に
て算出される推論結果は低いものとなり、操作命令が機
器制御手段(70)に送信されることはない。
【0029】上記実施例によれば、使用者は、マイクロ
ホン(20)(22)(24)(26)の位置を気にすることなく、制御
したい機器に向けて、機器名と操作内容とを発声するだ
けで、その発声方向及び発声された機器名との両方によ
って機器の選択が行なわれるから、機器の認識率の向上
を図ることができる。
ホン(20)(22)(24)(26)の位置を気にすることなく、制御
したい機器に向けて、機器名と操作内容とを発声するだ
けで、その発声方向及び発声された機器名との両方によ
って機器の選択が行なわれるから、機器の認識率の向上
を図ることができる。
【0030】なお、上記実施例では、使用者は、機器名
と操作内容とを発声するようにしているが、機器名は、
分布分析手段(50)によって決定することができるから、
使用者が、制御したい機器に向けて、操作内容のみを発
声することにより、発声方向から機器を選択し、操作内
容のみを音声認識して、機器の操作を行なうこともでき
る。
と操作内容とを発声するようにしているが、機器名は、
分布分析手段(50)によって決定することができるから、
使用者が、制御したい機器に向けて、操作内容のみを発
声することにより、発声方向から機器を選択し、操作内
容のみを音声認識して、機器の操作を行なうこともでき
る。
【0031】この場合、音声認識手段(40)による操作内
容の認識率(上記表2の右側参照)と、分布分析手段(50)
による発声方向からの特定された機器の確率(上記表4
参照)を、推論手段(60)で乗じて、各ポイントの比率か
ら「機器名」と「操作内容」の推論結果の確率を算出
し、最も確率の高い機器名と操作内容の組合せについ
て、予め定められた閾値と比較し、上記と同様に、その
機器名と操作内容を機器制御手段(70)に送信して、機器
を制御すればよい。
容の認識率(上記表2の右側参照)と、分布分析手段(50)
による発声方向からの特定された機器の確率(上記表4
参照)を、推論手段(60)で乗じて、各ポイントの比率か
ら「機器名」と「操作内容」の推論結果の確率を算出
し、最も確率の高い機器名と操作内容の組合せについ
て、予め定められた閾値と比較し、上記と同様に、その
機器名と操作内容を機器制御手段(70)に送信して、機器
を制御すればよい。
【0032】上記実施例によれば、使用者の発声する命
令は、操作内容のみで済むから、操作命令の簡素化を図
り、音声制御システム(10)の使いやすさを向上できる。
令は、操作内容のみで済むから、操作命令の簡素化を図
り、音声制御システム(10)の使いやすさを向上できる。
【0033】上記実施例の説明は、本発明を説明するた
めのものであって、特許請求の範囲に記載の発明を限定
し、或は範囲を減縮する様に解すべきではない。又、本
発明の各部構成は上記実施例に限らず、特許請求の範囲
に記載の技術的範囲内で種々の変形が可能である。
めのものであって、特許請求の範囲に記載の発明を限定
し、或は範囲を減縮する様に解すべきではない。又、本
発明の各部構成は上記実施例に限らず、特許請求の範囲
に記載の技術的範囲内で種々の変形が可能である。
【0034】マイクロホン(20)(22)(24)は、図5に示す
ように、制御対象となる機器(80)(82)(84)に夫々取り付
けてもよい。また、制御対象となる機器の種類は、上記
実施例に限定されず、また、本発明の音声制御システム
の適用空間も台所に限定されない。
ように、制御対象となる機器(80)(82)(84)に夫々取り付
けてもよい。また、制御対象となる機器の種類は、上記
実施例に限定されず、また、本発明の音声制御システム
の適用空間も台所に限定されない。
【図1】本発明の音声制御システムのブロック図であ
る。
る。
【図2】本発明を台所の機器制御に適用した説明図であ
る。
る。
【図3】本発明の流れを示すフロー図である。
【図4】集音された音声データの一例を示す波形図であ
る。
る。
【図5】本発明の異なる事例を示す説明図である。
【図6】従来の音声制御システムのブロック図である。
(10) 音声制御システム (20)(22)(24) マイクロホン (30) 集音手段 (40) 音声認識手段 (50) 分布分析手段 (60) 推論手段 (70) 機器制御手段
フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04R 1/40 320 G10L 3/00 511 551N
Claims (6)
- 【請求項1】 制御対象となる複数の機器(80)(82)(84)
と、 空間内の複数箇所に配置され、使用者の音声を検出する
複数のマイクロホン(20)(22)(24)と、 各マイクロホン(20)(22)(24)が検出した音声データを集
める集音手段(30)と、 集音手段(30)に入力された音声データの内容を解析する
音声認識手段(40)と、 集音手段(30)に入力された音声データの大きさから、使
用者の発声方向を検出する分布分析手段(50)と、 音声認識手段(40)によって解析された音声データの内容
と、分布分析手段(50)によって解析された使用者の発声
方向に基づいて、制御対象となる機器(82)と操作内容を
決定する推論手段(60)と、 推論手段(60)により決定された機器(82)と操作内容に基
づいて、制御対象となる機器(82)に制御信号を発する機
器制御手段(70)と、 を具えることを特徴とする複数機器の音声制御システ
ム。 - 【請求項2】 分布分析手段(50)は、マイクロホン(20)
(22)(24)から集音手段(30)に入力された音声データの振
幅を比較し、使用者の発声方向を検出する請求項1に記
載の複数機器の音声制御システム。 - 【請求項3】 音声認識手段(40)は、マイクロホン(20)
(22)(24)から集音手段(30)に入力された音声データのう
ち、最も振幅の大きい音声データの内容を解析する請求
項1又は請求項2に記載の複数機器の音声制御システ
ム。 - 【請求項4】 使用者の発する音声には、制御対象とな
る機器名と操作内容が含まれる請求項1乃至請求項3の
何れかに記載の複数機器の音声制御システム。 - 【請求項5】 使用者の発する音声には、制御対象とな
る機器の操作内容のみが含まれ、音声認識手段(40)にて
操作内容が解析され、分布分析手段(50)にて制御対象と
なる機器(82)が特定される請求項1乃至請求項3の何れ
かに記載の複数機器の音声制御システム。 - 【請求項6】 制御対象となる機器(80)(82)(84)は、台
所用器具である請求項1乃至請求項5の何れかに記載の
複数機器の音声制御システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000284613A JP2002091491A (ja) | 2000-09-20 | 2000-09-20 | 複数機器の音声制御システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000284613A JP2002091491A (ja) | 2000-09-20 | 2000-09-20 | 複数機器の音声制御システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002091491A true JP2002091491A (ja) | 2002-03-27 |
Family
ID=18768796
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000284613A Withdrawn JP2002091491A (ja) | 2000-09-20 | 2000-09-20 | 複数機器の音声制御システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2002091491A (ja) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002311990A (ja) * | 2000-12-19 | 2002-10-25 | Hewlett Packard Co <Hp> | 音声制御式機器の活動化方法およびシステム |
DE10208468A1 (de) * | 2002-02-27 | 2003-09-04 | Bsh Bosch Siemens Hausgeraete | Elektrisches Gerät, insbesondere Dunstabzugshaube |
JP2004053581A (ja) * | 2002-04-17 | 2004-02-19 | Daimler Chrysler Ag | マイクロホンによる視線方向の検出 |
GB2394589A (en) * | 2002-10-25 | 2004-04-28 | Motorola Inc | Speech recognition device |
JP2009210956A (ja) * | 2008-03-06 | 2009-09-17 | National Institute Of Advanced Industrial & Technology | 操作方法およびそのための操作装置、プログラム |
GB2485145A (en) * | 2010-10-29 | 2012-05-09 | Displaylink Uk Ltd | Audio command routing method for voice-controlled applications in multi-display systems |
JP2015050766A (ja) * | 2013-09-03 | 2015-03-16 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 機器制御方法、音声機器制御システム及び調理機器 |
EP2851621A1 (en) | 2013-09-03 | 2015-03-25 | Panasonic Intellectual Property Corporation of America | Speech-based appliance control method, speech-based appliance control system, and cooking appliance using such method |
CN105895100A (zh) * | 2016-06-29 | 2016-08-24 | 广东美的厨房电器制造有限公司 | 一种厨房语音控制装置、系统和方法 |
JP2017509917A (ja) * | 2014-02-19 | 2017-04-06 | ノキア テクノロジーズ オサケユイチア | 空間音響特性に少なくとも部分的に基づく動作指令の決定 |
GB2564237A (en) * | 2017-05-23 | 2019-01-09 | Lenovo Singapore Pte Ltd | Method of associating user input with a device |
US11373648B2 (en) | 2018-09-25 | 2022-06-28 | Fujifilm Business Innovation Corp. | Control device, control system, and non-transitory computer readable medium |
FR3130048A1 (fr) | 2021-12-07 | 2023-06-09 | Seb S.A. | Système de commande d’une pluralité d’appareils domestiques |
-
2000
- 2000-09-20 JP JP2000284613A patent/JP2002091491A/ja not_active Withdrawn
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002311990A (ja) * | 2000-12-19 | 2002-10-25 | Hewlett Packard Co <Hp> | 音声制御式機器の活動化方法およびシステム |
DE10208468A1 (de) * | 2002-02-27 | 2003-09-04 | Bsh Bosch Siemens Hausgeraete | Elektrisches Gerät, insbesondere Dunstabzugshaube |
JP2004053581A (ja) * | 2002-04-17 | 2004-02-19 | Daimler Chrysler Ag | マイクロホンによる視線方向の検出 |
GB2394589A (en) * | 2002-10-25 | 2004-04-28 | Motorola Inc | Speech recognition device |
GB2394589B (en) * | 2002-10-25 | 2005-05-25 | Motorola Inc | Speech recognition device and method |
JP2009210956A (ja) * | 2008-03-06 | 2009-09-17 | National Institute Of Advanced Industrial & Technology | 操作方法およびそのための操作装置、プログラム |
GB2485145A (en) * | 2010-10-29 | 2012-05-09 | Displaylink Uk Ltd | Audio command routing method for voice-controlled applications in multi-display systems |
EP2851621A1 (en) | 2013-09-03 | 2015-03-25 | Panasonic Intellectual Property Corporation of America | Speech-based appliance control method, speech-based appliance control system, and cooking appliance using such method |
JP2015050766A (ja) * | 2013-09-03 | 2015-03-16 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 機器制御方法、音声機器制御システム及び調理機器 |
US9316400B2 (en) | 2013-09-03 | 2016-04-19 | Panasonic Intellctual Property Corporation of America | Appliance control method, speech-based appliance control system, and cooking appliance |
JP2017509917A (ja) * | 2014-02-19 | 2017-04-06 | ノキア テクノロジーズ オサケユイチア | 空間音響特性に少なくとも部分的に基づく動作指令の決定 |
CN105895100A (zh) * | 2016-06-29 | 2016-08-24 | 广东美的厨房电器制造有限公司 | 一种厨房语音控制装置、系统和方法 |
GB2564237A (en) * | 2017-05-23 | 2019-01-09 | Lenovo Singapore Pte Ltd | Method of associating user input with a device |
US10573171B2 (en) | 2017-05-23 | 2020-02-25 | Lenovo (Singapore) Pte. Ltd. | Method of associating user input with a device |
US11373648B2 (en) | 2018-09-25 | 2022-06-28 | Fujifilm Business Innovation Corp. | Control device, control system, and non-transitory computer readable medium |
FR3130048A1 (fr) | 2021-12-07 | 2023-06-09 | Seb S.A. | Système de commande d’une pluralité d’appareils domestiques |
EP4194972A1 (fr) | 2021-12-07 | 2023-06-14 | Seb S.A. | Système de commande d'une pluralité d'appareils domestiques |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11922095B2 (en) | Device selection for providing a response | |
US9510090B2 (en) | Device and method for capturing and processing voice | |
JP4939935B2 (ja) | 整合された音響処理を備える両耳用補聴器システム | |
JP2002091491A (ja) | 複数機器の音声制御システム | |
US20220358909A1 (en) | Processing audio signals | |
US6243322B1 (en) | Method for estimating the distance of an acoustic signal | |
JP3838029B2 (ja) | 音声認識を用いた機器制御方法および音声認識を用いた機器制御システム | |
RU2206174C2 (ru) | Способ регулирования громкости звуковоспроизведения и устройства для его реализации | |
US9349384B2 (en) | Method and system for object-dependent adjustment of levels of audio objects | |
CN106992015A (zh) | 语音激活系统 | |
JP4729927B2 (ja) | 音声検出装置、自動撮像装置、および音声検出方法 | |
JP2008205896A (ja) | 放収音装置 | |
EP2504745B1 (en) | Communication interface apparatus and method for multi-user | |
JP2005227512A (ja) | 音信号処理方法及びその装置、音声認識装置並びにプログラム | |
US7177806B2 (en) | Sound signal recognition system and sound signal recognition method, and dialog control system and dialog control method using sound signal recognition system | |
CN114175145A (zh) | 多模态智能音频设备系统注意力表达 | |
CN113516975A (zh) | 一种智能家居声控开关系统及控制方法 | |
JPS6367197B2 (ja) | ||
WO2020230460A1 (ja) | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム | |
WO2023125534A1 (zh) | 一种输入检测装置、系统及其相关设备 | |
JP2020030271A (ja) | 会話音声レベル通知システム及び会話音声レベル通知方法 | |
JPS63118197A (ja) | 音声検出装置 | |
JP2020166148A (ja) | 集音制御装置、集音制御プログラム及び会議支援システム | |
JPH05289690A (ja) | 音声認識制御装置 | |
JPH04184497A (ja) | 音声認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20071204 |