JP2020074044A - Electronic apparatus and control method for the same - Google Patents
Electronic apparatus and control method for the same Download PDFInfo
- Publication number
- JP2020074044A JP2020074044A JP2020018509A JP2020018509A JP2020074044A JP 2020074044 A JP2020074044 A JP 2020074044A JP 2020018509 A JP2020018509 A JP 2020018509A JP 2020018509 A JP2020018509 A JP 2020018509A JP 2020074044 A JP2020074044 A JP 2020074044A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- user
- word
- reserved word
- host device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Selective Calling Equipment (AREA)
Abstract
Description
本発明の実施形態は、家庭やオフィスや小規模事業所におけるホームオートメーションの分野における、音声によって複数の機器を制御する電子機器及びその制御方法に関するものである。 The embodiments of the present invention relate to an electronic device that controls a plurality of devices by voice and a control method thereof in the field of home automation in a home, office, or small business establishment.
従来ホームオートメーションの分野において、音声入力により家庭やオフィスや小規模事業所における種々の機器を操作及び制御する音声認識装置及び方法が存在している。 In the field of home automation, there have been voice recognition devices and methods for operating and controlling various devices in homes, offices, and small businesses by voice input.
この音声認識装置及び方法は、ユーザから入力された音声を解析することで、その入力された音声が当該装置の機能をオンにする音声であるか否かの判定を行ったり、当該装置の機能をオンにする音声であると判定した場合は、継続する音声の内容を分析しその分析結果に基づく処理を行ったりするものである。また、ユーザから入力された音声の特徴を認識することで、音声を発したユーザを特定し、そのユーザに適した処理を行ったりするものもある。 This voice recognition device and method analyze a voice input by a user to determine whether or not the input voice is a voice that turns on the function of the device, and the function of the device. When it is determined that the voice is a voice that turns on, the content of the voice that continues is analyzed and processing based on the analysis result is performed. Further, there is also one that recognizes the characteristics of the voice input by the user, identifies the user who uttered the voice, and performs processing suitable for the user.
ホームオートメーションシステムの形態としては、各々の機器が家庭内のネットワークにより互いに接続され、更にこの接続された複数の機器をトータルで制御するホスト機器がネットワークに接続されているものがある。この場合ホスト機器は、ネットワークで接続された各機器の動作の制御を行ったり、各機器に関する情報を集めてユーザが一元的に閲覧等できるよう管理したりしている。 As a form of the home automation system, there is a system in which the respective devices are connected to each other by a home network, and a host device for totally controlling the connected plurality of devices is connected to the network. In this case, the host device controls the operation of each device connected by the network, and collects information about each device and manages it so that the user can browse it in a unified manner.
ユーザは、例えば音声によりホスト機器に命令することで、ホスト機器とネットワークで接続された各々の機器の制御を行ったり、その接続された各々の機器に関する情報を一元的に閲覧したりすることができる。 By instructing the host device by voice, for example, the user can control each device connected to the host device via a network and can centrally browse information about each connected device. it can.
このような形態のホームオートメーションシステムは、制御対象の機器をネットワークにより容易に接続させることが可能なため、接続機器の数や種類が多数になる傾向がある。また、制御対象の機器の追加、変更、バージョンアップ、設置場所の移動及び廃棄等に伴うネットワークへの新たな参加、設定変更及びネットワークからの脱退が度々発生する傾向にある。また、接続している機器の動作内容や仕様等の種類が多数に及ぶことから、家庭内やオフィスでも老若男女問わずホームオートメーションシステムを使用する傾向にある。特に最近の多種多様な機能をもつ機器やセンサの小型化に伴い、この傾向はますます顕著になってきている。 In the home automation system having such a form, the devices to be controlled can be easily connected to the network, so that the number and types of connected devices tend to be large. In addition, there is a tendency that new participation in the network, setting change, and withdrawal from the network often occur due to addition, change, version upgrade, movement of the installation place, disposal, etc. of the device to be controlled. Further, since there are many types of operation contents and specifications of connected devices, home automation systems tend to be used in homes and offices regardless of age or sex. This tendency is becoming more and more remarkable with the recent miniaturization of devices and sensors having various functions.
しかし従来のホームオートメーションシステムでは、多種多様の機器の制御や幅広いユーザ層への対応が十分とは言えないものであった。例えば、家庭内でホームオートメーションシステムを使用する場合、家族一人ひとりの生活スタイルによりマッチした機器の制御が十分に行われているとは言えないものであった。 However, in conventional home automation systems, control of a wide variety of devices and support for a wide range of users have not been sufficient. For example, when using a home automation system at home, it cannot be said that the devices that match the lifestyle of each family member are sufficiently controlled.
本実施形態は、上記課題を鑑みてなされたもので、ネットワークにより接続された多種多様な機器を、ユーザの個々の生活スタイルによりマッチするように制御する電子機器及びその制御方法を提案することを目的とする。 The present embodiment has been made in view of the above problems, and proposes an electronic device and a control method for controlling a wide variety of devices connected by a network so as to match each user's individual lifestyle. To aim.
実施形態の電子機器は、外部から入力される第1の音声の内容により、前記第1の音声が入力された以降に入力される第2の音声の内容に基づいて1台または複数台の機器の制御の実行を判定する電子機器において、前記第1の音声が所望の音声であることを判定するための判定用音声データを、複数回外部から入力された音声により作成管理し、作成管理されている前記判定用音声データを用いて前記第1の音声が所望の音声であることを判定する管理手段と、第2の音声の内容に基づいて前記1台または複数台の機器の制御を実行する制御手段とを備え、前記管理手段により前記判定用音声データを用いて、前記第1の音声が所望の音声であると判定された場合に、前記制御手段により前記第2の音声の内容に基づいて前記1台または複数台の機器の制御を実行し、前記第1の音声が、前記管理手段により前記判定用音声データを用いて所望の音声であると判定された場合に、前記第2の音声の内容の一部あるいは全部の内容に基づいて、前記1台または複数台の機器の制御の内容を変え、前記管理手段が複数の前記判定用音声データを持つ場合、前記第1の音声が所望の音声であると判定するために用いた前記判定用音声データの種類に応じて、前記1台または複数台の機器の制御の内容を変える。 The electronic device according to the embodiment includes one or a plurality of devices based on the content of the first voice input from the outside, based on the content of the second voice input after the input of the first voice. In the electronic device that determines the execution of the control, the creation voice is used to manage the determination voice data for determining whether the first voice is the desired voice by the voice input from the outside multiple times. Management means for determining whether the first voice is a desired voice using the determination voice data, and controlling the one or more devices based on the content of the second voice. When the first voice is determined to be a desired voice by the management voice using the determination voice data, the control means changes the content of the second voice. Based on the above-mentioned one or multiple A part of the content of the second voice when the first voice is determined to be a desired voice by the management means using the determination voice data by controlling the single device. Alternatively, when the control content of the one or more devices is changed based on the entire content and the management unit has a plurality of the determination voice data, it is determined that the first voice is a desired voice. The control content of the one or more devices is changed according to the type of the determination voice data used for the determination.
図1は、本実施形態に係るホームオートメーションシステムの全体構成の一例を示した図である。ホームオートメーションシステムは、クラウドに置かれたサーバ群からなるクラウドサーバ1と、HGW(HomeGateWay)機能を持つホスト機器332を経由してネットワーク333で互いに接続されている各種センサ310や各種設備機器320や各種家電機器340が配置されているホーム3と、クラウドサーバ1とホスト機器332とを接続するインターネット2とから成る。
FIG. 1 is a diagram showing an example of the overall configuration of a home automation system according to the present embodiment. The home automation system includes a cloud server 1 including a group of servers placed in a cloud,
ホーム1は、HGW機能を持つホスト機器332を経由して、家庭内のネットワーク333で互いに接続されている各種センサ310や各種設備機器320や各種家電機器340が配置された家庭やオフィスや小規模事業所であり、その規模は問わない。
The home 1 is a home, an office, or a small scale in which
ホスト機器332は、予め設定されている情報やネットワーク333で接続されたセンサから通知された情報をもとにネットワーク333で接続されている機器やセンサを制御したり、また各々の機器やセンサに関する情報を一元管理したりする機能を有する。
The
更にホスト機器332は、マイクを備えておりユーザ331が発した言葉を取り込むことが出来る。ホスト機器332は、ユーザ331が発した言葉の中から予め決められたキーワード(以降予約語と呼ぶ)を認識すると、その予約語に続いてユーザ331が発した言葉を取り込み、その取り込んだ言葉の内容を解析することで解析結果に応じた応答をユーザ331に返したり、或いはネットワーク333で接続されている機器やセンサを解析結果に応じて制御をしたりする機能を有する。
Furthermore, the
逆にホスト機器332は、ユーザ331が発した言葉の中から予約語を認識しない限り、ユーザ331が発した言葉を継続して取り込むことはしない。これによりホスト機器332は、周囲の不要な音声を拾って動作することを防いでいる。
On the contrary, unless the
予約語の認識はホスト機器332内で行われ、予約語に続いてユーザ331が発した言葉を継続して取り込み、その取り込んだ言葉の内容の解析は、クラウドサーバ1において行われる。ホスト機器332の機能の詳細については後で説明する。
The recognition of the reserved word is performed in the
各種設備機器320と各種家電機器340は、説明の便宜上設備機器320が移動があまり容易でない機器を意味しており、各種家電機器340が移動が比較的容易である機器を意味している。例示した設備機器や家電機器の名称は、個々の機器の能力や機能を制限するものではない。
For convenience of description, the
各種センサ310の具体例として、防犯カメラ311、火災報知器312、人感センサ313、温度センサ314がある。また、各種設備機器320320の具体例として、インターフォン325、照明326、エアコン327、給湯器328がある。また、各種家電機器340の具体例として、洗濯機341、冷蔵庫342、電子レンジ343、扇風機344、炊飯器345、テレビ346がある。
Specific examples of the
図2は、図1に示す各種センサ310のその他の例を示したものである。
FIG. 2 shows another example of the
図3は、図1に示すホスト機器332の種々の例を示している。
FIG. 3 shows various examples of the
ホスト機器332−1は、図1に示すホスト機器332であり、HGW機能を内蔵する据え置き型の例である。ホスト機器332−1は、ネットワーク333を通じてホーム1内に配置されている他の機器やセンサと接続されており、またインターネット2を通じてクラウドサーバ1と接続されている。ホスト機器332−1は、据え置き型のため例えばモーター等の自律的に移動する手段を搭載しない例である。
The host device 332-1 is the
ホスト機器332−2は、HGW機能を内蔵しない据え置き型の例である。そのためホスト機器332−2は、ネットワーク333を通じてHGW330と接続されている。ホスト機器332−2は、HGW330を経由してネットワーク333を通じてホーム1内に配置されている他の機器やセンサと接続され、またHGW330を経由してインターネット2を通じてクラウドサーバ1と接続されている。ホスト機器332−2は、据え置き型のため例えばモーター等の自律的に移動する手段を搭載しない例である。
The host device 332-2 is an example of a stationary type that does not have a built-in HGW function. Therefore, the host device 332-2 is connected to the
ホスト機器332−3は、HGW機能を内蔵する可動型の例である。ホスト機器332−3は、ネットワーク333を通じて他の機器やセンサと接続されており、またインターネット2を通じてクラウドサーバ1と接続されている。ホスト機器332−3は、可動型のため例えばモーター等の自律的に移動するための手段を搭載する例である。
The host device 332-3 is an example of a movable type having a built-in HGW function. The host device 332-3 is connected to other devices and sensors via the
ホスト機器332−4は、HGW機能を内蔵しない可動型の例である。そのためホスト機器332−4は、ネットワーク333を通じてHGW330と接続されている。ホスト機器332−4は、HGW330を経由してネットワーク333を通じて他の機器やセンサと接続され、またHGW330を経由してインターネット2を通じてクラウドサーバ1と接続されている。ホスト機器332−4は、可動型のため例えばモーター等の自律的に移動するための手段を搭載する例である。
The host device 332-4 is an example of a movable type that does not have a built-in HGW function. Therefore, the host device 332-4 is connected to the
図4は、図1に示すホスト機器332の機能ブロックを示したものである。ホスト機器332は、内部の処理全体を制御するシステムコントローラ402、とそれにより各機能を制御する制御管理部401、トリガー設定部403、トリガー認識部405、入力管理部420及びネットワーク333と接続するためのネットワークI/F427をもつ。制御管理部401は、内部にホスト機器332の各種動作を制御するための複数のアプリケーションを管理するAPP−Mg401−1、ホスト機器332の各機能ブロックの初期設定や種々の状態設定や動作設定などの設定内容を管理するCONF−Mg401−2からなる。
FIG. 4 shows functional blocks of the
またホスト機器332は、ユーザ331とのインターフェース(I/F)として、ユーザ331が発する言葉を取り込むためのマイク421、ユーザ331に対して応答を音声で出力するためのスピーカ423及びユーザ331に対してホスト機器332の状態を通知するための表示部425とを持つ。
Further, the
マイク421は、入力管理部420に接続されている。入力管理部420は、内部で管理する状態に応じて、マイク421から入力された音声データを、トリガー設定部403、トリガー認識部405及び音声処理部407の何れに送るかの制御をする。表示部425は、ホスト機器332の状態をユーザ331に通知するものであり、例えばLED(LightEmittingDiode)やLCD(LiquidCrystalDisplay)である。
The
メモリ410は、動作モード保存エリア410−1、予約語保存エリア410−2、音声蓄積エリア410−3の3つの領域に分かれている。各々のエリアに保存される情報の内容は後で説明する。
The
先に述べたようにホスト機器332の機能は、ユーザ331が発した言葉の中から予約語を認識すると、その予約語に継続するユーザ331の発した言葉を取り込み、その取り込んだ言葉の内容を解析することで、解析結果に応じた応答をユーザ331に返したりネットワーク333を通じて接続されている機器やセンサの動作を制御したりする機能を持つ。
As described above, when the function of the
これらの機能を実現するために、ホスト機器332は、大きく4つの処理を行う。1つ目の処理は、予約語の登録である。2つ目の処理は、予約語の認識である。3つ目の処理は、動作を制御する機器やセンサの制御内容の登録である。4つ目の処理は、制御内容が登録されている機器やセンサの制御である。
In order to realize these functions, the
最初に、1つ目の処理である予約語の登録について説明する。
ホスト機器332は、予約語をホスト機器332に登録する機能を有している。予約語を登録するために、ホスト機器332は、予約語を登録するモード(以降予約語登録モードと呼ぶ)を有している。
First, the reserved word registration, which is the first process, will be described.
The
図5Aおよび図5Bは、予約語を登録するためにホスト機器332が「予約語登録モード」に遷移している状態において、予約語の登録開始から登録完了までのホスト機器332の処理シーケンスの例を示している。
5A and 5B show an example of the processing sequence of the
なおホスト機器332は、モード変更するために予め決められた順番通りにユーザ331が発した言葉を認識することで、モード変更ができるようにしてもよい。あるいは表示部425にメニュー画面を表示し、そのメニュー画面をユーザ331が操作することでモード変更ができるようにしてもよい。あるいは、ネットワークI/F427を経由して接続されているスマートフォンやタブレットに表示されたホスト機器332のモードを変更するメニュー画面をユーザ331が操作することで、モード変更ができるようにしてもよい。
The
予約語として登録する言葉をユーザ331が発すると、ホスト機器332はマイク421から入力された音声データを入力管理部420に取り込む(S501)。入力管理部420は、内部で管理する状態に応じて入力された音声データの転送先を決める機能を有している。ホスト機器332のモードが設定モードである場合、入力管理部420は、受信した音声データをトリガー設定部403に転送する(S502)。トリガー設定部403は、受信した音声データをメモリ410の音声蓄積エリア410−3に保存する(S503)とともに、ユーザ331の音声を取り込んだ回数が規定回数に達しているかの確認(S504)を行う。
When the
トリガー設定部403は、ユーザ331の音声を取り込んだ回数が規定回数に達しているかの確認の結果、規定回数に達していないと判定した場合、登録する言葉を発するようにユーザ331に促す表示を行う(S507)と共に、入力管理部420に対して入力継続通知を送付する(S506)。入力継続通知を受信した入力管理部420は、内部の状態をマイクからの音声の入力待ちの状態に遷移させる(S500)。
When the
なお、登録する言葉を入力するようにユーザ331に対して促す表示は、トリガー設定部403が表示装置425に対して登録未完了通知を送信(S505)し、その登録未完了通知を受信した表示装置425が例えば発光ダイオード(LED)を赤色で点滅させる(S507)、というようにユーザ331が認識できる表示方法で行うことが望ましい。また表示による方法の代わりに音声による方法を用いて、登録する言葉の入力をユーザ331に促してもよい。この場合トリガー設定部403は、スピーカ423に対して登録未完了通知を送信し、この登録未完了通知を受け取ったスピーカ423は、例えば「もう一度入力してください」とユーザ331に対してアナウンスする方法でもよい。或いはトリガー設定部403は、ユーザ331に対して登録する言葉の入力を促すのに、表示による方法と音声による方法の両方を用いてもよい。或いはホスト機器332が可動型の場合、トリガー設定部403は、ホスト機器332が例えばある一定の角度幅で繰り返し回転移動するように、記載していない移動手段に対して指示を出してもよい。
The display prompting the
トリガー設定部403は、ユーザ331の音声を取り込んだ回数が規定回数に達しているかの確認の結果、規定回数に達していると判定した場合、それまでに音声蓄積エリア410−3に保存してある音声データを読み出し(S508)、インターネット2を通じてクラウドサーバ1にある音声認識クラウド101の中の認識用データ変換部101−1に送付する(S509)。
When the
認識用データ変換部101−1は、トリガー設定部403から送られてきた音声データを、予約語として認識するための認識用データに変換する(S510)。認識用データへの変換が完了すると、認識用データ変換部(101−1)は、インターネット2を通じて認識用データをトリガー設定部403に送付(S511)する。認識用データを受信したトリガー設定部403は、受信したデータをメモリ410の予約語保存エリア410−2に保存する(S512)。
The recognition data conversion unit 101-1 converts the voice data sent from the
トリガー設定部403は、予約語の登録が完了したことをユーザ331に対して知らせる表示(S514)を行う。予約語の登録が完了したことをユーザ331に対して知らせる表示は、トリガー設定部403が表示装置425に対して登録完了通知を送信(S514)し、その登録完了通知を受信した表示装置425が例えばLEDを緑色で点灯させる、というようにユーザ331が認識できる表示方法で行うことが望ましい。或いはトリガー設定部403は、予約語の登録が完了したことをユーザ331に対して通知するのに、表示による方法の代わりに音声による方法を用いてもよい。この場合トリガー設定部403は、スピーカ423に対して登録完了通知を送信し、この登録完了通知を受け取ったスピーカ423は、例えば「登録が完了しました」とユーザ331に対してアナウンスする方法でもよい。或いはトリガー設定部403は、ユーザ331に対して予約語の登録が完了したことを通知するのに、表示による方法と音声による方法の両方を用いてもよい。或いはホスト機器332が可動型の場合、トリガー設定部403は、ホスト機器332が例えばある一定の移動幅で繰り返し直線移動するように、記載していない移動手段に対して指示を出してもよい。
The
以上のように、トリガー設定部403は、予約語の登録においてデータの流れを管理する役割を持っている。
As described above, the
図6Aおよび図6Bは、予約語の登録開始から登録完了までの別のシーケンス例を示している。ホスト機器332が取り込んだ音声データを予約語として登録するのに不十分な場合がある。このように取り込んだデータが不十分な場合の処理の例を示す。
FIGS. 6A and 6B show another sequence example from the start of registration of a reserved word to the completion of registration. It may be insufficient to register the voice data captured by the
図6Aおよび図6Bに示すS600からS615の処理は、それぞれ図5Aおよび図5Bに示すS500からS515の処理と同一である。図5Aおよび図5Bにおける処理と図6Aおよび図6Bにおける処理との相違点は、図6Bの処理にS616の処理からS619の処理が追加されている点である。 The processing of S600 to S615 shown in FIGS. 6A and 6B is the same as the processing of S500 to S515 shown in FIGS. 5A and 5B, respectively. The difference between the processing in FIGS. 5A and 5B and the processing in FIGS. 6A and 6B is that the processing in S616 to S619 is added to the processing in FIG. 6B.
トリガー設定部403は、ユーザ331が発した言葉を取り込んだ回数が規定回数に達しているかの確認(S604)を行った結果、規定回数に達していると判定した場合、それまでに音声蓄積エリア410−3に保存してある音声データを読み出し(S608)、インターネット2を通じてクラウドサーバ1にある音声認識クラウド101の中の認識用データ変換部101−1に送付する(S609)。
If the
トリガー設定部403は、ユーザ331が発した言葉を取り込んだ回数が規定回数に達していないと判定した場合、登録する言葉を発するようにユーザ331に促す表示を行う(S607)と共に、入力管理部420に対して入力継続通知を送付する(S606)。入力継続通知を受信した入力管理部420は、内部の状態をマイクからの音声の入力待ちの状態に遷移させる(S600)。
When the
なお、登録する言葉を入力するようにユーザ331に対して促す表示は、トリガー設定部403が表示装置425に対して登録未完了通知を送信(S605)し、その登録未完了通知を受信した表示装置425が例えばLEDを赤色で点滅させる(S607)、というようにユーザ331が認識できる表示方法で行うことが望ましい。また表示による方法の代わりに音声による方法を用いて、登録する言葉の入力をユーザ331に促してもよい。この場合トリガー設定部403は、スピーカ423に対して登録未完了通知を送信し、この登録未完了通知を受け取ったスピーカ423は、例えば「もう一度入力してください」とユーザ331に対してアナウンスする方法でもよい。或いはトリガー設定部403は、ユーザ331に対して登録する言葉の入力を促すのに、表示による方法と音声による方法の両方を用いてもよい。或いはホスト機器332が可動型の場合、トリガー設定部403は、ホスト機器332が例えばある一定の角度幅で繰り返し回転移動するように、記載していない移動手段に対して指示を出してもよい。
The display prompting the
認識用データ変換部101−1は、トリガー設定部420より送られてきた全音声データを認識用データに変換する際に、送られてきた音声データが認識用データに変換できるかどうかを判定する(S616)。送られてきた音声データの幾つかが認識用データに変換できないと判定した場合、認識用データ変換部101−1は、インターネット2を通じてトリガー設定部403に対して音声データ追加要求を送信(S617)する。音声データ追加要求を受信したトリガー設定部403は、予約語として登録したい言葉をユーザ331に追加で入力してもらう回数を設定し(S618)、入力管理部420に対して入力継続通知(S619)を通知する。
The recognition data conversion unit 101-1 determines, when converting all the voice data sent from the
トリガー設定部403がユーザ331に追加で入力してもらう追加回数を設定した(S618)時点では、表示部425の例えばLEDは赤色で点灯したままである。この表示に従って、ユーザ331は、S618で追加設定された回数分、予約語として登録する言葉を発する。
At the time when the
入力管理部420は、入力継続通知を受信すると(S619)、内部状態を入力待ちに遷移させ(S600)、ユーザ331が発する言葉の入力待ち状態となる。
When the
図5Aおよび図5Bに示す処理、図6Aおよび図6Bに示す処理は、ユーザ331が発した音声を入力管理部402が取り込んだ回数が規定回数に達してから、その取り込んだ音声データをまとめてクラウドサーバ1にある認識用データ変換部101−1に送信する例であるが、ユーザ331が発した音声を入力管理部420が取り込むごとに、その取り込んだ音声データを認識用データ変換部101−1に送信してもよい。図7Aおよび図7Bは、ユーザ331が発した音声を入力管理部420が取り込むごとに、その取り込んだ音声データを逐次クラウドサーバ1にある認識用データ変換部101−1に送付して、認識用データに変換する場合のシーケンス例である。
The processes shown in FIGS. 5A and 5B and the processes shown in FIGS. 6A and 6B are performed after the number of times the
図7Aに示すS700からS702の処理は、それぞれ図5Aに示すS500からS502に示す処理と同一である。また図7Aに示すS703とS704の処理は、それぞれ図5Aに示すS505とS507の処理と同一である。 The processes of S700 to S702 shown in FIG. 7A are the same as the processes of S500 to S502 shown in FIG. 5A, respectively. Further, the processing of S703 and S704 shown in FIG. 7A is the same as the processing of S505 and S507 shown in FIG. 5A, respectively.
予約語として登録する言葉をユーザ331が発すると、ホスト機器332は、マイク421から入力された音声データを入力管理部420に取り込む(S701)。ホスト機器332のモードが予約語登録モードであるので、入力管理部420は、受信した音声データをトリガー設定部403に転送する(S702)。トリガー設定部403は、受信した音声データを、受信するごとに逐次クラウドサーバ1にある認識用データ変換部101−1に送信する(S706)。認識用データ変換部101−1は、トリガー設定部403より送られてきた音声データを認識用データに変換する際に、送られてきた音声データが認識用データに変換できるかどうかを判定する(S707)。
When the
送られてきた音声データが認識用データに変換できないと判定した場合は、認識用データ変換部101−1はインターネット2を通じてトリガー設定部403に対して音声データ追加要求を送信する(S708)。音声データ追加要求を受信したトリガー設定部403(S708)は、ユーザ331の音声を取り込んだ回数が規定回数に達しているかの確認(S714)を行う。トリガー設定部403は、ユーザ331の音声を取り込んだ回数が規定回数に達しているかの確認の結果、規定回数に達していないと判定した場合、登録する言葉を発するようにユーザ331に促す表示を継続すると共に、入力管理部420に対して入力継続通知を送付する(S715)ことで、入力管理部420をマイクからの音声の入力待ちの状態に遷移させる(S700)。入力管理部420は、入力継続通知を受信すると(S715)、内部状態を入力待ちに遷移させ(S700)、ユーザ331が発する言葉の入力待ち状態となる。
When it is determined that the sent voice data cannot be converted into the recognition data, the recognition data conversion unit 101-1 transmits a voice data addition request to the
認識用データ変換部101−1は、送られてきた音声データが認識用データに変換できると判定(S707)した場合は、音声データを認識用データに変換する(S709)。認識用データ変換部101−1は、認識用データに変換した(S709)結果、既に認識用データに変換したものも含めてすべての認識用データを用いて、マイク421より入力された音声データを予約語として認識できる精度を確保しているかどうかの判定を行う(S710)。
When it is determined that the received voice data can be converted into the recognition data (S707), the recognition data conversion unit 101-1 converts the voice data into the recognition data (S709). The recognition data conversion unit 101-1 converts the voice data input from the
すべての認識用データにより、マイク421より入力された音声データを予約語として認識するのに十分な精度を確保していると判定した場合は、予約語として登録したい言葉をユーザ331が発するのを止めてもらうために、インターネット2を通じて、認識用データが十分である旨の情報を付加した認識用データ(認識用データ充足通知付)をトリガー設定部403に通知する(S711)。認識用データ(認識用データ充足)を受信したトリガー設定部403は、この時点までに受信した認識用データで、マイク421より入力された音声データを予約語として認識するのに十分な認識用データが存在すると認識し、ユーザ331の音声を取り込んだ回数が規定回数に達していなくても、これ以上ユーザ331に対して登録する言葉の入力を促すことを中止する(S712)。トリガー設定部403は、この時点までに受信した認識用データすべてを予約語保存エリア410−2に保存する(S716)とともに、入力管理部420、表示部425、認識用データ変換部101−1に登録完了通知を送付する(S717)(S718)(S719)。これにより、変換された認識用データの精度により、ユーザ331の音声を取り込んだ回数が規定回数に達しなくて予約語として登録する言葉をユーザ331に発してもらうのを止めてもらうことが可能となり、より自由度のある予約語の登録処理が可能となる。なお、規定回数は、ホスト機器332の設定値としてユーザ331による変えることが可能であり、また後述する付加情報の1つとして変えることが可能である。
If it is determined that all the recognition data have sufficient accuracy to recognize the voice data input from the
認識用データ変換部101−1は、この時点までに作成した認識用データにより、マイク421より入力された音声データを予約語として認識するのに十分な精度を確保していないと判定した場合は、変換した認識用データのみをトリガー設定部403に送付する(S713)。認識用データを受信したトリガー設定部403は、ユーザ331の音声を取り込んだ回数が規定回数に達しているかの確認(S714)を行う。トリガー設定部403は、規定回数に達しているかの確認の結果規定回数に達していないと判定した場合、登録する言葉を発するようにユーザ331に促す表示を継続すると共に、入力管理部420に対して入力継続通知を送付する(S715)ことで、入力管理部420をマイクからの音声の入力待ちの状態に遷移させる(S700)。
If the recognition data conversion unit 101-1 determines that the recognition data created up to this point does not ensure sufficient accuracy to recognize the voice data input from the
なお、登録する言葉を入力するようにユーザ331に対して促す表示は、トリガー設定部403が表示装置425に対して登録未完了通知を送信(S703)し、その登録未完了通知を受信した表示装置425が例えばLEDを赤色で点滅させる(S704)、というようにユーザ331が認識できる表示方法で行うことが望ましい。また表示による方法の代わりに音声による方法を用いて、登録する言葉の入力をユーザ331に促してもよい。この場合トリガー設定部403は、スピーカ423に対して登録未完了通知を送信し、この登録未完了通知を受け取ったスピーカ423は、例えば「もう一度入力してください」とユーザ331に対してアナウンスする方法でもよい。或いはトリガー設定部403は、ユーザ331に対して登録する言葉の入力を促すのに、表示による方法と音声による方法の両方を用いてもよい。或いはホスト機器332が可動型の場合、トリガー設定部403は、ホスト機器332が例えばある一定の角度幅で繰り返し回転移動するように、記載していない移動手段に対して指示を出してもよい。
The display prompting the
認識用データを受信したトリガー設定部403は、規定回数に達しているかの確認(S714)の結果規定回数に達していると判定した場合、登録完了通知を入力管理部420、表示部425、認識用データ変換部101−1に登録完了通知を送付する(S717)(S718)(S719)。登録完了通知を受信(S718)した認識用データ変換部101−1は、S710の処理を行うために一時的に保存していた変換済み認識用データをクリアする。
When the
次に、ホスト機器332の2つ目の処理である予約語の認識について説明する。
Next, recognition of reserved words, which is the second process of the
ホスト機器332は、ユーザ331が発した言葉の中から予約語を認識した場合、継続するユーザ331が発した言葉の内容を解析することで、その解析結果をもとに機器やセンサを制御する機能を有している。この予約語を認識し、予約語を認識した以降に機器やセンサを制御するために、ホスト機器332は、予約語を認識および機器やセンサを制御するモード(以降動作モードと呼ぶ)を有している。
When the
図8Aおよび図8Bは、動作モードにおいて、ユーザ331が発した言葉が登録済みの予約語の1つであると認識するまでの、ホスト機器332の処理シーケンスの例を示している。
FIG. 8A and FIG. 8B show an example of a processing sequence of the
ユーザ331が言葉を発すると、ホスト機器332は、マイク421から入力された音声データを入力管理部420に取り込む(S801)。ホスト機器332のモードが動作モードである場合、入力管理部420は、受信した音声データをトリガー認識部405に転送する(S802)。トリガー認識部405は、入力管理部420から転送されてきた音声データを受け取ると、転送されてきた音声データが予約語であるかどうかを判定するために、メモリ410の予約語保存エリア410−2から読みだし(S803)た認識用データと比較を行う(S804)。
When the
トリガー認識部405は、入力された音声データが予約語と認識出来ないと判定した場合(S805)、予約語を発するようにユーザ331に促す表示を行う(S808)と共に、入力管理部420に入力継続通知を送付する(S807)。なお、予約語を発するようにユーザ331に促す表示は、トリガー認識部405が表示部425に対して認識未完了通知を送信(S806)し、その認識未完了通知を受信した表示部425が例えばLEDを赤色で点滅させる(S808)、というようにユーザ3313が認識できる表示方法で行うことが望ましい。またトリガー設定部403は、表示による方法の代わりに音声による方法を用いて、音声の入力をユーザ331に促してもよい。この場合トリガー認識部405は、スピーカ423に対して、認識未完了通知を送信し、この認識未完了通知を受け取ったスピーカ423は、例えば「聞こえなかったよ」とユーザ331に対してアナウンスする方法でもよい。或いはトリガー認識部405は、ユーザ331に対して音声の入力を促すのに、表示による方法と音声による方法の両方を用いてもよい。或いはホスト機器332が可動型の場合、トリガー設定部403は、ホスト機器332が例えばある一定の角度幅で繰り返し回転移動するように、記載していない移動手段に対して指示を出してもよい。
When the
トリガー認識部405は、入力された音声データが予約語と認識出来た場合(S805)、ユーザ331が発した音声を予約語として認識したことを示す表示を行う(S810)。なお、ユーザ331が発した音声を予約語として認識したことを示す表示は、トリガー認識部403が表示装置425に対して認識完了通知を送信(S809)し、その認識完了通知を受信した表示装置425が例えばLEDを緑色で点灯させる(S810)、というようにユーザ331が認識できる表示方法で行うことが望ましい。またトリガー認識部405は、表示による方法の代わりに音声による方法を用いて、ユーザ331が発した音声を予約語として認識しことを通知してもよい。この場合トリガー認識部405は、スピーカ423に対して認識完了通知を送信し、この認識完了通知を受け取ったスピーカ423は、例えば「はいはい」や「聞こえたよ」とユーザ331に対してアナウンスする方法でもよい。或いはトリガー認識部405は、ユーザ331が発した音声を予約語として認識したことを示すのに、表示による方法と音声による方法の両方を用いてもよい。或いはホスト機器332が可動型の場合、トリガー設定部403は、ホスト機器332が例えばある一定の移動幅で繰り返し直線移動するように、記載していない移動手段に対して指示を出してもよい。
When the input voice data can be recognized as a reserved word (S805), the
図9Aおよび図9Bは、動作モードにおいて、ユーザ331が発した言葉を登録済みの予約語の1つであると認識するまでのホスト機器332の処理シーケンスの他の例である。
9A and 9B are another example of the processing sequence of the
図9Aおよび図9Bのシーケンス例と図8Aおよび図8Bのシーケンス例との違いは、予約語の認識を行う過程で、認識確率を考慮に入れている点である。認識確率とは、認識用データと、入力管理部420から転送されてきた音声データの周波数成分や強さ等の特徴点の比較を行い、両者が一致しているレベルことを意味している。図9Aおよび図9Bに示すS900からS912の処理は、それぞれS800からS812に示す処理と同一で、図9Aおよび図9Bにおける処理において図8Aおよび図8Bとの処理との違いは、S913からS916の処理が追加されている点である。
The difference between the sequence examples of FIGS. 9A and 9B and the sequence examples of FIGS. 8A and 8B is that the recognition probability is taken into consideration in the process of recognizing a reserved word. The recognition probability means a level at which the recognition data is compared with characteristic points such as frequency components and strengths of the voice data transferred from the
トリガー認識部405は、入力管理部420から転送されてきた音声データを受け取ると、メモリ410の予約語保存エリア410−2から認識用データを読み出し(S903)、入力管理部420から転送されてきた音声データとの比較を行う(S904)。
Upon receiving the voice data transferred from the
トリガー認識部405は、入力された音声データが予約語と認識出来たと判定(S905)した場合、認識確率の判定処理(S913)に移る。
When the
ここでトリガー認識部405が行う音声認識処理は、メモリ410の予約語保存エリア410−2から読み出した認識用データと入力管理部420から転送されてきた音声データの周波数成分や強さ等の特徴点との比較を行い、両者が一定のレベル以上一致する場合に、入力管理部420から転送された音声データは認識用データである、と判定するものである。
Here, the voice recognition processing performed by the
ホスト機器332は、認識用データと入力管理部420から転送されてきた音声データの周波数成分や強さ等の特徴点との比較を行う際に、両者が一致しているレベルを判定する閾値を複数設けることも可能である。このようにすることで、ホスト機器332は、ユーザが発した言葉の中から予約語を認識する際に、予約語を認識出来た/予約語を認識出来ない、という2通りの判定ではなく、例えば予約語を認識出来た/予約語を認識出来ない/予約語を認識出来たとは言えない、というように、予約語に近いが正しい予約語ではない、という判定を加えることも出来る。このように認識確率の閾値を複数設けることで、ユーザ331が例えば予約語を正確に覚えていない場合、ユーザ331が予約語に近い言葉を繰り返し発することで、そのユーザ331の発した言葉を取り込んだホスト機器332は「予約語を認識出来たとは言えない」という判定結果に応じた応答をし、その応答内容を見たユーザ331は、正しい予約語に近づくことができる、というメリットがある。
When the
図9Aおよび図9Bの例は、認識確率の閾値を2つ設けた場合の例である。予約語を認識出来る閾値を閾値1とし予約語を認識出来ない閾値を閾値0とすると、S904において比較の結果、認識確率が閾値1以上の場合は、予約語が認識出来た、との判定結果となる。また認識確率が閾値0以上閾値1未満の場合は、予約語を認識出来たいと言えない、との判定結果となる。また認識確率が閾値0未満の場合は、予約語が認識出来ない、との判定結果となる。したがってS905の処理は、認識確率を閾値0と大小比較を行う処理である。またS913の処理は、認識確率を閾値1と大小比較を行う処理となる。 The examples of FIGS. 9A and 9B are examples in which two threshold values of the recognition probability are provided. Assuming that the threshold for recognizing a reserved word is threshold 1 and the threshold for not recognizing a reserved word is threshold 0, the result of the comparison in S904 is that if the recognition probability is 1 or more, the reserved word can be recognized. Becomes If the recognition probability is greater than or equal to the threshold value 0 and less than the threshold value 1, it is determined that the reserved word cannot be recognized. Further, when the recognition probability is less than the threshold value 0, it is determined that the reserved word cannot be recognized. Therefore, the process of S905 is a process of comparing the recognition probability with the threshold value 0. The process of S913 is a process of comparing the recognition probability with the threshold value 1 in magnitude.
ホスト機器332は、認識確率が閾値0以上閾値1未満である、と判定した場合(S913)、予約語を発するようにユーザ331に促す表示を行う(S915)と共に、入力管理部420に入力継続通知を送付する(S916)。なお、予約語を発するようにユーザ331に促す表示は、トリガー認識部405が表示部425に対して認識不十分通知を送付(S914)し、その認識不十分通知を受信した表示部425が例えばLEDを緑色で点滅させる(S915)、というようにユーザ331が認識できる表示方法で行うことが望ましい。
When the
このように、認識確率が低い場合に、予約語を発するようにユーザ331に促す表示は、認識に失敗した場合の表示(S908)や認識に成功した場合の表示(S910)と変えることで、ユーザ331は、自分が発した言葉が予約語に近いが正しく予約語を発していない、と認識することができる。
As described above, when the recognition probability is low, the display prompting the
またトリガー設定部403は、表示による方法の代わりに音声による方法を用いて、音声の入力をユーザ331に促してもよい。この場合トリガー認識部405は、スピーカ423に対して認識不十分通知を送信(S914)し、この認識不十分通知を受け取ったスピーカ423は、例えば「何か呼んだ?」とユーザ331に対してアナウンスする方法でもよい。或いはトリガー認識部405は、ユーザ331に対して音声の入力を促すのに、表示による方法と音声による方法の両方を用いてもよい。或いはホスト機器332が可動型の場合、トリガー設定部403は、ホスト機器332が例えばある一定の角度幅で繰り返し回転移動するように、記載していない移動手段に対して指示を出してもよい。
Also, the
次に、ホスト機器332の3つ目の処理である、動作を制御する機器やセンサの制御内容の登録と、4つ目の処理である、制御内容が登録されている機器やセンサの制御について説明する。
Next, regarding the third process of the
まずは、ホスト機器332を用いた機器やセンサの制御の全体像を説明する。
First, an overview of control of devices and sensors using the
ホスト機器332は、ユーザ331が発した言葉の中から予約語を認識した場合、予約語を認識した以降にユーザが発した言葉を継続して取り込み、その取り込んだ言葉の内容を解析することで機器やセンサを制御する機能を有している。
When the
図10Aおよび図10Bは、ホスト機器が、予約語の認識が完了した以降において、マイク421から取り込んだ機器やセンサの制御内容を含んだ音声データの内容に基づいて、機器やセンサを制御する場合の処理シーケンスの例を示している。入力管理部420の内部状態は、予約語の認識は完了しているので認識済み(S1000)に遷移している。
10A and 10B show a case where the host device controls the device and the sensor based on the content of the voice data including the control content of the device and the sensor fetched from the
ユーザ331が、機器やセンサを制御する内容を含んだ言葉を発すると、ホスト機器332はマイク421を通じて(S1001)、その音声データ(制御内容)を入力管理部420に取り込む(S1002)。入力管理部420は、内部状態が認識済みであるので、入力された音声データ(制御内容)を音声処理部407に転送する(S1002)。音声処理部407は、転送された音声データ(制御内容)をインターネット2を通じて、クラウドサーバ1にある音声認識クラウド101の中の音声テキスト変換部101−2に送る。
When the
音声テキスト変換部101−2は、インターネット2を通じて送られてき音声データを、テキストデータに変換する処理を行う(S1004)。この処理により、もともとマイク421を通じて取り込まれたユーザ331が発した音声が、テキストデータに変換される。
The voice / text conversion unit 101-2 performs a process of converting voice data sent via the Internet 2 into text data (S1004). By this processing, the voice originally uttered by the
テキストデータへの変換が完了すると音声テキスト変換部101−2は、変換したテキストデータを内部に保存すると共に変換完了通知を音声処理部407に送付する(S1005)。 When the conversion into text data is completed, the voice / text conversion unit 101-2 stores the converted text data therein and sends a conversion completion notice to the voice processing unit 407 (S1005).
音声処理部407は、変換完了通知を受け取ると、音声テキスト変換部101−2に対してテキスト分析要求を送信する(S1006)。音声テキスト変換部101−2は、テキスト分析要求を受信すると、内部に保存してあるテキストに変換済みのデータとともにテキスト分析要求をテキスト分析部102−1に送付する(S1007)。テキスト分析部102−1は、テキスト分析要求を受信(S1007)したら、付随しているテキストデータの内容の解析を実施する(S1008)。テキスト分析部102−1は、送られてきたテキストデータの内容の解析が完了すると、その解析結果をテキスト分析結果通知として応答・アクション生成部102−2に送付する(S1009)。応答・アクション生成部102−2は、テキスト分析結果を受信(S1009)すると、その内容に基づいて対象となる機器とその機器を制御するコマンドを生成し(S1010)、生成したコマンドを応答・アクション生成結果通知として音声処理部407に送付する(S1011)。
Upon receiving the conversion completion notification, the
音声処理部407は、応答・アクション生成結果通知を受信する(S1011)と、応答・アクション生成結果通知の内容から制御対象の機器やセンサとその制御内容を特定する(S1012)。音声処理部407は、特定した制御対象の機器やセンサとその制御内容を、制御対象の機器やセンサが認識出来るフォーマットに変換して、必要なタイミングにおいてネットワーク333を通じて対象機器や対象センサにアクション通知として送信する(S1013)。
Upon receiving the response / action generation result notification (S1011), the
アクション通知の通知先である制御対象の機器やセンサは、アクション通知を受け取る(S1013)と、その中に含まれる制御内容に基づいて動作を行う(S1014)。 Upon receiving the action notification (S1013), the device or sensor to be controlled, which is the notification destination of the action notification, operates based on the control content included in the notification (S1014).
ホスト機器332は、ユーザ331が連続して音声を発する場合、この連続した音声を一連の音声と判定して途中でユーザ331に対して予約語を発することを要求することなく、この連続した音声を取り込むことが出来る。逆にホスト機器332は、ユーザ331が、ある程度時間をおいて音声を発する場合は、再度予約語の入力を要求する。各々の場合について、図11Aおよび図11Bと図12Aおよび図12Bを用いて説明する。
When the
図11Aおよび図11Bは、予約語の認識が完了した以降において、ユーザ331が時間T0以内に連続的に言葉を発する場合の処理シーケンスの例である。ホスト機器332が、マイク421から入力された音声データ(制御内容)を入力管理部420に取り込む(S1101)と、入力管理部420は入力間隔確認タイマTを起動させる。入力間隔確認タイマTが満了する時間(=T0)以前の時間T1に、マイク421を通じてユーザ331が発した次の音声データ(制御内容)を入力管理部420に取り込んだ場合(S1121)、入力管理部420は、その取り込んだ音声データ(制御内容)を音声処理部407に転送する(S1122)。同時に、起動中の入力間隔確認タイマTを再度起動させる。音声処理部407は、転送されてきた音声データ(制御内容)をインターネット2を通じて、クラウドサーバ1にある音声認識クラウド101の中の音声テキスト変換部101−2に送る(S1123)。以降は、S1104からS1110の処理と同様に、音声認識クラウド101において送られてきた音声データ(S1123)の処理を継続する。
11A and 11B are examples of a processing sequence when the
なお入力間隔確認タイマTは、入力管理部420がマイク421から入力された音声データを取り込んだタイミングで起動しているが、これに限らず例えば入力管理部420が、マイク421から送られてきたデータをトリガー設定部403や音声処理部407に転送するタイミングで起動してもよい。また、入力管理部420の内部状態が認識済みに遷移(S1100)したタイミングで、起動してもよい。
The input interval confirmation timer T is activated at the timing when the
図12Aおよび図12Bは、ユーザ331が時間T0以内に連続的に音声を発しない場合の例である。ホスト機器332は、マイク421から入力された音声データ(制御内容)を入力管理部420に取り込む(S1201)と、入力管理部420は入力間隔確認タイマTを起動させる。入力管理部420は、入力間隔確認タイマTが満了する時間(=T0)を過ぎると、内部状態を入力待ちに遷移させる(S1220)。
12A and 12B are examples in which the
ホスト機器332は、入力間隔確認タイマTが満了する時間(=T0)を過ぎてからマイク421から入力された次の音声データを取り込んだ場合(S1224)、この取り込んだ音声データをもとに機器やセンサを制御する処理を実行せず、予約語を発するようにユーザ331を促す表示を行う。
When the
入力間隔確認タイマTが満了すると、入力管理部は内部の状態を入力待ちに遷移させる(S1220)とともに、タイムアウト通知を音声処理部407に通知する(S1221)。タイムアウト通知を受け取った音声処理部407は、表示部425に対して認識未完了通知を送信し(S1222)、その認識未完了通知を受信した表示部425は、予約語を発するようにユーザ331に促す表示、例えばLEDを赤色で点滅させる(S1223)。
When the input interval confirmation timer T expires, the input management unit shifts the internal state to wait for input (S1220) and also notifies the
入力間隔確認タイマTが満了後に、マイク421から入力された次の音声データを取り込んだ場合(S1224)、入力管理部420は、内部状態を認識中に遷移させる(S1225)とともに、その取り込んだ音声データをトリガー認識部405に転送する(S1226)。以降、ホスト機器332は、図8Aおよび図8BのS803からS812までの処理あるいは図9Aおよび図9BのS903からS916までの処理を行い、予約語の認識を再度行う。
When the next voice data input from the
次にホスト機器332を用いた機器やセンサを制御するための制御内容の登録と、その登録された制御内容に基づいて行う機器やセンサの制御について説明する。
Next, registration of control contents for controlling the devices and sensors using the
図13は、ホスト機器332が、予約語を認識した後図10Aおよび図10Bのシーケンス図に示したように各種センサ310や各種設備機器320や各種家電機器340を制御する際に用いる制御情報の内容の具体的な例を示したものである。
13 shows control information used when the
項目1は、応答・アクション生成部102−2より送信される応答・アクション生成結果通知に含まれている、各種センサ310や各種設備機器320や各種家電機器340を制御する情報(以降応答・アクション情報と呼ぶ)の具体例である。この応答・アクション生成情報は、機器332が制御する機器やセンサ等の「対象」と、その制御対象を制御する内容を表す「命令」とから成る。ホスト機器332は、応答・アクション生成結果通知を受信すると、その中に含まれるアクション情報を抽出し、そのアクション情報の内容に基づいて、対象となる機器の制御を行う。
Item 1 is information included in the response / action generation result notification transmitted from the response / action generation unit 102-2 for controlling the
「命令」の例としては、制御する対象の機器を起動させる(動作させる)「起動命令」、終了させる(停止させる)「停止命令」、動作中の内容(モード)を変更する「動作変更命令」、対象機器に予め設定している内容(モード)を変更する「設定変更命令」等がある。 Examples of the "instruction" are a "start instruction" for activating (operating) the device to be controlled, a "stop instruction" for terminating (stopping) the device, and an "operation change instruction" for changing the contents (mode) during operation. , ”“ Setting change command ”for changing the contents (mode) preset in the target device.
応答・アクション生成部102−2が応答・アクション生成結果通知に含む応答・アクション情報を生成するために、ユーザ331は予め制御対象の機器とその制御内容、及びその機器を制御させるためにホスト機器332に対して発する言葉、の組み合わせを、ホスト機器332の初期設定として応答・アクション生成部102−2に登録する必要がある。以下図13の例を用いて、ホスト機器332の初期設定における応答・アクション情報の登録に関して説明する。
In order for the response / action generation unit 102-2 to generate the response / action information included in the response / action generation result notification, the
項目2は、ホスト機器332を通して制御する機器である「対象」である。この「対象」は、各種センサ310や各種設備機器320や各種家電機器340に含まれる機器やセンサの識別名称であり、具体例としてエアコン1を記載している。
Item 2 is a “target” that is a device controlled through the
項目3は、「項目2」に示す機器の制御内容である「命令」である。この「命令」は、具体例として項目2に挙げたエアコン1の命令を記載しており、エアコンを動かす「起動命令」、エアコンを停止させる「停止命令」、エアコンの動作内容を変える「動作変更命令」、エアコンの設定内容を変える「設定変更命令」を例として記載している。
項目2及び項目3の各機器やセンサの製品仕様は、記載していない製品仕様の情報が保存されている製品仕様クラウドサーバに予め保存されている。ユーザ331は、ホスト機器332を通して制御したい対象機器や対象センサの項目2及び項目3の製品仕様の情報を製品仕様クラウドサーバから入手する。
The product specifications of the devices and sensors of item 2 and
次にユーザ331は、ホスト機器332を通して項目2及び項目3の制御内容を実行する際に、ホスト機器332に発する言葉である項目4=「フレーズ」を決定する。この「フレーズ」は、項目3に挙げたエアコン1の命令に対応する内容であることが望ましく、例えばエアコンを動かす「起動命令」に対しては「エアコンつけて」、エアコンを停止させる「停止命令」に対しては「エアコンけして」、エアコンの動作内容である「冷房」を「ドライ」に変える「動作変更命令」に対しては「ドライにして」、エアコンの設定内容である運転開始時間を「夜10時運転開始」に変える「設定変更命令」に対しては「夜10時にエアコンつけて」を例として記載している。
Next, when the
以上より決定した(対象、命令、フレーズ)の組み合わせを、ユーザ331は、ホスト機器332の初期設定として作成する。ユーザ331は、ホスト機器332を通じて制御したい機器すべてに対して同様の作成を行い、最終的に制御対象すべての機器に関する(対象、命令、フレーズ)を1つにまとめた応答・アクション情報一覧を生成する。作成された応答・アクション情報一覧は、ホスト機器332を通して応答・アクション生成部102−2に登録される。
The
応答・アクション生成部102−2に応答・アクション情報一覧が登録されると、図10Aおよび図10Bに示すように、ホスト機器332は、予約語の認識が完了した以降、引き続きユーザ331が発する言葉を取り込んで解析することで、機器やセンサを制御することができる。
When the response / action information list is registered in the response / action generation unit 102-2, as shown in FIGS. 10A and 10B, the
例えば、ユーザ331が発した言葉=エアコンつけて、の場合、音声テキスト変換部101−2は入力された音声データを「えあこんつけて」というテキストに変換し、テキスト分析部102−1は、テキストデータ「えあこんつけて」を「エアコンつけて」という内容であると分析する。この分析結果をもとに応答・アクション生成部102−2は、既に登録されている応答・アクション情報一覧を参照し、「エアコンつけて」という「フレーズ」の分析結果に対応する応答・アクション情報を検索する。これにより、(対象=エアコン1、命令=運転開始)と言う応答・アクション情報を抽出し、応答・アクション生成結果通知に(対象=エアコン1、命令=運転開始)の応答・アクション情報を設定して音声処理部407に通知する。
For example, when the word uttered by the
音声処理部407は、受信した応答・アクション生成結果通知に設定されている応答・アクション情報を参照して、各種センサ310や各種設備機器320や各種家電機器340の中の該当する機器やセンサを制御する。
The
次にホスト機器332を用いて機器やセンサを制御する場合、種々の条件により機器やセンサを制御する制御内容や、ホスト機器332の動作内容を変更する場合について説明する。
Next, in the case of controlling a device or a sensor using the
図14は、ホスト機器332に予約語が複数登録されている場合、ホスト機器332がユーザ331の発した言葉を予約語の1つであると認識し、その認識した予約語に応じて行う動作内容の例の一覧である。
In FIG. 14, when a plurality of reserved words are registered in the
ホスト機器332は、複数の予約語を登録することが可能であり、またその複数の予約語の各々を認識した場合に、その認識した予約語に応じた動作内容(以降付加情報1と呼ぶ)を設定することが出来る。
The
図14に示すようにホスト機器332は、予約語として例えば「いろは」「オレ様だ」「息子や」の3つを登録しているものとする。ホスト機器332は、ユーザ331が発した言葉を予約語「いろは」と認識した場合は、既に設定されている動作内容を変えないが、ユーザ331が発した言葉を予約語「オレ様だ」と認識した場合は、以降ユーザ331の発する言葉を認識したら必ず「ご主人様喜んで」とスピーカ423を通じてアナウンスするように動作を変更する。また、ユーザ331が発した言葉を予約語「息子や」と認識した場合、ホスト機器332は、ユーザ331がシニアユーザであると判定し、シニアの場合はゆっくりと話をする傾向にあるため、図11Aおよび図11Bに示す入力間隔確認タイマの満了時間T0を通常の設定時間より長くするように設定変更する。
As shown in FIG. 14, it is assumed that the
図14の例は、ホスト機器332が、ホスト機器自身の動作内容を変える例を示しているが、それに限らず、ホスト機器332とネットワーク333で接続されている機器やセンサに対する動作の制御を行ってもよい。
The example of FIG. 14 shows an example in which the
ホスト機器332は、複数の予約語に応じてホスト機器332の動作を変えるために、各々の予約語に対する付加情報1を予めホスト機器332に登録しておく必要がある。
The
ホスト機器332は、予約語をホスト機器332に登録する際に、登録する予約語に対応する付加情報1もあわせて登録するモード(以降予約語登録(付加情報1)モードと呼ぶ)を有している。
The
図15Aおよび図15Bは、予約語およびそれに対応する付加情報1を合わせて登録するために、ホスト機器332が「予約語登録(付加情報1)モード」に遷移している状態において、予約語の登録開始から付加情報1の登録完了までのホスト機器332の処理シーケンスの例を示している。図15Aおよび図15Bに示すS1500からS1514の処理は、それぞれ図5Aおよび図5Bに示すS500からS514の処理と同一である。図15Aおよび図15Bにおける処理の図5Aおよび図5Bとの処理の相違点は、S1515がS515と異なる点と、S1516からS1523が追加されている点である。
FIG. 15A and FIG. 15B show a reserved word in a state in which the
トリガー設定部403は、予約語の登録が完了したことをユーザ331に対して知らせる表示(S1514)を行う。予約語の登録が完了したことをユーザに対して知らせる表示(S1515)は、トリガー設定部403が表示装置425に対して登録完了通知を送信(S1514)し、その登録完了通知を受信した表示装置425が例えばLEDを緑色で点滅させる、というようにユーザ331が認識できる表示方法で行うことが望ましい。これにより、トリガー設定部403は、付加情報1の登録を行うようにユーザ331に促すことが可能となる。
The
LEDが緑色に点滅している(S1515)ことを認識したユーザ331は、S1511で登録が完了した予約語に対応した付加情報1を設定することができる。
The
付加情報1の設定方法は、ユーザ331が発した音声をマイク421を通じてホスト機器332が取り込み、その取り込んだ音声データを解析することで、登録できるようにしてもよい。或いはまた表示装置425に、付加情報1を設定するメニューを表示させ、ユーザ331がそのメニューに従って操作することで登録できるようにしてもよい。或いは図4に示すネットワークI/F427を経由して接続されている外部のデバイス、例えばスマートフォンやタブレットを用いて、そのスマートフォンやタブレットの表示画面に予約語に対応した付加情報1を設定するメニューを表示させ、ユーザ331がその表示されたメニュー画面に従って操作することで登録できるようにしてもよい。図15Aおよび図15Bは、表示部425に表示された付加情報1を設定するメニューを表示させ、ユーザ331がそのメニューに従って操作することで付加情報1を登録する場合の処理シーケンスの例である。
The additional information 1 may be set by registering the voice generated by the
ユーザ331に付加情報1の入力を促すためにLEDが緑色に点滅する(S1515)と、表示部425に付加情報1を登録するためのメニューが表示される。ユーザ331は、表示されたメニュー画面に従って操作することで、付加情報1を作成する。作成が完了した付加情報1は、入力管理部420に取り込まれる(S1517)。入力管理部420は、取り込んだ付加情報1をトリガー設定部403に転送する。トリガー設定部403は、転送された付加情報1をメモリ410の予約語保存エリア410−2に保存する(S1519)。
When the LED blinks in green to prompt the
なおトリガー設定部403は、付加情報1をメモリ410の予約語保存エリア410−2に保存する際にはS1513で登録した予約語と関連付けて保存する。
Note that the
また、音声処理部407は、付加情報1の登録が完了したことをユーザ331に対して知らせる表示(S1522)を行う。付加情報1の登録が完了したことをユーザ331に対して知らせる表示(S1522)は、音声処理部407が表示装置425に対して登録完了通知を送信(S1520)し、その登録完了通知を受信した表示装置425が例えばLEDを緑色で点灯させる、というようにユーザ331が認識できる表示方法で行うことが望ましい。
The
図16Aおよび図16Bは、図15Aおよび図15Bに示す処理によりメモリ410の予約語保存エリア410−2に付加情報1が保存された場合に、ユーザ331が発した言葉の中から予約語の認識し、その認識した予約語の付加情報1を予約語保存エリア410−2から読み出して、ホスト機器332に対して動作を設定する場合のシーケンスの例である。
FIGS. 16A and 16B show recognition of a reserved word from words issued by the
図16Aおよび図16Bに示すS1600からS1612の処理は、それぞれ図8Aおよび図8Bに示すS800からS812の処理と同一である。図16Aおよび図16Bの処理における図8Aおよび図8Bの処理との違いは、S1613とS1614の処理が追加されている点である。 The processes of S1600 to S1612 shown in FIGS. 16A and 16B are the same as the processes of S800 to S812 shown in FIGS. 8A and 8B, respectively. The difference between the processes of FIGS. 16A and 16B and the processes of FIGS. 8A and 8B is that the processes of S1613 and S1614 are added.
ユーザ331が発した言葉を予約語として認識すると(S1605)、トリガー認識部405は、該当する予約語に対応した付加情報1をメモリ410の予約語保存エリア410−2から読み出す。付加情報1を読み出したトリガー認識部405は、読み出した付加情報1(S1613)の内容の動作をホスト機器332に設定する(S1614)。図14に示されている例の内容が予約語保存エリア410−2に保存されている場合、S1605で予約語として「息子や」を認識した場合、トリガー認識部405は、S1614にて入力間隔確認タイマTの満了時間T0を、通常の値をより長くするように設定する。
When the word recognized by the
図17(A)は、ユーザ331が発した言葉を、ホスト機器332に登録されている予約語として認識した場合、その認識した予約語に継続するユーザ331が発した言葉に応じて、ホスト機器332が特定の動作をする動作内容の例の一覧である。
In FIG. 17A, when a word uttered by the
ホスト機器332は、ユーザ331が発した言葉を、登録されている予約語であると認識した場合、その認識した予約語に継続してユーザ331が発した言葉(以降付加語と呼ぶ)の内容に応じて動作内容(以降付加情報2と呼ぶ)を設定することが出来る。
When the
例えば図17(A)に示すように、予約語として「いろは」が登録されているとする。この場合、ホスト機器332は、予約語「いろは」を認識した場合、この予約語「いろは」に続くユーザ331の発した言葉を認識しない場合は、既に設定されている動作内容を変更しない。ホスト機器332は、予約語「いろは」に続くユーザ331の発した言葉として「ちゃん」を認識した場合は、ユーザ331の機嫌がよいと判定し、スピーカ423を通して応答する場合は、応答する際のトーンを上げるように動作内容を変更する。また、ホスト機器332は、予約語「いろは」に続くユーザ331の発した言葉として「や」を認識した場合は、ユーザ331がシニアユーザであると推定し、ユーザ331がゆっくりと話す傾向にあるため、図11Aおよび図11Bに示す入力間隔確認タイマの満了時間T0を通常の設定時間より長くするように変更する。またホスト機器332は、予約語「いろは」に続くユーザ331の発した言葉として「おい」を認識した場合は、ユーザ331が怒っていると判定し、「申し訳ございません」とスピーカ423を通じてすぐにアナウンスするようにする。
For example, as shown in FIG. 17A, assume that "Iroha" is registered as a reserved word. In this case, when the
図17(A)の例は、1つの予約語に対して複数の付加語を設定し予約語に対する複数の付加語の組み合わせごとに付加情報2を設定することで、ホスト機器332が付加情報2の内容に基づいて動作内容を変える例を示しているが、複数の予約語と複数の付加語との組み合わせごとに付加情報2を設定することも可能である。図17(B)に示すように、例えばホスト機器332が予約語として「いろは」と「おおきに」「あーしんど」の3つを登録しているとする。この場合、各予約語に対して付加語を定義し、その予約語+付加語の組み合わせごとに付加情報2を設定してもよい。
In the example of FIG. 17A, the
また、ユーザによっては、予約語を発するだけで、ある特定の動作をしてほしいときがある。例えば、ある個人の口癖がある場合、その口癖を予約語としてホスト機器332に登録し、併せてこの予約語に対応した動作をホスト機器332に登録することで、その個人の特性にあった機器やセンサの動作の制御を簡易に実行することができる。図17(B)の予約語「あーしんど」の例では、「あーしんど」という予約語をホスト機器332が認識した場合に、ホスト機器332がユーザ331の発した言葉の中から予約語を認識しただけで、ネットワーク333に接続されている冷蔵庫の中に保存されているビールの情報をスピーカ423を通してアナウンスする、ということも可能である。
In addition, some users may want to perform a specific operation only by issuing a reserved word. For example, when there is a habit of a certain individual, that habit is registered as a reserved word in the
ホスト機器332は、予約語に対する付加語の内容に応じて動作を変えるために、予約語に対応した付加語と、この予約語と付加語の組み合わせに対する動作内容である付加情報2、の組み合わせを予めホスト機器332に登録しておく必要がある。このためホスト機器332は、登録済み予約語に対して、対応する付加語や付加情報を追加登録するモードを有している。ホスト機器332に既に登録されている予約語に対して、付加情報1を追加するモードを付加情報1追加登録モード、付加語と付加情報2を追加するモードを付加情報2追加登録モードと呼ぶこととする。
In order to change the operation according to the content of the additional word to the reserved word, the
付加情報2の設定方法は、付加情報1の設定同様にユーザ331が発した音声をマイク421を通じてホスト機器332が取り込み、その取り込んだ音声データを解析することで、登録できるようにしてもよい。或いはまた表示装置425に、付加情報2を設定するメニューを表示させ、ユーザ331がその表示されたメニューに従って操作することで登録できるようにしてもよい。或いは図4に示すネットワークI/F427を経由して接続されている外部のデバイス、例えばスマートフォンやタブレットを用いて、そのスマートフォンやタブレットの表示画面に予約語および付加語に対応した付加情報2を設定するメニューを表示させ、ユーザ331がその表示されたメニュー画面に従って操作することで登録できるようにしてもよい。
Similarly to the setting of the additional information 1, the additional information 2 may be registered by the
図18A、図18Bおよび図18Cは、図17(A)(B)に示す登録済みの予約語に対して、付加語の登録とその付加語に対する動作内容(付加情報2)の登録を行う場合の処理シーケンスの例である。 FIGS. 18A, 18B, and 18C show the case where an additional word is registered for the registered reserved words shown in FIGS. 17A and 17B and the operation content (additional information 2) is registered for the additional word. Is an example of a processing sequence of.
登録済みの予約語に対する付加語を追加登録するために、ユーザ331はホスト機器332を「付加情報2追加登録モード」に変更する。ホスト機器を「付加情報2追加登録モード」に変更すると、ユーザ331は、ホスト機器332に登録済みの予約語と、その予約語に対して登録したい付加語を発する。ホスト機器332は、ユーザ331の発した言葉の中から、最初に予約語の認識を行う(S1805)。
In order to additionally register the additional word for the registered reserved word, the
ホスト機器332は、ユーザ331が発した言葉をマイク421を通じて入力管理部420に取り込む(S1801)。入力管理部420は、音声データを取り込むと内部で管理する内部状態を認識中(予約語)に遷移させる(S1802)とともに、入力された音声データをトリガー認識部405に転送する(S1803)。
The
トリガー認識部405は、入力管理部420から転送されてきた音声データを受け取ると、メモリ410の予約語保存エリア410−2から認識用データを読み出し(S1804)、入力管理部420から転送されてきた音声データとの比較を行う(S1805)。トリガー認識部405は、入力された音声データが予約語と認識出来た場合、入力管理部420に認識完了通知(S1806)を通知する。認識完了通知を受け取った入力管理部420は、内部で管理する内部状態を認識中(予約語)から入力待ち(付加語)に遷移(S1807)させる。
When the
ホスト機器332は、ユーザ331が予約語に続いて発した言葉をマイク421を通じて入力管理部420に取り込む(S1808)。入力管理部420は、内部で管理する内部状態が入力待ち(付加語)である(S1807)ので、入力された音声データをトリガー設定部403に転送する(S1809)。以降、図5Aおよび図5Bで説明した予約語の登録同様に、トリガー設定部403は、受信した音声データをメモリ410の音声蓄積エリア410−3に保存(S1810)しながら、規定回数の付加語の取り込みを行う(S1811)。
The
トリガー設定部403は、規定回数に達しているかの確認の結果規定回数に達していないと判定した場合、登録する付加語の音声の入力をユーザ331に促す表示を行う(S1812)と共に、入力管理部420に入力継続通知を送信する(S1814)。なお、付加語として登録する音声の入力をユーザ331に対して促す表示(S1813)は、トリガー設定部403が表示装置425に対して登録未完了通知を送信(S1812)し、その登録未完了通知を受信した表示装置425が例えばLEDを赤色で点滅させる、というようにユーザ331が認識できる表示方法で行うことが望ましい。また表示による方法の代わりに音声による方法を用いて、登録する音声の入力をユーザ331に促してもよい。この場合トリガー設定部403は、スピーカ423に対して登録未完了通知を送信し、この登録未完了通知を受け取ったスピーカ423は、たとえば「もう一度入力してください」とユーザ331に対してアナウンスする方法でもよい。或いはトリガー設定部403は、ユーザ331に対して登録する音声の入力を促すのに、表示による方法と音声による方法の両方を用いてもよい。
If the
トリガー設定部403は、規定回数に達しているかの確認の結果規定回数に達していると判定した場合、それまでに音声蓄積エリア410−3に保存している音声データを読み出し(S1815)、インターネット2を通じてクラウドサーバ1にある音声認識クラウド101の中の認識用データ変換部101−1に送付する(S1816)。
When the
認識用データ変換部101−1は、トリガー設定部403から送られてきた音声データを、付加語を認識するための認識用データに変換する(S1817)。認識用データへの変換が完了すると、認識用データ変換部101−1は、インターネット2を通じて認識用データをトリガー設定部403に送付(S1818)する。付加語を認識するための認識用データ(以降認識用データ(付加語)と呼ぶ)を受信したトリガー設定部403は、受信したデータをメモリ410の予約語保存エリア410−2に保存する(S1819)。トリガー設定部403は、認識用データ(付加語)を保存する際には、S1806で認識した予約語と関連づけて保存する。これにより、S1806で認識した予約語に関連付けされて認識用データ(付加語)を保存することが可能となる。
The recognition data conversion unit 101-1 converts the voice data sent from the
また、トリガー設定部403は、付加語の登録が完了したことをユーザ331に対して知らせる表示(S1822)を行う。予約語の登録が完了したことをユーザ331に対して知らせる表示(S1822)は、トリガー設定部403が表示装置425に対して登録完了通知を送信(S1821)し、その登録完了通知を受信した表示装置425が例えばLEDを緑色で点滅させる(S1822)、というようにユーザ331が認識できる表示方法で行うことが望ましい。或いはトリガー設定部403は、予約語の登録が完了したことをユーザ331に対して通知するのに、表示による方法の代わりに音声による方法を用いてもよい。この場合トリガー設定部403は、スピーカ423に対して登録完了通知を送信し(S1821)、この登録完了通知を受け取ったスピーカ423が例えば「登録が完了しました」とユーザ331に対してアナウンスする方法でもよい。或いはトリガー設定部403は、予約語の登録が完了したことをユーザ331に対して通知するのに、表示による方法と音声による方法の両方を用いてもよい。これにより、ユーザ331は、付加語に対応した動作内容である付加情報2の内容を言葉で発するタイミングを知ることができる。
Further, the
ユーザ331に付加情報2の入力を促すためにLEDが緑色に点滅させる(S1822)と、表示部425に付加情報2を登録するためのメニューが表示される。ユーザ331は、表示されたメニュー画面に従って操作することで、付加情報2を作成する。作成が完了し付加情報2は、入力管理部420に取り込まれる(S1824)。入力管理部420は、取り込んだ付加情報2をトリガー設定部403に転送する(S1825)。トリガー設定部403は、転送された付加情報2をメモリ410の予約語保存エリア410−2に保存する(S1826)。
When the LED blinks green to prompt the
なおトリガー設定部403は、付加情報2をメモリ410の予約語保存エリア410−2に保存する際にはS1806で認識した予約語と関連付けて保存する。これにより、S1806で認識した予約語に関連付けされ、かつS1819で保存された付加語に関連付けされた動作内容(付加情報2)を保存することが可能となる。
The
登録済みの予約語に対して、付加情報だけをあとから追加することも可能である。 It is also possible to add only the additional information to the registered reserved word later.
図18Dおよび図18Eは、図18A、図18Bおよび図18Cとは異なり登録済みの予約語に対して、付加情報だけを追加する場合の処理シーケンスの例である。 18D and 18E are an example of a processing sequence in the case of adding only additional information to a registered reserved word, which is different from FIGS. 18A, 18B and 18C.
図18Dに示すS1850からS1856の処理は、それぞれ図18Aに示すS1800からS1806の処理と同一である。また、図18Dおよび図18Eに示すS1871からS1880の処理は、それぞれ図18Cに示すS1821からS1830の処理と同一である。図18A、図18Bおよび図18Cのシーケンス例と図18Dおよび図18Eとのシーケンス例との違いは、図18A、図18Bおよび図18CのS1807からS1820の付加語登録処理に対応する処理が、図18Dおよび図18Eには無い点である。 The processes of S1850 to S1856 shown in FIG. 18D are the same as the processes of S1800 to S1806 shown in FIG. 18A, respectively. Further, the processing of S1871 to S1880 shown in FIGS. 18D and 18E is the same as the processing of S1821 to S1830 shown in FIG. 18C, respectively. The difference between the sequence example of FIGS. 18A, 18B and 18C and the sequence example of FIGS. 18D and 18E is that the process corresponding to the additional word registration process of S1807 to S1820 of FIGS. 18A, 18B and 18C is 18D and FIG. 18E do not have this point.
ユーザ331に付加情報1の入力を促すためにLEDが緑色に点滅させる(S1871)と、表示部425に付加情報1を登録するためのメニューが表示される。ユーザ331は、表示されたメニュー画面に従って操作することで、付加情報1を作成する。作成が完了し付加情報1は、入力管理部420に取り込まれる(S1874)。入力管理部420は、取り込んだ付加情報1をトリガー設定部403に転送する(S1875)。トリガー設定部403は、転送された付加情報1をメモリ410の予約語保存エリア410−2に保存する(S1876)。
When the LED blinks in green to prompt the
なおトリガー設定部403は、付加情報1をメモリ410の予約語保存エリア410−2に保存する際にはS1856で認識した予約語と関連付けて保存する。これにより、S1856で認識した予約語に関連付けされた動作内容を保存することが可能となる。
The
図19Aおよび図19Bは、図18A、図18Bおよび図18Cに示す処理によりメモリ410の予約語保存エリア410−2に付加語及び付加情報2が保存された場合に、ユーザ331が発した言葉の中から予約語と付加語を認識し、その認識した予約語と付加語の組み合わせに対応する付加情報2を予約語保存エリア410−2から読み出して、ホスト機器332に対して動作を設定する場合のシーケンス例である。
FIGS. 19A and 19B show the words issued by the
図19Aに示すS1900からS1908の処理は、それぞれ図16Aに示すS1600からS1608の処理と同一である。図19Aおよび図19Bの処理における処理の図16Aおよび図16Bの処理との違いは、S1909からS1911の付加語の認識の処理が追加されている点と、S1912からS1913の付加情報2の読み出し処理を行う点である。 The processes of S1900 to S1908 shown in FIG. 19A are the same as the processes of S1600 to S1608 shown in FIG. 16A, respectively. 19A and 19B are different from the processes of FIGS. 16A and 16B in that the additional word recognition process of S1909 to S1911 is added, and the additional information 2 reading process of S1912 to S1913 is added. Is the point to do.
ユーザ311が発した言葉を取り込んだデータに対して、図19AのS1905において予約語の認識が成功すると、トリガー認識部420は、ユーザ311が発した言葉を取り込んだデータに対して、認識に成功した予約語に継続して入力された音声データが、付加語であるかの判定を判定するために、メモリ410の予約語保存エリア410−2から読み出した認識用データ(付加語)との比較を行う(S1911)。予約語に継続する音声データが付加語であると認識した場合、トリガー認識部405は、該当する予約語と付加語に対応した付加情報2をメモリ410の予約語保存エリア410−2から読み出す(S1912)。付加情報2を読み出したトリガー認識部405は、読み出した付加情報2の内容の動作をホスト機器332に設定する(S1913)。
When the reserved word is successfully recognized in S1905 of FIG. 19A with respect to the data in which the words the
以上のように、ホスト機器332に予約語、付加語、付加情報を登録することで、ホスト機器332は、ホスト機器332の動作や、ホスト機器332とネットワークで接続されている機器やセンサに対する動作を自由に制御することが出来、個々人の生活スタイルにあった機器やセンサの制御が可能となる。
As described above, by registering the reserved word, the additional word, and the additional information in the
図20は、ホスト機器332に予約語が複数登録された場合、ユーザ331が発した言葉の中から予約語のいずれかであると認識した場合、その認識した予約語に応じて、音声認識クラウド101の音声テキスト変換部101−2で用いる音声認識辞書を変更する例の一覧である。
In FIG. 20, when a plurality of reserved words are registered in the
ホスト機器332は、複数の予約語を登録することが可能である。ホスト機器332は、ユーザ331が発した言葉を、登録された複数の予約語のいずれかであると認識した場合、その認識した予約語に応じて音声認識クラウド101の音声テキスト変換部101−2で用いる音声からテキストに変換するための音声認識辞書を変更することができる。例えば図21Aおよび図21Bに示すように、ホスト機器332は、予約語として「こんにちは」「Hello」「おおきに」の3つを登録しているものとする。この場合ホスト機器332は、予約語「こんにちは」を認識した場合は、音声認識クラウド101の音声テキスト変換部101−2で用いる音声認識辞書を日本語辞書に変更するように命令を出すことができる。また、予約語「Hello」を認識した場合は、ホスト機器332は、音声認識クラウド101の音声テキスト変換部101−2に対して、音声認識辞書の種類を英語辞書に変更するように命令を出すことができる。さらにまた、予約語「おおきに」を認識した場合は、ホスト機器332は、音声認識クラウド101の音声テキスト変換部101−2で用いる音声認識辞書の種類を方言辞書(関西弁)に変更するように命令を出すことができる。
The
ホスト機器332が認識した予約語に応じて音声認識クラウド101の音声テキスト変換部101−2で用いる音声認識辞書の種類を変えるためには、ユーザ331は、ホスト機器332に対して予約語を登録する際に、予約語に対応して音声テキスト変換部101−2で使用する音声認識辞書の種類(以降付加情報3と呼ぶ)をあわせて登録する必要がある。
In order to change the type of the voice recognition dictionary used by the voice text conversion unit 101-2 of the voice recognition cloud 101 according to the reserved word recognized by the
予約語に対応する音声認識辞書の種類(付加情報3)を、予約語の登録とあわせて登録する処理シーケンスは、図15Aおよび図15Bに示す予約語に対して付加情報1を登録する処理シーケンスと同一であり、表示部425に表示されるメニュー画面で付加情報1を入力する(S1516)代わりに、付加情報3の入力画面を選択して入力すればよい。以降、図15BのS1514以降の処理を用いて、付加情報3を登録する処理の流れについて説明する。図15BのS1514以降に記載されている付加情報1は、付加情報3と読み替えて説明する。
The processing sequence for registering the type (additional information 3) of the voice recognition dictionary corresponding to the reserved word together with the registration of the reserved word is the processing sequence for registering the additional information 1 for the reserved word shown in FIGS. 15A and 15B. The additional information 1 may be selected and input instead of inputting the additional information 1 on the menu screen displayed on the display unit 425 (S1516). Hereinafter, the flow of processing for registering the
ユーザ331に付加情報3の入力を促すためにLEDが緑色点滅する(S1514)と、表示部425に付加情報3を登録するためのメニューが表示される。ユーザ331は、表示されたメニュー画面に従って付加情報3の入力操作することで、付加情報3として辞書の種類を選択することができる。作成が完了し付加情報3は、入力管理部420に取り込まれる(S1516)。入力管理部420は、取り込んだ付加情報3をトリガー設定部403に転送する。トリガー設定部403は、転送された付加情報3をメモリ410の予約語保存エリア410−2に保存する。
When the LED blinks in green to prompt the
なおトリガー設定部403は、付加情報3をメモリ410の予約語保存エリア410−2に保存する際にはS1513で登録した予約語と関連付けて保存する。
The
図21Aおよび図21Bは、図20に示したようにホスト機器332に予約語が複数登録された場合の、各予約語がホスト機器332で認識された場合に、音声テキスト変換部101−2で使用する音声認識辞書の種類を変更するシーケンス例を示している。図21Aおよび図21Bに示すS2100からS2113の処理は、それぞれ図16Aおよび図16Bに示すS1600からS1613の処理と同一である。図21Aおよび図21Bにおける処理の図16Aおよび図16Bの処理との相違点は、図16Aおよび図16Bの処理の場合は、トリガー認識部403が付加情報1を読み出した後、その付加情報1の内容に基づいてホスト機器332の動作の設定を行う(S1614)のに対して、図21Aおよび図21Bの場合は、トリガー認識部403が付加情報3を読み出した後、その付加情報3の内容に基づいて音声テキスト変換部101−2で使用する音声認識辞書の種類を変えるために音声テキスト変換部101−2とのやり取りを行う(S2114−1からS2114−3)点である。
21A and 21B show that the voice text conversion unit 101-2 is used when a plurality of reserved words are registered in the
なお、予約語の認識及び音声認識辞書の変更が完了したことをユーザに対して知らせる表示は、トリガー設定部403が表示装置425に対して登録完了通知を送信(S2109)し、その登録完了通知を受信した表示装置425が例えばLEDを緑色で点灯させる、というようにユーザ331が認識できる表示方法で行うことが望ましい。或いはトリガー認識部405は、スピーカ423に対して認識完了通知を送付することで、その認識完了通知を受け取ったスピーカ423が例えば「はいはいなんでしょうか?。ところで、音声認識の辞書は方言辞書(関西弁)に変えましたよ」とユーザ331に対して音声によりアナウンスする方法でもよい。或いはトリガー認識部405は、予約語の認識と認識した予約語に対応した音声認識辞書の変更とが完了したことをユーザ331に対して通知するに、表示装置425を用いた表示による方法とスピーカ423を用いた音声による方法の両方を用いてもよい。
As for the display notifying the user that the reserved word recognition and the voice recognition dictionary change are completed, the
なお、図14に示す予約語に対応する動作内容(付加情報1)、図17(A)(B)に示す予約語に対する付加語ごとの動作内容(付加情報2)、及び図20に示す予約語に対する音声認識辞書の種類(付加情報3)は、組み合わせて登録を行うことができる。 Note that the operation content (additional information 1) corresponding to the reserved word shown in FIG. 14, the operation content for each additional word (additional information 2) with respect to the reserved word shown in FIGS. 17A and 17B, and the reservation shown in FIG. The types of the voice recognition dictionary (additional information 3) for words can be registered in combination.
図22は、図14に示す予約語に対応する動作内容の登録、図17(A)に示す予約語に対する付加語の登録、付加語に対する動作内容の登録及び図20に示す予約語に対する音声認識辞書の種類の登録を組み合わせて行う場合の組み合わせの一覧である。ホスト機器332は、例えば予約語「こんにちは」に対しては、音声認識辞書の種類として日本語辞書を使用するように設定する。ホスト機器332は、また予約語「こんにちは」に対して付加語として「ちゃん」「や」「おい」を登録し、付加語が「ちゃん」の場合は応答する際のトーンを上げるようにホスト機器332の動作内容を変更し、付加語が「や」の場合は入力間隔確認タイマTの満了時間T0を長くするように設定内容を変更し、また付加語が「おい」の場合は、「申し訳ございません」とすぐにアナウンスするように動作内容をする。
22. FIG. 22 shows the registration of the operation content corresponding to the reserved word shown in FIG. 14, the registration of the additional word for the reserved word shown in FIG. 17A, the registration of the operation content for the additional word, and the voice recognition of the reserved word shown in FIG. It is a list of combinations when registration of dictionary types is performed in combination. The
図23は、予約語以外の内容(以降変更条件と呼ぶ)に応じてテキスト変換部101−2で使用する音声認識辞書の種類を変更する例の一覧である。例えば図23(A)は、変更条件として時刻を設定した場合の例である。ホスト機器332は、音声認識クラウド101のテキスト変換部101−2が音声データをテキストに変換する際に使用する音声認識辞書の種類を、その音声認識辞書を使用する時間によって変更するように指示する例を示している。
FIG. 23 is a list of examples in which the type of the voice recognition dictionary used by the text conversion unit 101-2 is changed according to the contents other than the reserved words (hereinafter referred to as change conditions). For example, FIG. 23 (A) shows an example in which time is set as the change condition. The
ホスト機器332は、例えば、時刻05:00から08:00までは家族一般用辞書を使用し、時刻08:00から16:00までは奥様用辞書を使用し、時刻16:00から20:00までは家族一般用辞書を使用し、時刻20:00から05:00までは大人用辞書を使用するように、インターネット2を通じてテキスト変換部101−2に指示する。
For example, the
また図23(B)は、変更条件=ホスト機器332の動作ステータスとした場合の例である。ホスト機器332は、テキスト変換部101−2が使用する音声認識辞書の種類を、その音声認識辞書を使用する際のホスト機器332の動作ステータスの種類によって変更するように指示することができる。
In addition, FIG. 23B is an example when the change condition = the operation status of the
ホスト機器332は、例えば、動作ステータス=今から出勤の時は時刻・ルート検索辞書を使用し、動作ステータス=外出の時は一般辞書を使用し、動作ステータス=夜モードの時はリフレッシュ辞書を使用するように、インターネット2を通じてテキスト変換部101−2に指示する。
The
ホスト機器332は、条件に応じて使用する音声認識辞書の種類の情報である、変更条件種類情報を登録するモード(以降変更条件登録モードと呼ぶ)以降を有している。
The
ユーザ331は、変更条件に応じて音声認識辞書の種類を使い分けるために、変更条件種類情報をホスト機器332に予め登録する必要がある。
The
変更条件に応じて音声認識辞書の種類を使い分けるための登録方法は、ユーザ331が発した音声をマイク421を通じてホスト機器332が取り込み、その取り込んだ音声データを解析することで、登録できるようにしてもよい。或いはまた表示装置425に、付加情報1を設定するメニューを表示させ、ユーザ331がそのメニューに従って操作することで登録できるようにしてもよい。或いは図4に示すネットワークI/F427を経由して接続されている外部のデバイス、例えばスマートフォンやタブレットを用いて、そのスマートフォンやタブレットの表示画面に予約語に付加情報1を設定するメニューを表示さ、ユーザ331がその表示されたメニュー画面に従って操作することで登録できるようにしてもよい。
The registration method for selectively using the type of the voice recognition dictionary according to the change condition is that the
図24は、表示部425に表示された変更条件種類情報を設定するメニューを表示させ、ユーザ331がそのメニューに従って操作することで変更条件に応じて使い分ける音声認識辞書の種類を登録する場合の処理シーケンスの例である。図24に示すS2417からS2423の処理は、付加情報1の登録シーケンスである図15BのS1517からS1523の処理と同一である。
FIG. 24 is a process of displaying a menu for setting change condition type information displayed on the
ユーザ331は、表示されたメニュー画面に従って操作することで、変更条件に応じて使い分ける音声認識辞書の種類を入力する。入力が完了した変更条件種類情報は、入力管理部420に取り込まれる(S2417)。入力管理部420は、取り込んだ変更条件種類情報をトリガー設定部403に転送する(S2418)。トリガー設定部403は、転送された変更条件種類情報をメモリ410の予約語保存エリア410−2に保存する(S2419)。
The
図25は、図23に示すように変更条件に応じて音声認識辞書の種類を変更するための変更条件種類情報がメモリ410の予約語保存エリア410−2に保存されている場合に、その保存されている変更条件種類情報の内容に応じて、ホスト機器332が音声テキスト変換部101−2に、音声認識辞書の変更を通知する場合の処理シーケンスの例である。
FIG. 25 shows a case where the change condition type information for changing the type of the voice recognition dictionary according to the change condition is stored in the reserved word storage area 410-2 of the
図25の処理は、例えば図9Bに示す予約語の認識の処理が終了した(S911)あとに、継続して行うことが望ましい。或いは、予約語の認識が行われた後に、図10Aおよび図10Bに示すように、機器やセンサを制御するためにユーザ331がホスト機器332に発した場合に、その言葉をホスト機器332が取り込んだタイミング(S1001)で行うことが望ましい。
It is desirable that the processing of FIG. 25 be continuously performed after the reserved word recognition processing shown in FIG. 9B is completed (S911), for example. Alternatively, after the reserved word is recognized, as shown in FIGS. 10A and 10B, when the
図25は、図10Aおよび図10Bに示すように機器やセンサを制御するためにユーザ331がホスト機器332に言葉を発した場合に、その言葉をホスト機器332が取り込んだタイミング(S1001)で、音声認識辞書の変更の判定とその結果の通知を行う場合の例である。
FIG. 25 shows the timing (S1001) when the
予約語の認識が完了した場合、ホスト機器332は、継続してユーザの発した音声を、マイク421を通じて入力管理部420に取り込む(S2501)。入力管理部420は、音声データを取り込んだタイミングで、変更条件種類情報を読み出すために、音声処理部407に読み出し要求(変更条件種類情報)を送信する(S2502)とともに取り込んだ音声データに対する処理は一時停止する。読み出し要求(変更条件種類情報)を受信した音声処理部407は、メモリ410の予約語保存エリア410−2から、変更条件と音声認識辞書の種類の組み合わせが含まれている変更条件種類情報を読み出す(S2503)。音声処理部407は、読み出した変更条件種類情報の「変更条件」を解析し、その内容がホスト機器332の状態に適合しているかの判定を行う(S2504)。判定の結果適合していると判定された場合、音声処理部407は、「変更条件」に対応する「音声認識辞書の種類」を読み出し、音声認識辞書種類通知により変更後の音声認識辞書の種類をインターネット2を通じて音声テキスト変換部101−2に通知する(2505)。音声認識辞書種類通知を受信した音声テキスト変換部101−2は、通知された音声認識辞書の種類を参照し、現在使用中の音声認識辞書の種類を通知された音声認識辞書の種類に変更する(S2506)
音声テキスト変換部101−2は、音声認識辞書の種類の変更が完了すると、変更完了の通知として、音声処理部407に対して音声認識辞書変更完了通知を通知する(S2507)。
When the recognition of the reserved word is completed, the
When the change of the type of the voice recognition dictionary is completed, the voice / text conversion unit 101-2 notifies the
音声処理部407は、音声認識辞書変更完了通知を受信すると(S2507)、入力管理部420に対して、変更条件種類情報の読み出しが完了した旨の通知として、読み出し完了通知を送信する(S2508)。入力管理部420は、読み出し完了通知を受信する(S2508)と、S2501において取り込んでいた音声データに対する処理を再開する。
Upon receiving the voice recognition dictionary change completion notification (S2507), the
ユーザ331は、ホスト機器332に登録した予約語を忘れてしまう場合がある。そのような場合に備えて、ユーザ331は、登録済みの予約語を簡易な方法で確認できることが望ましい。
The
図26は、図5Aおよび図5Bに示す処理シーケンスの例で予約語を登録したユーザ331が、登録済みの予約語を忘れてしまった場合、登録済みの予約語の一部または全部をユーザ331に通知するための予約語(以降救済予約語と呼ぶ)と表示内容(表示範囲)の例の一覧を示している。例えば「わからない」という予約語に対しては、ホスト機器332に登録済みの予約語の全てを表示部425に表示する、或いはホスト機器に332に接続された外部のデバイスの表示エリアに表示する場合を示している。また「ちょっと教えて」という予約語に対しては、ホスト機器332に登録済みの予約語のうち予め決められた一部を表示部425に表示する、或いはホスト機器332に接続された外部のデバイスの表示エリアに表示する場合を示している。また「使ってないヤツ」という予約語に対しては、ホスト機器332に登録済みの予約語のうち使用履歴が過去1年間ない予約語を表示部425に表示する、或いはホスト機器332に接続された外部のデバイスの表示エリアに表示する場合を示している。ホスト機器332に接続された外部のデバイスとしては、例えばスマートフォンやタブレット、液晶テレビ等の表示画面が比較的大きくユーザが一度に多くの予約語を参照することができるデバイスであることが望ましい。
In FIG. 26, when the
このように、登録済みの予約語を表示させるための予約語の登録は、ホスト機器のモード=設定モード(予約語(表示用))に変更して、図5Aおよび図5Bに示す予約語の登録の処理シーケンスに従って登録すればよい。 As described above, the registration of the reserved word for displaying the registered reserved word is performed by changing the mode of the host device to the setting mode (reserved word (for display)) and changing the reserved word shown in FIGS. 5A and 5B. The registration may be performed according to the registration processing sequence.
上記の例は、図26に示した「救済予約語」をユーザが発することで、すぐに該当する予約語が表示される例である。しかし、ホスト機器332が、該当する予約語を表示するまえに、ユーザ331に対して合言葉を聞くようにしてもよい。ユーザが「救済予約語」を発した後、ホスト機器332はスピーカ423を通じて例えば「山」と音声を発し、これに対して例えばユーザ331が「川」と応答したときに、該当する予約語を表示してもよい。
The above example is an example in which when the user issues the "reservation reserved word" shown in FIG. 26, the corresponding reserved word is immediately displayed. However, the
更に、ホスト機器332は、ユーザ331が発した言葉を取り込んで、予約語、付加語、あるいは付加情報を登録するシーンを録音あるいは録画することも出来る。あるいは、予約語、付加語、を認識した場合に、その認識するシーンを録音あるいは録画することもできる。
Furthermore, the
図27は、ホスト機器332が、ユーザ331が発した言葉を取り込んで、予約語、付加語、あるいは付加情報の登録、予約語あるいは付加語の認識、のシーンを録音あるいは録画する場合、ホスト機器332の機能ブロック図を示している。図4との違いは、ホスト機器2700が予約語、付加語、あるいは付加情報を登録するシーンを録画する、あるいは予約語あるいは付加語を認識するシーンを録画するためのカメラ2702を有する点、また制御管理部2701がAPP−Mg2701−1、CONF−Mg2701−2に加えEVT−Mg2701−3を有する点、システムコントローラ402が録音あるいは録画したシーンのデータを再生するための再生制御機能を有している点である。EVT−Mg2701−3は、予約語、付加語、あるいは付加情報を登録するシーンの発生、また、予約語、付加語、を認識するシーンの発生、に起因して後述する録音あるいは録画を行う機能を有している。以下、ホスト機器332が、ユーザ331が発した言葉を取り込んで、予約語、付加語、あるいは付加情報を登録するシーンを録音あるいは録画する処理の流れ、また予約語、付加語を認識するシーンを録音あるは録画する処理の流れ、について説明する。
FIG. 27 shows that when the
図28は、予約語、付加語、あるいは付加情報を登録するシーンが発生したとき、あるいは、予約語、付加語、を認識するシーンが発生した場合に、登録のシーンあるいは認識のシーンをホスト機器332が録音あるいは録画する場合の時間経過を示している。
In FIG. 28, when a scene for registering a reserved word, an additional word, or additional information occurs, or a scene for recognizing a reserved word, an additional word occurs, the registered scene or the recognized scene is used as a host device. The
時刻t1において、ホスト機器332は、ユーザが発した言葉を予約語として登録を開始したとする。予約語の登録の開始は、例えば図5Aおよび図5Bの予約語の登録シーケンスにおける、入力管理部420がS502の処理を行うタイミングとしてもよい。入力管理部420は、予約語の登録の開始を認識すると、その旨をEVT−Mg2701−3に通知する。予約語の登録開始の旨の通知を受信したEVT−Mg2701―3は、マイク421を通じて予約語登録のシーンをRec1として録音する、あるいはカメラ2702を通じて予約語登録のシーンをRec1として録画する。予約語の登録の終了は、例えば図5Aおよび図5Bの予約語の登録シーケンスにおける、入力管理部420がS512の登録完了通知を受け取ったタイミングとしてもよい。予約語の登録の終了を把握した入力管理部420は、その旨とEVT−Mg2701−3に通知する。予約語の登録完了の旨を受信したEVT−Mg2701−3は、マイク421を通じて行っていた予約語登録のシーンの録音を終了させる、あるいはカメラ2702を通じて行っていた予約語登録のシーンの録画を終了させる。
It is assumed that at time t1, the
同様に、時刻t2において、ホスト機器332はユーザが発した言葉を予約語として認識を開始したとする。予約語の認識の開始は、例えば図8Aおよび図8Bの予約語の認識シーケンスにおける、入力管理部420がS802の処理を行うタイミングとしてもよい。入力管理部420は、予約語の認識の開始を認識すると、その旨をEVT−Mg2701−3に通知する。予約語の認識開始の旨の通知を受信したEVT−Mg2701―3は、マイク421を通じて予約語認識のシーンをRec2として録音する、あるいはカメラ2702を通じて予約語認識のシーンをRec2として録画する。予約語の認識の終了は、例えば図8Aおよび図8Bの予約語の登録シーケンスにおける、入力管理部420がS811の認識完了通知を受け取ったタイミングとしてもよい。予約語の登録の終了を把握した入力管理部420は、その旨とEVT−Mg2701−3に通知する。予約語の登録完了の旨を受信したEVT−Mg2701−3は、マイク421を通じて行っていた予約語認識のシーンの録音を終了させる、あるいはカメラ2702を通じて行っていた予約語認識のシーンの録画を終了させる。
Similarly, it is assumed that at time t2, the
同様に、t3およびt4において発生した登録あるいは認識のイベントを録画あるいは録音する。 Similarly, record or record the registration or recognition event that occurred at t3 and t4.
ホスト機器332は、録音または録画された登録のシーンまたは認識のシーンを再生することができる。
The
図29は、録画あるいは録音されたシーンの各データを再生する際に、再生対象のデータが表示されている様子の一例を示している。図29の例では、図28の時間軸に対するイベントの発生する様子に対応する形で、4つの再生対象のデータのアイコンが表示されている。この再生対象のデータのアイコン表示は、例えば表示部425に表示されてもよい。あるいはホスト機器332に接続された外部デバイス、例えばスマートフォンやタブレット、液晶テレビ等に表示されてもよい。
FIG. 29 shows an example of how the data to be reproduced is displayed when reproducing each data of the recorded or recorded scene. In the example of FIG. 29, four reproduction target data icons are displayed in a manner corresponding to the occurrence of events on the time axis of FIG. 28. The icon display of the reproduction target data may be displayed on the
表示されているアイコンは、録音または録画された日時と、録画または録音の対象のデータの内容を表している。例えばアイコンの表示内容が、予約語登録「おおきに」の場合は、録画または録音されているデータの内容が、「おおきに」を予約語として登録したシーンであることを示している。同様にアイコンの表示内容が、予約語認識「おおきに」の場合は、録画または録音されているデータの内容が、「おおきに」を予約語として認識したシーンであることを示している。 The displayed icons represent recording or recording date and time, and contents of recording or recording target data. For example, when the display content of the icon is the reserved word registration “OOKINI”, it indicates that the content of the recorded or recorded data is a scene in which “OOKINI” is registered as the reserved word. Similarly, when the display content of the icon is the reserved word recognition “Ookini”, it indicates that the content of the recorded or recorded data is a scene in which “Ookini” is recognized as the reserved word.
ユーザ331は、再生したいデータのアイコンを選択することが、対象となるデータの録音または録画された内容を確認することが出来る。
The
更にまたホスト機器332は、ネットワーク333で接続されているカメラやマイクに指示を出し、これらのカメラやマイクにより、予約語、付加語、あるいは付加情報を登録するシーンが発生した場合に、あるいは、予約語、付加語、を認識するシーンが発生した場合に、登録のシーンあるいは認識のシーンを録音あるいは録画してもよい。
Furthermore, the
既に説明したようにホスト機器332は、ユーザ331が発した言葉の中から予約語を認識することで、その予約語に対応した付加情報の内容をもとに、ネットワークで接続された機器やセンサを制御することが出来る。この対象となる機器やセンサの制御内容は、高いセキュリティを必要とする場合もある。例えば、金庫の扉の開閉の制御をホスト機器を用いて実施できるように、ホスト機器332に付加情報として金庫の扉の開閉動作が設定されている予約語が登録されているとする。この場合、ホスト機器332は、該当する予約語を認識した場合、金庫の扉の開閉を行うとともに、金庫の周辺にあるマイクやカメラを用いて、制御対象の機器である金庫の周辺を録音あるいは録画することで、金庫の扉の開閉動作のセキュリティを保つことが可能となる。ユーザ331は、ネットワークで接続されたマイクやカメラを用いて録音あるいは録画されたデータも、ホスト機器332に内蔵されているマイクやカメラを用いて録音あるいは録画されたデータ同様に、その内容を確認することが出来る。 ホスト機器332による制御対象となる機器やセンサの制御内容が高いセキュリティを必要とする場合、ホスト機器332は更にまた、制御内容を実施するまえに、制御対象の機器やセンサの周辺にあるマイクやカメラを用いて録音した音声や録画した映像を用いて、録音された音声を発した人物あるいは録画された映像の人物の正当性確認を行ってもよい。ホスト機器332は、特定の付加情報における制御内容を実行する前に、あらかじめ登録してある特定人物の声や顔などの特徴点と、制御対象の機器やセンサの周辺にあるマイクやカメラを用いて集音された音声や撮影された映像とを比較し、該当人物の正当性が確認された場合のみ、該当する制御内容を実行するようにしてもよい。
As described above, the
以上の実施形態の説明は、認識用データ変換部101−1、音声テキスト変換部101−2、テキスト分析部102−1、応答・アクション生成部102−2が、いずれもクラウドサーバ1の中に存在しているものとして説明したが、これらの一部あるいは全てがホスト機器332の中に存在していても構わない。その場合も、既に説明した各処理の動作シーケンスの例は、記載済みのものと同様となる。
In the description of the above embodiment, the recognition data conversion unit 101-1, the voice text conversion unit 101-2, the text analysis unit 102-1 and the response / action generation unit 102-2 are all included in the cloud server 1. Although it has been described as being present, some or all of these may be present in the
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the scope equivalent thereto.
1・・・クラウドサーバ、2・・・インターネット、3・・・ホーム、101・・・音声認識クラウド、102・・・対応アクション生成クラウド、310・・・各種センサ、320・・・各種設備機器、330・・・HGW(HomeGateWay)、331・・・ユーザ、332・・・ホスト機器、340・・・各種家電機器。 1 ... Cloud server, 2 ... Internet, 3 ... Home, 101 ... Voice recognition cloud, 102 ... Corresponding action generation cloud, 310 ... Various sensors, 320 ... Various equipment , 330 ... HGW (HomeGateway), 331 ... User, 332 ... Host device, 340 ... Various home appliances.
Claims (2)
前記第1の音声が所望の音声であることを判定するための判定用音声データを、複数回外部から入力された音声により作成管理し、作成管理されている前記判定用音声データを用いて前記第1の音声が所望の音声であることを判定する管理手段と、
第2の音声の内容に基づいて前記1台または複数台の機器の制御を実行する制御手段と、を備え
前記管理手段により前記判定用音声データを用いて、前記第1の音声が所望の音声であると判定された場合に、前記制御手段により前記第2の音声の内容に基づいて前記1台または複数台の機器の制御を実行する電子機器であって、
前記第1の音声が、前記管理手段により前記判定用音声データを用いて所望の音声であると判定された場合に、前記第2の音声の内容の一部あるいは全部の内容に基づいて、前記1台または複数台の機器の制御の内容を変え、
前記管理手段が複数の前記判定用音声データを持つ場合、前記第1の音声が所望の音声であると判定するために用いた前記判定用音声データの種類に応じて、前記1台または複数台の機器の制御の内容を変える電子機器。 Based on the content of the first voice input from the outside, it is determined whether to control one or a plurality of devices based on the content of the second voice input after the input of the first voice. In electronic devices,
The determination voice data for determining whether the first voice is a desired voice is created and managed by the voice input from the outside multiple times, and the determination voice data created and managed is used to perform the Management means for determining that the first voice is the desired voice,
A control unit that controls the one or more devices based on the content of the second voice, and the first voice is a desired voice using the determination voice data by the management unit. An electronic device that controls the one or more devices based on the content of the second voice by the control means when it is determined that
When the first voice is determined to be a desired voice by the management means using the determination voice data, based on a part or all of the contents of the second voice, Change the control content of one or more devices,
When the management unit has a plurality of the determination voice data, one or a plurality of the determination voice data are used according to the type of the determination voice data used to determine that the first voice is a desired voice. An electronic device that changes the control contents of the device.
前記第1の音声が所望の音声であることを判定するための判定用音声データを、複数回外部から入力された音声により作成管理し、作成管理されている前記判定用音声データを用いて前記第1の音声が所望の音声であることを判定する管理手段と、
第2の音声の内容に基づいて前記1台または複数台の機器の制御を実行する制御手段と、を備え
前記管理手段により前記判定用音声データを用いて、前記第1の音声が所望の音声であると判定された場合に、前記制御手段により前記第2の音声の内容に基づいて前記1台または複数台の機器の制御を実行する制御方法であって、
前記第1の音声が、前記管理手段により前記判定用音声データを用いて所望の音声であると判定された場合に、前記第2の音声の内容の一部あるいは全部の内容に基づいて、前記1台または複数台の機器の制御の内容を変え、
前記管理手段が複数の前記判定用音声データを持つ場合、前記第1の音声が所望の音声であると判定するために用いた前記判定用音声データの種類に応じて、前記1台または複数台の機器の制御の内容を変える制御方法。 Based on the content of the first voice input from the outside, it is determined whether to control one or a plurality of devices based on the content of the second voice input after the input of the first voice. In the control method,
The determination voice data for determining whether the first voice is a desired voice is created and managed by the voice input from the outside multiple times, and the determination voice data created and managed is used to perform the Management means for determining that the first voice is the desired voice,
A control unit that controls the one or more devices based on the content of the second voice, and the first voice is a desired voice using the determination voice data by the management unit. When it is determined that the control means controls the one or a plurality of devices based on the content of the second voice,
When the first voice is determined to be a desired voice by the management means using the determination voice data, based on a part or all of the contents of the second voice, Change the control content of one or more devices,
When the management unit has a plurality of the determination voice data, one or a plurality of the determination voice data are used according to the type of the determination voice data used to determine that the first voice is a desired voice. Control method to change the control contents of the equipment of.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020018509A JP6858335B2 (en) | 2020-02-06 | 2020-02-06 | Electronic devices and their control methods |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020018509A JP6858335B2 (en) | 2020-02-06 | 2020-02-06 | Electronic devices and their control methods |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016200978A Division JP6659514B2 (en) | 2016-10-12 | 2016-10-12 | Electronic device and control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020074044A true JP2020074044A (en) | 2020-05-14 |
JP6858335B2 JP6858335B2 (en) | 2021-04-14 |
Family
ID=70610134
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020018509A Active JP6858335B2 (en) | 2020-02-06 | 2020-02-06 | Electronic devices and their control methods |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6858335B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02135499A (en) * | 1988-11-17 | 1990-05-24 | Oki Electric Ind Co Ltd | System for setting voice recognition rejecting threshold level |
JP2010039099A (en) * | 2008-08-04 | 2010-02-18 | Xanavi Informatics Corp | Speech recognition and in-vehicle device |
JP2014137430A (en) * | 2013-01-16 | 2014-07-28 | Sharp Corp | Electronic apparatus and cleaner |
JP2016508007A (en) * | 2013-02-07 | 2016-03-10 | アップル インコーポレイテッド | Voice trigger for digital assistant |
-
2020
- 2020-02-06 JP JP2020018509A patent/JP6858335B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02135499A (en) * | 1988-11-17 | 1990-05-24 | Oki Electric Ind Co Ltd | System for setting voice recognition rejecting threshold level |
JP2010039099A (en) * | 2008-08-04 | 2010-02-18 | Xanavi Informatics Corp | Speech recognition and in-vehicle device |
JP2014137430A (en) * | 2013-01-16 | 2014-07-28 | Sharp Corp | Electronic apparatus and cleaner |
JP2016508007A (en) * | 2013-02-07 | 2016-03-10 | アップル インコーポレイテッド | Voice trigger for digital assistant |
Also Published As
Publication number | Publication date |
---|---|
JP6858335B2 (en) | 2021-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6659514B2 (en) | Electronic device and control method thereof | |
JP7198861B2 (en) | Intelligent assistant for home automation | |
JP6475386B2 (en) | Device control method, device, and program | |
KR102551715B1 (en) | Generating iot-based notification(s) and provisioning of command(s) to cause automatic rendering of the iot-based notification(s) by automated assistant client(s) of client device(s) | |
JP6858335B2 (en) | Electronic devices and their control methods | |
JP6858336B2 (en) | Electronic devices and their control methods | |
JP6858334B2 (en) | Electronic devices and their control methods | |
WO2019198186A1 (en) | Electronic device and control method for same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201211 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210303 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6858335 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |