Nothing Special   »   [go: up one dir, main page]

JP5710464B2 - 電子機器、表示方法、およびプログラム - Google Patents

電子機器、表示方法、およびプログラム Download PDF

Info

Publication number
JP5710464B2
JP5710464B2 JP2011287007A JP2011287007A JP5710464B2 JP 5710464 B2 JP5710464 B2 JP 5710464B2 JP 2011287007 A JP2011287007 A JP 2011287007A JP 2011287007 A JP2011287007 A JP 2011287007A JP 5710464 B2 JP5710464 B2 JP 5710464B2
Authority
JP
Japan
Prior art keywords
information
screen
unit
web page
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011287007A
Other languages
English (en)
Other versions
JP2013137584A (ja
Inventor
祥恵 横山
祥恵 横山
筒井 秀樹
秀樹 筒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011287007A priority Critical patent/JP5710464B2/ja
Priority to US13/612,665 priority patent/US20130166300A1/en
Publication of JP2013137584A publication Critical patent/JP2013137584A/ja
Application granted granted Critical
Publication of JP5710464B2 publication Critical patent/JP5710464B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明の実施形態は、webページ処理方法、ブラウザ操作方法に係わる電子機器、表示方法、およびプログラムに関する。
webサイトを表示可能なテレビが販売されている。また、音声操作でブラウジングが可能な先行技術がある。例えば画面内の操作可能な物にすべて番号付けを行い、番号で操作対象を選択させるものや、発話のコマンド体系が決まっており、それに沿った発話で操作させるものといった種類がある。しかしながら両者とも、webページのコンテンツに対して、描画位置を指定した操作やユーザが思った通りの発話によって操作を行うことはできない。
また、複数のウェブページから指定のページを優先的に表示させるための工夫をしたものもある。操作対象を絞り込む際にあらかじめページごとのインデックスを生成しておき、ユーザからの入力によってそのインデックスに検索処理を施し、最終的に操作対象を決定するというものである(例えば、特許文献1参照。)。
即ち、表示画面内の対象の描画位置を指定した発話による操作への要望があるが、かかる要望を実現するための手段は知られていない。
特開2010−198350号公報
本発明の実施の形態は、表示画面内の対象の描画位置を指定した発話による操作をすることができる技術を提供することを目的とする。
上記課題を解決するために、実施形態によれば電子機器は、ユーザの音声を認識し解析する音声認識・認識結果解析部と、解析された前記音声により画面上の対象とこの対象に関する操作を決定する操作決定部と、前記操作を実行する操作部とを備えた。
実施形態の電子機器のシステム構成の一例を示すブロック図。 同実施形態の要部を示す機能ブロック構成図。 同実施形態の操作決定部におけるフローチャート。 同実施形態の一例を示すユーザの発話内容(入力)とwebコンテンツへの操作(出力)のイメージ。
以下、実施の形態について図面を参照して説明する。
図1は、実施形態の電子機器のシステム構成を示すブロック図である。この電子機器は、例えば映像表示装置10として実現される。また、この電子機器は、パーソナルコンピュータ(PC)、タブレットPC、スレートPC、 テレビジョン受信機、映像データを保存するためのレコーダ(例えば、ハードディスクレコーダ、DVDレコーダ、 セットトップボックス)、PDA、カーナビゲーション装置、スマートフォン等として実現され得る。
映像表示装置10は、操作信号受信部11、制御部12、ネットワークI/F部13、Web情報解析部14、Web情報統合画面生成部15、記憶部16、装置内情報取得部18、キー情報取得部19、表示画面特定部20、表示データ出力部21、および音声入力部22等を備えている。
操作信号受信部11は、リモートコントローラ40から送信された、ユーザによって操作されたボタンに応じた操作信号を受信し、受信した操作信号に応じた信号を制御部12に出力する。なお、リモートコントローラ40にはWeb情報統合画面の表示を指示するための表示指示ボタンが設けられており、表示指示ボタンが操作された場合に、リモートコントローラ40は、表示指示信号を送信する。操作信号受信部11が表示指示受信信号を受信すると、表示指示受信信号を制御部12に送信する。なおリモートコントローラ40は、映像表示装置10を音声を入力するモードにするために対話的に用いても良いし、この機能は他の手段によってもよい。
ネットワークI/F部13は、インターネット上のWebサイトと通信を行って、Webページデータを受信する。Web情報解析部14は、ネットワークI/F部13によって受信されたWebページデータを解析し、表示画面上に表示される文字や画像などオブジェクトの配置を計算する。
Web情報統合画面生成部15は、Web情報解析部14の解析結果とリモートコントローラ40の操作に基づいた操作信号に基づいて、Web情報統合画面を生成する。表示画面上に表示されるWeb情報統合画面の一例を図4に示す。図4で示すように、Web情報統合画面内には、複数の文字や画像などのオブジェクトが画面に配置されている。
Web情報統合画面生成部15は、生成したWeb情報統合画面のWeb情報統合画面データ(Webサイトのアドレス、配置位置等)を記憶部16に格納する。なお、記憶部16は複数のWeb情報統合画面データを格納することが可能である。Web情報統合画面データは、複数のWebページから生成されることもあれば、単一のWebページから生成されることもある。また、WebページそのものをWeb情報統合画面と同等のものとすることも可能である。
制御部12は、操作信号受信部11から送信された表示指示受信信号を受信すると、放送データ受信部17および表示画面特定部20にWeb情報統合画面を表示させるための表示命令を送信する。
装置内情報取得部18は、表示命令の受信に応じて、受信した放送データに重畳されているEPG(Electronic Program Guide)データから、現在受信している番組の名称(番組名)を抽出し、番組名を表示画面特定部20に送信する。
キー情報取得部19は、記憶部16に格納されているWeb情報統合画面データからキー情報を取得する。キー情報取得部19は、取得したキー情報をWeb情報統合画面データに対応づけて記憶部16に格納する。キー情報は、例えばサイト名である。
表示データ出力部21は、Web情報統合画面データを受信すると、Web情報統合画面データに基づいたWebページの受信をネットワークI/F部13に命令する。Web情報解析部14は、ネットワークI/F部13によって受信されたWebページデータを解析し、表示画面上に表示される文字や画像などオブジェクトの配置を計算する。Web情報統合画面生成部15は、Web情報解析部14の解析結果とWeb情報統合画面データとに基づいて、1以上のWebページまたはWebクリップが配置されたWeb情報統合画面を表示するためのデータを生成する。表示データ出力部21は、生成されたデータに基づいてディスプレイ30の表示画面上に表示するための表示データを生成する。
図2は、実施形態の要部を示す機能ブロック構成図である。音声認識部210、認識結果解析部201、操作決定部200、DOM操作部208、DOM管理部209、画面出力部220および対話部230を含んで構成されている。
音声認識部210は、図示せぬマイクやアンプを含む音声入力部22と制御部12などから構成される。認識結果解析部201は、主に制御部12に拠る。操作決定部200は、操作信号受信部11と制御部12などから構成される。DOM操作部208は、主に制御部12に拠る。DOM管理部209は、主に記憶部16に拠る。画面出力部220は、主に表示データ出力部21に拠る。対話部230は、リモコン40と操作信号受信部11と制御部12、表示データ出力部21などに拠る。
音声認識部210は、音声入力部22に入力され増幅や例えば場合によりFFTなどの手法を用いて時間領域から周波数領域への変換がされた音声信号を、制御部12で文字情報へと圧縮するものである。この文字情報を用いて認識結果解析部201は、文字列を出力する。操作決定部200を中心とする各部の連携動作については、図3のフローチャートの説明において後述する。
ここで、DOM(Document Object Model)とDOMメンバについて簡単に説明しておく。DOMは、xmlやhtmlの各要素、例えば<p<や<img>といった類の要素にアクセスする仕組みといえる。このDOMを操作することによって、要素の値をダイレクトに操作できる。例えば<p>の中身のテキストを変更したり、のsrcの中身を変更して別の画像に差し替えるといったことを可能とする。まとめると文書オブジェクトモデル(DOM)とは、HTML文書およびXML文書のためのアプリケーション=プログラミング=インターフェイス(API)である。これは、文書の論理的構造や、文書へのアクセスや操作の方法を定義するものである。
DOMメンバと処理内容に関しては、後述の操作ルールDBには例えば以下のような処理ルールが複数登録されている。
(L)リンク … URLを開く
(T)テキストボックス … 引数の文字列を入力
(B)ボタン … テキストボックスに入力された文字列を引数にデータ送信
さて図3は、本提案の実施例である音声操作ブラウザにおいて、ユーザ発話の認識結果を解析した文字列cを入力とし、HTML言語で記述されたwebページ内のDOMメンバへの操作内容を出力とする操作決定部200の処理を説明するフローチャートである。
まずステップ201では音声認識結果を形態素解析するなどして1個以上の単語を取得済みなことを前提としている。
音声認識の解析結果の文字列c(201a)について、ステップ202にて「入力欄」「絵」「リンク」などと操作対象であるDOMメンバを特定可能である文字列が含まれているか否かを判定する。たとえば「入力欄」という文字列が含まれていれば、ステップ203にて表示ページ中のDOMメンバのうち <input>要素のtype属性が”textbox”であるオブジェクトを配列Array1として取得し、ステップ205へとぶ。
またステップ204にて、文字列cに、描画位置を指定するための「上」「下」「左」「右」「中」などの語彙が含まれているか否かを判定する。含まれていれば、それを位置情報p(204a)とする。ステップ205にて、Array1の操作対象候補のうち、位置情報pに合致するものが含まれているものを取得する。
ステップ206にて、操作対象候補が1つに絞られれば、ステップ209で別途保持している操作ルールDB(DOM管理部209の内容の一つ)に照合し、ステップ209aで操作対象のDOMメンバとその処理内容を出力し、DOM操作部208の入力とする。この操作ルールDBには、操作対象のDOMメンバの要素の種類と要素ごとの操作内容が記述されており、例えば <a>要素の場合、「href属性の文字列を入力として新規ページをロードする」といった処理内容を操作ルールとして定義してある。
ステップ204、ステップ206において条件に合致しない場合は、ステップ207にて新規のユーザ発話を指示する表示を行う。
図4は、実施形態の一例を示すユーザの発話内容(入力)とwebコンテンツへの操作(出力)のイメージである。ページ表示範囲の画像のうち相対的に左に描画されているものにフォーカスし、拡大を行う。これはWeb情報解析部14がレンダリングエンジンとして機能し、またWeb情報統合画面生成部15がブラウザ表示部として機能することによって、実現されている。具体的には、「左の絵を大きく!」との発話による音声認識と解析後にこれらの機能が実行される(図4(a)の左の絵の表示状態から図4(b)の左の絵の表示状態への移行)。

以上説明した実施例によれば音声を用いたブラウザ操作時に、webページに含まれるリンクやボタンやテキストボックスなどの操作対象について、ユーザ視点で見えている情報を用いることで、見たままの情報を含む自然な発話での操作(例えばwebサーフィン)を可能にする。即ち実施形態の効果として、webページのコンテンツに対して、描画位置を指定した操作やユーザが思った通りの発話によって操作を行うことができる。コンテンツ中の言語情報だけに依存せず、視覚情報である描画位置を利用して、ユーザ視点から以下のような自然な発話での操作を可能とする。
(1)既存デバイス(マウス+キーボード)の入力によって実現しているwebサーフィンを音声入力で行うための技術であり、ユーザにとって見えている情報であるページ内での描画位置を使って操作対象を特定することにより、コマンド体系に縛られない自然な発話での操作を可能とする。
(2)1回の発話から、webサーフィン時の操作内容を限定するための複数の情報を抽出可能なため、従来デバイスでの操作に比べ操作ステップ数を大きく減らすことが可能になる。

なお、この発明は上記実施形態に限定されるものではなく、この外その要旨を逸脱しない範囲で種々変形して実施することができる。
また、上記した実施の形態に開示されている複数の構成要素を適宜に組み合わせることにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素から幾つかの構成要素を削除しても良いものである。さらに、異なる実施の形態に係わる構成要素を適宜組み合わせても良いものである。
10 映像表示装置
11 操作信号受信部
12 制御部
13 ネットワークI/F部
14 Web情報解析部
15 情報統合画面生成部
16 記憶部、
18 装置内情報取得部
19 キー情報取得部
20 表示画面特定部
21 表示データ出力部
22 音声入力部
30 ディスプレイ
40 リモートコントローラ
200 操作決定部
201 認識結果解析部
208 DOM操作部
209 DOM管理部
210 音声認識部
220 画面出力部
230 対話部

Claims (6)

  1. ユーザの音声を認識する認識部と、
    前記認識部において認識された前記音声を用いて、画面上の対象とこの対象に対する操作を決定し、当該決定した操作を実行する制御部と
    を備え、
    前記画面がウェブページの一部のみを表示可能であり、
    前記制御部は、前記画面に前記ウェブページの一部のみが表示されている場合であって、前記認識部において認識された音声に位置に関する情報と操作に関する情報と前記ウェブページに含まれる要素に関する情報とが含まれる場合に、当該位置に関する情報と、当該要素に関する情報と、前記ウェブページに含まれる1以上のコンテンツが前記画面上のいずれの描画位置に描画されているかに関する情報とに応じて前記対象を決定すると共に、当該操作に関する情報に応じて操作を決定し、当該決定した対象に対して、当該決定した操作を実行可能な、
    電子機器。
  2. 前記操作はDOM(Document Object Model)に基づいて実行する請求項1に記載の電子機器。
  3. 更に前記画面を備えた請求項1または2に記載の電子機器。
  4. 前記制御部は、前記認識部において認識された音声に対象の種別に関する情報が含まれる場合に、当該対象の種別に関する情報に応じて対象を決定する、
    請求項1から3のいずれかに記載の電子機器。
  5. 電子機器の表示方法であって、
    ユーザの音声を認識する認識ステップと、
    前記認識ステップにおいて認識された前記音声を用いて、画面上の対象とこの対象に対する操作を決定し、当該決定した操作を実行する制御ステップと
    を含み、
    前記画面がウェブページの一部のみを表示可能であり、
    前記制御ステップでは、前記画面に前記ウェブページの一部のみが表示されている場合であって、前記認識ステップにおいて認識された音声に位置に関する情報と操作に関する情報と前記ウェブページに含まれる要素に関する情報とが含まれる場合に、当該位置に関する情報と、当該要素に関する情報と、前記ウェブページに含まれる1以上のコンテンツが前記画面上のいずれの描画位置に描画されているかに関する情報とに応じて前記対象を決定すると共に、当該操作に関する情報に応じて操作を決定し、当該決定した対象に対して、当該決定した操作を実行可能な、
    表示方法。
  6. ユーザの音声を認識する認識ステップと、
    前記認識ステップにおいて認識された前記音声を用いて、画面上の対象とこの対象に対する操作を決定し、当該決定した操作を実行する制御ステップと
    を電子機器に実行させるプログラムであって、
    前記画面がウェブページの一部のみを表示可能であり、
    前記制御ステップでは、前記画面に前記ウェブページの一部のみが表示されている場合であって、前記認識ステップにおいて認識された音声に位置に関する情報と操作に関する情報と前記ウェブページに含まれる要素に関する情報とが含まれる場合に、当該位置に関する情報と、当該要素に関する情報と、前記ウェブページに含まれる1以上のコンテンツが前記画面上のいずれの描画位置に描画されているかに関する情報とに応じて前記対象を決定すると共に、当該操作に関する情報に応じて操作を決定し、当該決定した対象に対して、当該決定した操作を実行可能な、
    プログラム。
JP2011287007A 2011-12-27 2011-12-27 電子機器、表示方法、およびプログラム Expired - Fee Related JP5710464B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011287007A JP5710464B2 (ja) 2011-12-27 2011-12-27 電子機器、表示方法、およびプログラム
US13/612,665 US20130166300A1 (en) 2011-12-27 2012-09-12 Electronic device, displaying method, and program computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011287007A JP5710464B2 (ja) 2011-12-27 2011-12-27 電子機器、表示方法、およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013210071A Division JP5735075B2 (ja) 2013-10-07 2013-10-07 電子機器、表示方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2013137584A JP2013137584A (ja) 2013-07-11
JP5710464B2 true JP5710464B2 (ja) 2015-04-30

Family

ID=48655422

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011287007A Expired - Fee Related JP5710464B2 (ja) 2011-12-27 2011-12-27 電子機器、表示方法、およびプログラム

Country Status (2)

Country Link
US (1) US20130166300A1 (ja)
JP (1) JP5710464B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5524433B1 (ja) 2013-10-30 2014-06-18 楽天株式会社 管理装置、管理方法、記録媒体およびプログラム
KR102469758B1 (ko) 2015-09-02 2022-11-22 삼성전자주식회사 서버 장치, 사용자 단말 장치, 그 제어 방법 및 전자 시스템
JP2017102939A (ja) * 2016-12-26 2017-06-08 株式会社プロフィールド オーサリング装置、オーサリング方法、およびプログラム
KR102735643B1 (ko) 2018-05-07 2024-11-29 구글 엘엘씨 사용자, 자동화된 어시스턴트 및 컴퓨팅 서비스 간의 다중 모드 상호 작용
US12125486B2 (en) 2018-05-07 2024-10-22 Google Llc Multi-modal interaction between users, automated assistants, and other computing services
JP7185866B2 (ja) * 2019-03-15 2022-12-08 ハミングヘッズ株式会社 情報処理装置、情報処理方法、コンピュータプログラム

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3689285B2 (ja) * 1991-06-20 2005-08-31 富士ゼロックス株式会社 入力装置および入力装置用ヘッドマウントディスプレイ
US5777614A (en) * 1994-10-14 1998-07-07 Hitachi, Ltd. Editing support system including an interactive interface
DE69619592T2 (de) * 1995-04-11 2002-11-07 Dragon Systems Inc Bewegung eines auf dem Bildschirm gezeigten Zeigers
US6101472A (en) * 1997-04-16 2000-08-08 International Business Machines Corporation Data processing system and method for navigating a network using a voice command
US6718308B1 (en) * 2000-02-22 2004-04-06 Daniel L. Nolting Media presentation system controlled by voice to text commands
US6519566B1 (en) * 2000-03-01 2003-02-11 International Business Machines Corporation Method for hands-free operation of a pointer
JP2002091858A (ja) * 2000-09-13 2002-03-29 Sharp Corp 情報提供装置、情報生成装置、それらを接続した情報提供システム、それらの方法およびそれらのプログラムを記録した記録媒体
JP2002175175A (ja) * 2000-12-07 2002-06-21 Sumitomo Electric Ind Ltd 音声駆動可能なユーザインターフェイス
US7366979B2 (en) * 2001-03-09 2008-04-29 Copernicus Investments, Llc Method and apparatus for annotating a document
US6941509B2 (en) * 2001-04-27 2005-09-06 International Business Machines Corporation Editing HTML DOM elements in web browsers with non-visual capabilities
CN1279465C (zh) * 2001-05-04 2006-10-11 微软公司 Web启用的识别体系结构
JP2003162535A (ja) * 2001-11-26 2003-06-06 Hitachi Software Eng Co Ltd Webコンテンツ閲覧支援方法及び閲覧支援装置並びにシステム
JP2003263307A (ja) * 2001-11-29 2003-09-19 Nippon Telegr & Teleph Corp <Ntt> ハイパーテキスト音声制御方法、その装置およびプログラム
GB2388209C (en) * 2001-12-20 2005-08-23 Canon Kk Control apparatus
SE0202058D0 (sv) * 2002-07-02 2002-07-02 Ericsson Telefon Ab L M Voice browsing architecture based on adaptive keyword spotting
JP2004246865A (ja) * 2002-10-25 2004-09-02 Omega System Design:Kk 音声応答ウェブシステム及びその入出力制御方法
US7313527B2 (en) * 2003-01-23 2007-12-25 Intel Corporation Registering an utterance and an associated destination anchor with a speech recognition engine
US7461352B2 (en) * 2003-02-10 2008-12-02 Ronald Mark Katsuranis Voice activated system and methods to enable a computer user working in a first graphical application window to display and control on-screen help, internet, and other information content in a second graphical application window
JP4157418B2 (ja) * 2003-05-02 2008-10-01 日本放送協会 データ閲覧支援装置、データ閲覧方法及びデータ閲覧プログラム
US7158779B2 (en) * 2003-11-11 2007-01-02 Microsoft Corporation Sequential multimodal input
JP4302559B2 (ja) * 2004-03-26 2009-07-29 アルパイン株式会社 コンテンツ呼び出し装置及びコンテンツ呼び出し方法
JP2005322148A (ja) * 2004-05-11 2005-11-17 Mitsubishi Electric Corp ブラウザ装置
JP4537901B2 (ja) * 2005-07-14 2010-09-08 日本放送協会 視線測定装置および視線測定プログラム、ならびに、視線校正データ生成プログラム
US8639515B2 (en) * 2005-11-10 2014-01-28 International Business Machines Corporation Extending voice-based markup using a plug-in framework
JP2007164732A (ja) * 2005-12-16 2007-06-28 Crescent:Kk コンピュータ実行可能なプログラム、および情報処理装置
US8139025B1 (en) * 2006-04-01 2012-03-20 Rockwell Collins, Inc. Cursor positioning via voice recognition
ES2302640B1 (es) * 2006-12-21 2009-05-21 Juan Jose Bermudez Perez Sistema para la interaccion mediante voz en paginas web.
WO2008144638A2 (en) * 2007-05-17 2008-11-27 Redstart Systems Inc. Systems and methods of a structured grammar for a speech recognition command system
US8886521B2 (en) * 2007-05-17 2014-11-11 Redstart Systems, Inc. System and method of dictation for a speech recognition command system
US8538757B2 (en) * 2007-05-17 2013-09-17 Redstart Systems, Inc. System and method of a list commands utility for a speech recognition command system
JP2009037433A (ja) * 2007-08-01 2009-02-19 Quixun Co Ltd ナンバーボイスブラウザ、およびナンバーボイスブラウザの制御方法
US8000972B2 (en) * 2007-10-26 2011-08-16 Sony Corporation Remote controller with speech recognition
US8831950B2 (en) * 2008-04-07 2014-09-09 Nuance Communications, Inc. Automated voice enablement of a web page
JP2010026686A (ja) * 2008-07-17 2010-02-04 Life Interface:Kk 統合的インタフェースを有する対話型コミュニケーション端末及びそれを用いたコミュニケーションシステム
WO2010129679A1 (en) * 2009-05-08 2010-11-11 Kopin Corporation Remote control of host application using motion and voice commands

Also Published As

Publication number Publication date
JP2013137584A (ja) 2013-07-11
US20130166300A1 (en) 2013-06-27

Similar Documents

Publication Publication Date Title
JP6375521B2 (ja) 音声検索装置、音声検索方法、および表示装置
US9733895B2 (en) Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
JP5710464B2 (ja) 電子機器、表示方法、およびプログラム
AU2013287433B2 (en) User interface apparatus and method for user terminal
JP6603754B2 (ja) 情報処理装置
CN112839261B (zh) 一种提升语音指令匹配度的方法及显示设备
KR20170014353A (ko) 음성 기반의 화면 내비게이션 장치 및 방법
EP2555537A1 (en) Electronic apparatus and method for providing user interface thereof
KR20130016024A (ko) 전자 장치 및 전자 장치의 ui 제공방법
US11442991B2 (en) Using natural language to control structured web page data
US20120278719A1 (en) Method for providing link list and display apparatus applying the same
US9400850B2 (en) Systems and methods for providing a tailored user interface associated with a web page
US20140372892A1 (en) On-demand interface registration with a voice control system
JP2014532933A (ja) 電子装置及びその制御方法
US20140015780A1 (en) User interface apparatus and method for user terminal
US20150199171A1 (en) Handwritten document processing apparatus and method
JP2004334409A (ja) データ閲覧支援装置、データ閲覧方法及びデータ閲覧プログラム
JP5735075B2 (ja) 電子機器、表示方法、およびプログラム
JP5902359B2 (ja) 方法、電子機器およびプログラム
US20220107781A1 (en) Electronic device and non-transitory storage medium
JP4972026B2 (ja) 代替コンテンツ提示装置および代替コンテンツナビゲーションプログラム
JP5141439B2 (ja) デジタル放送受信装置およびプログラム
KR20130004050A (ko) 음성 인식을 이용한 링크 리스트 제공 방법 및 이를 적용한 디스플레이 장치
JP2008191879A (ja) 情報表示装置、情報表示装置の表示方法、情報表示プログラム、および情報表示プログラムを記録した記録媒体
CN106815288A (zh) 一种视频相关信息生成方法及其装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130514

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130610

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130910

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131007

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20131111

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20140110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150304

LAPS Cancellation because of no payment of annual fees