JP2018530930A - 家庭内で話されている言語に対応するコンテンツを識別するためのシステムおよび方法 - Google Patents
家庭内で話されている言語に対応するコンテンツを識別するためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2018530930A JP2018530930A JP2016576013A JP2016576013A JP2018530930A JP 2018530930 A JP2018530930 A JP 2018530930A JP 2016576013 A JP2016576013 A JP 2016576013A JP 2016576013 A JP2016576013 A JP 2016576013A JP 2018530930 A JP2018530930 A JP 2018530930A
- Authority
- JP
- Japan
- Prior art keywords
- language
- user
- content source
- content
- spoken
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 230000001755 vocal effect Effects 0.000 claims abstract description 43
- 238000003860 storage Methods 0.000 claims description 46
- 230000002452 interceptive effect Effects 0.000 claims description 26
- 230000002457 bidirectional effect Effects 0.000 claims 1
- 238000004891 communication Methods 0.000 description 49
- 230000004044 response Effects 0.000 description 23
- 230000008569 process Effects 0.000 description 22
- 238000012545 processing Methods 0.000 description 18
- 238000013459 approach Methods 0.000 description 12
- 230000009471 action Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 238000009826 distribution Methods 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000006855 networking Effects 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 239000000047 product Substances 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 229910021417 amorphous silicon Inorganic materials 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000002041 carbon nanotube Substances 0.000 description 1
- 229910021393 carbon nanotube Inorganic materials 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 229910021420 polycrystalline silicon Inorganic materials 0.000 description 1
- 229920005591 polysilicon Polymers 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/242—Query formulation
- G06F16/243—Natural language query formulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/685—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using automatically derived transcript of audio data, e.g. lyrics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/485—End-user interface for client configuration
- H04N21/4856—End-user interface for client configuration for language selection, e.g. for the menu or subtitles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- Library & Information Science (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Computer Networks & Wireless Communication (AREA)
- Social Psychology (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Television Signal Processing For Recording (AREA)
- Information Transfer Between Computers (AREA)
- Machine Translation (AREA)
Abstract
Description
Claims (50)
- ある言語に対応するコンテンツを識別するための方法であって、
自動的に、音声認識回路を用いて、第1のユーザから受信される口頭入力に基づいて、第1のユーザによって話される言語を判定するステップと、
前記第1のユーザによって話されると判定された言語に対応する言語フィールド値と関連付けられたコンテンツソースを識別するためにコンテンツソースのデータベースを相互参照するステップであって、前記データベース内の言語フィールドは、前記関連付けられたコンテンツソースがコンテンツを複数のユーザに伝送する言語を識別する、ステップと、
表示のために、前記識別されたコンテンツソースの表現を前記第1のユーザに生成するステップと、
を含む、方法。 - 前記識別されたコンテンツソースの表現は、前記識別されたコンテンツソースと関連付けられた言語フィールドのインジケーションを含む、請求項1に記載の方法。
- 所与のコンテンツソースへのアクセスを要求するユーザ入力を受信するステップと、
前記所与のコンテンツソースによって提供されるコンテンツのディスプレイを生成するステップと、
前記所与のコンテンツソースと関連付けられた言語フィールドを識別するステップと、
前記第1のユーザによって話される言語が前記所与のコンテンツソースと関連付けられた言語フィールドの値に対応するかどうかを判定するステップと、
をさらに含み、前記識別されたコンテンツソースの表現の生成されたディスプレイは、前記第1のユーザによって話される言語が前記所与のコンテンツソースと関連付けられた言語フィールドの値に対応しない場合、ディスプレイデバイスに提供される、請求項1に記載の方法。 - 前記第1のユーザによって話される言語は、第1の言語であって、自動的に、前記音声認識回路を用いて、前記第2のユーザから受信される口頭入力に基づいて、第2のユーザによって話される第2の言語を判定するステップをさらに含み、前記第2のユーザは、前記第1のユーザと同一世帯である、請求項1に記載の方法。
- 前記音声認識回路を用いて、閾値時間周期にわたって受信される口頭入力に基づいて、前記第2の言語が前記第1の言語より頻繁に話されるかどうかを判定するステップと、
前記第2の言語が前記第1の言語より頻繁に話されると判定される場合、前記第1の言語の代わりに、前記第2の言語に対応する言語フィールド値と関連付けられたコンテンツソースを識別するために前記相互参照を行うステップと、をさらに含む、請求項4に記載の方法。 - 前記第2のユーザによって話される第2の言語の自動判定に基づいて、表示のために、前記第1および第2の言語を表す双方向一覧を生成するステップと、
前記双方向一覧から前記第2の言語を選択するユーザからの入力を受信するステップと、
前記第1の言語の代わりに、前記ユーザ選択された第2の言語に対応する言語フィールド値と関連付けられたコンテンツソースを識別するために前記相互参照を行うステップと、
をさらに含む、請求項4に記載の方法。 - 前記表現は、前記識別されたコンテンツソースのチャンネル名または番号を含む、請求項1に記載の方法。
- 前記表現は、現在表示のために生成されているコンテンツの上部のオーバーレイ内に含まれる、請求項1に記載の方法。
- 前記第1のユーザと関連付けられた加入プランを記憶デバイスから読み出すステップと、
表示のために前記表現を生成するのに先立って、前記識別されたコンテンツソースが前記読み出された加入プラン内に含まれるかどうかを判定するステップと、
前記識別されたコンテンツソースが前記加入プラン内に含まれない場合、前記第1のユーザによって話されると判定された言語に対応する言語フィールド値と関連付けられた第2のコンテンツソースを識別するために前記コンテンツソースのデータベースを相互参照するステップと、
表示のために、前記識別された第2のコンテンツソースの表現を生成するステップと、
をさらに含む、請求項1に記載の方法。 - 前記第1のユーザによって話されると判定された言語に対応する個別の言語フィールド値と関連付けられた複数のコンテンツソースを識別するために前記コンテンツソースのデータベースを相互参照するステップと、
前記複数のコンテンツソース毎に、前記複数のコンテンツソースのそれぞれと関連付けられた人気度値を識別するステップと、
前記識別された人気度値に基づいて、表示のために、前記識別されたコンテンツソースの表現を生成するステップと、
をさらに含む、請求項1に記載の方法。 - ある言語に対応するコンテンツを識別するためのシステムであって、
前記システムは、
制御回路であって、
自動的に、音声認識回路を用いて、第1のユーザから受信される口頭入力に基づいて、第1のユーザによって話される言語を判定することと、
前記第1のユーザによって話されると判定された言語に対応する言語フィールド値と関連付けられたコンテンツソースを識別するためにコンテンツソースのデータベースを相互参照することであって、前記データベース内の言語フィールドは、前記関連付けられたコンテンツソースがコンテンツを複数のユーザに伝送する言語を識別する、ことと、
表示のために、前記識別されたコンテンツソースの表現を前記第1のユーザに生成することと、
を行うように構成される、制御回路
を備える、システム。 - 前記識別されたコンテンツソースの表現は、前記識別されたコンテンツソースと関連付けられた言語フィールドのインジケーションを含む、請求項11に記載のシステム。
- 前記制御回路はさらに、
所与のコンテンツソースへのアクセスを要求するユーザ入力を受信することと、
前記所与のコンテンツソースによって提供されるコンテンツのディスプレイを生成することと、
前記所与のコンテンツソースと関連付けられた言語フィールドを識別することと、
前記第1のユーザによって話される言語が前記所与のコンテンツソースと関連付けられた言語フィールドの値に対応するかどうかを判定することと、
を行うように構成され、前記識別されたコンテンツソースの表現の生成されたディスプレイは、前記第1のユーザによって話される言語が前記所与のコンテンツソースと関連付けられた言語フィールドの値に対応しない場合、ディスプレイデバイスに提供される、請求項11に記載のシステム。 - 前記第1のユーザによって話される言語は、第1の言語であって、前記制御回路はさらに、自動的に、前記音声認識回路を用いて、前記第2のユーザから受信される口頭入力に基づいて、第2のユーザによって話される第2の言語を判定するように構成され、前記第2のユーザは、前記第1のユーザと同一世帯である、請求項11に記載のシステム。
- 前記制御回路はさらに、
前記音声認識回路を用いて、閾値時間周期にわたって受信される口頭入力に基づいて、前記第2の言語が前記第1の言語より頻繁に話されるかどうかを判定することと、
前記第2の言語が前記第1の言語より頻繁に話されると判定される場合、前記第1の言語の代わりに、前記第2の言語に対応する言語フィールド値と関連付けられたコンテンツソースを識別するために前記相互参照を行うことと、
を行うように構成される、請求項14に記載のシステム。 - 前記制御回路はさらに、
前記第2のユーザによって話される第2の言語の自動判定に基づいて、表示のために、前記第1および第2の言語を表す双方向一覧を生成することと、
前記双方向一覧から前記第2の言語を選択するユーザからの入力を受信することと、
前記第1の言語の代わりに、前記ユーザ選択された第2の言語に対応する言語フィールド値と関連付けられたコンテンツソースを識別するために前記相互参照を行うことと、
を行うように構成される、請求項14に記載のシステム。 - 前記表現は、前記識別されたコンテンツソースのチャンネル名または番号を含む、請求項11に記載のシステム。
- 前記表現は、現在表示のために生成されているコンテンツの上部のオーバーレイ内に含まれる、請求項11に記載のシステム。
- 前記制御回路はさらに、
前記第1のユーザと関連付けられた加入プランを記憶デバイスから読み出すことと、
表示のために前記表現を生成するのに先立って、前記識別されたコンテンツソースが前記読み出された加入プラン内に含まれるかどうかを判定することと、
前記識別されたコンテンツソースが前記加入プラン内に含まれない場合、前記第1のユーザによって話されると判定された言語に対応する言語フィールド値と関連付けられた第2のコンテンツソースを識別するために前記コンテンツソースのデータベースを相互参照することと、
表示のために、前記識別された第2のコンテンツソースの表現を生成することと、
を行うように構成される、請求項11に記載のシステム。 - 前記制御回路はさらに、
前記第1のユーザによって話されると判定された言語に対応する個別の言語フィールド値と関連付けられた複数のコンテンツソースを識別するために前記コンテンツソースのデータベースを相互参照することと、
前記複数のコンテンツソース毎に、前記複数のコンテンツソースのそれぞれと関連付けられた人気度値を識別することと、
前記識別された人気度値に基づいて、表示のために、前記識別されたコンテンツソースの表現を生成することと、
を行うように構成される、請求項11に記載のシステム。 - ある言語に対応するコンテンツを識別するための装置であって、
自動的に、音声認識回路を用いて、前記第1のユーザから受信される口頭入力に基づいて、第1のユーザによって話される言語を判定するための手段と、
前記第1のユーザによって話されると判定された言語に対応する言語フィールド値と関連付けられたコンテンツソースを識別するためにコンテンツソースのデータベースを相互参照するための手段であって、前記データベース内の言語フィールドは、前記関連付けられたコンテンツソースがコンテンツを複数のユーザに伝送する言語を識別する、手段と、
表示のために、前記識別されたコンテンツソースの表現を前記第1のユーザに生成するための手段と、
を備える、装置。 - 前記識別されたコンテンツソースの表現は、前記識別されたコンテンツソースと関連付けられた言語フィールドのインジケーションを含む、請求項21に記載の装置。
- 所与のコンテンツソースへのアクセスを要求するユーザ入力を受信するための手段と、
前記所与のコンテンツソースによって提供されるコンテンツのディスプレイを生成するための手段と、
前記所与のコンテンツソースと関連付けられた言語フィールドを識別するための手段と、
前記第1のユーザによって話される言語が前記所与のコンテンツソースと関連付けられた言語フィールドの値に対応するかどうかを判定するための手段と、
をさらに備え、前記識別されたコンテンツソースの表現の生成されたディスプレイは、前記第1のユーザによって話される言語が前記所与のコンテンツソースと関連付けられた言語フィールドの値に対応しない場合、ディスプレイデバイスに提供される、請求項21に記載の装置。 - 前記第1のユーザによって話される言語は、第1の言語であって、自動的に、前記音声認識回路を用いて、前記第2のユーザから受信される口頭入力に基づいて、第2のユーザによって話される第2の言語を判定するための手段をさらに備え、前記第2のユーザは、前記第1のユーザと同一世帯である、請求項21に記載の装置。
- 前記音声認識回路を用いて、閾値時間周期にわたって受信される口頭入力に基づいて、前記第2の言語が前記第1の言語より頻繁に話されるかどうかを判定するための手段と、
前記第2の言語が前記第1の言語より頻繁に話されると判定される場合、前記第1の言語の代わりに、前記第2の言語に対応する言語フィールド値と関連付けられたコンテンツソースを識別するために前記相互参照を行うための手段と、をさらに備える、請求項24に記載の装置。 - 前記第2のユーザによって話される第2の言語の自動判定に基づいて、表示のために、前記第1および第2の言語を表す双方向一覧を生成するための手段と、
前記双方向一覧から前記第2の言語を選択するユーザからの入力を受信するための手段と、
前記第1の言語の代わりに、前記ユーザ選択された第2の言語に対応する言語フィールド値と関連付けられたコンテンツソースを識別するために前記相互参照を行うための手段と、
をさらに備える、請求項24に記載の装置。 - 前記表現は、前記識別されたコンテンツソースのチャンネル名または番号を含む、請求項21に記載の装置。
- 前記表現は、現在表示のために生成されているコンテンツの上部のオーバーレイ内に含まれる、請求項21に記載の装置。
- 前記第1のユーザと関連付けられた加入プランを記憶デバイスから読み出すための手段と、
表示のために前記表現を生成するのに先立って、前記識別されたコンテンツソースが前記読み出された加入プラン内に含まれるかどうかを判定するための手段と、
前記識別されたコンテンツソースが前記加入プラン内に含まれない場合、前記第1のユーザによって話されると判定された言語に対応する言語フィールド値と関連付けられた第2のコンテンツソースを識別するために前記コンテンツソースのデータベースを相互参照するための手段と、
表示のために、前記識別された第2のコンテンツソースの表現を生成するための手段と、
をさらに備える、請求項21に記載の装置。 - 前記第1のユーザによって話されると判定された言語に対応する個別の言語フィールド値と関連付けられた複数のコンテンツソースを識別するために前記コンテンツソースのデータベースを相互参照するための手段と、
前記複数のコンテンツソース毎に、前記複数のコンテンツソースのそれぞれと関連付けられた人気度値を識別するための手段と、
前記識別された人気度値に基づいて、表示のために、前記識別されたコンテンツソースの表現を生成するための手段と、
をさらに備える、請求項21に記載の装置。 - ある言語に対応するコンテンツを識別するためのコンピュータ可読命令を備える、非一過性コンピュータ可読媒体であって、前記コンピュータ可読命令は、
自動的に、音声認識回路を用いて、前記第1のユーザから受信される口頭入力に基づいて、第1のユーザによって話される言語を判定するための命令と、
前記第1のユーザによって話されると判定された言語に対応する言語フィールド値と関連付けられたコンテンツソースを識別するためにコンテンツソースのデータベースを相互参照するための命令であって、前記データベース内の言語フィールドは、前記関連付けられたコンテンツソースがコンテンツを複数のユーザに伝送する言語を識別する、命令と、
表示のために、前記識別されたコンテンツソースの表現を前記第1のユーザに生成するための命令と、
を備える、非一過性コンピュータ可読媒体。 - 前記識別されたコンテンツソースの表現は、前記識別されたコンテンツソースと関連付けられた言語フィールドのインジケーションを含む、請求項31に記載の非一過性コンピュータ可読媒体。
- 所与のコンテンツソースへのアクセスを要求するユーザ入力を受信するための命令と、
前記所与のコンテンツソースによって提供されるコンテンツのディスプレイを生成するための命令と、
前記所与のコンテンツソースと関連付けられた言語フィールドを識別するための命令と、
第1のユーザによって話される言語が前記所与のコンテンツソースと関連付けられた言語フィールドの値に対応するかどうかを判定するための命令と、
をさらに備え、前記識別されたコンテンツソースの表現の生成されたディスプレイは、前記第1のユーザによって話される言語が前記所与のコンテンツソースと関連付けられた言語フィールドの値に対応しない場合、ディスプレイデバイスに提供される、請求項31に記載の非一過性コンピュータ可読媒体。 - 前記第1のユーザによって話される言語は、第1の言語であって、自動的に、前記音声認識回路を用いて、前記第2のユーザから受信される口頭入力に基づいて、第2のユーザによって話される第2の言語を判定する命令をさらに備え、前記第2のユーザは、前記第1のユーザと同一世帯である、請求項31に記載の非一過性コンピュータ可読媒体。
- 前記音声認識回路を用いて、閾値時間周期にわたって受信される口頭入力に基づいて、前記第2の言語が前記第1の言語より頻繁に話されるかどうかを判定するための命令と、
前記第2の言語が前記第1の言語より頻繁に話されると判定される場合、前記第1の言語の代わりに、前記第2の言語に対応する言語フィールド値と関連付けられたコンテンツソースを識別するために前記相互参照を行うための命令と、
をさらに備える、請求項34に記載の非一過性コンピュータ可読媒体。 - 前記第2のユーザによって話される第2の言語の自動判定に基づいて、表示のために、前記第1および第2の言語を表す双方向一覧を生成するための命令と、
前記双方向一覧から前記第2の言語を選択するユーザからの入力を受信するための命令と、
前記第1の言語の代わりに、前記ユーザ選択された第2の言語に対応する言語フィールド値と関連付けられたコンテンツソースを識別するために前記相互参照を行うための命令と、
をさらに備える、請求項34に記載の非一過性コンピュータ可読媒体。 - 前記表現は、前記識別されたコンテンツソースのチャンネル名または番号を含む、請求項31に記載の非一過性コンピュータ可読媒体。
- 前記表現は、現在表示のために生成されているコンテンツの上部のオーバーレイ内に含まれる、請求項31に記載の非一過性コンピュータ可読媒体。
- 前記第1のユーザと関連付けられた加入プランを記憶デバイスから読み出すための命令と、
表示のために前記表現を生成するのに先立って、前記識別されたコンテンツソースが前記読み出された加入プラン内に含まれるかどうかを判定するための命令と、
前記識別されたコンテンツソースが前記加入プラン内に含まれない場合、前記第1のユーザによって話されると判定された言語に対応する言語フィールド値と関連付けられた第2のコンテンツソースを識別するために前記コンテンツソースのデータベースを相互参照するための命令と、
表示のために、前記識別された第2のコンテンツソースの表現を生成するための命令と、
をさらに備える、請求項31に記載の非一過性コンピュータ可読媒体。 - 前記第1のユーザによって話されると判定された言語に対応する個別の言語フィールド値と関連付けられた複数のコンテンツソースを識別するために前記コンテンツソースのデータベースを相互参照するための命令と、
前記複数のコンテンツソース毎に、前記複数のコンテンツソースのそれぞれと関連付けられた人気度値を識別するための命令と、
前記識別された人気度値に基づいて、表示のために、前記識別されたコンテンツソースの表現を生成するための命令と、
をさらに備える、請求項31に記載の非一過性コンピュータ可読媒体。 - コンテンツを識別するための方法であって、
自動的に、音声認識回路を用いて、前記第1のユーザから受信される口頭入力に基づいて、第1のユーザによって話される言語を判定するステップと、
前記第1のユーザによって話されると判定された言語に対応する言語フィールド値と関連付けられたコンテンツソースを識別するためにコンテンツソースのデータベースを相互参照するステップであって、前記データベース内の言語フィールドは、前記関連付けられたコンテンツソースがコンテンツを複数のユーザに伝送する言語を識別する、ステップと、
表示のために、前記識別されたコンテンツソースの表現を前記第1のユーザに生成するステップと、
を含む、方法。 - 前記識別されたコンテンツソースの表現は、前記識別されたコンテンツソースと関連付けられた言語フィールドのインジケーションを含む、請求項41に記載の方法。
- 所与のコンテンツソースへのアクセスを要求するユーザ入力を受信するステップと、
前記所与のコンテンツソースによって提供されるコンテンツのディスプレイを生成するステップと、
前記所与のコンテンツソースと関連付けられた言語フィールドを識別するステップと、
前記第1のユーザによって話される言語が前記所与のコンテンツソースと関連付けられた言語フィールドの値に対応するかどうかを判定するステップと、
をさらに含み、前記識別されたコンテンツソースの表現の生成されたディスプレイは、前記第1のユーザによって話される言語が前記所与のコンテンツソースと関連付けられた言語フィールドの値に対応しない場合、ディスプレイデバイスに提供される、請求項41−42のいずれかに記載の方法。 - 前記第1のユーザによって話される言語は、第1の言語であって、自動的に、前記音声認識回路を用いて、前記第2のユーザから受信される口頭入力に基づいて、第2のユーザによって話される第2の言語を判定するステップをさらに含み、前記第2のユーザは、前記第1のユーザと同一世帯である、請求項41−43のいずれかに記載の方法。
- 前記音声認識回路を用いて、閾値時間周期にわたって受信される口頭入力に基づいて、前記第2の言語が前記第1の言語より頻繁に話されるかどうかを判定するステップと、
前記第2の言語が前記第1の言語より頻繁に話されると判定される場合、前記第1の言語の代わりに、前記第2の言語に対応する言語フィールド値と関連付けられたコンテンツソースを識別するために前記相互参照を行うステップと、
をさらに含む、請求項44に記載の方法。 - 前記第2のユーザによって話される第2の言語の自動判定に基づいて、表示のために、前記第1および第2の言語を表す双方向一覧を生成するステップと、
前記双方向一覧から前記第2の言語を選択するユーザからの入力を受信するステップと、
前記第1の言語の代わりに、前記ユーザ選択された第2の言語に対応する言語フィールド値と関連付けられたコンテンツソースを識別するために前記相互参照を行うステップと、
をさらに含む、請求項44に記載の方法。 - 前記表現は、前記識別されたコンテンツソースのチャンネル名または番号を含む、請求項41−46のいずれかに記載の方法。
- 前記表現は、現在表示のために生成されているコンテンツの上部のオーバーレイ内に含まれる、請求項41−47のいずれかに記載の方法。
- 前記第1のユーザと関連付けられた加入プランを記憶デバイスから読み出すステップと、
表示のために前記表現を生成するのに先立って、前記識別されたコンテンツソースが前記読み出された加入プラン内に含まれるかどうかを判定するステップと、
前記識別されたコンテンツソースが前記加入プラン内に含まれない場合、前記第1のユーザによって話されると判定された言語に対応する言語フィールド値と関連付けられた第2のコンテンツソースを識別するために前記コンテンツソースのデータベースを相互参照するステップと、
表示のために、前記識別された第2のコンテンツソースの表現を生成するステップと、
をさらに含む、請求項41−48のいずれかに記載の方法。 - 前記第1のユーザによって話されると判定された言語に対応する個別の言語フィールド値と関連付けられた複数のコンテンツソースを識別するために前記コンテンツソースのデータベースを相互参照するステップと、
前記複数のコンテンツソース毎に、前記複数のコンテンツソースのそれぞれと関連付けられた人気度値を識別するステップと、
前記識別された人気度値に基づいて、表示のために、前記識別されたコンテンツソースの表現を生成するステップと、
をさらに含む、請求項41−49のいずれかに記載の方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021025177A JP7368406B2 (ja) | 2015-07-21 | 2021-02-19 | 家庭内で話されている言語に対応するコンテンツを識別するためのシステムおよび方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/804,529 | 2015-07-21 | ||
US14/804,529 US10134386B2 (en) | 2015-07-21 | 2015-07-21 | Systems and methods for identifying content corresponding to a language spoken in a household |
PCT/US2016/042923 WO2017015269A1 (en) | 2015-07-21 | 2016-07-19 | Systems and methods for identifying content corresponding to a language spoken in a household |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021025177A Division JP7368406B2 (ja) | 2015-07-21 | 2021-02-19 | 家庭内で話されている言語に対応するコンテンツを識別するためのシステムおよび方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018530930A true JP2018530930A (ja) | 2018-10-18 |
JP2018530930A5 JP2018530930A5 (ja) | 2019-08-22 |
Family
ID=56738187
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016576013A Pending JP2018530930A (ja) | 2015-07-21 | 2016-07-19 | 家庭内で話されている言語に対応するコンテンツを識別するためのシステムおよび方法 |
JP2021025177A Active JP7368406B2 (ja) | 2015-07-21 | 2021-02-19 | 家庭内で話されている言語に対応するコンテンツを識別するためのシステムおよび方法 |
JP2022155064A Active JP7439203B2 (ja) | 2015-07-21 | 2022-09-28 | 家庭内で話されている言語に対応するコンテンツを識別するためのシステムおよび方法 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021025177A Active JP7368406B2 (ja) | 2015-07-21 | 2021-02-19 | 家庭内で話されている言語に対応するコンテンツを識別するためのシステムおよび方法 |
JP2022155064A Active JP7439203B2 (ja) | 2015-07-21 | 2022-09-28 | 家庭内で話されている言語に対応するコンテンツを識別するためのシステムおよび方法 |
Country Status (6)
Country | Link |
---|---|
US (5) | US10134386B2 (ja) |
EP (4) | EP3435251A1 (ja) |
JP (3) | JP2018530930A (ja) |
AU (2) | AU2016277774B2 (ja) |
CA (1) | CA2952945C (ja) |
WO (1) | WO2017015269A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10134386B2 (en) | 2015-07-21 | 2018-11-20 | Rovi Guides, Inc. | Systems and methods for identifying content corresponding to a language spoken in a household |
KR102444066B1 (ko) * | 2017-12-19 | 2022-09-19 | 삼성전자주식회사 | 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체 |
US10860648B1 (en) * | 2018-09-12 | 2020-12-08 | Amazon Technologies, Inc. | Audio locale mismatch detection |
US10638201B2 (en) | 2018-09-26 | 2020-04-28 | Rovi Guides, Inc. | Systems and methods for automatically determining language settings for a media asset |
CN111694433B (zh) * | 2020-06-11 | 2023-06-20 | 阿波罗智联(北京)科技有限公司 | 语音交互的方法、装置、电子设备及存储介质 |
US11516347B2 (en) | 2020-06-30 | 2022-11-29 | ROVl GUIDES, INC. | Systems and methods to automatically join conference |
US11190851B1 (en) * | 2020-10-29 | 2021-11-30 | Sling Media Pvt. Ltd. | Systems and methods for providing media based on a detected language being spoken |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000013510A (ja) * | 1998-01-16 | 2000-01-14 | Internatl Business Mach Corp <Ibm> | 自動コ―ル及びデ―タ転送処理システム、並びに自動コ―ル又はメッセ―ジ・デ―タ処理を提供する方法 |
JP2001296882A (ja) * | 2000-04-14 | 2001-10-26 | Alpine Electronics Inc | ナビゲーションシステム |
JP2004511867A (ja) * | 2000-10-10 | 2004-04-15 | インテル・コーポレーション | 言語に無関係な音声ベースのサーチ・システム |
JP2005530440A (ja) * | 2002-06-21 | 2005-10-06 | アルカテル | 記録および再生システム |
JP2006060430A (ja) * | 2004-08-18 | 2006-03-02 | Nagoya Broadcasting Network | 端末装置および放送システム |
JP2006222620A (ja) * | 2005-02-09 | 2006-08-24 | Cyber Communications Inc | 放送番組の広告入札受付システムおよび番組表示システム |
JP2007201912A (ja) * | 2006-01-27 | 2007-08-09 | Orion Denki Kk | 番組音声の言語による放送局抽出方法及びこれを備えた電子機器 |
JP2008513840A (ja) * | 2004-09-16 | 2008-05-01 | インフォチュア インコーポレイテッド | 状況のフィードバックを使用する学習システム及び方法 |
JP2008245038A (ja) * | 2007-03-28 | 2008-10-09 | Canon Inc | 放送受信機及び表示方法 |
JP2014006656A (ja) * | 2012-06-22 | 2014-01-16 | Funai Electric Co Ltd | 画像表示装置 |
WO2014039784A1 (en) * | 2012-09-07 | 2014-03-13 | Pandora Media | System and method for combining inputs to generate and modify playlists |
JP2015106827A (ja) * | 2013-11-29 | 2015-06-08 | 株式会社東芝 | 電子機器とその映像表示方法及び映像表示プログラム |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6239794B1 (en) | 1994-08-31 | 2001-05-29 | E Guide, Inc. | Method and system for simultaneously displaying a television program and information about the program |
US6388714B1 (en) | 1995-10-02 | 2002-05-14 | Starsight Telecast Inc | Interactive computer system for providing television schedule information |
US6177931B1 (en) | 1996-12-19 | 2001-01-23 | Index Systems, Inc. | Systems and methods for displaying and recording control interface with television programs, video, advertising information and program scheduling information |
US6564378B1 (en) | 1997-12-08 | 2003-05-13 | United Video Properties, Inc. | Program guide system with browsing display |
EP1237367A1 (en) | 1998-03-04 | 2002-09-04 | United Video Properties, Inc. | Program guide system with targeted advertising |
CN1867068A (zh) | 1998-07-14 | 2006-11-22 | 联合视频制品公司 | 交互式电视节目导视系统及其方法 |
AR020608A1 (es) | 1998-07-17 | 2002-05-22 | United Video Properties Inc | Un metodo y una disposicion para suministrar a un usuario acceso remoto a una guia de programacion interactiva por un enlace de acceso remoto |
CA2337468C (en) | 1998-07-17 | 2011-02-01 | United Video Properties, Inc. | Interactive television program guide system having multiple devices within a household |
US7165098B1 (en) | 1998-11-10 | 2007-01-16 | United Video Properties, Inc. | On-line schedule system with personalization features |
US7051360B1 (en) * | 1998-11-30 | 2006-05-23 | United Video Properties, Inc. | Interactive television program guide with selectable languages |
EP1158799A1 (en) | 2000-05-18 | 2001-11-28 | Deutsche Thomson-Brandt Gmbh | Method and receiver for providing subtitle data in several languages on demand |
KR101548473B1 (ko) | 2001-02-21 | 2015-08-28 | 로비 가이드스, 인크. | 개인용 비디오 녹화 특징을 갖는 대화식 프로그램 가이드를 위한 시스템 및 방법 |
US7519534B2 (en) | 2002-10-31 | 2009-04-14 | Agiletv Corporation | Speech controlled access to content on a presentation medium |
US20100153885A1 (en) | 2005-12-29 | 2010-06-17 | Rovi Technologies Corporation | Systems and methods for interacting with advanced displays provided by an interactive media guidance application |
US8490138B2 (en) * | 2007-02-23 | 2013-07-16 | Rovi Guides, Inc. | Channel searching by content type |
US20110164175A1 (en) | 2010-01-05 | 2011-07-07 | Rovi Technologies Corporation | Systems and methods for providing subtitles on a wireless communications device |
US8738377B2 (en) * | 2010-06-07 | 2014-05-27 | Google Inc. | Predicting and learning carrier phrases for speech input |
US8630860B1 (en) | 2011-03-03 | 2014-01-14 | Nuance Communications, Inc. | Speaker and call characteristic sensitive open voice search |
US9280787B2 (en) * | 2011-06-14 | 2016-03-08 | Redbox Automated Retail, Llc | System and method for substituting a media article with alternative media |
JP2013057887A (ja) | 2011-09-09 | 2013-03-28 | Hitachi Ltd | 音声出力装置、音声出力方法および音声出力プログラム |
US9015032B2 (en) | 2011-11-28 | 2015-04-21 | International Business Machines Corporation | Multilingual speech recognition and public announcement |
JP5810912B2 (ja) * | 2011-12-28 | 2015-11-11 | 富士通株式会社 | 音声認識装置、音声認識方法及び音声認識プログラム |
KR102081925B1 (ko) * | 2012-08-29 | 2020-02-26 | 엘지전자 주식회사 | 디스플레이 디바이스 및 스피치 검색 방법 |
JP2014066791A (ja) | 2012-09-25 | 2014-04-17 | Sharp Corp | 表示装置 |
JP2015022060A (ja) | 2013-07-17 | 2015-02-02 | 株式会社京三製作所 | 情報提供装置 |
US8768704B1 (en) * | 2013-09-30 | 2014-07-01 | Google Inc. | Methods and systems for automated generation of nativized multi-lingual lexicons |
US9571870B1 (en) | 2014-07-15 | 2017-02-14 | Netflix, Inc. | Automatic detection of preferences for subtitles and dubbing |
WO2017015220A1 (en) * | 2015-07-17 | 2017-01-26 | Speak Easy Language Learning Incorporated | Second language acquisition systems, methods, and devices |
US10134386B2 (en) | 2015-07-21 | 2018-11-20 | Rovi Guides, Inc. | Systems and methods for identifying content corresponding to a language spoken in a household |
-
2015
- 2015-07-21 US US14/804,529 patent/US10134386B2/en active Active
-
2016
- 2016-07-19 EP EP17211248.4A patent/EP3435251A1/en not_active Ceased
- 2016-07-19 JP JP2016576013A patent/JP2018530930A/ja active Pending
- 2016-07-19 EP EP17211247.6A patent/EP3355209A1/en not_active Ceased
- 2016-07-19 EP EP16753736.4A patent/EP3326087A1/en not_active Ceased
- 2016-07-19 WO PCT/US2016/042923 patent/WO2017015269A1/en active Application Filing
- 2016-07-19 CA CA2952945A patent/CA2952945C/en active Active
- 2016-07-19 AU AU2016277774A patent/AU2016277774B2/en active Active
- 2016-07-19 EP EP17211246.8A patent/EP3361396A1/en not_active Ceased
-
2018
- 2018-10-31 US US16/177,012 patent/US10621970B2/en active Active
-
2020
- 2020-03-05 US US16/810,279 patent/US11127393B2/en active Active
-
2021
- 2021-02-19 JP JP2021025177A patent/JP7368406B2/ja active Active
- 2021-03-17 AU AU2021201688A patent/AU2021201688A1/en not_active Abandoned
- 2021-08-23 US US17/409,356 patent/US11721321B2/en active Active
-
2022
- 2022-09-28 JP JP2022155064A patent/JP7439203B2/ja active Active
-
2023
- 2023-06-21 US US18/212,610 patent/US12057103B2/en active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000013510A (ja) * | 1998-01-16 | 2000-01-14 | Internatl Business Mach Corp <Ibm> | 自動コ―ル及びデ―タ転送処理システム、並びに自動コ―ル又はメッセ―ジ・デ―タ処理を提供する方法 |
JP2001296882A (ja) * | 2000-04-14 | 2001-10-26 | Alpine Electronics Inc | ナビゲーションシステム |
JP2004511867A (ja) * | 2000-10-10 | 2004-04-15 | インテル・コーポレーション | 言語に無関係な音声ベースのサーチ・システム |
JP2005530440A (ja) * | 2002-06-21 | 2005-10-06 | アルカテル | 記録および再生システム |
JP2006060430A (ja) * | 2004-08-18 | 2006-03-02 | Nagoya Broadcasting Network | 端末装置および放送システム |
JP2008513840A (ja) * | 2004-09-16 | 2008-05-01 | インフォチュア インコーポレイテッド | 状況のフィードバックを使用する学習システム及び方法 |
JP2006222620A (ja) * | 2005-02-09 | 2006-08-24 | Cyber Communications Inc | 放送番組の広告入札受付システムおよび番組表示システム |
JP2007201912A (ja) * | 2006-01-27 | 2007-08-09 | Orion Denki Kk | 番組音声の言語による放送局抽出方法及びこれを備えた電子機器 |
JP2008245038A (ja) * | 2007-03-28 | 2008-10-09 | Canon Inc | 放送受信機及び表示方法 |
JP2014006656A (ja) * | 2012-06-22 | 2014-01-16 | Funai Electric Co Ltd | 画像表示装置 |
WO2014039784A1 (en) * | 2012-09-07 | 2014-03-13 | Pandora Media | System and method for combining inputs to generate and modify playlists |
JP2015106827A (ja) * | 2013-11-29 | 2015-06-08 | 株式会社東芝 | 電子機器とその映像表示方法及び映像表示プログラム |
Also Published As
Publication number | Publication date |
---|---|
CA2952945C (en) | 2023-06-20 |
US11721321B2 (en) | 2023-08-08 |
US10134386B2 (en) | 2018-11-20 |
US20210383792A1 (en) | 2021-12-09 |
JP7439203B2 (ja) | 2024-02-27 |
JP2022173427A (ja) | 2022-11-18 |
AU2016277774B2 (en) | 2020-12-17 |
US11127393B2 (en) | 2021-09-21 |
US20170025116A1 (en) | 2017-01-26 |
EP3326087A1 (en) | 2018-05-30 |
JP2021093749A (ja) | 2021-06-17 |
US20190073995A1 (en) | 2019-03-07 |
US10621970B2 (en) | 2020-04-14 |
JP7368406B2 (ja) | 2023-10-24 |
US20230335113A1 (en) | 2023-10-19 |
AU2021201688A1 (en) | 2021-04-08 |
US12057103B2 (en) | 2024-08-06 |
EP3361396A1 (en) | 2018-08-15 |
EP3355209A1 (en) | 2018-08-01 |
AU2016277774A1 (en) | 2017-02-09 |
CA2952945A1 (en) | 2017-01-21 |
EP3435251A1 (en) | 2019-01-30 |
US20200273446A1 (en) | 2020-08-27 |
WO2017015269A1 (en) | 2017-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7439203B2 (ja) | 家庭内で話されている言語に対応するコンテンツを識別するためのシステムおよび方法 | |
JP6684231B2 (ja) | 同音異字の存在下でasrを行うためのシステムおよび方法 | |
US20230421826A1 (en) | Systems and methods for managing available bandwidth in a household |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190710 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190710 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200826 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200925 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20201119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210728 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20211026 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220322 |