JP7164590B2 - 人間の発話のきめ細かな評価による発話言語スキルの教育および評価 - Google Patents
人間の発話のきめ細かな評価による発話言語スキルの教育および評価 Download PDFInfo
- Publication number
- JP7164590B2 JP7164590B2 JP2020500776A JP2020500776A JP7164590B2 JP 7164590 B2 JP7164590 B2 JP 7164590B2 JP 2020500776 A JP2020500776 A JP 2020500776A JP 2020500776 A JP2020500776 A JP 2020500776A JP 7164590 B2 JP7164590 B2 JP 7164590B2
- Authority
- JP
- Japan
- Prior art keywords
- string
- user
- educational
- individual
- computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims description 145
- 238000000034 method Methods 0.000 claims description 132
- 239000000470 constituent Substances 0.000 claims description 97
- 238000004458 analytical method Methods 0.000 claims description 69
- 230000000007 visual effect Effects 0.000 claims description 68
- 230000002452 interceptive effect Effects 0.000 claims description 60
- 230000004044 response Effects 0.000 claims description 59
- 238000005259 measurement Methods 0.000 claims description 15
- 239000000945 filler Substances 0.000 claims description 13
- 230000008859 change Effects 0.000 claims description 10
- 238000011157 data evaluation Methods 0.000 claims description 9
- 238000010801 machine learning Methods 0.000 claims description 8
- 230000002829 reductive effect Effects 0.000 claims description 4
- 230000004043 responsiveness Effects 0.000 claims description 3
- 230000008685 targeting Effects 0.000 claims description 2
- 230000002730 additional effect Effects 0.000 claims 1
- 238000004904 shortening Methods 0.000 claims 1
- 230000008569 process Effects 0.000 description 46
- 230000006870 function Effects 0.000 description 36
- 238000012545 processing Methods 0.000 description 29
- 238000012549 training Methods 0.000 description 27
- 230000003993 interaction Effects 0.000 description 22
- 238000004891 communication Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 19
- 230000008901 benefit Effects 0.000 description 15
- 230000000670 limiting effect Effects 0.000 description 14
- 238000003860 storage Methods 0.000 description 12
- 241000282412 Homo Species 0.000 description 8
- 238000004590 computer program Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 6
- 230000003190 augmentative effect Effects 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 230000001960 triggered effect Effects 0.000 description 5
- 230000001755 vocal effect Effects 0.000 description 5
- 206010011878 Deafness Diseases 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000000052 comparative effect Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 102000053602 DNA Human genes 0.000 description 3
- 108020004414 DNA Proteins 0.000 description 3
- 230000003321 amplification Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000003340 mental effect Effects 0.000 description 3
- 238000003199 nucleic acid amplification method Methods 0.000 description 3
- 230000001953 sensory effect Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 229910052799 carbon Inorganic materials 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000004821 distillation Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012804 iterative process Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000037361 pathway Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 241001070941 Castanea Species 0.000 description 1
- 235000014036 Castanea Nutrition 0.000 description 1
- 241000238558 Eucarida Species 0.000 description 1
- 235000015842 Hesperis Nutrition 0.000 description 1
- 235000012633 Iberis amara Nutrition 0.000 description 1
- 101150071882 US17 gene Proteins 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 229910002056 binary alloy Inorganic materials 0.000 description 1
- 230000003925 brain function Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000008570 general process Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 229910021389 graphene Inorganic materials 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000003137 locomotive effect Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000001343 mnemonic effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 239000003607 modifier Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 235000020238 sunflower seed Nutrition 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/60—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/04—Speaking
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/06—Foreign languages
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Entrepreneurship & Innovation (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Electrically Operated Instructional Devices (AREA)
Description
出願データシート(ADS)が本願の出願日に提出された場合、参照により本明細書に組み込まれる。米国特許法第119条、第120条、第121条または第365条(c)に基づく優先権に関してADSで特許請求されたすべての出願、および、そのような出願の親、祖父母、曽祖父母など、ありとあらゆる出願も、これらの出願でなされたすべての優先権主張、および、参照により組み込まれたすべての資料を含めて、そのような主題が本明細書と矛盾しない範囲で参照により組み込まれる。
USPTOの法定外要件の目的のために、本願は、国際特許出願第PCT/US17/34065号の一部の継続であり、きめ細かい評価による発話言語スキルの教育および評価の権利を有し、Chun Ho Cheungを発明者と命名、2017年5月23日に、代理人整理番号3003-003-001PCTで提出され、現在同時係属中であるか、現在同時係属中の出願が出願日の利益を受ける権利を有する出願である。
出願日時点ではなし。
Claims (41)
- 1つまたは複数の発話言語スキルを教育および/または評価するように構成された装置であって、前記装置は、
装置入力構成要素および装置出力構成要素のうちの1つまたは複数を有する装置インタフェース構成要素と、
メモリと、
前記メモリに操作可能に結合され、前記装置インタフェース構成要素との間でデータをやり取りするように構成されたプロセッサと
を備え、前記プロセッサは、
ユーザが読む1つまたは複数の教育用文字列を実装するように構成された教育用文字列提供回路と、
前記1つまたは複数の教育用文字列に関する前記ユーザの発話に対応する教育用文字列音声サンプルデータを、前記ユーザから前記装置入力構成要素を介して受信するように構成された教育用文字列音声サンプルデータ受信回路と、
個々の言語構成要素の分析回路であって、
前記教育用文字列音声サンプルデータを少なくとも1つの個々の言語構成要素に分離し、前記少なくとも1つの個々の言語構成要素が、音素、音節、二重母音または二重音字を含む音声単位のうちの1つまたは複数を含み、
前記少なくとも1つの個々言語構成要素の1つまたは複数の発音特性を測定し、前記1つまたは複数の発音特性がピッチ、イントネーション、周波数、強勢およびアクセントのうちの1つまたは複数を含み、
前記ユーザの発話を認識することなく、ベースラインの個々の言語構成要素のうちの対応する1つまたは複数の個々の言語構成要素の対応する1つまたは複数の発音特性と前記測定された個々の言語構成要素のそれぞれの1つまたは複数の発音特性とを比較することを通じて、前記教育用文字列音声サンプルデータを分析し、個々の言語構成要素のそれぞれに対する品質スコアを生成するように構成された、個々の言語構成要素分析回路と、
前記装置出力構成要素上で前記ユーザに評価提示を提供するように構成された評価提示提供回路と、
を含むように構成された1つまたは複数の回路を有し、前記評価提示は、前記1つまたは複数の個々の言語構成要素の各々について、分析された前記教育用文字列音声サンプルデータの前記1つまたは複数の個々の言語構成要素に基づく、前記1つまたは複数の教育用文字列が前記ユーザによってどの程度正確に発音されたかについての前記教育用文字列音声サンプルデータの評価を含む、装置。 - 前記教育用文字列提供回路は、
ユーザが読む1つまたは複数の教育用文字列を前記ユーザに提供するように構成された教育用文字列提供回路
を含む、請求項1に記載の装置。 - 前記教育用文字列提供回路は、
前記ユーザが読む1つまたは複数の教育用文字列を、前記装置インタフェース構成要素の前記装置出力構成要素を介して前記ユーザに提供するように構成された教育用文字列提供回路
を含む、請求項2に記載の装置。 - 前記1つまたは複数の個々の言語構成要素の前記1つまたは複数の発音特性の各々の評価を含む前記教育用文字列音声サンプルデータの前記評価を収集するように構成された教育用文字列音声サンプルデータ評価収集回路
をさらに備える、請求項1から3のいずれか一項に記載の装置。 - 前記装置は、収集された前記教育用文字列音声サンプルデータの前記評価に少なくとも部分的に基づいて1つまたは複数のさらなる教育用文字列を判定するように構成されたさらなる教育用文字列判定回路をさらに備え、前記1つまたは複数のさらなる教育用文字列は、前記装置による分析および評価のために前記ユーザからキャプチャされた場合に前記ユーザの発話言語スキルを向上させるために計算される、請求項4に記載の装置。
- 前記教育用文字列提供回路は、
前記ユーザが読むことになっている前記1つまたは複数の教育用文字列の視覚表現を、前記装置出力構成要素を介して前記ユーザに提供するように構成された教育用文字列視覚提供回路と、
前記ユーザが読むことになっている前記1つまたは複数の教育用文字列の音声表現を、前記装置出力構成要素を介して前記ユーザに提供するように構成された教育用文字列音声提供回路と、
を含む、請求項3から5のいずれか一項に記載の装置。 - 前記教育用文字列提供回路は、
前記ユーザが読むことになっている前記1つまたは複数の教育用文字列の対話型視覚表現を、前記装置出力構成要素を介して前記ユーザに提供し、
前記装置入力構成要素を介して前記ユーザからの入力を受け付ける
ように構成された教育用文字列対話型視覚提供回路
を含む、請求項3から6のいずれか一項に記載の装置。 - 前記1つまたは複数の教育用文字列の前記対話型視覚表現に対する前記ユーザからの入力に応答して、前記ユーザが読むことになっている前記1つまたは複数の教育用文字列の音声表現を、前記装置出力構成要素を介して前記ユーザに提供するように構成された教育用文字列応答音声提供回路
をさらに備える、請求項7に記載の装置。 - 前記評価提示は、個々の言語構成要素のそれぞれに対する前記品質スコアに基づく前記1つまたは複数の教育用文字列に関する前記ユーザの発話の正確さを表す総合スコアの提示を含む、請求項1から8のいずれか一項に記載の装置。
- 前記装置出力構成要素はディスプレイおよびスピーカを含み、前記評価提示提供回路はさらに、
対応する1つまたは複数のベースラインの個々の言語構成要素に対して分析された前記1つまたは複数の個々の言語構成要素の各々に関する前記ユーザの発話の前記ユーザへの視覚フィードバックを前記ディスプレイ上に提示する視覚的提示提供回路と、
特定の個々の言語構成要素に対するユーザからの入力に応答して、前記特定の個々の言語構成要素に関する前記ユーザの発話のうちの1つまたは複数の可聴フィードバックを、前記スピーカを介して提示する可聴提示提供回路と、
を含む、請求項1から9のいずれか一項に記載の装置。 - 前記ベースラインの個々の言語構成要素は、前記ユーザ以外の複数のソースから取得された言語構成要素から生成される
請求項1から10のいずれか一項に記載の装置。 - 1つまたは複数の発話言語スキルを教育および/または評価する方法であって、
コンピュータによって、ユーザが読むように構成された少なくとも1つの教育用文字列を提供する段階と、
前記コンピュータによって、前記少なくとも1つの教育用文字列に関する前記ユーザの発話に対応する教育用文字列音声サンプルデータを受信する段階と、
前記コンピュータによって、前記教育用文字列音声サンプルデータの1つまたは複数の個々の言語構成要素を分析する段階であって、
前記コンピュータによって、前記教育用文字列音声サンプルデータを少なくとも1つの個々の言語構成要素に分離する段階であって、前記少なくとも1つの個々の言語構成要素が、音素、音節、二重母音または二重音字を含む音声単位のうちの1つまたは複数を含む、段階と、
前記コンピュータによって、前記少なくとも1つの個々言語構成要素の1つまたは複数の発音特性を測定する段階であって、前記1つまたは複数の発音特性がピッチ、イントネーション、周波数、強勢およびアクセントのうちの1つまたは複数を含む、段階と、
前記コンピュータによって、前記ユーザの発話を認識することなく、ベースラインの個々の言語構成要素のうちの対応する1つまたは複数の個々の言語構成要素の対応する1つまたは複数の発音特性と前記測定された個々の言語構成要素のそれぞれの1つまたは複数の発音特性とを比較して個々の言語構成要素のそれぞれに対する品質スコアを生成する段階と
を有する、段階と、
前記コンピュータによって、前記ユーザに評価提示を提供する段階であって、前記評価提示は、分析された前記1つまたは複数の個々の言語構成要素の前記1つまたは複数の発音特性に基づく、前記1つまたは複数の前教育用文字列が前記ユーザによってどの程度正確に発音されたかについての前記教育用文字列音声サンプルデータの評価の前記ユーザへの提示を含む、段階と
を備える方法。 - 1つまたは複数の発話言語スキルを教育および/または評価する方法であって、
コンピュータによって、ユーザが読むように構成された少なくとも1つの教育用文字列を提供する段階と、
前記コンピュータによって、前記少なくとも1つの教育用文字列に関する前記ユーザの発話に対応する教育用文字列音声サンプルデータを受信する段階と、
前記コンピュータによって、前記教育用文字列音声サンプルデータの1つまたは複数の個々の言語構成要素を分析する段階であって、
前記コンピュータによって、前記教育用文字列音声サンプルデータを少なくとも1つの個々の言語構成要素に分離する段階であって、前記少なくとも1つの個々の言語構成要素が、音素、音節、二重母音または二重音字を含む音声単位のうちの1つまたは複数を含む、段階と、
前記コンピュータによって、前記少なくとも1つの個々言語構成要素の1つまたは複数の発音特性を測定する段階であって、前記1つまたは複数の発音特性がピッチ、イントネーション、周波数、強勢およびアクセントのうちの1つまたは複数を含む、段階と、
前記コンピュータによって、ベースラインの個々の言語構成要素の対応する1つまたは複数の発音特性と前記測定された個々の言語構成要素のそれぞれの1つまたは複数の発音特性とを比較して個々の言語構成要素のそれぞれに対する品質スコアを生成する段階と
を有する、段階と、
前記コンピュータによって、前記ユーザに評価提示を提供する段階であって、前記評価提示は、分析された前記1つまたは複数の個々の言語構成要素の前記1つまたは複数の発音特性に基づく、前記1つまたは複数の前教育用文字列が前記ユーザによってどの程度正確に発音されたかについての前記教育用文字列音声サンプルデータの評価の前記ユーザへの提示を含む、段階と
を備え、
前記方法は、
前記コンピュータによって、収集された前記教育用文字列音声サンプルデータの前記評価に少なくとも部分的に基づく、前記1つまたは複数の教育用文字列のうちの1つまたは複数のさらなる教育用文字列の判定を受信する段階をさらに備え、前記判定は、前記1つまたは複数の個々の言語構成要素の前記1つまたは複数の発音特性の各々の前記評価にアクセスできる前記コンピュータ又は他のコンピュータによって実行される、方法。 - 1つまたは複数の発話言語スキルを教育および/または評価する方法であって、
コンピュータによって、ユーザが読むように構成された少なくとも1つの教育用文字列を提供する段階と、
前記コンピュータによって、前記少なくとも1つの教育用文字列に関する前記ユーザの発話に対応する教育用文字列音声サンプルデータを受信する段階と、
前記コンピュータによって、前記教育用文字列音声サンプルデータの1つまたは複数の個々の言語構成要素を分析する段階であって、
前記コンピュータによって、前記教育用文字列音声サンプルデータを少なくとも1つの個々の言語構成要素に分離する段階であって、前記少なくとも1つの個々の言語構成要素が、音素、音節、二重母音または二重音字を含む音声単位のうちの1つまたは複数を含む、段階と、
前記コンピュータによって、前記少なくとも1つの個々言語構成要素の1つまたは複数の発音特性を測定する段階であって、前記1つまたは複数の発音特性がピッチ、イントネーション、周波数、強勢およびアクセントのうちの1つまたは複数を含む、段階と、
前記コンピュータによって、ベースラインの個々の言語構成要素の対応する1つまたは複数の発音特性と前記測定された個々の言語構成要素のそれぞれの1つまたは複数の発音特性とを比較して個々の言語構成要素のそれぞれに対する品質スコアを生成する段階と
を有する、段階と、
前記コンピュータによって、前記ユーザに評価提示を提供する段階であって、前記評価提示は、分析された前記1つまたは複数の個々の言語構成要素の前記1つまたは複数の発音特性に基づく、前記1つまたは複数の前教育用文字列が前記ユーザによってどの程度正確に発音されたかについての前記教育用文字列音声サンプルデータの評価の前記ユーザへの提示を含む、段階と
を備え、
前記方法は、
前記コンピュータによって、前記教育用文字列音声サンプルデータの前記評価を収集する段階をさらに備え、評価された前記教育用文字列音声サンプルデータは、前記1つまたは複数の個々の言語構成要素の前記1つまたは複数の発音特性の各々の評価を含み、前記1つまたは複数の発音特性は、ピッチ発音特性、イントネーション発音特性、周波数発音特性、強勢発音特性、アクセント発音特性、発話速度発音特性、ためらい発音特性、フィラー音発音特性、およびチャンク発音特性のうちの1つまたは複数を含む、方法。 - 前記コンピュータによって、収集された前記教育用文字列音声サンプルデータの前記評価に少なくとも部分的に基づいて、1つまたは複数のさらなる教育用文字列を判定する段階をさらに備え、前記ピッチ発音特性、前記イントネーション発音特性、前記周波数発音特性、前記強勢発音特性、前記アクセント発音特性、前記発話速度発音特性、前記ためらい発音特性、前記フィラー音発音特性、前記チャンク発音特性のうちの1つまたは複数を含む1つまたは複数の発音特性を対象とすることにより、前記1つまたは複数のさらなる教育用文字列は、分析および評価のために前記ユーザからキャプチャされた場合に前記ユーザの発話言語スキルを向上させるために計算される、請求項14に記載の方法。
- 1つまたは複数の発話言語スキルを教育および/または評価する方法であって、
コンピュータによって、ユーザが読むように構成された少なくとも1つの教育用文字列を提供する段階と、
前記コンピュータによって、前記少なくとも1つの教育用文字列に関する前記ユーザの発話に対応する教育用文字列音声サンプルデータを受信する段階と、
前記コンピュータによって、前記教育用文字列音声サンプルデータの1つまたは複数の個々の言語構成要素を分析する段階であって、
前記コンピュータによって、前記教育用文字列音声サンプルデータを少なくとも1つの個々の言語構成要素に分離する段階であって、前記少なくとも1つの個々の言語構成要素が、音素、音節、二重母音または二重音字を含む音声単位のうちの1つまたは複数を含む、段階と、
前記コンピュータによって、前記少なくとも1つの個々言語構成要素の1つまたは複数の発音特性を測定する段階であって、前記1つまたは複数の発音特性がピッチ、イントネーション、周波数、強勢およびアクセントのうちの1つまたは複数を含む、段階と、
前記コンピュータによって、ベースラインの個々の言語構成要素の対応する1つまたは複数の発音特性と前記測定された個々の言語構成要素のそれぞれの1つまたは複数の発音特性とを比較して個々の言語構成要素のそれぞれに対する品質スコアを生成する段階と
を有する、段階と、
前記コンピュータによって、前記ユーザに評価提示を提供する段階であって、前記評価提示は、分析された前記1つまたは複数の個々の言語構成要素の前記1つまたは複数の発音特性に基づく、前記1つまたは複数の前教育用文字列が前記ユーザによってどの程度正確に発音されたかについての前記教育用文字列音声サンプルデータの評価の前記ユーザへの提示を含む、段階と
を備え、
前記方法は、
前記コンピュータによって、ユーザが読むように構成された少なくとも1つの教育用文字列を提供し、前記少なくとも1つの教育用文字列に関する前記ユーザの発話に対応する教育用文字列音声サンプルデータを受信し、前記教育用文字列音声サンプルデータの1つまたは複数の個々の言語構成要素を分析し、前記ユーザに評価提示を提供する前記段階を特定の回数だけ、異なる教育用文字列については前記特定の回数の少なくとも一部だけ繰り返す段階と、
前記コンピュータによって、前記特定の回数ごとに前記教育用文字列音声サンプルデータの前記評価を収集する段階であって、評価された前記教育用文字列音声サンプルデータは、分析および評価のために前記ユーザからキャプチャされた場合に前記ユーザの発話言語スキルを向上させるために計算される1つまたは複数のさらなる教育用文字列を判定するために少なくとも部分的に使用される、段階と、
前記コンピュータによって、収集された前記教育用文字列音声サンプルデータの前記評価を使用して、前記1つまたは複数のさらなる教育用文字列を判定する段階と
をさらに備える、方法。 - 前記コンピュータによって、1人または複数のユーザのセットをクラスにグループ化する段階と、
前記コンピュータによって、前記繰り返す段階と、前記クラス内の前記ユーザの各々について前記教育用文字列音声サンプルデータの前記評価を収集する前記段階とを実行する段階と、
をさらに備える、請求項16に記載の方法。 - 前記コンピュータによって、前記クラスの1つまたは複数のパフォーマンス特性とともに、前記クラスのリストを命令エンティティに視覚的に表示する段階と、
前記コンピュータによって、追加の特性視認の対象となる前記クラス内の1人または複数のユーザの選択を前記命令エンティティから受信する段階と、
前記コンピュータによって、前記1つまたは複数の個々の言語構成要素の前記1つまたは複数の発音特性の各々について、特定の個々の言語構成要素が特定のベースラインの個々の言語構成要素にどれだけ厳密に一致するかを表す構成要素スコアを前記命令エンティティに提示する段階と、
をさらに備える、請求項17に記載の方法。 - 前記ユーザに評価提示を提供する前記段階は、
前記コンピュータによって、前記評価提示の一部として、前記1つまたは複数の個々の言語構成要素の前記1つまたは複数の発音特性の各々について、特定の個々の言語構成要素が特定のベースラインの個々の言語構成要素にどれだけ厳密に一致するかを表す構成要素スコアを提供する段階
をさらに有する、請求項12から18のいずれか一項に記載の方法。 - 特定の個々の言語構成要素が特定のベースラインの個々の言語構成要素にどれだけ厳密に一致するかを表す前記構成要素スコアは、
前記特定の個々の言語構成要素が前記特定のベースラインの個々の言語構成要素と一致するかどうかを表す2進インジケータ
をさらに含む、請求項19に記載の方法。 - 特定の個々の言語構成要素が特定のベースラインの個々の言語構成要素にどれだけ厳密に一致するかを表す前記構成要素スコアは、
前記特定の個々の言語構成要素が前記特定のベースラインの個々の言語構成要素と一致する離散量を表す数値スコアインジケータ
をさらに含む、請求項19または20に記載の方法。 - 特定の個々の言語構成要素が特定のベースラインの個々の言語構成要素にどれだけ厳密に一致するかを表す前記構成要素スコアは、
前記特定の個々の言語構成要素が前記特定のベースラインの個々の言語構成要素とどれだけ厳密に一致するかを、段階的なカラースケールで視覚的に表す色分けされたスコアインジケータ
をさらに含む、請求項19から21のいずれか一項に記載の方法。 - 前記ユーザに評価提示を提供する前記段階は、
前記コンピュータによって、分析された前記教育用文字列音声サンプルデータに基づいて、前記少なくとも1つの教育用文字列の言語での前記ユーザの流暢さの数値評価を前記ユーザに提供する段階
を有する、請求項12から22のいずれか一項に記載の方法。 - 前記ユーザに評価提示を提供する前記段階は、
前記コンピュータによって、前記ユーザと関連付けられる装置のスクリーン上で前記ユーザに前記評価提示を表示する段階を有し、前記評価提示は、前記ユーザからの入力を受信するように構成された1つまたは複数の対話型オブジェクトを含む、請求項12から23のいずれか一項に記載の方法。 - 1つまたは複数の発話言語スキルを教育および/または評価する方法であって、
コンピュータによって、ユーザが読むように構成された少なくとも1つの教育用文字列を提供する段階と、
前記コンピュータによって、前記少なくとも1つの教育用文字列に関する前記ユーザの発話に対応する教育用文字列音声サンプルデータを受信する段階と、
前記コンピュータによって、前記教育用文字列音声サンプルデータの1つまたは複数の個々の言語構成要素を分析する段階であって、
前記コンピュータによって、前記教育用文字列音声サンプルデータを少なくとも1つの個々の言語構成要素に分離する段階であって、前記少なくとも1つの個々の言語構成要素が、音素、音節、二重母音または二重音字を含む音声単位のうちの1つまたは複数を含む、段階と、
前記コンピュータによって、前記少なくとも1つの個々言語構成要素の1つまたは複数の発音特性を測定する段階であって、前記1つまたは複数の発音特性がピッチ、イントネーション、周波数、強勢およびアクセントのうちの1つまたは複数を含む、段階と、
前記コンピュータによって、ベースラインの個々の言語構成要素の対応する1つまたは複数の発音特性と前記測定された個々の言語構成要素のそれぞれの1つまたは複数の発音特性とを比較して個々の言語構成要素のそれぞれに対する品質スコアを生成する段階と
を有する、段階と、
前記コンピュータによって、前記ユーザに評価提示を提供する段階であって、前記評価提示は、分析された前記1つまたは複数の個々の言語構成要素の前記1つまたは複数の発音特性に基づく、前記1つまたは複数の前教育用文字列が前記ユーザによってどの程度正確に発音されたかについての前記教育用文字列音声サンプルデータの評価の前記ユーザへの提示を含む、段階と
を備え、
前記ユーザに評価提示を提供する前記段階は、
前記コンピュータによって、前記ユーザと関連付けられる装置のスクリーン上で前記ユーザに前記評価提示を表示する段階を有し、前記評価提示は、前記ユーザからの入力を受信するように構成された1つまたは複数の対話型オブジェクトを含み、
前記評価提示は、前記ユーザからの入力を受信するように構成された1つまたは複数の対話型オブジェクトを含み、前記方法は、
前記コンピュータによって、前記評価提示を前記ユーザと関連付けられる装置のスクリーン上で前記ユーザに表示する段階であって、前記評価提示は、前記ユーザにとって問題があると識別された特定の個々の言語構成要素ごとに対話型オブジェクトを含む、段階と、
前記コンピュータによって、前記ユーザが各対話型オブジェクトに対して入力できるようにして、前記ユーザが、前記ユーザにとって問題があると識別された少なくとも1つの前記特定の個々の言語構成要素に対して分離および対象化する入力を通じて、前記少なくとも1つの教育用文字列と関連付けられる言語での特定レベルの流暢さを達成するための時間を短縮できるようにする段階と
を備える、方法。 - 前記評価提示は、前記ユーザからの入力を受信するように構成された1つまたは複数の対話型オブジェクトを含み、前記個々の言語構成要素と、前記1つまたは複数のベースラインの個々の言語構成要素の対応するベースラインの個々の言語構成要素との間の個々のスコア比較を、前記ユーザからの入力に応答して表示する対話型オブジェクトとして、前記個々の言語構成要素のうちの少なくとも1つを表示する評価提示を含む、
請求項24または25に記載の方法。 - 前記個々の言語構成要素と、対応するベースラインの個々の言語構成要素との間の前記個々のスコア比較は、特定の閾値レベル未満のすべての個々のスコア比較について示され、前記ユーザの学習時間の短縮を促進する、請求項26に記載の方法。
- 1つまたは複数の発話言語スキルを教育および/または評価する方法であって、
コンピュータによって、ユーザが読むように構成された少なくとも1つの教育用文字列を提供する段階と、
前記コンピュータによって、前記少なくとも1つの教育用文字列に関する前記ユーザの発話に対応する教育用文字列音声サンプルデータを受信する段階と、
前記コンピュータによって、前記教育用文字列音声サンプルデータの1つまたは複数の個々の言語構成要素を分析する段階であって、
前記コンピュータによって、前記教育用文字列音声サンプルデータを少なくとも1つの個々の言語構成要素に分離する段階であって、前記少なくとも1つの個々の言語構成要素が、音素、音節、二重母音または二重音字を含む音声単位のうちの1つまたは複数を含む、段階と、
前記コンピュータによって、前記少なくとも1つの個々言語構成要素の1つまたは複数の発音特性を測定する段階であって、前記1つまたは複数の発音特性がピッチ、イントネーション、周波数、強勢およびアクセントのうちの1つまたは複数を含む、段階と、
前記コンピュータによって、ベースラインの個々の言語構成要素の対応する1つまたは複数の発音特性と前記測定された個々の言語構成要素のそれぞれの1つまたは複数の発音特性とを比較して個々の言語構成要素のそれぞれに対する品質スコアを生成する段階と
を有する、段階と、
前記コンピュータによって、前記ユーザに評価提示を提供する段階であって、前記評価提示は、分析された前記1つまたは複数の個々の言語構成要素の前記1つまたは複数の発音特性に基づく、前記1つまたは複数の前教育用文字列が前記ユーザによってどの程度正確に発音されたかについての前記教育用文字列音声サンプルデータの評価の前記ユーザへの提示を含む、段階と
を備え、
前記ユーザに評価提示を提供する前記段階は、
前記コンピュータによって、前記ユーザと関連付けられる装置のスクリーン上で前記ユーザに前記評価提示を表示する段階を有し、前記評価提示は、前記ユーザからの入力を受信するように構成された1つまたは複数の対話型オブジェクトを含み、
前記評価提示は、前記個々の言語構成要素と、前記1つまたは複数のベースラインの個々の言語構成要素の対応するベースラインの個々の言語構成要素との間の個々のスコア比較を、前記ユーザからの入力に応答して表示する対話型オブジェクトとして、前記個々の言語構成要素のうちの少なくとも1つを表示する評価提示を含み、
前記個々の言語構成要素と、対応するベースラインの個々の言語構成要素との間の前記個々のスコア比較は、
前記個々の言語構成要素と、前記対応するベースラインの個々の言語構成要素との間のピッチの個々の比較、イントネーションの個々の比較、強勢の個々の比較、アクセントの個々の比較、発話速度の個々の比較、ためらい量の個々の比較、フィラー音の個々の比較、およびチャンクの個々の比較
を含む、方法。 - 前記ピッチの個々の比較、イントネーションの個々の比較、強勢の個々の比較、アクセントの個々の比較、発話速度の個々の比較、ためらい量の個々の比較、フィラー音の個々の比較、およびチャンクの個々の比較はそれぞれ、前記個々の言語構成要素と、前記対応するベースラインの個々の言語構成要素との間の差分を表す数値スコアを含む、請求項28に記載の方法。
- 前記評価提示は、前記ユーザからの入力を受信するように構成された1つまたは複数の対話型オブジェクトと、
評価音声提示を前記ユーザに提示するように構成された対話型オブジェクトと
を含み、前記評価音声提示は、前記少なくとも1つの教育用文字列の特定部分の音声提示と、前記少なくとも1つの教育用文字列の前記特定部分の前記ユーザの発音の音声提示とのうちの1つまたは複数を含む、請求項24から29のいずれか一項に記載の方法。 - 前記評価音声提示の少なくとも一部は、前記少なくとも1つの教育用文字列の前記特定部分と、他の教育用文字列の他の関連部分とを発音する際の前記ユーザのパフォーマンスの分析に基づいて増幅または減速され、前記少なくとも1つの教育用文字列の前記特定部分の前記ユーザの発音の間違いを認識および修正する前記ユーザの能力を強化する、請求項30に記載の方法。
- 1つまたは複数の発話言語スキルを教育および/または評価する方法であって、
コンピュータによって、ユーザが読むように構成された少なくとも1つの教育用文字列を提供する段階と、
前記コンピュータによって、前記少なくとも1つの教育用文字列に関する前記ユーザの発話に対応する教育用文字列音声サンプルデータを受信する段階と、
前記コンピュータによって、前記教育用文字列音声サンプルデータの1つまたは複数の個々の言語構成要素を分析する段階であって、
前記コンピュータによって、前記教育用文字列音声サンプルデータを少なくとも1つの個々の言語構成要素に分離する段階であって、前記少なくとも1つの個々の言語構成要素が、音素、音節、二重母音または二重音字を含む音声単位のうちの1つまたは複数を含む、段階と、
前記コンピュータによって、前記少なくとも1つの個々言語構成要素の1つまたは複数の発音特性を測定する段階であって、前記1つまたは複数の発音特性がピッチ、イントネーション、周波数、強勢およびアクセントのうちの1つまたは複数を含む、段階と、
前記コンピュータによって、ベースラインの個々の言語構成要素の対応する1つまたは複数の発音特性と前記測定された個々の言語構成要素のそれぞれの1つまたは複数の発音特性とを比較して個々の言語構成要素のそれぞれに対する品質スコアを生成する段階と
を有する、段階と、
前記コンピュータによって、前記ユーザに評価提示を提供する段階であって、前記評価提示は、分析された前記1つまたは複数の個々の言語構成要素の前記1つまたは複数の発音特性に基づく、前記1つまたは複数の前教育用文字列が前記ユーザによってどの程度正確に発音されたかについての前記教育用文字列音声サンプルデータの評価の前記ユーザへの提示を含む、段階と
を備え、
前記教育用文字列音声サンプルデータの1つまたは複数の個々の言語構成要素を分析する前記段階は、
前記コンピュータによって、前記1つまたは複数の個々の言語構成要素を1つまたは複数の個々の言語構成要素グループにグループ化する段階と、
前記コンピュータによって、前記ベースラインの個々の言語構成要素に対するピッチ、イントネーション、周波数、強勢、アクセント、タイミング、発話速度、ためらい、フィラー音およびチャンクのうちの1つまたは複数の測定を通じて、前記1つまたは複数の個々の言語構成要素グループを分析する段階と、
前記コンピュータによって、前記評価提示の一部として、分析された前記1つまたは複数の個々の言語構成要素グループの結果を含める段階と
を有する、方法。 - 前記1つまたは複数の個々の言語構成要素を1つまたは複数の個々の言語構成要素グループにグループ化する前記段階は、
前記コンピュータによって、前記1つまたは複数の個々の言語構成要素を音節、単語、語句、および/または文のグループにグループ化する段階
を含む、請求項32に記載の方法。 - 前記少なくとも1つの教育用文字列は、音節、単語、文、段落、または段落のセットのうちの1つまたは複数である、請求項12から33のいずれか一項に記載の方法。
- 前記個々の言語構成要素は、音素または他の知覚的に異なる音の単位である、請求項12から34のいずれか一項に記載の方法。
- ユーザの言語の流暢さを改善する方法であって、
コンピュータによって、部分的に編集された少なくとも1つの教育用文字列を提供する段階であって、前記部分的に編集された少なくとも1つの教育用文字列は、前記部分的に編集された少なくとも1つの教育用文字列が前記ユーザに提示される場合に前記部分的に編集された少なくとも1つの教育用文字列から編集された1つまたは複数の編集部分を含む、段階と、
前記コンピュータによって、前記1つまたは複数の編集部分を構成する単語の評価に関する前記ユーザの発話に対応する1つまたは複数の対象文字列に関する前記ユーザの発話を含む前記部分的に編集された少なくとも1つの教育用文字列に関する前記ユーザの発話に対応する教育用文字列音声サンプルデータを受信する段階と、
前記コンピュータによって、前記1つまたは複数の編集部分を含む前記教育用文字列音声サンプルデータの1つまたは複数の個々の言語構成要素を分析する段階であって、
前記コンピュータによって、前記教育用文字列音声サンプルデータを少なくとも1つの個々の言語構成要素に分離する段階であって、前記少なくとも1つの個々の言語構成要素が、音素、音節、二重母音または二重音字を含む音声単位のうちの1つまたは複数を含む、段階と、
前記コンピュータによって、前記少なくとも1つの個々の言語構成要素の1つまたは複数の発音特性を測定する段階であって、前記1つまたは複数の発音特性がピッチ、イントネーション、周波数、強勢およびアクセントのうちの1つまたは複数を含む、段階と、
前記コンピュータによって、前記部分的に編集された少なくとも1つの教育用文字列のベースラインの個々の言語構成要素の対応する1つまたは複数の発音特性と前記測定された1つまたは複数の発音特性との比較を通じて、前記教育用文字列音声サンプルデータを分析し、個々の言語構成要素のそれぞれに対する品質スコアを生成する段階と、
前記コンピュータによって、前記1つまたは複数の対象文字列の前記個々の言語構成要素の前記1つまたは複数の発音特性を少なくともさらに測定することにより、前記ユーザによる発音の正確さに関して前記1つまたは複数の対象文字列と前記1つまたは複数の編集部分との間の変化を判定する段階と
を有する段階と、
前記コンピュータによって、前記1つまたは複数の対象文字列と前記1つまたは複数の編集部分との間の判定された前記変化に少なくとも部分的に基づいて、前記教育用文字列音声サンプルデータの品質測定値を提供する段階と、
を備える方法。 - ユーザの言語の流暢さを改善する方法であって、
コンピュータによって、少なくとも1つのオプション選択教育用セットを提供する段階であって、前記少なくとも1つのオプション選択教育用セットは、2つ以上の関連オプション選択教育用文字列のセットを含み、前記2つ以上の関連オプション選択教育用文字列のセットの優先オプション選択教育用文字列は、2つ以上の関連オプション選択教育用文字列のセットの他のオプション選択教育用文字列よりも正確な教育用文字列である、段階と、
前記コンピュータによって、前記2つ以上の関連オプション選択教育用文字列のセットから、ユーザが選択した教育用文字列に関するユーザの発話に対応する教育用文字列音声サンプルデータを受信する段階と、
前記コンピュータによって、前記教育用文字列音声サンプルデータの1つまたは複数の個々の言語構成要素を分析する段階であって、
前記コンピュータによって、ベースラインの個々の言語構成要素の対応する1つまたは複数の発音特性に対して前記教育用文字列音声サンプルデータの少なくとも1つの個々の言語構成要素の1つまたは複数の発音特性を測定する段階であって、前記少なくとも1つの個々の言語構成要素が、音素、音節、二重母音または二重音字を含む音声単位のうちの1つまたは複数を含み、前記1つまたは複数の発音特性がピッチ、イントネーション、周波数、強勢およびアクセントのうちの1つまたは複数を含む、段階と、
前記コンピュータによって、前記ユーザが選択した教育用文字列が前記優先オプション選択教育用文字列と一致するかどうかを判定し、前記ユーザが選択した教育用文字列の前記個々の言語構成要素の前記1つまたは複数の発音特性をさらに測定する段階と
を有する、段階と、
前記コンピュータによって、測定された前記1つまたは複数の発音特性と、前記ユーザが選択した教育用文字列と前記優先オプション選択教育用文字列との間の判定された前記一致とに少なくとも部分的に基づいて、前記教育用文字列音声サンプルデータの品質測定値を提供する段階であって、前記品質測定値は、前記ユーザが前記教育用文字列をどの程度正確に発音したかを示す、段階と
を備える方法。 - ユーザの言語の流暢さを改善する方法であって、
コンピュータによって、プロンプト文字列に応答する対応するベースライン応答文字列が存在する、前記プロンプト文字列を、聴覚的に、視覚的に、またはそれらの組み合わせで提供する段階と、
前記コンピュータによって、前記プロンプト文字列に対する前記ユーザの応答文字列に対応する教育用文字列音声サンプルデータを受信する段階と、
前記コンピュータによって、前記教育用文字列音声サンプルデータの1つまたは複数の個々の言語構成要素を分析する段階であって、
前記コンピュータによって、前記教育用文字列音声サンプルデータを少なくとも1つの個々の言語構成要素に分離する段階であって、前記少なくとも1つの個々の言語構成要素が、音素、音節、二重母音または二重音字を含む音声単位のうちの1つまたは複数を含む、段階と、
前記コンピュータによって、前記少なくとも1つの個々言語構成要素の1つまたは複数の発音特性を測定する段階であって、前記1つまたは複数の発音特性がピッチ、イントネーション、周波数、強勢およびアクセントのうちの1つまたは複数を含む、段階と、
前記コンピュータによって、前記ユーザの発話を認識することなく、前記ベースライン応答文字列の複数のベースラインの個々の言語構成要素のうちの対応する1つまたは複数の個々の言語構成要素の対応する1つまたは複数の発音特性と前記測定された前記応答文字列の少なくとも1つの個々の言語構成要素の1つまたは複数の発音特性とを比較する段階と、
前記コンピュータによって、前記応答文字列が前記プロンプト文字列に応答するかどうかを判定する段階と
を有する段階と、
前記コンピュータによって、測定された前記応答文字列の前記1つまたは複数の発音特性と、前記プロンプト文字列に対する前記応答文字列の前記判定された応答性とに少なくとも部分的に基づいて、前記教育用文字列音声サンプルデータの品質測定値を提供する段階と、
を備える方法。 - 1つまたは複数の発話言語スキルを教育および/または評価するように構成された装置であって、前記装置は、
装置入力構成要素および装置出力構成要素のうちの1つまたは複数を有する装置インタフェース構成要素と、
メモリと、
前記メモリに操作可能に結合され、前記装置インタフェース構成要素との間でデータをやり取りするように構成されたプロセッサと
を備え、前記プロセッサは、
ユーザが読む1つまたは複数の教育用文字列を実装するように構成された教育用文字列提供回路と、
前記1つまたは複数の教育用文字列に関する前記ユーザの発話に対応する教育用文字列音声サンプルデータを、前記ユーザから前記装置入力構成要素を介して受信するように構成された教育用文字列音声サンプルデータ受信回路と、
個々の言語構成要素の分析回路であって、
前記教育用文字列音声サンプルデータを少なくとも1つの個々の言語構成要素に分離し、前記少なくとも1つの個々の言語構成要素が、音素、音節、二重母音または二重音字を含む音声単位のうちの1つまたは複数を含み、
前記少なくとも1つの個々言語構成要素の1つまたは複数の発音特性を測定し、前記1つまたは複数の発音特性がピッチ、イントネーション、周波数、強勢およびアクセントのうちの1つまたは複数を含み、
ベースラインの個々の言語構成要素の対応する1つまたは複数の発音特性と前記測定された個々の言語構成要素のそれぞれの1つまたは複数の発音特性との比較を通じて、前記教育用文字列音声サンプルデータを分析し、個々の言語構成要素のそれぞれに対する品質スコアを生成するように構成され、前記ベースラインの個々の言語構成要素は、複数のソースから取得された複数の言語構成要素を機械学習技術で修正することによって生成される、個々の言語構成要素分析回路と、
前記装置出力構成要素上で前記ユーザに評価提示を提供するように構成された評価提示提供回路と、
を含むように構成された1つまたは複数の回路を有し、前記評価提示は、前記1つまたは複数の個々の言語構成要素の各々について、分析された前記教育用文字列音声サンプルデータの前記1つまたは複数の個々の言語構成要素に基づく、前記1つまたは複数の教育用文字列が前記ユーザによってどの程度正確に発音されたかについての前記教育用文字列音声サンプルデータの評価を含む装置。 - 1つまたは複数の発話言語スキルを教育および/または評価する方法であって、
コンピュータによって、ユーザが読むように構成された少なくとも1つの教育用文字列を提供する段階と、
前記コンピュータによって、前記少なくとも1つの教育用文字列に関する前記ユーザの発話に対応する教育用文字列音声サンプルデータを受信する段階と、
前記コンピュータによって、前記教育用文字列音声サンプルデータの1つまたは複数の個々の言語構成要素を分析する段階であって、
前記コンピュータによって、前記教育用文字列音声サンプルデータを少なくとも1つの個々の言語構成要素に分離する段階であって、前記少なくとも1つの個々の言語構成要素が、音素、音節、二重母音または二重音字を含む音声単位のうちの1つまたは複数を含む、段階と、
前記コンピュータによって、前記少なくとも1つの個々言語構成要素の1つまたは複数の発音特性を測定する段階であって、前記1つまたは複数の発音特性がピッチ、イントネーション、周波数、強勢およびアクセントのうちの1つまたは複数を含む、段階と、
前記コンピュータによって、ベースラインの個々の言語構成要素の対応する1つまたは複数の発音特性と前記測定された個々の言語構成要素のそれぞれの1つまたは複数の発音特性とを比較して個々の言語構成要素のそれぞれに対する品質スコアを生成する段階であって、前記ベースラインの個々の言語構成要素は、複数のソースから取得された複数の言語構成要素を機械学習技術で修正することによって生成される、段階と
を有する、段階と、
前記コンピュータによって、前記ユーザに評価提示を提供する段階であって、前記評価提示は、分析された前記1つまたは複数の個々の言語構成要素の前記1つまたは複数の発音特性に基づく、前記1つまたは複数の前教育用文字列が前記ユーザによってどの程度正確に発音されたかについての前記教育用文字列音声サンプルデータの評価の前記ユーザへの提示を含む、段階と
を備える方法。 - ユーザの言語の流暢さを改善する方法であって、
コンピュータによって、プロンプト文字列に応答する対応するベースライン応答文字列が存在する、前記プロンプト文字列を、聴覚的に、視覚的に、またはそれらの組み合わせで提供する段階と、
前記コンピュータによって、前記プロンプト文字列に対する前記ユーザの応答文字列に対応する教育用文字列音声サンプルデータを受信する段階と、
前記コンピュータによって、前記教育用文字列音声サンプルデータの1つまたは複数の個々の言語構成要素を分析する段階であって、
前記コンピュータによって、前記教育用文字列音声サンプルデータを少なくとも1つの個々の言語構成要素に分離する段階であって、前記少なくとも1つの個々の言語構成要素が、音素、音節、二重母音または二重音字を含む音声単位のうちの1つまたは複数を含む、段階と、
前記コンピュータによって、前記少なくとも1つの個々言語構成要素の1つまたは複数の発音特性を測定する段階であって、前記1つまたは複数の発音特性がピッチ、イントネーション、周波数、強勢およびアクセントのうちの1つまたは複数を含む、段階と、
前記コンピュータによって、前記ベースライン応答文字列の対応する個々の言語構成要素の対応する1つまたは複数の発音特性と前記測定された前記応答文字列の少なくとも1つの個々の言語構成要素の1つまたは複数の発音特性とを比較する段階であって、前記ベースライン応答文字列の前記個々の言語構成要素は、複数のソースから取得された複数の言語構成要素を機械学習技術で修正することによって生成される、段階と、
前記コンピュータによって、前記応答文字列が前記プロンプト文字列に応答するかどうかを判定する段階と
を有する段階と、
前記コンピュータによって、測定された前記応答文字列の前記1つまたは複数の発音特性と、前記プロンプト文字列に対する前記応答文字列の前記判定された応答性とに少なくとも部分的に基づいて、前記教育用文字列音声サンプルデータの品質測定値を提供する段階と、
を備える方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022168065A JP7521869B2 (ja) | 2017-03-25 | 2022-10-20 | 人間の発話のきめ細かな評価による発話言語スキルの教育および評価 |
JP2024110607A JP2024170388A (ja) | 2017-03-25 | 2024-07-09 | 人間の発話のきめ細かな評価による発話言語スキルの教育および評価 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762476733P | 2017-03-25 | 2017-03-25 | |
US62/476,733 | 2017-03-25 | ||
PCT/US2017/034065 WO2018182763A1 (en) | 2017-03-25 | 2017-05-23 | Teaching and assessment of spoken language skills through fine-grained evaluation of human speech |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022168065A Division JP7521869B2 (ja) | 2017-03-25 | 2022-10-20 | 人間の発話のきめ細かな評価による発話言語スキルの教育および評価 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020515915A JP2020515915A (ja) | 2020-05-28 |
JP7164590B2 true JP7164590B2 (ja) | 2022-11-01 |
Family
ID=63676591
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020500776A Active JP7164590B2 (ja) | 2017-03-25 | 2017-05-23 | 人間の発話のきめ細かな評価による発話言語スキルの教育および評価 |
JP2022168065A Active JP7521869B2 (ja) | 2017-03-25 | 2022-10-20 | 人間の発話のきめ細かな評価による発話言語スキルの教育および評価 |
JP2024110607A Pending JP2024170388A (ja) | 2017-03-25 | 2024-07-09 | 人間の発話のきめ細かな評価による発話言語スキルの教育および評価 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022168065A Active JP7521869B2 (ja) | 2017-03-25 | 2022-10-20 | 人間の発話のきめ細かな評価による発話言語スキルの教育および評価 |
JP2024110607A Pending JP2024170388A (ja) | 2017-03-25 | 2024-07-09 | 人間の発話のきめ細かな評価による発話言語スキルの教育および評価 |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP3602327A4 (ja) |
JP (3) | JP7164590B2 (ja) |
CN (1) | CN110603536A (ja) |
WO (1) | WO2018182763A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111640447B (zh) * | 2020-05-26 | 2023-03-21 | 广东小天才科技有限公司 | 一种降低音频信号噪音的方法及终端设备 |
DK202070869A1 (en) | 2020-12-22 | 2022-06-24 | Gn Audio As | Voice coaching system and related methods |
CN114694450B (zh) * | 2020-12-25 | 2024-06-25 | 博泰车联网科技(上海)股份有限公司 | 一种汽车使用的教学方法 |
CN116523371B (zh) * | 2023-03-23 | 2024-09-03 | 华南师范大学 | 教学语言规范水平分析方法、系统、装置及介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070048697A1 (en) | 2005-05-27 | 2007-03-01 | Du Ping Robert | Interactive language learning techniques |
JP2010169973A (ja) | 2009-01-23 | 2010-08-05 | Hitachi Ltd | 外国語学習支援システム、及びプログラム |
US20120322035A1 (en) | 2004-11-22 | 2012-12-20 | Luc Julia | System and method for assisting language learning |
US20140272820A1 (en) | 2013-03-15 | 2014-09-18 | Media Mouth Inc. | Language learning environment |
US20150248398A1 (en) | 2014-02-28 | 2015-09-03 | Choosito! Inc. | Adaptive reading level assessment for personalized search |
US20160055763A1 (en) | 2014-08-25 | 2016-02-25 | Casio Computer Co., Ltd. | Electronic apparatus, pronunciation learning support method, and program storage medium |
US20160351074A1 (en) | 2004-09-16 | 2016-12-01 | Lena Foundation | Systems and methods for expressive language, developmental disorder, and emotion assessment, and contextual feedback |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001051580A (ja) | 1999-08-06 | 2001-02-23 | Nyuuton:Kk | 音声学習装置 |
JP2003228279A (ja) * | 2002-01-31 | 2003-08-15 | Heigen In | 音声認識を用いた語学学習装置、語学学習方法及びその格納媒体 |
JP2004252115A (ja) * | 2003-02-19 | 2004-09-09 | Brain Bank Kk | 学習進度管理システムおよびそのコンピュータプログラム |
CN101551947A (zh) * | 2008-06-11 | 2009-10-07 | 俞凯 | 辅助口语语言学习的计算机系统 |
US20130059276A1 (en) * | 2011-09-01 | 2013-03-07 | Speechfx, Inc. | Systems and methods for language learning |
KR101283271B1 (ko) * | 2011-10-21 | 2013-07-11 | 포항공과대학교 산학협력단 | 어학 학습 장치 및 어학 학습 방법 |
US8784108B2 (en) * | 2011-11-21 | 2014-07-22 | Age Of Learning, Inc. | Computer-based language immersion teaching for young learners |
JP5756555B1 (ja) * | 2014-11-07 | 2015-07-29 | パナソニック株式会社 | 発話評価装置、発話評価方法及びプログラム |
US9336268B1 (en) * | 2015-04-08 | 2016-05-10 | Pearson Education, Inc. | Relativistic sentiment analyzer |
-
2017
- 2017-05-23 WO PCT/US2017/034065 patent/WO2018182763A1/en active Application Filing
- 2017-05-23 EP EP17903086.1A patent/EP3602327A4/en active Pending
- 2017-05-23 CN CN201780090468.6A patent/CN110603536A/zh active Pending
- 2017-05-23 JP JP2020500776A patent/JP7164590B2/ja active Active
-
2022
- 2022-10-20 JP JP2022168065A patent/JP7521869B2/ja active Active
-
2024
- 2024-07-09 JP JP2024110607A patent/JP2024170388A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160351074A1 (en) | 2004-09-16 | 2016-12-01 | Lena Foundation | Systems and methods for expressive language, developmental disorder, and emotion assessment, and contextual feedback |
US20120322035A1 (en) | 2004-11-22 | 2012-12-20 | Luc Julia | System and method for assisting language learning |
US20070048697A1 (en) | 2005-05-27 | 2007-03-01 | Du Ping Robert | Interactive language learning techniques |
JP2010169973A (ja) | 2009-01-23 | 2010-08-05 | Hitachi Ltd | 外国語学習支援システム、及びプログラム |
US20140272820A1 (en) | 2013-03-15 | 2014-09-18 | Media Mouth Inc. | Language learning environment |
US20150248398A1 (en) | 2014-02-28 | 2015-09-03 | Choosito! Inc. | Adaptive reading level assessment for personalized search |
US20160055763A1 (en) | 2014-08-25 | 2016-02-25 | Casio Computer Co., Ltd. | Electronic apparatus, pronunciation learning support method, and program storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP2023015086A (ja) | 2023-01-31 |
EP3602327A1 (en) | 2020-02-05 |
JP2024170388A (ja) | 2024-12-10 |
EP3602327A4 (en) | 2020-11-25 |
JP2020515915A (ja) | 2020-05-28 |
JP7521869B2 (ja) | 2024-07-24 |
WO2018182763A1 (en) | 2018-10-04 |
CN110603536A (zh) | 2019-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11170663B2 (en) | Teaching and assessment of spoken language skills through fine-grained evaluation | |
US11527174B2 (en) | System to evaluate dimensions of pronunciation quality | |
JP7521869B2 (ja) | 人間の発話のきめ細かな評価による発話言語スキルの教育および評価 | |
KR102321194B1 (ko) | 언어-관련 장애들의 진단 및 치료를 위한 컴퓨팅 기술들 | |
US20150235567A1 (en) | Language phoneme practice engine | |
US11210964B2 (en) | Learning tool and method | |
Cucchiarini et al. | Second language learners’ spoken discourse: Practice and corrective feedback through automatic speech recognition | |
Hamidi et al. | Automatic Speech Recognition: A Shifted Role in Early Speech Intervention? | |
Strik et al. | Speech technology for language tutoring | |
Ross et al. | Speaking with your computer: A new way to practice and analyze conversation | |
Ilhan et al. | HAPOVER: A Haptic Pronunciation Improver Device | |
US20130149680A1 (en) | Methods and systems for teaching a non-native language | |
Kim et al. | VUI development for Korean people with dysarthria | |
Jo et al. | Effective computer‐assisted pronunciation training based on phone‐sensitive word recommendation | |
Xue | Application of entertainment interactive robot based on speech recognition in English artificial intelligence teaching evaluation and automatic feedback | |
Wagner | Programming by voice: A hands-free approach for motorically challenged children | |
Ramlan et al. | Reading Assistive Tool (ReaDys) for Dyslexic Children: Speech Recognition Performance | |
JP7060857B2 (ja) | 語学習得装置及び語学習得プログラム | |
FARDAHNI | DEVELOPING READING ERROR DETECTOR (RED) ON ANDROID OPERATING SYSTEM | |
KR20180061824A (ko) | 난독증 진단 및 학습 서비스 제공 방법 및 이를 수행하는 장치 | |
MAMAT et al. | TRANSFORMING SPEECH THERAPY FOR CHILDREN WITH AUTISM THROUGH A VIRTUAL APPLIED BEHAVIOR ANALYSIS APPROACH | |
Rachmawati et al. | Takallam: An Android Application to Enhance Literacy of Arabic Expression | |
KR20220047734A (ko) | 언어 학습 콘텐츠의 캐릭터를 교육하기 위한 사용자 인터페이스 제공 장치 및 방법 | |
Cucchiarini et al. | Becoming literate while learning a second language. Practicing reading aloud | |
Strik et al. | Language resources and CALL applications: speech data and speech technology in the DISCO project |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210615 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210903 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220104 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220524 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220920 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221020 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7164590 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |