JP2021152963A - 語義特徴の生成方法、モデルトレーニング方法、装置、機器、媒体及びプログラム - Google Patents
語義特徴の生成方法、モデルトレーニング方法、装置、機器、媒体及びプログラム Download PDFInfo
- Publication number
- JP2021152963A JP2021152963A JP2021104325A JP2021104325A JP2021152963A JP 2021152963 A JP2021152963 A JP 2021152963A JP 2021104325 A JP2021104325 A JP 2021104325A JP 2021104325 A JP2021104325 A JP 2021104325A JP 2021152963 A JP2021152963 A JP 2021152963A
- Authority
- JP
- Japan
- Prior art keywords
- training
- document
- segment
- coding module
- coding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 347
- 238000000034 method Methods 0.000 title claims abstract description 92
- 230000002457 bidirectional effect Effects 0.000 claims description 140
- 230000006870 function Effects 0.000 claims description 62
- 230000000873 masking effect Effects 0.000 claims description 47
- 238000004590 computer program Methods 0.000 claims description 10
- 238000010276 construction Methods 0.000 claims description 7
- 238000001514 detection method Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 21
- 230000000875 corresponding effect Effects 0.000 description 12
- 230000007246 mechanism Effects 0.000 description 12
- 230000000694 effects Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 238000003058 natural language processing Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002596 correlated effect Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 102100035353 Cyclin-dependent kinase 2-associated protein 1 Human genes 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
Description
目標ドキュメントをセグメント区切りすることで、目標ドキュメントのセグメントシーケンスを取得することと、
予めトレーニングされた双方向語義符号化モデルで、前記目標ドキュメントのセグメントシーケンス中の各ドキュメントセグメントの語義特徴を生成することと、
前記目標ドキュメントのセグメントシーケンス中の各前記ドキュメントセグメントの語義特徴に基づいて、前記目標ドキュメントの語義特徴を取得することとを含む、語義特徴の生成方法を提供している。
トレーニングデータセットを採集することと、
採集した前記トレーニングデータセットに基づいて、左符号化モジュールと右符号化モジュールとを含む双方向語義符号化モデルをトレーニングすることとを含む、双方向語義符号化モデルのトレーニング方法を提供している。
目標ドキュメントをセグメント区切りすることで、目標ドキュメントのセグメントシーケンスを取得するための区切りモジュールと、
予めトレーニングされた双方向語義符号化モデルで、前記目標ドキュメントのセグメントシーケンス中の各ドキュメントセグメントの語義特徴を生成するための生成モジュールと、
前記目標ドキュメントのセグメントシーケンス中の各前記ドキュメントセグメントの語義特徴に基づいて、前記目標ドキュメントの語義特徴を取得するための取得モジュールとを含む、語義特徴の生成装置を提供している。
トレーニングデータセットを採集するための採集モジュールと、
採集した前記トレーニングデータセットに基づいて、左符号化モジュールと右符号化モジュールとを含む双方向語義符号化モデルをトレーニングするためのトレーニングモジュールとを含む、双方向語義符号化モデルのトレーニング装置を提供している。
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されるメモリと、を含んでおり、
前記メモリには前記少なくとも1つのプロセッサに実行されるコマンドを記憶しており、
前記コマンドが前記少なくとも1つのプロセッサに実行されることで、前記少なくとも1つのプロセッサは上記の方法を実行可能となる、電子機器を提供している。
目標ドキュメントをセグメント区切りして、目標ドキュメントのセグメントシーケンスを取得するための区切りモジュール1201と、
予めトレーニングされた双方向語義符号化モデルで、目標ドキュメントのセグメントシーケンスにおける各ドキュメントセグメントの語義特徴を生成するための生成モジュール1202と、
目標ドキュメントのセグメントシーケンス中の各ドキュメントセグメントの語義特徴に基づいて、目標ドキュメントの語義特徴を取得するための取得モジュール1203と、を含む語義特徴の生成装置1200を提供している。
双方向語義符号化モデル中の左符号化モジュールで、目標ドキュメントのセグメントシーケンスにおける各ドキュメントセグメントの左符号化特徴を取得するための第1符号化手段12021と、
双方向語義符号化モデル中の右符号化モジュールで、目標ドキュメントのセグメントシーケンスにおける各ドキュメントセグメントの右符号化特徴を取得するための第2符号化手段12022と、
目標ドキュメントのセグメントシーケンス中の各ドキュメントセグメントについて、対応のドキュメントセグメントの左符号化特徴と対応のドキュメントセグメントの右符号化特徴とをスプライシングして、対応のドキュメントセグメントの語義特徴を取得するためのスプライシング手段12023とを含んでいる。
目標ドキュメントのセグメントシーケンス中の各ドキュメントセグメントの語義特徴に基づいて、マッチ待ちのサーチワードの語義特徴を参照して、目標ドキュメントの語義特徴を取得するために用いられる。
目標ドキュメントのセグメントシーケンス中の各ドキュメントセグメントの語義特徴とマッチ待ちのサーチワードの語義特徴との類似度を算出するための算出手段12031と、
各ドキュメントセグメントの語義特徴とマッチ待ちのサーチワードの語義特徴との類似度に基づいて、目標ドキュメントの語義特徴として、マッチ待ちのサーチワードの語義特徴との類似度が最も大きいドキュメントセグメントの語義特徴を取得するための取得手段12032と、を含んでいる。
トレーニングデータセットを採集するための採集モジュール1401と、
採集したトレーニングデータセットに基づいて、左符号化モジュール及び右符号化モジュールを含む双方向語義符号化モデルをトレーニングするためのトレーニングモジュール1402と、を含む双方向語義符号化モデルのトレーニング装置1400を提供している。
採集した第1トレーニングデータセット中の数条のトレーニングコーパスに基づいて、双方向語義符号化モデル中の左符号化モジュール及び右符号化モジュールをマスキングトレーニングすることで、左符号化モジュール及び右符号化モジュールにマスキング文字の予測能力を学習させるために用いられる。
採集した第1トレーニングデータセット中の数条のトレーニングコーパスに基づいて、それぞれ双方向語義符号化モデル中の左符号化モジュール及び右符号化モジュールをマスキングトレーニングする、或いは
採集した第1トレーニングデータセット中の数条のトレーニングコーパスに基づいて、双方向語義符号化モデル中の左符号化モジュールや右符号化モジュールをマスキングトレーニングし、マスキングトレーニング後の左符号化モジュールや右符号化モジュールのパラメータが、マスキングトレーニングされない右符号化モジュールや左符号化モジュールに共有化されるために用いられる。
各トレーニングコーパスに対して、トレーニングコーパスをマスキングしてセグメント区切りし、トレーニングコーパスセグメントシーケンスを取得するための前処理手段14021と、
トレーニングコーパスセグメントシーケンス中の各トレーニングコーパスセグメントが、左から右への順に、左符号化モジュールに順次に入力されるための入力手段14022と、
左符号化モジュールが入力された各トレーニングセグメントに基づいて符号化して、符号化後の特徴に基づいて復号化してから、各トレーニングセグメント中のマスキング後の文字を予測して取得するための予測手段14023と、
各トレーニングセグメント中の本当にマスキングした文字及び左符号化モジュールの予測のマスキングした文字に基づいて、第1ロース関数を構築するための第1構築手段14024と、
第1ロース関数が収束するか否かを検出するための第1検出手段14025と、
第1ロース関数が収束しない時に、第1ロース関数が収束する傾向になるように、左符号化モジュールのパラメータを調整するための第1調整手段14026と、を含んでいる。
数組のサンプル対を含む第2トレーニングデータセットを採集するために用いられ、各組のサンプル対には正サンプル対と負サンプル対とを含んでおり、正サンプル対と負サンプル対には共通のトレーニングサーチワードを含んでおり、正サンプル対には正サンプルドキュメントをさらに含む一方、負サンプル対には負サンプルドキュメントをさらに含んでいる。
採集した第2トレーニングデータセット中の数組のサンプル対に基づいて、双方向語義符号化モデル中の左符号化モジュール及び右符号化モジュールを語義マッチジョブのトレーニングし、双方向語義符号化モデルに語義マッチの能力を学習させる、ために用いられる。
各組のサンプル対中のトレーニングサーチワードに基づいて、左符号化モジュール及び右符号化モジュールを含む双方向語義符号化モデルで、トレーニングサーチワードの語義特徴を取得するための第1特徴取得手段1402aと、
各組のサンプル対中の正サンプルドキュメントに基づいて、左符号化モジュール及び右符号化モジュールを含む双方向語義符号化モデルで、正サンプルドキュメントの語義特徴を取得するための第2特徴取得手段1402bと、
各組のサンプル対中の負サンプルドキュメントに基づいて、左符号化モジュール及び右符号化モジュールを含む双方向語義符号化モデルで、負サンプルドキュメントの語義特徴を取得するための第3特徴取得手段1402cと、
トレーニングサーチワードの語義特徴と正サンプルドキュメントの語義特徴との第1語義類似度、及びトレーニングサーチワードの語義特徴と負サンプルドキュメントの語義特徴との第2語義類似度に基づいて、第3ロース関数を構築するための第2構築手段1402dと、
第3ロース関数が収束するか否かを検出するための第2検出手段1402eと、
第3ロース関数が収束しなければ、第3ロース関数が収束する傾向になるように、双方向語義符号化モデル中の左符号化モジュール及び右符号化モジュールのパラメータを調整するための第2調整手段1402fと、をさらに含んでいる。
左符号化モジュールのトレーニングサーチワードを符号化することで得られたトレーニングサーチワードの左符号化特徴を取得し、
右符号化モジュールのトレーニングサーチワードを符号化することで得られたトレーニングサーチワードの右符号化特徴を取得し、
トレーニングサーチワードの左符号化特徴とトレーニングサーチワードの右符号化特徴とをスプライシングして、トレーニングサーチワードの語義特徴を取得するために用いられる。
各組のサンプル対中の正サンプルドキュメントに基づいて、正サンプルドキュメントをセグメント区切りして、正サンプルドキュメントセグメントシーケンスを取得し、
正サンプルドキュメントセグメントシーケンス中の各正サンプルドキュメントセグメントが、左から右への順に、左符号化モジュールに順次に入力され、左符号化モジュールの入力に基づく各正サンプルドキュメントセグメントを取得して、各正サンプルドキュメントセグメントの左符号化特徴を取得し、
正サンプルドキュメントセグメントシーケンス中の各正サンプルドキュメントセグメントが、右から左への順に、右符号化モジュールに順次に入力され、右符号化モジュールの入力に基づく各正サンプルドキュメントセグメントを取得して、各正サンプルドキュメントセグメントの右符号化特徴を取得し、
正サンプルドキュメント中の各正サンプルドキュメントセグメントについて、正サンプルドキュメントセグメントの左符号化特徴と正サンプルドキュメントセグメントの右符号化特徴とをスプライシングして、正サンプルドキュメントセグメントの語義特徴を取得し、
正サンプルドキュメント中の各正サンプルドキュメントセグメントの語義特徴及びトレーニングサーチワードの語義特徴に基づいて、正サンプルドキュメントの語義特徴として、トレーニングサーチワードの語義特徴との類似度が最も大きい正サンプルドキュメントセグメントの語義特徴を取得する、ために用いられる。
各組のサンプル対中の負サンプルドキュメントに基づいて、負サンプルドキュメントをセグメント区切りして、負サンプルドキュメントセグメントシーケンスを取得し、
負サンプルドキュメントセグメントシーケンス中の各負サンプルドキュメントセグメントが、左から右への順に、左符号化モジュールに順次に入力され、左符号化モジュールの入力に基づく各負サンプルドキュメントセグメントを取得して、各負サンプルドキュメントセグメントの左符号化特徴を取得し、
負サンプルドキュメントセグメントシーケンス中の各負サンプルドキュメントセグメントが、右から左への順に、右符号化モジュールに順次に入力され、右符号化モジュールの入力に基づく各負サンプルドキュメントセグメントを取得して、各負サンプルドキュメントセグメントの右符号化特徴を取得し、
負サンプルドキュメント中の各負サンプルドキュメントセグメントについて、負サンプルドキュメントセグメントの左符号化特徴と正サンプルドキュメントセグメントの右符号化特徴とをスプライシングして、負サンプルドキュメントセグメントの語義特徴を取得し、
負サンプルドキュメント中の各負サンプルドキュメントセグメントの語義特徴及びトレーニングサーチワードの語義特徴に基づいて、負サンプルドキュメントの語義特徴として、トレーニングサーチワードの語義特徴との類似度が最も大きい負サンプルドキュメントセグメントの語義特徴を取得するために用いられる。
Claims (35)
- 目標ドキュメントをセグメント区切りすることで、目標ドキュメントのセグメントシーケンスを取得することと、
予めトレーニングされた双方向語義符号化モデルで、前記目標ドキュメントのセグメントシーケンス中の各ドキュメントセグメントの語義特徴を生成することと、
前記目標ドキュメントのセグメントシーケンス中の各前記ドキュメントセグメントの語義特徴に基づいて、前記目標ドキュメントの語義特徴を取得することとを含む、
語義特徴の生成方法。 - 予めトレーニングされた双方向語義符号化モデルで、前記目標ドキュメントのセグメントシーケンス中の各ドキュメントセグメントの語義特徴を生成することは、
前記双方向語義符号化モデル中の左符号化モジュールで、前記目標ドキュメントのセグメントシーケンス中の各ドキュメントセグメントの左符号化特徴を取得することと、
前記双方向語義符号化モデル中の右符号化モジュールで、前記目標ドキュメントのセグメントシーケンス中の各ドキュメントセグメントの右符号化特徴を取得することと、
前記目標ドキュメントのセグメントシーケンス中の各前記ドキュメントセグメントに対して、対応の前記ドキュメントセグメントの左符号化特徴と対応の前記ドキュメントセグメントの右符号化特徴をスプライシングして、対応の前記ドキュメントセグメントの語義特徴を取得することと、を備えている、
請求項1に記載の方法。 - 前記目標ドキュメントのセグメントシーケンス中の各前記ドキュメントセグメントの語義特徴に基づいて、前記目標ドキュメントの語義特徴を取得することは、
前記目標ドキュメントのセグメントシーケンス中の各前記ドキュメントセグメントの語義特徴に基づいて、マッチ待ちのサーチワードの語義特徴を参照して、前記目標ドキュメントの語義特徴を取得することを備えている、
請求項1又は2に記載の方法。 - 前記目標ドキュメントのセグメントシーケンス中の各ドキュメントセグメントの語義特徴に基づいて、マッチ待ちのサーチワードの語義特徴を参照して、前記目標ドキュメントの語義特徴を取得することは、
前記目標ドキュメントのセグメントシーケンス中の各前記ドキュメントセグメントの語義特徴と前記マッチ待ちのサーチワードの語義特徴との類似度を算出することと、
各前記ドキュメントセグメントの語義特徴と前記マッチ待ちのサーチワードの語義特徴との類似度に基づいて、前記目標ドキュメントの語義特徴として、前記マッチ待ちのサーチワードの語義特徴との類似度が最も大きい前記ドキュメントセグメントの語義特徴を取得することとを備えている、
請求項3に記載の方法。 - トレーニングデータセットを採集することと、
採集した前記トレーニングデータセットに基づいて、左符号化モジュールと右符号化モジュールとを含む双方向語義符号化モデルをトレーニングすることとを含んでいる、
双方向語義符号化モデルのトレーニング方法。 - トレーニングデータセットを採集することは、
数条のトレーニングコーパスを含む第1トレーニングデータセットを採集することを含んでいる、
請求項5に記載の方法。 - 採集した前記トレーニングデータセットに基づいて、左符号化モジュールと右符号化モジュールとを含む双方向語義符号化モデルをトレーニングすることは、
採集した前記第1トレーニングデータセット中の数条のトレーニングコーパスに基づいて、前記双方向語義符号化モデル中の前記左符号化モジュール及び前記右符号化モジュールがマスキング文字を予測する能力を学習するように、前記左符号化モジュール及び前記右符号化モジュールをマスキングトレーニングすることを含んでいる、
請求項6に記載の方法。 - 採集の前記第1トレーニングデータセット中の数条のトレーニングコーパスに基づいて、前記双方向語義符号化モデル中の前記左符号化モジュール及び前記右符号化モジュールをマスキングトレーニングすることは、
採集した前記第1トレーニングデータセット中の数条のトレーニングコーパスに基づいて、それぞれ前記双方向語義符号化モデル中の前記左符号化モジュール及び前記右符号化モジュールをマスキングトレーニングすること、或いは
採集した前記第1トレーニングデータセット中の数条のトレーニングコーパスに基づいて、前記双方向語義符号化モデル中の前記左符号化モジュール或いは前記右符号化モジュールをマスキングトレーニングし、マスキングトレーニング後の前記左符号化モジュール或いは前記右符号化モジュールのパラメータが、マスキングトレーニングされない前記右符号化モジュール或いは前記左符号化モジュールに共有化されていることを含んでいる、
請求項7に記載の方法。 - 採集した前記第1トレーニングデータセット中の数条のトレーニングコーパスに基づいて、前記双方向語義符号化モデル中の前記左符号化モジュールをマスキングトレーニングすることは、
各前記トレーニングコーパスについて、前記トレーニングコーパスをマスキング化するとともに、セグメント区切りし、トレーニングコーパスセグメントシーケンスを取得することと、
前記トレーニングコーパスセグメントシーケンス中の各トレーニングコーパスセグメントを、左から右の順に、前記左符号化モジュールへ順次に入力されることと、
前記左符号化モジュールが入力された各前記トレーニングセグメントに基づいて符号化し、符号化された特徴に基づいて復号化してから、各前記トレーニングセグメントにマスキング化した文字を予測して取得することと、
各前記トレーニングセグメント中の本当にマスキングした文字及び前記左符号化モジュールの予測したマスキング文字に基づいて、第1ロース関数を構築することと、
前記第1ロース関数が収束するか否かを検出することと、
前記第1ロース関数が収束しないときに、前記第1ロース関数が収束する傾向になるように、前記左符号化モジュールのパラメータを調整することと、を備えている、
請求項8に記載の方法。 - 採集した前記第1トレーニングデータセット中の数条のトレーニングコーパスに基づいて、前記双方向語義符号化モデル中の前記右符号化モジュールをマスキングトレーニングすることは、
各前記トレーニングコーパスについて、前記トレーニングコーパスをマスキング化するとともに、セグメント区切りし、トレーニングコーパスセグメントシーケンスを取得することと、
前記トレーニングコーパスセグメントシーケンス中の各前記トレーニングコーパスセグメントが、右から左への順に、前記右符号化モジュールに順次に入力されることと、
前記右符号化モジュールが入力された各前記トレーニングセグメントに基づいて符号化し、符号化后の特徴に基づいて復号化してから、各前記トレーニングセグメント中のマスキング化した文字を予測して取得することと、
各前記トレーニングセグメント中の本当にマスキングした文字と前記右符号化モジュールの予測したマスキング文字に基づいて、第2ロース関数を構築することと、
前記第2ロース関数が収束するか否かを検出することと、
前記第2ロース関数が収束しないときに、前記第2ロース関数が収束する傾向になるように、前記右符号化モジュールのパラメータを調整することと、を備えている、
請求項8に記載の方法。 - トレーニングデータセットを採集することは、
数組のサンプル対を含む第2トレーニングデータセットを採集することを含んでおり、
各組の前記サンプル対には、正サンプル対と負サンプル対とを含み、
前記正サンプル対及び前記負サンプル対には、共通のトレーニングサーチワードを含み、
前記正サンプル対には、正サンプルドキュメントをさらに含み、
前記負サンプル対には、負サンプルドキュメントを含んでいる、
請求項5乃至請求項10のいずれか一項に記載の方法。 - 採集した前記トレーニングデータセットに基づいて、左符号化モジュール及び右符号化モジュールを含む双方向語義符号化モデルをトレーニングすることは、
採集した前記第2トレーニングデータセット中の前記数組のサンプル対に基づいて、前記双方向語義符号化モデル中の前記左符号化モジュール及び前記右符号化モジュールを語義マッチジョブのトレーニングすることで、前記双方向語義符号化モデルに語義マッチの能力を学習させることを備えている、
請求項11に記載の方法。 - 採集した前記第2トレーニングデータセット中の前記数組のサンプル対に基づいて、前記双方向語義符号化モデル中の前記左符号化モジュール及び前記右符号化モジュールを語義マッチジョブのトレーニングすることは、
各組の前記サンプル対中の前記トレーニングサーチワードに基づいて、前記左符号化モジュール及び前記右符号化モジュールを含む前記双方向語義符号化モデルで、前記トレーニングサーチワードの語義特徴を取得することと、
各組の前記サンプル対中の前記正サンプルドキュメントに基づいて、前記左符号化モジュール及び前記右符号化モジュールを含む前記双方向語義符号化モデルで、前記正サンプルドキュメントの語義特徴を取得することと、
各組の前記サンプル対中の前記負サンプルドキュメントに基づいて、前記左符号化モジュール及び前記右符号化モジュールを含む前記双方向語義符号化モデルで、前記負サンプルドキュメントの語義特徴を取得することと、
前記トレーニングサーチワードの語義特徴と前記正サンプルドキュメントの語義特徴との第1語義類似度、及び前記トレーニングサーチワードの語義特徴と前記負サンプルドキュメントの語義特徴との第2語義類似度に基づいて、第3ロース関数を構築することと、
前記第3ロース関数が収束するか否かを検出することと、
前記第3ロース関数が収束しないと、前記第3ロース関数が収束する傾向になるように、前記双方向語義符号化モデル中の前記左符号化モジュール及び前記右符号化モジュールのパラメータを調整することと、含んでいる、
請求項12に記載の方法。 - 各組の前記サンプル対中の前記トレーニングサーチワードに基づいて、前記左符号化モジュール及び前記右符号化モジュールを含む前記双方向語義符号化モデルで、前記トレーニングサーチワードの語義特徴を取得することは、
前記左符号化モジュールが前記トレーニングサーチワードを符号化することで得られた前記トレーニングサーチワードの左符号化特徴を取得することと、
前記右符号化モジュールが前記トレーニングサーチワードを符号化することで得られた前記トレーニングサーチワードの右符号化特徴を取得することと、
前記トレーニングサーチワードの左符号化特徴と前記トレーニングサーチワードの右符号化特徴とをスプライシングして、前記トレーニングサーチワードの語義特徴を取得することとを含んでいる、
請求項13に記載の方法。 - 各組の前記サンプル対中の前記正サンプルドキュメントに基づいて、前記左符号化モジュール及び前記右符号化モジュールを含む前記双方向語義符号化モデルで、前記正サンプルドキュメントの語義特徴を取得することは、
各組の前記サンプル対中の前記正サンプルドキュメントに基づいて、前記正サンプルドキュメントをセグメント区切りし、正サンプルドキュメントセグメントシーケンスを取得することと、
前記正サンプルドキュメントセグメントシーケンス中の各正サンプルドキュメントセグメントが、左から右への順に、前記左符号化モジュールに順次に入力され、前記左符号化モジュールの入力に基づく各前記正サンプルドキュメントセグメントを取得し、各前記正サンプルドキュメントセグメントの左符号化特徴を取得することと、
前記正サンプルドキュメントセグメントシーケンス中の各正サンプルドキュメントセグメントが、右から左への順に、前記右符号化モジュールに順次に入力され、前記右符号化モジュールの入力に基づく各前記正サンプルドキュメントセグメントを取得し、各前記正サンプルドキュメントセグメントの右符号化特徴を取得することと、
前記正サンプルドキュメント中の各前記正サンプルドキュメントセグメントについて、前記正サンプルドキュメントセグメントの左符号化特徴と前記正サンプルドキュメントセグメントの右符号化特徴とをスプライシングし、前記正サンプルドキュメントセグメントの語義特徴を取得することと、
前記正サンプルドキュメント中の各前記正サンプルドキュメントセグメントの語義特徴及び前記トレーニングサーチワードの語義特徴に基づいて、前記正サンプルドキュメントの語義特徴として、前記トレーニングサーチワードの語義特徴との類似度が最も大きい前記正サンプルドキュメントセグメントの語義特徴を取得することとを含んでいる、
請求項13に記載の方法。 - 各組の前記サンプル対中の前記負サンプルドキュメントに基づいて、前記左符号化モジュール及び前記右符号化モジュールを含む前記双方向語義符号化モデルで、前記負サンプルドキュメントの語義特徴を取得することは、
各組の前記サンプル対中の前記負サンプルドキュメントに基づいて、前記負サンプルドキュメントをセグメント区切りし、負サンプルドキュメントセグメントシーケンスを取得することと、
前記負サンプルドキュメントセグメントシーケンス中の各負サンプルドキュメントセグメントが、左から右への順に、前記左符号化モジュールに順次に入力され、前記左符号化モジュールの入力に基づく各前記負サンプルドキュメントセグメントを取得し、各前記負サンプルドキュメントセグメントの左符号化特徴を取得することと、
前記負サンプルドキュメントセグメントシーケンス中の各負サンプルドキュメントセグメントが、右から左への順に、前記右符号化モジュールに順次に入力され、前記右符号化モジュールの入力に基づく各前記負サンプルドキュメントセグメントを取得し、各前記負サンプルドキュメントセグメントの右符号化特徴を取得することと、
前記負サンプルドキュメント中の各前記負サンプルドキュメントセグメントについて、前記負サンプルドキュメントセグメントの左符号化特徴と前記負サンプルドキュメントセグメントの右符号化特徴とをスプライシングし、前記負サンプルドキュメントセグメントの語義特徴を取得することと、
前記負サンプルドキュメント中の各前記負サンプルドキュメントセグメントの語義特徴及び前記トレーニングサーチワードの語義特徴に基づいて、前記負サンプルドキュメントの語義特徴として、前記トレーニングサーチワードの語義特徴との類似度が最も大きい前記負サンプルドキュメントセグメントの語義特徴を取得することとを含んでいる、
請求項13に記載の方法。 - 目標ドキュメントをセグメント区切りすることで、目標ドキュメントのセグメントシーケンスを取得するための区切りモジュールと、
予めトレーニングされた双方向語義符号化モデルで、前記目標ドキュメントのセグメントシーケンス中の各ドキュメントセグメントの語義特徴を生成するための生成モジュールと、
前記目標ドキュメントのセグメントシーケンス中の各前記ドキュメントセグメントの語義特徴に基づいて、前記目標ドキュメントの語義特徴を取得するための取得モジュールと、を含んでいる、
語義特徴の生成装置。 - 前記生成モジュールは、
前記双方向語義符号化モデル中の左符号化モジュールで、前記目標ドキュメントのセグメントシーケンス中の各ドキュメントセグメントの左符号化特徴を取得するための第1符号化手段と、
前記双方向語義符号化モデル中の右符号化モジュールで、前記目標ドキュメントのセグメントシーケンス中の各ドキュメントセグメントの右符号化特徴を取得するための第2符号化手段と、
前記目標ドキュメントのセグメントシーケンス中の各前記ドキュメントセグメントに対して、対応の前記ドキュメントセグメントの左符号化特徴と対応の前記ドキュメントセグメントの右符号化特徴をスプライシングして、対応の前記ドキュメントセグメントの語義特徴を取得するためのスプライシング手段とを含んでいる、
請求項17に記載の装置。 - 前記取得モジュールは、
前記目標ドキュメントのセグメントシーケンス中の各前記ドキュメントセグメントの語義特徴に基づいて、マッチ待ちのサーチワードの語義特徴を参照して、前記目標ドキュメントの語義特徴を取得するために用いられる、
請求項17又は18に記載の装置。 - 前記取得モジュールは、
前記目標ドキュメントのセグメントシーケンス中の各前記ドキュメントセグメントの語義特徴と前記マッチ待ちのサーチワードの語義特徴との類似度を算出するための算出手段と、
各前記ドキュメントセグメントの語義特徴と前記マッチ待ちのサーチワードの語義特徴との類似度に基づいて、前記目標ドキュメントの語義特徴として、前記マッチ待ちのサーチワードの語義特徴との類似度が最も大きい前記ドキュメントセグメントの語義特徴を取得するための取得手段とを含んでいる、
請求項19に記載の装置。 - トレーニングデータセットを採集するための採集モジュールと、
採集した前記トレーニングデータセットに基づいて、左符号化モジュールと右符号化モジュールとを含む双方向語義符号化モデルをトレーニングするためのトレーニングモジュールとを含む、
双方向語義符号化モデルのトレーニング装置。 - 前記採集モジュールは、
数条のトレーニングコーパスを含む第1トレーニングデータセットを採集するために用いられる、請求項21に記載の装置。 - 前記トレーニングモジュールは、
採集した前記第1トレーニングデータセット中の数条のトレーニングコーパスに基づいて、前記双方向語義符号化モデル中の前記左符号化モジュール及び前記右符号化モジュールがマスキング文字を予測する能力を学習するように、前記左符号化モジュール及び前記右符号化モジュールをマスキングトレーニングするために用いられる、
請求項22に記載の装置。 - 前記トレーニングモジュールは、
採集した前記第1トレーニングデータセット中の数条のトレーニングコーパスに基づいて、それぞれ前記双方向語義符号化モデル中の前記左符号化モジュール及び前記右符号化モジュールをマスキングトレーニングし、或いは
採集した前記第1トレーニングデータセット中の数条のトレーニングコーパスに基づいて、前記双方向語義符号化モデル中の前記左符号化モジュール或いは前記右符号化モジュールをマスキングトレーニングし、マスキングトレーニング後の前記左符号化モジュール或いは前記右符号化モジュールのパラメータが、マスキングトレーニングされない前記右符号化モジュール或いは前記左符号化モジュールに共有化されているために用いられる、
請求項23に記載の装置。 - 前記トレーニングモジュールは、を含む:
各前記トレーニングコーパスについて、前記トレーニングコーパスをマスキング化するとともに、セグメント区切りし、トレーニングコーパスセグメントシーケンスを取得するための前処理手段と、
前記トレーニングコーパスセグメントシーケンス中の各トレーニングコーパスセグメントを、左から右の順に、前記左符号化モジュールへ順次に入力されるための入力手段と、
前記左符号化モジュールが入力された各前記トレーニングセグメントに基づいて符号化し、符号化された特徴に基づいて復号化してから、各前記トレーニングセグメントにマスキング化した文字を予測して取得するための予測手段と、
各前記トレーニングセグメント中の本当にマスキングした文字及び前記左符号化モジュールの予測したマスキング文字に基づいて、第1ロース関数を構築するための第1構築手段と、
前記第1ロース関数が収束するか否かを検出するための第1検出手段と、
前記第1ロース関数が収束しないときに、前記第1ロース関数が収束する傾向になるように、前記左符号化モジュールのパラメータを調整するための第1調整手段とを含んでいる、
請求項24に記載の装置。 - 前記入力手段は、さらに、前記トレーニングコーパスセグメントシーケンス中の各前記トレーニングコーパスセグメントが、右から左への順に、前記右符号化モジュールに順次に入力されるために用いられ、
前記予測手段は、更に、前記右符号化モジュールが入力された各トレーニングセグメントに基づいて符号化し、符号化后の特徴に基づいて復号化してから、各前記トレーニングセグメント中のマスキング化した文字を予測して取得するために用いられ、
前記第1構築手段は、更に、各前記トレーニングセグメント中の本当にマスキングした文字と前記右符号化モジュールの予測したマスキング文字に基づいて、第2ロース関数を構築するために用いられ、
前記第1検出手段は、更に、前記第2ロース関数が収束するか否かを検出するために用いられ、
前記第1調整手段は、更に、前記第2ロース関数が収束しないときに、前記第2ロース関数が収束する傾向になるように、前記右符号化モジュールのパラメータを調整するために用いられる、
請求項25に記載の装置。 - 前記採集モジュールは、更に、数組のサンプル対を含む第2トレーニングデータセットを採集するために用いられ、
各組の前記サンプル対には、正サンプル対と負サンプル対とを含み、
前記正サンプル対及び前記負サンプル対には、共通のトレーニングサーチワードを含み、
前記正サンプル対には、正サンプルドキュメントをさらに含み、
前記負サンプル対には、負サンプルドキュメントを含んでいる、
請求項21乃至請求項24のいずれか一項に記載の装置。 - 前記トレーニングモジュールは、:
採集した前記第2トレーニングデータセット中の前記数組のサンプル対に基づいて、前記双方向語義符号化モデル中の前記左符号化モジュール及び前記右符号化モジュールを語義マッチジョブのトレーニングすることで、前記双方向語義符号化モデルに語義マッチの能力を学習させるために用いられる、
請求項27に記載の装置。 - 前記トレーニングモジュールは、
各組の前記サンプル対中の前記トレーニングサーチワードに基づいて、前記左符号化モジュール及び前記右符号化モジュールを含む前記双方向語義符号化モデルで、前記トレーニングサーチワードの語義特徴を取得するための第1特徴取得手段と、
各組の前記サンプル対中の前記正サンプルドキュメントに基づいて、前記左符号化モジュール及び前記右符号化モジュールを含む前記双方向語義符号化モデルで、前記正サンプルドキュメントの語義特徴を取得するための第2特徴取得手段と、
各組の前記サンプル対中の前記負サンプルドキュメントに基づいて、前記左符号化モジュール及び前記右符号化モジュールを含む前記双方向語義符号化モデルで、前記負サンプルドキュメントの語義特徴を取得するための第3特徴取得手段と、
前記トレーニングサーチワードの語義特徴と前記正サンプルドキュメントの語義特徴との第1語義類似度、及び前記トレーニングサーチワードの語義特徴と前記負サンプルドキュメントの語義特徴との第2語義類似度に基づいて、第3ロース関数を構築するための第2構築手段と、
前記第3ロース関数が収束するか否かを検出するための第2検出手段と、
前記第3ロース関数が収束しないと、前記第3ロース関数が収束する傾向になるように、前記双方向語義符号化モデル中の前記左符号化モジュール及び前記右符号化モジュールのパラメータを調整するための第2調整手段と、をさらに含んでいる、
請求項28に記載の装置。 - 前記第1特徴取得手段は、
前記左符号化モジュールが前記トレーニングサーチワードを符号化することで得られた前記トレーニングサーチワードの左符号化特徴を取得し、
前記右符号化モジュールが前記トレーニングサーチワードを符号化することで得られた前記トレーニングサーチワードの右符号化特徴を取得し、
前記トレーニングサーチワードの左符号化特徴と前記トレーニングサーチワードの右符号化特徴とをスプライシングして、前記トレーニングサーチワードの語義特徴を取得するために用いられる、
請求項29に記載の装置。 - 前記第2特徴取得手段は、
各組の前記サンプル対中の前記正サンプルドキュメントに基づいて、前記正サンプルドキュメントをセグメント区切りし、正サンプルドキュメントセグメントシーケンスを取得し、
前記正サンプルドキュメントセグメントシーケンス中の各正サンプルドキュメントセグメントが、左から右への順に、前記左符号化モジュールに順次に入力され、前記左符号化モジュールの入力に基づく各前記正サンプルドキュメントセグメントを取得し、各前記正サンプルドキュメントセグメントの左符号化特徴を取得し、
前記正サンプルドキュメントセグメントシーケンス中の各正サンプルドキュメントセグメントが、右から左への順に、前記右符号化モジュールに順次に入力され、前記右符号化モジュールの入力に基づく各前記正サンプルドキュメントセグメントを取得し、各前記正サンプルドキュメントセグメントの右符号化特徴を取得し、
前記正サンプルドキュメント中の各前記正サンプルドキュメントセグメントについて、前記正サンプルドキュメントセグメントの左符号化特徴と前記正サンプルドキュメントセグメントの右符号化特徴とをスプライシングし、前記正サンプルドキュメントセグメントの語義特徴を取得し、
前記正サンプルドキュメント中の各前記正サンプルドキュメントセグメントの語義特徴及び前記トレーニングサーチワードの語義特徴に基づいて、前記正サンプルドキュメントの語義特徴として、前記トレーニングサーチワードの語義特徴との類似度が最も大きい前記正サンプルドキュメントセグメントの語義特徴を取得するために用いられる、
請求項29に記載の装置。 - 前記第3特徴取得手段は、
各組の前記サンプル対中の前記負サンプルドキュメントに基づいて、前記負サンプルドキュメントをセグメント区切りし、負サンプルドキュメントセグメントシーケンスを取得し、
前記負サンプルドキュメントセグメントシーケンス中の各負サンプルドキュメントセグメントが、左から右への順に、前記左符号化モジュールに順次に入力され、前記左符号化モジュールの入力に基づく各前記負サンプルドキュメントセグメントを取得し、各前記負サンプルドキュメントセグメントの左符号化特徴を取得し、
前記負サンプルドキュメントセグメントシーケンス中の各負サンプルドキュメントセグメントが、右から左への順に、前記右符号化モジュールに順次に入力され、前記右符号化モジュールの入力に基づく各前記負サンプルドキュメントセグメントを取得し、各前記負サンプルドキュメントセグメントの右符号化特徴を取得し、
前記負サンプルドキュメント中の各前記負サンプルドキュメントセグメントについて、前記負サンプルドキュメントセグメントの左符号化特徴と前記正サンプルドキュメントセグメントの右符号化特徴とをスプライシングし、前記負サンプルドキュメントセグメントの語義特徴を取得し、
前記負サンプルドキュメント中の各前記負サンプルドキュメントセグメントの語義特徴及び前記トレーニングサーチワードの語義特徴に基づいて、前記負サンプルドキュメントの語義特徴として、前記トレーニングサーチワードの語義特徴との類似度が最も大きい前記負サンプルドキュメントセグメントの語義特徴を取得するために用いられる、
請求項29に記載の装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されるメモリと、を含んでおり、
前記メモリには前記少なくとも1つのプロセッサに実行されるコマンドを記憶しており、
前記コマンドが前記少なくとも1つのプロセッサに実行されることで、前記少なくとも1つのプロセッサは請求項1乃至請求項4のいずれか一項或いは請求項5乃至請求項16のいずれか一項に記載の方法を実行可能となる、電子機器。 - コンピュータに請求項1乃至請求項4のいずれか一項或いは請求項5乃至請求項16のいずれか一項に記載の方法を実行させるためのコンピュータコマンドが記憶されている不揮発性のコンピュータ読み取り可能な記憶媒体。
- プロセッサに実行される時に請求項1乃至請求項4のいずれか一項或いは請求項5乃至請求項16のいずれか一項に記載の方法を実現するコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011562653.0 | 2020-12-25 | ||
CN202011562653.0A CN112560501B (zh) | 2020-12-25 | 2020-12-25 | 语义特征的生成方法、模型训练方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021152963A true JP2021152963A (ja) | 2021-09-30 |
Family
ID=75032762
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021104325A Pending JP2021152963A (ja) | 2020-12-25 | 2021-06-23 | 語義特徴の生成方法、モデルトレーニング方法、装置、機器、媒体及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210312139A1 (ja) |
JP (1) | JP2021152963A (ja) |
CN (1) | CN112560501B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115719628A (zh) * | 2022-11-16 | 2023-02-28 | 联仁健康医疗大数据科技股份有限公司 | 一种中医处方生成方法、装置、设备及存储介质 |
US20230266940A1 (en) * | 2022-02-23 | 2023-08-24 | Fujitsu Limited | Semantic based ordinal sorting |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113095040B (zh) * | 2021-04-16 | 2024-07-16 | 支付宝(杭州)信息技术有限公司 | 一种编码网络的训练方法、文本编码方法和系统 |
CN113282750A (zh) * | 2021-05-27 | 2021-08-20 | 成都数之联科技有限公司 | 模型训练方法及系统及装置及介质 |
CN113420822B (zh) * | 2021-06-30 | 2022-08-12 | 北京百度网讯科技有限公司 | 模型训练方法和装置、文本预测方法和装置 |
CN113761890B (zh) * | 2021-08-17 | 2024-04-16 | 汕头市同行网络科技有限公司 | 一种基于bert上下文感知的多层级语义信息检索方法 |
CN113988157B (zh) * | 2021-09-30 | 2023-10-13 | 北京百度网讯科技有限公司 | 语义检索网络训练方法、装置、电子设备及存储介质 |
CN113921097A (zh) * | 2021-10-11 | 2022-01-11 | 平安国际智慧城市科技股份有限公司 | 医疗数据集成方法、装置、电子设备及存储介质 |
CN114049884B (zh) * | 2022-01-11 | 2022-05-13 | 广州小鹏汽车科技有限公司 | 语音交互方法、车辆、计算机可读存储介质 |
CN114363466B (zh) * | 2022-03-22 | 2022-06-10 | 长沙居美网络科技有限公司 | 基于ai的智呼云系统 |
CN115359383B (zh) * | 2022-07-07 | 2023-07-25 | 北京百度网讯科技有限公司 | 跨模态特征提取、检索以及模型的训练方法、装置及介质 |
CN115471765B (zh) * | 2022-11-02 | 2023-04-07 | 广东工业大学 | 一种航拍图像的语义分割方法、装置、设备及存储介质 |
CN115842593B (zh) * | 2023-02-20 | 2023-05-09 | 北京邮电大学 | 一种语义相干光通信方法及系统 |
CN116704291A (zh) * | 2023-06-19 | 2023-09-05 | 北京百度网讯科技有限公司 | 分片并行的模型训练方法、装置、设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190370338A1 (en) * | 2017-06-22 | 2019-12-05 | Tencent Technology (Shenzhen) Company Limited | Summary generation method, apparatus, computer device, and storage medium |
WO2020174826A1 (ja) * | 2019-02-25 | 2020-09-03 | 日本電信電話株式会社 | 回答生成装置、回答学習装置、回答生成方法、及び回答生成プログラム |
CN112084314A (zh) * | 2020-08-20 | 2020-12-15 | 电子科技大学 | 一种引入知识的生成式会话系统 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170154258A1 (en) * | 2015-11-30 | 2017-06-01 | National Institute Of Information And Communications Technology | Joint estimation method and method of training sequence-to-sequence model therefor |
CN110413865A (zh) * | 2019-08-02 | 2019-11-05 | 知者信息技术服务成都有限公司 | 基于双向编码器表征模型的语义表示模型及其方法 |
CN110598078B (zh) * | 2019-09-11 | 2022-09-30 | 京东科技控股股份有限公司 | 数据检索方法及装置、计算机可读存储介质、电子设备 |
CN111143550B (zh) * | 2019-11-27 | 2022-05-03 | 浙江大学 | 一种基于层次注意力神经网络模型的争议焦点自动识别方法 |
CN110717339B (zh) * | 2019-12-12 | 2020-06-30 | 北京百度网讯科技有限公司 | 语义表示模型的处理方法、装置、电子设备及存储介质 |
CN111079442B (zh) * | 2019-12-20 | 2021-05-18 | 北京百度网讯科技有限公司 | 文档的向量化表示方法、装置和计算机设备 |
CN111291195B (zh) * | 2020-01-21 | 2021-08-10 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置、终端及可读存储介质 |
US20220165430A1 (en) * | 2020-11-23 | 2022-05-26 | Microsoft Technology Licensing, Llc | Leveraging deep contextual representation, medical concept representation and term-occurrence statistics in precision medicine to rank clinical studies relevant to a patient |
-
2020
- 2020-12-25 CN CN202011562653.0A patent/CN112560501B/zh active Active
-
2021
- 2021-06-22 US US17/353,884 patent/US20210312139A1/en not_active Abandoned
- 2021-06-23 JP JP2021104325A patent/JP2021152963A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190370338A1 (en) * | 2017-06-22 | 2019-12-05 | Tencent Technology (Shenzhen) Company Limited | Summary generation method, apparatus, computer device, and storage medium |
WO2020174826A1 (ja) * | 2019-02-25 | 2020-09-03 | 日本電信電話株式会社 | 回答生成装置、回答学習装置、回答生成方法、及び回答生成プログラム |
CN112084314A (zh) * | 2020-08-20 | 2020-12-15 | 电子科技大学 | 一种引入知识的生成式会话系统 |
Non-Patent Citations (2)
Title |
---|
BERT: PRE-TRAINING OF DEEP BIDIRECTIONAL TRANSFORMERS FOR LANGUAGE UNDERSTANDING, JPN6022037930, 24 May 2019 (2019-05-24), pages 1 - 16, ISSN: 0005039064 * |
田中 裕隆 他4名: "BERTを利用した文書の特徴ベクトルの作成", 情報処理学会 研究報告 自然言語処理(NL) 2019−NL−243 [ONLINE], JPN6022037929, 27 November 2019 (2019-11-27), JP, pages 1 - 6, ISSN: 0005039063 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230266940A1 (en) * | 2022-02-23 | 2023-08-24 | Fujitsu Limited | Semantic based ordinal sorting |
CN115719628A (zh) * | 2022-11-16 | 2023-02-28 | 联仁健康医疗大数据科技股份有限公司 | 一种中医处方生成方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20210312139A1 (en) | 2021-10-07 |
CN112560501A (zh) | 2021-03-26 |
CN112560501B (zh) | 2022-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021152963A (ja) | 語義特徴の生成方法、モデルトレーニング方法、装置、機器、媒体及びプログラム | |
KR102577514B1 (ko) | 텍스트 창작 방법, 텍스트 창작 장치, 전자 기기 및 저장 매체 | |
US10679148B2 (en) | Implicit bridging of machine learning tasks | |
KR101950985B1 (ko) | 휴먼 인스파이어드된 간단한 질문 응답(hisqa)을 위한 시스템 및 방법 | |
Kim et al. | Two-stage multi-intent detection for spoken language understanding | |
Lin et al. | Automatic translation of spoken English based on improved machine learning algorithm | |
US10606946B2 (en) | Learning word embedding using morphological knowledge | |
US9672476B1 (en) | Contextual text adaptation | |
US10789431B2 (en) | Method and system of translating a source sentence in a first language into a target sentence in a second language | |
WO2020244065A1 (zh) | 基于人工智能的字向量定义方法、装置、设备及存储介质 | |
JP7335300B2 (ja) | 知識事前訓練モデルの訓練方法、装置及び電子機器 | |
CN112560479A (zh) | 摘要抽取模型训练方法、摘要抽取方法、装置和电子设备 | |
CN113987169A (zh) | 基于语义块的文本摘要生成方法、装置、设备及存储介质 | |
JP2021508866A (ja) | 対象領域およびクライアント固有のアプリケーション・プログラム・インタフェース推奨の促進 | |
CN111026320B (zh) | 多模态智能文本处理方法、装置、电子设备及存储介质 | |
Mahmoud et al. | A text semantic similarity approach for Arabic paraphrase detection | |
JP2021033995A (ja) | テキスト処理装置、方法、デバイス及びコンピューター読み取り可能な記憶媒体 | |
JP2021508391A (ja) | 対象領域およびクライアント固有のアプリケーション・プログラム・インタフェース推奨の促進 | |
Wang et al. | Learning morpheme representation for mongolian named entity recognition | |
CN113779225B (zh) | 实体链接模型的训练方法、实体链接方法及装置 | |
Mocialov et al. | Transfer learning for british sign language modelling | |
CN110874536A (zh) | 语料质量评估模型生成方法和双语句对互译质量评估方法 | |
Habib et al. | An exploratory approach to find a novel metric based optimum language model for automatic bangla word prediction | |
Noaman et al. | Enhancing recurrent neural network-based language models by word tokenization | |
WO2022141872A1 (zh) | 文献摘要生成方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210623 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220913 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230418 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231114 |