Nothing Special   »   [go: up one dir, main page]

JP2021089739A - 質問応答処理、言語モデルの訓練方法、装置、機器および記憶媒体 - Google Patents

質問応答処理、言語モデルの訓練方法、装置、機器および記憶媒体 Download PDF

Info

Publication number
JP2021089739A
JP2021089739A JP2020215253A JP2020215253A JP2021089739A JP 2021089739 A JP2021089739 A JP 2021089739A JP 2020215253 A JP2020215253 A JP 2020215253A JP 2020215253 A JP2020215253 A JP 2020215253A JP 2021089739 A JP2021089739 A JP 2021089739A
Authority
JP
Japan
Prior art keywords
question
text
candidate
candidate table
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020215253A
Other languages
English (en)
Other versions
JP7127106B2 (ja
Inventor
インチー チュウ
Yingqi Qu
インチー チュウ
ジン リウ
Jing Liu
ジン リウ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021089739A publication Critical patent/JP2021089739A/ja
Application granted granted Critical
Publication of JP7127106B2 publication Critical patent/JP7127106B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3346Query execution using probabilistic model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/242Query formulation
    • G06F16/243Natural language query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/338Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

【課題】言語モデルを使用して質問およびテキストに対して語意一致を行い、質問と表の一致正確さと再現率を向上させる言語モデルを訓練する方法、装置及び記憶媒体を提供する。【解決手段】方法は、クエリ対象質問に一致する少なくとも1つの候補表を取得しS201、各候補表が質問に対応する1つの候補解答を含み、少なくとも1つの候補表を処理して、候補表における各フィールドのテキスト内容を含み、フィールドがタイトル、ヘッダおよびセルを含む、少なくとも1つの表テキストを得てS202、質問および各表テキストをプリセット言語モデルにそれぞれ入力して、質問と各候補表の一致度を得てS203、各候補表の一致度に基づいて、少なくとも1つの候補表のうち、質問との一致度がプリセット値より大きい候補表、または最も大きい一致度に対応する候補表である回答表を出力するS204。【選択図】図2

Description

本願の実施例は、データ処理における自然言語処理技術に関し、特に、質問応答処理、言語モデルの訓練方法、装置、機器および記憶媒体に関する。
質問応答システム(Question Answering System、QA)は、情報検索システムの進化した形であり、正確かつ簡潔な自然言語でユーザが自然言語で提出した質問に解答し、ユーザにパーソナライズされたサービスを提供することができる。質問応答システムがユーザの質問に解答するとき、1つの方法は、質問に構造化された解答をし、例えば、表形式の解答に一致させることであるが、質問に対応する表をどのように取得するかは、現在の大きな難点である。
現在、質問応答システムは主に、表の各フィールド(タイトル、ヘッダ、表ユニットおよびコンテキストなどを含む)の情報を処理し、表の各フィールドの情報を質問とテキスト一致して、これにより対応する表形式の応答を取得する。しかし、このように一致して得られる応答には、精度が低いという質問がある。
本願は、質問に表形式の解答を一致するための質問応答処理、言語モデルの訓練方法、装置、機器及記憶媒体を提供する。
本願の1つの態様によれば、質問応答処理方法が提供され、前記質問応答処理方法は、クエリ対象質問に一致する少なくとも1つの候補表を取得し、各候補表が前記質問に対応する1つの候補解答を含むことと、前記少なくとも1つの候補表を処理して、少なくとも1つの表テキストを得、前記表テキストが前記候補表における各フィールドのテキスト内容を含み、前記フィールドがタイトル、ヘッダおよびセルを含むことと、前記質問と各表テキストをプリセット言語モデルにそれぞれ入力して前記質問と各候補表の一致度を得ることと、各候補表の一致度に基づいて、前記少なくとも1つの候補表のうち、前記質問との一致度がプリセット値より大きい候補表、または前記質問との一致度が最も大きい候補表である回答表を出力することと、を含む。
本願の他の態様によれば、言語モデルの訓練方法が提供され、前記訓練方法は、ラベリング情報なしのテキストデータである第1の訓練サンプルデータを取得することと、前記第1の訓練サンプルデータに基づいて訓練対象モデルに対して第1の予備訓練を行って第1の予備訓練モデルを得ることと、質問と前記質問に対応する複数の候補表を含む第2の訓練サンプルデータ、およびそれに対応する、前記質問と各候補表の相関性を示すために使用されるラベリング情報を取得することと、前記第2の訓練サンプルデータおよびそれに対応するラベリング情報に基づいて前記第1の予備訓練モデルを訓練して、前記質問と少なくとも1つの候補表の一致度を確定するために使用される前記言語モデルを得ることと、を含む。
本願の他の態様によれば、質問応答処理装置が提供され、前記質問応答処理装置は、クエリ対象質問に一致する少なくとも1つの候補表を取得するための第1の取得モジュールであって、各候補表が前記質問に対応する1つの候補解答を含む第1の取得モジュールと、前記少なくとも1つの候補表を処理して、少なくとも1つの表テキストを得るための表処理モジュールであって、前記表テキストが前記候補表における各フィールドのテキスト内容を含み、前記フィールドがタイトル、ヘッダおよびセルを含む表処理モジュールと、前記質問と各表テキストをプリセット言語モデルにそれぞれ入力して前記質問と各候補表の一致度を得るための確定モジュールと、各候補表の一致度に基づいて、前記少なくとも1つの候補表のうち、前記質問との一致度がプリセット値より大きい候補表、または前記質問との一致度が最も大きい候補表である回答表を出力するための出力モジュールとを含む。
本願の他の態様によれば、言語モデルの訓練装置が提供され、前記訓練装置は、ラベリング情報なしのテキストデータである第1の訓練サンプルデータを取得すること、および質問と前記質問に対応する複数の候補表を含む第2の訓練サンプルデータ、およびそれに対応する、前記質問と各候補表の相関性を示すために使用されるラベリング情報を取得することのために使用される第2の取得モジュールと、前記第1の訓練サンプルデータに基づいて訓練対象モデルに対して第1の予備訓練を行って第1の予備訓練モデルを得ること、および前記第2の訓練サンプルデータおよびそれに対応するラベリング情報に基づいて前記第1の予備訓練モデルを訓練して、前記質問と少なくとも1つの候補表の一致度を確定するために使用される前記言語モデルを得ることのために使用される訓練モジュールと、を含む。
本願の他の態様によれば、電子機器が提供され、前記電子機器は、少なくとも1つのプロセッサ、および前記少なくとも1つのプロセッサと通信接続されるメモリを含み、そのうち、前記メモリには前記少なくとも1つのプロセッサによって実行可能な指令が記憶され、前記指令が前記少なくとも1つのプロセッサによって実行されることによって、前記少なくとも1つのプロセッサが、第1の態様および/または第2の態様に記載の方法を実行することができる。
本願の他の態様によれば、コンピュータ指令を記憶する非一時的なコンピュータ可読記憶媒体が提供され、前記コンピュータ指令が、第1の態様および/または第2の態様のいずれか1項に記載の方法をコンピュータに実行させるために使用される。
本願の他の態様によれば、質問応答処理方法が提供され、前記質問応答処理方法は、クエリ対象質問に一致する少なくとも1つの候補表を取得し、各候補表が前記質問に対応する1つの候補解答を含むことと、前記質問と各候補表をプリセット言語モデルにそれぞれ入力して前記質問と各候補表の一致度を得ることと、前記少なくとも1つの候補表のうち、前記質問との一致度がプリセット値より大きい候補表、または前記質問との一致度が最も大きい候補表を出力することと、を含む。
本願による技術は、質問と表を一致する正確さと再現率を向上させる。
理解すべきものとして、本明細書に記載された内容は、本願の実施例の主要または重要な特徴を標識することを意図しておらず、本願の範囲を限定することも意図していない。本願の他の特徴は、以下の明細書によって容易に理解されるであろう。
図面は、本手段をよりよく理解するために使用されており、本願を限定しない。そのうち、
本願の実施例によって提供される適用シナリオの概略図である。 本願の実施例の質問応答処理方法のフローチャートである。 本願の実施例の表テキストの概略図である。 本願の実施例によって最終的に出力される回答表の概略図である。 本願の実施例によって提供される言語モデルの概略構造図である。 本願の実施例によって提供される言語モデルの訓練方法のフローチャートである。 本願の他の実施例によって提供される言語モデルの訓練方法の概略図である。 本願の実施例の質問応答処理装置の概略構造図である。 本願の実施例によって提供される言語モデルの訓練装置の概略構造図である。 本願の実施例の質問応答処理方法および/または言語モデルの訓練方法を実施するために使用される電子機器のブロック図である。
以下、添付図面を参照して本願の例示的な実施例を説明するが、本願の実施例の様々な詳細が理解を容易にするために含まれており、単なる例示的なものと考えられるべきである。したがって、当業者は、本願の範囲および精神から逸脱することなく、本明細書に記載された実施例に様々な変更および修正を加えることができることを理解するはずである。同様に、明確かつ簡潔にするために、以下の説明では、よく知られている機能および構造の説明は省略されている。
図1は、本願の実施例によって提供される適用シナリオ図である。図1に示すように、当該適用シナリオは、端末機器11およびサーバ12を含み、そのうち、端末機器11が、スマートフォン、ipad、コンピュータなどの電子機器であってもよく、サーバ12には、質問と解答の対応関係が記憶される。選択的に、解答は、構造化解答および非構造化解答を含む。本願の実施例では、構造化解答とは解答が表形式で呈され、非構造化解答が主にテキスト形式で呈された解答を指し、そのうち、「A型携帯のパラメータ配置」、「世界各国の領土面積ランキング」などの構造化解答が、表で直接回答でき、非構造化のテキスト解答よりも直感的で明確である。また、「B型携帯のフロントカメラの画素はいくらですか」、「世界最大の国家領土面積」など、表の内容の一部を質問の解答とする別の解答はあり、これらの質問の解答が、構造化表に存在し、知識庫質問応答と似ていり、質問と一致する表を見つけた上で、解答の位置をさらに確定する必要がある。
現在、既存の質問応答システムの多くは、非構造化のテキストに向かっていり、すなわち、質問一致、段落検索、機械読解などの技術によって質問の正確な解答を得る。実際、構造化の表には多くの情報も含まれ、解答のソースとすることができる。したがって、質問と表との一致がどのように実現されるかを徐々に研究している人がいる。
現在、主に表を異なるフィールド(タイトル、ヘッダ、表ユニット、コンテキストなど)に分割して、類似度の特徴(BM25、編集距離、Jaccard類似度など)、文字通りの一致の特徴(質問の中の単語が表の各フィールドに出現するかどうか、出現割合など)を含む質問と表の各フィールドの間の一致特徴をそれぞれ抽出する。そして、これらの特徴に基づいて、分類モデルを訓練して、質問が表に関連しているかどうかを判断する。この方法が質問と表の各フィールドの間の文字通りの一致情報に注目しているので、解答一致の正確さおよび再現率は高くない。
また、検索シナリオでの表質問応答システムについては、表の構造化情報を直接に削除して、表をテキスト段落として、テキストと同じ方式でリコールし、またはこの部分の解答情報を直接に廃棄し、表の様式の表現がなく、その可視化効果が悪く、ユーザの体験に影響する。
上記の技術的質問に対応して、本願の実施例は、文字通りの一致だけでなく、質問および質問に一致する少なくとも1つの候補表の語意一致により多くの関心を持ち、これにより解答一致の正確さおよび再現率を向上させることができる。また、解答が最終的に表形式でユーザに呈するため、ユーザにとって視覚化効果が良いので、ユーザ体験を向上させることができる。
本願の技術的解決手段、および本願の技術的解決手段が上記の技術的質問をどのように解決するかについて、具体的な実施例を用いて以下で詳細に説明する。以下の具体的な実施例が互いに組み合わせられることができ、同じまたは同様の概念または過程が、いくつかの実施例では繰り返されない場合がある。以下、本願の実施例について図面を用いて説明する。
図2は、本願の実施例によって提供される質問応答処理方法のフローチャートである。本願の実施例が、従来技術の上記技術的質問について、質問応答処理方法を提供し、当該方法の具体的なステップは次のとおりである。
ステップ201において、クエリ対象質問に一致する少なくとも1つの候補表を取得する。
クエリ対象質問に対しては、一致する候補表がないかもしれないし、対応する1つまたは少なくとも2つの候補表があるかもしれない。本実施例は主に、1つの質問が1つのまたは少なくとも2つの候補表に対応する状況に注目する。そのうち、各候補表は、質問に対応する1つの候補解答を含む。選択的に、候補解答は、各候補表内のすべての内容または一部の内容であってもよい。
本実施例の実行主体は、端末機器であってもよい。そのうち、ステップ201は、端末機器が、クエリ対象質問に一致する少なくとも2つの表をサーバから取得する。検索シナリオを例にとると、ユーザが端末機器でクエリ対象質問を入力し、端末機器が、クエリ対象質問に基づいて検索請求を生成して、サーバに送信し、サーバが、クエリ対象質問に対して対応する解答を一致して、端末機器に返信する。注意すべきものとして、本願の実施例が主に表形式の解答および質問の一致に注目し、以下に述べる解答は、特に明記しない限り、表形式の解答を指す。
選択的に、サーバがクエリ対象質問に対して対応する解答を一致する過程で、クロールツールを使用して候補表を取得することができる。
ステップ202において、少なくとも1つの候補表を処理して、少なくとも1つの表テキストを得る。
本実施例では、各候補表に対してそれぞれ処理して、当該候補表に対応する表テキストを得、すなわち、各候補表がそれぞれ1つの表テキストに対応する。
そのうち、表テキストが候補表内の各フィールドのテキスト内容を含み、表のフィールドがタイトル、ヘッダおよびセルを含み、表テキストが少なくとも1つの段落を含み、各段落が少なくとも1つの句を含み、各句が少なくとも1つの単語を含み、各単語がフィールド情報に対応し、フィールド情報がテキスト内の単語が表で属するフィールドを指示すために使用され、フィールドがタイトル、ヘッダおよびセルを含む。
以下の表1に示すように、1つの例示的な表であり、当該表では、「先物取引手数料」がタイトルであり、「取引所」、「品種」、「品種コード」、「取引手数料(各手)」がヘッダであり、残りがすべてセルである。上記の表をテキストに変換すると、図3Aに示すように、テキストの形式で呈する。
Figure 2021089739
ステップ203において、質問および各表テキストをプリセット言語モデルにそれぞれ入力して、質問と各候補表の一致度を得る。
1つの質問に対しては、少なくとも1つの解答に対応する。この解答と当該質問の一致度の大きさによって、一致の正確さを決定した。
1つの質問が1つの表テキストに対応する状況では、本実施例は、質問および当該表テキストをプリセット言語モデルに一度に入力することができる。1つの質問と少なくとも2つの表テキストの状況では、本実施例は、当該質問および当該質問に対応する少なくとも2つの表テキストを複数回に分けてプリセット言語モデルに入力する。例えば、質問Aが表テキストA1および表テキストA2に対応する場合、まず質問Aおよび表テキストA1をプリセット言語モデルに入力し、次に質問Aおよび表テキストA2をプリセット言語モデルに入力する。
そのうち、本実施例の言語モデルは、質問と表テキストの語意理解をそれぞれ行うことができ、これにより語意理解結果に基づいて質問と表テキストの一致度、つまり質問と候補表の一致度を確定する。従来技術に比べて、一致過程では、文字通りの一致だけでなく、語意一致にも注目し、例えば、同じ単語を持つ表に一致するだけでなく、近い意味を持つ表にも一致することができる。
ステップ204において、各候補表の一致度に基づいて回答表を出力する。
そのうち、回答表は、少なくとも1つの候補表のうち、質問との一致度がプリセット値より大きい候補表、または質問との一致度が最も大きい候補表である。最終的に出力される回答表を図3Bに示す。
本願の実施例では、クエリ対象質問に一致する少なくとも1つの候補表を取得し、各候補表が前記質問に対応する1つの候補解答を含み、前記少なくとも1つの候補表を処理して少なくとも1つの表テキストを得、前記表テキストが前記候補表における各フィールドのテキスト内容を含み、前記フィールドがタイトル、ヘッダおよびセルを含み、前記質問と各表テキストをプリセット言語モデルにそれぞれ入力して、前記質問と各候補表の一致度を得、各候補表の一致度に基づいて回答表を出力し、前記回答表が、前記少なくとも1つの候補表のうち、前記質問との一致度がプリセット値より大きい候補表、または前記質問との一致度が最も大きい候補表である。言語モデルが質問およびテキストの語意を理解できるため、質問と候補表の一致度を確定する過程では、語意理解結果に基づいて両者の一致を行い、質問と表の一致正確さと再現率を向上させる。また、解答を最終的に表形式でユーザに呈するため、ユーザにとって視覚化効果が良いので、ユーザ体験を向上させることができる。
候補表を言語モデルに入力する前に、候補表を言語モデルに適用されるデータ入力形式、つまりテキストとして処理する必要がある。以下では、前記少なくとも1つの候補表を処理して少なくとも1つの表テキストを得る具体的な実施過程について説明する。
1つの選択的な実施形態では、前記少なくとも1つの候補表内の各フィールドのテキスト内容をそれぞれ抽出し、そして各候補表の各フィールドのテキスト内容をつなぎ合わせて、前記少なくとも1つの表テキストを得ることができる。そのうち、各候補表については、当該候補表内のタイトル、ヘッダおよびセルなどのフィールドのテキスト内容を抽出し、そして抽出されたタイトル、ヘッダおよびセルなどのフィールドのテキスト内容をつなぎ合わせて、当該候補表の表テキストを得る。選択的に、つなぎ合わせる過程中に、タイトル、ヘッダおよびセルの順序で各フィールドの内容をつなぎ合わせることができ、つなぎ合わせられた表テキストが図3Aに示される。
言語モデルが質問に対する異なるフィールドの内容の重要性を識別することができるようにし、質問と当該部分内容との一致により注意を払うために、本実施例はまた、各フィールドの内容を含む表テキストを言語モデルに入力することに基づいて、フィールド情報を追加し、すなわち、表テキスト内の各単語にフィールド情報を追加し、言語モデルに入力しても良い。そのうち、フィールド情報は、表テキスト内の単語が候補表に属するフィールドを標識するために使用され、すなわち、フィールド情報は、表テキスト内の各単語が候補表のどのフィールドに来たのか、例えば、タイトルから来たのか、ヘッダから来たのか、それともセルから来たのかを標識するために使用される。
そのうち、本実施例における言語モデルが、入力層、非表示層、および出力層を含むニューラルネットワークであってもよく、表テキストの各単語がフィールド情報に対応する上で、本実施例の言語モデルは、フィールド情報もエンコードできるように、入力層を改善する必要がある。非表示層および出力層の構造については、従来技術の紹介を参照してもよく、ここでは繰り返さない。以下は、入力層について重点的に説明する。
図4に示すように、当該入力層がベクトルエンコードモジュール41、分節エンコードモジュール42および位置エンコードモジュール43を含み、そのうち、分節エンコードモジュール42内のEA、EB、ECおよびEDは、当該字または単語が質問、タイトル、表およびセルから来たことを表し、ベクトルエンコードモジュール41内の2つのスペースは、質問に対応するテキストを表し、位置エンコードモジュール43内のすべてのスペースは、質問に対応するテキストおよび表テキストをエンコードして得る位置ベクトルを表す。入力層にとって、その入力されたデータが、質問および表テキストを含むテキスト全体であり、入力層にデータを入力するとき、質問と表テキストの順序に従ってテキスト全体を入力層に入力することができる。
そのうち、ベクトルエンコードモジュール41が、テキスト全体の各字をベクトルエンコードするために使用され、分節エンコードモジュール42が、テキスト全体を分節し、すなわち、テキスト全体の前後の2つの言葉を識別するために使用され、位置エンコードモジュール43がテキスト全体における各単語の位置をエンコードするために使用される。
そのうち、前記質問および前記表テキストをプリセット言語モデルに入力して、前記質問および前記候補表の一致度を得ることは、
前記質問および各表テキストを前記ベクトルエンコードモジュールに入力して、テキストベクトルを得るステップa1と、
前記質問、各表テキストおよび前記表テキストに対応するフィールド情報を前記分節エンコードモジュールに入力して、分節ベクトルを得るステップa2と、
質問および各表テキストを位置エンコードモジュールに入力して、位置ベクトルを得るステップa3と、
テキストベクトル、分節ベクトルおよび位置ベクトルに基づいて、質問と各候補表の一致度を確定するステップa4とを含む。
本実施例では、ベクトルエンコードモジュールと位置エンコードモジュールがそれぞれどのようにベクトルエンコードと位置エンコードを行うかの具体的な実施過程について、従来技術の紹介を参照してもよく、ここでは繰り返さない。本実施例の違いは、分節エンコードモジュールに入力されるのが、テキスト全体だけでなく、表テキストのフィールド情報も含むため、分節エンコードモジュールが、分節エンコード過程中にも、表テキストのフィールド情報をエンコードし、すなわち、本実施例における分節ベクトルが、質問、表テキストおよび表テキストに対応するフィールド情報をエンコードして得るベクトルを含むことである。その後、テキストベクトル、分節ベクトルおよび位置ベクトルを非表示層に入力して、質問と前記候補表の一致度を確定し、最終的に出力層を介して前記質問と各候補表の一致度を出力する。
選択的に、入力層にとって、毎回入力するのは質問と1つの表テキストであり、出力層にとって、1つの質問および対応する1つの候補表に対して、その最終的に出力するのは0から1の間に分布している1つの数値であり、当該数値がプリセット閾値以上の場合、当該質問が当該表に関連していると見なされ、当該数値がプリセット閾値未満の場合、当該質問が表に関連しないと見なされる。例えば、プリセット閾値が0.6であり、出力層が、ある質問および対応する1つの候補表に対する出力が0.4であると、当該質問が当該候補表に関連しないと見なされ、出力層が、ある質問および対応する1つの候補表に対する出力が0.8であると、当該質問が当該候補表に関連していると見なされる。
出力層によって出力された数値が、質問と候補表の相関性の大きさを示すための1つの確率値と見なされてもよく、当該確率値に基づいて、質問と候補表の一致度を確定することができ、その一致度の大きさが確率値を用いて表しても良いし、確率値と一定の比例関係を持つ数値を用いて表しても良いし、どのような方法で表しても、一致度の大きさが確率値の大きさと正の相関関係を持つ。
いくつかの状況で、表のタイトルが表の全体情報を表すことができるので、これらの候補表については、言語モデルが質問とタイトル部分の一致により注目し、それ以外の状況で、質問がヘッダまたは表ユニット内の内容を用いて回答する必要があり、このとき、言語モデルも同様に、質問とヘッダまたは表ユニットの一致に注目する。本実施例は、フィールド情報を追加し、エンコード入力層で3つのフィールドを区別することにより、表の語意情報に対する言語モデルの判断および理解能力を向上させ、また、表のいずれかの注目されていないフィールド情報がなくなっても、言語モデルの判断に影響を与えない。
検索シナリオでは、無駄な検索を避けるために、いくつかの質問を事前に除外することができる。クエリ対象質問に一致する少なくとも1つの候補表を取得する前に、本実施例の方法はさらに以下を含む。
ステップb1において、クエリ対象質問を受信する。
そのうち、端末機器は、ユーザが端末機器で入力したクエリ対象質問を受信する。
ステップb2において、クエリ対象質問の解答のカテゴリを確定する。
そのうち、端末機器は、クエリ対象質問の解答のカテゴリを事前に確定し、表の質問応答に関連しないいくつかの質問を除外し、無駄な検索を避ける。
ステップb3において、解答のカテゴリが目標カテゴリである場合、クエリ対象質問と一致する候補表を取得する。
そのうち、目標カテゴリは、対象を含む実体および/または数字を含む。本実施例では、質問に対する解答は、選択的または疑問的な解答ではなく、主に確かな解答である。例えば、確かな解答は、「世界最大の面積の国家」という質問に対して、解答が「A国」であることを指す。
候補表が1つの状況では、各候補表の一致度に基づいて回答表を出力することは、
候補表の一致度が一致度閾値以上であるかどうかを確定するステップc1と、
候補表の一致度が一致度閾値以上である場合、候補表を回答表をとして出力するステップc2とを含む。
選択的に、候補表の一致度が一致度閾値よりも小さい場合、一致する解答が検索されないというプロンプト情報を出力するステップc3をさらに含んでもよい。
候補表が少なくとも2つの状況では、各候補表の一致度に基づいて回答表を出力することは、最高の一致度に対応する候補表を回答表として出力することを含む。
例えば、1つの質問が1つの解答に対応する場合、事前設定された一致度閾値およびステップ203で得られた一致度に基づいて、当該解答を出力するかどうかを確定する。例示的に、当該質問と解答の一致度が一致度閾値以上である場合、表の形式で当該解答を出力し、当該質問と解答の一致度が一致度閾値未満である場合、当該解答を出力しなく、関連する解答が見つからないというプロンプト情報を出力することを選択できる。
1つの質問が少なくとも2つの解答に対応する場合、最高一致度に対応する候補表を出力することができる。引き続き図3Bを参照し、例えば、端末機器に当該候補表を表示する。
選択的に、本実施例の質問応答処理方法は、オフライン質問応答シナリオに適用されてもよいし、オンライン質問応答シナリオに適用されてもよい。
上記実施例は、言語モデルの応用過程を説明し、本願の他の実施例では、図5に示すように、以下のステップを含む言語モデルの訓練方法を提供する。
ステップ501において、第1の訓練サンプルデータを取得する。
そのうち、第1の訓練サンプルデータがラベリング情報なしのテキストデータである。
ステップ502において、第1の訓練サンプルデータに基づいて訓練対象モデルに対して第1回の予備訓練を行って、第1の予備訓練モデルを得る。
上記2つのステップが、ラベリング情報なしの大量のテキストデータで言語モデルを予備訓練することを指し、選択的に、本ステップがオープンソースの予備訓練言語モデルERNIEを使用することができる。
ステップ503において、第2の訓練サンプルデータおよびそれに対応するラベリング情報を取得する。
そのうち、第2の訓練サンプルデータが、質問および前記質問に対応する複数の候補表を含み、前記ラベリング情報が、前記質問と各候補表の相関性を示すために使用される。そのうち、質問と各候補表の相関性は、当該候補表が質問に関連しているかどうかを指す。
ステップ504において、第2の訓練サンプルデータおよびそれに対応するラベリング情報に基づいて第1の予備訓練モデルを訓練して、言語モデルを得る。
本実施例で訓練して得られた言語モデルが、質問と少なくとも1つの候補表の一致度を確定するために使用される。具体的な応用過程が質問応答処理方法の実施例の説明を参照することができ、ここでは繰り返さない。
ステップ504は、ラベリング情報を有する少量の訓練サンプルデータで第1の予備訓練モデルを微調整することである。第2の訓練サンプルデータが質問−候補表のペア(1つの質問および1つの候補表を含む)であり、そのラベリング情報が人工的に相関性を判断して与えられるものであり、選択的に、0と1を採用して当該質問と候補表が相関しないこと及び関連することをそれぞれ示す。本ステップでのラベリング情報が人工的に与えられるので、訓練の正確さが予備訓練よりも高い。
説明すべきものとして、本実施例では、大量と少量がすべて相対的な用語である。
上記訓練方法の実施例に基づいて、第2の訓練サンプルデータおよびそれに対応するラベリング情報に基づいて前記第1の予備訓練モデルを訓練して、言語モデルを得る前に、本実施例の方法はさらに、
第3の訓練サンプルデータおよびそれに対応するラベリング情報を取得するステップ505を含む。
そのうち、第3の訓練サンプルデータが、質問および前記質問に対応する複数のテキスト解答を含み、前記第3の訓練サンプルデータのラベリング情報が、前記質問と前記複数のテキスト解答の相関性を示すために使用され、各テキスト解答のラベリング情報の正確さが異なり、前記第3の訓練サンプルデータと前記第2の訓練サンプルデータに対応する訓練タスクが同じである。
図6に示すように、本ステップは、言語モデルが特定の下流のタスクにおいてより良いパフォーマンスを得るために、大量の弱監視データ(つまり第3の訓練サンプルデータ)において第2回の予備訓練を行う。弱監視データの使用質問およびその当該質問に一致する段落データは、選択的に、ウェブサイト上の段落に基づいて質問を生成することにより、大量の質問−段落のペアを得る。注意すべきものとして、ここでの質問−段落のペアに対応する訓練タスクが、目標訓練タスクと同じタスクであり、すなわち、目標訓練タスクが質問と表の一致タスクであり、質問−段落のペアの段落も表に基づいて形成される段落であるべきであり、表に基づいて段落を形成する具体的な方法が、表に基づいて表テキストを生成する本実施例の過程を参照してもよく、本実施例はここで繰り返さない。
ステップ506において、第3の訓練サンプルデータおよびそれに対応するラベリング情報に基づいて前記第1の予備訓練モデルに対して第2回の予備訓練を行って、再訓練後の第1の予備訓練モデルを得る。
再訓練後の第1の予備訓練モデルは、ステップ504で再び適用され、すなわち、第2の訓練サンプルデータおよびそれに対応するラベリング情報に基づいて再訓練して得られた第1の予備訓練モデルを訓練して、言語モデルを得る。
本実施例は、モデル訓練段階の微調整前に第2回の予備訓練過程を追加することにより、表に一致するタスクに近い段落一致データを使用して訓練を行う。質問−段落の一致データの取得が容易で、標示データほど高いデータ品質を保証することはできないが、大量のノイズデータの訓練に基づいて、モデルを目標タスクに対して学習しやすくなる。それにより、質問と表の一致タスクに必要な標示データの取得には、大量の人件費が必要となる質問を避ける。
図7は、本願の実施例によって提供される質問応答処理装置の概略構造図である。当該質問応答処理装置は、具体的には、上記実施例の端末機器、または端末機器の部品(例えばチップまたは回路)であってもよい。本願の実施例によって提供される質問応答処理装置が、質問応答処理方法の実施例によって提供される処理フローを実行することができ、図7に示すように、質問応答処理装置70は、第1の取得モジュール71、表処理モジュール72、確定モジュール73および出力モジュール74を含み、そのうち、第1の取得モジュール71が、クエリ対象質問に一致する少なくとも1つの候補表を取得するために使用され、各候補表が前記質問に対応する1つの候補解答を含み、表処理モジュール72が、前記少なくとも1つの候補表を処理して、少なくとも1つの表テキストを得るために使用され、前記表テキストが前記候補表の各フィールドのテキスト内容を含み、前記フィールドがタイトル、ヘッダおよびセルを含み、確定モジュール73が、前記質問と各表テキストをプリセット言語モデルにそれぞれ入力して、前記質問と各候補表の一致度を得るために使用され、出力モジュール74が、各候補表の一致度に基づいて、回答表を出力するために使用され、前記回答表が、前記少なくとも1つの候補表のうち、前記質問との一致度がプリセット値より大きい候補表、または前記質問との一致度が最も大きい候補表である。
選択的に、表処理モジュール72は、抽出ユニット721およびつなぎ合わせユニット722を含み、そのうち、抽出ユニット721が、前記少なくとも1つの候補表の各フィールドのテキスト内容をそれぞれ抽出するために使用され、つなぎ合わせユニット722が、各候補表の各フィールドのテキスト内容をつなぎ合わせて、前記少なくとも1つの表テキストを得るために使用される。
選択的に、表テキストの各単語はフィールド情報に対応し、前記フィールド情報は、前記表テキスト内の単語が前記候補表に属するフィールドを標識するために使用される。
選択的に、前記言語モデルが入力層を含み、前記入力層が、ベクトルエンコードモジュール、分節エンコードモジュールおよび位置エンコードモジュールを含み、前記確定モジュール73は、前記質問および各表テキストを前記ベクトルエンコードモジュールに入力して、テキストベクトルを得ること、前記質問、各表テキストおよび前記表テキストに対応するフィールド情報を前記分節エンコードモジュールに入力して、分節ベクトルを得ること、および前記質問と各表テキストを前記位置エンコードモジュールに入力して、位置ベクトルを得ることのために使用される入力ユニット731と、前記テキストベクトル、前記分節ベクトルおよび前記位置ベクトルに基づいて、前記質問と各候補表の一致度を確定するために使用される確定ユニット732とを含む。
選択的に、確定モジュール73はさらに、前記質問および各表テキストに基づいて前記言語モデルによって出力される確率値を取得すること、および前記確率値に基づいて、前記質問と各候補表の一致度を確定することのために使用される。
選択的に、前記取得モジュール71は、前記クエリ対象質問を受信するための受信ユニット711と、前記クエリ対象質問の解答カテゴリを確定するための解答カテゴリ確定ユニット712と、前記解答カテゴリが実体および/または数字を含む目標カテゴリである場合、クエリ対象質問に一致する少なくとも1つの候補表を取得するための取得ユニット713とを含む。
選択的に、前記候補表が1つであり、出力モジュール74は、前記候補表の一致度が一致度閾値以上であるかどうかを確定して、前記候補表の一致度が一致度閾値以上である場合、前記候補表を前記回答表として出力するために使用される出力ユニット741を含む。
選択的に、前記候補表が1つであり、出力モジュール74は、前記候補表の一致度が一致度閾値未満である場合、一致する解答が検索されないというプロンプト情報を出力するための出力ユニット741を含む。
選択的に、前記候補表が少なくとも2つであり、出力モジュール74は、最高の一致度に対応する候補表を前記回答表として出力するための出力ユニット741を含む。
図7に示す実施例の質問応答処理装置は、上記方法の実施例の技術的解決手段を実行するために使用されてもよく、その実現原理が技術効果と類似しており、ここでは繰り返さない。
本願の実施例では、クエリ対象質問に一致する少なくとも1つの候補表を取得し、各候補表が前記質問に対応する1つの候補解答を含み、前記少なくとも1つの候補表を処理して少なくとも1つの表テキストを得、前記表テキストが前記候補表の各フィールドのテキスト内容を含み、前記フィールドがタイトル、ヘッダおよびセルを含み、前記質問と各表テキストをプリセット言語モデルにそれぞれ入力して、前記質問と各候補表の一致度を得、各候補表の一致度に基づいて回答表を出力し、前記回答表が、前記少なくとも1つの候補表のうち、前記質問との一致度がプリセット値より大きい候補表、または前記質問との一致度が最も大きい候補表である。言語モデルが質問およびテキストの語意を理解できるため、質問と候補表の一致度を確定する過程では、語意理解結果に基づいて両者の一致を行い、質問と表の一致正確さと再現率を向上させる。また、解答を最終的に表形式でユーザに呈するため、ユーザにとって視覚化効果が良いので、ユーザ体験を向上させることができる。
図8は、本願の実施例によって提供される言語モデルの訓練装置の概略構造図である。当該言語モデルの訓練装置は、具体的には、上記実施例の端末機器、または端末機器の部品(例えば、チップまたは回路)であってもよい。本願の実施例によって提供される言語モデルの訓練装置が、言語モデルの訓練方法の実施例によって提供される処理フローを実行することができ、図8に示すように、言語モデルの訓練装置80は、第2の取得モジュール81および訓練モジュール82を含み、そのうち、第2の取得モジュール81が、ラベリング情報なしのテキストデータである第1の訓練サンプルデータを取得すること、および質問と前記質問に対応する複数の候補表を含む第2の訓練サンプルデータ、およびそれに対応する、前記質問と各候補表の相関性を示すために使用されるラベリング情報を取得することのために使用され、訓練モジュール82が、前記第1の訓練サンプルデータに基づいて訓練対象モデルに対して第1の予備訓練を行って第1の予備訓練モデルを得ること、および前記第2の訓練サンプルデータおよびそれに対応するラベリング情報に基づいて前記第1の予備訓練モデルを訓練して、前記質問と少なくとも1つの候補表の一致度を確定するために使用される前記言語モデルを得ることのために使用される。
選択的に、前記第2の取得モジュール81はさらに、第3の訓練サンプルデータおよびそれに対応するラベリング情報を取得するために使用され、前記第3の訓練サンプルデータが、質問および前記質問に対応する複数のテキスト解答を含み、前記第3の訓練サンプルデータのラベリング情報が、前記質問と前記複数のテキスト解答の相関性を示すために使用され、各テキスト解答のラベリング情報の正確さが異なり、前記第3の訓練サンプルデータと前記第2の訓練サンプルデータに対応する訓練タスクが同じであり、訓練モジュール82はさらに、前記第3の訓練サンプルデータおよびそれに対応するラベリング情報に基づいて前記第1の予備訓練モデルを訓練して、再訓練後の第1の予備訓練モデルを得るために使用される。
図8に示す実施例の言語モデルの訓練装置は、上記方法実施例の技術的解決手段を実行するために使用されてもよく、その実現原理が技術効果と類似しており、ここでは繰り返さない。
本願の実施例では、クエリ対象質問に一致する少なくとも1つの候補表を取得し、各候補表が前記質問に対応する1つの候補解答を含み、前記少なくとも1つの候補表を処理して少なくとも1つの表テキストを得、前記表テキストが前記候補表における各フィールドのテキスト内容を含み、前記フィールドがタイトル、ヘッダおよびセルを含み、前記質問と各表テキストをプリセット言語モデルにそれぞれ入力して、前記質問と各候補表の一致度を得、各候補表の一致度に基づいて回答表を出力し、前記回答表が、前記少なくとも1つの候補表のうち、前記質問との一致度がプリセット値より大きい候補表、または前記質問との一致度が最も大きい候補表である。言語モデルが質問およびテキストの語意を理解できるため、質問と候補表の一致度を確定する過程では、語意理解結果に基づいて両者の一致を行い、質問と表の一致正確さと再現率を向上させる。また、解答を最終的に表形式でユーザに呈するため、ユーザにとって視覚化効果が良いので、ユーザ体験を向上させることができる。
本願の実施例により、本願はさらに、電子機器および可読記憶媒体を提供する。
図9に示すように、本願の実施例の質問応答処理方法および/または言語モデルの訓練方法の電子機器のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、大型コンピュータ、および他の適切なコンピュータなどさまざまな形式のデジタルコンピュータを表すことを目的としている。電子機器は、パーソナルデジタルアシスタント、セルラー電話、スマートフォン、ウェアラブル機器および他の類似のコンピューティング装置などさまざまな形式のモバイル装置を表すこともできる。本明細書に示す部品、それらの接続および関係、およびそれらの機能は、単なる例であり、本明細書で記載されるおよび/または要求される本願の実施を制限することを意図しない。
図9に示すように、当該電子機器は、1つまたは複数のプロセッサ901、メモリ902、および高速インターフェースと低速インターフェースを含む様々な部品を接続するためのインターフェースを含む。様々な部品は、異なるバスを使用して相互に接続され、共通のマザーボードに取り付けられてもよいし、必要に応じて他の形態でインストールされてもよい。プロセッサは、電子機器で実行された指令を処理してもよく、前記指令がメモリ内またはメモリ上に記憶されて、GUIのグラフィック情報を外部入/出力装置(インターフェースに結合された表示機器など)に表示することができる指令を含む。他の実施形態では、必要に応じて、複数のプロセッサおよび/または複数のバスを、複数のメモリと共に使用することができる。同様に、複数の電子機器を接続でき、各機器は、いくつかの必要な操作を提供する(例えば、サーバアレイ、ブレードサーバのグループ、またはマルチプロセッサシステムとして)。図9では、プロセッサ901を例に取る。
メモリ902は、本願によって提供される非一時的なコンピュータ可読記憶媒体である。そのうち、前記メモリには、少なくとも1つのプロセッサによって実行可能な指令を記憶することによって、前記少なくとも1つのプロセッサが本願によって提供される質問応答処理方法および/または言語モデルの訓練方法を実行する。本願の非一時的なコンピュータ可読記憶媒体には、コンピュータ指令が記憶され、当該コンピュータ指令が、本願によって提供される質問応答処理方法および/または言語モデルの訓練方法をコンピュータに実行させるために使用される。
メモリ902は、非一時的なコンピュータ可読記憶媒体として、本願の実施例における質問応答処理方法および/または言語モデルの訓練方法に対応するプログラム指令/モジュールなどの(例えば、図7に示す第1の取得モジュール71、表処理モジュール72、確定モジュール73および出力モジュール74)非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能なプログラムおよびモジュールを記憶するために使用できる。プロセッサ901は、メモリ902に記憶される非一時的なソフトウェアプログラム、指令およびモジュールを実行することによって、サーバの様々な機能応用およびデータ処理を実行し、すなわち、上記方法の実施例における質問応答処理方法および/または言語モデルの訓練方法を実施する。
メモリ902は、プログラム記憶領域およびデータ記憶領域を含んでもよく、そのうち、プログラム記憶領域が、操作システムと少なくとも1つの機能に必要な応用プログラムを記憶することができ、データ記憶領域が、質問応答処理方法および/または言語モデルの訓練方法の電子機器の使用に応じて作成されたデータなどを記憶することができる。さらに、メモリ902は、高速ランダムアクセスメモリを含むことができ、また、少なくとも1つの磁気メモリ、フラッシュメモリ、または他の非一時的な固体メモリなどの非一時的なメモリを含むこともできる。いくつかの実施例では、メモリ902が、選択的に、プロセッサ901に対してリモートに設定されたメモリを含み、これらのリモートメモリが、ネットワークを介して質問応答処理方法および/または言語モデルの訓練方法の電子機器に接続されることができる。上記ネットワークの例は、インターネット、企業イントラネット、ローカルネットワーク、モバイル通信ネットワーク、およびこれらの組み合わせを含むが、これらに限定されない。
質問応答処理方法および/または言語モデルの訓練方法の電子機器はまた、入力装置903および出力装置904を含んでもよい。プロセッサ901、メモリ902、入力装置903および出力装置904は、バスまたは他の形態で接続されてもよいが、図9では、バスで接続される例を示す。
入力装置903は、入力される数字または文字情報を受け取り、および、質問応答処理方法および/または言語モデルの訓練方法の電子機器のユーザ設定および機能制御に関連するキー信号入力を生成することができ、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、指示棒、1つまたは複数のマウスボタン、トラックボール、操縦棒などの入力装置である。出力装置904は、表示機器、補助照明装置(例えば、LED)および触覚フィードバック装置(例えば、振動モーター)などを含むことができる。当該表示機器は、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイおよびプラズマディスプレイを含むことができる。いくつかの実施形態では、表示機器はタッチスクリーンであってもよい。
本明細書で説明するシステムおよび技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、特定用途向けASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組み合わせで実施されることができる。これらの様々な実施形態は、1つまたは複数のコンピュータプログラムで実施され、当該1つまたは複数のコンピュータプログラムが、少なくとも1つのプログラム可能なプロセッサを含むプログラム可能なシステム上で実行および/または解釈されるでき、当該プログラム可能なプロセッサが、専用または汎用プログラム可能なプロセッサであってもよく、記憶システム、少なくとも1つの入力装置、および少なくとも1つの出力装置からデータおよび指令を受信し、データおよび指令を当該記憶システム、当該少なくとも1つの入力装置、および当該少なくとも1つの出力装置に送信することができる。
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェア応用、またはコードとも呼ばれる)は、プログラム可能なプロセッサの機械指令を含み、高級過程および/またはオブジェクトに向けたプログラミング言語、および/またはアセンブリ/機械言語を用いてこれらのコンピュータプログラムを実施することができる。本明細書で使用されるように、「機械可読媒体」および「コンピュータ可読媒体」という用語は、機械指令および/またはデータをプログラム可能なプロセッサに提供するための任意のコンピュータプログラム製品、機器、および/または装置(例えば、磁気ディスク、光ディスク、メモリ、プログラム可能な論理装置(PLD))を指し、機械可読信号としての機械指令を受信する機械可読媒体を含む。「機械可読信号」という用語は、機械指令および/またはデータをプログラム可能なプロセッサに提供するための任意の信号を指す。
ユーザとの対話を提供するために、ここで説明するシステムおよび技術をコンピュータに実施することができ、当該コンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)またはLCD(液晶ディスプレイ)モニタ)、およびユーザがコンピュータに入力を提供できるキーボードおよびポインティングデバイス(例えば、マウスまたはトラックボール)とを有する。他のタイプの装置は、ユーザとの対話を提供するために使用されでき、例えば、ユーザに提供されるフィードバックが、任意の形式の感覚フィードバック(例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であってもよく、任意の形式(音響入力、音声入力、または触覚入力を含む)を使用して、ユーザからの入力を受け取ることができる。
本明細書で説明するシステムおよび技術は、バックグラウンド部品を含む計算システム(例えば、データサーバとして)、または中間部品を含む計算システム(例えば、応用サーバ)、または前端部品を含む計算システム(例えば、グラフィカルユーザインターフェースまたはWebブラウザを備えたユーザーコンピュータ、ユーザが、当該グラフィカルユーザインターフェースまたは当該Webブラウザを通じて本明細書で説明するシステムおよび技術の実施形態と対話でき)、またはこのようなバックグラウンド部品、中間部品、または前端部品の任意の組合せを含む計算システムに実施されてもよい。任意の形式または媒体のデジタルデータ通信(例えば、通信ネットワーク)を通じて、システムの部品を相互に接続してもよい。通信ネットワークの例は、ローカルネットワーク(LAN)、広域ネットワーク(WAN)およびインターネットを含む。
計算システムは、クライアントおよびサーバを含んでもよい。通常、クライアントおよびサーバは、互いに離れており、通信ネットワークを介して相互作用する。クライアントとサーバ間の関係は、対応するコンピュータ上で実行され、互いにクライアント−サーバ関係を持つコンピュータプログラムによって生成される。
説明すべきものとして、本実施例の質問応答処理装置および言語モデルの訓練装置は、同じ電子機器または異なる電子機器で実行されてもよい。
本願の実施例の技術的解決手段では、クエリ対象質問に一致する少なくとも1つの候補表を取得し、各候補表が前記質問に対応する1つの候補解答を含み、前記少なくとも1つの候補表を処理して少なくとも1つの表テキストを得、前記表テキストが前記候補表における各フィールドのテキスト内容を含み、前記フィールドがタイトル、ヘッダおよびセルを含み、前記質問と各表テキストをプリセット言語モデルにそれぞれ入力して、前記質問と各候補表の一致度を得、各候補表の一致度に基づいて回答表を出力し、前記回答表が、前記少なくとも1つの候補表のうち、前記質問との一致度がプリセット値より大きい候補表、または前記質問との一致度が最も大きい候補表である。言語モデルが質問およびテキストの語意を理解できるため、質問と候補表の一致度を確定する過程では、語意理解結果に基づいて両者の一致を行い、質問と表の一致正確さと再現率を向上させる。また、解答を最終的に表形式でユーザに呈するため、ユーザにとって視覚化効果が良いので、ユーザ体験を向上させることができる。
理解すべきものとして、上記のさまざまな形式のフローを使用して、ステップの順序を変更、追加、または削除することができる。例えば、本願に記載された各ステップは、本願に開示された技術的解決手段の所望の結果が達成され得る限り、並列、順次、または異なる順序で実行されることができ、本明細書に限定されない。
上記具体的な実施形態は、本願の保護範囲に対する制限を構成しない。当業者は、設計要求および他の要因によって、様々な修正、組み合わせ、サブ組み合わせ、および置換を行うことができることを理解すべきである。本願の精神と原則の範囲内で行われた修正、同等の置換、および改善は、本願の保護範囲に含まれるものとする。

Claims (26)

  1. 質問応答処理方法であって、
    クエリ対象質問に一致する少なくとも1つの候補表を取得することであって、各候補表が前記質問に対応する1つの候補解答を含む、取得することと、
    少なくとも1つの表テキストを得るために前記少なくとも1つの候補表を処理することであって、前記表テキストが前記候補表における各フィールドのテキスト内容を含み、前記フィールドがタイトル、ヘッダおよびセルを含む、処理することと、
    前記質問と各候補表の一致度を得るために前記質問と各表テキストをプリセット言語モデルにそれぞれ入力することと、
    各候補表の一致度に基づいて、前記少なくとも1つの候補表のうち、前記質問との一致度がプリセット値より大きい候補表、または前記質問との一致度が最も大きい候補表である回答表を出力することと、を含む方法。
  2. 少なくとも1つの表テキストを得るために前記少なくとも1つの候補表を処理することは、
    前記少なくとも1つの候補表における各フィールドのテキスト内容をそれぞれ抽出することと、
    前記少なくとも1つの表テキストを得るために各候補表の各フィールドのテキスト内容をつなぎ合わせることと、を含む請求項1に記載の方法。
  3. 前記表テキストにおける各単語はフィールド情報に対応し、前記フィールド情報は、前記表テキスト内の単語が前記候補表で属するフィールドを標識するために使用される請求項2に記載の方法。
  4. 前記言語モデルが入力層を含み、前記入力層がベクトルエンコードモジュール、分節エンコードモジュールおよび位置エンコードモジュールを含み、
    前記質問と各候補表の一致度を得るために前記質問と各表テキストをプリセット言語モデルにそれぞれ入力することは、
    テキストベクトルを得るために前記質問および各表テキストを前記ベクトルエンコードモジュールに入力することと、
    分節ベクトルを得るために前記質問、各表テキストおよび前記表テキストに対応するフィールド情報を前記分節エンコードモジュールに入力することと、
    位置ベクトルを得るために前記質問および各表テキストを前記位置エンコードモジュールに入力することと、
    前記テキストベクトル、前記分節ベクトルおよび前記位置ベクトルに基づいて、前記質問と各候補表の一致度を確定することと、を含む請求項3に記載の方法。
  5. 前記質問と各候補表の一致度を得るために前記質問と各表テキストをプリセット言語モデルにそれぞれ入力することは、
    前記質問および各表テキストに基づいて前記言語モデルによって出力される確率値を取得することと、
    前記確率値に基づいて、前記質問と各候補表の一致度を確定することと、を含む請求項1〜請求項4のいずれか1項に記載の方法。
  6. クエリ対象質問に一致する少なくとも1つの候補表を取得することは、
    前記クエリ対象質問を受信することと、
    前記クエリ対象質問の解答カテゴリを確定することと、
    前記解答カテゴリが、実体および/または数字を含む目標カテゴリである場合、クエリ対象質問に一致する少なくとも1つの候補表を取得することと、を含む請求項1〜請求項4のいずれか1項に記載の方法。
  7. 前記候補表が1つであり、各候補表の一致度に基づいて回答表を出力することは、
    前記候補表の一致度が一致度閾値以上であるかどうかを確定することと、
    前記候補表の一致度が一致度閾値以上である場合、前記候補表を前記回答表として出力することと、を含む請求項1〜請求項4のいずれか1項に記載の方法。
  8. 前記候補表が1つであり、各候補表の一致度に基づいて回答表を出力することは、
    前記候補表の一致度が一致度閾値未満である場合、一致する解答が検索されないというプロンプト情報を出力することを含む請求項1〜請求項4のいずれか1項に記載の方法。
  9. 前記候補表が少なくとも2つであり、
    各候補表の一致度に基づいて回答表を出力することは、
    最高の一致度に対応する候補表を前記回答表として出力することを含む請求項1〜請求項4のいずれか1項に記載の方法。
  10. 言語モデルの訓練方法であって、
    ラベリング情報なしのテキストデータである第1の訓練サンプルデータを取得することと、
    前記第1の訓練サンプルデータに基づいて訓練対象モデルに対して第1の予備訓練を行って第1の予備訓練モデルを得ることと、
    質問と前記質問に対応する複数の候補表を含む第2の訓練サンプルデータ、およびそれに対応する、前記質問と各候補表の相関性を示すために使用されるラベリング情報を取得することと、
    前記第2の訓練サンプルデータおよびそれに対応するラベリング情報に基づいて前記第1の予備訓練モデルを訓練して、前記質問と少なくとも1つの候補表の一致度を確定するために使用される前記言語モデルを得ることとを含む方法。
  11. 前記第2の訓練サンプルデータおよびそれに対応するラベリング情報に基づいて前記第1の予備訓練モデルを訓練して、前記言語モデルを得る前に、前記方法はさらに、
    第3の訓練サンプルデータおよびそれに対応するラベリング情報を取得することであって、前記第3の訓練サンプルデータが、質問および前記質問に対応する複数のテキスト解答を含み、前記第3の訓練サンプルデータのラベリング情報が、前記質問と前記複数のテキスト解答の相関性を示すために使用され、各テキスト解答のラベリング情報の正確さが異なり、前記第3の訓練サンプルデータと前記第2の訓練サンプルデータに対応する訓練タスクが同じである、ラベリング情報を取得することと、
    再訓練後の第1の予備訓練モデルを得るために前記第3の訓練サンプルデータおよびそれに対応するラベリング情報に基づいて前記第1の予備訓練モデルを訓練することと、を含む請求項10に記載の方法。
  12. 質問応答処理装置であって、
    クエリ対象質問に一致する少なくとも1つの候補表を取得するための第1の取得モジュールであって、各候補表が前記質問に対応する1つの候補解答を含む第1の取得モジュールと、
    前記少なくとも1つの候補表を処理して、少なくとも1つの表テキストを得る表処理モジュールであって、前記表テキストが前記候補表における各フィールドのテキスト内容を含み、前記フィールドがタイトル、ヘッダおよびセルを含む表処理モジュールと、
    前記質問と各表テキストをプリセット言語モデルにそれぞれ入力して前記質問と各候補表の一致度を得るための確定モジュールと、
    各候補表の一致度に基づいて、前記少なくとも1つの候補表のうち、前記質問との一致度がプリセット値より大きい候補表、または前記質問との一致度が最も大きい候補表である回答表を出力するための出力モジュールとを含む装置。
  13. 前記表処理モジュールは、
    前記少なくとも1つの候補表における各フィールドのテキスト内容をそれぞれ抽出するための抽出ユニットと、
    各候補表の各フィールドのテキスト内容をつなぎ合わせて、前記少なくとも1つの表テキストを得るためのつなぎ合わせユニットとを含む請求項12に記載の装置。
  14. 前記表テキストにおける各単語はフィールド情報に対応し、前記フィールド情報は、前記表テキスト内の単語が前記候補表で属するフィールドを標識するために使用される請求項13に記載の装置。
  15. 前記言語モデルが入力層を含み、前記入力層がベクトルエンコードモジュール、分節エンコードモジュールおよび位置エンコードモジュールを含み、
    前記確定モジュールは、
    前記質問および各表テキストを前記ベクトルエンコードモジュールに入力して、テキストベクトルを得ること、前記質問、各表テキストおよび前記表テキストに対応するフィールド情報を前記分節エンコードモジュールに入力して、分節ベクトルを得ること、および前記質問と各表テキストを前記位置エンコードモジュールに入力して、位置ベクトルを得ることのために使用される入力ユニットと、
    前記テキストベクトル、前記分節ベクトルおよび前記位置ベクトルに基づいて、前記質問と各候補表の一致度を確定するための確定ユニットとを含む請求項14に記載の装置。
  16. 前記確定モジュールが前記質問と各表テキストをプリセット言語モデルにそれぞれ入力して、前記質問と各候補表の一致度を得るとき、
    前記質問および各表テキストに基づいて前記言語モデルによって出力される確率値を取得することと、
    前記確率値に基づいて、前記質問と各候補表の一致度を確定することと、を含む請求項12〜請求項15のいずれか1項に記載の装置。
  17. 前記取得モジュールは、
    前記クエリ対象質問を受信するための受信ユニットと、
    前記クエリ対象質問の解答カテゴリを確定するための解答カテゴリ確定ユニットと、
    前記解答カテゴリが実体および/または数字を含む目標カテゴリである場合、クエリ対象質問に一致する少なくとも1つの候補表を取得するための取得ユニットと、を含む請求項12〜請求項15のいずれか1項に記載の装置。
  18. 前記候補表が1つであり、前記出力モジュールは、
    前記候補表の一致度が一致度閾値以上であるかどうかを確定すること、および前記候補表の一致度が一致度閾値以上である場合、前記候補表を前記回答表として出力することのために使用される出力ユニットを含む請求項12〜請求項15のいずれか1項に記載の装置。
  19. 前記候補表が1つであり、前記出力モジュールは、
    前記候補表の一致度が一致度閾値未満である場合、一致する解答が検索されないというプロンプト情報を出力するための出力ユニットを含む請求項12〜請求項15のいずれか1項に記載の装置。
  20. 前記候補表が少なくとも2つであり、
    前記出力モジュールは、
    最高の一致度に対応する候補表を前記回答表として出力するための出力ユニットを含む請求項12〜請求項15のいずれか1項に記載の装置。
  21. 言語モデルの訓練装置であって、
    ラベリング情報なしのテキストデータである第1の訓練サンプルデータを取得すること、および質問と前記質問に対応する複数の候補表を含む第2の訓練サンプルデータ、およびそれに対応する、前記質問と各候補表の相関性を示すために使用されるラベリング情報を取得することのために使用される第2の取得モジュールと、
    前記第1の訓練サンプルデータに基づいて訓練対象モデルに対して第1の予備訓練を行って第1の予備訓練モデルを得ること、および前記第2の訓練サンプルデータおよびそれに対応するラベリング情報に基づいて前記第1の予備訓練モデルを訓練して、前記質問と少なくとも1つの候補表の一致度を確定するために使用される前記言語モデルを得ることのために使用される訓練モジュールとを含む装置。
  22. 前記第2の取得モジュールはさらに、第3の訓練サンプルデータおよびそれに対応するラベリング情報を取得するために使用され、前記第3の訓練サンプルデータが、質問および前記質問に対応する複数のテキスト解答を含み、前記第3の訓練サンプルデータのラベリング情報が、前記質問と前記複数のテキスト解答の相関性を示すために使用され、各テキスト解答のラベリング情報の正確さが異なり、前記第3の訓練サンプルデータと前記第2の訓練サンプルデータに対応する訓練タスクが同じであり、
    前記訓練モジュールはさらに、前記第3の訓練サンプルデータおよびそれに対応するラベリング情報に基づいて前記第1の予備訓練モデルを訓練して、再訓練後の第1の予備訓練モデルを得るために使用される請求項21に記載の装置。
  23. 電子機器であって、
    少なくとも1つのプロセッサ、および
    前記少なくとも1つのプロセッサと通信接続されるメモリを含み、
    前記メモリには前記少なくとも1つのプロセッサによって実行可能な指令が記憶され、前記指令が前記少なくとも1つのプロセッサによって実行されることによって、前記少なくとも1つのプロセッサが、請求項1〜請求項11のいずれか1項に記載の方法を実行することができる電子機器。
  24. コンピュータ指令を記憶する非一時的なコンピュータ可読記憶媒体であって、前記コンピュータ指令がコンピュータに請求項1〜請求項11のいずれか1項に記載の方法を実行させるために使用される記憶媒体。
  25. 質問応答処理方法であって、
    クエリ対象質問に一致する少なくとも1つの候補表を取得することであって、各候補表が前記質問に対応する1つの候補解答を含む、1つの候補表を取得することと、
    前記質問と各候補表をプリセット言語モデルにそれぞれ入力して前記質問と各候補表の一致度を得ることと、
    前記少なくとも1つの候補表のうち、前記質問との一致度がプリセット値より大きい候補表、または前記質問との一致度が最も大きい候補表を出力することと、を含む方法。
  26. コンピュータプログラムであって、前記コンピュータプログラムがコンピュータで実行されると、前記コンピュータに請求項1〜請求項11のいずれか1項に記載の方法を実行させることを特徴とするコンピュータプログラム。
JP2020215253A 2020-05-27 2020-12-24 質問応答処理、言語モデルの訓練方法、装置、機器および記憶媒体 Active JP7127106B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010460778.6 2020-05-27
CN202010460778.6A CN111625635B (zh) 2020-05-27 2020-05-27 问答处理方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
JP2021089739A true JP2021089739A (ja) 2021-06-10
JP7127106B2 JP7127106B2 (ja) 2022-08-29

Family

ID=72271938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020215253A Active JP7127106B2 (ja) 2020-05-27 2020-12-24 質問応答処理、言語モデルの訓練方法、装置、機器および記憶媒体

Country Status (4)

Country Link
US (1) US11645316B2 (ja)
EP (1) EP3816812A1 (ja)
JP (1) JP7127106B2 (ja)
CN (1) CN111625635B (ja)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114912427A (zh) * 2021-02-10 2022-08-16 微软技术许可有限责任公司 响应于用户输入的数据表分析
US11868381B2 (en) * 2021-03-29 2024-01-09 Google Llc Systems and methods for training language models to reason over tables
CN113342946B (zh) * 2021-05-19 2022-11-15 北京百度网讯科技有限公司 客服机器人的模型训练方法、装置、电子设备及介质
US11875121B2 (en) * 2021-05-28 2024-01-16 International Business Machines Corporation Generating responses for live-streamed questions
CN113255818A (zh) * 2021-06-10 2021-08-13 深圳前海微众银行股份有限公司 报表文件的信息获取方法、装置、设备及存储介质
CN113591908B (zh) * 2021-06-23 2023-09-29 北京百度网讯科技有限公司 事件指称匹配方法、模型训练方法、装置和电子设备
CN113420121B (zh) * 2021-06-24 2023-07-28 中国科学院声学研究所 文本处理模型训练方法、语音文本处理方法及装置
CN113553415B (zh) * 2021-06-30 2023-06-02 北京百度网讯科技有限公司 问答匹配的方法、装置及电子设备
CN113468176B (zh) * 2021-06-30 2023-09-26 北京百度网讯科技有限公司 信息录入方法和装置、电子设备、计算机可读存储介质
CN113535916B (zh) * 2021-06-30 2023-07-25 北京百度网讯科技有限公司 一种基于表格的问答方法、装置及计算机设备
CN113553414B (zh) * 2021-06-30 2023-08-25 北京百度网讯科技有限公司 智能对话方法、装置、电子设备和存储介质
CN113673236A (zh) * 2021-07-15 2021-11-19 北京三快在线科技有限公司 模型训练、表格识别方法、装置、电子设备及存储介质
CN113569025B (zh) * 2021-07-23 2024-08-20 上海明略人工智能(集团)有限公司 数据处理的方法和装置、电子设备和存储介质
CN113705628B (zh) * 2021-08-06 2024-02-06 北京百度网讯科技有限公司 预训练模型的确定方法、装置、电子设备以及存储介质
CN113656566B (zh) * 2021-08-18 2024-07-30 中国平安人寿保险股份有限公司 智能对话处理方法、装置、计算机设备及存储介质
CN114186016A (zh) * 2021-09-30 2022-03-15 阿里巴巴达摩院(杭州)科技有限公司 人机对话方法、装置、设备及存储介质
CN113722466B (zh) * 2021-11-03 2022-02-15 北京世纪好未来教育科技有限公司 批改模型训练方法、批改方法、装置、电子设备和介质
CN114064820B (zh) * 2021-11-29 2023-11-24 上证所信息网络有限公司 一种基于混合架构的表格语义查询粗排方法
CN114138959B (zh) * 2021-11-30 2024-08-27 同济大学 一种用于固定知识领域检索模型的多轮对话方法
CN114490969B (zh) * 2021-12-29 2023-03-07 北京百度网讯科技有限公司 基于表格的问答方法、装置以及电子设备
CN114090760B (zh) * 2022-01-20 2022-04-26 阿里巴巴达摩院(杭州)科技有限公司 表格问答的数据处理方法、电子设备及可读存储介质
CN114490990B (zh) * 2022-01-28 2023-05-23 北京百度网讯科技有限公司 待标注文本的确定方法、装置、设备和存储介质
CN114662482B (zh) * 2022-03-25 2024-06-18 北京感易智能科技有限公司 文本表格中答案文本的抽取方法及装置
CN114817505A (zh) * 2022-05-10 2022-07-29 国网江苏省电力有限公司南通供电分公司 一种基于历史工单匹配系统的供电工单快速回复方法
CN115048916A (zh) * 2022-05-27 2022-09-13 北京百度网讯科技有限公司 表格的处理方法和装置
CN115188014B (zh) * 2022-06-22 2023-11-14 北京百度网讯科技有限公司 落地页处理方法、模型训练方法、装置及电子设备
CN115129816B (zh) * 2022-07-04 2024-05-14 北京百度网讯科技有限公司 问答匹配模型的训练方法、装置及电子设备
CN115146049B (zh) * 2022-09-01 2022-12-27 科大讯飞(苏州)科技有限公司 问答检索方法、模型训练方法及装置、设备和存储介质
CN115688742B (zh) * 2022-12-08 2023-10-31 北京国联视讯信息技术股份有限公司 基于人工智能的用户数据分析方法及ai系统
CN116257613B (zh) * 2023-02-10 2024-02-06 北京百度网讯科技有限公司 数据生产方法、装置、电子设备及存储介质
CN116306917B (zh) * 2023-05-17 2023-09-08 卡奥斯工业智能研究院(青岛)有限公司 任务处理方法、装置、设备和计算机存储介质
CN116450867B (zh) * 2023-06-15 2023-08-18 北京枫清科技有限公司 一种基于对比学习和大语言模型的图数据语义搜索方法
CN116644170A (zh) * 2023-06-28 2023-08-25 南京领行科技股份有限公司 回复文本生成方法、装置、通信设备及存储介质
CN116523031B (zh) * 2023-07-05 2024-05-10 深圳须弥云图空间科技有限公司 语言生成模型的训练方法、语言生成方法及电子设备
CN116976294B (zh) * 2023-09-22 2024-02-09 青岛诺亚信息技术有限公司 一种用于实现复杂电子表格自动填充的方法及系统
CN117093696B (zh) * 2023-10-16 2024-02-02 浙江同花顺智能科技有限公司 一种大语言模型的提问文本生成方法、装置、设备及介质
CN117633165B (zh) * 2023-10-20 2024-05-31 广州天晟网络信息有限公司 一种智能ai客服对话引导方法
CN117407513B (zh) * 2023-11-13 2024-10-29 北京百度网讯科技有限公司 基于大语言模型的提问处理方法、装置、设备和存储介质
CN117520527B (zh) * 2024-01-08 2024-04-30 科大讯飞股份有限公司 答疑对话数据生成方法、系统、电子设备和可读存储介质
CN118093621B (zh) * 2024-02-20 2024-07-26 上海信投数字科技有限公司 结构化查询语言生成方法、装置、电子设备及存储介质
CN118095267B (zh) * 2024-03-15 2024-08-13 行至智能(北京)技术有限公司 一种基于向量匹配的语言模型回答溯源方法及系统
CN118333149B (zh) * 2024-06-11 2024-10-15 北京赛彼思智能科技有限公司 判断大语言模型输出是否为幻觉的方法及装置
CN118733711A (zh) * 2024-09-02 2024-10-01 江苏中威科技软件系统有限公司 基于ai将结构化数据转为非结构化文本实现知识库的方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645122B1 (en) * 2002-12-19 2014-02-04 At&T Intellectual Property Ii, L.P. Method of handling frequently asked questions in a natural language dialog service
US20160012052A1 (en) * 2014-07-08 2016-01-14 Microsoft Corporation Ranking tables for keyword search

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7630964B2 (en) * 2005-11-14 2009-12-08 Microsoft Corporation Determining relevance of documents to a query based on identifier distance
US9519686B2 (en) * 2014-04-09 2016-12-13 International Business Machines Corporation Confidence ranking of answers based on temporal semantics
US10467464B2 (en) * 2016-06-07 2019-11-05 The Neat Company, Inc. Document field detection and parsing
CN108287858B (zh) * 2017-03-02 2021-08-10 腾讯科技(深圳)有限公司 自然语言的语义提取方法及装置
JP2020511726A (ja) * 2017-03-22 2020-04-16 ドリリング・インフォ・インコーポレイテッド 電子文書からのデータ抽出
US10621180B2 (en) * 2017-09-30 2020-04-14 Oracle International Corporation Attribute-based detection of anomalous relational database queries
US10706228B2 (en) * 2017-12-01 2020-07-07 International Business Machines Corporation Heuristic domain targeted table detection and extraction technique
CN108491433B (zh) * 2018-02-09 2022-05-03 平安科技(深圳)有限公司 聊天应答方法、电子装置及存储介质
US20190260694A1 (en) * 2018-02-16 2019-08-22 Mz Ip Holdings, Llc System and method for chat community question answering
US10678822B2 (en) * 2018-06-29 2020-06-09 International Business Machines Corporation Query expansion using a graph of question and answer vocabulary
CN110737755A (zh) * 2018-07-03 2020-01-31 百度在线网络技术(北京)有限公司 检索方法和装置
US11568324B2 (en) * 2018-12-20 2023-01-31 Samsung Display Co., Ltd. Adversarial training method for noisy labels
CN110955761A (zh) * 2019-10-12 2020-04-03 深圳壹账通智能科技有限公司 文书中问答数据获取方法、装置、计算机设备和存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645122B1 (en) * 2002-12-19 2014-02-04 At&T Intellectual Property Ii, L.P. Method of handling frequently asked questions in a natural language dialog service
US20160012052A1 (en) * 2014-07-08 2016-01-14 Microsoft Corporation Ranking tables for keyword search

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SHUO ZHANG, KRISZTIAN BALOG: "Ad Hoc Table Retrieval using Semantic Similarity", ARXIV.ORG, JPN7021004140, 8 March 2018 (2018-03-08), ISSN: 0004609335 *

Also Published As

Publication number Publication date
US11645316B2 (en) 2023-05-09
CN111625635A (zh) 2020-09-04
EP3816812A1 (en) 2021-05-05
KR20210038449A (ko) 2021-04-07
CN111625635B (zh) 2023-09-29
US20210191962A1 (en) 2021-06-24
JP7127106B2 (ja) 2022-08-29

Similar Documents

Publication Publication Date Title
JP7127106B2 (ja) 質問応答処理、言語モデルの訓練方法、装置、機器および記憶媒体
JP7283067B2 (ja) 通信プラットフォームにおける割り込み会話のデタングル化システムと方法、非構造化メッセージを解析する方法、プログラム、及びコンピュータ装置
CN111666401B (zh) 基于图结构的公文推荐方法、装置、计算机设备及介质
CN111414482B (zh) 一种事件论元抽取方法、装置以及电子设备
CN111428049B (zh) 一种事件专题的生成方法、装置、设备和存储介质
EP3872652A2 (en) Method and apparatus for processing video, electronic device, medium and product
KR20210090576A (ko) 품질을 관리하는 방법, 장치, 기기, 저장매체 및 프로그램
JP2021056991A (ja) 推薦方法、装置、電子デバイス、記憶媒体、及びプログラム
CN112966081B (zh) 处理问答信息的方法、装置、设备和存储介质
CN116521841B (zh) 用于生成回复信息的方法、装置、设备及介质
CN114861889B (zh) 深度学习模型的训练方法、目标对象检测方法和装置
CN116501960B (zh) 内容检索方法、装置、设备及介质
CN111523019B (zh) 用于输出信息的方法、装置、设备以及存储介质
CN114692778B (zh) 用于智能巡检的多模态样本集生成方法、训练方法及装置
CN117807204A (zh) 工程机械故障问题的问答诊断方法、装置、设备和介质
CN110738056A (zh) 用于生成信息的方法和装置
CN115098729A (zh) 视频处理方法、样本生成方法、模型训练方法及装置
EP3961433A2 (en) Data annotation method and apparatus, electronic device and storage medium
CN116049370A (zh) 信息查询方法和信息生成模型的训练方法、装置
CN114141236B (zh) 语言模型更新方法、装置、电子设备及存储介质
CN114297380A (zh) 一种数据处理方法、装置、设备及存储介质
KR102725045B1 (ko) 문답 처리, 언어 모델 훈련 방법, 장치, 기기 및 저장 매체
CN112783410A (zh) 信息处理方法、介质、装置和计算设备
CN115131709B (zh) 视频类别预测方法、视频类别预测模型的训练方法及装置
CN113377922B (zh) 用于匹配信息的方法、装置、电子设备以及介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220701

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220701

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220713

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220817

R150 Certificate of patent or registration of utility model

Ref document number: 7127106

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150