JP6818916B2 - Summary generator, summary generation method and summary generation program - Google Patents
Summary generator, summary generation method and summary generation program Download PDFInfo
- Publication number
- JP6818916B2 JP6818916B2 JP2020001449A JP2020001449A JP6818916B2 JP 6818916 B2 JP6818916 B2 JP 6818916B2 JP 2020001449 A JP2020001449 A JP 2020001449A JP 2020001449 A JP2020001449 A JP 2020001449A JP 6818916 B2 JP6818916 B2 JP 6818916B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- unit
- structural information
- text information
- structuring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Machine Translation (AREA)
Description
本発明の実施形態は、サマリ生成装置、サマリ生成方法及びサマリ生成プログラムに関する。 Embodiments of the present invention relate to a summary generator, a summary generation method, and a summary generation program.
従来、音声認識技術の精度向上に伴い、会議等の発言録作成に音声認識技術を活用したシステムが提案されている。このような状況で、人手による作成のために手間がかかっていた会議等の議事録作成を支援する技術がある。例えば、議事録の雛形を準備し、分析したうえで、議事録の雛形に従った議事録を作成するための技術がある。 Conventionally, with the improvement of the accuracy of the voice recognition technology, a system utilizing the voice recognition technology for creating a statement record of a meeting or the like has been proposed. In such a situation, there is a technology that supports the preparation of minutes of meetings and the like, which has been troublesome due to manual preparation. For example, there is a technique for preparing a template of minutes, analyzing the minutes, and then creating the minutes according to the minutes template.
しかしながら、従来技術は、議事録作成のための事前の準備が煩雑であるという問題がある。具体的には、従来技術は、事前に準備した議事録の雛形を使用するため、議事録作成のための事前の準備が煩雑である。 However, the prior art has a problem that advance preparation for preparing minutes is complicated. Specifically, since the prior art uses a template of the minutes prepared in advance, the preparation in advance for creating the minutes is complicated.
本発明が解決しようとする課題は、事前準備の手間を削減することができるサマリ生成装置、サマリ生成方法及びサマリ生成プログラムを提供することである。 An object to be solved by the present invention is to provide a summarization generator, a summarization generation method, and a summarization generation program capable of reducing the time and effort of advance preparation.
実施形態のサマリ生成装置は、素性抽出部と、セグメント候補生成部と、構造化推定部とを有する。素性抽出部は、テキスト情報に含まれる単語の素性情報を抽出する。セグメント候補生成部は、抽出された素性情報に基づいて、表示のための構成単位となるセグメントの候補を生成する。構造化推定部は、生成されたセグメントの候補と、構造化のための推定モデルとに基づいて、大局的な構造の情報から局所的な構造の情報までを含む構造情報を推定する。 The summary generation device of the embodiment includes a feature extraction unit, a segment candidate generation unit, and a structured estimation unit. The feature extraction unit extracts the feature information of the word included in the text information. The segment candidate generation unit generates segment candidates to be a constituent unit for display based on the extracted feature information. The structured estimation unit estimates structural information including global structural information to local structural information based on the generated segment candidates and an estimation model for structuring.
(実施形態)
図1は、実施形態に係るサマリ生成システム1のシステム構成例を示す図である。図1に示すように、サマリ生成システム1には、サマリ生成装置100と、端末装置200とが含まれる。サマリ生成システム1において、各装置は、無線又は有線により通信可能である。また、サマリ生成システム1には、複数台の端末装置200が含まれていても良い。サマリ生成システム1は、会議等における音声データから、書式構造付きのテキストとして可視化したサマリ文書を作成するものである。
(Embodiment)
FIG. 1 is a diagram showing a system configuration example of the
上述した構成において、端末装置200は、会議等における音声データを取得し、ネットワークを介して、取得した音声データをサマリ生成装置100に対して送信する。音声データは、端末装置200に接続されるマイクロフォン等から取得される。会議では、1のマイクロフォンが使用されても良いし、複数のマイクロフォンが使用されても良い。異なる拠点間を通じて会議が開催される場合もあるため、サマリ生成システム1には複数の端末装置200が含まれることも有り得る。かかる端末装置200は、PC(Personal Computer)やタブレット端末等の情報機器である。
In the above-described configuration, the
サマリ生成装置100は、端末装置200から音声データを取得し、発話者の明示的な要約指示や発話に含まれる構造化要求の表現を検知し、適切な表示単位(セグメント)を推定する。そして、サマリ生成装置100は、発話者からの終端指示等に応じて、各セグメントをその内容に応じて組み替え、各種の表示形式に変換して出力する。かかるサマリ生成装置100は、サーバ装置等の情報処理装置である。
The
図2は、実施形態に係るサマリ生成装置100のハードウェア構成例を示すブロック図である。図2に示すように、サマリ生成装置100は、CPU(Central Processing Unit)12と、ROM(Read Only Memory)13と、RAM(Random Access Memory)14と、通信部15とを有する。上記各部は、バス11により互いに接続される。
FIG. 2 is a block diagram showing a hardware configuration example of the
CPU12は、サマリ生成装置100全体の動作を制御する。CPU12は、RAM14等を作業領域として、ROM13等に記憶されたプログラムを実行することで、サマリ生成装置100全体の動作を制御する。RAM14は、各種処理に関する情報等を一時的に記憶するとともに、ROM13等に格納されたプログラムの実行時の作業領域として使用される。ROM13は、サマリ生成装置100による処理を実現するためのプログラムを記憶する。通信部15は、無線又は有線によるネットワークを介して、端末装置200等の外部装置と通信する。なお、図2に示したハードウェア構成は一例であり、上記の他にも、処理結果を出力する表示部や各種情報を入力するための操作部等が含まれていても良い。
The
図3は、実施形態に係るサマリ生成装置100の機能構成例を示すブロック図である。図3に示すように、サマリ生成装置100は、音声認識部110と、素性抽出部120と、セグメント候補生成部130と、構造化推定部140と、指示部160と、表示形式変換部170とを有する。上記各部は、これらの一部又は全てがソフトウェア(プログラム)で実現されても良いし、ハードウェア回路で実現されても良い。また、サマリ生成装置100は、ROM13等に、構造推定モデル150を記憶している。
FIG. 3 is a block diagram showing a functional configuration example of the
音声認識部110は、音声データに対して音声認識処理を実行する。より具体的には、音声認識部110は、端末装置200から送信された音声データの入力を受け付ける。そして、音声認識部110は、音声認識処理を実行し、各発話の文字データと、発話されたときの時刻の情報とを含むテキスト情報を生成する。図4は、実施形態に係る音声認識処理結果の例を示す図である。図4に示すように、音声認識結果であるテキスト情報には、各発話の文字データと、発話されたときの時刻の情報とが含まれる。
The
また、音声認識部110は、音声データの音響特徴として、発話区間や無音区間等を特定し、これらの区間の時間長を検出する。なお、音声認識部110は、サマリ生成装置100に含まれていなくても良く、音声認識処理・音響特徴の抽出処理の実行結果をもとに、後段の素性抽出部120が処理するような構成としても良い。
In addition, the
素性抽出部120は、テキスト情報に含まれる素性情報を抽出する。より具体的には、素性抽出部120は、音声認識部110によって生成されたテキスト情報に対して、形態素解析処理を適用する。図5は、実施形態に係る形態素解析処理結果の例を示す図である。図5に示すように、形態素解析処理により、意味を有する言語の最小単位に分割される。そして、素性抽出部120は、テキスト情報に含まれる品詞情報を特定し、意味クラス解析処理を行なう。名詞であれば、そのプロパティ情報に基づくより詳細な情報(例えば、人名や日付等の情報)を素性情報として抽出する。例えば、意味クラス解析処理では、数量表現や単位表現の有無、人名や組織名、イベント名、専門用語等のキーワードが素性情報として抽出される。続いて、素性抽出部120は、テキスト情報に対して論理要素の判定を行なう。例えば、論理要素の判定では、順序付きの箇条書き表現や、構造化のためのコマンド表現等がテキスト情報に含まれているか否かが判定される。素性抽出部120は、テキスト情報に論理要素が含まれていれば、それらのメタデータを付与しておく。
The
図6は、実施形態に係るコマンド表現の例を示す図である。図6に示すように、コマンド表現は、「まとめます(conclusion)」、「TODO(todo)」、「以上(terminate)」、「終わります(terminate)」等である。図7は、実施形態に係る品詞のプロパティ情報、意味クラスの例を示す図である。図7に示すように、品詞のプロパティ情報や意味クラスは、「10日」であれば「DATE」、「西口」であれば「PERSON」等となる。 FIG. 6 is a diagram showing an example of a command expression according to the embodiment. As shown in FIG. 6, the command expressions are "conclusion", "TODO (todo)", "terminate", "terminate", and the like. FIG. 7 is a diagram showing an example of property information and a meaning class of part of speech according to the embodiment. As shown in FIG. 7, the property information and the meaning class of the part of speech are “DATE” for “10 days”, “PERSON” for “west exit”, and the like.
その後、素性抽出部120は、テキスト情報に対してセグメントラベルの判定を行なう。セグメントラベルとは、セグメント(表示単位)の役割を表す名称であり、前段で抽出された意味クラスや名詞のプロパティ情報、又は、このような要素を有さない発話のテキスト、構造化指示のコマンド(指示命令)を含むか否か、等に応じて付与されるメタデータのことである。例えば、構造化指示のコマンドは、構造化の開始を示唆する指示命令を指し、「箇条書きはじまり」、「ここから表」、「ここから表形式」等がこれに該当する。また、素性抽出部120は、音声認識部110によって検出された発話区間や無音区間を周辺情報として付与しておく。
After that, the
また、素性情報として、サマリ生成システム1由来の情報も利用可能である。例えば、素性抽出部120は、システム由来の情報として、マイクロフォンや接続されている端末装置200のログインユーザをもとにした話者IDの検出、会議室等の利用時刻やスケジューラ等と連動して参照可能な会議タイトル、会議の開催時刻、参加者、会議室等の会議情報、会議中に音声を入力している個別の話者情報等の会議詳細情報があれば、これらを素性情報として取得しておく。図8は、実施形態に係るシステム由来の情報例を示す図である。図8に示すように、システム由来の情報は、「話者ID」であれば「A」であり、「会議日時」であれば「2015/10/23」等である。
In addition, information derived from the
セグメント候補生成部130は、構造化のための最小構成単位の候補のバリエーションを生成する。構造化における最小構成単位の候補には、粒度の大きな順に、話者、パラグラフ、フレーズ、漢字やカタカナ等の同一文字種の連続、意味クラス、単語、品詞等の単位で区切られる文字列が該当する。より具体的には、セグメント候補生成部130は、音声認識部110によって生成されたテキスト情報と、素性抽出部120によって抽出された素性情報とを読み込む。そして、セグメント候補生成部130は、各素性情報に存在するセグメントラベルを検出する。例えば、セグメントラベルの検出では、開始指示や終端指示、これらのほか、構造化の手がかりになるようなラベル等が検出される。
The segment candidate generation unit 130 generates a variation of the candidate of the minimum structural unit for structuring. Candidates for the minimum structural unit in structuring correspond to the sequence of the same character type such as speaker, paragraph, phrase, kanji and katakana, meaning class, word, part of speech, etc., in descending order of granularity. .. More specifically, the segment candidate generation unit 130 reads the text information generated by the
続いて、セグメント候補生成部130は、これまでに読み込んで蓄積されている素性情報をグルーピングする。例えば、グルーピングでは、類似する要素の規則的な出現の繰り返しや、種別が異なる素性情報の出現パターン等が検出され、このような繰り返しの単位を同一のグループとする。例を挙げると、類似する要素としては、「日付、場所、任意のテキスト文」等の要素(3要素)の繰り返しが規則的に出現しているものを指す。 Subsequently, the segment candidate generation unit 130 groups the feature information that has been read and accumulated so far. For example, in grouping, the regular appearance of similar elements and the appearance pattern of different types of feature information are detected, and the unit of such repetition is set to the same group. For example, similar elements refer to those in which repetitions of elements (three elements) such as "date, place, arbitrary text sentence" appear regularly.
また、セグメント候補生成部130は、セグメントラベルに構造化の終端指示が含まれていれば、それまでにグルーピングされた素性情報間に対して順序付けを行なう。順序付けの例としては、素性情報の種別に対し事前に順序付け定義をしておき、そのうえで順序付けを固定的に定義する方法や、抽出された素性情報の具体例において、各素性に含まれる文字長(平均の文字長)を基準に順序付けする方法、特定の要素(意味クラス)の含有数を基準に順序付けする方法等がある。 Further, if the segment label includes a structuring end instruction, the segment candidate generation unit 130 performs ordering among the feature information grouped up to that point. Examples of ordering include a method in which ordering is defined in advance for the type of feature information and then the ordering is fixedly defined, and in a specific example of extracted feature information, the character length included in each feature ( There are a method of ordering based on the average character length), a method of ordering based on the content of a specific element (semantic class), and the like.
図9は、実施形態に係るセグメント化の結果例を示す図である。図9に示すように、セグメント化により、時刻ごとのテキストに含まれるコマンド表現、品詞のプロパティ情報や意味クラス、システム由来の情報等が付与されたテキスト情報が生成される。 FIG. 9 is a diagram showing an example of the result of segmentation according to the embodiment. As shown in FIG. 9, by segmentation, text information to which command expressions included in the text for each time, property information and meaning class of part of speech, system-derived information, and the like are added is generated.
構造化推定部140は、セグメント情報をもとに構造情報を推定する。より具体的には、構造化推定部140は、セグメント候補生成部130によって生成されたセグメント情報を読み込む。そして、構造化推定部140は、構造推定モデル150から構造推定モデルを読み込む。構造推定モデルは、表示に適した形式例や過去に編集・確定された結果を学習データとして学習されたものである。構造化推定部140は、このような構造推定モデルをもとに、素性情報の出現の組み合わせやパターンを与えることで、好適な構造化候補を順序付きで提示する。初期の構造情報の提示では、順序付きセグメントパターンから最も尤度の高い構造化結果が提示される。
The
続いて、構造化推定部140は、ユーザからの確定指示を受け付ける。ユーザからの指示は、指示部160を介して受け付けられる。例えば、現在の提示候補に対して、ユーザが問題なければ、提示候補を確定した構造化結果として提示する。一方、ユーザからの確定指示が得られない場合(次候補の提示の要求を受け付けた場合)には、次の構造化結果が提示される。次の構造化結果を提示する場合には、セグメントの組み合わせの変更だけではなく、セグメントそのものの取り出し方に遡ってバリエーションを変更して提示しても良い。なお、構造化結果の提示は、端末装置200から出力しても良いし、サマリ生成装置100から出力しても良い。
Subsequently, the
図10は、実施形態に係る構造化推定の候補抽出例を説明する図である。図10に示すように、セグメント情報をもとに、大局的な構造の情報から局所的な構造の情報までを構造化結果とする。 FIG. 10 is a diagram illustrating an example of extracting candidates for structured estimation according to the embodiment. As shown in FIG. 10, based on the segment information, the structuring result is from the information of the global structure to the information of the local structure.
表示形式変換部170は、確定された構造化結果をユーザが閲覧するための表示形式に変換する。より具体的には、表示形式変換部170は、構造化推定部140において確定された構造化結果を読み込む。そして、表示形式変換部170は、表示形式変換モデルを読み込む。表示形式変換モデルは、構造化結果に対応して、どのような表示形式で提示するかの定義パターンが記載されているものであり、CSS(Cascading Style Sheets)やXSLT(XSL Transformations)等で記述することが可能である。
The display
続いて、表示形式変換部170は、構造化結果と、表示形式変換モデルとから、初期の変換結果を提示する。この提示に対し、指示部160を介して、ユーザからの確定指示を受け付けた場合には、変換結果をサマリ文書として出力する。一方、ユーザからの確定指示が得られない場合(次候補の提示の要求を受け付けた場合)には、次に尤度の高い変換結果が提示される。なお、変換結果の提示は、端末装置200から出力しても良いし、サマリ生成装置100から出力しても良い。
Subsequently, the display
図11は、実施形態に係る表示形式の候補例を説明する図である。図11に示すように、構造化結果のうち、何れかの構造の情報で提示する場合に、日付順に表示されたり、人名ごとに表示されたり、項目と人のみが表示されたりする。 FIG. 11 is a diagram illustrating a candidate display format according to the embodiment. As shown in FIG. 11, when presenting with information of any structure among the structured results, they are displayed in chronological order, displayed for each person's name, or only items and people are displayed.
図12は、実施形態に係る素性抽出部120による処理の流れの例を示すフローチャートである。図12に示すように、素性抽出部120は、音声認識部110によって生成されたテキスト情報を取得する(ステップS101)。そして、素性抽出部120は、取得したテキスト情報に対して、形態素解析処理を適用する(ステップS102)。続いて、素性抽出部120は、テキスト情報に含まれる品詞情報を特定し、意味クラス解析処理を実行する(ステップS103)。その後、素性抽出部120は、テキスト情報に対して論理要素の判定を行なう(ステップS104)。
FIG. 12 is a flowchart showing an example of a processing flow by the
そして、素性抽出部120は、テキスト情報に対してセグメントラベルの判定を行なう(ステップS105)。続いて、素性抽出部120は、音声認識部110によって検出された発話区間や無音区間を周辺情報として付与する(ステップS106)。その後、素性抽出部120は、システム由来の情報として、マイクロフォンや端末装置200のログインユーザをもとにした話者IDを検出する(ステップS107)。そして、素性抽出部120は、外部装置が管理する会議詳細情報等を検出する(ステップS108)。
Then, the
図13は、実施形態に係るセグメント候補生成部130による処理の流れの例を示すフローチャートである。図13に示すように、セグメント候補生成部130は、音声認識部110によって生成されたテキスト情報と、素性抽出部120によって抽出された素性情報とを読み込む(ステップS201)。そして、セグメント候補生成部130は、各素性情報に含まれるセグメントラベルを読み込む(ステップS202)。続いて、セグメント候補生成部130は、これまでの読み込みによって蓄積された素性情報をグルーピングする(ステップS203)。その後、セグメント候補生成部130は、この時点でグルーピングされている素性情報間の順序付けを行なう(ステップS204)。
FIG. 13 is a flowchart showing an example of a processing flow by the segment candidate generation unit 130 according to the embodiment. As shown in FIG. 13, the segment candidate generation unit 130 reads the text information generated by the
そして、セグメント候補生成部130は、セグメントラベルに構造化の終端指示が含まれているか否かを判定する(ステップS205)。このとき、セグメント候補生成部130は、セグメントラベルに構造化の終端指示が含まれている場合に(ステップS205:Yes)、グルーピングされた素性情報間の順序付けを行なう(ステップS206)。一方、セグメント候補生成部130は、セグメントラベルに構造化の終端指示が含まれていない場合に(ステップS205:No)、ステップS201の処理に戻る。 Then, the segment candidate generation unit 130 determines whether or not the segment label includes a structuring end instruction (step S205). At this time, the segment candidate generation unit 130 performs ordering among the grouped feature information (step S206) when the segment label includes a structuring end instruction (step S205: Yes). On the other hand, the segment candidate generation unit 130 returns to the process of step S201 when the segment label does not include the structuring end instruction (step S205: No).
図14は、実施形態に係る構造化推定部140による処理の流れの例を示すフローチャートである。図14に示すように、構造化推定部140は、セグメント候補生成部130によって生成された順序付きのセグメント情報を読み込む(ステップS301)。そして、構造化推定部140は、構造推定モデル150から構造推定モデルを読み込む(ステップS302)。続いて、構造化推定部140は、読み込んだセグメント情報や構造推定モデルをもとに、素性情報の出現の組み合わせやパターンを与えることで、初期の構造情報(構造化の候補)を提示する(ステップS303)。
FIG. 14 is a flowchart showing an example of a processing flow by the structured
その後、構造化推定部140は、構造情報の提示に応じてユーザからの確定指示を受け付けた場合に(ステップS304:Yes)、提示した候補を確定した構造情報として付与する(ステップS305)。また、構造化推定部140は、構造情報の提示に応じてユーザからの確定指示が受け付けられない(次候補の提示要求を受け付けた)場合に(ステップS304:No)、次点でスコアの高い構造情報の候補を提示する(ステップS306)。候補の提示後は、ステップS304の処理に戻り、ユーザからの確定指示待ちの状態となる。
After that, when the
図15は、実施形態に係る表示形式変換部170による処理の流れの例を示すフローチャートである。図15に示すように、表示形式変換部170は、構造化推定部140において確定された構造化結果を読み込む(ステップS401)。そして、表示形式変換部170は、表示形式変換モデルを読み込む(ステップS402)。続いて、表示形式変換部170は、構造化結果と、表示形式変換モデルとから、初期の変換結果を提示する(ステップS403)。
FIG. 15 is a flowchart showing an example of a processing flow by the display
その後、表示形式変換部170は、変換結果の提示に応じてユーザからの確定指示を受け付けた場合に(ステップS404:Yes)、この変換結果をサマリ文書として出力する(ステップS405)。また、変換結果の提示に応じてユーザからの確定指示が受け付けられない(次候補の提示の要求を受け付けた)場合に(ステップS404:No)、次点でスコアの高い変換結果の候補を提示する(ステップS406)。候補の提示後は、ステップS404の処理に戻り、ユーザからの確定指示待ちの状態となる。
After that, when the display
実施形態によれば、音声データに対する音声認識処理結果から、話者による明示的な指示や構造化要求のための表現をもとにセグメントを推定し、セグメントをその内容に応じて組み替え、各種の表示形式に変換して提示するので、事前準備の手間を削減することができる。 According to the embodiment, the segment is estimated from the voice recognition processing result for the voice data based on the explicit instruction by the speaker and the expression for the structured request, and the segment is rearranged according to the content, and various types are used. Since it is converted into a display format and presented, the time and effort required for advance preparation can be reduced.
また、上記実施形態に係るサマリ生成装置100は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用いることで実現することが可能である。実行されるプログラムは、上述してきた各機能を含むモジュール構成となっている。また、実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録されて提供しても、ROM等に予め組み込んで提供しても良い。
Further, the
また、上述した実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。また、各実施形態は、内容を矛盾させない範囲で適宜組み合わせることが可能である。また、各実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Moreover, the above-described embodiment is presented as an example, and is not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. In addition, each embodiment can be appropriately combined as long as the contents do not contradict each other. In addition, each embodiment and its modification are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.
100 サマリ生成装置
110 音声認識部
120 素性抽出部
130 セグメント候補生成部
140 構造化推定部
150 構造推定モデル
160 指示部
170 表示形式変換部
100
Claims (9)
抽出された前記素性情報に基づいて、表示のための構成単位となるセグメントの候補を生成するセグメント候補生成部と、
生成されたセグメントの候補と、構造化のための推定モデルとに基づいて、前記テキスト情報を相互に異なる構造に構造化した結果である複数の構造情報を推定する構造化推定部と、
複数の前記構造情報のうち、指示された前記構造情報を、前記テキスト情報のサマリとして出力する出力制御部と、
を有するサマリ生成装置。 A feature extraction unit that extracts feature information of words contained in text information,
A segment candidate generation unit that generates segment candidates that are constituent units for display based on the extracted feature information.
A structured estimation unit that estimates a plurality of structural information that is the result of structuring the text information into different structures based on the generated segment candidates and an estimation model for structuring.
An output control unit that outputs the designated structural information among the plurality of structural information as a summary of the text information.
Summary generator with.
前記素性抽出部は、生成された前記テキスト情報に含まれる単語の素性情報を抽出する請求項1に記載のサマリ生成装置。 It further has a voice recognition unit that executes voice recognition processing of voice data and generates the text information.
The summary generator according to claim 1, wherein the feature extraction unit extracts feature information of words included in the generated text information.
前記素性抽出部は、前記文字情報に対する時刻と、前記音響特徴とを前記単語に対する周辺情報として抽出する請求項2に記載のサマリ生成装置。 The voice recognition unit generates the text information in which the character information of the utterance and the time when the utterance is spoken are associated with each other, and extracts the acoustic characteristics of the voice data.
The summary generator according to claim 2, wherein the feature extraction unit extracts the time for the character information and the acoustic feature as peripheral information for the word.
請求項1〜3の何れか一つに記載のサマリ生成装置。 The output control unit converts the instructed structural information into a display format for viewing and outputs the information.
The summary generator according to any one of claims 1 to 3.
前記出力制御部は、提示された前記構造情報に対して確定指示が受け付けられた場合に、提示された前記構造情報を、前記テキスト情報のサマリとして出力する、
請求項1〜4の何れか一つに記載のサマリ生成装置。 The structured estimation unit presents structural information having a higher likelihood for the estimation model than other structural information based on the estimation model, which is learning data based on past processing results.
When the confirmation instruction is received for the presented structural information, the output control unit outputs the presented structural information as a summary of the text information.
The summary generator according to any one of claims 1 to 4.
前記出力制御部は、提示された前記構造情報に対して確定指示が受け付けられた場合に、提示された前記構造情報を、前記テキスト情報のサマリとして出力する、
請求項1に記載のサマリ生成装置。 The structured estimation unit presents a plurality of the structural information in the order of likelihood with respect to the estimation model.
When the confirmation instruction is received for the presented structural information, the output control unit outputs the presented structural information as a summary of the text information.
The summary generator according to claim 1.
テキスト情報に含まれる単語の素性情報を抽出するステップと、
抽出された前記素性情報に基づいて、表示のための構成単位となるセグメントの候補を生成するステップと、
生成されたセグメントの候補と、構造化のための推定モデルとに基づいて、前記テキスト情報を相互に異なる構造に構造化した結果である複数の構造情報を推定する構造化推定ステップと、
複数の前記構造情報のうち、指示された前記構造情報を、前記テキスト情報のサマリとして出力する出力制御ステップと、
を含むサマリ生成方法。 A summary generation method performed by a summary generator,
Steps to extract the feature information of words contained in text information,
Based on the extracted feature information, a step of generating a segment candidate as a constituent unit for display, and
A structured estimation step that estimates a plurality of structural information that is the result of structuring the text information into different structures based on the generated segment candidates and an estimation model for structuring.
An output control step that outputs the instructed structural information as a summary of the text information among the plurality of structural information.
Summary generation method including.
テキスト情報に含まれる単語の素性情報を抽出するステップと、
抽出された前記素性情報に基づいて、表示のための構成単位となるセグメントの候補を生成するステップと、
生成されたセグメントの候補と、構造化のための推定モデルとに基づいて、前記テキスト情報を相互に異なる構造に構造化した結果である複数の構造情報を推定する構造化推定ステップと、
複数の前記構造情報のうち、指示された前記構造情報を、前記テキスト情報のサマリとして出力する出力制御ステップと、
を実行させるためのサマリ生成プログラム。 In the summary generator,
Steps to extract the feature information of words contained in text information,
Based on the extracted feature information, a step of generating a segment candidate as a constituent unit for display, and
A structured estimation step that estimates a plurality of structural information that is the result of structuring the text information into different structures based on the generated segment candidates and an estimation model for structuring.
An output control step that outputs the instructed structural information as a summary of the text information among the plurality of structural information.
Summary generator to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020001449A JP6818916B2 (en) | 2020-01-08 | 2020-01-08 | Summary generator, summary generation method and summary generation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020001449A JP6818916B2 (en) | 2020-01-08 | 2020-01-08 | Summary generator, summary generation method and summary generation program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016054331A Division JP2017167433A (en) | 2016-03-17 | 2016-03-17 | Summary generation device, summary generation method, and summary generation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020074020A JP2020074020A (en) | 2020-05-14 |
JP6818916B2 true JP6818916B2 (en) | 2021-01-27 |
Family
ID=70610097
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020001449A Active JP6818916B2 (en) | 2020-01-08 | 2020-01-08 | Summary generator, summary generation method and summary generation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6818916B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005050472A2 (en) * | 2003-11-21 | 2005-06-02 | Philips Intellectual Property & Standards Gmbh | Text segmentation and topic annotation for document structuring |
JP4649405B2 (en) * | 2004-06-07 | 2011-03-09 | 株式会社日立メディコ | Structured document creation method and apparatus |
US7584103B2 (en) * | 2004-08-20 | 2009-09-01 | Multimodal Technologies, Inc. | Automated extraction of semantic content and generation of a structured document from speech |
JP5677901B2 (en) * | 2011-06-29 | 2015-02-25 | みずほ情報総研株式会社 | Minutes creation system and minutes creation method |
-
2020
- 2020-01-08 JP JP2020001449A patent/JP6818916B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020074020A (en) | 2020-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107430851B (en) | Speech presentation device and speech presentation method | |
US20190080687A1 (en) | Learning-type interactive device | |
US20150179173A1 (en) | Communication support apparatus, communication support method, and computer program product | |
JP2013167985A (en) | Conversation summary generation system and conversation summary generation program | |
JP2013120547A (en) | Discourse summary template creation system and discourse summary template creation program | |
US20200320976A1 (en) | Information processing apparatus, information processing method, and program | |
JP7200533B2 (en) | Information processing device and program | |
JP5574842B2 (en) | FAQ candidate extraction system and FAQ candidate extraction program | |
WO2021255795A1 (en) | Information processing device, information processing method, and program | |
JP6998017B2 (en) | Speech synthesis data generator, speech synthesis data generation method and speech synthesis system | |
US10540987B2 (en) | Summary generating device, summary generating method, and computer program product | |
JP3542578B2 (en) | Speech recognition apparatus and method, and program | |
JP6818916B2 (en) | Summary generator, summary generation method and summary generation program | |
JP5611270B2 (en) | Word dividing device and word dividing method | |
US20230069113A1 (en) | Text Summarization Method and Text Summarization System | |
KR102464156B1 (en) | Call center service providing apparatus, method, and program for matching a user and an agent vasded on the user`s status and the agent`s status | |
JP5722375B2 (en) | End-of-sentence expression conversion apparatus, method, and program | |
JP5341732B2 (en) | Discourse summary generation system and discourse summary generation program | |
JP2014021180A (en) | Sign language translation device and sign language translation program | |
JP2006236037A (en) | Voice interaction content creation method, device, program and recording medium | |
US7054813B2 (en) | Automatic generation of efficient grammar for heading selection | |
CN118571229B (en) | Voice labeling method and device for voice feature description | |
JP7211384B2 (en) | Voice recognition device, personal identification method and personal identification program | |
JP7501610B2 (en) | Voice recognition device, control method, and program | |
JP2008217370A (en) | Profile registration system, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201022 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201228 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6818916 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |