Nothing Special   »   [go: up one dir, main page]

JP2010224813A - Emotion estimation device and method - Google Patents

Emotion estimation device and method Download PDF

Info

Publication number
JP2010224813A
JP2010224813A JP2009070726A JP2009070726A JP2010224813A JP 2010224813 A JP2010224813 A JP 2010224813A JP 2009070726 A JP2009070726 A JP 2009070726A JP 2009070726 A JP2009070726 A JP 2009070726A JP 2010224813 A JP2010224813 A JP 2010224813A
Authority
JP
Japan
Prior art keywords
expression
emotion
class
intention
ontology
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009070726A
Other languages
Japanese (ja)
Other versions
JP5121763B2 (en
Inventor
Shinichi Nagano
伸一 長野
Yumiko Shimogoori
祐美子 下郡
Masumi Inaba
真純 稲葉
Takayuki Iida
貴之 飯田
Masanori Hattori
正典 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009070726A priority Critical patent/JP5121763B2/en
Publication of JP2010224813A publication Critical patent/JP2010224813A/en
Application granted granted Critical
Publication of JP5121763B2 publication Critical patent/JP5121763B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an emotion estimation device and method, for estimating the emotion of a writer of text data with high accuracy at low cost. <P>SOLUTION: A receiving unit 110 receives text data. An extraction unit 150 extracts an emotion expression, an object expression and an intention expression which mutually have dependency from the text data. A determination unit 160 refers to an emotion expression ontology, an object expression ontology and an intention expression ontology to determine an emotion expression class, an object expression class and an intention expression class to which the extracted emotion expression, object expression and intention expression belong respectively. An estimation unit 170 obtains an emotion vector associated with the set of the determined emotion expression class, object expression class and intention expression class from an emotion table storage 138, and estimates the emotion of the writer of the text data using the obtained emotion vector. A transmission unit 120 transmits the estimation result. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、感情推定装置、及び方法に関する。   The present invention relates to an emotion estimation apparatus and method.

従来から、テキストデータを用いて書き手の感情を推測する技術が知られている。例えば特許文献1には、感情を表す単語を感情表現辞書として構築しておき、テキストデータから抽出した単語を感情表現辞書と照合して、書き手の感情を判定する技術が開示されている。   Conventionally, a technique for estimating the writer's emotion using text data is known. For example, Patent Literature 1 discloses a technique in which words representing emotions are constructed as an emotion expression dictionary, and words extracted from text data are collated with the emotion expression dictionary to determine the writer's emotions.

特開2002−230011号公報JP 2002-230011 A

しかしながら、テキストデータの書き手の感情は、感情を表す単語など特定の単語に依存して定まるものではなく、複数の単語の組み合わせによって定まることが多い。また、テキストデータの書き手の表現の数やそのバリエーションは膨大な量になるため、感情を示す単語又はその組み合わせ全てに感情を推定するためのルールを定義するとなると、多大なコストがかかってしまう。   However, the emotion of the writer of the text data is not determined depending on a specific word such as a word representing emotion, but is often determined by a combination of a plurality of words. In addition, since the number of expressions of text data writers and variations thereof are enormous, it would be very costly to define rules for estimating emotions for all words representing emotions or combinations thereof.

本発明は、上記事情に鑑みてなされたものであり、テキストデータの書き手の感情を高い精度で推測するとともに、低コストで実現することができる感情推定装置、及び方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an emotion estimation apparatus and method that can estimate the emotion of a writer of text data with high accuracy and can be realized at low cost. To do.

上述した課題を解決し、目的を達成するために、本発明の一態様にかかる感情推定装置は、事象の性質又は感情を表現する感性表現と、前記感性表現が属する概念のクラスである感性表現クラスとの関係を示す感性表現オントロジーを記憶する感性表現オントロジー記憶部と、前記感性表現が表す対象物を表現する対象表現と、前記対象表現が属する概念のクラスである対象表現クラスとの関係を示す対象表現オントロジーを記憶する対象表現オントロジー記憶部と、意図又は感想を表現する意図表現と、前記意図表現が属する概念のクラスである意図表現クラスとの関係を示す意図表現オントロジーを記憶する意図表現オントロジー記憶部と、前記感性表現クラス、前記対象表現クラス、及び前記意図表現クラスの組と、感情を示す感情情報とを対応付けた感情テーブルを記憶する感情テーブル記憶部と、テキストデータを入力する入力部と、前記テキストデータから、それぞれの表現が依存関係にある前記感性表現、前記対象表現、及び前記意図表現を抽出する抽出部と、抽出された前記感性表現、前記対象表現、前記意図表現がそれぞれ属する前記感性表現クラス、前記対象表現クラス、前記意図表現クラスの組を、前記感性表現オントロジー、前記対象表現オントロジー、及び前記意図表現オントロジーを参照して決定する決定部と、決定された前記組に対応付けられた前記感情情報を前記感情テーブル記憶部から取得し、取得した前記感情情報を用いて、前記テキストデータの書き手の感情を推定する推定部と、推定結果を出力する出力部と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, an emotion estimation apparatus according to an aspect of the present invention includes a sensitivity expression that expresses the nature or emotion of an event, and a sensitivity expression that is a concept class to which the sensitivity expression belongs. A relationship between a sensitivity expression ontology storage unit that stores a sensitivity expression ontology indicating a relationship with a class, a target expression that expresses an object represented by the sensitivity expression, and a target expression class that is a concept class to which the target expression belongs. An intention expression storing an intention expression ontology that indicates a relationship between an object expression ontology storage unit that stores an object expression ontology to be displayed, an intention expression that expresses an intention or impression, and an intention expression class that is a class of a concept to which the intention expression belongs. A set of an ontology storage unit, the sensitivity expression class, the target expression class, and the intention expression class; An emotion table storage unit that stores an emotion table in association with each other, an input unit that inputs text data, and the emotional expression, the target expression, and the intention expression in which each expression is dependent on the text data An extraction unit for extracting the emotional expression, the target expression, the sensitivity expression class to which the intention expression belongs, the target expression class, and the set of the intention expression class, the sensitivity expression ontology, and the target expression Ontology, a determination unit that determines with reference to the intention expression ontology, and the emotion information associated with the determined set is acquired from the emotion table storage unit, using the acquired emotion information, An estimation unit for estimating an emotion of a writer of text data, and an output unit for outputting an estimation result

また、本発明の別の態様にかかる感情推定方法は、入力受付部が、テキストデータの入力を受け付ける入力受付ステップと、抽出部が、前記テキストデータから、事象の性質又は感情を表現する感性表現、前記感性表現が表す対象物を表現する対象表現、及び意図又は感想を表現する意図表現のそれぞれの表現が依存関係にある前記感性表現、前記対象表現、及び前記意図表現を抽出する抽出ステップと、決定部が、前記感性表現と前記感性表現が属する概念のクラスである感性表現クラスとの関係を示す感性表現オントロジーを記憶する感性表現オントロジー記憶部の前記感性表現オントロジーと、前記対象表現と前記対象表現が属する概念のクラスである対象表現クラスとの関係を示す対象表現オントロジーを記憶する対象表現オントロジー記憶部の前記対象表現オントロジーと、前記意図表現と前記意図表現が属する概念のクラスである意図表現クラスとの関係を示す意図表現オントロジーを記憶する意図表現オントロジー記憶部の前記意図表現オントロジーを参照して、抽出された前記感性表現、前記対象表現、前記意図表現がそれぞれ属する前記感性表現クラス、前記対象表現クラス、前記意図表現クラスの組を決定する決定ステップと、推定部が、前記感性表現クラス、前記対象表現クラス、及び前記意図表現クラスの組と、感情を示す感情情報とを対応付けた感情テーブルを記憶する感情テーブル記憶部から、決定された前記組に対応付けられた前記感情情報を取得し、取得した前記感情情報を用いて、前記テキストデータの書き手の感情を推定する推定ステップと、出力制御部が、推定結果を出力部に出力させる出力制御ステップと、を含むことを特徴とする。   The emotion estimation method according to another aspect of the present invention includes an input reception step in which an input reception unit receives input of text data, and a sensitivity expression in which an extraction unit expresses the nature or emotion of an event from the text data. Extracting the object expression expressing the object represented by the sensitivity expression, and the sensitivity expression, the object expression, and the intention expression in which each expression of the intention expression expressing the intention or impression is in a dependency relationship; The sensitivity expression ontology storage unit stores a sensitivity expression ontology indicating a relationship between the sensitivity expression and a sensitivity class that is a concept class to which the sensitivity expression belongs, and the target expression and the target expression Object expression ontology that stores object expression ontologies that indicate the relationship with the object expression class that is the class of concept to which the object expression belongs -Refer to the intention expression ontology of the intention expression ontology storage section that stores the intention expression ontology indicating the relationship between the target expression ontology of the storage unit and the intention expression class that is a class of a concept to which the intention expression belongs. A determination step for determining a set of the extracted emotional expression, the target expression, the emotional expression class to which the intention expression belongs, the target expression class, and the intention expression class, respectively; The emotion information associated with the determined group from an emotion table storing an emotion table in which a group of the class, the target expression class, and the intention expression class is associated with emotion information indicating emotion And estimating the writer's emotion of the text data using the acquired emotion information, Output control unit, characterized in that it comprises an output control step of outputting the estimation result to the output unit.

本発明によれば、テキストデータの書き手の感情を高い精度で推測するとともに、低コストで実現することができるという効果を奏する。   According to the present invention, it is possible to estimate an emotion of a writer of text data with high accuracy and to realize it at a low cost.

図1は、第1の実施の形態の感情推定システムの概略の一例を示す図である。FIG. 1 is a diagram illustrating an example of an outline of the emotion estimation system according to the first embodiment. 図2は、第1の実施の形態の感情推定装置及び端末装置の機能ブロックの一例を示す図である。FIG. 2 is a diagram illustrating an example of functional blocks of the emotion estimation device and the terminal device according to the first embodiment. 図3は、第1の実施の形態の感性表現オントロジーの一例を示す図である。FIG. 3 is a diagram illustrating an example of a sensitivity expression ontology according to the first embodiment. 図4は、第1の実施の形態の対象表現オントロジーの一例を示す図である。FIG. 4 is a diagram illustrating an example of the target expression ontology according to the first embodiment. 図5は、第1の実施の形態の意図表現オントロジーの一例を示す図である。FIG. 5 is a diagram illustrating an example of an intention expression ontology according to the first embodiment. 図6は、第1の実施の形態の感情テーブルの一例を示す図である。FIG. 6 is a diagram illustrating an example of an emotion table according to the first embodiment. 図7は、テキストデータの一例を示す図である。FIG. 7 is a diagram illustrating an example of text data. 図8は、テキストデータから生成された構文木データの一例を示す図である。FIG. 8 is a diagram illustrating an example of syntax tree data generated from text data. 図9は、それぞれの表現が係り受け関係にある感性表現、対象表現、及び意図表現の組の一例を示す図である。FIG. 9 is a diagram illustrating an example of a set of a sensitivity expression, a target expression, and an intention expression in which each expression is in a dependency relationship. 図10は、感性表現クラス、対象表現クラス、及び意図表現クラスの組の一例を示す図である。FIG. 10 is a diagram illustrating an example of a set of a sensitivity expression class, a target expression class, and an intention expression class. 図11は、第1の実施の形態の感情テーブル記憶部から取得される感情ベクトルの一例を示す図である。FIG. 11 is a diagram illustrating an example of an emotion vector acquired from the emotion table storage unit according to the first embodiment. 図12は、感情推定ベクトルの一例を示す図である。FIG. 12 is a diagram illustrating an example of an emotion estimation vector. 図13は、感情推定結果ベクトルの一例を示す図である。FIG. 13 is a diagram illustrating an example of an emotion estimation result vector. 図14は、第1の実施の形態の感情推定装置で行われる処理の手順の流れの一例を示すフローチャートである。FIG. 14 is a flowchart illustrating an example of a procedure flow of processing performed by the emotion estimation apparatus according to the first embodiment. 図15は、第1の実施の形態の表現抽出処理の手順の流れの一例を示すフローチャートである。FIG. 15 is a flowchart illustrating an example of a procedure flow of the expression extraction process according to the first embodiment. 図16は、テキストデータから生成された構文木データの一例を示す図である。FIG. 16 is a diagram illustrating an example of syntax tree data generated from text data. 図17は、感性表現、対象表現、及び意図表現の組の一例を示す図である。FIG. 17 is a diagram illustrating an example of a set of a sensitivity expression, a target expression, and an intention expression. 図18は、第1の実施の形態のクラス決定処理の手順の流れの一例を示すフローチャートである。FIG. 18 is a flowchart illustrating an example of a procedure flow of class determination processing according to the first embodiment. 図19は、第1の実施の形態の感情推定処理の手順の流れの一例を示すフローチャートである。FIG. 19 is a flowchart illustrating an example of a flow of a procedure of emotion estimation processing according to the first embodiment. 図20は、第2の実施の形態の感情推定システムの概略の一例を示す図である。FIG. 20 is a diagram illustrating an example of an outline of the emotion estimation system according to the second embodiment. 図21は、第2の実施の形態の感情推定装置の機能ブロックの一例を示す図である。FIG. 21 is a diagram illustrating an example of functional blocks of the emotion estimation apparatus according to the second embodiment. 図22は、第2の実施の形態のシンボルテーブルの一例を示す図である。FIG. 22 is a diagram illustrating an example of a symbol table according to the second embodiment. 図23は、第2の実施の形態の感情推定システムで行われる処理の手順の流れの一例を示すシーケンス図である。FIG. 23 is a sequence diagram illustrating an example of a flow of processes performed in the emotion estimation system according to the second embodiment. 図24は、第2の実施の形態の端末装置がメールサーバに送信するメールの一例を示す図である。FIG. 24 is a diagram illustrating an example of mail that the terminal device according to the second embodiment transmits to the mail server. 図25は、第2の実施の形態のメールサーバが感情推定装置へ送信するメール本文の一例を示す図である。FIG. 25 is a diagram illustrating an example of a mail text that the mail server according to the second embodiment transmits to the emotion estimation apparatus. 図26は、第2の実施の形態の感情推定処理の手順の流れの一例を示すフローチャートである。FIG. 26 is a flowchart illustrating an example of a procedure flow of emotion estimation processing according to the second embodiment. 図27は、第2の実施の形態のメールサーバが端末装置へ送信するメールの一例を示す図である。FIG. 27 is a diagram illustrating an example of mail that the mail server according to the second embodiment transmits to the terminal device.

以下、添付図面を参照しながら、本発明にかかる感情推定装置、及び方法の最良な実施の形態を詳細に説明する。   DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of an emotion estimation apparatus and method according to the present invention will be described below in detail with reference to the accompanying drawings.

(第1の実施の形態)
第1の実施の形態では、それぞれの表現が依存関係にある感性表現、対象表現、及び意図表現をテキストデータから抽出し、感性表現オントロジー、対象表現オントロジー、及び意図表現オントロジーを参照して、抽出した各表現がそれぞれ属する感性表現クラス、対象表現クラス、及び意図表現クラスを決定する。そして、決定された感性表現クラス、対象表現クラス、及び意図表現クラスの組に対応付けられた感情ベクトルを用いて、テキストデータの書き手の感情を推定する。
(First embodiment)
In the first embodiment, the emotional expression, the target expression, and the intention expression in which each expression is dependent are extracted from the text data, and extracted by referring to the sensitivity expression ontology, the target expression ontology, and the intention expression ontology. The emotional expression class, the target expression class, and the intention expression class to which each expression belongs is determined. Then, the emotion of the writer of the text data is estimated using the emotion vector associated with the determined set of the sensitivity expression class, the target expression class, and the intention expression class.

「オントロジー」とは、ある分野における言葉の概念を体系的に整理したものであり、例えば、概念の分類を示す「クラス」と、概念の実例を示す「インスタンス」などを用いて表現される。   “Ontology” is a systematic arrangement of the concepts of words in a certain field, and is expressed using, for example, “classes” indicating concept classifications, “instances” indicating examples of concepts, and the like.

また、オントロジーでは、オントロジー上に配置された言葉の位置関係が概念間の相対的な意味を表現しており、一般的に、概念の関係には、上位下位関係(is−a関係)、全体部分関係(part−of関係)、及びインスタンス関係(instance−of関係)などのいずれかが含まれる。   In Ontology, the positional relationship between words placed on the ontology expresses the relative meaning between concepts. Generally, the relationship between concepts is a high-order relationship (is-a relationship), the whole Any of a partial relationship (part-of relationship) and an instance relationship (instance-of relationship) is included.

そして、オントロジー上で言葉の間の関係をたどることによって、2つの言葉の間の概念的な距離を計ったり、ある言葉をより抽象的な言葉に置き換えることができる。なお、オントロジーの具体例については、後述する。   And by following the relationship between words on the ontology, you can measure the conceptual distance between two words or replace a word with a more abstract word. A specific example of the ontology will be described later.

第1の実施の形態では、事象の性質又は感情を表現する感性表現を体系化した感性表現オントロジー、感性表現が表す対象物を表現する対象表現を体系化した対象表現オントロジー、及び意図又は感想を表現する意図表現を体系化した意図表現オントロジーを用いて、感性表現、対象表現、及び意図表現をそれぞれ抽象化し、感情を推定する。   In the first embodiment, a sensitivity expression ontology that systematizes a sensitivity expression that expresses the nature or emotion of an event, a target expression ontology that systematizes a target expression that expresses an object represented by the sensitivity expression, and an intention or an impression Using the intention expression ontology that systematizes the intention expression to be expressed, the sensitivity expression, the target expression, and the intention expression are abstracted to estimate the emotion.

まず、第1の実施の形態の感情推定システムの構成について説明する。   First, the configuration of the emotion estimation system according to the first embodiment will be described.

図1は、第1の実施の形態の感情推定装置10を含む感情推定システム1の概略の一例を示す図である。図1に示すように、感情推定システム1は、テキストデータを感情推定装置10に送信する端末装置20と、テキストデータから書き手(端末装置20のユーザ)の感情を推定する感情推定装置10とを備えており、各装置は、ネットワーク30を介して接続されている。   FIG. 1 is a diagram illustrating an example of an outline of an emotion estimation system 1 including an emotion estimation apparatus 10 according to the first embodiment. As shown in FIG. 1, the emotion estimation system 1 includes a terminal device 20 that transmits text data to the emotion estimation device 10 and an emotion estimation device 10 that estimates the emotion of the writer (the user of the terminal device 20) from the text data. Each device is connected via a network 30.

第1の実施の形態では、端末装置20のユーザ(書き手)がメールやブログなどのテキストデータを作成し、このテキストデータを感情推定装置10に送信する。そして、感情推定装置10は、受信したテキストデータを分析して、書き手の感情を推定し、推定結果を端末装置20に返信する。感情推定装置10は、推定される感情と、シンボル、広告情報、又は商品情報等とを予め対応付けて管理しておくことで、これらの情報を推定結果として返信するようにしてもよい。   In the first embodiment, a user (writer) of the terminal device 20 creates text data such as an email or a blog, and transmits this text data to the emotion estimation device 10. Then, the emotion estimation device 10 analyzes the received text data, estimates the writer's emotion, and returns the estimation result to the terminal device 20. The emotion estimation device 10 may return the information as an estimation result by managing the estimated emotion and symbols, advertisement information, product information, or the like in association with each other in advance.

なお、感情推定システム1において、感情推定装置10はサーバとして機能し、端末装置20は、クライアントとして機能する。また、図1に示す例では、端末装置20を携帯電話により実現しているが、PC(Personal Computer)など、サーバに対してクライアントとして機能するものであれば、いずれも適用できる。また、ネットワーク30は、有線若しくは無線、またLAN(Local Area Network)や公衆通信回線を問わず、どのようなネットワークであってもよい。   In emotion estimation system 1, emotion estimation device 10 functions as a server, and terminal device 20 functions as a client. In the example shown in FIG. 1, the terminal device 20 is realized by a mobile phone, but any terminal can be applied as long as it functions as a client to a server such as a PC (Personal Computer). The network 30 may be any network regardless of wired or wireless, a LAN (Local Area Network), or a public communication line.

図2は、第1の実施の形態の感情推定装置10及び端末装置20の機能ブロックの一例を示す図である。図2に示すように、感情推定装置10は、受信部110と、送信部120と、記憶部130と、通信制御部140と、抽出部150と、決定部160と、推定部170とを備える。また、端末装置20は、入力部210と、表示部220と、送信部230と、受信部240と、入力受付部250と、通信制御部260と、表示制御部270とを備える。   FIG. 2 is a diagram illustrating an example of functional blocks of the emotion estimation device 10 and the terminal device 20 according to the first embodiment. As shown in FIG. 2, the emotion estimation device 10 includes a reception unit 110, a transmission unit 120, a storage unit 130, a communication control unit 140, an extraction unit 150, a determination unit 160, and an estimation unit 170. . The terminal device 20 includes an input unit 210, a display unit 220, a transmission unit 230, a reception unit 240, an input reception unit 250, a communication control unit 260, and a display control unit 270.

まず、感情推定装置10の構成について説明する。   First, the configuration of the emotion estimation device 10 will be described.

受信部110(入力部の一例)は、テキストデータを入力するものであり、例えば、通信インタフェースや、ボタンやタッチパネルなどの既存の入力装置などにより実現できる。なお、通信インタフェースにより実現する場合には、受信部110は、端末装置20から送信されるテキストデータを受信する。送信部120(出力部の一例)は、テキストデータから推定される感情などの感情推定結果を出力するものであり、例えば、通信インタフェースや、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイ、又はタッチパネル式ディスプレイなどの既存の表示装置により実現できる。なお、通信インタフェースにより実現する場合には、送信部120は、感情推定結果を端末装置20に送信する。   The receiving unit 110 (an example of an input unit) inputs text data, and can be realized by, for example, a communication interface or an existing input device such as a button or a touch panel. Note that in the case of realizing the communication interface, the reception unit 110 receives text data transmitted from the terminal device 20. The transmission unit 120 (an example of an output unit) outputs an emotion estimation result such as an emotion estimated from text data. For example, a communication interface, a liquid crystal display, a plasma display, an organic EL display, or a touch panel display It can be realized by an existing display device such as. In the case of realizing the communication interface, the transmission unit 120 transmits the emotion estimation result to the terminal device 20.

記憶部130は、感情推定装置10で行われる各種処理に使用される情報を記憶するものあり、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、光ディスク、又はRAM(Random Access Memory)などの磁気的、電気的、又は光学的に記憶可能な既存の記憶媒体により実現できる。そして記憶部130は、辞書記憶部131と、感性表現オントロジー記憶部133と、対象表現オントロジー記憶部135と、意図表現オントロジー記憶部137と、感情テーブル記憶部138とを含む。   The storage unit 130 stores information used for various processes performed by the emotion estimation apparatus 10. For example, the storage unit 130 includes an HDD (Hard Disk Drive), an SSD (Solid State Drive), a memory card, an optical disk, or a RAM (Random It can be realized by an existing storage medium that can be stored magnetically, electrically, or optically such as (Access Memory). The storage unit 130 includes a dictionary storage unit 131, a sensitivity expression ontology storage unit 133, a target expression ontology storage unit 135, an intention expression ontology storage unit 137, and an emotion table storage unit 138.

辞書記憶部131は、形態素解析や構文解析などの自然言語処理に用いられる形態素解析辞書などの各種辞書データを記憶する。   The dictionary storage unit 131 stores various dictionary data such as a morphological analysis dictionary used for natural language processing such as morphological analysis and syntax analysis.

感性表現オントロジー記憶部133は、事象の性質又は感情を表現する感性表現と、感性表現が属する概念のクラスである感性表現クラスとの関係を示す感性表現オントロジーを記憶する。なお「感性表現」は、形容詞又は形容動詞であり、例えば、「うれしい」や「楽しい」などの単語は感情を表現した感性表現であり、「青い」や「高い」などの単語は事象の性質表現した感性表現である。   The sentiment expression ontology storage unit 133 stores a sentiment expression ontology that indicates a relationship between a sentiment expression that expresses the nature or emotion of an event and a sentiment expression class that is a concept class to which the sentiment expression belongs. “Sensitivity expression” is an adjective or adjective verb. For example, words such as “joyful” and “fun” are emotional expressions that express emotions, and words such as “blue” and “high” indicate the nature of the event. It is the expressed sensitivity.

図3は、第1の実施の形態の感性表現オントロジーの一例を示す図である。図3に示す例では、楕円がクラスを示し、長方形がインスタンスを示している。また、クラス間の矢印は、上位下位の関係を示し、クラスとインスタンスの間の矢印は、インスタンスが属するクラスを示している。   FIG. 3 is a diagram illustrating an example of a sensitivity expression ontology according to the first embodiment. In the example shown in FIG. 3, an ellipse indicates a class and a rectangle indicates an instance. Further, arrows between classes indicate upper and lower relationships, and arrows between classes and instances indicate classes to which the instances belong.

例えば図3では、「感性」が上位で、「印象」と「感情」が下位に配置(定義)されており、「印象」及び「感情」よりも「感性」の抽象度が高く、「感性」よりも「印象」及び「感情」の抽象度が低いことを意味している。   For example, in FIG. 3, “Sensitivity” is higher and “Impression” and “Emotion” are placed (defined), and “Sensitivity” is more abstract than “Impression” and “Emotion”. "Impression" and "Emotion" are less abstract than "".

対象表現オントロジー記憶部135は、感性表現が表す対象物を表現する対象表現と、対象表現が属する概念のクラスである対象表現クラスとの関係を示す対象表現オントロジーを記憶する。なお「対象表現」は、形容詞又は形容動詞である。図4は、第1の実施の形態の対象表現オントロジーの一例を示す図である。但し、対象表現が定義されている点を除き、感性表現オントロジーと同様であるため、詳細な説明は省略する。   The target expression ontology storage unit 135 stores a target expression ontology that indicates a relationship between a target expression that expresses an object represented by a Kansei expression and a target expression class that is a concept class to which the target expression belongs. The “target expression” is an adjective or an adjective verb. FIG. 4 is a diagram illustrating an example of the target expression ontology according to the first embodiment. However, since it is the same as the sensitivity expression ontology except that the target expression is defined, a detailed description is omitted.

意図表現オントロジー記憶部137は、意図又は感想を表現する意図表現と、意図表現が属する概念のクラスである意図表現クラスとの関係を示す意図表現オントロジーを記憶する。なお「意図表現」は、動詞(句)又は助詞であり、例えば「いい天気だなあ」の「だなあ」は、書き手が満足していることを表し、「出かけたいんだけど」は、外出したいのに何か懸案事項があって不安であることをやわらかく表現している。図5は、第1の実施の形態の意図表現オントロジーの一例を示す図である。但し、意図表現が定義されている点を除き、感性表現オントロジーと同様であるため、詳細な説明は省略する。   The intention expression ontology storage unit 137 stores an intention expression ontology indicating a relationship between an intention expression that expresses an intention or an impression and an intention expression class that is a class of a concept to which the intention expression belongs. "Intentional expression" is a verb (phrase) or particle, for example, "Danaa" in "Good weather" means that the writer is satisfied, and "I want to go out" want to go out However, it expresses softly that there are concerns and anxiety. FIG. 5 is a diagram illustrating an example of an intention expression ontology according to the first embodiment. However, since it is the same as the sensitivity expression ontology except that the intention expression is defined, detailed description is omitted.

感情テーブル記憶部138は、感性表現クラス、対象表現クラス、及び意図表現クラスの組と、感情を示す感情情報とを対応付けた感情テーブルを記憶する。   The emotion table storage unit 138 stores an emotion table in which a set of a sensitivity expression class, a target expression class, and an intention expression class is associated with emotion information indicating an emotion.

図6は、第1の実施の形態の感情テーブルの一例を示す図である。図6に示す例では、感情情報は、複数種類の感情を要素としたベクトル表現である感情ベクトルとなっている。感情ベクトルは、喜怒哀楽の4つの感情を要素とするベクトル表現であり、それぞれの感情の有無を「1」と「0」の2値で表現している。なお、「1」は感情ありを示し、「0」は感情なしを示している。   FIG. 6 is a diagram illustrating an example of an emotion table according to the first embodiment. In the example illustrated in FIG. 6, the emotion information is an emotion vector that is a vector expression having a plurality of types of emotions as elements. The emotion vector is a vector expression having four emotions of emotions as elements, and the presence / absence of each emotion is expressed by binary values “1” and “0”. Note that “1” indicates that there is an emotion, and “0” indicates that there is no emotion.

また、感性表現クラス、対象表現クラス、及び意図表現クラスにおいて、「ANY」は、オントロジー上の任意のクラスの指定を意味するものであり、「−」は、クラスの指定がないことを意味する。つまり、「−」を用いることにより、感性表現クラス、対象表現クラス、及び意図表現クラスの中のいずれか1つ又は2つのクラスの組み合わせに対する感情も定義することができる。   In the sensitivity expression class, the object expression class, and the intention expression class, “ANY” means designation of an arbitrary class in the ontology, and “−” means that no class is designated. . That is, by using “-”, it is also possible to define an emotion for a combination of one or two of the sensitivity expression class, the target expression class, and the intention expression class.

なお、感性表現クラス、対象表現クラス、及び意図表現クラスのいずれかにおいて、オントロジー上の上位のクラスを指定した場合には、当該クラスの下位のクラスの指定も含まれる。図6に示すように、感性表現クラスとして「印象」を指定した場合には、当該クラスの下位クラスである「好感」、「不快」、「中立」(図3参照)の指定も含まれる。   In addition, in the sensitivity expression class, the target expression class, and the intention expression class, when an upper class in the ontology is specified, the specification of a lower class of the class is also included. As shown in FIG. 6, when “impression” is designated as the sensitivity expression class, designation of “favorable”, “unpleasant”, and “neutral” (see FIG. 3), which are lower classes of the class, is also included.

通信制御部140(入力受付部、出力制御部の一例)は、受信部110に対する受け付け制御や送信部120に対する出力制御を行う。例えば、受信部110及び送信部120を通信インタフェースにより実現する場合には、通信制御部140は、端末装置20から送信されるテキストデータを受信部110に受信させ、テキストデータから推定される感情などの感情推定結果を送信部120から端末装置20に送信させる。また例えば、受信部110を入力装置により実現し、送信部120を表示装置により実現する場合には、通信制御部140は、入力装置からテキストデータの入力を受け付け、感情推定結果を表示装置に出力させる。   The communication control unit 140 (an example of an input reception unit and an output control unit) performs reception control on the reception unit 110 and output control on the transmission unit 120. For example, when the reception unit 110 and the transmission unit 120 are realized by a communication interface, the communication control unit 140 causes the reception unit 110 to receive text data transmitted from the terminal device 20, and an emotion estimated from the text data. Are transmitted from the transmission unit 120 to the terminal device 20. Further, for example, when the reception unit 110 is realized by an input device and the transmission unit 120 is realized by a display device, the communication control unit 140 receives input of text data from the input device and outputs an emotion estimation result to the display device. Let

抽出部150は、受信部110により受信されたテキストデータから、それぞれの表現が依存関係にある感性表現、対象表現、及び意図表現を抽出する。   The extraction unit 150 extracts, from the text data received by the reception unit 110, a sensitivity expression, a target expression, and an intention expression in which each expression has a dependency relationship.

具体的には、抽出部150は、辞書記憶部131に記憶された辞書データを参照して、受信部110により受信されたテキストデータを構文解析し、単文内での係り受け関係を示す構文木データを生成する。   Specifically, the extraction unit 150 refers to the dictionary data stored in the dictionary storage unit 131, parses the text data received by the reception unit 110, and indicates a syntax tree indicating the dependency relationship within a single sentence. Generate data.

図8は、テキストデータから生成された構文木データの一例を示す図であり、図7に示すテキストデータから生成された構文木データを示している。図8に示す例では、図7に示すテキストデータ(複文)が3つの単文に分割され、各単文において、各単語間の係り受け関係が示された構文木データとなっている。   FIG. 8 is a diagram illustrating an example of syntax tree data generated from text data, and illustrates syntax tree data generated from the text data illustrated in FIG. 7. In the example shown in FIG. 8, the text data (compound sentence) shown in FIG. 7 is divided into three simple sentences, and each single sentence is syntax tree data indicating the dependency relationship between words.

そして、抽出部150は、生成した構文木データの各単文の中から、それぞれの表現が係り受け関係にある感性表現、対象表現、及び意図表現の組を抽出する。但し、感性表現、対象表現、及び意図表現の全てが出現しない単文については、これらの表現の中のいずれか1つ又は2つの表現の組み合わせを抽出してもよい。   Then, the extraction unit 150 extracts a set of a sensitivity expression, a target expression, and an intention expression, each expression having a dependency relationship, from each single sentence of the generated syntax tree data. However, for simple sentences in which all of the emotional expression, the target expression, and the intention expression do not appear, any one of these expressions or a combination of two expressions may be extracted.

図9は、それぞれの表現が係り受け関係にある感性表現、対象表現、及び意図表現の組の一例を示す図であり、図8に示す構文木データから抽出された感性表現、対象表現、及び意図表現の組を示している。図9に示す例では、図8に示す構文木データから感性表現、対象表現、及び意図表現の組である表現組311、312が抽出されている。表現組312は、対象表現が「−」となっており、感性表現、及び意図表現の組となっている。   FIG. 9 is a diagram illustrating an example of a set of a sensitivity expression, a target expression, and an intention expression in which each expression is in a dependency relationship. The sensitivity expression, the target expression, and the target expression extracted from the syntax tree data illustrated in FIG. Indicates a set of intention expressions. In the example shown in FIG. 9, expression sets 311 and 312 that are sets of the sensitivity expression, the target expression, and the intention expression are extracted from the syntax tree data shown in FIG. In the expression set 312, the target expression is “−”, and is a set of sensitivity expression and intention expression.

なお、抽出された感性表現、対象表現、及び意図表現の組は、後述の決定部160が用いるため、図示せぬ作業記憶領域内に感性表現リストとして登録される。   Note that the set of the extracted emotional expression, target expression, and intention expression is registered as a sensitivity expression list in a work storage area (not shown) for use by the determination unit 160 described later.

決定部160は、抽出部150により抽出された感性表現、対象表現、意図表現がそれぞれ属する感性表現クラス、対象表現クラス、意図表現クラスを、感性表現オントロジー、対象表現オントロジー、及び意図表現オントロジーを参照して決定する。   The determination unit 160 refers to the Kansei Expression Ontology, the Target Expression Ontology, and the Intention Expression Ontology for the Kansei Expression Class, the Target Expression Class, and the Intention Expression Class to which the Kansei Expression, the Target Expression, and the Intention Expression belong respectively extracted by the extraction unit 150 And decide.

図10は、感性表現クラス、対象表現クラス、及び意図表現クラスの組の一例を示す図であり、図9に示す組の各表現がそれぞれ属するクラスの組を示している。図10に示す例では、感性表現クラス、対象表現クラス、及び意図表現クラスの組であるクラス組321、322は、それぞれ図9に示す表現組311、312の各表現が属するクラスの組を示している。例えば、表現組311の「いい」という感性表現は、図3に示す感性表現オントロジーでは「好感」というクラスに属しているため、クラス組321の感性表現クラスは「好感」となっている。   FIG. 10 is a diagram showing an example of a set of a sensitivity expression class, a target expression class, and an intention expression class, and shows a class set to which each expression of the set shown in FIG. 9 belongs. In the example shown in FIG. 10, class sets 321 and 322, which are sets of the sensitivity expression class, the target expression class, and the intention expression class, indicate a class set to which each expression of the expression groups 311 and 312 shown in FIG. 9 belongs. ing. For example, the emotional expression “good” in the expression group 311 belongs to the class “favorable” in the emotional expression ontology shown in FIG. 3, and thus the sensitivity expression class of the class group 321 is “favorable”.

なお、抽出された感性表現クラス、対象表現クラス、及び意図表現クラスの組は、後述の推定部170が用いるため、図示せぬ作業記憶領域内に感性表現クラスリストとして登録される。   Note that the set of the extracted emotion expression class, target expression class, and intention expression class is used by the estimation unit 170 described later, and is registered as a sensitivity expression class list in a work storage area (not shown).

推定部170は、決定部160により決定された感性表現クラス、対象表現クラス、及び意図表現クラスの組に対応付けられた感情情報を感情テーブル記憶部138から取得し、取得した感情情報を用いて、テキストデータの書き手の感情を推定する。   The estimation unit 170 acquires emotion information associated with the set of the sensitivity expression class, the target expression class, and the intention expression class determined by the determination unit 160 from the emotion table storage unit 138, and uses the acquired emotion information. Estimate the writer's feelings of text data.

具体的には、推定部170は、決定部160により決定された感性表現クラス、対象表現クラス、及び意図表現クラスの組に対応する(該当する)感性表現クラス、対象表現クラス、及び意図表現クラスの組に対応付けられた感情ベクトルを、感情テーブル記憶部138から取得する。   More specifically, the estimation unit 170 includes (applicable) the sensitivity expression class, the target expression class, and the intention expression class corresponding to the set of the sensitivity expression class, the target expression class, and the intention expression class determined by the determination unit 160. The emotion vector associated with each set is acquired from the emotion table storage unit 138.

図11は、感情テーブル記憶部138から取得される感情ベクトルの一例を示す図であり、図10に示すクラス組の感情ベクトルを示している。図11に示す例において、クラス組321の組み合わせ「好感、天候、満足」は、図6に示す感情テーブル内に存在するため、感情ベクトルは、当該組み合わせに対応付けられた(1,0,0,1)となる。また、クラス組322の組み合わせは、図6に示す感情テーブルにおける「喜,ANY,ANY」及び「ANY,ANY,心配」の双方に該当するため、感情ベクトルは、それぞれ(1,0,0,0)、(0,0,1,0)となる。   FIG. 11 is a diagram illustrating an example of emotion vectors acquired from the emotion table storage unit 138, and illustrates the emotion vectors of the class set illustrated in FIG. In the example shown in FIG. 11, since the combination “favorite, weather, satisfaction” of the class set 321 exists in the emotion table shown in FIG. 6, the emotion vector is associated with the combination (1, 0, 0). , 1). Further, since the combinations of the class sets 322 correspond to both “joy, ANY, ANY” and “ANY, ANY, anxiety” in the emotion table shown in FIG. 6, the emotion vectors are (1, 0, 0, 0), (0, 0, 1, 0).

そして、推定部170は、感情テーブル記憶部138から取得した感情ベクトルを全て合算し、合算後の感情ベクトルである感情推定結果ベクトルの値から、テキストデータの書き手の感情を推定する。但し、感性表現クラス、対象表現クラス、意図表現クラスの組に対応付けられた感情ベクトルが複数存在する場合もあるため、この場合には、推定部170は、感情ベクトルの組み合わせ毎に感情ベクトルを合算し、合算後の感情ベクトルである感情推定ベクトルを平均化した感情推定結果ベクトルの値から、テキストデータの書き手の感情を推定する。   Then, the estimation unit 170 adds all the emotion vectors acquired from the emotion table storage unit 138, and estimates the emotion of the writer of the text data from the value of the emotion estimation result vector that is the emotion vector after the addition. However, since there may be a plurality of emotion vectors associated with the combination of the sensitivity expression class, the target expression class, and the intention expression class, in this case, the estimation unit 170 calculates an emotion vector for each combination of emotion vectors. The emotion of the text data writer is estimated from the value of the emotion estimation result vector obtained by adding up and averaging the emotion estimation vector that is the emotion vector after the addition.

図12は、感情推定ベクトルの一例を示す図であり、図11に示す感情ベクトルの組み合わせ毎に加算したベクトルを示している。図11に示す例において、クラス組322には、2種類の感情ベクトル(1,0,0,0)、(0,0,1,0)が存在するため、クラス組321の感情ベクトルとクラス組322の感情ベクトルとの組み合わせは2種類存在する。   FIG. 12 is a diagram showing an example of the emotion estimation vector, and shows a vector added for each combination of emotion vectors shown in FIG. In the example shown in FIG. 11, since there are two types of emotion vectors (1, 0, 0, 0) and (0, 0, 1, 0) in the class set 322, the emotion vector and class of the class set 321 There are two types of combinations with the emotion vectors of the set 322.

従って、推定部170は、クラス組321の感情ベクトル(1,0,0,1)とクラス組322の感情ベクトル(1,0,0,0)を加算するとともに、クラス組321の感情ベクトル(1,0,0,1)とクラス組322の感情ベクトル(0,0,1,0)を加算する。この結果、図12に示す2種類の感情推定ベクトル(2,0,0,1)、(1,0,1,1)が求められる。   Therefore, the estimation unit 170 adds the emotion vector (1, 0, 0, 1) of the class set 321 and the emotion vector (1, 0, 0, 0) of the class set 322, and also adds the emotion vector ( 1, 0, 0, 1) and the emotion vector (0, 0, 1, 0) of class set 322 are added. As a result, two types of emotion estimation vectors (2, 0, 0, 1) and (1, 0, 1, 1) shown in FIG. 12 are obtained.

なお、取得された感情ベクトル、及び感情推定ベクトルは、テキストデータの書き手の感情の推定に用いられるため、図示せぬ作業記憶領域内にそれぞれ感情ベクトルリスト、感情推定ベクトルリストとして登録される。   Since the acquired emotion vector and emotion estimation vector are used to estimate the emotion of the writer of the text data, they are registered as an emotion vector list and an emotion estimation vector list, respectively, in a work storage area (not shown).

そして、推定部170は、この2種類の感情推定ベクトルを平均化することにより感情推定結果ベクトルを求め、感情推定結果ベクトルの要素の値からテキストデータの書き手の感情を推定する。   Then, the estimation unit 170 obtains an emotion estimation result vector by averaging the two types of emotion estimation vectors, and estimates the emotion of the writer of the text data from the values of the elements of the emotion estimation result vector.

図13は、感情推定結果ベクトルの一例を示す図であり、図12に示す感情推定ベクトルを平均化したものである。図13に示す例では、感情推定結果ベクトルの値は(1.5, 0,0.5, 1)であり、「喜」の要素の値が一番大きいため、推定部170は、テキストデータの書き手の感情を「喜」と推定する。   FIG. 13 is a diagram showing an example of the emotion estimation result vector, which is obtained by averaging the emotion estimation vectors shown in FIG. In the example shown in FIG. 13, the value of the emotion estimation result vector is (1.5, 0, 0.5, 1), and the value of the “joy” element is the largest. Estimate the writer's emotion as “joy”.

なお、通信制御部140、抽出部150、決定部160、推定部170については、例えば、CPU(Central Processing Unit)などの制御装置により実現できる。   The communication control unit 140, the extraction unit 150, the determination unit 160, and the estimation unit 170 can be realized by a control device such as a CPU (Central Processing Unit), for example.

次に、端末装置20の構成について説明する。   Next, the configuration of the terminal device 20 will be described.

入力部210は、テキストデータを入力するものであり、例えば、ボタンやタッチパネルなどの既存の入力装置により実現できる。   The input unit 210 inputs text data, and can be realized by an existing input device such as a button or a touch panel.

表示部220は、後述する表示制御部270の指示により、感情推定装置10から送信された推定結果等を表示するものであり、例えば、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイ、又はタッチパネル式ディスプレイなどの既存の表示装置により実現できる。   The display unit 220 displays an estimation result or the like transmitted from the emotion estimation device 10 according to an instruction from the display control unit 270 described later. For example, a liquid crystal display, a plasma display, an organic EL display, a touch panel display, or the like This can be realized by the existing display device.

送信部230は、入力部210により入力されたテキストデータを感情推定装置10に送信するものであり、受信部240は、送信部230により送信されたテキストデータの書き手の感情の推定結果を感情推定装置10から受信するものである。送信部230及び受信部240は、例えば、通信インタフェースなどにより実現できる。   The transmission unit 230 transmits the text data input by the input unit 210 to the emotion estimation apparatus 10, and the reception unit 240 performs the emotion estimation on the estimation result of the writer of the text data transmitted by the transmission unit 230. It is received from the device 10. The transmission unit 230 and the reception unit 240 can be realized by a communication interface, for example.

入力受付部250は、入力部210からテキストデータの入力を受け付ける。   The input receiving unit 250 receives text data input from the input unit 210.

通信制御部260は、送信部230に対する送信制御や受信部240に対する受信制御を行うものであり、テキストデータを送信部230から感情推定装置10に送信させ、感情推定装置10から送信される感情推定結果を受信部240に受信させる。   The communication control unit 260 performs transmission control with respect to the transmission unit 230 and reception control with respect to the reception unit 240, causes the text data to be transmitted from the transmission unit 230 to the emotion estimation device 10, and emotion estimation transmitted from the emotion estimation device 10. The reception unit 240 receives the result.

表示制御部270は、受信部240により受信された感情推定結果を表示部220に表示させる。   The display control unit 270 causes the display unit 220 to display the emotion estimation result received by the receiving unit 240.

なお、入力受付部250、通信制御部260、及び表示制御部270については、例えば、CPU(Central Processing Unit)などの制御装置により実現できる。   The input receiving unit 250, the communication control unit 260, and the display control unit 270 can be realized by a control device such as a CPU (Central Processing Unit).

次に、第1の実施の形態の感情推定装置の動作について説明する。   Next, the operation of the emotion estimation apparatus according to the first embodiment will be described.

図14は、第1の実施の形態の感情推定装置10で行われる処理の手順の流れの一例を示すフローチャートである。   FIG. 14 is a flowchart illustrating an example of a flow of a process performed by the emotion estimation apparatus 10 according to the first embodiment.

まず、通信制御部140は、受信部110を制御して、端末装置20から送信されるテキストデータを受信させる(ステップS10)。   First, the communication control unit 140 controls the receiving unit 110 to receive text data transmitted from the terminal device 20 (step S10).

続いて、抽出部150は、受信部110により受信されたテキストデータから、それぞれの表現が依存関係にある感性表現、対象表現、及び意図表現を抽出する表現抽出処理を行う(ステップS20)。なお、表現抽出処理の詳細については後述する。   Subsequently, the extraction unit 150 performs an expression extraction process for extracting the emotional expression, the target expression, and the intention expression in which each expression is dependent from the text data received by the receiving unit 110 (step S20). Details of the expression extraction process will be described later.

続いて、決定部160は、抽出部150により抽出された感性表現、対象表現、意図表現がそれぞれ属する感性表現クラス、対象表現クラス、意図表現クラスを、感性表現オントロジー、対象表現オントロジー、及び意図表現オントロジーを参照して決定するクラス決定処理を行う(ステップS30)。なお、クラス決定処理の詳細については後述する。   Subsequently, the determination unit 160 sets the sensitivity expression class, the target expression class, and the intention expression class to which the sensitivity expression, the target expression, and the intention expression respectively extracted by the extraction unit 150 belong, the sensitivity expression ontology, the target expression ontology, and the intention expression. A class determination process is performed by referring to the ontology (step S30). Details of the class determination process will be described later.

続いて、推定部170は、決定部160により決定された感性表現クラス、対象表現クラス、意図表現クラスの組に対応付けられた感情ベクトルを感情テーブル記憶部138から取得し、取得した感情ベクトルを用いて、テキストデータの書き手の感情を推定する感情推定処理を行う(ステップS40)。なお、感情推定処理の詳細については後述する。   Subsequently, the estimation unit 170 acquires an emotion vector associated with the set of the sensitivity expression class, the target expression class, and the intention expression class determined by the determination unit 160 from the emotion table storage unit 138, and the acquired emotion vector is obtained. The emotion estimation process is performed to estimate the emotion of the writer of the text data (step S40). Details of the emotion estimation process will be described later.

続いて、通信制御部140は、送信部120を制御して、推定部170により推定された書き手の感情を推定結果として端末装置20へ送信させる(ステップS50)。   Subsequently, the communication control unit 140 controls the transmission unit 120 to transmit the writer's emotion estimated by the estimation unit 170 to the terminal device 20 as an estimation result (step S50).

図15は、図14のステップS20に示す表現抽出処理の手順の流れの一例を示すフローチャートである。   FIG. 15 is a flowchart showing an example of the procedure of the expression extraction process shown in step S20 of FIG.

まず、抽出部150は、辞書記憶部131に記憶された辞書データを参照して、受信部110により受信されたテキストデータを構文解析し、このテキストデータから構文木データを生成する(ステップS200)。図16は、テキストデータから生成された構文木データの一例を示す図であり、図7に示すテキストデータから生成された構文木データを示している。   First, the extraction unit 150 refers to the dictionary data stored in the dictionary storage unit 131, parses the text data received by the reception unit 110, and generates syntax tree data from the text data (step S200). . FIG. 16 is a diagram illustrating an example of syntax tree data generated from text data, and illustrates syntax tree data generated from the text data illustrated in FIG. 7.

続いて、抽出部150は、構文木データ内の句読点や接続詞を基に、構文木データ内の複文を単文に分割する(ステップS202)。なお、図16に示す構文木データ内の複文を単文に分割すると、図8に示す構文木データとなる。   Subsequently, the extraction unit 150 divides the compound sentence in the syntax tree data into simple sentences based on punctuation marks and conjunctions in the syntax tree data (step S202). When the compound sentence in the syntax tree data shown in FIG. 16 is divided into simple sentences, the syntax tree data shown in FIG. 8 is obtained.

続いて、抽出部150は、分割した単文の中から、未処理の単文を取得する(ステップS204)。   Subsequently, the extraction unit 150 acquires an unprocessed simple sentence from the divided simple sentences (step S204).

続いて、抽出部150は、取得した単文に含まれる形容詞又は形容動詞を感性表現に設定する(ステップS206)。   Subsequently, the extraction unit 150 sets an adjective or an adjective verb included in the acquired simple sentence as a sensitivity expression (step S206).

続いて、抽出部150は、取得した単文に含まれる名詞を対象表現に設定する(ステップS208)。   Subsequently, the extraction unit 150 sets a noun included in the acquired single sentence as a target expression (step S208).

続いて、抽出部150は、取得した単文に含まれる動詞を意図表現に設定する(ステップS210)。   Subsequently, the extraction unit 150 sets a verb included in the acquired single sentence as an intention expression (step S210).

続いて、抽出部150は、設定された感性表現、対象表現、及び意図表現がそれぞれ係り受け関係にあるか否かを確認する(ステップS212)。   Subsequently, the extraction unit 150 confirms whether or not the set emotional expression, target expression, and intention expression are in a dependency relationship (step S212).

図17は、抽出部150により設定された感性表現、対象表現、及び意図表現の一例を示す図であり、図8に示す構文木データの各単文において設定される感性表現、対象表現、及び意図表現の組を示している。なお、図17に示す例では、表現組311及び312の感性表現、対象表現、及び意図表現は、それぞれの表現が係り受け関係にあるが、表現組333〜335の感性表現、対象表現、及び意図表現は、それぞれの表現が係り受け関係にない。   17 is a diagram illustrating an example of the sensitivity expression, the target expression, and the intention expression set by the extraction unit 150. The sensitivity expression, the target expression, and the intention set in each simple sentence of the syntax tree data illustrated in FIG. A set of expressions is shown. In the example shown in FIG. 17, the sensitivity expressions, target expressions, and intention expressions of the expression groups 311 and 312 are in a dependency relationship, but the sensitivity expressions, target expressions, and Intentional expressions are not dependent on each other.

そして、それぞれ依存関係にある場合には(ステップS212でYes)、抽出部150は、感性表現、対象表現、及び意図表現の組を感性表現リストに登録する(ステップS214)。一方、それぞれ依存関係にない場合には(ステップS212でNo)、抽出部150は、ステップS214の処理を行わない。従って、図17に示す例では、表現組311及び312のみが、図9に示すように感性表現リストに登録される。   If there is a dependency relationship (Yes in step S212), the extraction unit 150 registers a set of the sensitivity expression, the target expression, and the intention expression in the sensitivity expression list (step S214). On the other hand, when there is no dependency relationship (No in step S212), the extraction unit 150 does not perform the process of step S214. Therefore, in the example shown in FIG. 17, only the expression sets 311 and 312 are registered in the emotion expression list as shown in FIG.

続いて、抽出部150は、分割した全ての単文を処理したか否かを確認し(ステップS216)、全ての単文を処理した場合には(ステップS216でYes)、処理を終了する。一方、全ての単文を処理していない場合には(ステップS216でNo)、ステップS204〜S214の処理を繰り返す。   Subsequently, the extraction unit 150 checks whether or not all the divided simple sentences have been processed (step S216), and when all the simple sentences have been processed (Yes in step S216), the processing ends. On the other hand, when all the simple sentences have not been processed (No in step S216), the processes in steps S204 to S214 are repeated.

図18は、図14のステップS30に示すクラス決定処理の手順の流れの一例を示すフローチャートである。   FIG. 18 is a flowchart showing an example of the procedure of the class determination process shown in step S30 of FIG.

まず、決定部160は、感性表現リストに登録された感性表現、対象表現、及び意図表現の組の中から未処理の組を取得する(ステップS300)。   First, the determination unit 160 acquires an unprocessed set from the set of the sensitivity expression, the target expression, and the intention expression registered in the sensitivity expression list (step S300).

続いて、決定部160は、取得した組の感性表現を、感性表現オントロジー記憶部133に記憶されている感性表現オントロジーと照合し、当該感性表現が属する感性表現クラスを決定する(ステップS302)。   Subsequently, the determination unit 160 collates the acquired Kansei expression with the Kansei expression ontology stored in the Kansei expression ontology storage unit 133 and determines the Kansei expression class to which the Kansei expression belongs (Step S302).

続いて、決定部160は、取得した組の対象表現を、対象表現オントロジー記憶部135に記憶されている対象表現オントロジーと照合し、当該対象表現が属する対象表現クラスを決定する(ステップS304)。   Subsequently, the determination unit 160 collates the acquired target expression with the target expression ontology stored in the target expression ontology storage unit 135, and determines a target expression class to which the target expression belongs (step S304).

続いて、決定部160は、取得した組の意図表現を、意図表現オントロジー記憶部137に記憶されている意図表現オントロジーと照合し、当該意図表現が属する意図表現クラスを決定する(ステップS306)。   Subsequently, the determination unit 160 compares the acquired set of intention expressions with the intention expression ontology stored in the intention expression ontology storage unit 137, and determines the intention expression class to which the intention expression belongs (step S306).

続いて、決定部160は、決定された感性表現クラス、対象表現クラス、及び意図表現クラスの組を、感性表現クラスリストに登録する(ステップS308)。なお、図9に示す感性表現、対象表現、及び意図表現がそれぞれ属する感性表現クラス、対象表現クラス、意図表現クラスの組は、図10に示す通りである。   Subsequently, the determination unit 160 registers the set of the determined sensitivity expression class, the target expression class, and the intention expression class in the sensitivity expression class list (step S308). The combinations of the sensitivity expression class, the target expression class, and the intention expression class to which the sensitivity expression, the target expression, and the intention expression shown in FIG. 9 belong are as shown in FIG.

続いて、決定部160は、感性表現リストに登録された感性表現、対象表現、及び意図表現の組を全て処理したか否かを確認し(ステップS310)、全て処理した場合には(ステップS310でYes)、処理を終了する。一方、全て処理していない場合には(ステップS310でNo)、ステップ300〜S308の処理を繰り返す。   Subsequently, the determination unit 160 checks whether or not all sets of the sensitivity expression, the target expression, and the intention expression registered in the sensitivity expression list have been processed (step S310), and if all have been processed (step S310). Yes), the process is terminated. On the other hand, if not all have been processed (No in step S310), the processing in steps 300 to S308 is repeated.

図19は、図14のステップS40に示す感情推定処理の手順の流れの一例を示すフローチャートである。   FIG. 19 is a flowchart showing an example of the flow of the emotion estimation process shown in step S40 of FIG.

まず、推定部170は、感性表現クラスリストに登録された感性表現クラス、対象表現クラス、及び意図表現クラスの組の中から未処理の組を取得する(ステップS400)。   First, the estimation unit 170 acquires an unprocessed set from the set of the sensitivity expression class, the target expression class, and the intention expression class registered in the sensitivity expression class list (step S400).

続いて、推定部170は、取得した感性表現クラス、対象表現クラス、及び意図表現クラスの組に対応付けられた感情ベクトルを、感情テーブル記憶部138から検索する(ステップS402)。   Subsequently, the estimation unit 170 searches the emotion table storage unit 138 for an emotion vector associated with the set of the acquired emotion expression class, target expression class, and intention expression class (step S402).

そして、推定部170は、取得した感性表現クラス、対象表現クラス、及び意図表現クラスの組に対応する感性表現クラス、対象表現クラス、及び意図表現クラスの組が存在する場合には(ステップS404でYes)、当該クラスの組に対応付けられた感情ベクトルを感情ベクトルリストに登録する(ステップS406)。なお、図10に示す感性表現クラス、対象表現クラス、意図表現クラスの組の感情ベクトルは、図11に示す通りである。   Then, when there is a set of the sensitivity expression class, the target expression class, and the intention expression class corresponding to the acquired combination of the sensitivity expression class, the target expression class, and the intention expression class, the estimation unit 170 (in step S404). Yes), the emotion vector associated with the class set is registered in the emotion vector list (step S406). In addition, the emotion vector of the set of the sensitivity expression class, the target expression class, and the intention expression class shown in FIG. 10 is as shown in FIG.

一方、取得した感性表現クラス、対象表現クラス、及び意図表現クラスの組に対応する感性表現クラス、対象表現クラス、及び意図表現クラスの組が存在しない場合には(ステップS404でNo)、推定部170は、ステップS406の処理を行わない。   On the other hand, when there is no combination of the sensitivity expression class, the target expression class, and the intention expression class corresponding to the acquired combination of the sensitivity expression class, the target expression class, and the intention expression class (No in step S404), the estimation unit 170 does not perform the process of step S406.

続いて、推定部170は、感性表現クラスリストに登録された感性表現クラス、対象表現クラス、及び意図表現クラスの組を全て処理したか否かを確認し(ステップS408)、全て処理していない場合には(ステップS408でNo)、ステップS400〜S406の処理を繰り返す。   Subsequently, the estimation unit 170 confirms whether or not all sets of the sensitivity expression class, the target expression class, and the intention expression class registered in the sensitivity expression class list have been processed (step S408), and does not process all of them. In that case (No in step S408), the processes in steps S400 to S406 are repeated.

一方、全て処理した場合には(ステップS408でYes)、推定部170は、感情ベクトルリストに登録された感情ベクトルの組み合わせの中から、未処理の組み合わせを取得する(ステップS410)。   On the other hand, when all the processing has been performed (Yes in step S408), the estimation unit 170 acquires an unprocessed combination from the combinations of emotion vectors registered in the emotion vector list (step S410).

続いて、推定部170は、取得した組み合わせの感情ベクトルの値をそれぞれ加算する(ステップS412)。   Subsequently, the estimation unit 170 adds the acquired emotion vector values of the combinations (step S412).

続いて、推定部170は、感情ベクトルの値をそれぞれ加算した感情推定ベクトルを感情推定ベクトルリストに登録する(ステップS414)。なお、図11に感情ベクトルを組み合わせ毎に加算した感情推定ベクトルは、図12に示す通りである。   Subsequently, the estimation unit 170 registers the emotion estimation vector obtained by adding the emotion vector values to the emotion estimation vector list (step S414). In addition, the emotion estimation vector which added the emotion vector for every combination in FIG. 11 is as showing in FIG.

続いて、推定部170は、感情ベクトルリストに登録された感情ベクトルの全ての組み合わせを処理したか否かを確認し(ステップS416)、全て処理していない場合には(ステップS416でNo)、ステップS410〜S414の処理を繰り返す。   Subsequently, the estimation unit 170 confirms whether or not all combinations of emotion vectors registered in the emotion vector list have been processed (step S416). If not all have been processed (No in step S416), The processes in steps S410 to S414 are repeated.

一方、全て処理した場合には(ステップS416でYes)、推定部170は、感情推定ベクトルリストに登録された感情推定ベクトルの平均値を取り、テキストデータの書き手の感情を推定する(ステップS418)。なお、図12に感情推定ベクトルを平均化した感情推定結果ベクトルは、図13に示す通りであり、「喜」の要素の値が一番大きいため、推定部170は、テキストデータの書き手の感情を「喜」と推定する。   On the other hand, when all the processes have been performed (Yes in step S416), the estimation unit 170 takes the average value of the emotion estimation vectors registered in the emotion estimation vector list and estimates the emotion of the writer of the text data (step S418). . The emotion estimation result vector obtained by averaging the emotion estimation vectors in FIG. 12 is as shown in FIG. 13, and since the value of the element of “joy” is the largest, the estimation unit 170 determines the emotion of the writer of the text data. Is estimated to be “joy”.

このように第1の実施の形態では、テキストデータから、それぞれの表現が依存関係にある感性表現、対象表現、及び意図表現を抽出し、感性表現オントロジー、対象表現オントロジー、及び意図表現オントロジーを用いて、感性表現クラス、対象表現クラス、意図表現クラスに抽象化して、テキストデータの書き手の感情を推定する。従って、第1の実施の形態によれば、テキストデータの書き手の感情を高い精度で推測するとともに、低コストで実現することができる。   As described above, in the first embodiment, the emotional expression, the target expression, and the intention expression in which each expression has a dependency relationship are extracted from the text data, and the sensitivity expression ontology, the target expression ontology, and the intention expression ontology are used. Then, the emotional expression class, the target expression class, and the intention expression class are abstracted to estimate the writer's feeling of the text data. Therefore, according to the first embodiment, the emotion of the writer of the text data can be estimated with high accuracy and can be realized at low cost.

特に第1の実施の形態では、オントロジーを介して、感性表現、対象表現、意図表現を、それぞれ感性表現クラス、対象表現クラス、意図表現クラスに抽象化しているため、抽象化した概念レベルで感情ベクトルを定義でき、感情テーブルのデータ量を大幅に削減することができる。   In particular, in the first embodiment, the sensitivity expression, the target expression, and the intention expression are abstracted into the sensitivity expression class, the target expression class, and the intention expression class, respectively, through the ontology. Vectors can be defined, and the amount of emotion table data can be greatly reduced.

また、感性表現クラス、対象表現クラス、及び意図表現クラスにおいて、上位クラスを指定すれば、下位のクラス及びインスタンスの指定もされるため、抽象的に感情ベクトルを定義でき、下位のクラスを指定すれば、個別具体的に感情ベクトルを定義できるため、感情を推定するためのルールを柔軟に設定することができる。   Also, in the Kansei expression class, the target expression class, and the intention expression class, if a higher class is specified, a lower class and instance are also specified, so an emotion vector can be defined abstractly, and a lower class can be specified. For example, since emotion vectors can be specifically defined, rules for estimating emotions can be set flexibly.

なお、第1の実施の形態は、ユーザ個人の行動や関心に沿った情報を配信し、ユーザの購買行動を喚起したり、ユーザの囲い込みを狙ったいわゆるターゲティング手法を用いたシステムに好適である。第1の実施の形態によれば、ユーザがメールやブログなどのために作成したテキストデータの感情を推定し、推定した感情に沿った情報を提示することが可能となる。例えば、気分が落ち込んでいるユーザには癒し効果のある商品を推薦することができる。   Note that the first embodiment is suitable for a system using a so-called targeting method that distributes information in accordance with individual user behavior and interests to stimulate the purchase behavior of the user or to enclose the user. . According to the first embodiment, it is possible to estimate an emotion of text data created for a mail or a blog by a user and present information in accordance with the estimated emotion. For example, a product with a healing effect can be recommended to a user who is depressed.

(第2の実施の形態)
次に、第2の実施の形態では、テキストデータの書き手の感情を推定するだけでなく、推定された感情を示すアイコンを付与する例について説明する。
(Second Embodiment)
Next, in the second embodiment, an example will be described in which not only the emotion of the writer of the text data is estimated but also an icon indicating the estimated emotion is given.

なお、以下では、第1の実施の形態との相違点の説明を主に行い、第1の実施の形態と同様の機能を有する構成要素については、第1の実施の形態と同様の名称・符号を付し、その説明を省略する。   In the following, differences from the first embodiment will be mainly described, and components having the same functions as those in the first embodiment will have the same names and names as those in the first embodiment. Reference numerals are assigned and explanations thereof are omitted.

まず、第2の実施の形態の感情推定システムの構成について説明する。   First, the configuration of the emotion estimation system according to the second embodiment will be described.

図20は、第2の実施の形態の感情推定装置1010を含む感情推定システム1001の概略の一例を示す図である。   FIG. 20 is a diagram illustrating an example of an outline of an emotion estimation system 1001 including the emotion estimation apparatus 1010 according to the second embodiment.

図20に示す感情推定システム1001は、端末装置が送信したメールをメールサーバ1040を介して送信先の端末装置に送信するものであり、感情推定装置1010がメールサーバ1040からメールの本文を受信して、受信したメールの本文の感情を推定し、推定した感情を示すアイコンをメールサーバ1040に送信する。なお、第2の実施の形態では、端末装置20をメール送信元とし、端末装置21をメール送信先とする場合を例にとり説明するが、これに限定されるものではなく、端末装置21をメール送信元とし、端末装置20をメール送信先としてもよい。   The emotion estimation system 1001 shown in FIG. 20 transmits a mail transmitted from a terminal device to a destination terminal device via a mail server 1040. The emotion estimation device 1010 receives the text of the mail from the mail server 1040. Then, the emotion of the received mail text is estimated, and an icon indicating the estimated emotion is transmitted to the mail server 1040. In the second embodiment, the case where the terminal device 20 is a mail transmission source and the terminal device 21 is a mail transmission destination will be described as an example. However, the present invention is not limited to this. The transmission source may be the terminal device 20 and the mail transmission destination.

なお、端末装置21の構成は、端末装置20の構成と同様であるため、以下では、第1の実施の形態と第2の実施の形態の主要な相違点である感情推定装置1010の構成、及び感情推定システム1の動作について説明する。   Since the configuration of the terminal device 21 is the same as that of the terminal device 20, the configuration of the emotion estimation device 1010, which is the main difference between the first embodiment and the second embodiment, The operation of the emotion estimation system 1 will be described.

図21は、第2の実施の形態の感情推定装置1010の機能ブロックの一例を示す図である。感情推定装置1010は、記憶部1130にシンボルテーブル記憶部1139が含まれる点、及び推定部1170が推定した感情に対応付けられたシンボルを取得する点で、第1の実施の形態の感情推定装置10と相違する。   FIG. 21 is a diagram illustrating an example of functional blocks of the emotion estimation apparatus 1010 according to the second embodiment. Emotion estimation device 1010 is based on the point that symbol table storage unit 1139 is included in storage unit 1130 and that the symbol associated with the emotion estimated by estimation unit 1170 is acquired. 10 and different.

シンボルテーブル記憶部1139は、推定される感情と、当該感情を示すシンボルとを対応付けて記憶する。図22は、第2の実施の形態のシンボルテーブルの一例を示す図である。図22に示す例では、シンボルはアイコンであり、喜怒哀楽のいずれかを示す感情と、当該感情を示すアイコンとが対応付けられている。   The symbol table storage unit 1139 stores the estimated emotion and the symbol indicating the emotion in association with each other. FIG. 22 is a diagram illustrating an example of a symbol table according to the second embodiment. In the example illustrated in FIG. 22, the symbol is an icon, and an emotion indicating any emotion is associated with an icon indicating the emotion.

推定部1170は、推定した感情に対応づけられたシンボルをシンボルテーブル記憶部1139から取得する。   The estimation unit 1170 acquires a symbol associated with the estimated emotion from the symbol table storage unit 1139.

次に、第2の実施の形態の感情推定システムの動作について説明する。   Next, the operation of the emotion estimation system according to the second embodiment will be described.

図23は、第2の実施の形態の感情推定システム1001で行われる処理の手順の流れの一例を示すシーケンス図である。   FIG. 23 is a sequence diagram illustrating an example of a flow of processes performed in the emotion estimation system 1001 according to the second embodiment.

まず、端末装置20は、端末装置21宛のメールをメールサーバ1040に送信する(ステップS610)。図24は、端末装置20がメールサーバ1040に送信するメールの一例を示す図である。   First, the terminal device 20 transmits a mail addressed to the terminal device 21 to the mail server 1040 (step S610). FIG. 24 is a diagram illustrating an example of mail transmitted from the terminal device 20 to the mail server 1040.

続いて、メールサーバ1040は、端末装置20から受信したメールの本文を感情推定装置1010へ送信する(ステップS620)。図25は、メールサーバ1040が感情推定装置1010へ送信するメール本文の一例を示す図である。   Subsequently, the mail server 1040 transmits the text of the mail received from the terminal device 20 to the emotion estimation device 1010 (step S620). FIG. 25 is a diagram illustrating an example of a mail text that the mail server 1040 transmits to the emotion estimation apparatus 1010.

続いて、感情推定装置1010が行うステップS630に示す表現抽出処理、ステップS640に示すクラス決定処理は、それぞれ図14のステップS20に示す表現抽出処理、ステップS30に示すクラス決定処理と同様であるため、説明を省略する。   Subsequently, the expression extraction process shown in step S630 and the class determination process shown in step S640 performed by the emotion estimation apparatus 1010 are the same as the expression extraction process shown in step S20 and the class determination process shown in step S30 in FIG. The description is omitted.

続いて、感情推定装置1010の推定部1170は、決定部160により決定された感性表現クラス、対象表現クラス、意図表現クラスの組に対応付けられた感情ベクトルを感情テーブル記憶部138から取得して、テキストデータの書き手の感情を推定し、推定された感情を示すアイコンをシンボルテーブル記憶部1139から取得する感情推定処理を行う(ステップS650)。   Subsequently, the estimation unit 1170 of the emotion estimation apparatus 1010 obtains an emotion vector associated with the set of the sensitivity expression class, the target expression class, and the intention expression class determined by the determination unit 160 from the emotion table storage unit 138. Then, an emotion estimation process is performed in which the emotion of the writer of the text data is estimated and an icon indicating the estimated emotion is acquired from the symbol table storage unit 1139 (step S650).

図26は、図23のステップS650に示す感情推定処理の手順の流れの一例を示すフローチャートである。なお、ステップS700からS718までの処理は、図19に示すステップS400からS418までの処理と同様であるため、説明を省略する。   FIG. 26 is a flowchart illustrating an example of the flow of the emotion estimation process shown in step S650 of FIG. In addition, since the process from step S700 to S718 is the same as the process from step S400 to S418 shown in FIG. 19, description is abbreviate | omitted.

ステップS718で書き手の感情が推定されると、推定部1170は、推定された感情に対応付けられたアイコンを、シンボルテーブル記憶部1139から取得する(ステップS720)。なお、図25に示すテキストデータの感情推定結果ベクトルは、図13に示す通りであるため、ここでは、推定部1170は、「喜」に対応付けられたアイコン1101をシンボルテーブル記憶部1139から取得する。   When the writer's emotion is estimated in step S718, the estimation unit 1170 acquires an icon associated with the estimated emotion from the symbol table storage unit 1139 (step S720). Note that the emotion estimation result vector of the text data shown in FIG. 25 is as shown in FIG. To do.

図23に戻り、続いて、通信制御部140は、送信部120を制御して、推定部1170により推定された感情とともに、アイコン1101をメールサーバ1040に送信する(ステップS660)。   Returning to FIG. 23, subsequently, the communication control unit 140 controls the transmission unit 120 to transmit the icon 1101 to the mail server 1040 together with the emotion estimated by the estimation unit 1170 (step S660).

続いて、メールサーバ1040は、感情推定装置1010から受信したアイコン1101を付与して、端末装置20から受信したメールを端末装置21へ送信する。図27は、メールサーバ1040が端末装置21へ送信するメールの一例を示す図であり、図24に示すメールにアイコン1101が付与されている。   Subsequently, the mail server 1040 gives the icon 1101 received from the emotion estimation apparatus 1010 and transmits the mail received from the terminal apparatus 20 to the terminal apparatus 21. FIG. 27 is a diagram illustrating an example of mail transmitted from the mail server 1040 to the terminal device 21. An icon 1101 is added to the mail illustrated in FIG.

このように第2の実施形態では、メール本文からメール送信者の感情を推定し、推定した感情を示すアイコンを付与して送信先にメールを送信するため、メール送信者の感情をメールの送信相手に伝えることができる。   As described above, in the second embodiment, the emotion of the mail sender is estimated from the mail text, and an icon indicating the estimated emotion is added and the mail is transmitted to the transmission destination. I can tell the other party.

なお、上記実施の形態の感情推定装置10、1010は、CPUなどの制御装置と、ROM(Read Only Memory)やRAMなどの記憶装置と、HDD、SSD、リムーバブルドライブ装置などの外部記憶装置と、液晶ディスプレイなどの表示装置と、キーボードやマウスなどの入力装置を備えており、通常のコンピュータを利用したハードウェア構成となっている。   The emotion estimation apparatuses 10 and 1010 of the above embodiment include a control device such as a CPU, a storage device such as a ROM (Read Only Memory) and a RAM, an external storage device such as an HDD, SSD, and a removable drive device, It has a display device such as a liquid crystal display and an input device such as a keyboard and a mouse, and has a hardware configuration using a normal computer.

(変形例)
本発明は、上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせても良い。
(Modification)
The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

上記実施の形態では、感情推定装置10、1010は、テキストデータを受信する例について説明したが、音声を認識してテキストデータを生成する音声認識部を備えるようにすれば、ユーザの音声(例えば、電話の声)を受信し、受信した音声を認識してテキストデータを生成し、生成したテキストデータからユーザの感情を推定することもできる。   In the above embodiment, the emotion estimation apparatuses 10 and 1010 have been described with respect to an example in which text data is received. However, if a voice recognition unit that recognizes voice and generates text data is provided, the user's voice (for example, , A voice of a telephone) is received, text data is generated by recognizing the received voice, and a user's emotion can be estimated from the generated text data.

1、1001 感情推定システム
10、1010 感情推定装置
20、21 端末装置
30 ネットワーク
110 受信部
120 送信部
130、1130 記憶部
131 辞書記憶部
133 感性表現オントロジー記憶部
135 対象表現オントロジー記憶部
137 意図表現オントロジー記憶部
138 感情テーブル記憶部
140 通信制御部
150 抽出部
160 決定部
170、1170 推定部
210 入力部
220 表示部
230 送信部
240 受信部
250 入力受付部
260 通信制御部
270 表示制御部
311、312、333〜335 表現組
321、322 クラス組
1040 メールサーバ
1101 アイコン
1139 シンボルテーブル記憶部
DESCRIPTION OF SYMBOLS 1,1001 Emotion estimation system 10, 1010 Emotion estimation apparatus 20, 21 Terminal device 30 Network 110 Reception part 120 Transmission part 130, 1130 Storage part 131 Dictionary storage part 133 Kansei expression ontology storage part 135 Target expression ontology storage part 137 Intention expression ontology Storage unit 138 Emotion table storage unit 140 Communication control unit 150 Extraction unit 160 Determination unit 170, 1170 Estimation unit 210 Input unit 220 Display unit 230 Transmission unit 240 Reception unit 250 Input reception unit 260 Communication control unit 270 Display control unit 311, 312, 333 to 335 Expression group 321 and 322 Class group 1040 Mail server 1101 Icon 1139 Symbol table storage unit

Claims (7)

事象の性質又は感情を表現する感性表現と、前記感性表現が属する概念のクラスである感性表現クラスとの関係を示す感性表現オントロジーを記憶する感性表現オントロジー記憶部と、
前記感性表現が表す対象物を表現する対象表現と、前記対象表現が属する概念のクラスである対象表現クラスとの関係を示す対象表現オントロジーを記憶する対象表現オントロジー記憶部と、
意図又は感想を表現する意図表現と、前記意図表現が属する概念のクラスである意図表現クラスとの関係を示す意図表現オントロジーを記憶する意図表現オントロジー記憶部と、
前記感性表現クラス、前記対象表現クラス、及び前記意図表現クラスの組と、感情を示す感情情報とを対応付けた感情テーブルを記憶する感情テーブル記憶部と、
テキストデータを入力する入力部と、
前記テキストデータから、それぞれの表現が依存関係にある前記感性表現、前記対象表現、及び前記意図表現を抽出する抽出部と、
抽出された前記感性表現、前記対象表現、前記意図表現がそれぞれ属する前記感性表現クラス、前記対象表現クラス、前記意図表現クラスの組を、前記感性表現オントロジー、前記対象表現オントロジー、及び前記意図表現オントロジーを参照して決定する決定部と、
決定された前記組に対応付けられた前記感情情報を前記感情テーブル記憶部から取得し、取得した前記感情情報を用いて、前記テキストデータの書き手の感情を推定する推定部と、
推定結果を出力する出力部と、を備えることを特徴とする感情推定装置。
A sentiment expression ontology storage unit that stores a sentiment expression ontology indicating a relationship between a sentiment expression expressing the nature or emotion of an event and a sentiment expression class that is a concept class to which the sentiment expression belongs;
A target expression ontology storage unit that stores a target expression ontology indicating a relationship between a target expression that represents the target object represented by the Kansei expression and a target expression class that is a concept class to which the target expression belongs;
An intention expression ontology storage unit that stores an intention expression ontology indicating a relationship between an intention expression expressing an intention or an impression and an intention expression class that is a class of a concept to which the intention expression belongs;
An emotion table storage unit that stores an emotion table in which a set of the sensitivity expression class, the target expression class, and the intention expression class is associated with emotion information indicating emotion;
An input section for inputting text data;
An extraction unit that extracts the sensitivity expression, the target expression, and the intention expression, each expression having a dependency relationship from the text data;
The extracted Kansei expression, the target expression, the Kansei expression class to which the intention expression belongs, the object expression class, and the intention expression class are grouped as the Kansei expression ontology, the object expression ontology, and the intention expression ontology, respectively. A determination unit that determines with reference to
An estimation unit that acquires the emotion information associated with the determined set from the emotion table storage unit, and uses the acquired emotion information to estimate the writer's emotion of the text data;
An emotion estimation apparatus comprising: an output unit that outputs an estimation result.
前記抽出部は、前記テキストデータから、それぞれの表現が係り受け関係にある前記感性表現、前記対象表現、及び前記意図表現を抽出することを特徴とする請求項1に記載の感情推定装置。   The emotion estimation apparatus according to claim 1, wherein the extraction unit extracts the sensitivity expression, the target expression, and the intention expression, each expression having a dependency relationship from the text data. 前記感情情報は、複数種類の感情を要素としたベクトル表現である感情ベクトルであることを特徴とする請求項1又は2に記載の感情推定装置。   The emotion estimation apparatus according to claim 1, wherein the emotion information is an emotion vector that is a vector expression including a plurality of types of emotions as elements. 前記推定部は、前記決定部により前記組が複数決定された場合には、それぞれの組に対応付けられた前記感情ベクトルを前記感情テーブル記憶部から取得し、取得したそれぞれの前記感情ベクトルを合算して、前記テキストデータの書き手の感情を推定することを特徴とする請求項3に記載の感情推定装置。   When the determination unit determines a plurality of sets, the estimation unit acquires the emotion vectors associated with each set from the emotion table storage unit, and adds the acquired emotion vectors together The emotion estimation apparatus according to claim 3, wherein the emotion of the writer of the text data is estimated. 前記推定部は、決定された前記組に対応付けられた前記感情ベクトルが複数存在する場合には、複数の前記感情ベクトルを前記感情テーブル記憶部から取得し、取得した複数の前記感情ベクトルを平均化して、前記テキストデータの書き手の感情を推定することを特徴とする請求項3、又は4に記載の感情推定装置。   The estimation unit acquires a plurality of the emotion vectors from the emotion table storage unit when there are a plurality of the emotion vectors associated with the determined set, and averages the acquired emotion vectors The emotion estimation apparatus according to claim 3, wherein the emotion of the writer of the text data is estimated. 推定される感情と、当該感情を示すシンボルとを対応付けて記憶するシンボルテーブル記憶部を更に備え、
前記推定部は、更に、推定した前記テキストデータの書き手の感情に対応づけられた前記シンボルを前記シンボルテーブル記憶部から取得し、
前記出力部は、更に、取得された前記シンボルを出力することを特徴とする請求項1〜5のいずれか1つに記載の感情推定装置。
A symbol table storage unit for storing the estimated emotion and a symbol indicating the emotion in association with each other;
The estimation unit further acquires the symbol associated with the estimated emotion of the writer of the text data from the symbol table storage unit,
The emotion estimation apparatus according to claim 1, wherein the output unit further outputs the acquired symbol.
入力受付部が、テキストデータの入力を受け付ける入力受付ステップと、
抽出部が、前記テキストデータから、事象の性質又は感情を表現する感性表現、前記感性表現が表す対象物を表現する対象表現、及び意図又は感想を表現する意図表現のそれぞれの表現が依存関係にある前記感性表現、前記対象表現、及び前記意図表現を抽出する抽出ステップと、
決定部が、前記感性表現と前記感性表現が属する概念のクラスである感性表現クラスとの関係を示す感性表現オントロジーを記憶する感性表現オントロジー記憶部の前記感性表現オントロジーと、前記対象表現と前記対象表現が属する概念のクラスである対象表現クラスとの関係を示す対象表現オントロジーを記憶する対象表現オントロジー記憶部の前記対象表現オントロジーと、前記意図表現と前記意図表現が属する概念のクラスである意図表現クラスとの関係を示す意図表現オントロジーを記憶する意図表現オントロジー記憶部の前記意図表現オントロジーを参照して、抽出された前記感性表現、前記対象表現、前記意図表現がそれぞれ属する前記感性表現クラス、前記対象表現クラス、前記意図表現クラスの組を決定する決定ステップと、
推定部が、前記感性表現クラス、前記対象表現クラス、及び前記意図表現クラスの組と、感情を示す感情情報とを対応付けた感情テーブルを記憶する感情テーブル記憶部から、決定された前記組に対応付けられた前記感情情報を取得し、取得した前記感情情報を用いて、前記テキストデータの書き手の感情を推定する推定ステップと、
出力制御部が、推定結果を出力部に出力させる出力制御ステップと、を含むことを特徴とする感情推定方法。
An input receiving step for receiving an input of text data;
From the text data, the extractor has a dependency relationship between a sensitivity expression expressing the nature or emotion of the event, a target expression expressing the object represented by the sensitivity expression, and an intention expression expressing the intention or impression. An extraction step of extracting the Kansei expression, the object expression, and the intention expression;
The Kansei Expression Ontology of the Kansei Expression Ontology Storage Unit for storing a Kansei Expression Ontology indicating a relationship between the Kansei Expression and the Kansei Expression Class that is a concept class to which the Kansei Expression belongs, and the target expression and the target The target expression ontology that stores the target expression ontology indicating the relationship with the target expression class that is the concept class to which the expression belongs, and the intention expression that is the class of the concept to which the intention expression and the intention expression belong With reference to the intention expression ontology of the intention expression ontology storage unit that stores the intention expression ontology indicating the relationship with the class, the extracted Kansei expression, the target expression, the Kansei expression class to which the intention expression belongs, A determination step of determining a target expression class and a set of the intention expression classes ,
From the emotion table storage unit that stores an emotion table in which a set of the sensitivity expression class, the target expression class, and the intention expression class is associated with emotion information indicating emotion, the estimation unit Estimating the associated emotion information and using the acquired emotion information to estimate the writer's emotion of the text data; and
An output control unit comprising: an output control step for causing the output unit to output an estimation result.
JP2009070726A 2009-03-23 2009-03-23 Emotion estimation apparatus and method Active JP5121763B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009070726A JP5121763B2 (en) 2009-03-23 2009-03-23 Emotion estimation apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009070726A JP5121763B2 (en) 2009-03-23 2009-03-23 Emotion estimation apparatus and method

Publications (2)

Publication Number Publication Date
JP2010224813A true JP2010224813A (en) 2010-10-07
JP5121763B2 JP5121763B2 (en) 2013-01-16

Family

ID=43041943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009070726A Active JP5121763B2 (en) 2009-03-23 2009-03-23 Emotion estimation apparatus and method

Country Status (1)

Country Link
JP (1) JP5121763B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102737013A (en) * 2011-04-02 2012-10-17 三星电子(中国)研发中心 Device and method for identifying statement emotion based on dependency relation
JP2013069185A (en) * 2011-09-26 2013-04-18 Dainippon Printing Co Ltd Text input support system, text insertion method, server and program
CN104750380A (en) * 2013-12-31 2015-07-01 中国移动通信集团公司 Information processing method and electronic equipment
JP2016024631A (en) * 2014-07-18 2016-02-08 ヤフー株式会社 Presentation device, presentation method, and presentation program
US9304984B2 (en) 2012-03-26 2016-04-05 Hewlett Packard Enterprise Development Lp Intention statement visualization
US9411860B2 (en) 2011-06-28 2016-08-09 Hewlett Packard Enterprise Development Lp Capturing intentions within online text
JP2017084015A (en) * 2015-10-26 2017-05-18 Kddi株式会社 Text impression analysis program, device, and method for comparing subjective impression and objective impression on input text
JP2018156420A (en) * 2017-03-17 2018-10-04 ヤフー株式会社 Determination device, determination method, and determination program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06110920A (en) * 1992-09-25 1994-04-22 Nippon Telegr & Teleph Corp <Ntt> Message subjective feature extracting method
JP2002117027A (en) * 2000-10-11 2002-04-19 Nippon Telegr & Teleph Corp <Ntt> Feeling information extracting method and recording medium for feeling information extracting program
JP2003281161A (en) * 2002-03-19 2003-10-03 Seiko Epson Corp Information classification method, information classification device, program and record medium
JP2005128711A (en) * 2003-10-22 2005-05-19 Omron Corp Emotional information estimation method, character animation creation method, program using the methods, storage medium, emotional information estimation apparatus, and character animation creation apparatus
JP2005222294A (en) * 2004-02-05 2005-08-18 Seiko Epson Corp Device and method for recognizing feeling of sentence and its program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06110920A (en) * 1992-09-25 1994-04-22 Nippon Telegr & Teleph Corp <Ntt> Message subjective feature extracting method
JP2002117027A (en) * 2000-10-11 2002-04-19 Nippon Telegr & Teleph Corp <Ntt> Feeling information extracting method and recording medium for feeling information extracting program
JP2003281161A (en) * 2002-03-19 2003-10-03 Seiko Epson Corp Information classification method, information classification device, program and record medium
JP2005128711A (en) * 2003-10-22 2005-05-19 Omron Corp Emotional information estimation method, character animation creation method, program using the methods, storage medium, emotional information estimation apparatus, and character animation creation apparatus
JP2005222294A (en) * 2004-02-05 2005-08-18 Seiko Epson Corp Device and method for recognizing feeling of sentence and its program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102737013A (en) * 2011-04-02 2012-10-17 三星电子(中国)研发中心 Device and method for identifying statement emotion based on dependency relation
US9411860B2 (en) 2011-06-28 2016-08-09 Hewlett Packard Enterprise Development Lp Capturing intentions within online text
JP2013069185A (en) * 2011-09-26 2013-04-18 Dainippon Printing Co Ltd Text input support system, text insertion method, server and program
US9304984B2 (en) 2012-03-26 2016-04-05 Hewlett Packard Enterprise Development Lp Intention statement visualization
CN104750380A (en) * 2013-12-31 2015-07-01 中国移动通信集团公司 Information processing method and electronic equipment
JP2016024631A (en) * 2014-07-18 2016-02-08 ヤフー株式会社 Presentation device, presentation method, and presentation program
JP2017084015A (en) * 2015-10-26 2017-05-18 Kddi株式会社 Text impression analysis program, device, and method for comparing subjective impression and objective impression on input text
JP2018156420A (en) * 2017-03-17 2018-10-04 ヤフー株式会社 Determination device, determination method, and determination program

Also Published As

Publication number Publication date
JP5121763B2 (en) 2013-01-16

Similar Documents

Publication Publication Date Title
JP5121763B2 (en) Emotion estimation apparatus and method
US10831796B2 (en) Tone optimization for digital content
JP2019504413A (en) System and method for proposing emoji
CN102426607B (en) Extensible search term suggestion engine
US10169466B2 (en) Persona-based conversation
CN104335607A (en) Systems and methods for identifying and suggesting emoticons
JP5496863B2 (en) Emotion estimation apparatus, method, program, and recording medium
US20120330955A1 (en) Document similarity calculation device
US11010687B2 (en) Detecting abusive language using character N-gram features
CN112559672B (en) Information detection method, electronic device and computer storage medium
CN103999082B (en) Method, computer program and computer for detecting the community in social media
WO2016203805A1 (en) Information processing device, information processing system, information processing method, and program
CN105378717A (en) Method for user categorization in social media, computer program, and computer
Meck et al. How to design the perfect prompt: A linguistic approach to prompt design in automotive voice assistants–an exploratory study
CN111555960A (en) Method for generating information
CN111125305A (en) Hot topic determination method and device, storage medium and electronic equipment
JP5317093B2 (en) Learning content generation device, learning content generation method, program for causing a computer to function as the learning content generation device, and computer-readable recording medium storing the program
CN101375242A (en) Input/query methods and apparatuses
EP2915067A1 (en) Text analysis
JP2012194775A (en) Information processor control method, control program and information processor
US10546060B2 (en) Pronoun mapping for sub-context rendering
JP7293743B2 (en) Processing device, processing method and program
Mukherjee et al. An automated real-time system for opinion mining using a hybrid approach
JP2020009249A (en) Information processing method, information processing device, and program
JP2011118797A (en) Mobile cgm analysis system, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120925

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121023

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151102

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5121763

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151102

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350