Nothing Special   »   [go: up one dir, main page]

JP2003271532A - Communication system, data transfer method of the system, server of the system, processing program for the system and record medium - Google Patents

Communication system, data transfer method of the system, server of the system, processing program for the system and record medium

Info

Publication number
JP2003271532A
JP2003271532A JP2002072204A JP2002072204A JP2003271532A JP 2003271532 A JP2003271532 A JP 2003271532A JP 2002072204 A JP2002072204 A JP 2002072204A JP 2002072204 A JP2002072204 A JP 2002072204A JP 2003271532 A JP2003271532 A JP 2003271532A
Authority
JP
Japan
Prior art keywords
image
text sentence
face image
word
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002072204A
Other languages
Japanese (ja)
Inventor
Ayahiro Nakajima
紋宏 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2002072204A priority Critical patent/JP2003271532A/en
Publication of JP2003271532A publication Critical patent/JP2003271532A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable a hearer to visually and intuitively sense the emotion of a speaker inputting a text sentence. <P>SOLUTION: On receiving a text sentence from a user terminal 10-1 of the speaker connected through a network 30, a server 20 deforms a face image corresponding to the user according to the value of the emotion expressed in words of the text sentence to create a deformed face image, relates the deformed image with the words of the text sentence, transmits the related deformed image to a user terminal 10-2 as a hearer, and displays the face image related with the words where a cursor showing the word position is located together with the cursor on a display part 114 of the user terminal 10-2. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、例えばネットワー
クを介して会話(チャット)を行うコミュニケーション
システム(チャットシステム)および当該システムのデ
ータ転送方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a communication system (chat system) for carrying out a conversation (chat) via a network, for example, and a data transfer method of the system.

【0002】[0002]

【従来の技術】一般に、チャットシステムとは、ネット
ワークを介した端末(コンピュータ)同士で、文字、記
号、数字などのテキスト文をリアルタイムにて送受信す
ることによって、利用者同士が擬似的な会話を可能とし
たシステムである。そして、このチャットシステムで
は、複数の利用者が同時に会話することが可能であり、
1人の発言は、他の利用者全員にモニタされる。
2. Description of the Related Art Generally, a chat system allows users (users) to have a pseudo conversation by transmitting and receiving texts such as letters, symbols, and numbers in real time between terminals (computers) via a network. It is a possible system. And this chat system allows multiple users to talk at the same time,
One utterance is monitored by all other users.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、送受信
されるデータはテキストのみであるので、テキスト文を
入力した利用者(話し手)の感情を聞き手に伝達するこ
とには自ずと限界がある。したがって、従来のチャット
システムでは、聞き手にとってみれば、話し手の感情が
直感的には判りにくいし、なによりも単語の羅列だけで
は視覚的にも乏しすぎる、という欠点があった。本発明
は、上述した事情を考慮してなされたもので、その目的
とするところは、話し手の感情を視覚的に表現して、聞
き手に直感させることが可能なコミュニケーションシス
テム、および、そのデータ転送方法に関する。
However, since the data transmitted and received is only text, there is naturally a limit in transmitting the emotion of the user (speaker) who inputs the text sentence to the listener. Therefore, the conventional chat system has a drawback in that the listener's feelings are difficult to understand intuitively for the listener, and above all, the list of words is visually insufficient. The present invention has been made in view of the above circumstances, and an object thereof is to provide a communication system that visually expresses a feeling of a speaker and makes a listener intuitive. Regarding the method.

【0004】[0004]

【課題を解決するための手段】上記目的を達成するため
に、本発明に係るコミュニケーションシステムのデータ
転送方法は、サーバが、ネットワークを介して接続され
る一の利用者端末から、テキスト文を受信したとき、当
該一の利用者端末の利用者に対応した顔画像を、当該テ
キスト文の単語で示される感情の値に応じて変形する第
1過程と、サーバが、当該利用者に対応した顔画像、お
よび、当該顔画像を変形した変形画像を、当該テキスト
文の単語列に関連付ける第2過程と、サーバが、当該テ
キスト文とともに、その単語列に関連付けた顔画像およ
び変形画像を他の利用者端末に送信する第3過程と、当
該他の利用者端末が、当該テキスト文とその単語位置を
示すカーソルとともに、当該カーソルが位置する単語に
関連付けられた顔画像または変形画像を表示する第4過
程とを有することを特徴とする。
In order to achieve the above object, in a data transfer method of a communication system according to the present invention, a server receives a text sentence from one user terminal connected via a network. Then, the first process of transforming the face image corresponding to the user of the one user terminal according to the emotional value indicated by the word of the text sentence, and the face corresponding to the user by the server. A second step of associating an image and a deformed image obtained by deforming the face image with a word string of the text sentence, and another use of the face image and the deformed image associated with the word string by the server together with the text sentence. The third step of transmitting to the user terminal and the other user terminal, together with the cursor indicating the text sentence and the word position thereof, the face associated with the word where the cursor is located. And having a fourth step of displaying the image or modified image.

【0005】この方法によれば、他の利用者端末では、
一の利用者端末から送信されたテキスト文とともにカー
ソルが表示され、さらに、カーソル位置の単語に関連付
けられた顔画像を、単語の感情を示す値に応じて変形さ
せた画像が表示される。このため、当該一の利用者、す
なわち、話し手の顔画像は、カーソルの移動に伴ってテ
キスト文の単語の意味する感情に応じて変化するので、
聞き手にとって、話し手の感情を視覚的に直感的に理解
することが可能となる。さらに、画像の変形は、一の利
用者端末によって送信されたテキスト文を受信したサー
バによってなされるので、話し手、聞き手の利用者に負
担が強いられることはない。
According to this method, in other user terminals,
A cursor is displayed together with a text sentence transmitted from one user terminal, and an image obtained by transforming a face image associated with the word at the cursor position according to a value indicating the emotion of the word is displayed. Therefore, since the face image of the one user, that is, the speaker changes in accordance with the emotion that the word in the text sentence means as the cursor moves,
The listener can visually and intuitively understand the emotion of the speaker. Further, since the image deformation is performed by the server that receives the text sentence transmitted by one user terminal, the user of the speaker and the listener is not burdened.

【0006】ここで、前記第1過程において、サーバ
は、受信したテキスト文を単語に分解して、分解した単
語で与えられる感情の値を成分としたベクトルを求める
とともに、当該一の利用者に対応して予め記憶した顔画
像の特徴点を、分解した単語のベクトルの成分だけ移動
させて、当該顔画像を変形させることが好ましい。ま
た、前記第4過程において、当該他の利用者端末は、カ
ーソル位置を読み上げ地点として、当該テキスト文を音
声合成して出力することも好ましい。
[0006] Here, in the first step, the server decomposes the received text sentence into words, obtains a vector having an emotional value given by the decomposed words as a component, and asks the one user. Correspondingly, it is preferable to deform the face image by moving the feature points of the face image stored in advance by the component of the vector of the decomposed word. Further, in the fourth step, it is preferable that the other user terminal voice-synthesize and output the text sentence with the cursor position as a reading point.

【0007】なお、本発明は、上述したデータ転送方法
のほか、コミュニケーションシステムそれ自体として
も、また、そのサーバとしても、さらには、そのサーバ
に実行させる処理プログラム等としても良く、いずれに
おいても、話し手の感情を、聞き手に対して視覚的に表
現して直感させることが可能となる。
In addition to the above-mentioned data transfer method, the present invention may be applied to the communication system itself, the server thereof, or a processing program executed by the server. It is possible to visually express the feelings of the speaker to the listener in order to make them intuitive.

【0008】[0008]

【発明の実施の形態】以下、本発明の実施の形態に係る
コミュニケーションシステムについて、図面を参照して
説明する。
BEST MODE FOR CARRYING OUT THE INVENTION A communication system according to an embodiment of the present invention will be described below with reference to the drawings.

【0009】<全体構成>図1は、このコミュニケーシ
ョンシステムの構成を示す図である。この図に示される
ように、コミュニケーションシステムは、利用者端末1
0−1、10−2、10−3、…、と、サーバ20とが
ネットワーク30を介して互いに接続された構成となっ
ている。
<Overall Configuration> FIG. 1 is a diagram showing the configuration of this communication system. As shown in this figure, the communication system includes a user terminal 1
0-1, 10-2, 10-3, ... And the server 20 are connected to each other via the network 30.

【0010】ここで、利用者端末10−1、10−2、
10−3、…、の構成について説明する。これらの構成
については互いに略同一であるので、後述するように話
し手および聞き手の利用者端末を特定する必要のない限
り、その符号を10として説明することにする。図2
は、この利用者端末10のハードウェア構成を示すブロ
ック図である。
Here, the user terminals 10-1, 10-2,
The configuration of 10-3, ... Will be described. Since these configurations are substantially the same as each other, the reference numeral will be described as 10 unless it is necessary to specify the user terminals of the speaker and the listener as described later. Figure 2
FIG. 3 is a block diagram showing a hardware configuration of this user terminal 10.

【0011】この図に示されるように、利用者端末10
は、各種の演算や制御を実行するCPU102、基本入
出力プログラム等を記憶するROM104、プログラム
やデータなどの情報を記憶するためにメインメモリとし
て用いられるRAM106、音声合成の際に用いる音声
データベースや各種のアプリケーションプログラムを記
憶するために外部記憶装置として用いられる記憶部10
8、キーボードやマウスなどのように利用者の各種操作
を入力する入力部112、利用者に対して各種の表示画
面を提供する表示部114、受信したテキスト文を音声
合成して出力するためのスピーカ116、および、ネッ
トワーク30に接続してデータを送受信するためのネッ
トワーク接続部118を有し、これらの各部がシステム
バスBを介して互いに接続されている。なお、サーバ2
0のハードウェア構成についても、スピーカ116が不
要である点以外、基本的に利用者端末10と同一であ
る。ただし、利用者端末10およびサーバ20では、コ
ミュニケーションシステムにおける役割が相違するた
め、その機能構成についても、次に説明するように相違
している。
As shown in this figure, the user terminal 10
Is a CPU 102 that executes various calculations and controls, a ROM 104 that stores basic input / output programs and the like, a RAM 106 that is used as a main memory for storing information such as programs and data, a voice database and various types used in voice synthesis. Storage unit 10 used as an external storage device for storing the application program of
8, an input unit 112 for inputting various operations of the user such as a keyboard and a mouse, a display unit 114 for providing various display screens to the user, and a unit for voice-synthesizing and outputting a received text sentence. It has a speaker 116 and a network connection unit 118 for connecting to the network 30 and transmitting / receiving data, and these units are connected to each other via a system bus B. The server 2
The hardware configuration of 0 is basically the same as that of the user terminal 10 except that the speaker 116 is unnecessary. However, since the user terminal 10 and the server 20 have different roles in the communication system, their functional configurations are also different as described below.

【0012】<機能構成>そこで次に、コミュニケーシ
ョンシステムにおける機能ブロックについて図3を参照
して説明する。この機能ブロックは、利用者端末10お
よびサーバ20がそれぞれチャットのためのアプリケー
ションプログラムを実行することによってソフトウェア
的に構築されるものであり、必ずしもハードウェア的に
実在する訳ではない。また、ここでは便宜上、利用者端
末10−1が話し手の利用者によって操作される一方、
利用者端末10−2が聞き手の利用者によって操作され
るものとして説明する。
<Functional Structure> Next, functional blocks in the communication system will be described with reference to FIG. This functional block is constructed in software by the user terminal 10 and the server 20 executing the application program for chat, and does not necessarily exist in hardware. In addition, here, for convenience, while the user terminal 10-1 is operated by the user of the speaker,
It is assumed that the user terminal 10-2 is operated by the listener user.

【0013】まず、話し手に相当する利用者端末10−
1の入力部112では、利用者によってチャット文とな
るテキスト文が入力される。入力されたテキスト文は、
確認のために表示部114に表示される一方、送信者を
特定するための情報とともに、ネットワーク接続部11
8に相当する送信部118aを介してネットワーク30
に送出される。
First, a user terminal 10-corresponding to a speaker.
In the input unit 112 of No. 1, the user inputs a text sentence to be a chat sentence. The entered text sentence is
While being displayed on the display unit 114 for confirmation, the network connection unit 11 together with the information for identifying the sender.
8 through the transmission unit 118a corresponding to the network 30
Sent to.

【0014】一方、サーバ20においては、受信部21
8bが、話し手の利用者端末10−1からのテキスト文
と、送信者である話し手を特定するための情報とを受信
する。次に、構文解析部222は、受信されたテキスト
文を形態素解析して、単語に分解する。単語抽出部22
4は、構文解析部222により分解された単語を、先頭
から順番に1つずつ抽出して処理対象とする。
On the other hand, in the server 20, the receiving section 21
8b receives the text sentence from the speaker user terminal 10-1 and the information for identifying the speaker who is the sender. Next, the syntactic analysis unit 222 morphologically analyzes the received text sentence to decompose it into words. Word extraction unit 22
In step 4, the words decomposed by the syntax analysis unit 222 are extracted one by one in order from the beginning and are processed.

【0015】次に、単語が示す感情表現を定量的に取り
扱うために、単語毎に、複数の感情を要素としたベクト
ルを用いる。感情辞書228は、単語のベクトルを、各
要素成分毎に記憶する一種のデータベースであり、本実
施形態では、例えば図4に示されるように、単語毎に
「喜び」、「悲しみ」、「驚き」、「恐怖」、「怒
り」、「嫌悪」の6つの要素が数値データとして予め割
り当てられている。例えば「わからない」という単語に
ついては、「悲しみ」および「驚き」の成分値がそれぞ
れ「0.5」であり、他の成分値が「0」であるとして
割り当てられている。感情抽出部226は、単語抽出部
224により抽出された単語が感情辞書228に登録さ
れているか否かを判別して、登録されていれば、そのベ
クトル成分値を順番に抽出する。
Next, in order to quantitatively handle the emotional expression indicated by a word, a vector having a plurality of emotions as elements is used for each word. The emotion dictionary 228 is a kind of database that stores a vector of words for each element component, and in the present embodiment, for example, as shown in FIG. 4, “joy”, “sadness”, and “surprise” for each word. , “Fear”, “anger”, and “dislike” are assigned in advance as numerical data. For example, for the word "don't know", the component values of "sadness" and "surprise" are assigned as "0.5", and the other component values are assigned as "0". The emotion extraction unit 226 determines whether or not the word extracted by the word extraction unit 224 is registered in the emotion dictionary 228, and if registered, sequentially extracts the vector component values.

【0016】顔画像データベース(DB)232は、こ
のコミュニケーションシステムの利用者を示す(また
は、利用者を特定するに十分な)顔画像(のデータ)を
利用者毎に記憶する。なお、感情辞書228および顔画
像DB232は、サーバ20における記憶部に相当す
る。
A face image database (DB) 232 stores (for each user) a face image (data) indicating the user of this communication system (or sufficient to identify the user). The emotion dictionary 228 and the face image DB 232 correspond to a storage unit in the server 20.

【0017】画像変形部230は、詳細動作については
後述するが、テキスト文の送信者に対応する顔画像を、
顔画像DB232から読み出すとともに、当該顔画像
を、抽出された単語に対応して、かつ、感情抽出部22
6により抽出されたベクトル成分値にしたがって変形し
て一時記憶する。画像作成部234は、抽出された単語
に対応して顔画像DB232から読み出された顔画像、
または、画像変形部230により変形された顔画像か
ら、画像ファイルを作成する。テーブル作成部236
は、単語抽出部224によって抽出された単語と、画像
作成部234によって作成された画像ファイルとの対応
関係が判る対応テーブル、詳細には、少なくともテキス
ト文の単語が、どの画像ファイルと関連しているかが判
る対応テーブルを作成する。なお、画像作成部234に
よって作成される画像ファイル、および、テーブル作成
部236によって作成される対応テーブルの具体例につ
いては、後述することにする。
The image transforming unit 230, whose detailed operation will be described later, displays a face image corresponding to the sender of the text sentence.
The face image is read from the face image DB 232, and the face image is associated with the extracted word and
It is transformed according to the vector component value extracted in step 6 and temporarily stored. The image creation unit 234, the face image read from the face image DB 232 corresponding to the extracted word,
Alternatively, an image file is created from the face image transformed by the image transforming unit 230. Table creation unit 236
Is a correspondence table that shows the correspondence relationship between the words extracted by the word extracting unit 224 and the image files created by the image creating unit 234. Specifically, at least the words in the text sentence are associated with which image file. Create a correspondence table that shows whether or not it exists. A specific example of the image file created by the image creating unit 234 and the correspondence table created by the table creating unit 236 will be described later.

【0018】送信部218aは、受信部218bによっ
て受信されたテキスト文と、テーブル作成部236によ
って作成された対応テーブルと、画像作成部234によ
って作成された画像ファイルとを、聞き手となる利用者
端末10−2に送信する。
The transmitting unit 218a uses the text sentence received by the receiving unit 218b, the correspondence table created by the table creating unit 236, and the image file created by the image creating unit 234 as a listener of the user terminal. Send to 10-2.

【0019】これらのテキスト文とテーブルと画像ファ
イルとは、聞き手に相当する利用者端末10−2の受信
部118bによって受信される。なお、受信部118b
は、上述したネットワーク接続部118に相当する。カ
ーソル位置制御部122は、受信部118bによって受
信されたテキスト文において、カーソルで差し示すべき
位置の座標情報を出力する。音声合成部124は、受信
部118bによって受信されたテキスト文を、カーソル
位置制御部122によって示される座標情報にしたがっ
て音声合成して、スピーカ116に出力する。ここで、
音声合成部124は、音声合成の際に、記憶部108に
相当する音声DB128に記憶された音声データを用い
る。なお、音声DB128には、利用者毎に音声データ
を予め登録するとともに、音声合成の際には、テキスト
文の送信者に応じた音声データを用いるとしても良い。
The text sentence, the table and the image file are received by the receiving unit 118b of the user terminal 10-2 corresponding to the listener. The receiving unit 118b
Corresponds to the network connection unit 118 described above. The cursor position control unit 122 outputs the coordinate information of the position to be indicated by the cursor in the text sentence received by the receiving unit 118b. The voice synthesis unit 124 performs voice synthesis on the text sentence received by the reception unit 118 b according to the coordinate information indicated by the cursor position control unit 122, and outputs it to the speaker 116. here,
The voice synthesis unit 124 uses the voice data stored in the voice DB 128 corresponding to the storage unit 108 at the time of voice synthesis. Note that voice data may be registered in advance in the voice DB 128 for each user, and voice data corresponding to the sender of the text sentence may be used when performing voice synthesis.

【0020】画像指示部126は、受信部118bによ
って受信された対応テーブルを参照して、カーソルの座
標情報に対応する画像ファイルを指摘する。画像再生部
127は、受信部118bによって受信された画像ファ
イルのうち、画像指示部126によって指摘された画像
ファイルを再生する。そして、利用者端末10−2の表
示部114は、受信部118bによって受信されたテキ
スト文と、カーソルの座標情報で示される座標にカーソ
ルとを表示させ、さらに、その近傍には、画像再生部1
27によって再生される画像をも表示させる。
The image instructing unit 126 refers to the correspondence table received by the receiving unit 118b and points out the image file corresponding to the coordinate information of the cursor. The image reproduction unit 127 reproduces the image file pointed out by the image instruction unit 126 among the image files received by the reception unit 118b. Then, the display unit 114 of the user terminal 10-2 displays the text sentence received by the reception unit 118b and the cursor at the coordinates indicated by the coordinate information of the cursor, and further in the vicinity thereof, the image reproduction unit. 1
The image reproduced by 27 is also displayed.

【0021】<システムの動作>次に、コミュニケーシ
ョンシステムの動作について説明する。このコミュニケ
ーションシステムでは、テキスト文等のデータは、上述
したように話し手に相当する利用者端末10−1から、
一旦、サーバ20に受信された後に、聞き手の利用者端
末10−2に送信される。
<System Operation> Next, the operation of the communication system will be described. In this communication system, data such as a text sentence is transmitted from the user terminal 10-1 corresponding to the speaker as described above.
Once received by the server 20, it is transmitted to the listener user terminal 10-2.

【0022】<サーバの処理動作>そこでまず、サーバ
20における動作について説明する。図5および図6
は、このサーバ20における動作を示すフローチャート
である。サーバ20では、まず、受信部218bにおい
て、テキスト文および送信者を特定するための情報が、
受信された否かが判別される(ステップS11)。受信
されていないと判別されると、以下の処理を実行する必
要がないので、待機状態となる。テキスト文および送信
者を特定するための情報が受信されると、画像変形部2
30は、当該情報によって特定される送信者の顔画像を
顔画像DB232から読み出して、画像変形に備える
(ステップS12)。
<Processing Operation of Server> First, the operation of the server 20 will be described. 5 and 6
Is a flowchart showing the operation of the server 20. In the server 20, first, in the receiving unit 218b, the text sentence and the information for specifying the sender are
It is determined whether or not it has been received (step S11). If it is determined that it has not been received, it is not necessary to execute the following processing, and thus the standby state is entered. When the text sentence and the information for identifying the sender are received, the image transformation unit 2
30 reads the face image of the sender specified by the information from the face image DB 232 and prepares for image transformation (step S12).

【0023】続いて、構文解析部222は、受信された
テキスト文を形態素解析して、単語に分解する(ステッ
プS13)。単語抽出部224は、構文解析部222に
より分解された単語を順番に処理するために、まず、受
信したテキスト文において先頭に位置する単語を、処理
対象を示す着目単語としてセットする(ステップS1
4)。
Subsequently, the syntactic analysis unit 222 morphologically analyzes the received text sentence to decompose it into words (step S13). In order to process the words decomposed by the syntax analysis unit 222 in order, the word extraction unit 224 first sets the word located at the beginning in the received text sentence as the focused word indicating the processing target (step S1).
4).

【0024】次に、感情抽出部226は、現時点におけ
る着目単語が感情辞書228に登録されている単語であ
るか否かを判別する(ステップS15)。この判別結果
が肯定的である場合、感情抽出部226は、感情を示す
「喜び」、「悲しみ」、「驚き」、「恐怖」、「怒
り」、「嫌悪」の6つのベクトル成分を順番に処理する
ため、まず、処理対象のベクトル成分として「悲しみ」
に着目する(ステップS16)。そして、感情抽出部2
26は、感情辞書228にアクセスして、着目単語のベ
クトル成分のうち、現時点において着目している成分の
値を取得し、出力する(ステップS17)。
Next, the emotion extraction unit 226 determines whether or not the word of interest at the present time is a word registered in the emotion dictionary 228 (step S15). If the result of this determination is affirmative, the emotion extraction unit 226 sequentially sets the six vector components of "joy", "sadness", "surprise", "fear", "anger", and "disgust" indicating emotions. In order to process, “sadness” is first set as the vector component of the processing target.
Attention is paid to (step S16). And the emotion extraction unit 2
26 accesses the emotion dictionary 228 to acquire and output the value of the currently focused component of the vector component of the focused word (step S17).

【0025】画像変形部230は、感情抽出部226か
ら出力された成分の値がゼロ以外であるか否かを判別す
る(ステップS18)。この成分の値がゼロ以外である
場合、画像変形部230は、先のステップS12におい
て読み出した顔画像の特徴部分を、当該成分に対応した
方向に、当該成分値に応じた距離だけ移動させて、顔画
像を変形して一時記憶する(ステップS19)。一方、
感情抽出部226から出力された成分の値がゼロであれ
ば、顔変形処理がスキップされる。
The image transformation unit 230 determines whether or not the value of the component output from the emotion extraction unit 226 is other than zero (step S18). When the value of this component is other than zero, the image transformation unit 230 moves the characteristic portion of the face image read in the previous step S12 in the direction corresponding to the component by the distance according to the component value. , The face image is transformed and temporarily stored (step S19). on the other hand,
If the value of the component output from the emotion extraction unit 226 is zero, the face deforming process is skipped.

【0026】次に、感情抽出部226は、現時点におけ
る着目成分が「嫌悪」であるか否かを判別する(ステッ
プS20)。この判別結果が否定的であるとき、感情抽
出部226は、着目成分を上記順番において1つシフト
して(ステップS21)、処理手順をステップS17に
戻す。これにより、例えば着目成分が最初に着目した
「喜び」であれば、次の成分である「悲しみ」にシフト
して、この「悲しみ」についてステップS17、S1
8、S19の処理が再び実行される。すなわち、ステッ
プS17からS21までの処理が、「喜び」、「悲し
み」、「驚き」、「恐怖」、「怒り」、「嫌悪」の6つ
の成分の各々に対応して、繰り返し実行される。したが
って、ステップS20における判別結果が肯定的である
ということは、すなわち、着目成分が「嫌悪」であると
いうことは、着目単語について上記6つのベクトルの成
分値がすべて取得されていることを意味する。このう
ち、成分値がゼロ以外であるものについては、当該成分
に応じて変形された顔画像が一時記憶されていることも
意味する。
Next, the emotion extraction unit 226 determines whether or not the component of interest at the present time is "dislike" (step S20). If the determination result is negative, the emotion extraction unit 226 shifts the focused component by 1 in the above order (step S21), and returns the processing procedure to step S17. As a result, for example, if the focused component is “joy” that is focused first, the process shifts to the next component, “sadness”, and steps S17 and S1 are performed for this “sadness”.
8, the process of S19 is executed again. That is, the processing from steps S17 to S21 is repeatedly executed corresponding to each of the six components of "joy", "sadness", "surprise", "fear", "anger", and "disgust". Therefore, if the determination result in step S20 is affirmative, that is, if the focused component is "dislike", it means that all the component values of the above six vectors have been acquired for the focused word. . Among these, when the component value is other than zero, it also means that the face image deformed according to the component is temporarily stored.

【0027】そこで、画像作成部234は、着目単語に
ついて抽出された6つのベクトル成分のうち、値がゼロ
以外である成分値が2以上あったか否かを判別する(ス
テップS22)。画像作成部234は、当該判別結果が
肯定的であれば、一時記憶された2以上の変形顔画像を
用いて、これら変形画像が滑らかに変化するような動画
ファイルを作成し(ステップS23)、当該判別結果が
否定的であれば、一時記憶された1つの変形顔画像か
ら、その変形顔画像そのものを示す静止画ファイルを作
成する(ステップS24)。一方、ステップS15にお
いて着目単語が感情辞書に登録されていないと判別され
たとき、画像作成部234は、テキスト文を送信した利
用者の顔画像そのものを示す静止画ファイルを作成する
(ステップS25)。次に、テーブル作成部236は、
画像作成部234により作成された動画ファイル、また
は、静止画ファイルを着目単語と関連付けて記憶する
(ステップS26)。
Then, the image creating section 234 determines whether or not there are two or more component values having a value other than zero among the six vector components extracted for the target word (step S22). If the determination result is affirmative, the image creating unit 234 creates a moving image file in which these deformed images are smoothly changed by using the temporarily stored two or more deformed face images (step S23). If the determination result is negative, a still image file showing the modified face image itself is created from the temporarily stored one modified face image (step S24). On the other hand, when it is determined in step S15 that the word of interest is not registered in the emotion dictionary, the image creating unit 234 creates a still image file showing the face image itself of the user who sent the text sentence (step S25). . Next, the table creation unit 236
The moving image file or the still image file created by the image creating unit 234 is stored in association with the word of interest (step S26).

【0028】そして、単語抽出部224は、着目単語の
次に別の単語が存在するか否かを判別する(ステップS
27)。この判別結果が否定的であるとき、着目単語を
次位にシフトして(ステップS28)、シフト後の着目
単語についても同様に動画ファイルまたは静止画ファイ
ルを作成するために、処理手順をステップS15に戻
す。一方、この判別結果が肯定的であるとき、分解され
た単語を順番に処理した結果、文末に位置する最後の単
語について、動画ファイルまたは静止画ファイルを作成
したことを意味するので、受信されたテキスト文と、テ
ーブル作成部236によって作成された対応テーブル
と、画像作成部234によって作成されたすべての画像
ファイルとが、ネットワーク30介して聞き手となる利
用者端末10−2に送信される。
Then, the word extracting unit 224 determines whether or not another word exists next to the word of interest (step S).
27). If the determination result is negative, the processing step is performed in step S15 in order to shift the focused word to the next position (step S28) and similarly create a moving image file or a still image file for the shifted focused word. Return to. On the other hand, when the result of this determination is positive, it means that a moving image file or a still image file has been created for the last word located at the end of the sentence as a result of processing the decomposed words in order, so it was received The text sentence, the correspondence table created by the table creation unit 236, and all the image files created by the image creation unit 234 are transmitted via the network 30 to the user terminal 10-2 as the listener.

【0029】<受信側の利用者端末の処理動作>次に、
サーバ20から送信されたテキスト文と対応テーブルと
画像ファイルとを受信する利用者端末10−2の動作に
ついて説明する。図7は、この利用者端末10−2の動
作を示すフローチャートである。
<Processing Operation of Receiving Side User Terminal>
The operation of the user terminal 10-2 that receives the text sentence, the correspondence table, and the image file transmitted from the server 20 will be described. FIG. 7 is a flowchart showing the operation of this user terminal 10-2.

【0030】まず、利用者端末10−2では、受信部1
18bにおいて、テキスト文などの情報が受信された否
かが判別される(ステップS51)。この判別結果が否
定的であるとき、以下の処理を実行する必要がないの
で、待機状態となる。一方、この判別結果が肯定的であ
るとき、受信された情報のうちのテキスト文が表示部1
14に表示される(ステップS52)。また、受信され
たテキスト文は、カーソル位置制御部122において、
カーソルの移動可能範囲の決定や、音声合成部124に
よる音声合成の準備などのために用いられる。ここで、
音声合成の準備としては、例えば、音声生成のために音
声DB128から音声データを事前に読み出しておく処
理や、受信したテキスト文を構文解析して、カーソル位
置での抑揚や声の質、高さなどを予め決定しておく処理
などが挙げられる。
First, in the user terminal 10-2, the receiving unit 1
In 18b, it is determined whether or not information such as a text sentence has been received (step S51). When the result of this determination is negative, it is not necessary to execute the following processing, so the system is in a standby state. On the other hand, when the determination result is affirmative, the text of the received information is displayed on the display unit 1.
14 is displayed (step S52). Further, the received text sentence is displayed by the cursor position control unit 122.
It is used for determining the movable range of the cursor, preparing for voice synthesis by the voice synthesizer 124, and the like. here,
Preparations for voice synthesis include, for example, a process of reading voice data from the voice DB 128 in advance for voice generation, parsing a received text sentence, and intonation at the cursor position, voice quality, and pitch. And the like.

【0031】ここで、カーソル位置制御部122は、表
示されたテキスト文におけるカーソルが当該テキスト文
の先頭から末端まで徐々に移動するように、カーソルの
座標情報を出力する(ステップS53)。このカーソル
の座標情報は、テキスト文を受信する利用者端末10−
2において、次のように用いられる(ステップS5
4)。すなわち、第1に、表示部114では、当該座標
情報で示される位置にカーソルが、テキスト文と重ねて
表示され、第2に、音声合成部124では、受信したテ
キスト文のうち、当該座標情報で示される位置の単語を
読み上げるように音声が合成されて、スピーカ116を
介して発音され、第3に、画像指示部126では、受信
された対応テーブルを参照することによって、当該座標
情報で示される位置を含む区間に対応する画像ファイル
が指摘される。さらに、画像再生部127では、受信し
た画像ファイルのうち、画像指示部126によって指摘
された画像ファイルが展開されて、当該画像ファイルに
したがってた動画像または静止画像が表示部114に表
示される(ステップS55)。
Here, the cursor position control unit 122 outputs the coordinate information of the cursor so that the cursor in the displayed text sentence gradually moves from the beginning to the end of the text sentence (step S53). The coordinate information of this cursor is the user terminal 10- that receives the text sentence.
2 is used as follows (step S5)
4). That is, firstly, in the display unit 114, the cursor is displayed at the position indicated by the coordinate information so as to overlap with the text sentence, and secondly, in the voice synthesis unit 124, the coordinate information of the received text sentence is displayed. The voice is synthesized so that the word at the position indicated by is read aloud and is sounded through the speaker 116. Thirdly, the image instruction unit 126 refers to the received correspondence table to indicate the coordinate information. The image file corresponding to the section including the position is pointed out. Further, in the image reproduction unit 127, of the received image files, the image file pointed out by the image instruction unit 126 is expanded, and the moving image or the still image according to the image file is displayed on the display unit 114 ( Step S55).

【0032】したがって、テキスト文等の情報を受信し
た利用者端末10−2では、当該テキスト文とその参照
位置を示すカーソルとともに、当該カーソルが示す単語
の感情に応じて変形された動画像または静止画像が表示
部114に表示され、さらに、カーソルが示す単語が音
声合成されることになる。すなわち、カーソルの移動に
同期して、動画像または静止画像が表示されるととも
に、テキスト文を読み上げるように合成された音声が出
力されることになる。
Therefore, at the user terminal 10-2 that has received the information such as the text sentence, the moving image or the still image deformed according to the emotion of the word indicated by the cursor is displayed together with the cursor indicating the text sentence and its reference position. The image is displayed on the display unit 114, and the word indicated by the cursor is voice-synthesized. That is, in synchronization with the movement of the cursor, the moving image or the still image is displayed, and the synthesized voice for reading the text sentence is output.

【0033】そして、カーソル位置制御部122は、カ
ーソルがテキスト文の末端に到達したか否かを判別する
(ステップS56)。この判別結果が否定的であれば、
処理手順がステップS53に戻される。このため、カー
ソルが、上記ステップS53、S54、S55の処理
は、すなわち、カーソルの移動に同期した動画像または
静止画像の表示、および、テキスト文を読み上げる音声
合成は、テキスト文の先頭から末端まで至るまでの期
間、実行されることになる。一方、カーソルがテキスト
文の末端に至ったとき、カーソルの移動、動画像または
静止画像の表示、および、音声合成の処理は終了する。
なお、テキスト文については引き続き表示させるとして
も良い。
Then, the cursor position controller 122 determines whether or not the cursor has reached the end of the text sentence (step S56). If this determination is negative,
The processing procedure is returned to step S53. Therefore, in the processing of the above steps S53, S54, and S55, that is, the display of the moving image or the still image synchronized with the movement of the cursor and the speech synthesis of reading the text sentence are performed from the beginning to the end of the text sentence. It will be implemented for the period up to the point. On the other hand, when the cursor reaches the end of the text sentence, the process of moving the cursor, displaying the moving image or the still image, and synthesizing the voice ends.
The text sentence may be displayed continuously.

【0034】<具体的動作>次に、このようなコミュニ
ケーションシステムの動作、特に、本発明の特徴である
サーバ20の動作、および、テキスト文を受信して聞き
手となる利用者端末10−2の動作について、具体的に
例を挙げて説明することにする。ここでは具体例とし
て、話し手となる利用者端末10−1から次のようなテ
キスト文が送信されるとともに、感情辞書の内容が図4
に示され、さらに、当該利用者の顔画像が図8(a)に
示されるような場合を想定する。すなわち、利用者端末
10−1から「昨日はわからないところを教えてくれて
ありがとう。助かったよ。」というテキスト文が送信さ
れる場合を想定する。
<Specific Operation> Next, the operation of such a communication system, in particular, the operation of the server 20 which is a feature of the present invention, and the user terminal 10-2 which receives a text sentence and becomes a listener. The operation will be described with a specific example. Here, as a specific example, the following text is transmitted from the user terminal 10-1 that is the speaker, and the content of the emotion dictionary is shown in FIG.
8 and the case where the face image of the user is as shown in FIG. 8A is assumed. That is, it is assumed that a text sentence "Thank you for telling me what I didn't understand yesterday. It was saved." Is transmitted from the user terminal 10-1.

【0035】この場合、当該テキスト文は、サーバ20
における構文解析部222によって例えば「昨日/は/
わからない/ところ/を/教え/て/くれ/て/ありが
とう/。/助かった/よ/。」というように「/」で区
切られるように分解される。このうち、感情辞書に登録
されている単語は「わからない」および「ありがとう」
の2つである。
In this case, the text sentence is the server 20.
For example, “yesterday / ha /
I don't understand / Place / Teach / Teach / Give / Te / Thank you /. / It was saved / Yo /. It is decomposed to be separated by "/". Of these, the words registered in the emotion dictionary are "I don't know" and "Thank you."
There are two.

【0036】着目単語が「わからない」であるときに、
ベクトルの6つの成分値が感情抽出部226によって順
番に出力されるが、ゼロでない成分は、このうちの「悲
しみ」および「驚き」である。したがって、画像変形部
230は、図8(a)において○の印で示される特徴点
のうち、「悲しみ」に対応する特徴点を成分値(=0.
5)に相当する距離だけ変形させて図8(b)に示され
る画像を作成し、図8(a)における特徴点のうち、
「驚き」に対応する特徴点を成分値(=0.5)に相当
する距離だけ変形させて図8(c)に示される画像を作
成する。そして、画像作成部234は、単語の「わから
ない」について、これらの2つの変形画像を用いて、動
画像(を示す動画ファイル)を作成する。例えば、変形
画像の一方から他方へ徐々に変化するような動画像を作
成しても良いし、変形画像の表示フレームを成分値に応
じて配分した画像を、ここでいう動画像として作成して
も良い。
When the word of interest is "I don't know",
The six component values of the vector are sequentially output by the emotion extraction unit 226, and the non-zero components are “sadness” and “surprise”. Therefore, the image transforming unit 230 sets the feature points corresponding to “sadness” among the feature points indicated by the circles in FIG. 8A as component values (= 0.
5) is deformed by a distance corresponding to 5) to create the image shown in FIG. 8B, and among the feature points in FIG.
The feature point corresponding to "surprise" is transformed by the distance corresponding to the component value (= 0.5) to create the image shown in FIG. Then, the image creating unit 234 creates a moving image (moving image file) for these words “I don't know” using these two modified images. For example, a moving image that gradually changes from one side of the deformed image to the other may be created, or an image in which the display frames of the deformed image are distributed according to the component values is created as the moving image here. Is also good.

【0037】また、着目単語が「ありがとう」であると
きに、ベクトルの6つ成分値が順番に出力されるが、ゼ
ロでない成分は「喜び」だけである。したがって、画像
変形部230は、図8(a)において○の印で示される
特徴点のうち、「喜び」に対応する特徴点を成分値(=
1.0)に相当する距離だけ変形させて図8(d)に示
される画像を作成する。そして、画像作成部234は、
単語の「ありがとう」について、この1つの変形画像を
示す静止画ファイルとして作成する。
When the word of interest is "thank you", the six component values of the vector are output in order, but the only non-zero component is "joy". Therefore, the image transforming unit 230 determines the feature value corresponding to "joy" among the feature points indicated by a circle in FIG.
The image shown in FIG. 8D is created by deforming by a distance corresponding to 1.0). Then, the image creation unit 234
The word "thank you" is created as a still image file showing this one modified image.

【0038】上記文例において「わからない」および
「ありがとう」以外の単語は感情辞書228に登録され
ていないので、画像作成部234は、これらの単語につ
いて、図8(a)に示される顔画像の、すなわち、上記
文例の送信者に対応する顔画像の静止画ファイルを作成
する。
In the above sentence example, words other than "I don't know" and "Thank you" are not registered in the emotion dictionary 228, so the image creating section 234 makes the words of the face image shown in FIG. That is, a still image file of a face image corresponding to the sender of the above sentence example is created.

【0039】このため、上記文例の場合において、テー
ブル作成部236によって作成される対応テーブルは、
例えば図9に示されるようなものとなる。すなわち、上
記文例において「わからない」に相当する区間aでは、
2つの成分による変形画像から作成した動画ファイル
(その名称を便宜的に「動画1.mpg」としている)
が対応し、「ありがとう」に相当する区間bでは、1つ
の成分による変形画像から作成した静止画ファイル(そ
の名称を便宜的に「静止画2.jpg」としている)が
対応し、それ以外の区間cでは、送信者に対応する顔画
像の静止画ファイル(その名称を便宜的に「静止画1.
jpg」としている)が対応していることが示される。
Therefore, in the case of the above sentence example, the correspondence table created by the table creation unit 236 is
For example, it becomes as shown in FIG. That is, in the section a corresponding to "I don't know" in the above sentence example,
A moving image file created from a transformed image of two components (its name is "moving image 1.mpg" for convenience)
In the section b corresponding to “Thank you”, a still image file created from a deformed image by one component (the name is referred to as “still image 2.jpg” for convenience) corresponds to In section c, a still image file of a face image corresponding to the sender (its name is referred to as “still image 1.
jpg ”) is corresponding.

【0040】したがって、このような対応テーブルおよ
び画像ファイル(動画1.mpg、静止画1.jpg、
静止画2.jpg)を、テキスト文とともに受信した利
用者端末10−2では、図10に示されるように、カー
ソルの移動に伴って画像ファイルが時系列に再生表示さ
れることになる。
Therefore, such a correspondence table and image files (moving image 1.mpg, still image 1.jpg,
Still image 2. In the user terminal 10-2 that has received the jpg) together with the text sentence, as shown in FIG. 10, the image files are reproduced and displayed in time series with the movement of the cursor.

【0041】このように本実施形態によれば、話し手の
利用者端末10−1においてテキスト文が入力される
と、聞き手の利用者端末10−2では、そのテキスト文
のカーソル位置に同期して、かつ、そのテキスト文の感
情表現に応じて、顔の画像が表示されるので、話し手の
感情を視覚的に直感することが可能となる。さらに、顔
画像の作成や変形等はサーバ20によって実行されるの
で、話し手にとっては、テキスト文を入力するだけの手
間で済むので、操作性や構成の複雑化がさけられる。
As described above, according to this embodiment, when a text sentence is input to the speaker user terminal 10-1, the listener user terminal 10-2 synchronizes with the cursor position of the text sentence. Moreover, since the image of the face is displayed according to the emotional expression of the text sentence, it is possible to visually intuitively understand the emotion of the speaker. Furthermore, since the face image is created and transformed by the server 20, the speaker need only enter a text sentence, which avoids complication of operability and configuration.

【0042】なお、実施形態において、音声について
は、単に、カーソル位置に応じて合成するだけの構成と
したが、抽出したベクトルに応じて合成する音声の抑揚
や、声質、音量などを変化させる構成としても良い。ま
た、顔画像に対し、感情表現に応じて付加的に「!」や
「?」などの記号を併せて表示する構成としても良い。
また、実施形態では、単語の感情を示すベクトルは、
「喜び」、「悲しみ」、「驚き」、「恐怖」、「怒
り」、「嫌悪」の6つの要素を成分としていたが、これ
ら以外を要素化しても良いし、6以外の要素数としても
良い。さらに、顔画像については、もちろん図8(a)
に示されるようなものに限られず、似顔絵や写真画像な
どを用いても良いし、顔画像DB232に該当するもの
がなければ、いわゆる顔文字を用いても良い。
In the embodiment, the voices are simply synthesized in accordance with the cursor position, but the voices to be synthesized, the voice quality, and the volume are changed in accordance with the extracted vector. Also good. Further, it may be configured such that symbols such as “!” And “?” Are additionally displayed on the face image depending on the emotional expression.
In the embodiment, the vector indicating the emotion of the word is
The six elements of "joy", "sadness", "surprise", "fear", "anger", and "disgust" were used as components, but other elements may be used or the number of elements other than 6 may be used. good. Further, as for the face image, of course, FIG.
The facial image is not limited to the one shown in FIG. 2, and a portrait, a photographic image, or the like may be used, and so-called emoticons may be used if there is no corresponding one in the face image DB 232.

【0043】[0043]

【発明の効果】以上説明したように本発明によれば、テ
キスト文を入力した話し手の感情を聞き手に視覚的に直
感させることが可能となる。
As described above, according to the present invention, it becomes possible for the listener to visually feel the emotion of the speaker who inputs the text sentence.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の実施形態に係るコミュニケーション
システムの構成を示す図である。
FIG. 1 is a diagram showing a configuration of a communication system according to an embodiment of the present invention.

【図2】 同コミュニケーションシステムの利用者端末
(サーバ)の構成を示すブロック図である。
FIG. 2 is a block diagram showing a configuration of a user terminal (server) of the communication system.

【図3】 同コミュニケーションシステムの機能構成を
示すブロック図である。
FIG. 3 is a block diagram showing a functional configuration of the communication system.

【図4】 同コミュニケーションシステムにおけるサー
バに記憶される感情辞書の構成を示す図である。
FIG. 4 is a diagram showing a structure of an emotion dictionary stored in a server in the communication system.

【図5】 同コミュニケーションシステムにおけるサー
バの動作を説明するためのフローチャートである。
FIG. 5 is a flowchart for explaining the operation of the server in the communication system.

【図6】 同コミュニケーションシステムにおけるサー
バの動作を説明するためのフローチャートである。
FIG. 6 is a flowchart for explaining the operation of the server in the communication system.

【図7】 同コミュニケーションシステムにおいて聞き
手の利用者端末の動作を説明するためのフローチャート
である。
FIG. 7 is a flowchart for explaining an operation of a listener user terminal in the communication system.

【図8】 (a)から(d)までは、それぞれ顔画像の
変形動作を説明するための図である。
FIG. 8A to FIG. 8D are diagrams for explaining the deformation operation of the face image.

【図9】 同サーバにおいて作成されるカーソル位置と
画像との対応テーブルを示す図である。
FIG. 9 is a diagram showing a correspondence table of cursor positions and images created in the server.

【図10】 画像とテキストとの関係を説明するための
図である。
FIG. 10 is a diagram for explaining a relationship between an image and a text.

【符号の説明】[Explanation of symbols]

10−1、10−2、10−3…利用者端末 20…サーバ 30…ネットワーク 114…表示部 122…カーソル位置制御部 124…音声合成部 127…画像再生部 224…単語抽出部 226…感情抽出部 228…感情辞書 230…画像変形部 234…画像作成部 236…テーブル作成部 10-1, 10-2, 10-3 ... User terminal 20 ... server 30 ... Network 114 ... Display unit 122 ... Cursor position control unit 124 ... Voice synthesizer 127 ... Image playback unit 224 ... Word extraction unit 226 ... Emotion extraction unit 228 ... emotion dictionary 230 ... Image transformation unit 234 ... Image creation unit 236 ... Table creation section

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 サーバが、ネットワークを介して接続さ
れる一の利用者端末から、テキスト文を受信したとき、
当該一の利用者端末の利用者に対応した顔画像を、当該
テキスト文の単語で示される感情の値に応じて変形する
第1過程と、 サーバが、当該利用者に対応した顔画像、および、当該
顔画像を変形した変形画像を、当該テキスト文の単語列
に関連付ける第2過程と、 サーバが、当該テキスト文とともに、その単語列に関連
付けた顔画像および変形画像を他の利用者端末に送信す
る第3過程と、 当該他の利用者端末が、当該テキスト文とその単語位置
を示すカーソルとともに、当該カーソルが位置する単語
に関連付けられた顔画像または変形画像を表示する第4
過程とを有することを特徴とするコミュニケーションシ
ステムのデータ転送方法。
1. When a server receives a text sentence from one user terminal connected via a network,
A first process of transforming a face image corresponding to the user of the one user terminal according to an emotion value indicated by a word of the text sentence; and a face image corresponding to the user by the server, The second step of associating the deformed image obtained by deforming the face image with the word string of the text sentence, and the server, together with the text sentence, the face image and the deformed image associated with the word string to another user terminal. A third step of transmitting, and a fourth step in which the other user terminal displays, together with the text sentence and a cursor indicating the word position, a face image or a modified image associated with the word at which the cursor is located.
A data transfer method for a communication system, comprising:
【請求項2】 前記第1過程において、サーバは、 受信したテキスト文を単語に分解して、分解した単語で
与えられる感情の値を成分としたベクトルを求めるとと
もに、 当該一の利用者に対応して予め記憶した顔画像の特徴点
を、分解した単語のベクトルの成分だけ移動させて、当
該顔画像を変形させることを特徴とする請求項1に記載
のコミュニケーションシステムのデータ転送方法。
2. In the first step, the server decomposes the received text sentence into words, obtains a vector having an emotional value given by the decomposed words as a component, and responds to the one user. The data transfer method of the communication system according to claim 1, wherein the feature points of the face image stored in advance are moved by the components of the vector of the decomposed word to deform the face image.
【請求項3】 前記第4過程において、 当該他の利用者端末は、カーソル位置を読み上げ地点と
して、当該テキスト文を音声合成して出力することを特
徴とする請求項2に記載のコミュニケーションシステム
のデータ転送方法。
3. The communication system according to claim 2, wherein, in the fourth step, the other user terminal synthesizes and outputs the text sentence with the cursor position as a reading point. Data transfer method.
【請求項4】 ネットワークを介して互いに接続された
複数の利用者端末とサーバとを有するコミュニケーショ
ンシステムであって、 前記サーバが、 前記複数の利用者端末のうち一の利用者によって操作さ
れる一の利用者端末からテキスト文を受信したとき、当
該一の利用者に対応した顔画像を、当該テキスト文の単
語で示される感情の値に応じて変形する画像変形手段
と、 当該利用者に対応した顔画像、および、当該顔画像を変
形した変形画像を、当該テキスト文の単語列に関連付け
て、その関連を示すテーブルを作成するテーブル作成手
段と、 当該テキスト文とともに、この単語列に関連付けられた
顔画像および変形画像を他の利用者端末に送信する送信
手段とを有し、 前記他の利用者端末が、 当該テキスト文とその単語位置を示すカーソルととも
に、当該カーソルが位置する単語に関連付けた顔画像ま
たは変形画像を表示する表示手段を有することを特徴と
するコミュニケーションシステム。
4. A communication system having a plurality of user terminals and a server connected to each other via a network, wherein the server is operated by one user of the plurality of user terminals. When the text sentence is received from the user terminal of, the image transforming unit that transforms the face image corresponding to the one user according to the emotion value indicated by the word of the text sentence, and the corresponding image transforming unit. The face image and the deformed image obtained by transforming the face image are associated with a word string of the text sentence, and a table creating unit that creates a table showing the association, and the text sentence are associated with the word string. And a transmission means for transmitting the face image and the deformed image to another user terminal, wherein the other user terminal displays the text sentence and its word position. A communication system characterized by having a display means for displaying a face image or a deformed image associated with the word in which the cursor is located together with the cursor.
【請求項5】 ネットワークに接続されるサーバであっ
て、 前記ネットワークを介して接続される複数の利用者端末
のうち一の利用者によって操作される一の利用者端末か
らテキスト文を受信したとき、当該一の利用者に対応し
た顔画像を、当該テキスト文の単語で示される感情の値
に応じて変形する画像変形手段と、 当該利用者に対応した顔画像と当該顔画像を変形した変
形画像とを、当該テキスト文の単語列にに関連付けて、
その関連を示すテーブルを作成するテーブル作成手段
と、 当該テキスト文とともに、この単語列に関連付けた顔画
像および変形画像を他の利用者端末に送信する送信手段
と、 とを備えることを特徴とするコミュニケーションシステ
ムのサーバ。
5. A server connected to a network, wherein a text sentence is received from a user terminal operated by one of a plurality of user terminals connected via the network. , An image transforming unit that transforms the face image corresponding to the one user according to the emotion value indicated by the word of the text sentence, and a face image corresponding to the user and a transform that transforms the face image. And associate the image with the word string of the text sentence,
Table creating means for creating a table indicating the relation, and transmitting means for transmitting the face image and the modified image associated with the word string to another user terminal together with the text sentence. Communication system server.
【請求項6】 ネットワークに接続されるサーバを、 前記ネットワークを介して接続される複数の利用者端末
のうち一の利用者によって操作される一の利用者端末か
らテキスト文を受信したとき、当該一の利用者に対応し
た顔画像を、当該テキスト文の単語で示される感情の値
に応じて変形する画像変形手段、 当該利用者に対応した顔画像と当該顔画像を変形した変
形画像とを、当該テキスト文の単語列にに関連付けて、
その関連を示すテーブルを作成するテーブル作成手段、
および、 当該テキスト文とともに、この単語列に関連付けた顔画
像および変形画像を他の利用者端末に送信する送信手段
として機能させるためのコミュニケーションシステムの
ための処理プログラム。
6. When a server connected to a network receives a text sentence from one user terminal operated by one of a plurality of user terminals connected via the network, An image transforming unit that transforms the face image corresponding to one user according to the emotional value indicated by the word of the text sentence, a face image corresponding to the user, and a transformed image obtained by transforming the face image. , Associated with the word string of the text,
Table creating means for creating a table showing the relationship,
And a processing program for a communication system that causes the face image and the deformed image associated with the word string to function as a transmission unit that transmits the text sentence to another user terminal.
【請求項7】 ネットワークに接続されるサーバを、 前記ネットワークを介して接続される複数の利用者端末
のうち一の利用者によって操作される一の利用者端末か
らテキスト文を受信したとき、当該一の利用者に対応し
た顔画像を、当該テキスト文の単語で示される感情の値
に応じて変形する画像変形手段、 当該利用者に対応した顔画像と当該顔画像を変形した変
形画像とを、当該テキスト文の単語列にに関連付けて、
その関連を示すテーブルを作成するテーブル作成手段、
および、 当該テキスト文とともに、この単語列に関連付けた顔画
像および変形画像を他の利用者端末に送信する送信手段
として機能させるためのコミュニケーションシステムの
ための処理プログラムを記録したコンピュータ読み取り
可能な記録媒体。
7. When a server connected to a network receives a text sentence from a user terminal operated by one of a plurality of user terminals connected via the network, An image transforming unit that transforms the face image corresponding to one user according to the emotional value indicated by the word of the text sentence, a face image corresponding to the user, and a transformed image obtained by transforming the face image. , Associated with the word string of the text,
Table creating means for creating a table showing the relationship,
And a computer-readable recording medium recording a processing program for a communication system for causing the text image and the face image and the modified image associated with the word string to function as transmitting means for transmitting to another user terminal. .
JP2002072204A 2002-03-15 2002-03-15 Communication system, data transfer method of the system, server of the system, processing program for the system and record medium Withdrawn JP2003271532A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002072204A JP2003271532A (en) 2002-03-15 2002-03-15 Communication system, data transfer method of the system, server of the system, processing program for the system and record medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002072204A JP2003271532A (en) 2002-03-15 2002-03-15 Communication system, data transfer method of the system, server of the system, processing program for the system and record medium

Publications (1)

Publication Number Publication Date
JP2003271532A true JP2003271532A (en) 2003-09-26

Family

ID=29202257

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002072204A Withdrawn JP2003271532A (en) 2002-03-15 2002-03-15 Communication system, data transfer method of the system, server of the system, processing program for the system and record medium

Country Status (1)

Country Link
JP (1) JP2003271532A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005115896A (en) * 2003-10-10 2005-04-28 Nec Corp Communication apparatus and method
JP2005284822A (en) * 2004-03-30 2005-10-13 Seiko Epson Corp Feelings matching system, feelings matching method, and program
JP2007265092A (en) * 2006-03-29 2007-10-11 Five D:Kk Device and method for using my character in cellular phone mail
JP2010277588A (en) * 2009-05-28 2010-12-09 Samsung Electronics Co Ltd Device for generating animation script, animation output device, receiving terminal device, transmitting terminal device, portable terminal device and method
JP2010277193A (en) * 2009-05-26 2010-12-09 Yahoo Japan Corp Communication server, communication system, and communication method
JP2010282312A (en) * 2009-06-03 2010-12-16 Atari Inc E-mail communication system
JP2017037585A (en) * 2015-08-14 2017-02-16 任天堂株式会社 Information processing system, information processing apparatus, program, and control method of information processing apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005115896A (en) * 2003-10-10 2005-04-28 Nec Corp Communication apparatus and method
JP2005284822A (en) * 2004-03-30 2005-10-13 Seiko Epson Corp Feelings matching system, feelings matching method, and program
JP2007265092A (en) * 2006-03-29 2007-10-11 Five D:Kk Device and method for using my character in cellular phone mail
JP2010277193A (en) * 2009-05-26 2010-12-09 Yahoo Japan Corp Communication server, communication system, and communication method
JP2010277588A (en) * 2009-05-28 2010-12-09 Samsung Electronics Co Ltd Device for generating animation script, animation output device, receiving terminal device, transmitting terminal device, portable terminal device and method
JP2010282312A (en) * 2009-06-03 2010-12-16 Atari Inc E-mail communication system
JP2017037585A (en) * 2015-08-14 2017-02-16 任天堂株式会社 Information processing system, information processing apparatus, program, and control method of information processing apparatus
US11088976B2 (en) 2015-08-14 2021-08-10 Nintendo Co., Ltd. Information processing system capable of promoting communication between/among users, information processing apparatus, non-transitory storage medium encoded with computer readable program, and method of controlling information processing apparatus

Similar Documents

Publication Publication Date Title
CN107516511B (en) Text-to-speech learning system for intent recognition and emotion
US9478219B2 (en) Audio synchronization for document narration with user-selected playback
US9361282B2 (en) Method and device for user interface
US6377925B1 (en) Electronic translator for assisting communications
US9431027B2 (en) Synchronized gesture and speech production for humanoid robots using random numbers
CN106486121B (en) Voice optimization method and device applied to intelligent robot
US20170300182A9 (en) Systems and methods for multiple voice document narration
JP3125746B2 (en) PERSON INTERACTIVE DEVICE AND RECORDING MEDIUM RECORDING PERSON INTERACTIVE PROGRAM
US6549887B1 (en) Apparatus capable of processing sign language information
JP2008500573A (en) Method and system for changing messages
JP2011175598A (en) Device and program for generating sign language animation
JP2007183421A (en) Speech synthesizer apparatus
US20190251990A1 (en) Information processing apparatus and information processing method
JP5877418B2 (en) Scenario generation apparatus and scenario generation method
JP2003271532A (en) Communication system, data transfer method of the system, server of the system, processing program for the system and record medium
JP2001268669A (en) Device and method for equipment control using mobile telephone terminal and recording medium
JP2001318592A (en) Device for language study and method for language analysis
JP6449181B2 (en) Speech translation system, speech translation method, and speech translation program
Wersényi Auditory representations of a graphical user interface for a better human-computer interaction
JP2006189799A (en) Voice inputting method and device for selectable voice pattern
WO2020167304A1 (en) Real-time lip synchronization animation
JPH08272388A (en) Device and method for synthesizing voice
JP2007122510A (en) Presenting device and presenting program
JP2002268664A (en) Voice converter and program
US20240320519A1 (en) Systems and methods for providing a digital human in a virtual environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061212

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20070213