Nothing Special   »   [go: up one dir, main page]

JP2002108929A - System and method for retrieving related information, and computer readable recording medium - Google Patents

System and method for retrieving related information, and computer readable recording medium

Info

Publication number
JP2002108929A
JP2002108929A JP2000305285A JP2000305285A JP2002108929A JP 2002108929 A JP2002108929 A JP 2002108929A JP 2000305285 A JP2000305285 A JP 2000305285A JP 2000305285 A JP2000305285 A JP 2000305285A JP 2002108929 A JP2002108929 A JP 2002108929A
Authority
JP
Japan
Prior art keywords
information
user
related information
voice
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000305285A
Other languages
Japanese (ja)
Inventor
Yukihiro Kaji
幸宏 鍛冶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
UP COMING KK
Original Assignee
UP COMING KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by UP COMING KK filed Critical UP COMING KK
Priority to JP2000305285A priority Critical patent/JP2002108929A/en
Publication of JP2002108929A publication Critical patent/JP2002108929A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a system and a method for retrieving related information, and a computer readable recording medium, with which related information on which the present state of a user is reflected can be presented. SOLUTION: In the system for presenting first image information to user terminals 70 and 72 so as to refer to the information, retrieving related information corresponding to audio information transmitted from the user, who refers to the first image information, and presenting the related information to the user, a control means 2a decides the state of the user on the basis of the audio information analyzed by an analyzing means (audio recognizing part) 4, retrieves the related information stored in relation to the state of the user from a related information database 8 on the basis of the decided result and presents the related information to the user.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ユーザに画像情報
とは別の関連情報を提示するシステム及び方法、並びに
コンピュータ読取可能な記録媒体に関する。
The present invention relates to a system and a method for presenting related information other than image information to a user, and a computer-readable recording medium.

【0002】[0002]

【従来の技術】近年、インターネットの普及に伴い、ユ
ーザが各種のWebサイトにアクセスし、所定のコンテ
ンツ(Webページ等の画像情報)を閲覧することが可
能になっている。又、上記Webページにバナー広告等
の関連情報を付加してユーザ端末に提示し、広告を行う
ことも可能である。
2. Description of the Related Art In recent years, with the spread of the Internet, it has become possible for users to access various Web sites and browse predetermined contents (image information such as Web pages). Also, it is possible to add related information such as a banner advertisement to the Web page and present it to the user terminal to perform advertisement.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記し
たバナー広告の場合、Webページとの関連付け(リン
ク)は予め決められているので、ユーザの趣味、嗜好に
合わせた広告を提示することは困難である。そのため、
広告効果も充分とはいえないのが現状である。又、最近
では、ユーザの年齢、性別等をWebページ上で登録
し、それに応じた広告を配信することも行われている
が、かかる場合でも、過去に登録されたユーザ情報に基
づいているにとどまり、ユーザの現在の心理状態等に応
じた広告をリアルタイムで提示するには至っていない。
However, in the case of the banner advertisement described above, since the association (link) with the Web page is predetermined, it is difficult to present the advertisement according to the user's hobbies and preferences. is there. for that reason,
At present, the advertising effect is not enough. Recently, the age, gender, and the like of a user are registered on a Web page, and an advertisement corresponding to the registered age and gender is also distributed. However, even in such a case, the advertisement is based on user information registered in the past. However, it has not been possible to present an advertisement according to the user's current mental state or the like in real time.

【0004】本発明は、上記した問題点に鑑みてなされ
たもので、所定の画像情報を閲覧したユーザから送信さ
れた音声情報又は文字情報に応じ、ユーザの現在の状態
を反映した関連情報を提示可能な関連情報検索システム
及び方法、並びにコンピュータ読取可能な記録媒体を提
供することを目的とする。
[0004] The present invention has been made in view of the above-described problems, and relates to related information reflecting the current state of a user in accordance with audio information or character information transmitted from a user who has viewed predetermined image information. It is an object to provide a related information search system and method that can be presented, and a computer-readable recording medium.

【0005】[0005]

【課題を解決するための手段】上記した目的を達成する
ために、本発明の関連情報検索システムは、ユーザの有
するユーザ端末に第1の画像情報を閲覧可能に提示する
とともに、該第1の画像情報を閲覧したユーザから送信
された音声情報又は文字情報に応じた関連情報を検索
し、制御手段と、前記音声情報又は文字情報を解析する
解析手段と、前記関連情報を、前記ユーザの状態に関連
付けて記憶する関連情報データベースとを備え、前記制
御手段は、解析された音声情報又は文字情報に基づいて
前記ユーザの状態を判定し、判定結果に基づいて前記関
連情報データベースから該当する関連情報を検索するこ
とを特徴とする。
In order to achieve the above object, a related information retrieval system according to the present invention presents first image information to a user terminal of a user so as to be able to browse the first image information. Searching for related information corresponding to the voice information or character information transmitted from the user who browsed the image information, and controlling means, an analyzing means for analyzing the voice information or character information, and the related information, the state of the user And a related information database that stores the related information in association with the related information. The control unit determines the state of the user based on the analyzed voice information or character information, and based on the determination result, the related information corresponding to the user from the related information database. Is searched.

【0006】本発明の関連情報検索システムにおいて、
前記制御手段は、検索した関連情報を前記ユーザに提示
することを特徴とする。
In the related information search system of the present invention,
The control means may present the searched related information to the user.

【0007】前記制御手段は、解析された音声情報にお
ける、音声を発する速度、又は音声のトーンのいずれか
に基づいて前記ユーザの状態を判定することが好まし
い。前記関連情報は、さらに所定の単語に関連付けて記
憶され、前記解析手段は前記音声情報から単語を抽出
し、前記制御手段は、抽出された単語に基づいて前記関
連情報データベースから該当する関連情報を検索するこ
とが好ましい。
[0007] It is preferable that the control means determines the state of the user on the basis of either the speed at which the voice is emitted or the tone of the voice in the analyzed voice information. The related information is further stored in association with a predetermined word, the analysis unit extracts a word from the voice information, and the control unit reads corresponding relevant information from the related information database based on the extracted word. It is preferable to search.

【0008】又、本発明の関連情報検索システムにおい
て、前記関連情報検索システムは、所定のオペレータが
有するオペレータ端末に接続され、前記ユーザと前記オ
ペレータとの間で音声情報又は文字情報の交換が可能で
あることを特徴とする。
In the related information search system according to the present invention, the related information search system is connected to an operator terminal of a predetermined operator, and can exchange voice information or character information between the user and the operator. It is characterized by being.

【0009】さらに、本発明の関連情報検索システムに
おいて、前記ユーザ端末は、ネットワークを介して前記
音声情報又は文字情報を送信可能であり、前記関連情報
検索システムは該ネットワークを介して前記ユーザ端末
に接続され、かつ画像情報と音声情報、又は画像情報と
文字情報を分離する情報分離手段を備えたことを特徴と
する。又、本発明の関連情報検索システムにおいて、前
記ユーザから送信された文字情報は電子メールであるこ
とを特徴とする。
Further, in the related information search system according to the present invention, the user terminal can transmit the voice information or character information via a network, and the related information search system can send the user information to the user terminal via the network. It is characterized by being provided with an information separating means which is connected and separates image information and audio information or image information and character information. Further, in the related information search system of the present invention, the character information transmitted from the user is an electronic mail.

【0010】本発明の関連情報検索方法は、ユーザの有
するユーザ端末に第1の画像情報を閲覧可能に提示する
とともに、該第1の画像情報を閲覧したユーザから送信
された音声情報又は文字情報に応じた関連情報を検索
し、前記関連情報を、前記ユーザの状態に関連付けて記
憶する工程と、前記音声情報又は文字情報を解析する工
程と、解析された音声情報又は文字情報に基づいて前記
ユーザの状態を判定する工程と、判定結果に基づいて該
当する関連情報を検索する工程とを有することを特徴と
する。
A related information search method according to the present invention presents first image information to a user terminal of the user so that the first image information can be browsed, and transmits voice information or character information transmitted from the user who browsed the first image information. Searching for related information according to, the step of storing the related information in association with the state of the user, the step of analyzing the voice information or character information, and the step of analyzing the voice information or character information based on the analyzed voice information or character information The method includes a step of determining a state of the user and a step of searching for relevant information based on the determination result.

【0011】本発明の関連情報検索方法においては、さ
らに、検索した関連情報を前記ユーザに提示する工程を
有することを特徴とする。
[0011] The related information search method of the present invention further comprises a step of presenting the searched related information to the user.

【0012】本発明のコンピュータ読取可能な記録媒体
は、ユーザの有するユーザ端末に第1の画像情報を閲覧
可能に提示するとともに、該第1の画像情報を閲覧した
ユーザから送信された音声情報又は文字情報に応じた関
連情報を検索する方法を記録し、前記関連情報を、前記
ユーザの状態に関連付けて記憶する過程と、前記音声情
報又は文字情報を解析する過程と、解析された音声情報
又は文字情報に基づいて前記ユーザの状態を判定する過
程と、判定結果に基づいて該当する関連情報を検索する
過程とをコンピュータに実行させるためのプログラムを
記録したことを特徴とする。
A computer-readable recording medium according to the present invention presents first image information to a user terminal of a user so that the first image information can be browsed, and also stores audio information or voice information transmitted from the user who browsed the first image information. Recording a method of searching for related information according to character information, storing the related information in association with the state of the user, analyzing the voice information or character information, and analyzing the analyzed voice information or A program for causing a computer to execute a step of determining the state of the user based on character information and a step of searching for relevant information based on the determination result is recorded.

【0013】[0013]

【発明の実施の形態】以下、本発明の実施の形態につい
て、図1を参照して説明する。図1は、本発明の関連情
報検索システム(以下、適宜「本システム)」という)
50の一実施の形態を示す構成ブロック図であり、シス
テム全体を制御する制御手段2aを有する音声・IP変
換サーバ2、音声認識部(解析手段、IVR(Interact
ive Voice Response))4、第1の画像情報データベー
ス6、関連情報データベース8を備えている。音声・I
P変換サーバ2は又、ネットワーク100との情報の送
受信を行う入出力制御手段2b、画像情報と音声情報を
まとめたり分離する情報(合成)分離部2cを有してい
る。制御手段2a、情報分離部2cは、音声・IP変換
サーバ2の中央演算処理装置として実現可能である。
又、本システムは全体としてWebサイトを構成してい
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to FIG. FIG. 1 is a related information retrieval system of the present invention (hereinafter referred to as “this system” as appropriate))
50 is a configuration block diagram showing an embodiment of a voice / IP conversion server 2 having a control unit 2a for controlling the entire system, a voice recognition unit (analysis unit, IVR (Interact
ive Voice Response), a first image information database 6, and a related information database 8. Voice / I
The P conversion server 2 also has an input / output control unit 2b for transmitting and receiving information to and from the network 100, and an information (synthesis) separation unit 2c for combining and separating image information and audio information. The control unit 2a and the information separation unit 2c can be realized as a central processing unit of the voice / IP conversion server 2.
Further, this system constitutes a Web site as a whole.

【0014】ここで、第1の画像情報データベース6
は、ユーザ端末70、72あるいはオペレータ端末20
で閲覧可能な、例えばWebページ等からなる第1の画
像情報を記憶する。第1の画像情報は、それを閲覧した
ユーザが音声応答を行えるよう、所定の画像(写真、絵
など)からなっている。関連情報データベース8は、コ
ンテンツ(広告、娯楽情報)等からなる関連情報を、後
述するユーザの状態に関連付けて記憶する。なお、関連
情報としては、コンテンツを記述したWebページの
他、音声情報や電子メール等であってもよい。なお、
「関連情報を提示する」とは、Webページ、電子メー
ル、音声情報等からなる関連情報をユーザ端末に送信す
ることをいう。又、関連情報として所定のコンテンツの
識別情報のみを含め、コンテンツ自体は本システムと別
のデータベースに設け(例えば広告データベース)、こ
の識別情報に基づいてコンテンツを取得するようにして
もよく、本発明ではこのような場合も関連情報と称する
こととする。
Here, the first image information database 6
Is the user terminal 70, 72 or the operator terminal 20
And stores first image information composed of, for example, a Web page. The first image information is composed of predetermined images (photographs, pictures, etc.) so that a user who has viewed the first image information can make a voice response. The related information database 8 stores related information including content (advertisement, entertainment information) and the like in association with a user state described later. Note that the related information may be audio information, electronic mail, or the like, in addition to a Web page describing the content. In addition,
“Present related information” refers to transmitting related information including a web page, an e-mail, and voice information to a user terminal. Further, the content itself may be provided in a database separate from the present system (for example, an advertisement database) including only the identification information of the predetermined content as the related information, and the content may be acquired based on the identification information. Then, such a case is also referred to as related information.

【0015】この実施形態では、本システム50は、ユ
ーザとのやりとりを行うオペレータシステム50aをさ
らに含むが、オペレータシステム50aは本システムに
必須のものではない。そして、オペレータシステム50
aは、後述する情報分離部2cで分離された画像情報や
第1の画像情報データベース6から送信された画像情報
を閲覧するオペレータ端末20、情報分離部2cで分離
された音声情報を交換機(PBX)30を介して受信す
る電話機22、オペレータが複数いる場合に各端末と各
電話機の対応付けを行うリンク部24を備える。リンク
部24は、端末20の有する制御部で動作するプログラ
ムである。オペレータ端末20としては、例えばパーソ
ナルコンピュータが用いられる。
In this embodiment, the present system 50 further includes an operator system 50a for communicating with a user, but the operator system 50a is not essential to the present system. And the operator system 50
a is an operator terminal 20 for browsing image information separated by an information separating unit 2c and image information transmitted from the first image information database 6, and exchanges voice information separated by the information separating unit 2c with an exchange (PBX). ) 30 and a link unit 24 for associating each terminal with each telephone when there are a plurality of operators. The link unit 24 is a program operated by the control unit of the terminal 20. As the operator terminal 20, for example, a personal computer is used.

【0016】本システム50はネットワーク100を介
してユーザの有するユーザ端末70、72に接続され
る。ここで、ユーザ端末70は、パーソナルコンピュー
タなどからなり、音声情報をやりとりするためのヘッド
セット70aを含んで構成されている。そして、ユーザ
端末70は後述するインターネット電話の機能を有して
いる。一方、ユーザ端末72はインターネットに接続可
能な携帯電話機であり、移動体通信網110を介してネ
ットワーク100に接続される。なお、上記各端末2
0、70、72にはWebページを閲覧可能なブラウザ
が搭載される。又、ネットワーク100としては、イン
ターネットの代わりに、専用回線、LAN(Local Area
Network)、WAN(Wide Area Network)等を用いて
もよい。
The system 50 is connected to user terminals 70 and 72 of the user via a network 100. Here, the user terminal 70 is composed of a personal computer or the like, and includes a headset 70a for exchanging voice information. The user terminal 70 has an Internet telephone function described later. On the other hand, the user terminal 72 is a mobile phone that can be connected to the Internet, and is connected to the network 100 via the mobile communication network 110. Note that each of the above terminals 2
Browsers capable of browsing Web pages are mounted on 0, 70, and 72. As the network 100, a dedicated line, a LAN (Local Area) is used instead of the Internet.
Network), WAN (Wide Area Network) or the like may be used.

【0017】図2は、インターネット電話としてのユー
ザ端末70と本システム50(及びオペレータA)との
間でネットワーク(インターネット)100を介して情
報のやりとりを行う態様を示す。この図において、ユー
ザ端末70は、入力装置としてのキーボード、画像を表
示する画面、サウンドボード等からなる合成・分離部7
0cを備え、合成・分離部70cはアナログ/デジタル
変換部70dを含んでいる。そして、ユーザAが発した
音声情報はヘッドセット70aでアナログ信号として受
信された後、アナログ/デジタル変換部70dによりデ
ジタル信号に変換され、さらに圧縮化される。一方、ユ
ーザAが端末70のキーボードから入力した画像情報
(たとえば表示された画面に対する選択情報等)はデジ
タル信号であり、合成・分離部70cは、画像情報と音
声情報をそれぞれパケット化し、所定の通信プロトコル
(例えばTCP/IP)を用いたパケット通信により本
システム50に送信する。
FIG. 2 shows a mode in which information is exchanged between a user terminal 70 as an Internet telephone and the present system 50 (and operator A) via a network (Internet) 100. In this figure, a user terminal 70 includes a keyboard / input device, a screen for displaying an image, a synthesis / separation unit 7 including a sound board, and the like.
0c, and the synthesis / separation unit 70c includes an analog / digital conversion unit 70d. Then, after the audio information emitted by the user A is received as an analog signal by the headset 70a, the audio information is converted into a digital signal by the analog / digital converter 70d and further compressed. On the other hand, the image information (for example, selection information for the displayed screen or the like) input by the user A from the keyboard of the terminal 70 is a digital signal, and the synthesizing / separating unit 70c packetizes the image information and the audio information respectively, and The packet is transmitted to the system 50 by packet communication using a communication protocol (for example, TCP / IP).

【0018】本システム50では、受信したデジタル信
号を情報(合成)分離部2cにて画像情報と音声情報に
分離する。画像情報はデジタル信号のまま制御手段2a
に送信され、制御手段2aは対応する画像を第1の画像
情報データベース6から取得しオペレータ端末20へ閲
覧可能に送信する。情報(合成)分離部2cは又、音声
情報のパケットをつなぎ合わせて伸長化してアナログ/
デジタル変換部2dへ渡し、アナログ/デジタル変換部
2dはこれをアナログ化し、アナログ信号として交換機
30を介して電話機22へ送信するとともに、音声認識
部4へ送信する。
In the present system 50, the received digital signal is separated into image information and audio information by the information (synthesis) separation section 2c. The control means 2a keeps the image information as a digital signal.
And the control means 2a acquires the corresponding image from the first image information database 6 and transmits it to the operator terminal 20 for browsing. The information (synthesis) separation unit 2c also connects and decompresses the packets of the audio information to perform analog /
The data is passed to the digital conversion unit 2d, and the analog / digital conversion unit 2d converts the signal into an analog signal, transmits the analog signal to the telephone set 22 via the exchange 30, and transmits the analog signal to the voice recognition unit 4.

【0019】一方、オペレータAが発した音声情報は、
アナログ/デジタル変換部2dによりデジタル化、圧縮
化され、オペレータAが端末20の入力部(キーボード
等)から入力した画像情報(たとえば画像の選択情報
等)を制御手段2aが処理した情報とともに、情報(合
成)分離部2cでパケット通信によりユーザ端末70に
送信される。
On the other hand, the voice information issued by the operator A is
The image information (for example, image selection information, etc.) digitized and compressed by the analog / digital conversion unit 2d and input by the operator A from the input unit (keyboard or the like) of the terminal 20 together with the information processed by the control unit 2a together with the information (Composition) The packet is transmitted to the user terminal 70 by the packet communication in the separation unit 2c.

【0020】次に、図3を参照して関連情報検索システ
ム50での処理フローを説明する。この図において、ま
ず、ユーザは、ユーザ端末から本システム(Webサイ
ト)のへURL(Uniform Resource Locator)を指定し
てアクセスする(ステップS200)。このとき、適宜認
証情報を入力してログインするようにしてもよい。本シ
ステムの制御手段2aは、トップページをユーザ端末に
送信する(ステップS300)。ユーザ端末に表示された
トップページには所定の「電話ボタン」が設けられてい
て、これを選択することにより、ユーザは本システムに
対して電話をかける(ステップS210)。より具体的に
は、「電話ボタン」の選択情報を受信した制御手段2a
は、交換機30を介して接続可能な電話機を探索する。
そして、接続可能な電話機が存在する場合、制御手段2
aはその電話機とユーザ端末とを接続する(ステップS
310)。
Next, a processing flow in the related information search system 50 will be described with reference to FIG. In the figure, first, the user specifies a URL (Uniform Resource Locator) to access the system (Web site) from the user terminal (step S200). At this time, the user may log in by appropriately inputting authentication information. The control unit 2a of the present system transmits the top page to the user terminal (Step S300). A predetermined "phone button" is provided on the top page displayed on the user terminal, and by selecting this, the user makes a call to the present system (step S210). More specifically, the control unit 2a receiving the selection information of the "telephone button"
Searches for a telephone that can be connected via the exchange 30.
If there is a connectable telephone, control means 2
a connects the telephone and the user terminal (step S
310).

【0021】オペレータは、当該電話機を用いてユーザ
と電話応答をし、画面選択の指示をユーザに対して行う
(ステップS400)。画面選択の指示は、例えば「ト
ップページのメニューをクリックして次画面を見て下さ
い」というものである。ユーザはその指示に従って画面
選択を行い(ステップS220)、その選択情報を受信
した制御手段2aは、対応する選択画面を第1の画像情
報データベースから検索し、ユーザ端末とオペレータ端
末にそれぞれ送信する(ステップS320)。
The operator uses the telephone to answer the telephone with the user and instructs the user to select a screen (step S400). The instruction to select a screen is, for example, "Click the menu on the top page to see the next screen." The user selects a screen according to the instruction (step S220), and upon receiving the selection information, the control unit 2a searches the first image information database for a corresponding selection screen, and transmits the selected screen to the user terminal and the operator terminal, respectively ( Step S320).

【0022】次に、オペレータは電話機を用い、ユーザ
に対して選択画面の閲覧に対する音声応答を電話で行う
よう指示する(ステップS410)。この指示は、例え
ば「今見ている画面について興味ありますか?」という
ものである。ユーザは音声応答を行い、ユーザ端末を介
してその音声情報を送信する(ステップS230)。な
お、ステップS230で、ユーザは、第1の画像情報
(選択画面)を閲覧した上で音声情報を発するので、先
入観や熟考する時間を与えずに、画面を見た印象に基づ
くユーザの真の心理状態等を反映した音声情報を取得す
ることができ、後述するユーザの状態の判定の信頼性を
高めることができる。音声情報はオペレータの電話機に
送信されるとともに、本システムの音声認識部4へ送信
され、ここで音声解析される(ステップS330)。
Next, the operator uses the telephone to instruct the user to make a voice response to the browsing of the selection screen by telephone (step S410). This instruction is, for example, "Are you interested in the screen you are looking at?" The user makes a voice response and transmits the voice information via the user terminal (step S230). In step S230, since the user views the first image information (selection screen) and emits the audio information, the user's true information based on the impression of looking at the screen can be provided without giving a preconception or time to reflect. Voice information reflecting a psychological state or the like can be acquired, and reliability of determination of a user state described later can be improved. The voice information is transmitted to the telephone of the operator, and also transmitted to the voice recognition unit 4 of the present system, where the voice is analyzed (step S330).

【0023】制御手段2aは、解析結果を取得し、それ
に基づいてユーザの状態を判定する(ステップS34
0)。さらに、判定結果に基づいて関連情報データベー
ス8から該当する関連情報を検索し(ステップS35
0)、ユーザ端末とオペレータ端末にそれぞれ送信する
(ステップS360)。ユーザ端末とオペレータ端末に
は、関連情報が閲覧可能に表示される。
The control means 2a acquires the analysis result and determines the state of the user based on the analysis result (step S34).
0). Further, the relevant information is searched from the relevant information database 8 based on the determination result (step S35).
0), and transmit them to the user terminal and the operator terminal, respectively (step S360). Related information is displayed on the user terminal and the operator terminal so as to be browsed.

【0024】音声認識部4の構成ブロック図は図4に示
すようになっている。この図において、音声認識部4
は、音声情報から単語を抽出する単語抽出部4a、会話
の時間当り抽出された単語数から音声スピードを算出す
る音声スピード算出部4b、音声情報から音圧を測定す
る音圧測定部4c、音声情報から音の高さを測定する音
の高さ測定部4d、各部4a〜4dでの処理の開始・終
了のタイミングを指定する開始・終了指定部4eを備え
る。このうち、音圧と音の高さは、「音声のトーン」を
示す指標であり、いずれを用いてもよく、又両方を用い
て音声のトーンとしてもよい。
FIG. 4 is a block diagram showing the configuration of the voice recognition unit 4. As shown in FIG. In this figure, the voice recognition unit 4
Are a word extraction unit 4a for extracting words from voice information, a voice speed calculation unit 4b for calculating voice speed from the number of words extracted per conversation time, a sound pressure measurement unit 4c for measuring sound pressure from voice information, A sound pitch measuring section 4d for measuring the pitch of the sound from the information, and a start / end specifying section 4e for specifying the start / end timing of the processing in each section 4a to 4d are provided. Among these, the sound pressure and the sound pitch are indices indicating the “voice tone”, and any of them may be used, or both may be used as the voice tone.

【0025】なお、後述するユーザの状態の判定に際し
ては、音声スピード、音声のトーンのいずれかのデータ
があればよく、又両方のデータを参照して判定を行って
もよい。さらに、本発明では、音声情報から単語を抽出
することは必須ではないが、単語を抽出した場合、上記
したユーザの状態に加え、抽出単語に基づいて関連情報
を検索することができ、関連情報の検索精度が高まる。
In determining the state of the user, which will be described later, it is sufficient if there is any data of voice speed or voice tone, or the determination may be made by referring to both data. Furthermore, in the present invention, it is not essential to extract a word from audio information, but when a word is extracted, related information can be searched based on the extracted word, in addition to the above-described state of the user. Search accuracy is improved.

【0026】単語抽出部4aは、単語毎に対応する音の
波形パターンを記憶する音声パターンデータベース4f
に基づいて、音声情報から音声認識を行って単語を抽出
する。開始・終了指定部4eは、オペレータ端末を介し
てオペレータからの指示を受信し、ユーザ応答の開始、
終了を指定する。又、オペレータの指示の代わりに、自
然言語処理部4gを設け、所定の文法・語法データに基
づいて抽出単語群からユーザ応答の意味を推定し、開
始、終了を指定するようにしてもよい。音声スピード算
出部4b、音圧測定部4c、音の高さ測定部4dは、後
述する所定時間毎にそれぞれの項目の算出・測定を行
う。
The word extracting section 4a stores a sound pattern database 4f for storing a sound waveform pattern corresponding to each word.
, A word is extracted by performing speech recognition from the speech information. The start / end designation unit 4e receives an instruction from the operator via the operator terminal, and starts a user response,
Specify the end. Instead of the operator's instruction, a natural language processing unit 4g may be provided to estimate the meaning of the user response from the extracted word group based on predetermined grammar / grammar data, and to specify the start and end. The voice speed calculation unit 4b, the sound pressure measurement unit 4c, and the pitch measurement unit 4d calculate and measure each item at predetermined time intervals, which will be described later.

【0027】次に、図5を参照して音声認識部4のステ
ップS330での処理フローを説明する。まず、開始・
終了指定部4eが音声情報を取得する旨の指示を出し
(ステップS500)、それに従って、音声認識部4は
ユーザの音声情報を取得する(ステップS510)。単
語抽出部4aは単語抽出を行い(ステップS520)、
音声スピード算出部4bは、単語抽出部4aから抽出さ
れた単語データを取得して音声スピードを算出する(ス
テップS530)。音圧測定部4c又は音の高さ測定部
4dは、音圧(音の高さ)を測定する(ステップS54
0)。以下、単語抽出をたえず行う一方、音声スピード
の算出及び音圧測定(音の高さ測定)を一定時間(後述
する区間時間)毎に行う(ステップS550)。そし
て、開始・終了指定部4eの終了指示により、単語抽
出、音声スピード算出、音圧(音の高さ)測定を終了し
(ステップS560)、制御手段2aへ各データを渡す
(ステップS570)。
Next, the processing flow of the voice recognition unit 4 in step S330 will be described with reference to FIG. First, start
The end specifying unit 4e issues an instruction to acquire voice information (step S500), and the voice recognizing unit 4 acquires the user voice information (step S510). The word extraction unit 4a performs word extraction (step S520),
The voice speed calculation unit 4b acquires the word data extracted from the word extraction unit 4a and calculates the voice speed (step S530). The sound pressure measuring section 4c or the pitch measuring section 4d measures the sound pressure (pitch) (step S54).
0). Hereinafter, while the word extraction is constantly performed, the calculation of the voice speed and the measurement of the sound pressure (the measurement of the pitch of the sound) are performed at regular intervals (interval time to be described later) (step S550). Then, in response to a termination instruction from the start / end designation unit 4e, word extraction, voice speed calculation, and sound pressure (pitch) measurement are terminated (step S560), and each data is passed to the control unit 2a (step S570).

【0028】図6は、図5のフローにより音声解析を行
う具体的態様を示す。まず、ユーザの音声情報(波形)
は図6(a)に示すようになっている。この波形から,
例えば「クルマを買い換えたいです」なる音声認識を行
い、ここから(接続詞等を除く)所定の単語「クル
マ」、「買い換え」を抽出する(図6(b))。音声ス
ピード及び音圧(音の高さ)を算出・測定するタイミン
グは図6(c)に示すようになっていて、まず、会話開
始から所定時間を初期期間とし、音声スピードや音圧の
この期間での値を算出・測定し、ベース(基準)値とす
る。そして、その後は会話終了まで一定時間(区間時
間)毎にその時点の各項目を算出・測定する。例えば、
音声スピードは、初期期間で「○○ワード(単語)/
分」であり、その後、区間時間とともに、△△、××
(ワード(単語)/分)に変化している(図6
(d))。同様に、音圧は「○●→△▲→×××」(P
a)へ、音の高さは「○→△→×」(Hz)へ変化して
いる(図6(e)(f))。
FIG. 6 shows a specific mode of performing voice analysis according to the flow of FIG. First, the user's voice information (waveform)
Are as shown in FIG. From this waveform,
For example, voice recognition of "I want to buy a new car" is performed, and predetermined words (excluding connectives and the like) "car" and "new replacement" are extracted from the speech (FIG. 6B). The timing for calculating and measuring the voice speed and the sound pressure (pitch of the sound) is as shown in FIG. 6C. First, a predetermined time from the start of the conversation is set as an initial period. Calculate and measure the value during the period and use it as the base (reference) value. After that, each item at that time is calculated / measured every fixed time (section time) until the end of the conversation. For example,
The voice speed is set to “XX words (words) /
Minutes ”, and then, along with the section time,
(Word (word) / minute) (FIG. 6)
(D)). Similarly, the sound pressure is “○ →→ ▲ → ×××” (P
To a), the pitch of the sound changes to “○ → △ → ×” (Hz) (FIGS. 6E and 6F).

【0029】次に、図7を参照してステップS340で
の制御手段2aの処理フローを説明する。まず、制御手
段2aは、音声認識部4から抽出単語、音声スピード、
及び音圧のデータを取得する(ステップS600、61
0)。なお、以下の説明では、音圧に基づいて「音声の
トーン」を求める場合について説明するが、音圧の代わ
りに音の高さに基づいてもよく、又、両者に基づいて音
声のトーンを求めてもよい。
Next, the processing flow of the control means 2a in step S340 will be described with reference to FIG. First, the control unit 2a receives the extracted word, the voice speed,
And data of sound pressure (steps S600 and S61)
0). In the following description, a case in which the “voice tone” is obtained based on the sound pressure will be described. However, the voice tone may be based on the pitch instead of the sound pressure. You may ask.

【0030】次に、制御手段2aは、音声スピードと音
圧について、後述する区間時間当りの変化をそれぞれ算
出し(ステップS620)、その結果に基づいてユーザ
(話者)の状態を判定する(ステップS630)。そし
て、制御手段2aは、S610で取得した抽出単語、及
びS630の判定結果に対応する情報を関連情報データ
ベース(DB)8から検索する(ステップS640)。
制御手段2aは、検索された情報をユーザ端末に送信す
る(ステップS650)。
Next, the control means 2a calculates a change per section time described later for the voice speed and the sound pressure (step S620), and determines the state of the user (speaker) based on the results (step S620). Step S630). Then, the control unit 2a searches the related information database (DB) 8 for information corresponding to the extracted word acquired in S610 and the determination result in S630 (step S640).
The control unit 2a transmits the searched information to the user terminal (Step S650).

【0031】図8は、ステップS620での時間変化の
算出方法の例を示す。この図において、初期期間及びそ
の後の区間時間毎の音声スピードが得られている。そし
て、初期期間及び第1の区間時間での音声スピードの変
化が+x1、第1及び第2の区間時間での音声スピード
の変化が+x2、第2及び第3の区間時間での音声スピ
ードの変化が−x3であり、図7に示した音声スピード
の時間変化xは、各音声スピードの変化の平均、つま
り、 x=(+x1+x2−x3)/3 (1) で求められる。音圧の時間変化についても同様である。
なお、算出方法は上記に限られず、例えば音声スピード
の変化の各値のうち絶対値が最大のものを選んでもよ
い。なお、時間変化の単位の例としては、音声スピード
の場合「ワード/分/区間時間」、音圧の場合「dB/
分/区間時間」、音の高さの場合「Hz/区間時間」が
ある。dBはデシベルであり、初期期間に対する所定の
区間時間の音圧の割合を対数表記したものである。
FIG. 8 shows an example of a method of calculating the time change in step S620. In this figure, the audio speed for each of the initial period and the subsequent section time is obtained. The change in voice speed during the initial period and the first section time is + x1, the change in voice speed during the first and second section times is + x2, and the change in voice speed during the second and third section times. Is -x3, and the time change x of the audio speed shown in FIG. 7 is obtained by the average of the change of each audio speed, that is, x = (+ x1 + x2-x3) / 3 (1). The same applies to the time change of the sound pressure.
Note that the calculation method is not limited to the above, and for example, the one having the largest absolute value may be selected from the values of the change in the audio speed. Examples of the unit of the time change are “word / minute / section time” in the case of the voice speed, and “dB /
Minutes / section time ", and for the pitch," Hz / section time ". dB is a decibel, which is a logarithmic representation of the ratio of the sound pressure in a predetermined section time to the initial period.

【0032】図9は、ステップS630での判断基準の
例を示す。この基準は、制御手段2aが実行する所定の
コンピュータプログラムに格納されている。この図にお
いて、上記した音声スピードの時間変化が正(+)であ
れば、抽出単語「クルマ」や「買い換え」に関して話者
が「興味あり(興奮、注目)」の状態であると、負
(−)であれば「興味なし(冷静、無視)」と判断す
る。なお、音声に関して複数の項目(例えば音声スピー
ドと音圧)を測定した場合、時間変化の正負の算定方法
については限定はなく、例えばそれぞれの項目の時間変
化を加算したものが正か負かでユーザの判定を行っても
よく、又、各項目の時間変化のうち絶対値の大きい方を
採用して正か負かを区別してもよい。
FIG. 9 shows an example of the criterion in step S630. This reference is stored in a predetermined computer program executed by the control unit 2a. In this figure, if the above-mentioned temporal change of the voice speed is positive (+), if the speaker is in the state of “interested (excitement, attention)” with respect to the extracted words “car” and “replacement,” the negative ( If it is −), it is determined that “not interested (calm, ignored)”. When a plurality of items (e.g., sound speed and sound pressure) are measured with respect to sound, there is no limitation on the method of calculating the sign of the time change. For example, whether the sum of the time changes of each item is positive or negative is determined. The user's determination may be made, and the time change of each item may be used to discriminate between positive and negative by adopting the one with the larger absolute value.

【0033】図10は、ステップS640での関連情報
データベース(DB)からの関連情報の検索方法例を示
す。この図において、制御手段2aは、抽出単語「クル
マ」をキーとして、これに対応する単語情報1(クル
マ)を有する関連情報データ8aを検索する。又、関連
情報データ8aのうち、抽出単語「買い換え」に対応す
る単語情報2(新車)、及び話者の状態「興味あり」を
属性とする情報を検索する。この実施形態では、最終的
に検索された情報は「広告A」、「広告B」であり、制
御手段2aはこれらの情報をユーザ端末に送信し、ユー
ザ端末は広告として閲覧可能に表示する。
FIG. 10 shows an example of a method for searching for related information from the related information database (DB) in step S640. In this figure, the control means 2a searches for related information data 8a having word information 1 (car) corresponding to the extracted word "car" as a key. Further, the related information data 8a is searched for word information 2 (new car) corresponding to the extracted word "replacement" and information having attributes of the speaker state "interesting". In this embodiment, the finally retrieved information is “advertisement A” and “advertisement B”, and the control unit 2a transmits these pieces of information to the user terminal, and the user terminal displays the information as an advertisement so as to be able to be viewed.

【0034】次に、本システムにアクセスしたユーザ端
末70、72上での表示画面の例を図11及び図12に
示す。図11(1)において、本システムにアクセスし
たユーザ端末にはトップページ1000が表示され(図
3のステップS300に対応)、ここで「電話」ボタン
1000aを選択することにより、ユーザはオペレータ
に対して電話をかけることができる(図3のステップS
210に対応)。ユーザは、オペレータからの指示によ
り、例えばトップページ1000にてメニュー1000
bから所定のメニュー(例えば「クルマについてのアド
バイス」)を選択し、選択結果に応じてユーザ端末には
ページ1100が表示される(図3のステップS320
に対応)。ここでは、クルマについての会話をオペレー
タとの間で行い、所定のクルマの画面がページ1100
に表示されているとする。そして、ユーザがページ11
00を閲覧した状態でオペレータが「このクルマについ
てどう思いますか?」と言い、ページ1100に対する
音声応答を指示する(図3のステップS410に対
応)。ユーザの応答として「(今の)クルマを買い換え
たいです。このクルマかっこいいです」なる音声情報が
送信されると、本システムでは上記した処理により広告
Aをユーザ端末に送信し、ユーザ端末上では先ほどのク
ルマ画面1200aが上半分に、広告Aの広告画面12
00bが下半分に分割表示された画面1200が表示さ
れる。
Next, FIGS. 11 and 12 show examples of display screens on the user terminals 70 and 72 accessing the system. In FIG. 11A, a top page 1000 is displayed on the user terminal that has accessed the system (corresponding to step S300 in FIG. 3). Here, by selecting the “phone” button 1000a, the user is notified to the operator. (Step S in FIG. 3)
210). The user operates the menu 1000 on the top page 1000 according to an instruction from the operator.
b, a predetermined menu (for example, “advice for car”) is selected, and a page 1100 is displayed on the user terminal according to the selection result (step S320 in FIG. 3).
Corresponding to). Here, conversation about the car is performed with the operator, and a screen of a predetermined car is displayed on page 1100.
It is assumed that it is displayed in. Then, the user enters page 11
While browsing 00, the operator says "What do you think about this car?" And instructs a voice response to page 1100 (corresponding to step S410 in FIG. 3). When the voice information "I want to buy a new car (this car). This car is cool" is transmitted as a response from the user, the system transmits the advertisement A to the user terminal by the above-described processing. Advertisement screen 12 of Advertisement A in the upper half
A screen 1200 in which 00b is divided and displayed in the lower half is displayed.

【0035】図12は、上記トップページにてメニュー
(「心理テストとカウンセリング」)を選択した場合の
ユーザ端末上での表示画面例である。選択に応じてユー
ザ端末にはページ2100が表示される(図3のステッ
プS320に対応)。ここでは、森の中の小屋の絵が表
示されている。そして、オペレータが「森の中に一軒の
小屋があります。あなたは小屋の中に入りました。中は
どんな様子ですか?」と言い、ページ2100に対する
音声応答を指示する(図3のステップS410に対
応)。ユーザの応答として例えば「中に人がいます」な
る音声情報が送信されると、本システムでは上記した処
理によりユーザの状態を判断し、対応する広告Cをユー
ザ端末に送信する。ユーザ端末上では、ユーザの応答に
基づいたユーザの心理状態「○×」画面2200aが上
半分に、広告Cの広告画面2200bが下半分に分割表
示された画面2200が表示される。
FIG. 12 is an example of a display screen on the user terminal when a menu ("psychological test and counseling") is selected on the top page. A page 2100 is displayed on the user terminal according to the selection (corresponding to step S320 in FIG. 3). Here, a picture of a hut in the forest is displayed. Then, the operator says, "There is a hut in the forest. You have entered the hut. What is inside?" And instructs the voice response to page 2100 (step in FIG. 3). (Corresponds to S410). For example, when voice information such as “There is a person inside” is transmitted as a response from the user, the system determines the state of the user by the above-described processing, and transmits the corresponding advertisement C to the user terminal. On the user terminal, a screen 2200 in which the user's mental state “○ ×” screen 2200a based on the user's response is displayed in the upper half and the advertisement screen 2200b of the advertisement C is displayed in the lower half is displayed.

【0036】なお、図12に示す実施形態では、ユーザ
応答において単語の抽出はせず、音声スピードのみに基
づいてユーザの状態を判断し、それに対応する関連情報
(広告C)を検索している。つまり、この心理テストに
対し、例えば音声スピードの変化が+であれば、ユーザ
の発した単語に関わらず所定の関連情報を検索するよう
な対応付けがされている。但し、ユーザの発した単語に
応じてさらに検索を行ってもよく、例えばユーザ応答に
おいて単語「人(がいます)」が発せられた場合には所
定の関連情報を、例えば単語「狼(がいます)」の場合
は別の関連情報をそれぞれ検索してもよい。
In the embodiment shown in FIG. 12, words are not extracted in the user response, but the state of the user is determined based only on the voice speed, and the related information (advertisement C) corresponding to the state is searched. . That is, for this psychological test, for example, if the change in the voice speed is +, the association is made such that predetermined related information is searched regardless of the word spoken by the user. However, a further search may be performed in accordance with the word spoken by the user. For example, when the word "person (ga)" is spoken in the user response, predetermined related information, for example, the word "wolf" )), Another related information may be searched for.

【0037】本発明は、上記した実施形態に限定される
ものではない。例えば、関連情報を検索する際、上記実
施形態では判定したユーザの状態に加え、抽出単語に基
づいて検索を行ったが、抽出単語に加え、又は抽出単語
に代えて、ユーザが音声情報を発した際の閲覧画面(第
1の画像情報)に基づいて検索を行ってもよい。このよ
うにすると、関連情報の検索精度が高まる。この場合、
例えば、図3のS220でユーザ端末から送信された画
面選択情報を記録しておけばよい。
The present invention is not limited to the above embodiment. For example, when searching for related information, in the above embodiment, the search was performed based on the extracted word in addition to the state of the user determined, but the user emits voice information in addition to or instead of the extracted word. The search may be performed based on the browsing screen (first image information) at the time of the search. In this way, the search accuracy of the related information is increased. in this case,
For example, the screen selection information transmitted from the user terminal in S220 of FIG. 3 may be recorded.

【0038】又、上記実施形態では、ユーザ端末がイン
ターネット電話の機能を有する場合について説明した
が、これに限定されるものではない。図13は、ユーザ
端末と電話機が別である場合の本システム50’の構成
ブロック図を示す。
In the above embodiment, the case where the user terminal has an Internet telephone function has been described, but the present invention is not limited to this. FIG. 13 is a configuration block diagram of the present system 50 'when the user terminal and the telephone are different.

【0039】この図において、本システム50’は、上
記図1に示すシステム50と略同一の構成を有してお
り、これらを図1の各構成の符号に「’」を添付して区
別する。各構成の機能は図1の場合と同様であるので説
明を省略する。但し、本システム50’はネットワーク
100及び公衆電話網130に接続されている。そし
て、画像情報はネットワーク100を介して、音声情報
は公衆電話網130を介して別個にやりとりされるの
で、サーバ2’は情報分離部を有していない点が図1の
場合と異なる。又、関連情報データベース8’に記憶さ
れた関連情報には広告内容自体は含まれておらず、本シ
ステムの外部に設けられた広告データベース90、9
2、94へのリンク情報のみが含まれている。
In this figure, the present system 50 'has substantially the same configuration as the system 50 shown in FIG. 1, and these components are distinguished by attaching "'" to the reference numerals of the respective components in FIG. . The function of each component is the same as that of FIG. However, the present system 50 'is connected to the network 100 and the public telephone network 130. Since the image information is exchanged separately via the network 100 and the voice information is exchanged separately via the public telephone network 130, the server 2 'is different from the case of FIG. 1 in that it does not have an information separation unit. The related information stored in the related information database 8 ′ does not include the advertisement content itself, and the advertisement databases 90 and 9 provided outside the present system.
Only the link information to 2, 94 is included.

【0040】一方、ユーザは、画像情報のみをやりとり
するユーザ端末74と、音声情報をやりとりする電話機
76を有する。そして、ユーザ端末74はネットワーク
100を介してサーバ2’に接続され、電話機76は公
衆電話網130を介して音声認識部4’及び交換器3
0’に接続されている。そして、制御手段2a’は、ユ
ーザの状態等に応じて関連情報データベース8’からリ
ンク情報に基づき,リンク先である広告データベース9
0、92、94から広告の内容を取得し、ユーザ端末7
4あるいは電話機76に画像情報や音声情報として送信
する。
On the other hand, the user has a user terminal 74 for exchanging only image information and a telephone 76 for exchanging voice information. The user terminal 74 is connected to the server 2 ′ via the network 100, and the telephone 76 is connected to the voice recognition unit 4 ′ and the exchange 3 via the public telephone network 130.
0 '. Then, the control unit 2a ', based on the link information from the related information database 8' according to the state of the user, etc.,
The contents of the advertisement are acquired from 0, 92, 94, and the user terminal 7
4 or the telephone 76 as image information or audio information.

【0041】又、上記図1に示す実施形態では、交換機
(PBX)を必要としたが、IPホンと呼ばれる電話シ
ステムでは交換機は不要であり、図14にこの場合の本
システム50’’の構成ブロック図を示す。この図にお
いて、本システム50’’は所定のルータ90’’、ハ
ブ92’’を有し、ルータ90’’はネットワーク10
0に接続され、ハブ92’’には複数のオペレータ端末
20’’が接続されている。オペレータ端末20’’は
パーソナルコンピュータ等からなり、その制御部分に
は、上記図1に示すサーバ2と同様の構成(制御手段2
a’’、入出力制御手段2b’’、情報(合成)分離部
2c’’)を備える。音声情報は分岐部94’’でハン
ドセット96’’とIVR4’’とに分岐され、IVR
4’’は図1の場合と同様の動作を行い、その処理結果
を制御手段2a’’にかえすようになっている。
In the embodiment shown in FIG. 1, an exchange (PBX) is required. However, an exchange is not required in a telephone system called an IP phone, and FIG. 14 shows the configuration of the present system 50 '' in this case. FIG. In this figure, the present system 50 "has a predetermined router 90" and a hub 92 ", and the router 90"
0, and a plurality of operator terminals 20 ″ are connected to the hub 92 ″. The operator terminal 20 ″ is composed of a personal computer or the like, and its control part has the same configuration as the server 2 shown in FIG.
a '', an input / output control means 2b '', and an information (synthesis) separation section 2c ''). The audio information is branched into a handset 96 ″ and an IVR 4 ″ by a branching unit 94 ″.
4 '' performs the same operation as in FIG. 1, and returns the processing result to the control means 2a ''.

【0042】又、上記した各実施形態ではユーザの音声
情報を解析したが、ユーザの文字情報を解析してもよ
い。この場合のシステムも図1と同様の構成とすればよ
いが、図1における情報分離部2cに相当する部分は、
ネットワークから送受信されたパケットのうち、ヘッダ
情報に基づいて画像情報と文字情報を分離する。そし
て、音声認識部の代わりに、所定の文字認識部が文字情
報から対応する文字コードを解析し、そのコードを制御
手段に返す。又、関連情報データベースには文字コード
に対応して情報が格納されており、制御手段はそれに応
じて所定の関連情報を検索するようになっている。ユー
ザからの文字情報の送信は、ユーザ端末から電子メール
を送信したり、オペレータ端末との間でチャット通信を
行えばよい。
In each of the above embodiments, the voice information of the user is analyzed. However, the character information of the user may be analyzed. The system in this case may have the same configuration as that of FIG. 1, but the part corresponding to the information separating unit 2c in FIG.
Image information and character information are separated based on the header information among the packets transmitted and received from the network. Then, instead of the voice recognition unit, a predetermined character recognition unit analyzes the corresponding character code from the character information and returns the code to the control unit. Further, information is stored in the related information database corresponding to the character code, and the control means searches for predetermined related information in accordance with the information. The transmission of the character information from the user may be achieved by transmitting an e-mail from the user terminal or performing chat communication with the operator terminal.

【0043】図15は、電子メールの例を示す。図15
(1)に示すメール3000では、ユーザが入力した文
字に「怒っている」なる文字列3000aがあり、この
うち「怒」の文字コードに関連する情報が関連情報デー
タベースに格納されている。従って、この文字コードが
取得されると、関連情報が検索されるようになってい
る。図15(2)に示すメール3100では、ユーザが
入力した文字に、怒っていることを示す顔文字「\
/」3000aがあり、これらの文字コードに関連する
情報が関連情報データベースに格納されている。従っ
て、この文字コード(「\」「/」)が取得されると、
関連情報が検索されるようになっている。
FIG. 15 shows an example of an electronic mail. FIG.
In the mail 3000 shown in (1), the character input by the user includes a character string 3000a of "angry", and information related to the character code of "angry" is stored in the related information database. Therefore, when the character code is obtained, the related information is searched. In the mail 3100 shown in FIG. 15 (2), the character input by the user includes the emoticon "@
/ "3000a, and information related to these character codes is stored in the related information database. Therefore, when this character code (“\” “/”) is obtained,
Related information is searched.

【0044】本発明の関連情報検索システムは、コンピ
ューターと、通信装置等の各種周辺機器と、そのコンピ
ューターによって実行されるソフトウェアプログラムと
によって実現することができ、上記システム内で実行さ
れるソフトウェアプログラムは、コンピューター読み取
り可能な記憶媒体あるいは通信回線を介して配布するこ
とが可能である。
The related information search system of the present invention can be realized by a computer, various peripheral devices such as a communication device, and a software program executed by the computer. It can be distributed via a computer-readable storage medium or a communication line.

【0045】[0045]

【発明の効果】以上説明したように、本発明によれば、
第1の画像情報を閲覧したユーザから送信された音声情
報や文字情報に応じて、ユーザの状態を判定し、判定結
果をリアルタイムに反映した関連情報を検索し、ユーザ
に提示できるので、ユーザに有用なあるいはユーザに受
け入れ易い関連情報を提供することができる。例えば、
ユーザに与える広告効果が大きくなる。
As described above, according to the present invention,
The state of the user is determined according to the voice information and character information transmitted from the user who has viewed the first image information, and related information reflecting the determination result in real time can be presented to the user. Related information that is useful or easily accepted by the user can be provided. For example,
The advertising effect given to the user increases.

【0046】そして、ユーザは、第1の画像情報を閲覧
した上で音声情報や文字情報を発するので、先入観や熟
考する時間を与えずに、画面を見た印象に基づくユーザ
の真の心理状態等を反映した音声情報や文字情報を取得
することができ、ユーザの状態の判定の信頼性を高める
ことができる。
Since the user utters voice information and character information after browsing the first image information, the user's true mental state based on the impression of looking at the screen can be provided without giving a preconception or time for reflection. It is possible to acquire voice information and character information reflecting the above, etc., and it is possible to enhance the reliability of the determination of the state of the user.

【0047】さらに、上記したユーザの状態に加え、ユ
ーザの音声情報から抽出した単語に基づいて関連情報を
検索した場合、関連情報の検索精度が高まる。
Further, when the related information is searched based on the word extracted from the voice information of the user in addition to the above-mentioned state of the user, the search accuracy of the related information is improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の関連情報検索システムの構成を示す
ブロック図である。
FIG. 1 is a block diagram showing a configuration of a related information search system of the present invention.

【図2】 ユーザ端末と本システムとの間の情報のやり
とりを示す図である。
FIG. 2 is a diagram showing exchange of information between a user terminal and the present system.

【図3】 関連情報検索システムでの処理フローを示す
図である。
FIG. 3 is a diagram showing a processing flow in the related information search system.

【図4】 音声認識部の構成を示すブロック図である。FIG. 4 is a block diagram illustrating a configuration of a voice recognition unit.

【図5】 音声認識部での処理フローを示す図である。FIG. 5 is a diagram showing a processing flow in a voice recognition unit.

【図6】 音声情報から音声解析を行う態様を示す図で
ある。
FIG. 6 is a diagram showing a mode of performing voice analysis from voice information.

【図7】 ユーザの状態を判定する処理フローを示す図
である。
FIG. 7 is a diagram illustrating a processing flow for determining a state of a user.

【図8】 音声スピードの時間変化を算出する方法を示
す図である。
FIG. 8 is a diagram illustrating a method for calculating a temporal change in audio speed.

【図9】 ユーザの状態を判定する基準を示す図であ
る。
FIG. 9 is a diagram showing criteria for judging a state of a user.

【図10】 関連情報データの構成を示す図である。FIG. 10 is a diagram showing a configuration of related information data.

【図11】 ユーザ端末上での表示画面を示す図であ
る。
FIG. 11 is a diagram showing a display screen on a user terminal.

【図12】 ユーザ端末上での表示画面を示す別の図で
ある。
FIG. 12 is another diagram showing a display screen on the user terminal.

【図13】 本発明の関連情報検索システムの別の構成
を示すブロック図である。
FIG. 13 is a block diagram showing another configuration of the related information search system of the present invention.

【図14】 本発明の関連情報検索システムのさらに別
の構成を示すブロック図である。
FIG. 14 is a block diagram showing still another configuration of the related information search system of the present invention.

【図15】 電子メールの一例を示す図である。FIG. 15 is a diagram showing an example of an electronic mail.

【符号の説明】[Explanation of symbols]

2 音声・IP変換サーバ 2a 制御手段 2c 情報(合成)分離部(情報
分離手段) 4 解析手段(音声認識部) 6 第1の画像情報データベー
ス 8 関連情報データベース 50 関連情報検索システム 70、72、74 ユーザ端末 100 ネットワーク 110 移動体通信網
Reference Signs List 2 voice / IP conversion server 2a control means 2c information (synthesis) separation unit (information separation means) 4 analysis means (speech recognition unit) 6 first image information database 8 related information database 50 related information search system 70, 72, 74 User terminal 100 network 110 mobile communication network

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/10 G10L 3/00 531N 15/18 537G 15/00 551P 15/28 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G10L 15/10 G10L 3/00 531N 15/18 537G 15/00 551P 15/28

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 ユーザの有するユーザ端末に第1の画像
情報を閲覧可能に提示するとともに、該第1の画像情報
を閲覧したユーザから送信された音声情報又は文字情報
に応じた関連情報を検索するシステムであって、 制御手段と、 前記音声情報又は文字情報を解析する解析手段と、 前記関連情報を、前記ユーザの状態に関連付けて記憶す
る関連情報データベースとを備え、 前記制御手段は、解析された音声情報又は文字情報に基
づいて前記ユーザの状態を判定し、判定結果に基づいて
前記関連情報データベースから該当する関連情報を検索
することを特徴とする関連情報検索システム。
1. A method for presenting first image information to a user terminal of a user so that the first image information can be browsed, and searching for related information corresponding to voice information or character information transmitted from the user who browsed the first image information. A control system, comprising: a control unit; an analysis unit that analyzes the voice information or the character information; and a related information database that stores the related information in association with the state of the user. A related information search system that determines the state of the user based on the obtained voice information or character information, and searches the relevant information database for relevant information based on the determination result.
【請求項2】 前記制御手段は、検索した関連情報を前
記ユーザに提示することを特徴とする請求項1に記載の
関連情報検索システム。
2. The related information search system according to claim 1, wherein the control unit presents the searched related information to the user.
【請求項3】 前記制御手段は、解析された音声情報に
おける、音声を発する速度、又は音声のトーンのいずれ
かに基づいて前記ユーザの状態を判定することを特徴と
する請求項1又は2にに記載の関連情報検索システム。
3. The apparatus according to claim 1, wherein the control unit determines the state of the user based on one of a speed at which a voice is emitted and a tone of the voice in the analyzed voice information. Related information search system described in.
【請求項4】 前記関連情報は、さらに所定の単語に関
連付けて記憶され、 前記解析手段は前記音声情報から単語を抽出し、 前記制御手段は、抽出された単語に基づいて前記関連情
報データベースから該当する関連情報を検索することを
特徴とする請求項1ないし3のいずれかに記載の関連情
報検索システム。
4. The related information is further stored in association with a predetermined word, the analysis unit extracts a word from the voice information, and the control unit reads the word from the related information database based on the extracted word. The related information search system according to any one of claims 1 to 3, wherein the related information is searched.
【請求項5】 前記関連情報検索システムは、所定のオ
ペレータが有するオペレータ端末に接続され、 前記ユーザと前記オペレータとの間で音声情報又は文字
情報の交換が可能であることを特徴とする請求項1ない
し4のいずれかに記載の関連情報検索システム。
5. The related information search system is connected to an operator terminal of a predetermined operator, and is capable of exchanging voice information or character information between the user and the operator. 5. The related information search system according to any one of 1 to 4.
【請求項6】 前記ユーザ端末は、ネットワークを介し
て前記音声情報又は文字情報を送信可能であり、 前記関連情報検索システムは該ネットワークを介して前
記ユーザ端末に接続され、かつ画像情報と音声情報、又
は画像情報と文字情報を分離する情報分離手段を備えた
ことを特徴とする請求項1ないし5のいずれかに記載の
関連情報検索システム。
6. The user terminal is capable of transmitting the voice information or character information via a network, the related information search system is connected to the user terminal via the network, and includes image information and voice information. 6. The related information search system according to claim 1, further comprising an information separating unit configured to separate image information and character information.
【請求項7】 前記ユーザから送信された文字情報は電
子メールであることを特徴とする請求項1ないし6のい
ずれかに記載の関連情報検索システム。
7. The related information search system according to claim 1, wherein the character information transmitted from the user is an electronic mail.
【請求項8】 ユーザの有するユーザ端末に第1の画像
情報を閲覧可能に提示するとともに、該第1の画像情報
を閲覧したユーザから送信された音声情報又は文字情報
に応じた関連情報を検索する方法であって、 前記関連情報を、前記ユーザの状態に関連付けて記憶す
る工程と、 前記音声情報又は文字情報を解析する工程と、 解析された音声情報又は文字情報に基づいて前記ユーザ
の状態を判定する工程と、 判定結果に基づいて該当する関連情報を検索する工程と
を有することを特徴とする関連情報検索方法。
8. Presenting first image information to a user terminal of the user in a viewable manner, and searching for related information corresponding to voice information or character information transmitted from the user who browsed the first image information. Storing the related information in association with the state of the user; analyzing the voice information or character information; and the state of the user based on the analyzed voice information or character information. And a step of retrieving relevant information based on the result of the determination.
【請求項9】 さらに、検索した関連情報を前記ユーザ
に提示する工程を有することを特徴とする請求項8に記
載の関連情報検索方法。
9. The related information search method according to claim 8, further comprising a step of presenting the searched related information to the user.
【請求項10】 ユーザの有するユーザ端末に第1の画
像情報を閲覧可能に提示するとともに、該第1の画像情
報を閲覧したユーザから送信された音声情報又は文字情
報に応じた関連情報を検索する方法を記録したコンピュ
ータ読取可能な記録媒体であって、 前記関連情報を、前記ユーザの状態に関連付けて記憶す
る過程と、 前記音声情報又は文字情報を解析する過程と、 解析された音声情報又は文字情報に基づいて前記ユーザ
の状態を判定する過程と、 判定結果に基づいて該当する関連情報を検索する過程と
をコンピュータに実行させるためのプログラムを記録し
たことを特徴とするコンピュータ読取可能な記録媒体。
10. Presenting first image information to a user terminal of the user in a viewable manner, and searching for related information corresponding to voice information or character information transmitted from the user who browsed the first image information. A computer-readable recording medium recording a method of performing the method, wherein the step of storing the related information in association with the state of the user; the step of analyzing the audio information or the character information; and the analyzed audio information or A computer readable recording for recording a program for causing a computer to execute a step of determining the state of the user based on character information and a step of searching for relevant information based on the determination result. Medium.
JP2000305285A 2000-10-04 2000-10-04 System and method for retrieving related information, and computer readable recording medium Pending JP2002108929A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000305285A JP2002108929A (en) 2000-10-04 2000-10-04 System and method for retrieving related information, and computer readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000305285A JP2002108929A (en) 2000-10-04 2000-10-04 System and method for retrieving related information, and computer readable recording medium

Publications (1)

Publication Number Publication Date
JP2002108929A true JP2002108929A (en) 2002-04-12

Family

ID=18786178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000305285A Pending JP2002108929A (en) 2000-10-04 2000-10-04 System and method for retrieving related information, and computer readable recording medium

Country Status (1)

Country Link
JP (1) JP2002108929A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006524353A (en) * 2003-04-22 2006-10-26 スピンヴォックス リミテッド Method for generating SMS or MMS text messages for reception by a wireless information device
JP2008054340A (en) * 2007-09-25 2008-03-06 Oki Electric Ind Co Ltd Information communication system and data communication method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0512023A (en) * 1991-07-04 1993-01-22 Omron Corp Emotion recognizing device
JPH11305985A (en) * 1998-04-22 1999-11-05 Sharp Corp Interactive device
JP2000163424A (en) * 1998-11-27 2000-06-16 Dainippon Printing Co Ltd Interactive information reproduction system and storage medium stored with program for same
JP2000207214A (en) * 1999-01-20 2000-07-28 Victor Co Of Japan Ltd Interaction device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0512023A (en) * 1991-07-04 1993-01-22 Omron Corp Emotion recognizing device
JPH11305985A (en) * 1998-04-22 1999-11-05 Sharp Corp Interactive device
JP2000163424A (en) * 1998-11-27 2000-06-16 Dainippon Printing Co Ltd Interactive information reproduction system and storage medium stored with program for same
JP2000207214A (en) * 1999-01-20 2000-07-28 Victor Co Of Japan Ltd Interaction device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006524353A (en) * 2003-04-22 2006-10-26 スピンヴォックス リミテッド Method for generating SMS or MMS text messages for reception by a wireless information device
JP2008054340A (en) * 2007-09-25 2008-03-06 Oki Electric Ind Co Ltd Information communication system and data communication method thereof
JP4530016B2 (en) * 2007-09-25 2010-08-25 沖電気工業株式会社 Information communication system and data communication method thereof

Similar Documents

Publication Publication Date Title
US10334301B2 (en) Providing content responsive to multimedia signals
US8781840B2 (en) Retrieval and presentation of network service results for mobile device using a multimodal browser
US7774194B2 (en) Method and apparatus for seamless transition of voice and/or text into sign language
US8411824B2 (en) Methods and systems for a sign language graphical interpreter
CN108847214B (en) Voice processing method, client, device, terminal, server and storage medium
KR100706967B1 (en) Method and System for Providing News Information by Using Three Dimensional Character for Use in Wireless Communication Network
US20020046030A1 (en) Method and apparatus for improved call handling and service based on caller's demographic information
US9215314B2 (en) Voice input system and information storage medium storage voice input program
US20020198716A1 (en) System and method of improved communication
CN114464180A (en) Intelligent device and intelligent voice interaction method
KR20170135598A (en) System and Method for Voice Conversation using Synthesized Virtual Voice of a Designated Person
JP2003216564A (en) Communication supporting method, communication server using therefor and communication supporting system
JP3714159B2 (en) Browser-equipped device
US6501751B1 (en) Voice communication with simulated speech data
JP2002108929A (en) System and method for retrieving related information, and computer readable recording medium
JPH10322478A (en) Hypertext access device in voice
KR101597248B1 (en) SYSTEM AND METHOD FOR PROVIDING ADVERTISEMENT USING VOISE RECOGNITION WHEN TELEPHONE CONVERSATION ON THE VoIP BASE
JP2002091473A (en) Information processor
JP2002165193A (en) Visual telephone system
KR100945162B1 (en) System and method for providing ringback tone
TWM639343U (en) Artificial intelligence system for customer service
JP2001195419A (en) Information-providing system
KR100645823B1 (en) System for providing voice call using character and method of the same, and voice communication device
KR100596001B1 (en) A method for providing contents with a user terminal and a system thereof
KR100668919B1 (en) Method and device for voice process of internet service by mobile phone

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050527

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051208