Nothing Special   »   [go: up one dir, main page]

JP3315221B2 - Conversation sentence translator - Google Patents

Conversation sentence translator

Info

Publication number
JP3315221B2
JP3315221B2 JP29087893A JP29087893A JP3315221B2 JP 3315221 B2 JP3315221 B2 JP 3315221B2 JP 29087893 A JP29087893 A JP 29087893A JP 29087893 A JP29087893 A JP 29087893A JP 3315221 B2 JP3315221 B2 JP 3315221B2
Authority
JP
Japan
Prior art keywords
scene information
word
scene
input
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP29087893A
Other languages
Japanese (ja)
Other versions
JPH07141383A (en
Inventor
幸弘 久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP29087893A priority Critical patent/JP3315221B2/en
Publication of JPH07141383A publication Critical patent/JPH07141383A/en
Application granted granted Critical
Publication of JP3315221B2 publication Critical patent/JP3315221B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、原言語の会話文を目的
言語の会話文に効率良く変換する会話文翻訳装置に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for translating a conversation sentence in a source language into a conversation sentence in a target language efficiently.

【0002】[0002]

【従来の技術】会話文等の翻訳手法として注目されてい
る用例ベース翻訳では、予め原言語及び目的言語の用例
文を対訳の形で多数保存しておき、入力文と原言語の用
例文との類似性を判断して翻訳を行う。
2. Description of the Related Art In example-based translation, which is attracting attention as a translation method for conversational sentences, etc., a large number of example sentences in a source language and a target language are stored in a bilingual form in advance, and an input sentence and an example sentence in the source language are stored. Translation is performed by judging the similarity.

【0003】この方式では対訳を集めるだけで翻訳性能
を上げられる反面、膨大な対訳用例が必要であり、検索
が大変になる。更に入力文と原言語の用例文との間の類
似度を計算するのが困難である。
In this method, the translation performance can be improved only by collecting bilingual translations, but on the other hand, a large number of bilingual translation examples are required, which makes retrieval difficult. Furthermore, it is difficult to calculate the similarity between the input sentence and the example sentence in the source language.

【0004】又、対訳用例をパターンの形に抽象化して
おき、パターン同士の対応関係で原言語の入力文を目的
言語の文に変換する手法等も提案されている。しかしこ
の方式でもパターンに出来ない特殊な表現はそのまま対
訳で登録する必要がある。
Further, a technique has been proposed in which a bilingual example is abstracted in the form of a pattern, and an input sentence in a source language is converted into a sentence in a target language based on the correspondence between the patterns. However, special expressions that cannot be made into patterns using this method need to be registered in parallel.

【0005】[0005]

【発明が解決しようとする課題】従って、いずれの場合
にも扱う対訳用例又は対訳パターンの数が膨大になり、
入力文にマッチする最適なパターンや対訳用例を効率良
く検索するのが困難である。
Accordingly, the number of translation examples or translation patterns handled in any case becomes enormous,
It is difficult to efficiently search for the optimal pattern or bilingual example that matches the input sentence.

【0006】更に、原言語のもつ曖昧性により、一つの
原言語の例文又はパターンから複数の目的言語の例文又
はパターンへの対応がある場合等には、どの目的言語の
例文又はパターンを利用して良いか判断することが難し
いため、一々問い合せる等使用者に繁雑な手間を強いる
必要がある。
Further, when there is a correspondence from an example sentence or pattern of one source language to an example sentence or pattern of a plurality of target languages due to the ambiguity of the source language, an example sentence or pattern of any target language is used. Since it is difficult to judge whether it is OK or not, it is necessary to force the user to perform complicated operations such as inquiring one by one.

【0007】又、用例ベース翻訳では入力文と原言語の
例文との間の差異をもとに目的言語の例文中の単語を置
き換える必要があるが、この時、置換え可能な複数の目
的言語の単語から適切な単語を選択することが困難であ
る。又パターンマッチによる翻訳でも、空所に入れる目
的言語の単語を選択する際に同様の問題が発生する。
In example-based translation, it is necessary to replace words in an example sentence of a target language based on a difference between an input sentence and an example sentence of a source language. It is difficult to select an appropriate word from words. In the case of translation by pattern matching, the same problem occurs when selecting a target language word to be put in a space.

【0008】本発明の目的は、翻訳に際して翻訳対象と
なる会話文が使用される場面(空港、ホテル、食事、買
物、乗り物等)の情報をシーン情報として単語辞書中の
各単語や対訳データベースの各対訳毎に付加し、翻訳時
に現在の会話のシーンを予め設定しておき、それを翻訳
に利用することにより、上記課題を解決することを目的
とする。
[0008] An object of the present invention is to provide information on scenes (such as airports, hotels, food, shopping, vehicles, etc.) in which a conversational sentence to be translated is used at the time of translation as scene information. It is an object of the present invention to solve the above-mentioned problem by adding a scene for a current conversation in advance at the time of translation and adding it to each translation.

【0009】又、本発明では一々使用者が会話のシーン
情報を入力する手間をはぶく手段も提供する。
The present invention also provides a means for eliminating the trouble of inputting scene information of a conversation for each user.

【0010】[0010]

【課題を解決するための手段】本発明によれば、前述の
目的は、原言語の会話文を入力する入力手段と、単語辞
書と、単語辞書を参照しつつ前述の入力された原言語の
会話文を解析する解析手段と、会話シーンを設定すべく
シーン情報を入力するシーン情報入力手段と、入力され
たシーン情報を記憶管理する管理手段と、入力されたシ
ーン情報を表示する表示手段と、シーン情報が付加され
た、原言語の会話文及び目的言語の会話文の対訳データ
ベースと、入力されたシーン情報と対訳データベースと
を用いて原言語の会話文を目的言語の会話文に変換する
変換手段と、変換された目的言語の会話文を出力する出
力手段とを備え、単語辞書における原言語の各単語には
使用されるべき典型的なシーン情報が付加されており、
変換手段は、初期状態あるいはシーン情報のキャンセル
によりシーン情報が入力されていない場合には入力され
た原言語の会話文の単語から現在の会話シーンを推定し
て変換を行うことを特徴とする会話文翻訳装置によって
達成される。
According to the present invention, an object of the present invention is to provide an input means for inputting a spoken sentence in a source language, a word dictionary, and a method for inputting the source language by referring to the word dictionary. Analysis means for analyzing a conversation sentence, scene information input means for inputting scene information to set a conversation scene, management means for storing and managing the input scene information, and display means for displaying the input scene information. Using the bilingual database of the source language conversation sentence and the target language conversation sentence to which the scene information is added, and the input scene information and the bilingual database, the source language conversation sentence is converted into the target language conversation sentence. and converting means, and output means for outputting the conversational sentence of the transformed target language, each source language word in the word dictionary
Typical scene information to be used is added,
The conversion means cancels the initial state or scene information
If no scene information has been entered by
The current conversation scene from words in the spoken language of the source language
This is achieved by a conversational sentence translator characterized by performing a conversion .

【0011】[0011]

【作用】本発明の装置によればシーン情報が入力され
て、変換手段は、会話シーンを設定すべくシーン情報入
力手段を介して入力されたシーン情報とシーン情報が付
加された対訳データベースとを用いて、入力手段により
入力された原言語の会話文を目的言語の会話文に変換す
る。ここで、単語辞書における原言語の各単語には使用
されるべき典型的なシーン情報が付加されており、変換
手段は、初期状態あるいはシーン情報のキャンセルによ
りシーン情報が入力されていない場合には入力された原
言語の会話文の単語から現在の会話シーンを推定して変
換を行うので、入力された翻訳対象文を構成する各単語
から現在の会話シーンを推定することが可能である。こ
れにより、電源投入直後のように、シーン情報が使用者
によって設定されていない場合でも、シーン情報を用い
た翻訳が可能である。
According to the apparatus of the present invention, scene information is input, and the conversion means converts the scene information input through the scene information input means and the bilingual database to which the scene information is added to set a conversation scene. To convert the source language conversation sentence input by the input means into the target language conversation sentence. Here, each word in the source language in the word dictionary is used
Typical scene information to be added
The means is for canceling the initial state or scene information.
If scene information has not been input, the
The current conversation scene is estimated from words in the language
Each word that composes the input translation target sentence
Can be used to estimate the current conversation scene. This
As a result, the scene information will be
Even if it is not set by
Translation is possible.

【0012】[0012]

【0013】[0013]

【0014】[0014]

【0015】[0015]

【0016】[0016]

【0017】本発明による装置の更に他の好ましい特徴
によれば、入力された単語又は選択された訳語にシーン
情報が付加されていない場合、この単語又は訳語に現在
のシーン情報を付加し、次回翻訳時からこの付加された
シーン情報が使用される。単語辞書の原言語の各単語や
目的言語の訳語との対応全てに典型的なシーン情報を付
加するのは困難である。その場合、重要と考えられる単
語や訳語との対応だけにシーン情報を付加しておき、残
りの単語はその単語や訳語が入力や翻訳に使用された時
の設定会話シーンをシーン情報として付加するようにす
れば、自動的に多くの単語や訳語にシーン情報を付加し
得る。
According to a further preferred feature of the device according to the invention, if no scene information has been added to the input word or the selected translation, the current scene information is added to this word or translation, and The added scene information is used from the time of translation. It is difficult to add typical scene information to all correspondences between words in the source language of the word dictionary and translations of the target language. In that case, scene information is added only to the correspondence with the word or translation that is considered important, and for the remaining words, the set conversation scene when the word or translation is used for input or translation is added as scene information. By doing so, scene information can be automatically added to many words and translations.

【0018】本発明による装置の更に他の好ましい特徴
によれば、単語辞書における各単語あるいは単語と訳語
との各対応に複数のシーン情報が付加されており、ある
単語又は訳語が複数のシーンから選択されて使用され、
より精度の高いシーン情報を有する辞書を構成し得る。
According to still another preferred feature of the apparatus according to the present invention, a plurality of scene information is added to each word or each correspondence between a word and a translated word in the word dictionary, and a word or a translated word is extracted from a plurality of scenes. Selected and used,
It is possible to construct a dictionary having more accurate scene information.

【0019】本発明による装置の更に他の好ましい特徴
によれば、入力された単語又は選択された訳語にシーン
頻度情報が付加されており、変換手段は次回翻訳時の変
換から前述の付加されたシーン頻度情報も使用する。こ
れにより、単語辞書に設定するシーン情報が複数になっ
た場合において頻度情報を使用することにより、入力さ
れた複数の単語中に異なったシーン情報が設定されてい
ても頻度に基づいた評価をすることでより精度の高い翻
訳を可能とし得る。
According to still another preferred feature of the apparatus according to the present invention, scene frequency information is added to the input word or the selected translated word, and the conversion means performs the above-mentioned addition from the conversion at the next translation. Scene frequency information is also used. By using the frequency information when there is a plurality of pieces of scene information set in the word dictionary, evaluation based on the frequency is performed even when different scene information is set in a plurality of input words. This may allow for more accurate translation.

【0020】[0020]

【実施例】以下、本発明を図面に示す好ましい実施例を
用いて詳述する。ここでは原言語として日本語を、目的
言語として英語を考える。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below in detail with reference to preferred embodiments shown in the drawings. Here, we consider Japanese as the source language and English as the target language.

【0021】図1は、本発明の実施例における会話文翻
訳装置を示す概略ブロック図である。
FIG. 1 is a schematic block diagram showing a conversational sentence translator according to an embodiment of the present invention.

【0022】図1において、1は翻訳対象の原言語の会
話文を入力する手段としての入力部、2は入力された原
言語の会話文を解析する解析部、3は解析部2で参照さ
れる主に使用されるシーン情報が付加された単語辞書、
4はシーン情報を入力する手段としてのシーン情報入力
部、5は入力されたシーン情報を記憶・管理するシーン
情報管理部、6は主に使用されるシーン情報が付加され
た対訳データベース、7は原言語の会話文の解析結果を
基にシーン情報管理部5のシーン情報と対訳データベー
ス6とを参照し、目的言語の会話文の内部構造を生成す
る変換部、8は目的言語の内部構造から表層表現を得る
生成部、9は目的言語の会話文を出力する出力部、10
はシーン表層管理部5が保持している現在のシーン情報
を表示するシーン情報表示部である。
In FIG. 1, reference numeral 1 denotes an input unit serving as a means for inputting a conversation sentence in the source language to be translated, 2 denotes an analysis unit for analyzing the input conversation sentence in the source language, and 3 denotes an analysis unit. Word dictionary with scene information mainly used
4 is a scene information input unit as means for inputting scene information, 5 is a scene information management unit for storing and managing the inputted scene information, 6 is a bilingual database to which mainly used scene information is added, 7 is A conversion unit for generating the internal structure of the conversational sentence of the target language by referring to the scene information of the scene information managing unit 5 and the bilingual database 6 based on the analysis result of the conversational sentence of the source language, and 8 converting the internal structure of the target language A generating unit for obtaining a surface expression; an output unit for outputting a conversation sentence in a target language;
Is a scene information display unit for displaying current scene information held by the scene surface management unit 5.

【0023】以下、本発明の実施例における動作を図2
のフローチャートを参照して説明する。
The operation of the embodiment of the present invention will now be described with reference to FIG.
This will be described with reference to the flowchart of FIG.

【0024】ステップS1では、入力部1において使用
者に入力を促すためのプロンプトが表示され、翻訳対象
である原言語の会話文又は現在のシーン情報の入力を受
け付ける。ステップS2では、使用者によって入力され
た文字列が原言語の会話文の入力であるかシーン情報で
あるかを判断し、処理を振り分ける。原言語の会話文の
入力であるかシーン情報入力であるかは、モード切り換
えスィッチ等で設定された状態から判断する。
In step S1, a prompt for prompting the user to input is displayed on the input unit 1, and an input of a conversation sentence in the source language to be translated or current scene information is accepted. In step S2, it is determined whether the character string input by the user is an input of a conversation sentence in the source language or scene information, and the processing is sorted. Whether the input is a source language conversation sentence or scene information input is determined from the state set by the mode switching switch or the like.

【0025】シーン情報入力である場合は、その情報を
シーン情報管理部5にセットする(ステップS3)と共
にその内容をシーン情報表示部10にも表示する(ステ
ップS4)。例えば、現在のモードがシーン情報入力で
あり、使用者が「買い物」と入力した場合には、システ
ムはそれをシーン情報入力であると判断し、シーン情報
管理部5にそのデータを送ると共にシーン情報表示部に
10に「買い物」と表示する。
If the input is scene information, the information is set in the scene information management section 5 (step S3) and the contents are displayed on the scene information display section 10 (step S4). For example, if the current mode is scene information input and the user inputs "shopping", the system determines that the input is scene information input, sends the data to the scene information management unit 5, and sends the scene data to the scene information management unit 5. "Shopping" is displayed on the information display unit 10.

【0026】一方、原言語の会話文が入力された場合
は、ステップS5において解析部2により単語辞書を参
照しながら解析し、原言語の文字列が単語の並びに変換
される。
On the other hand, when a conversation sentence in the source language is input, the analysis unit 2 analyzes the sentence in step S5 with reference to the word dictionary, and converts the character string in the source language into a series of words.

【0027】ステップS6では、シーン情報の有無が検
査され、シーン情報があった場合には変換部7によっ
て、まず設定されたシーン情報に属するデータベースの
みを検索対象にして対訳データベース6の検索を行う
(ステップS7)。
In step S6, the presence / absence of scene information is checked. If there is scene information, the conversion unit 7 first searches the bilingual database 6 only for the database belonging to the set scene information. (Step S7).

【0028】以下のような対訳データ及びシーン情報が
対訳データベース6の中に存在していたと仮定する。
It is assumed that the following bilingual data and scene information exist in the bilingual database 6.

【0029】 <日本語> <英語> <シーン情報> 幾らですか :How much do you charge for it ? <買い物> (LOCまで)幾らですか :What is the fare (to LOC)? <乗り物> この時、入力「幾らですか」に対して、シーン情報が
「買い物」であった場合には、目的言語表現“How
much do you charge forit
?”が検索され、同様に情報シーン「乗り物」では、
“What isthe fare (to LOC)
?”が検索される。
<Japanese><English><Sceneinformation> How much do you charge for it? <Shopping> How much is the fare (to LOC)? <Vehicle> At this time, if the scene information is “shopping” in response to the input “how much”, the target language expression “How”
much do you charge forit
? ”, And similarly in the information scene“ Vehicles ”
"What is the Fare (to LOC)
? Is searched.

【0030】会話のシーン情報は、「空港」、「ホテ
ル」、「食事」、「買物」、「乗り物」等、実際に会話
が使用される「場面」を反映したものを設定する。
The conversation scene information is set to reflect the "scene" where the conversation is actually used, such as "airport", "hotel", "meal", "shopping", and "vehicle".

【0031】全ての対訳データにシーン情報を付加する
のは現実的ではない。何故なら、あいさつ等あらゆる場
面で有効な表現も存在するからである。その場合は以下
のように、シーン情報を付加しない。
It is not realistic to add scene information to all bilingual data. This is because there are expressions that are effective in all situations, such as greetings. In that case, no scene information is added as described below.

【0032】 <日本語> <英語> <シーン情報> こんにちは :Hello . <> ありがとう :Thank you . <> 使用者により会話のシーン情報が設定されていなかった
場合には、最初から対訳データベース全体を対象として
検索を行う(ステップS8)。
[0032] <Japanese><English><sceneinformation> Hello: Hello. <> Thank you: Thank you. <> If the conversation scene information has not been set by the user, a search is performed from the beginning on the entire bilingual database (step S8).

【0033】ステップS11により、検索に成功した場
合には検索結果が生成部8に送られ、検索に失敗した場
合にはステップS14の終了判定を行う。シーンを限っ
て検索した結果、検索に失敗した場合には改めて全デー
タベースを対象とした検索を行う(ステップS9)。も
し検索に成功すれば、その検索結果を生成部8に送る。
In step S11, if the search is successful, the search result is sent to the generating unit 8, and if the search is unsuccessful, the end of step S14 is determined. If the search fails as a result of searching only the scenes, the search is again performed for all databases (step S9). If the search is successful, the search result is sent to the generation unit 8.

【0034】検索の結果、目的言語の会話文の構造が得
られた場合にはステップS10で生成部8により目的言
語の会話文が生成され、その結果が出力部9に出力され
る。検索の結果の構造がパターン化されていた場合に
は、原言語の単語に対応する目的言語の単語(訳語)を
シーン情報を用いて決定する。
As a result of the search, if the structure of the conversation sentence in the target language is obtained, the conversation in the target language is generated by the generation unit 8 in step S10, and the result is output to the output unit 9. If the structure of the search result is patterned, a word (translated word) in the target language corresponding to the word in the source language is determined using the scene information.

【0035】例えば、以下のように単語辞書3が設定さ
れていた時に、「釣」という単語の訳語を決定する場
合、 <日本語> <英語> <シーン情報> 釣 :change <買い物> :fishing <趣味> 現在のシーン情報が「買い物」であれば訳語“chan
ge”を、「趣味」であれば“fishing”を選択
する。
For example, when the word dictionary 3 is set as follows and a translation of the word "fishing" is determined, <Japanese><English><Sceneinformation> Fishing: change <Shopping>: fishing <Hobby> If the current scene information is “shopping,” the translated word “chan”
“ge” and “fishing” for “hobby”.

【0036】引き続き、翻訳に使用した対訳データや単
語辞書中の単語又は訳語に付随するシーン情報が現在設
定されているシーンと異なっているかどうか判断し(ス
テップS12)、異なっていた場合にはスタップS13
によりシーン情報の設定を変更する。
Subsequently, it is determined whether the bilingual data used for translation or the scene information associated with the word or translation in the word dictionary is different from the currently set scene (step S12). S13
Changes the setting of the scene information.

【0037】変更の必要がない場合にはステップS14
で翻訳作業を終了するかどうかを判断し、継続する場合
はスッテプS1に戻り、上記アルゴリズムを繰り返す。
If there is no need to change, step S14
To determine whether or not to end the translation work, and if it is to be continued, return to step S1 and repeat the above algorithm.

【0038】尚、本発明の実施例における会話文翻訳装
置の画面イメージ図を図3に示す。
FIG. 3 shows a screen image diagram of the conversational sentence translator according to the embodiment of the present invention.

【0039】[0039]

【発明の効果】以上説明したように、本発明の会話文翻
訳装置によれば、単語辞書における原言語の各単語には
使用されるべき典型的なシーン情報が付加されており、
変換手段は、初期状態あるいはシーン情報のキャンセル
によりシーン情報が入力されていない場合には入力され
た原言語の会話文の単語から現在の会話シーンを推定し
て変換を行うので、入力された翻訳対象文を構成する各
単語から現在の会話シーンを推定することが可能であ
る。これにより、電源投入直後のように、シーン情報が
使用者によって設定されていない場合でも、シーン情報
を用いた翻訳が可能である。
As described above, according to the conversational sentence translator of the present invention , each word in the source language in the word dictionary is
Typical scene information to be used is added,
The conversion means cancels the initial state or scene information
If no scene information has been entered,
The current conversation scene from words in the spoken language of the source language
To perform the conversion, so that each of the
It is possible to estimate the current conversation scene from words.
You. This allows the scene information to be
Scene information even if not set by the user
Is possible.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例における翻訳装置の概略ブロッ
ク図。
FIG. 1 is a schematic block diagram of a translation apparatus according to an embodiment of the present invention.

【図2】同実施例における動作説明のためのフローチャ
ート。
FIG. 2 is a flowchart for explaining the operation in the embodiment.

【図3】同実施例における会話文翻訳装置の画面イメー
ジ図。
FIG. 3 is a screen image diagram of the conversational sentence translator in the embodiment.

【符号の説明】[Explanation of symbols]

1 入力部 2 解析部 3 単語辞書 4 シーン情報入力部 5 シーン情報管理部 6 変換部 7 対訳データベース 8 生成部 9 出力部 10 シーン情報表示部 DESCRIPTION OF SYMBOLS 1 Input part 2 Analysis part 3 Word dictionary 4 Scene information input part 5 Scene information management part 6 Conversion part 7 Bilingual database 8 Generating part 9 Output part 10 Scene information display part

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 原言語の会話文を入力する入力手段と、
単語辞書と、前記単語辞書を参照しつつ前記入力された
原言語の会話文を解析する解析手段と、会話シーンを設
定すべくシーン情報を入力するシーン情報入力手段と、
前記入力されたシーン情報を記憶管理する管理手段と、
前記入力されたシーン情報を表示する表示手段と、シー
ン情報が付加された、原言語の会話文及び目的言語の会
話文の対訳データベースと、前記入力されたシーン情報
と前記対訳データベースとを用いて原言語の会話文を目
的言語の会話文に変換する変換手段と、前記変換された
目的言語の会話文を出力する出力手段とを備え、前記単語辞書における原言語の各単語には使用されるべ
き典型的なシーン情報が付加されており、前記変換手段
は、初期状態あるいはシーン情報のキャンセルによりシ
ーン情報が入力されていない場合には前記入力された原
言語の会話文の単語から現在の会話シーンを推定して変
換を行うことを特徴とする 会話文翻訳装置。
An input means for inputting a conversation sentence of a source language,
A word dictionary, analysis means for analyzing the input source language conversation sentence with reference to the word dictionary, and scene information input means for inputting scene information to set a conversation scene,
Management means for storing and managing the input scene information;
A display unit that displays the input scene information, a bilingual database of conversational sentences in the source language and the target language to which the scene information is added, and the input scene information and the bilingual database. A conversion unit that converts a conversation sentence of the source language into a conversation sentence of the target language; and an output unit that outputs the converted conversation sentence of the target language. The conversion unit is used for each word of the source language in the word dictionary. Be
Typical scene information is added, and the conversion means
Is canceled due to cancellation of the initial state or scene information.
If no pattern information has been entered, the
The current conversation scene is estimated from words in the language
An apparatus for translating a conversational sentence, comprising:
【請求項2】 入力された単語又は選択された訳語にシ
ーン情報が付加されていない場合、該単語又は訳語に現
在のシーン情報を付加し、次回翻訳時から該付加された
シーン情報が使用される請求項1に記載の装置。
2. A method for inputting a word or selecting a translated word.
If no word information is added to the word or translation,
The current scene information is added, and the
Apparatus according to claim 1, wherein scene information is used .
【請求項3】 前記単語辞書における各単語あるいは単
語と訳語との各対応に複数のシーン情報が付加されてい
請求項1に記載の装置。
3. Each word or single word in the word dictionary.
Multiple pieces of scene information are added to each correspondence between words and translated words.
The apparatus of claim 1 that.
【請求項4】 入力された単語又は選択された訳語にシ
ーン頻度情報が付加されており、前記変換手段は次回翻
訳時の変換から前記付加されたシーン頻度情報も使用す
請求項1に記載の装置。
4. A method for inputting a word or selecting a translated word.
Conversion frequency information is added, and the conversion means
The added scene frequency information is also used from the translation conversion.
The apparatus of claim 1 that.
JP29087893A 1993-11-19 1993-11-19 Conversation sentence translator Expired - Fee Related JP3315221B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29087893A JP3315221B2 (en) 1993-11-19 1993-11-19 Conversation sentence translator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29087893A JP3315221B2 (en) 1993-11-19 1993-11-19 Conversation sentence translator

Publications (2)

Publication Number Publication Date
JPH07141383A JPH07141383A (en) 1995-06-02
JP3315221B2 true JP3315221B2 (en) 2002-08-19

Family

ID=17761681

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29087893A Expired - Fee Related JP3315221B2 (en) 1993-11-19 1993-11-19 Conversation sentence translator

Country Status (1)

Country Link
JP (1) JP3315221B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1097537A (en) * 1996-09-24 1998-04-14 Inter Group:Kk Translation supporting system and its recording medium
JP4135307B2 (en) 2000-10-17 2008-08-20 株式会社日立製作所 Voice interpretation service method and voice interpretation server
JP4089148B2 (en) 2000-10-17 2008-05-28 株式会社日立製作所 Interpreting service method and interpreting service device
JP5666937B2 (en) * 2011-02-16 2015-02-12 株式会社東芝 Machine translation apparatus, machine translation method, and machine translation program
SG11201811724TA (en) 2016-09-09 2019-04-29 Panasonic Ip Man Co Ltd Translation device and translation method

Also Published As

Publication number Publication date
JPH07141383A (en) 1995-06-02

Similar Documents

Publication Publication Date Title
JP4544674B2 (en) A system that provides information related to the selected string
US6473729B1 (en) Word phrase translation using a phrase index
US5321607A (en) Automatic translating machine
US5675815A (en) Language conversion system and text creating system using such
EP0424032B1 (en) Naturel language processing apparatus
JP2000132550A (en) Chinese generating device for machine translation
JPH0869470A (en) Natural language processing device and method
WO2003056450A1 (en) Syntax analysis method and apparatus
US5899989A (en) On-demand interface device
JP3315221B2 (en) Conversation sentence translator
JPH05324730A (en) Document information retrieving device
JPH08129554A (en) Relation expression extracting device and retrieval device for relation expression
JP2002342361A (en) Information retrieval device
JP4024137B2 (en) Quantity expression search device
JP2914988B2 (en) A Japanese Noun Compound Word Translation Method for a Japanese Automatic Translation System
JP2002278963A (en) Example translation device
JPH0950435A (en) Translation device
JPS61248160A (en) Document information registering system
JPH1031677A (en) Document retrieval device
JPH10207896A (en) Method and device for retrieval term extension and method and device for information retrieval
JP3323517B2 (en) Machine translation equipment
JP3358100B2 (en) Japanese question message analysis method and device
JP2654533B2 (en) Database Japanese notation candidate generation method
JPH1031676A (en) Retrieval device for bilingual example sentence
JPH05165889A (en) Document retrieval device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090607

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100607

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100607

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110607

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120607

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120607

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130607

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees