Nothing Special   »   [go: up one dir, main page]

JPH11144088A - Processor and method for data processing and medium - Google Patents

Processor and method for data processing and medium

Info

Publication number
JPH11144088A
JPH11144088A JP10233327A JP23332798A JPH11144088A JP H11144088 A JPH11144088 A JP H11144088A JP 10233327 A JP10233327 A JP 10233327A JP 23332798 A JP23332798 A JP 23332798A JP H11144088 A JPH11144088 A JP H11144088A
Authority
JP
Japan
Prior art keywords
polygon
data
file
polygons
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10233327A
Other languages
Japanese (ja)
Other versions
JP3420507B2 (en
Inventor
Takaya Segawa
隆哉 瀬川
Maki Kato
真樹 加藤
Hiroyuki Chi
宏之 地
Yoshihiro Otani
嘉宏 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Enterprises Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Enterprises Ltd filed Critical Sega Enterprises Ltd
Priority to JP23332798A priority Critical patent/JP3420507B2/en
Publication of JPH11144088A publication Critical patent/JPH11144088A/en
Application granted granted Critical
Publication of JP3420507B2 publication Critical patent/JP3420507B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a data processor which reduces character generation load. SOLUTION: An image data processor is a device wherein polygons at specific positions are arranged according to position information for arranging a reference polygon on a screen, and which generates character data by affixing a specific texture to each polygon. The character data consists of a head polygon 202, wrist polygons 203R and 203L, and ankle polygons 204R and 204L having distance information with regard to a body polygon 201 and angle information on arrangement. The processing part calculates the body polygon on the basis of arrangement information on the body polygon 201 on the screen (processing 1) and calculates the head polygon 202, wrist polygons 203R and 203L, and ankle polygons 204R and 204L from the distance information and angle information (processing 2).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、野球やサッカー等
の球技を模したビデオゲームやゲーム機において、画
像、映像等のデータ処理並びにデータの記憶再生処理を
実行するデータ処理装置及びその処理方法並びに当該処
理をコンピュータにさせるためのプログラムが記録され
た媒体に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a data processing apparatus and a data processing method for performing data processing of images and videos and data storage / reproduction processing in a video game or game machine simulating a ball game such as baseball or soccer. The present invention also relates to a medium on which a program for causing a computer to perform the process is recorded.

【0002】[0002]

【従来の技術】コンピュータ技術の進歩に伴い、コンピ
ュータグラフィックス技術を用いたビデオゲーム機が広
く利用されるようになってきた。中でも、野球、サッカ
ー等の球技を模したビデオゲーム機に対する人気は根強
いものがあり、この種のビデオゲーム機が数多く案出さ
れている。
2. Description of the Related Art With the advance of computer technology, video game machines using computer graphics technology have been widely used. Among them, video game machines imitating ball games such as baseball and soccer have been very popular, and many video game machines of this type have been devised.

【0003】この種のゲームにおいて、プレーの最中
に、効果音として、本物の試合における実況を摸した音
声を発生することが行われることがある。例えば、特許
第2552425号公報(特願平5−313705号)
には、予めゲームの進行状況及び操作内容に対応させた
実況用語データを記憶し、ゲームの進行状況及び操作内
容に応じて実況用語データを指定し、これを可聴速度で
音声に変換することにより実況中継を行うゲーム機が開
示されている。
[0003] In this type of game, a sound that simulates a live game in a real game may be generated as a sound effect during play. For example, Japanese Patent No. 25552425 (Japanese Patent Application No. 5-313705)
By storing in advance the live word data corresponding to the progress of the game and the content of the operation, specifying the live word data according to the progress of the game and the content of the operation, and converting this into audio at an audible speed. A game machine that performs live broadcast is disclosed.

【0004】また、この種のゲームにおいて、人間に模
したキャラクタを作成し、多種類のキャラクタをゲーム
上に登場させている。さらに、この種のゲームにおい
て、ゲームの展開に伴ってキャラクタの顔の表情を変化
させることもおこなっている。
In this type of game, a character imitating a human is created, and various types of characters appear on the game. Further, in this type of game, the facial expression of the character is changed with the development of the game.

【0005】また、CD−ROMに記録されたゲームの
アプリケーションフソトをビデオゲーム機本体に取り込
むことが行われている。この場合に、それぞれのファイ
ルの先頭セタク番号の情報を何らかの形でビデオゲーム
機本体のメモリー上に持つ必要があった。例えば、CD
−ROM上に音声ファイルが1万個もある場合、そられ
ファイルを1つのファイルに結合するとき、ファイルの
先頭セクタ番号の情報は最低でも1ファイル当り4バイ
トは必要であるので、約40キロバイトものメモリーを
使うことなる。
[0005] Further, a game application software recorded on a CD-ROM is loaded into a video game machine main body. In this case, it is necessary to have information on the head set number of each file in the memory of the video game machine in some form. For example, CD
-If there are 10,000 audio files on the ROM, when combining the files into one file, the information on the first sector number of the file needs at least 4 bytes per file, so about 40 kilobytes. Use the memory of things.

【0006】また、ゲーム機では、ゲームをする者を特
定したり、あるいは、ゲームの進行等に伴ってパスワー
ドを入力している。
In a game machine, a player who plays a game is specified, or a password is input as the game progresses.

【0007】[0007]

【発明が解決しようとする課題】従来の技術は、ゲーム
の進行状況及び操作内容のある条件に対応する音声を出
力する方式であったため、条件と出力される音声が1対
1の関係を持っていた。そのため、同じ条件下では毎回
同じ台詞が出力されるので、単調化を避けられず、遊戯
者を飽きさせる可能性があった。さらに、ゲーム中の状
況説明を音声による実況で行っているゲームにおいて、
実況者が同じままであると、やはり単調化は避けられな
かった。
In the prior art, which outputs a sound corresponding to a certain condition of the progress of the game and operation contents, the condition and the output sound have a one-to-one relationship. I was For this reason, the same dialogue is output every time under the same condition, so that monotonization cannot be avoided and the player may be bored. Furthermore, in the game where the explanation of the situation during the game is provided by audio commentary,
If the live commenters remained the same, monotony was inevitable.

【0008】このような不都合を避けるために、本発明
者らは、条件に対応した台詞の集合である箱を用意し、
ランダムで台詞を抽出することで決まった状況下におい
ても複数の言い回しを用意することができるとともに、
実況者を複数選択することができるようにしたものを提
案したが、台詞の下に条件が付いていたため、ソフトの
作成に時間がかかるという欠点があった。
In order to avoid such inconvenience, the present inventors have prepared a box which is a set of dialogues corresponding to conditions,
By extracting dialog at random, you can prepare multiple phrases even under certain circumstances,
We proposed a system that allows users to select multiple live broadcasters, but there was a drawback that it took a long time to create software because there were conditions below the dialogue.

【0009】また、従来のキャラクタは人間に模してい
るため、複数の関節等があってモデリングに時間がかか
るという欠点もあった。
[0009] Further, since the conventional character is imitated by a human, there is a disadvantage that modeling takes a long time due to a plurality of joints and the like.

【0010】さらに、キャラクタの顔面の表情を表現
は、顔面を構成する鼻、目、まみ毛あるいは口等のパー
ツが独立していないため、一つのパーツを変化させると
他のパーツにも影響がでてしまい、豊かで魅力ある表情
を表現できなかった。
In addition, the expression of the facial expression of the character is expressed in such a manner that the parts constituting the face such as the nose, eyes, hair, and mouth are not independent, so that changing one part affects other parts. It was impossible to express a rich and attractive expression.

【0011】加えて、CD−ROMに記録されたゲーム
のアプリケーションフソトをビデオゲーム機本体に取り
込む場合に、例えば、CD−ROM上に音声ファイルが
1万個もある場合、そられファイルを1つのファイルに
結合するとき、ファイルの先頭セクタ番号の情報は最低
でも1ファイル当り4バイトは必要であるので、約40
キロバイトものメモリーを使うことになり、多大な情報
がメモリー上に占めてしまう欠点があった。
In addition, when the application software of the game recorded on the CD-ROM is loaded into the main body of the video game machine, for example, when there are 10,000 audio files on the CD-ROM, the file is stored in one file. When combining with a file, the information on the first sector number of the file needs at least 4 bytes per file, so
There was a drawback that a lot of information was occupied in the memory because it used kilobytes of memory.

【0012】一方、ゲーム機では、ゲームをする者を特
定したり、あるいは、ゲームの進行等に伴ってパスワー
ドを入力する必要があるが、このパスワードは本来デー
タを暗号化したものであるため、本質的に人間が元来使
用している言語とは異なっている。このため、このパス
ワードは記憶しづらく、遊戯者が誤って入力してしまう
ことが多々ある。したがって、画面に表示された文字
と、入力すべき文字とを1文字づつ確認する必要があ
り、現実には、遊戯者は、表示装置に表示されている文
字と、パスワードを記載した紙面とを視線を変更して確
認作業を行っている。かかる確認作業は、視線を紙面と
画面との間で変更することになり、この作業は遊戯者に
とって大変な負担になるという欠点があった。
On the other hand, in a game machine, it is necessary to specify a player who plays the game, or to input a password in accordance with the progress of the game. However, since this password originally encrypts data, It is essentially different from the language that humans originally use. For this reason, this password is difficult to memorize, and the player often erroneously inputs the password. Therefore, it is necessary to check the characters displayed on the screen and the characters to be input one by one, and in reality, the player must change the characters displayed on the display device and the paper on which the password is described. I am changing my line of sight and doing confirmation work. Such a check operation involves changing the line of sight between the paper surface and the screen, and this operation has a drawback that the player has a great burden.

【0013】この発明はこのような問題点を解決するた
めになされたもので、音声の発生内容に変化を持たせる
とともに、キャラクタの作成作業量を減らし、顔面の多
彩な表情の表現を可能にしてゲームのマンネリ化を防
ぎ、プレーヤーを飽きさせないようにしたデータ処理装
置及びその処理方法並びに媒体を提供することを目的と
している。
SUMMARY OF THE INVENTION The present invention has been made to solve such a problem. The present invention provides a variety of voice generation contents, reduces the amount of character creation work, and enables expression of various facial expressions. It is an object of the present invention to provide a data processing device, a processing method thereof, and a medium which prevent a game from becoming rude and prevent a player from getting bored.

【0014】この発明は、CD−ROMから多量のデー
タを読み出す際に、読み出し処理を行うのに本体のメモ
リーに占める容量を少なくしたデータ処理装置及びその
処理方法並びに媒体を提供することを目的とする。
SUMMARY OF THE INVENTION An object of the present invention is to provide a data processing apparatus, a processing method thereof, and a medium in which when reading a large amount of data from a CD-ROM, the capacity occupied in the memory of the main body for performing the read processing is reduced. I do.

【0015】この発明は、遊戯者に入力した内容の確認
作業の負担を軽減したデータ処理装置を提供することを
目的とする。
[0015] It is an object of the present invention to provide a data processing apparatus in which the burden of checking the contents input to a player is reduced.

【0016】[0016]

【課題を解決するための手段】前記目的を達成するため
の本発明の第1は、基準ポリゴンを画面上に配置する位
置情報を基に複数のポリゴンを所定の位置に配置し、各
ポリゴンに所定のテクスチャーをマッピングする画像デ
ータ処理装置において、前記キャラクタは、前記基準ポ
リゴンと、これに対する関節部分を持たない部品ポリゴ
ンとを備えてなり、画面上の基準ポリゴンの配置情報を
基に基準ポリゴンを計算し、かつ基準ポリゴンに対して
前記部品ポリゴンを計算する処理部を備えることを特徴
とする。
A first aspect of the present invention for achieving the above object is to arrange a plurality of polygons at predetermined positions based on positional information for arranging a reference polygon on a screen, In an image data processing device for mapping a predetermined texture, the character includes the reference polygon and a component polygon having no joint portion with respect to the reference polygon, and the reference polygon is determined based on the arrangement information of the reference polygon on the screen. It is characterized by comprising a processing unit for calculating and calculating the component polygon with respect to a reference polygon.

【0017】さらに、本発明の第2は、基準ポリゴンを
画面上に配置する位置情報を基に複数のポリゴンを所定
の位置に配置し、各ポリゴンに所定のテクスチャーを貼
り付けてキャラクタを作成する画像データ処理装置にお
いて、キャラクタの表情を構成するパーツを、基準点か
らの位置データを備えた複数のポリゴンから構成し、表
情を変化させるときには、表情の変化に対応したパーツ
のみのポリゴンに対して所定の画像処理を実行する処理
部を備えることを特徴とする。
Further, according to a second aspect of the present invention, a character is created by arranging a plurality of polygons at predetermined positions based on positional information for arranging a reference polygon on a screen and pasting a predetermined texture to each polygon. In the image data processing device, a part constituting a character's facial expression is composed of a plurality of polygons provided with position data from a reference point, and when the facial expression is changed, a polygon corresponding to only the part corresponding to the facial expression change is used. It is characterized by including a processing unit for executing a predetermined image processing.

【0018】ここで、前記処理部は、該当するポリゴン
を独立して回転、拡大、縮小あるいは移動させる画像処
理を行うことができる。
Here, the processing section can perform image processing for independently rotating, enlarging, reducing or moving the corresponding polygon.

【0019】さらに、本発明は、コンピュータを、請求
項に記載の処理部及びデータ装置として機能させるため
のプログラムを記録した媒体であることを特徴とする。
Further, the present invention is characterized in that it is a medium recording a program for causing a computer to function as the processing unit and the data device described in the claims.

【0020】媒体には、例えば、フロッピーディスク、
ハードディスク、磁気テープ、光磁気ディスク、CD−
ROM、DVD、ROMカートリッジ、バッテリバック
アップ付きのRAMメモリカートリッジ、フラッシュメ
モリカートリッジ、不揮発性RAMカード等を含む。
The medium includes, for example, a floppy disk,
Hard disk, magnetic tape, magneto-optical disk, CD-
ROM, DVD, ROM cartridge, RAM memory cartridge with battery backup, flash memory cartridge, nonvolatile RAM card, etc.

【0021】また、電話回線等の有線通信媒体、マイク
ロ波回線等の無線通信媒体等通信媒体を含む。インター
ネットもここでいう通信媒体に含まれる。
The communication medium also includes a communication medium such as a wired communication medium such as a telephone line and a wireless communication medium such as a microwave line. The Internet is also included in the communication medium mentioned here.

【0022】媒体とは、何らかの物理的手段により情報
(主にデジタルデータ、プログラム)が記録されている
ものであって、コンピュータ、専用プロセッサ等の処理
装置に所定の機能を行わせるものができるものである。
要するに、何らかの手段であっても、コンピュータにプ
ログラムをダウンロードし、所定の機能を実行させるも
のであればよい。
A medium is a medium in which information (mainly digital data and programs) is recorded by some physical means, and is a medium capable of causing a processing device such as a computer or a dedicated processor to perform a predetermined function. It is.
In short, any means may be used as long as it downloads a program to a computer and executes a predetermined function.

【0023】[0023]

【発明の実施の形態】〔本発明の概要〕本発明は、基本
的には、野球チームのオーナーになってチームを育てる
ゲームについてのものであり、このゲームに進行中にお
いて画像データ、音響データ及びCD−ROMから再生
等に関する一連の処理について以下実施の形態に別けて
説明する。まず、このゲームにおいて、キャラクタを作
成する画像処理については同第1の実施の形態として説
明し、キャラクタの顔面の表情の作成処理については同
第2の実施の形態として説明し、CD−ROMからデー
タを再生する処理については同第3の実施の形態として
説明し、また、音響データの再生処理については同第4
の実施の形態として説明することにする。
DESCRIPTION OF THE PREFERRED EMBODIMENTS [Overview of the Present Invention] The present invention basically relates to a game in which the owner of a baseball team becomes an owner and fosters the team. A series of processes relating to reproduction from a CD-ROM and the like will be described separately for the following embodiments. First, in this game, image processing for creating a character will be described as the first embodiment, and processing for creating a facial expression of the character will be described as the second embodiment. The process of reproducing data will be described as the third embodiment, and the process of reproducing audio data will be described in the fourth embodiment.
An embodiment will be described.

【0024】<本発明の第1の実施の形態>まず、本発
明の第1の実施の形態について画像データであるキャラ
クタの作成処理を実行する装置の構成から説明する。
<First Embodiment of the Present Invention> First, a first embodiment of the present invention will be described from the configuration of an apparatus for executing a process of creating a character as image data.

【0025】[装置の構成]図1は本発明の第1の実施
の形態に係るデータ処理装置を適用したビデオゲーム機
の外観図である。この図において、ビデオゲーム機本体
1は略箱型をなし、その内部にはゲーム処理用の基板等
が設けられている。また、ビデオゲーム機本体1の前面
には、2つのコネクタ2aが設けられており、これらの
コネクタ2aにはゲーム操作用のPAD2bがケーブル
2cを介して接続されている。2人の遊戯者が野球ゲー
ム等を楽しむ場合には、2つのPAD2bが使用され
る。
[Apparatus Configuration] FIG. 1 is an external view of a video game machine to which a data processing apparatus according to a first embodiment of the present invention is applied. In this figure, a video game machine main body 1 has a substantially box shape, and a substrate for game processing and the like are provided therein. In addition, two connectors 2a are provided on the front surface of the video game machine body 1, and a PAD 2b for game operation is connected to these connectors 2a via a cable 2c. When two players enjoy a baseball game or the like, two PADs 2b are used.

【0026】ビデオゲーム機本体1の上部には、ROM
カートリッジ接続用のカートリッジI/F1a、CD−
ROM読み取り用のCD−ROMドライブ1bが設けら
れている。ビデオゲーム機本体1の背面には、図示され
ていないが、ビデオ出力端子およびオーディオ出力端子
が設けられている。このビデオ出力端子はケーブル4a
を介してTV受像機5のビデオ入力端子に接続されると
ともに、オーディオ出力端子はケーブル4bを介してT
V受像機5のオーディオ入力端子に接続されている。こ
のようなビデオゲーム機において、ユーザがPAD2b
を操作することにより、TV受像機5に映し出された画
面を見ながらゲームを行うことができる。
In the upper part of the video game machine main body 1, a ROM
Cartridge I / F1a for connecting cartridge, CD-
A CD-ROM drive 1b for reading ROM is provided. Although not shown, a video output terminal and an audio output terminal are provided on the rear surface of the video game machine main body 1. This video output terminal is cable 4a
Is connected to the video input terminal of the TV receiver 5 via the
It is connected to the audio input terminal of the V receiver 5. In such a video game machine, if the user
By operating the, the user can play the game while watching the screen displayed on the TV receiver 5.

【0027】図2は本実施の形態に係るデータ処理装置
をTVゲーム機に適用した場合のゲーム機の概要を表す
ブロック図である。この画像処理装置は、装置全体の制
御を行うCPUブロック10、ゲーム画面の表示制御を
行うビデオブロック11、効果音等を生成するサウンド
ブロック12、CD−ROMの読み出しを行うサブシス
テム13等により構成されている。 CPUブロック1
0は、SCU(SystemControl Unit )100、メイン
CPU101、RAM102、ROM103、カートリ
ッジI/F1a、サブCPU104、CPUバス105
等により構成されている。
FIG. 2 is a block diagram showing an outline of a game machine when the data processing apparatus according to the present embodiment is applied to a TV game machine. This image processing apparatus includes a CPU block 10 for controlling the entire apparatus, a video block 11 for controlling display of a game screen, a sound block 12 for generating sound effects, a subsystem 13 for reading a CD-ROM, and the like. Have been. CPU block 1
0 denotes an SCU (System Control Unit) 100, a main CPU 101, a RAM 102, a ROM 103, a cartridge I / F 1a, a sub CPU 104, and a CPU bus 105.
And the like.

【0028】メインCPU101は、装置全体の制御を
行うものである。このメインCPU101は、内部にD
SP(Digital Signal Processor)と同様の演算機能を
備え、アプリケーションソフトを高速に実行可能であ
る。RAM102は、メインCPU101のワークエリ
アとして使用されるものである。ROM103には、初
期化処理用のイニシャルプログラム等が書き込まれてい
る。SCU100は、バス105、106、107を制
御することにより、メインCPU101、VDP12
0、130、DSP140、CPU141等の間におけ
るデータ入出力を円滑に行うものである。
The main CPU 101 controls the entire apparatus. The main CPU 101 has a D
It has the same calculation function as an SP (Digital Signal Processor) and can execute application software at high speed. The RAM 102 is used as a work area of the main CPU 101. In the ROM 103, an initial program for initialization processing and the like are written. The SCU 100 controls the buses 105, 106, and 107 so that the main CPU 101, the VDP 12
0, 130, the DSP 140, the CPU 141, and the like.

【0029】また、SCU100は、内部にDMAコン
トローラを備え、ゲーム中のスプライトデータをビデオ
ブロック11内のVRAMに転送することができる。こ
れにより、ゲーム等のアプリケーションソフトを高速に
実行することが可能である。カートリッジI/F1a
は、ROMカートリッジの形態で供給されるアプリケー
ションソフトを入力するためのものである。
The SCU 100 has a DMA controller inside, and can transfer sprite data during a game to the VRAM in the video block 11. This makes it possible to execute application software such as a game at high speed. Cartridge I / F1a
Is for inputting application software supplied in the form of a ROM cartridge.

【0030】サブCPU104は、SMPC(System M
anager & Peripheral Control )と呼ばれるもので、メ
インCPU101からの要求に応じて、PAD2bから
ペリフェラルデータをコネクタ2aを介して収集する機
能等を備えている。メインCPU101はサブCPU1
04から受け取ったペリフェラルデータに基づき、例え
ばゲーム画面中の野手を移動させる等の処理を行うもの
である。コネクタ2aには、PAD、ジョイスティッ
ク、キーボード等のうちの任意のペリフェラルが接続可
能である。サブCPU104は、コネクタ2a(本体側
端子)に接続されたペリフェラルの種類を自動的に認識
し、ペリフェラルの種類に応じた通信方式に従いペリフ
ェラルデータ等を収集する機能を備えている。
The sub CPU 104 is an SMPC (System M
This is called an anager & peripheral control, and has a function of collecting peripheral data from the PAD 2b via the connector 2a in response to a request from the main CPU 101. Main CPU 101 is sub CPU 1
Based on the peripheral data received from the device 04, processing such as moving a fielder in the game screen is performed. An arbitrary peripheral among a PAD, a joystick, a keyboard and the like can be connected to the connector 2a. The sub CPU 104 has a function of automatically recognizing the type of peripheral connected to the connector 2a (main body side terminal) and collecting peripheral data and the like according to a communication method according to the type of peripheral.

【0031】ビデオブロック11は、ビデオゲームのポ
リゴンデータから成るキャラクタ等の描画を行うVDP
(Video Display Processor )120、背景画面の描
画、ポリゴン画像データおよび背景画像の合成、クリッ
ピング処理等を行うVDP130とを備えている。VD
P120はVRAM121およびフレームバッファ12
2、123に接続されている。ビデオゲーム機のキャラ
クタを表すポリゴンの描画データはメインCPU101
からSCU100を介してVDP120に送られ、VR
AM121に書き込まれる。
The video block 11 is a VDP for drawing a character or the like composed of polygon data of a video game.
(Video Display Processor) 120, and a VDP 130 that performs drawing of a background screen, synthesis of polygon image data and a background image, clipping processing, and the like. VD
P120 is a VRAM 121 and a frame buffer 12
2, 123. The rendering data of the polygons representing the characters of the video game machine is stored in the main CPU 101.
Is sent to the VDP 120 via the SCU 100 from the
AM 121 is written.

【0032】VRAM121に書き込まれた描画データ
は、例えば、16または8ビット/pixel の形式で描画
用のフレームバッファ122または123に描画され
る。描画されたフレームバッファ122または123の
データはVDP130に送られる。描画を制御する情報
は、メインCPU101からSCU100を介してVD
P120に与えられる。そして、VDP120は、この
指示に従い描画処理を実行する。
The drawing data written in the VRAM 121 is drawn in the drawing frame buffer 122 or 123 in the format of 16 or 8 bits / pixel, for example. The drawn data of the frame buffer 122 or 123 is sent to the VDP 130. Information for controlling drawing is transmitted from the main CPU 101 via the SCU 100 to the VD
P120. Then, the VDP 120 executes the drawing process according to the instruction.

【0033】VDP130はVRAM131に接続さ
れ、VDP130から出力された画像データはメモリ1
32を介してエンコーダ160に出力される構成となっ
ている。エンコーダ160は、この画像データに同期信
号等を付加することにより映像信号を生成し、TV受像
機5に出力する。これにより、TV受像機5に野球ゲー
ムの画面が表示される。
The VDP 130 is connected to the VRAM 131, and the image data output from the VDP 130
It is configured to be output to the encoder 160 via the P. 32. The encoder 160 generates a video signal by adding a synchronization signal or the like to the image data, and outputs the video signal to the TV receiver 5. Thereby, the screen of the baseball game is displayed on the TV receiver 5.

【0034】サウンドブロック12は、PCM方式ある
いはFM方式に従い音声合成を行うDSP140と、こ
のDSP140の制御等を行うCPU141とにより構
成されている。DSP140により生成された音声デー
タは、D/Aコンバータ170により2チャンネルの信
号に変換された後にスピーカ5bに出力される。
The sound block 12 includes a DSP 140 that performs voice synthesis according to the PCM system or the FM system, and a CPU 141 that controls the DSP 140 and the like. The audio data generated by the DSP 140 is converted to a two-channel signal by the D / A converter 170 and then output to the speaker 5b.

【0035】サブシステム13は、CD−ROMドライ
ブ1b、CD−I/F180、CPU181、MPEG
−AUDIO182、MPEG−VIDEO183等に
より構成されている。このサブシステム13は、CD−
ROMの形態で供給されるアプリケーションソフトの読
み込み、動画の再生等を行う機能を備えている。CD−
ROMドライブ1bはCD−ROMからデータを読み取
るものである。CPU181は、CD−ROMドライブ
1bの制御、読み取られたデータの誤り訂正等の処理を
行うものである。
The subsystem 13 includes a CD-ROM drive 1b, a CD-I / F 180, a CPU 181, an MPEG
-AUDIO 182, MPEG-VIDEO 183 and the like. This subsystem 13 includes a CD-
It has a function of reading application software supplied in the form of a ROM, reproducing a moving image, and the like. CD-
The ROM drive 1b reads data from a CD-ROM. The CPU 181 controls the CD-ROM drive 1b, and performs processing such as error correction of the read data.

【0036】CD−ROMから読み取られたデータは、
CD−I/F180、バス106、SCU100を介し
てメインCPU101に供給され、アプリケーションソ
フトとして利用される。また、MPEG AUDIO1
82、MPEG VIDEO183は、MPEG規格
(Motion Picture Expert Groug )により圧縮されたデ
ータを復元するデバイスである。これらのMPEG A
UDIO182、MPEG VIDEO183を用いて
CD−ROMに書き込まれたMPEG圧縮データの復元
を行うことにより、動画の再生を行うことが可能とな
る。
The data read from the CD-ROM is
The data is supplied to the main CPU 101 via the CD-I / F 180, the bus 106, and the SCU 100, and is used as application software. Also, MPEG AUDIO1
82, MPEG VIDEO 183 is a device for restoring data compressed according to the MPEG standard (Motion Picture Expert Groug). These MPEG A
By using the UDIO 182 and the MPEG VIDEO 183 to restore the MPEG compressed data written on the CD-ROM, it is possible to reproduce a moving image.

【0037】〔キャラクタ作成処理について〕図3は同
第1の実施の形態で使用するキャラクタに関するもので
あり、図3(a)がキャラクタの構成要素を、図3
(b)がTV受像機等に表示されるキャラクタの例をそ
れぞれ示したものである。 この図に示すキャラクタデ
ータ200は、画面上で当該キャラクタが占める位置を
決める中心CPと、この中心CPから第1計算処理で得
られる胴体ポリゴン(基準ポリゴン)201と、この胴
体ポリゴン201を中心として第2計算処理をし、この
胴体ポリゴン201の上部に頭部ポリゴン202と、前
記胴体ポリゴン201の上側左右の各所定の位置に手首
ポリゴン203R,203Lと、前記胴体ポリゴン20
1の下方左右の各所定の位置に足首ポリゴン204R,
204Lとを得たものである。ここで、胴体ポリゴン以
外のポリゴンが部品ポリゴンに相当する。胴体ポリゴン
と部品ポリゴンとの間には、関節を形成するためのポリ
ゴン(上腕、下腕、大腿、下肢等)が存在しない。
[Character Creation Processing] FIG. 3 relates to a character used in the first embodiment, and FIG.
(B) shows an example of a character displayed on a TV receiver or the like. Character data 200 shown in this figure includes a center CP that determines a position occupied by the character on the screen, a body polygon (reference polygon) 201 obtained from the center CP in a first calculation process, and a center of the body polygon 201. A second calculation process is performed. A head polygon 202 is placed above the body polygon 201, wrist polygons 203R and 203L are placed at predetermined positions on the left and right sides of the body polygon 201, and the body polygon 20 is placed.
The ankle polygons 204R,
204L. Here, polygons other than the body polygon correspond to component polygons. There is no polygon (upper arm, lower arm, thigh, lower limb, etc.) for forming a joint between the body polygon and the component polygon.

【0038】これらポリゴン201〜204R,204
Lを所定の計算をして所定の位置に配置し、かつ配置さ
れたポリゴン201〜204R,204Lに対してそれ
ぞれテクスチャーを張り付けることにより所定の表示デ
ータとし、図3(b)に示すようなTV受像機5に表示
されるキャラクタ200′となる。
These polygons 201 to 204R, 204
L is calculated and arranged at a predetermined position, and a texture is attached to each of the arranged polygons 201 to 204R and 204L to obtain predetermined display data, as shown in FIG. The character 200 ′ is displayed on the TV receiver 5.

【0039】図4は、同第1の実施の形態におけるキャ
ラクタを作成するために必要なモーションデータテーブ
ルの概要を示す図である。この図に示すモーションデー
タテーブル210において、頭部ポリゴン202は胴体
ポリゴン201からの距離データ202αとその角度デ
ータ202βとからなり、手首ポリゴン203R,20
3Lは胴体ポリゴン201からの距離データ203R
α,203Lαとその角度ポリゴン203Rβ,203
Lβとからなり、足首ポリゴン204R,204Lは胴
体ポリゴン201からの距離データ204Rα,204
Lαとその角度データ204Rβ,204Lβとから構
成されている。 図5は、同第1の実施の形態の概要を
説明するための図である。この図では、横軸に時間経過
(ゲームの流れ)をとり、時間の経過に応じたシーン、
モーションデータテーブル及びキャラクタの作成処理等
について説明するためのものである。図6は、同第1の
実施の形態の動作を説明するためのフローチャートであ
る。
FIG. 4 is a diagram showing an outline of a motion data table necessary for creating a character according to the first embodiment. In the motion data table 210 shown in this figure, the head polygon 202 is composed of distance data 202α from the body polygon 201 and its angle data 202β.
3L is distance data 203R from the body polygon 201
α, 203Lα and its angular polygons 203Rβ, 203
Lβ, and the ankle polygons 204R, 204L are distance data 204Rα, 204R from the body polygon 201.
Lα and its angle data 204Rβ and 204Lβ. FIG. 5 is a diagram for explaining the outline of the first embodiment. In this figure, the horizontal axis indicates time lapse (game flow), and scenes corresponding to the lapse of time,
This is for describing a motion data table, character creation processing, and the like. FIG. 6 is a flowchart for explaining the operation of the first embodiment.

【0040】まず、ゲームを開始して時間が経過してゆ
き、あるシーンに達したものとし、かつPAD2bから
の指令もサブCPU104を介して入力されてきたもの
とする。すると、メインCPU101は、ゲームの進行
に伴って、時刻t1 において、サブシステム13等から
第n番目のシーンデータ210を取込む(図5のステッ
プ(S)1,図6のステップ(S)11)。
First, it is assumed that the time has elapsed since the start of the game, a certain scene has been reached, and a command from the PAD 2b has also been input via the sub CPU 104. Then, as the game progresses, the main CPU 101 fetches the n-th scene data 210 from the subsystem 13 or the like at time t1 (step (S) in FIG. 5, step (S) 11 in FIG. 6). ).

【0041】また、メインCPU101は、PAD2b
からの指令等と当該シーンデータ210とを基に、トリ
ガtg1において、キャラクタデータ200が画面上で位
置する位置データP1とモーションデータ220をVD
P120を介してVRAM121に格納する(図5のS
2,図6のS12)。
The main CPU 101 is provided with a PAD 2b
And the scene data 210, and at the trigger tg1, the position data P1 where the character data 200 is located on the screen and the motion data 220
It is stored in the VRAM 121 via P120 (S in FIG. 5).
2, S12 in FIG. 6).

【0042】そして、VDP120は、VRAM121
に格納されたキャラクタデータ200の画面上の位置デ
ータP1を基に胴体ポリゴン201の中心位置CPを決
め(図3(a)参照)、しかる後に、モーションデータ
220を基に、図3(a)に示すように、まず第1の処
理 1として胴体ポリゴン201の中心位置から胴体ポリ
ゴン201を計算し、ついで第2の処理 2として、頭部
ポリゴン202、手首ポリゴン203R,203L及び
足首ポリゴン204R,204Lを計算し、フレームバ
ッファ122あるいはフレームバッファ123に格納す
る(図5のS3、図6のS13)。
The VDP 120 is a VRAM 121
The center position CP of the body polygon 201 is determined based on the position data P1 on the screen of the character data 200 stored in the character data 200 (see FIG. 3A), and thereafter, based on the motion data 220, FIG. As shown in (1), first, a torso polygon 201 is calculated from the center position of the torso polygon 201 as a first process 1, and then, as a second process 2, a head polygon 202, wrist polygons 203R, 203L, and ankle polygons 204R, 204L Is calculated and stored in the frame buffer 122 or the frame buffer 123 (S3 in FIG. 5, S13 in FIG. 6).

【0043】再び、最初のシーンデータの取込み処理か
否かを判定し(S14)、ここでは、既に、第n番目の
シーンデータ210は取り込んであるので(S14;N
O)、メインCPU101はサブシステム13からのシ
ーンデータの取込みは行わなず、ステップ12の処理に
移行する。
It is determined again whether or not it is the first scene data fetching process (S14). Here, since the n-th scene data 210 has already been fetched (S14; N)
O), the main CPU 101 does not take in the scene data from the subsystem 13 and shifts to the processing of step 12.

【0044】ついで、メインCPU101は、PAD2
bからの指令等と第n番目のシーン210とを基に、ト
リガtg2において、キャラクタデータ200が画面上で
位置する位置データP2とモーションデータ221をV
DP120を介してVRAM121に格納する(図5の
S4,図6のS12)。
Next, the main CPU 101 sets the PAD2
Based on the command from b and the n-th scene 210, the position data P2 and the motion data 221 where the character data 200 are located on the screen are
The data is stored in the VRAM 121 via the DP 120 (S4 in FIG. 5, S12 in FIG. 6).

【0045】そして、VDP120は、VRAM121
に格納されたキャラクタデータ200の画面上の位置デ
ータP2を基に胴体ポリゴン201の中心位置CPを決
め(図3(a)参照)、しかる後に、モーションデータ
221を基に、図3(a)に示すように、まず第1の処
理 1として胴体ポリゴン201の中心位置CPから胴体
ポリゴン201を計算し、ついで第2の処理 2として、
頭部ポリゴン202、手首ポリゴン203R,203L
及び足首ポリゴン204R,204Lを計算し、フレー
ムバッファ123あるいはフレームバッファ122に格
納する(図5のS5、図6のS13)。
The VDP 120 is connected to the VRAM 121
The center position CP of the torso polygon 201 is determined based on the position data P2 on the screen of the character data 200 stored in the character data 200 (see FIG. 3A), and thereafter, based on the motion data 221, FIG. As shown in (1), first, a torso polygon 201 is calculated from the center position CP of the torso polygon 201 as a first process 1, and then as a second process 2,
Head polygon 202, wrist polygon 203R, 203L
And the ankle polygons 204R and 204L are calculated and stored in the frame buffer 123 or the frame buffer 122 (S5 in FIG. 5, S13 in FIG. 6).

【0046】さらに、メインCPU101は、ゲームの
進行に伴って(S14;YES−S15;NO)、時刻
t2 において、サブシステム13等から第n+1番目の
シーンデータ211を取込む(図5のS7,図6のS1
1)。
Further, as the game progresses (S14; YES-S15; NO), the main CPU 101 fetches the (n + 1) th scene data 211 from the subsystem 13 or the like at time t2 (S7, FIG. 5). S1 in FIG.
1).

【0047】さらにまた、メインCPU101は、PA
D2bからの指令等と当該シーンデータ211とを基
に、トリガtg3において、キャラクタデータ200が画
面上で位置する位置データP3とモーションデータ22
2をVDP120を介してVRAM121に格納する
(図5のS7,図6のS12)。
Further, the main CPU 101
At the trigger tg3, the position data P3 where the character data 200 is located on the screen and the motion data 22
2 is stored in the VRAM 121 via the VDP 120 (S7 in FIG. 5, S12 in FIG. 6).

【0048】そして、VDP120は、VRAM121
に格納されたキャラクタデータ200の画面上の位置デ
ータP3を基に胴体ポリゴン201の中心位置CPを決
め(図3(a)参照)、しかる後に、モーションデータ
220を基にいて、図3(a)に示すように、まず第1
の処理 1として胴体ポリゴン201の中心位置CPから
胴体ポリゴン201を計算し、ついで第2の処理 2とし
て、頭部ポリゴン202、手首ポリゴン203R,20
3L及び足首ポリゴン204R,204Lを計算し、フ
レームバッファ122あるいはフレームバッファ123
に格納する(図5のS3、図6のS13)。
The VDP 120 is a VRAM 121
The center position CP of the torso polygon 201 is determined based on the position data P3 on the screen of the character data 200 stored in the character data 200 (see FIG. 3A), and thereafter, based on the motion data 220, FIG. ), First the first
As a first process, the torso polygon 201 is calculated from the center position CP of the torso polygon 201, and then, as a second process 2, a head polygon 202 and a wrist polygon 203R, 20
3L and the ankle polygons 204R and 204L are calculated, and the frame buffer 122 or the frame buffer 123 is calculated.
(S3 in FIG. 5, S13 in FIG. 6).

【0049】このように時間の経過とともに、トリガt
gl,tg2,tg3,…毎にVDP120で処理されること
により、キャラクタデータ200の各胴体ポリゴン20
1、頭部ポリゴン202、手首ポリゴン203R,20
3L及び足首ポリゴン204R,204Lの各ポリゴン
が得られることになる。そして、VDP120は、前記
各ポリゴンに、当該ポリゴンに応じた各テクスチャーを
張り付けることにより、図3(b)に示すように、キャ
ラクタ200′が形成されることになる。
As described above, as time elapses, the trigger t
.. are processed by the VDP 120 for each gl, tg2, tg3,.
1, head polygon 202, wrist polygon 203R, 20
3L and ankle polygons 204R and 204L are obtained. Then, the VDP 120 forms a character 200 'by pasting each texture corresponding to the polygon on the polygon, as shown in FIG. 3B.

【0050】このように時間の経過とともに、トリガt
gl,tg2,tg3,tg4,tg5,…毎にキャラクタデータ
200の各胴体ポリゴン201、頭部ポリゴン202、
手首ポリゴン203R,203L及び足首ポリゴン20
4R,204Lの各ポリゴンが計算され、しかも各ポリ
ゴンにテクスチャーが張り付けられて完成したキャラク
タはフレームバッファ122、123に格納された後
に、VDP130を介してVRAM131に格納され
る。
As the time elapses, the trigger t
Each of the body polygon 201, the head polygon 202 of the character data 200, gl, tg2, tg3, tg4, tg5,.
Wrist polygons 203R, 203L and ankle polygon 20
Each of the 4R and 204L polygons is calculated, and the completed character with texture attached to each polygon is stored in the frame buffers 122 and 123 and then stored in the VRAM 131 via the VDP 130.

【0051】図7は、同第1の実施の形態の動作により
キャラクタの変化の一例を示す説明図であり、図7
(a)〜図7(e)は各トリガにおけるキャラクタデー
タ200a〜200eを示したものである。 この図に
おいて、前記図トリガtgl,tg2,tg3,tg4,tg5,
…毎に得られたキャラクタデータ200a,200b,
200c,200d,200e,…は、図7(a),同
図(b)て,同図(c),同図(d),同図(e),…
に示すようなモーションとなる。
FIG. 7 is an explanatory diagram showing an example of the change of the character by the operation of the first embodiment.
FIGS. 7A to 7E show character data 200a to 200e in each trigger. In this figure, the figure triggers tgl, tg2, tg3, tg4, tg5,
… Character data 200a, 200b,
200c, 200d, 200e,... Are shown in FIGS. 7 (a), (b), (c), (d), (e),.
It becomes the motion as shown in.

【0052】すなわち、図7(a)では、キャラクタデ
ータ200aは正面を向き、両手首ポリゴン203R
a,203Laを胴体ポリゴン201aの前側でくみ、
右足首ポリゴン204Raを正面に向け、左足首ポリゴ
ン204Laを右側に開いた状態となっている。
That is, in FIG. 7A, the character data 200a is directed to the front and the two-hand wrist polygon 203R
a, 203La is formed in front of the body polygon 201a,
The right ankle polygon 204Ra faces the front and the left ankle polygon 204La is opened to the right.

【0053】図7(b)では、キャラクタデータ200
bは正面を向き、両手首ポリゴン203Rb,203L
bを胴体ポリゴン201bの右上側に配置し、右足首ポ
リゴン204Rbを胴体ポリゴン201bの右側上に持
ち上げ、左足首ポリゴン204Lbを右側に開いた状態
となっている。
In FIG. 7B, character data 200
b indicates the front, both wrist polygons 203Rb, 203L
b is arranged on the upper right side of the torso polygon 201b, the right ankle polygon 204Rb is lifted to the right of the torso polygon 201b, and the left ankle polygon 204Lb is opened to the right.

【0054】図7(c)では、キャラクタデータ200
cは正面を向きつつ、胴体ポリゴン201cを下方にず
らし、右足首ポリゴン204Rbを胴体ポリゴン201
bの中央部の下方にずらし、左足首ポリゴン204Lb
を右側に開いた状態となっている。
In FIG. 7C, the character data 200
c shifts the torso polygon 201c downward while facing the front, and shifts the right ankle polygon 204Rb to the torso polygon 201c.
b, shift it down below the center of the left ankle polygon 204Lb.
Is open to the right.

【0055】図7(d)では、キャラクタデータ200
dは左面を向きつつ、胴体ポリゴン201dを左側に回
転させて状態にし、頭部ポリゴン202も左側に向か
せ、しかも右手首ポリゴン203Rdを頭部ポリゴン2
02dの後側面に配置し、右足首ポリゴン204Rdを
胴体ポリゴン201dの前部の下方にずらし、左足首ポ
リゴン204Ldを少し持ち上げた状態となっている。
In FIG. 7D, character data 200
d, the body polygon 201d is turned to the left while turning to the left, the head polygon 202 is also turned to the left, and the right wrist polygon 203Rd is turned to the head polygon 2
02d, the right ankle polygon 204Rd is shifted below the front of the torso polygon 201d, and the left ankle polygon 204Ld is slightly lifted.

【0056】図7(e)では、キャラクタデータ200
eは左面に完全に向き、胴体ポリゴン201cを回転を
完了させた状態にし、頭部ポリゴン202eも左側に向
かせ、右手首ポリゴン203Reを胴体ポリゴン201
eの前方に配置し、右足首ポリゴン204Rbを胴体ポ
リゴン201eの前部の下方に左側に向けて位置させ
て、左足首ポリゴン204Lbを胴体ポリゴン201e
の後方で少し持ち上がった状態となっている。
In FIG. 7E, the character data 200
e completely faces the left side, the body polygon 201c is completely rotated, the head polygon 202e is also turned to the left side, and the right wrist polygon 203Re is changed to the body polygon 201c.
e, the right ankle polygon 204Rb is positioned to the left below the front of the torso polygon 201e, and the left ankle polygon 204Lb is placed in the torso polygon 201e.
Slightly lifted up behind.

【0057】上述した図7(a)から図7(e)におけ
るキャラクタデータ200a〜200eの形体が変化す
るフォームは野球ゲームにおける投手の投球フォームを
模したものであり、これらキャラクタデータ200a,
200b,200c,200d,200e,…が所定の
表示タイミングで連続してTV受像機5に与えられる
と、TV受像機5の表示面において投手が投球している
モーションとして見えることになる。
The form in which the shape of the character data 200a to 200e in FIGS. 7A to 7E changes is similar to the pitching form of a pitcher in a baseball game.
When 200b, 200c, 200d, 200e,... Are continuously given to the TV receiver 5 at a predetermined display timing, the motion of the pitcher appears on the display surface of the TV receiver 5 as a pitching motion.

【0058】図8は、同第1の実施の形態における処理
と、この実施の形態を適用しない(従来の)キャラクタ
との処理との比較を説明するための図である。図8
(a)は従来のキャラクタのポリゴンの計算例を説明す
るための図であり、図8(b)は従来のキャラクタのポ
リゴンにテクスチャーを張り付けた状態の図である。図
8(c)は同第1の実施の形態における計算例を説明す
るための図である。
FIG. 8 is a diagram for explaining a comparison between the processing in the first embodiment and the processing with a (conventional) character to which this embodiment is not applied. FIG.
8A is a diagram for explaining a calculation example of a conventional character polygon, and FIG. 8B is a diagram showing a state in which a texture is attached to a conventional character polygon. FIG. 8C is a diagram for explaining a calculation example according to the first embodiment.

【0059】図8(a)に示すように、この実施の形態
を適用しないキャラクタ300は、腰ポリゴン301を
中心に配置し、腰ポリゴン301の上側に向かって、ま
ず胸ポリゴン302を配置し、この胸ポリゴン302の
上側に頭部ポリゴン303を配置するとともに、上腕ポ
リゴン304R,304L、下腕ポリゴン305R,3
05L、手首ポリゴン306R,306Lと配置し、さ
らに、腰ポリゴン301の下側に向かって、まず臀部ボ
リゴン307を配置し、さらにこの臀部ポリゴン307
に下側にももポリゴン308R,308L、すねポリゴ
ン309R,309L、足首ポリゴン310R,310
Lが配置されている。 これらポリゴン301〜ポリゴ
ン310R,310Lにテクスチャーを貼り付けた構成
したものが、図8(b)に示すキャラクタ300′とな
る。
As shown in FIG. 8A, a character 300 to which this embodiment is not applied is arranged with a waist polygon 301 at the center, and a chest polygon 302 is first arranged toward the upper side of the waist polygon 301. A head polygon 303 is arranged above the breast polygon 302, and upper arm polygons 304R and 304L and lower arm polygons 305R and 3
05L, wrist polygons 306R, 306L, and further, a hip bolgon 307 is first arranged toward the lower side of the waist polygon 301.
The polygons 308R and 308L, the shin polygons 309R and 309L, and the ankle polygons 310R and 310
L is arranged. The character 300 'shown in FIG. 8 (b) is formed by attaching texture to these polygons 301 to 310R and 310L.

【0060】そして、ゲームの進行に伴って、メインC
PU101から受け取ったデータを用いてVDP120
は、画面上の所定の位置に所定のキャラクタ300の腰
ポリゴン301の中心を配置し、この中心から腰ポリゴ
ン301の計算をし(処理 1)、その結果を基に胸ポリ
ゴン302の計算をし(処理 2)、この胸ポリゴン30
2の計算結果を基に頭部ポリゴン303及び上腕ポリゴ
ン304R,304Lを計算し(処理 3)、さらに上腕
ポリゴン304R,304Lの計算結果を基に下腕ポリ
ゴン305R,305Lを計算し(処理 4)、最後に、
下腕ポリゴン305R,305Lの計算結果を基に手首
ポリゴン306R,306Lを計算する必要がある(処
理 5)。
Then, as the game progresses, the main C
VDP 120 using the data received from PU 101
Arranges the center of the waist polygon 301 of the predetermined character 300 at a predetermined position on the screen, calculates the waist polygon 301 from this center (process 1), and calculates the breast polygon 302 based on the result. (Process 2), this chest polygon 30
The head polygon 303 and the upper arm polygons 304R and 304L are calculated based on the calculation results of Step 2 (Process 3), and the lower arm polygons 305R and 305L are calculated based on the calculation results of the upper arm polygons 304R and 304L (Process 4). ,Finally,
It is necessary to calculate the wrist polygons 306R and 306L based on the calculation results of the lower arm polygons 305R and 305L (Process 5).

【0061】同様に、VDP120は、腰ポリゴン30
1の計算が終了したところで(処理1)、まずその計算
結果を基に臀部ボリゴン307を計算し(処理 2)、さ
らに臀部ボリゴン307の計算結果を基にももポリゴン
308R,308Lを計算し(処理 3)、その計算結果
を基にすねポリゴン309R,309Lを計算し(処理
4)、最後にすねポリゴン309R,309Lの計算結
果を基に足首ポリゴン310R,310Lを計算する必
要がある(処理 5)。
In the same manner, the VDP 120
When the calculation of No. 1 is completed (Process 1), first, the buttock bolgon 307 is calculated based on the calculation result (Process 2), and the polygons 308R and 308L are further calculated based on the calculation result of the buttock bolgon 307 ( Processing 3) Based on the calculation result, shin polygons 309R and 309L are calculated (processing
4) Finally, it is necessary to calculate the ankle polygons 310R and 310L based on the calculation results of the shin polygons 309R and 309L (Process 5).

【0062】これに対して、同第1の実施の形態では、
VDP120は、胴体ポリゴン201の中心をゲームの
進行に伴って決定した後に、図8(c)に示すように、
胴体ポリゴン201を計算し(処理 1)、次いで、モー
ションデータを基に胴体ポリゴン201からの所定の位
置に配置した頭部ポリゴン202、手首ポリゴン203
R,203L及び足首ポリゴンを204R,204Lを
計算している(処理 2)。なお、モーションデータに
は、各ポリゴンの胴体データ201からの距離データだ
けでなく、各ポリゴンの角度があるため、その角度に応
じて各ポリゴンを配置している。
On the other hand, in the first embodiment,
After the VDP 120 determines the center of the torso polygon 201 as the game progresses, as shown in FIG.
A torso polygon 201 is calculated (process 1), and then a head polygon 202 and a wrist polygon 203 arranged at predetermined positions from the torso polygon 201 based on motion data.
R, 203L and ankle polygons 204R, 204L are calculated (Process 2). Since the motion data includes not only the distance data of each polygon from the body data 201 but also the angle of each polygon, each polygon is arranged according to the angle.

【0063】したがって、従来の画像処理では、各ポリ
ゴンを計算するために、処理 1〜処理 5まで必要であっ
たものが、同第1の実施の形態では、処理 1、処理 2の
みで済むことになり、大幅に計算処理ステップを減少さ
せることができる。また、キャラクタを表示するために
必要なポリゴン数を節約することが可能となる。 ま
た、同第1の実施の形態では、胴体ボリゴン201か
ら、頭部ポリゴン202、手首ポリゴン203R,20
3L、足首ポリゴン204R,204Lが離れて配置さ
れており、胴体ポリゴン201と、頭部ポリゴン20
2、手首ポリゴン203R,203L、足首ポリゴン2
04R,204Lとの間に関節が存在しないために、胴
体ポリゴン201から、頭部ポリゴン202、手首ポリ
ゴン203R,203L、足首ポリゴン204R,20
4Lが自由に延ばしたり、縮めることができる。
Accordingly, in the conventional image processing, processing 1 to processing 5 are required to calculate each polygon, but in the first embodiment, only processing 1 and processing 2 are required. And the number of calculation processing steps can be greatly reduced. Further, it is possible to reduce the number of polygons required for displaying a character. In the first embodiment, the head polygon 202 and the wrist polygons 203R, 20R
3L and the ankle polygons 204R and 204L are spaced apart from each other.
2, wrist polygons 203R, 203L, ankle polygon 2
Since there is no joint between the head polygons 204R and 204R, the head polygons 202, the wrist polygons 203R and 203L, and the ankle polygons 204R and 20
4L can be freely extended or retracted.

【0064】<本発明の第2の実施の形態>次に、本発
明の第2の実施の形態について画像データであるキャラ
クタの顔面の表情の作成処理について図9乃至図11を
参照して説明する。
<Second Embodiment of the Present Invention> Next, a second embodiment of the present invention will be described with reference to FIG. 9 to FIG. I do.

【0065】[装置の構成]同第2の実施の形態におけ
る装置は、図1及び図2に示す第1の実施の形態で使用
したビデオゲーム機を使用する。
[Structure of Apparatus] The apparatus in the second embodiment uses the video game machine used in the first embodiment shown in FIGS.

【0066】〔キャラクタ顔面の表情の作成処理につい
て〕図9は、同第2の実施の形態におけるキャラクタの
顔面の表情の作成処理について説明するための説明図で
ある。この図において、キャラクタデータ200の頭部
を形成する頭部ポリゴン250は例えば六面体から構成
されている。この頭部ポリゴン250の一面251の輪
郭内であって当該一面251の中央部には、鼻を形成す
るポリゴン252を設けている。
FIG. 9 is an explanatory diagram for describing a process of creating a facial expression of a character according to the second embodiment. In this figure, the head polygon 250 forming the head of the character data 200 is composed of, for example, a hexahedron. A polygon 252 forming a nose is provided within the outline of one surface 251 of the head polygon 250 and at the center of the one surface 251.

【0067】また、頭部ポリゴン250の一面251の
輪郭内であって当該一面251には、目を形成するポリ
ゴン253R,253Lが鼻用のポリゴン252の上部
左右に設けられており、かつ、まみ毛を形成するポリゴ
ン254R,254Lが目用のポリゴン253R,25
3Lの上部にそれぞれ配置されている。さらに、頭部ポ
リゴン250の一面251の輪郭内であって当該一面2
51には、鼻用のポリゴン252の下方に、口を形成す
るポリゴン255が配置されている。
Also, within the outline of one surface 251 of the head polygon 250, polygons 253R and 253L forming eyes are provided on the left and right of the nose polygon 252 on the one surface 251. Polygons 254R and 254L that form hair are polygons 253R and 25 for eyes.
Each of them is arranged above the 3L. Furthermore, within the outline of one surface 251 of the head polygon 250,
At 51, a polygon 255 forming a mouth is arranged below the nose polygon 252.

【0068】上記キャラクタデータ200の鼻用のポリ
ゴン252には鼻のテクスチャーパターンが、目用のポ
リゴン253LR,253Lには目のテクスチャーパタ
ーンが、まみ毛用のポリゴン254LR,254Lには
目のテクスチャーパターンが、口用のポリゴン255に
は口のテクスチャーパターンがあらかじめ張り付けられ
ている。これにより、キャラクタデータ200の頭部ポ
リゴン250の一面251には顔面としての表情が表れ
る。
The nose polygon pattern 252 of the character data 200 has a nose texture pattern, the eye polygons 253LR and 253L have an eye texture pattern, and the rim hair polygons 254LR and 254L have an eye texture pattern. However, a texture pattern of the mouth is attached to the polygon 255 for the mouth in advance. As a result, an expression as a face appears on one surface 251 of the head polygon 250 of the character data 200.

【0069】上記第2の実施の形態では、鼻、目、まみ
毛及び口用のポリゴン252〜255を用意するほか、
鼻、目、まみ毛及び口用のテクスチャーパターンが複数
用意してあり、表情の指令するデータに応じて、各ポリ
ゴン252〜255に複数のテクスチャーパターンの内
から当該パターンを選び出して張り付けるようにしてい
る。
In the second embodiment, polygons 252 to 255 for the nose, eyes, bristles and mouth are prepared.
A plurality of texture patterns for the nose, eyes, bristles and mouth are prepared, and according to the data instructed by the facial expression, the pattern is selected from the plurality of texture patterns and attached to each polygon 252 to 255. ing.

【0070】図10は、同第2の実施の形態における各
ポリゴンの説明図である。この図において、頭部ポリゴ
ン250の一面251の輪郭内に基準点251Pを設け
る。また、鼻用のポリゴン252は、前記基準点251
Pからの位置データDTaを持っている。また、目用の
ポリゴン253R,253Lは、前記基準点251Pか
らの位置データDTb,DTcを持っている。
FIG. 10 is an explanatory diagram of each polygon in the second embodiment. In this figure, a reference point 251P is provided within the outline of one surface 251 of the head polygon 250. The nose polygon 252 is located at the reference point 251.
It has the position data DTa from P. The eye polygons 253R and 253L have position data DTb and DTc from the reference point 251P.

【0071】同様に、まみ毛用のポリゴン254R,2
54Lは、前記基準点251Pからの位置データDT
d,DTeを持っている。同様に、口用のポリゴン25
5は、前記基準点251Pからの位置データDTfを持
っている。なお、この実施の形態においては、ポリゴン
253R,253L、ポリゴン254R,254L及び
ポリゴン255は、一枚のポリゴンで構成されており、
これら各ポリゴン252、ポリゴン253R,253
L、ポリゴン254R,254L及びポリゴン255
に、それぞれ該当するテクスチャーパターンを張り付け
ることにより、目、まみ毛、口を表現している。これら
顔面に関するテクスチャーパターンが張り付けられたポ
リゴン252、ポリゴン253R,253L、ポリゴン
254R,254L及びポリゴン255は、例えばVR
AM121に格納されている。
Similarly, the polygon 254R, 2
54L is the position data DT from the reference point 251P.
d, DTe. Similarly, the polygon 25 for the mouth
5 has the position data DTf from the reference point 251P. In this embodiment, the polygons 253R and 253L, the polygons 254R and 254L, and the polygon 255 are composed of a single polygon.
These polygons 252, polygons 253R, 253
L, polygons 254R, 254L and polygon 255
The eyes, the bristles, and the mouth are expressed by attaching the corresponding texture patterns to the eyes. The polygon 252, the polygons 253R and 253L, the polygons 254R and 254L, and the polygon 255 to which the texture pattern related to the face is attached are, for example, VR.
It is stored in the AM 121.

【0072】また、第2の実施の形態では、ポリゴン2
52、ポリゴン253R,253L、ポリゴン254
R,254L及びポリゴン255は、それぞれ独立して
いるため、各ポリゴン252、ポリゴン253R,25
3L、ポリゴン254R,254L及びポリゴン255
毎に、それぞれ回転、拡大、縮小、移動させることがで
きる。
In the second embodiment, the polygon 2
52, polygon 253R, 253L, polygon 254
Since R, 254L and polygon 255 are independent of each other, each polygon 252, polygon 253R, 25
3L, polygon 254R, 254L and polygon 255
Each time, they can be rotated, enlarged, reduced, and moved.

【0073】さらに、この実施の形態では、テクスチャ
ーパターンについても、ポリゴンにテクスチャーを張り
付けた状態で回転、拡大、縮小、移動させることができ
るほか、テクスチャーパターンそれ自身でも、それぞれ
回転、拡大、縮小、移動させることができる。
Further, in this embodiment, the texture pattern can be rotated, enlarged, reduced, or moved while the texture is attached to the polygon, and the texture pattern itself can be rotated, enlarged, reduced, Can be moved.

【0074】図11は、同第2の実施の形態の動作を説
明するためのフローチャートである。また、図12及び
図13は、同動作によりキャラクタの顔面の表情が変化
することを示す図である。
FIG. 11 is a flowchart for explaining the operation of the second embodiment. 12 and 13 are diagrams showing that the facial expression of the character changes due to the same operation.

【0075】この図11において、ゲームを開始して時
間が経過してゆき、ある場面に達したものとし、しか
も、PAD2bからの指令もサブCPU104を介して
入力されているものとする。すると、メインCPU10
1は、ゲームの進行に伴って、サブシステム13等から
第n番目のシーンデータを取込む(図11のステップ
(S)21)。
In FIG. 11, it is assumed that the time has elapsed since the start of the game, a certain scene has been reached, and that a command from the PAD 2b has also been input via the sub CPU 104. Then, the main CPU 10
1 fetches the n-th scene data from the subsystem 13 or the like as the game progresses (step (S) 21 in FIG. 11).

【0076】また、メインCPU101は、PAD2b
からの指令等と当該シーンデータとを基に、キャラクタ
データ200が画面上で位置する位置データ、モーショ
ンデータ及びその他表情に必要なデータをVDP120
を介してVRAM121に格納する(図11のS2
2)。
Further, the main CPU 101 sets the PAD 2b
Based on commands and the like and the scene data, the VDP 120 converts the position data, motion data, and other data necessary for the facial expression where the character data 200 is located on the screen.
Is stored in the VRAM 121 via S2 (S2 in FIG. 11).
2).

【0077】そして、VDP120は、VRAM121
に格納されたキャラクタデータ200の画面上の位置デ
ータP1を基に胴体ポリゴンの中心位置を決め、しかる
後に、モーションデータを基にいて、胴体ポリゴンの中
心位置から胴体ポリゴンを計算し、ついで頭部ポリゴ
ン、手首ポリゴン及び足首ポリゴンを計算し、フレーム
バッファ122または123に交互に格納する(図11
のS23)。
The VDP 120 is connected to the VRAM 121
The center position of the torso polygon is determined based on the position data P1 on the screen of the character data 200 stored in the character data 200. Thereafter, the torso polygon is calculated from the center position of the torso polygon based on the motion data. The polygon, the wrist polygon and the ankle polygon are calculated and stored alternately in the frame buffer 122 or 123 (FIG. 11).
S23).

【0078】このとき、VDP120は、表情に必要な
データの中から、顔面の表情に関するデータを基に、頭
部ポリゴン250の一面251に配置されている鼻用の
テクスチャーパターンが張り付けられたポリゴン25
2、目用のテクスチャーが張り付けられたポリゴン25
3R,253L、まみ毛用のテクスチャーが張り付けら
れたポリゴン254R,254L、あるいは口用のテク
スチャーが張り付けられたポリゴン255を処理して、
その処理結果をフレームバッファ122または123に
交互に格納する(図11のS24)。
At this time, the VDP 120 converts the polygon 25 to which the texture pattern for the nose, which is arranged on one surface 251 of the head polygon 250, from the data necessary for the facial expression from the data relating to the facial expression.
2. Polygon 25 with texture for eyes
3R, 253L, polygons 254R, 254L with a texture for the bristles or polygon 255 with a texture for the mouth are processed,
The processing results are alternately stored in the frame buffer 122 or 123 (S24 in FIG. 11).

【0079】このステップ24の処理において、例えば
表情に関するデータが次のような場合であった場合に
は、VDP120は下記のように画像処理する。すなわ
ち、表情に関するデータが「顔面のまみ毛を所定の角度
回転させよ」、「目を所定の倍率で拡大せよ」、「口を
拡大しつつ、前方向に移動させよ」という命令であった
ときに、VDP120は、図12に示すように、該当す
るテクスチャーパターンが張り付けられたまみ毛用のポ
リゴン254R,254Lを当該位置で回転させて両ま
み毛254R′,254L′が略V字状に表示されるよ
うに処理し、かつ該当するテクスチャーパターンが張り
付けられた目用のポリゴン253R,253Lを当該位
置で拡大させて両目253R′,253L′が大きく表
示されるように処理し、しかも、該当するテクスチャー
パターンが張り付けられた口用のポリゴン255を本来
の位置から前側に移動させるとともに拡大させた口25
5′が前方に飛び出しかつ拡大された状態で表示される
ように処理している。
In the processing of step 24, for example, when the data related to the facial expression is as follows, the VDP 120 performs the image processing as follows. That is, the data relating to the facial expression was a command to “rotate the facial hair by a predetermined angle”, “enlarge the eyes at a predetermined magnification”, and “move the mouth forward while moving the mouth”. At this time, as shown in FIG. 12, the VDP 120 rotates the polygons 254R, 254L for the hair with the corresponding texture pattern attached thereto at the corresponding positions, and the both hairs 254R ', 254L' are displayed in a substantially V shape. And the eye polygons 253R and 253L to which the corresponding texture pattern is attached are enlarged at the corresponding positions so that both eyes 253R 'and 253L' are displayed in a large size. Mouth 25 in which the polygon 255 for the mouth on which the texture pattern is attached is moved forward from the original position and enlarged.
5 'protrudes forward and is displayed in an enlarged state.

【0080】一方、このステップ24の処理において、
例えば表情に関するデータが次のような場合であった場
合には、VDP120は下記のように画像処理する。す
なわち、表情に関するデータが「顔面の目を飛び出させ
よ」という命令であったときに、VDP120は、図1
3に示すように、該当するテクスチャーパターンが張り
付けられた目用のポリゴン253R,253Lを当該位
置から前側に移動させて目253R″,253L″が前
方に飛び出した状態で表示されるように処理している。
On the other hand, in the process of step 24,
For example, when the data related to the expression is as follows, the VDP 120 performs the image processing as described below. That is, when the data related to the facial expression is a command “protrude the eyes of the face”, the VDP 120
As shown in FIG. 3, the eye polygons 253R and 253L to which the corresponding texture patterns are attached are moved forward from the positions so that the eyes 253R "and 253L" are displayed in a state where they are projected forward. ing.

【0081】この第2の実施の形態では、頭部ポリゴン
250の一面251に、それぞれ鼻用のポリゴン25
2、目用のポリゴン253R,253L、まみ毛用のポ
リゴン254R,254L、及び口用のポリゴン255
をそれぞれ独立して拡大、縮小、回転、移動ができ、頭
部ポリゴン250の一面251が、各ポリゴン252〜
255の変化の影響を受けないので、極端な表現をして
も当該一面251の輪郭等が崩れることがない。
In the second embodiment, one surface 251 of the head polygon 250 is attached to each of the nose polygons 25.
2. Polygons 253R and 253L for eyes, polygons 254R and 254L for sewn hair, and polygons 255 for mouth
Can be independently enlarged, reduced, rotated, and moved, and one surface 251 of the head polygon 250 is
Since it is not affected by the change of 255, the contour and the like of the one surface 251 do not collapse even in an extreme expression.

【0082】また、この第2の実施の形態では、一つの
テクスチャーパターンでも、回転、拡大、縮小、移動さ
せることができるため、多彩な表情を作ることができる
し、テクスチャーパターンの数を増やすと、従来のテク
スチャーパターンチェンジやモデルを変化させる場合よ
りもはるかに多様な表情を作ることができる。さらに、
当該第2の実施の形態では、目を飛び出させたり、落と
したりでき、マンガ風の表現を可能になる。
Further, in the second embodiment, since a single texture pattern can be rotated, enlarged, reduced, or moved, a variety of expressions can be made. If the number of texture patterns is increased, It is possible to create a much more varied expression than when changing a conventional texture pattern or changing a model. further,
In the second embodiment, the eyes can be popped out or dropped, and a manga-like expression can be realized.

【0083】なお、上記第2の実施の形態では、目用の
ポリゴン253R,253L、まみ毛用のポリゴン25
4R,254L及び口用のポリゴン255は、それぞれ
一枚のポリゴンであるが、変化の状態によっては2枚以
上のポリゴンを使って目、まみ毛、口の表情を作成して
もよい。また、一枚のポリゴンの頂点を変更させてポリ
ゴンの形状を変化させるようにして目、まみ毛、及び口
の表現を変化させてもよい。
In the second embodiment, the polygons 253R and 253L for eyes and the polygon 25
The 4R, 254L, and mouth polygon 255 are each a single polygon, but depending on the state of change, two or more polygons may be used to create the facial expressions of the eyes, hair, and mouth. Alternatively, the expressions of eyes, bristles, and mouth may be changed by changing the vertices of one polygon to change the shape of the polygon.

【0084】<本発明の第3の実施の形態>図14は同
第3の実施の形態の概略構成図であり、図14(a)は
CD−ROMに記録された音響データ等を再生するため
の図2の一部ハードウエア及びCD−ROMドライブに
セットしたCD−ROMを示す図で、図14(b)はC
D−ROMに記録されたデータの構成例を示すブロック
図である。まず、CD−ROM190には、図14
(a),(b)に示すように、複数のファイルFL1,
FL2,FL3,FL4,…が記録されている。このC
D−ROM190の各ファイルFL1,FL2,FL
3,FL4,…には、図14(a)、(b)に示すよう
に、ファイルFL1の先頭部分に次のファイルFL2の
先頭セクタ情報SCT2を、ファイルFL2の先頭部分
に次のファイルFL3の先頭セクタ情報SCT3を、フ
ァイルFL3の先頭部分に次のファイルFL4の先頭セ
クタ情報SCT3を、ファイルFL4の先頭部分に次の
ファイルFL5の先頭セクタ情報SCT5を、……とい
うように記録させている。前記各先頭セクタ情報SCT
n(n=1,2,3,…)は、例えば4バイトで構成さ
れている。
<Third Embodiment of the Present Invention> FIG. 14 is a schematic configuration diagram of the third embodiment. FIG. 14A reproduces audio data and the like recorded on a CD-ROM. FIG. 14B is a diagram showing a partial hardware of FIG. 2 and a CD-ROM set in a CD-ROM drive.
FIG. 3 is a block diagram illustrating a configuration example of data recorded on a D-ROM. First, in the CD-ROM 190, FIG.
As shown in (a) and (b), a plurality of files FL1,
FL2, FL3, FL4,... Are recorded. This C
Each file FL1, FL2, FL of the D-ROM 190
, FL4,..., As shown in FIGS. 14A and 14B, the head sector information SCT2 of the next file FL2 at the head of the file FL1, and the head of the next file FL3 at the head of the file FL2. The first sector information SCT3 is recorded at the beginning of the file FL3, the first sector information SCT3 of the next file FL4 is recorded, the first sector information SCT5 of the next file FL5 is recorded at the beginning of the file FL4, and so on. Each of the head sector information SCT
n (n = 1, 2, 3,...) is composed of, for example, 4 bytes.

【0085】サブシステム13におけるCD−ROMド
ライブ1bは、CD−ROM190を回転させるモータ
を含む回転機構185と、読取ヘッド186を移動させ
るモータを含む移動機構187とからなる。回転機構1
85及び移動機構187は、図示しないが、CPU18
1により読取ヘッド186で読み取られたデータ等を基
に回転駆動制御がされている。CD−ROMドライブ1
bの読取ヘッド186は、CD−I/F180、CPU
181等に接続されている。また、該読取ヘッド186
は、CD−I/F180を介してSCU100に接続さ
れている。SCU100には、CPUバス105を介し
てメインCPU101、RAM102等が接続されてい
る。
The CD-ROM drive 1 b in the subsystem 13 includes a rotation mechanism 185 including a motor for rotating the CD-ROM 190 and a movement mechanism 187 including a motor for moving the read head 186. Rotation mechanism 1
Although not shown, the CPU 85 and the moving mechanism 187
1 controls the rotational drive based on the data read by the read head 186 and the like. CD-ROM drive 1
b read head 186 includes a CD-I / F 180, a CPU
181 and the like. Also, the reading head 186
Is connected to the SCU 100 via the CD-I / F 180. The main CPU 101, the RAM 102, and the like are connected to the SCU 100 via the CPU bus 105.

【0086】〔CD−ROMに記録されたデータの再生
処理について〕図15は、同第3の実施の形態の動作を
説明するためのフローチャートである。メインCPU1
01は、ゲームの展開に伴って、SCU100、サブシ
ステム13のCD−I/F180を介してCD−ROM
190から例えば映像データあるいは音響データ用のフ
ァイルFL1,FL2,…を読み込む処理を実行するこ
とにする。
[Reproduction Process of Data Recorded on CD-ROM] FIG. 15 is a flow chart for explaining the operation of the third embodiment. Main CPU1
01 is a CD-ROM via the SCU 100 and the CD-I / F 180 of the subsystem 13 with the development of the game.
From 190, for example, processing for reading files FL1, FL2,... For video data or audio data is executed.

【0087】この処理に入ると、図15のフローチャー
トに入り、メインCPU101は、まず、CD−ROM
190から読取ヘッド186、CD−I/F180、S
CU100を介してファイルFL1の先頭にある読出情
報であるセクタ情報SCT2を読み込む(S31)。次
に、メインCPU101は、当該セクタ情報SCT2を
基に、ファイルFL1の長さを計算する(S32)。
When this process is started, the process enters the flowchart of FIG.
190 to read head 186, CD-I / F 180, S
The sector information SCT2, which is the read information at the head of the file FL1, is read via the CU 100 (S31). Next, the main CPU 101 calculates the length of the file FL1 based on the sector information SCT2 (S32).

【0088】メインCPU101は、SCU100、C
D−I/F180を介してCD−ROMドライブ1bに
セットされたCD−ROM190から1セクタ毎にデー
タを読み出し(S33)、メインCPU101内のカウ
ンタをインクリメントする(S34)。
The main CPU 101 comprises the SCU 100, C
Data is read out from the CD-ROM 190 set in the CD-ROM drive 1b via the DI / F 180 for each sector (S33), and the counter in the main CPU 101 is incremented (S34).

【0089】そして、メインCPU101は、計算した
セクタの長さと前記カウンタの値とを比較する(S3
5)。メインCPU101は、両者が一致していないと
判定したときに(S35;NO)、再び、ステップ33
からの処理移行するが、両者が一致したと判定できれば
(S35;YES)、さらにファイルFLを読み込む必
要があるかを判断する(ステップ36)。ここで、メイ
ンCPU101は、さらにファイルFLの読み込みが必
要であると判断した場合(S36;YES)、カウンタ
をリセットした後(S37)、再びステップ31からの
処理に移行するが、必要なければ(S36;NO)、こ
の処理を終了する。
Then, the main CPU 101 compares the calculated sector length with the value of the counter (S3).
5). When the main CPU 101 determines that the two do not match (S35; NO), the main CPU 101 returns to step 33 again.
The process shifts from step S3 to step S5. If it can be determined that they match (S35; YES), it is determined whether it is necessary to read the file FL further (step 36). Here, if the main CPU 101 determines that it is necessary to read the file FL further (S36; YES), it resets the counter (S37), and then shifts to the processing from step 31 again. S36; NO), end this process.

【0090】図16は、同第3の実施の形態と、この第
3の実施の形態を適用しない例(従来技術)との比較を
説明するための図であり、図16(a)が従来技術の説
明図であり、図16(b)が同第3の実施の形態の説明
図である。
FIG. 16 is a diagram for explaining a comparison between the third embodiment and an example (prior art) to which the third embodiment is not applied. FIG. FIG. 16B is an explanatory diagram of the technology, and FIG. 16B is an explanatory diagram of the third embodiment.

【0091】第3の実施の形態を適用しない技術にあっ
ては、図16(a)に示すように、CD−ROM190
のファイルFL1,FL2,FL3,…の矢印の部分の
情報AD1,AD2,AD3,…の情報を、RAM10
2の所定のエリアに記憶させておき、このRAM102
の所定のエリア内の情報を基にCD−ROMドライブ1
bからファイルのデータを読み出す必要があった。
In the technique to which the third embodiment is not applied, as shown in FIG.
The information AD1, AD2, AD3,... Of the part of the file FL1, FL2, FL3,.
2 in a predetermined area, and the RAM 102
CD-ROM drive 1 based on information in a predetermined area of
It was necessary to read the data of the file from b.

【0092】これに対して、同第3の実施の形態によれ
ば、図16(b)に示すように、例えばファイルFL1
の先頭にある次のファイルFL2の先頭セクタ情報SC
T2からファイルFL1の長さを計算し、その計算結果
をRAM102の所定のエリアに持ち、読み出したセク
タの数が前記計算結果と一致したか否かでCD−ROM
190からファイルFL1を読み出すことができる。も
ちろん、他のファイルFLn−1の先頭にある次のファ
イルFLnの先頭セクタ情報SCTnから当該ファイル
FLn−1の長さを計算し、その計算結果をRAM10
2の所定のエリアに記憶させ、読み出したセクタの数が
前記計算結果と一致したか否かでCD−ROM190か
らファイルFLn−1を読み出すことができる。
On the other hand, according to the third embodiment, as shown in FIG.
Head sector information SC of the next file FL2 at the head of
The length of the file FL1 is calculated from T2, the calculation result is stored in a predetermined area of the RAM 102, and the CD-ROM is determined based on whether the number of read sectors matches the calculation result.
The file FL1 can be read from 190. Of course, the length of the file FLn-1 is calculated from the head sector information SCTn of the next file FLn at the head of the other file FLn-1, and the calculation result is stored in the RAM 10
2, the file FLn-1 can be read from the CD-ROM 190 based on whether or not the number of read sectors matches the calculation result.

【0093】したがって、同第3の実施の形態によれ
ば、RAM102には、先頭セクタ情報SCTnから計
算した只一つのファイルFLn−1に関する長さの情報
を記憶しているだけでよく、RAM102に常駐する情
報量を限りなくゼロに近づけることができる。
Therefore, according to the third embodiment, the RAM 102 need only store the length information relating to only one file FLn-1 calculated from the head sector information SCTn. The amount of resident information can be made as close to zero as possible.

【0094】<本発明の第4の実施の形態>次に、本発
明の第4の実施の形態についてゲームの展開に伴う各場
面における実況放送処理について図17乃至図22を参
照して説明する。
<Fourth Embodiment of the Present Invention> Next, a fourth embodiment of the present invention will be described with reference to FIG. 17 to FIG. .

【0095】[装置の構成]同第4の実施の形態におけ
る装置は、図1及び図2に示す第1の実施の形態で使用
したビデオゲーム機本体1を使用する。
[Structure of Apparatus] The apparatus in the fourth embodiment uses the video game machine body 1 used in the first embodiment shown in FIGS. 1 and 2.

【0096】〔ゲームの展開に伴う各場面における実況
放送処理について〕 [前提となる実況処理]説明の便宜上、まず、前提とな
る実況処理について説明する。
[Regarding Live Broadcasting Process in Each Scene Associated with Development of Game] [Prerequisite Broadcasting Process] For convenience of explanation, first, the prerequisite live broadcasting process will be described.

【0097】図17は、本発明の第4の実施の形態にお
ける実況出力の基本的な手順を示す概念図である。この
図において、同第4の実施の形態では、メインCPU1
01は、CD−ROM190あるいはカートリッジI/
F1aにセットされたROMカートリッジからアプリケ
ーションソフトを読み出して時間経過tに伴ってゲーム
を展開させてゆく。すなわち、メインCPU101は、
前記アプリケーションソフトを実行し、PAD2bから
の指令やゲームの展開により、ゲームのシーンを次々に
選択出力してゆく。
FIG. 17 is a conceptual diagram showing a basic procedure of a live output according to the fourth embodiment of the present invention. In this figure, in the fourth embodiment, the main CPU 1
01 is the CD-ROM 190 or cartridge I /
The application software is read from the ROM cartridge set in F1a, and the game is developed as time elapses. That is, the main CPU 101
The application software is executed, and game scenes are selectively output one after another according to a command from the PAD 2b or the development of the game.

【0098】仮に、メインCPU101は、ゲームの展
開に伴ってシーン〔1〕を実行しているものとする。す
ると、メインCPU101が、シーン〔1〕を実行して
いるときに、トリガーによりシーンボックスSCN
〔1〕が強制的に与えられる。このシーンボックスと
は、そのシーンに対して使うであろう複数の条件を入れ
た箱のことであり、ゲームソフトによりシーン毎に与え
られる。
It is assumed that the main CPU 101 is executing scene [1] with the development of the game. Then, when the main CPU 101 is executing the scene [1], the scene box SCN is triggered by a trigger.
[1] is forcibly given. The scene box is a box in which a plurality of conditions to be used for the scene are put, and is provided for each scene by game software.

【0099】そして、このとき、メインCPU101
は、シーン〔1〕の内容を処理していて、そのシーン
〔1〕の内容によって条件(例えば、投手が投球するシ
ーンであれば、条件「AAAAA」が「投手の調子が悪
いときの投球である」というものであったり、条件「B
BBBB」は「相手チームが勝っている」というもので
あったり、条件「CCCCC」は「ピッチャーが投げま
した」というようなもの)を取得する(ST40)。
At this time, the main CPU 101
Is processing the content of scene [1], and the condition (for example, if the pitcher pitches a scene, the condition "AAAAA" is ""Is" or the condition "B
“BBBB” is obtained as “the opponent team has won” or the condition “CCCCC” is obtained as “the pitcher threw”) (ST40).

【0100】メインCPU101は、取得した条件に基
づいて、シーンボックスSCN〔1〕の内部に記述され
ている条件「AAAAA」,「BBBBB」,「CCC
CC」について判定する(S41)。 なお、条件「A
AAAA」、「BBBBB」,「CCCCC」には、そ
れぞれテキストボックスAAAAA・BX、BBBBB
・BX、CCCCC・BXが対応している。ここで、テ
キストボックスとは、音声ファイル名で書かれた箱のこ
とであり、音声ファイル名がテキストボックスの名前と
なる。なお、任意のテキストボックスという意味で、図
18に示すように、テキストボックス「NNNNN・B
Xとした。また、このテキストボックスNNNNN・B
Xには、台詞番号「nn123」が記載されている。こ
の台詞番号は、例えばアルファベット2文字〔nn〕の
識別コードと、数字3桁の番号〔123〕の5文字で構
成されている。
The main CPU 101 determines, based on the acquired conditions, the conditions “AAAAA”, “BBBBB”, “CCC” described inside the scene box SCN [1].
CC ”(S41). The condition “A
"AAAAA", "BBBBBB", and "CCCCC" have text boxes AAAAA.BX and BBBBBB, respectively.
BX, CCCCC and BX are supported. Here, the text box is a box written with an audio file name, and the audio file name is the name of the text box. In addition, in the meaning of an arbitrary text box, as shown in FIG. 18, the text box “NNNNNN · B
X. In addition, this text box NNNNN · B
In X, the dialogue number “nn123” is described. The dialogue number is composed of, for example, an identification code of two letters [nn] of the alphabet and five letters of a three-digit number [123].

【0101】次に、このシーン〔1〕のときには、メイ
ンCPU101は、取得した条件が「AAAAA」だけ
であったので、シーンボックスSCN〔1〕の条件「A
AAAA」,「BBBBB」,「CCCCC」の中か
ら、条件「AAAAA」を選択する。これにより、メイ
ンCPU101は、テキストボックスAAAAA・BX
にジャンプする(S42)。このテキストボックスAA
AAA・BXには、この実施の形態では、台詞番号「a
a001」,「aa002」,「aa003」,「aa
004」と、このテキストボックスAAAAA・BXに
含まれ台詞番号に対応する台詞とが記録されているもの
とする。
Next, at the time of the scene [1], the main CPU 101 determines that the acquired condition is only “AAAAA”.
The condition “AAAAA” is selected from “AAAAA”, “BBBBB”, and “CCCCC”. Thus, the main CPU 101 sets the text box AAAAA.BX
Jump to (S42). This text box AA
In the present embodiment, AAA · BX has a line number “a”.
a001 "," aa002 "," aa003 "," aa
004 "and the dialogue corresponding to the dialogue number included in the text box AAAAA.BX.

【0102】そして、メインCPU101は、このテキ
ストボックスAAAAA・BXに対してランダム選択命
令を与えると(S43)、台詞番号「aa004」が選
択されることになる(S44)。この台詞番号「aa0
04」を基にこのボックス内の台詞群から「aa00
4」に相当する台詞をサウンドブロック12に与える。
これにより、スピーカ5から「aa004」に相当する
台詞の音響を発生させる(S45)。
When the main CPU 101 gives a random selection command to the text box AAAAA.BX (S43), the dialog number "aa004" is selected (S44). This dialog number "aa0
04 ”and“ aa00 ”from the dialogue group in this box.
The speech corresponding to “4” is given to the sound block 12.
As a result, a speech sound corresponding to “aa004” is generated from the speaker 5 (S45).

【0103】また、ゲームが展開してゆき、シーン
〔2〕になり、トリガーによりシーンボックスSCN
〔2〕が与えられた後の処理についても、上記と同様に
処理されるものとする。
Further, as the game develops, the scene [2] is set, and the scene box SCN is triggered by a trigger.
The processing after [2] is given is also performed in the same manner as described above.

【0104】〔具体的な処理〕野球ゲームの場合を例に
とり、以下、具体例を挙げつつ詳細に説明する。
[Specific Processing] The following is a detailed description of a specific example, taking a baseball game as an example.

【0105】図19及び図20は、テキストボックスに
おける台詞番号と台詞の中身の一部を示す説明図であ
る。台詞番号と台詞の関係としては、例えば図19に示
すようにドラフト会議において「1.会議開始挨拶」、
「2.くじ引き関係」等に分かれているが、これら分か
れている内容を一つのテキストボックスと考え、これら
がテキストボックス名となり、その中に、台詞番号と台
詞とが記載されているものとする。
FIG. 19 and FIG. 20 are explanatory diagrams showing a dialog number and a part of the contents of the dialog in the text box. For example, as shown in FIG. 19, the relationship between the dialogue number and the dialogue is “1.
It is divided into "2. Lottery relationship" etc., and it is assumed that these divided contents are considered as one text box, these are text box names, and the dialog number and dialog are described in it. .

【0106】なお、「1.会議開始挨拶」については、
台詞番号「PD001」が「ただ今より、今年度の新人
選手選択会議を開催致します。」というような台詞を、
台詞番号「PD002」が「ただ今より、本年度の新人
選手選択会議を開催致します。」というような台詞を、
他の台詞番号でもそれぞれそれらに合致した台詞を記憶
している。
[0106] Regarding "1.
The dialogue with the dialogue number "PD001" saying "We will hold a newcomer selection meeting for the current year."
The dialogue with the dialogue number "PD002" saying "We will hold a newcomer selection meeting for the current year."
The other dialog numbers also store the dialog that matches them.

【0107】また、「2.くじ引き関係」については、
台詞番号「PD005」が「氏名が重複しましたので、
抽選にうつります。」、台詞番号「PD006」が「重
複球団より指名されましたので、抽選に移ります。」と
いうような台詞を、他の台詞番号でもそれぞれそれらに
合致した台詞を記憶している。
Regarding “2. Lottery relation”,
The dialogue number "PD005" changes to "The name has been duplicated.
I will move to the lottery. , And the dialogue number "PD006""The lottery has been nominated by the duplicate team, so we will go to the lottery."

【0108】同様に、台詞番号と台詞の関係としては、
例えば図20に示すように「69.大チャンス時・特定
の選手に関するコメントを求める」、「70.大ピンチ
時・このシーンに関するコメントを求める」等に分けら
れているが、これら分けられている内容を一つ一つのテ
キストボックスと考え、これらがテキストボックス名と
なる。
Similarly, the relationship between the speech number and the speech is as follows:
For example, as shown in FIG. 20, it is divided into "69. Ask for a comment on a particular player at the time of a big chance" and "70. Ask for a comment about this scene at a big pinch". Think of the content as individual text boxes, and these are the text box names.

【0109】なお、「69.大チャンス時・特定の選手
に関するコメントを求める」については、台詞番号「N
F542」が「このチャンスにスタンドから大きな声援
が飛んできます。」、台詞番号「NF543」が「ラン
ナーをスコアリングポジションにおいて、この選手の打
席です。」というような台詞を、その他の台詞番号でも
それぞれそれらに合致した台詞を記憶している。
Regarding “69. At the time of a great chance, seeking a comment on a specific player”, the speech number “N
For example, the words "F542" may say "A big cheer comes from the stand at this chance." The dialogue number "NF543" may be "This player is at bat in the scoring position of the runner." Each of them memorizes the words that match them.

【0110】さらに、「70.大ピンチ時・このシーン
に関するコメントを求める」については、台詞番号「N
F545」が「大量リードも安心できません。」、台詞
番号「NF546」が「ここでリズムをつかませたくな
いですね。」というような台詞を、他の台詞番号でもそ
れぞれそれらに合致した台詞を記憶している。
Further, as for “70. Large pinch, requesting comment on this scene”, the speech number “N
For example, "F545" means "I can't worry about mass reading", and "NF546" means "I don't want to get a rhythm here." doing.

【0111】図21は、同第4の実施の形態の動作を説
明するためのフローチャートである。この図21におい
て、任意のシーン〔N〕(N=1,2,3,…)を処理
しているときに、その任意のシーン〔N〕におけるシー
ンボックスSCN〔N〕の中には任意の条件(p,q,
r,s)があるほか、これら条件に応じた任意のテキス
トボックス(p・BX,q・BX,r・BX,s・B
X)があり、このような条件下に実況放送の処理してゆ
くことについて説明する。
FIG. 21 is a flowchart for explaining the operation of the fourth embodiment. In FIG. 21, when an arbitrary scene [N] (N = 1, 2, 3,...) Is being processed, an arbitrary scene [N] is included in a scene box SCN [N]. Conditions (p, q,
r, s), and any text box (p.BX, q.BX, r.BX, s.B
X), and processing of the live broadcast under such conditions will be described.

【0112】図22は、同第4の実施の形態の動作を説
明するためのタイミングチャートであり、横軸に時間経
過がとられており、縦軸にはゲームのシーン〔1〕,シ
ーン〔2〕,シーン〔3〕,…と、シーンボックスSC
N〔1〕,SCN〔2〕,SCN〔3〕,…と、シーン
ボックスSCN〔1〕,SCN〔2〕,SCN〔3〕,
…の条件判定を行った際にジャンプ先のテキストボック
スa・BX,b・BX,c・BX,c・BX,…,m・
BX,n・BX,…が配置されている。
FIG. 22 is a timing chart for explaining the operation of the fourth embodiment. The horizontal axis indicates time, and the vertical axis indicates a game scene [1] and a scene [1]. 2], scene [3], ..., scene box SC
N [1], SCN [2], SCN [3],... And scene boxes SCN [1], SCN [2], SCN [3],
.., M.BX, c.BX, c.BX,..., M.
BX, n · BX,...

【0113】まず、ゲームが展開・進行してゆき、N=
1のシーン〔1〕について処理しているものとする(S
50)。すると、図21に示すようにシーン〔1〕にお
いて、トリガーがかかりシーンボックスSCN〔1〕が
与えられる。このシーンボックスSCN〔1〕には、こ
の実施の形態では、条件A(p3),jumpa、条件B
(p2),jumpb、条件C(p2),jumpc、条件D
(p3),jumpdと記載されている。 (シーンボック
スSCN〔1〕の処理) メインCPU101は、シーン〔1〕の処理に伴って条
件(例えば、「投手が投球するシーン」であれば、「投
手が調子が悪いときの投球である」、「相手チームが勝
っている」、「ピッチャーが投げました」というような
もの)を取得する(S51)。
First, the game progresses and proceeds, and N =
It is assumed that processing is performed for scene 1 [1] (S
50). Then, as shown in FIG. 21, in the scene [1], a trigger is activated and a scene box SCN [1] is given. In this embodiment, the condition A (p3), the jumpa, the condition B
(P2), jumpb, condition C (p2), jumpc, condition D
(P3), jumpd. (Processing of Scene Box SCN [1]) The main CPU 101 sets a condition (for example, “a pitcher pitches a scene” when the pitcher is in a bad condition) along with the process of the scene [1]. , Such as "the opponent team has won" or "the pitcher has thrown" (S51).

【0114】そして、メインCPU101は、前記取得
した条件と、シーンボックスSCN〔1〕内の条件
「A」,「B」,「C」,「D」と比較する(S5
2)。この場合、A=p、B=q、C=r、D=sとな
る。そして、メインCPU101は、条件を判定した結
果、条件Aが選択されるとテキストボックスa・BXに
ジャンプし(S53)、条件Bが選択されるとテキスト
ボックスb・BXにジャンプし(S54)、条件Cが選
択されるとテキストボックスc・BXにジャンプし(S
55)、条件Dが選択されるとテキストボックスd・B
Xにジャンプする(S56)。
Then, the main CPU 101 compares the acquired condition with the conditions “A”, “B”, “C”, “D” in the scene box SCN [1] (S5).
2). In this case, A = p, B = q, C = r, and D = s. Then, as a result of determining the condition, the main CPU 101 jumps to the text box a · BX when the condition A is selected (S53), and jumps to the text box b · BX when the condition B is selected (S54). When the condition C is selected, a jump is made to the text box c.BX (S
55), when condition D is selected, text box dB
Jump to X (S56).

【0115】図22に示すように、メインCPU101
によって、条件によって選択されたテキストボックス
(a・BX、b・BX、c・BX、d・BX)の処理が
実行されてゆく。例えば、図22に示すように、テキス
トボックス(a・BX)の処理はシーン〔2〕の手前で
終了しており、テキストボックス(b・BX)の処理は
シーン〔2〕の終わり部分で終了し、テキストボックス
(c・BX)の処理はシーン〔3〕の終わり部分で終了
し、テキストボックス(d・BX)の処理はシーン
〔2〕の真ん中当りで終了している。 ここでは、例え
ば条件Aが選択されたものとする。すると、メインCP
U101は、現在処理されている台詞があるか検出し、
その台詞のプライオリティを取得する(S57)。
As shown in FIG. 22, the main CPU 101
Thus, the processing of the text box (a.BX, b.BX, c.BX, d.BX) selected by the condition is executed. For example, as shown in FIG. 22, the processing of the text box (a.BX) ends before the scene [2], and the processing of the text box (b.BX) ends at the end of the scene [2]. The processing of the text box (c.BX) ends at the end of the scene [3], and the processing of the text box (d.BX) ends at the middle of the scene [2]. Here, it is assumed that condition A is selected, for example. Then, the main CP
U101 detects whether there is a line currently being processed,
The priority of the line is acquired (S57).

【0116】そして、メインCPU101は、プライオ
リティの判定を行う(S58)。ここで、メインCPU
101は、現在処理されている台詞のプライオリティよ
り今回のプライオリティが高いか同一であった場合に
は、現在処理されている台詞を遮り、今回のテキストボ
ックスの台詞を発生させ(S59)、現在処理されてい
る台詞のプライオリティが今回のプライオリティより高
い場合には現在処理されている台詞を継続させる(S6
0)。
Then, the main CPU 101 determines the priority (S58). Here, the main CPU
If the current priority is higher than or the same as the priority of the currently processed dialogue, the dialogue 101 interrupts the currently processed dialogue and generates the current textbox dialogue (S59). If the priority of the dialogue being performed is higher than the current priority, the dialogue currently being processed is continued (S6).
0).

【0117】この場合には、条件Aが選択されており、
前のプライオリティがないから今回のプライオリティ
(p3)が高いとして、今回の台詞を開始させている。
In this case, condition A is selected, and
Since there is no previous priority, the current priority (p3) is determined to be high, and this dialogue is started.

【0118】(シーンボックスSCN〔2〕の処理)次
に、ゲームが展開・進行してゆき、N=2のシーン
〔2〕について処理する(S50)。すると、図22に
示すようにシーン〔2〕において、トリガーがかかりシ
ーンボックスSCN〔2〕が与えられる。このシーンボ
ックスSCN〔2〕には、この実施の形態では、条件E
(p4),jumpe、条件F(p2),jumpf、条件G
(p3),jumpg、条件H(p3),jumphと記載され
ている。
(Processing of Scene Box SCN [2]) Next, the game is developed and advanced, and processing is performed for scene [2] of N = 2 (S50). Then, as shown in FIG. 22, in the scene [2], a trigger is activated and a scene box SCN [2] is given. In the present embodiment, the condition E
(P4), jumpe, condition F (p2), jumpf, condition G
(P3), jumpg, and condition H (p3), jumph.

【0119】メインCPU101は、シーン〔2〕の処
理に伴って条件を取得する(S51)。 そして、メイ
ンCPU101は、前記取得した条件と、シーンボック
スSCN〔2〕内の条件「E」,「F」,「G」,
「H」と比較する(S52)。この場合、E=p、F=
q、G=r、H=sとなる。そして、メインCPU10
1は、条件を判定した結果、条件Eが選択されるとテキ
ストボックスe・BXにジャンプし(S53)、条件F
が選択されるとテキストボックスf・BXにジャンプし
(S54)、条件Gが選択されるとテキストボックスg
・BXにジャンプし(S55)、条件Gが選択されると
テキストボックスg・BXにジャンプする(S56)。
図22に示すように、メインCPU101によって、
条件によって選択されたテキストボックス(e・BX、
f・BX、g・BX、h・BX)の処理が実行されてゆ
く。例えば、図22に示すように、テキストボックス
(e・BX)の処理はシーン〔3〕の終わりで終了して
おり、テキストボックス(f・BX)の処理はシーン
〔4〕の始めの部分にかかり、テキストボックス(g・
BX)の処理はシーン〔3〕の終わり部分で終了し、テ
キストボックス(d・BX)の処理はシーン〔4〕のシ
ーンボックスSCN〔4〕の前辺にかかる。
The main CPU 101 acquires a condition in accordance with the processing of the scene [2] (S51). Then, the main CPU 101 compares the acquired conditions with the conditions “E”, “F”, “G”, “G” in the scene box SCN [2].
Compare with "H" (S52). In this case, E = p, F =
q, G = r, and H = s. And the main CPU 10
When the condition E is selected as a result of the condition determination, the process jumps to the text box e.BX (S53), and the condition F
Is selected, the process jumps to the text box f.BX (S54).
Jump to BX (S55). When condition G is selected, jump to text box g.BX (S56).
As shown in FIG. 22, the main CPU 101
Text box selected by the condition (e.BX,
f · BX, g · BX, h · BX) are executed. For example, as shown in FIG. 22, the processing of the text box (e.BX) ends at the end of the scene [3], and the processing of the text box (f.BX) starts at the beginning of the scene [4]. Take a text box (g
The processing of BX) ends at the end of scene [3], and the processing of the text box (d.BX) is applied to the front side of scene box SCN [4] of scene [4].

【0120】ここでは、例えば条件Fが選択されたもの
とする。すると、メインCPU101は、現在処理され
ている台詞があるか検出し、台詞が現在処理されている
場合にその台詞のプライオリティを取得する(S5
7)。ここでは、台詞が処理されていないので、取得し
ない。
Here, it is assumed that condition F is selected, for example. Then, the main CPU 101 detects whether there is a line currently being processed, and if the line is currently being processed, acquires the priority of the line (S5).
7). Here, since the dialogue has not been processed, it is not acquired.

【0121】そして、メインCPU101は、プライオ
リティの判定を行う(S58)。この場合には、条件F
が選択されており、前のプライオリティがないから今回
のプライオリティ(p2)が高いとして、今回のテキス
トボックスf・BXの台詞を開始させている。
Then, the main CPU 101 determines the priority (S58). In this case, condition F
Is selected, and since there is no previous priority, the dialogue of the current text box f · BX is started on the assumption that the current priority (p2) is high.

【0122】(シーンボックスSCN〔3〕の処理)次
に、ゲームが展開・進行してゆき、N=3のシーン
〔3〕について処理する(S50)。すると、図22に
示すようにシーン〔3〕において、トリガーがかかりシ
ーンボックスSCN〔3〕が与えられる。このシーンボ
ックスSCN〔3〕には、この実施の形態では、条件I
(p4),jumpi、条件J(p2),jumpjと記載され
ている。
(Processing of Scene Box SCN [3]) Next, the game is developed and progresses, and processing is performed for scene [3] of N = 3 (S50). Then, as shown in FIG. 22, in the scene [3], a trigger is activated and a scene box SCN [3] is given. The scene box SCN [3] includes a condition I in this embodiment.
(P4), jumpi, and condition J (p2), jumpj.

【0123】メインCPU101は、シーン〔3〕の処
理に伴って条件を取得する(S51)。
The main CPU 101 acquires a condition in accordance with the processing of the scene [3] (S51).

【0124】そして、メインCPU101は、前記取得
した条件と、シーンボックスSCN〔3〕内の条件
「I」,「J」と比較する(S52)。この場合、I=
p、J=qとなる。そして、メインCPU101は、条
件を判定した結果、条件Iが選択されるとテキストボッ
クスi・BXにジャンプし(S53)、条件Jが選択さ
れるとテキストボックスj・BXにジャンプする(S5
4)。
Then, the main CPU 101 compares the obtained condition with the conditions “I” and “J” in the scene box SCN [3] (S52). In this case, I =
p, J = q. Then, as a result of determining the condition, the main CPU 101 jumps to the text box i · BX when the condition I is selected (S53), and jumps to the text box j · BX when the condition J is selected (S5).
4).

【0125】図22に示すように、メインCPU101
によって、条件によって選択されたテキストボックス
(i・BX、j・BX)の処理が実行されてゆく。例え
ば、図22に示すように、テキストボックス(j・B
X)の処理はシーン〔4〕の始めで終了しており、テキ
ストボックス(j・BX)の処理はシーン〔4〕の前で
終了している。
As shown in FIG. 22, the main CPU 101
Thus, the processing of the text box (i.BX, j.BX) selected according to the condition is executed. For example, as shown in FIG. 22, a text box (jB
The processing of X) ends at the beginning of scene [4], and the processing of the text box (j · BX) ends before scene [4].

【0126】ここでは、例えば条件Jが選択されたもの
とする。すると、メインCPU101は、現在処理され
ている台詞があるか検出し、台詞が現在処理されている
場合にその台詞のプライオリティを取得する(S5
7)。ここでは、テキストボックスfの台詞を処理され
ているので、条件Fのプライオリティ(p2)を取得す
る。
Here, it is assumed that condition J is selected, for example. Then, the main CPU 101 detects whether there is a line currently being processed, and if the line is currently being processed, acquires the priority of the line (S5).
7). Here, since the dialog of the text box f has been processed, the priority (p2) of the condition F is acquired.

【0127】そして、メインCPU101は、プライオ
リティの判定を行う(S58)。この場合には、条件J
が選択されており、現在処理されている台詞のプライオ
リティが(p2)であり、今回の台詞のプライオリティ
(p2)と同一であるので、現在処理されている台詞
(テキストボックスf・BX)を遮り、今回のテキスト
ボックスj・BXの台詞を開始させている。
The main CPU 101 determines the priority (S58). In this case, condition J
Is selected and the priority of the currently processed dialogue is (p2), which is the same as the priority of the current dialogue (p2), so that the currently processed dialogue (text box f · BX) is blocked. , The dialog of the current text box j · BX is started.

【0128】(シーンボックスSCN〔4〕の処理)次
に、ゲームが展開・進行してゆき、N=4のシーン
〔4〕について処理する(S50)。すると、図22に
示すようにシーン〔4〕において、トリガーがかかりシ
ーンボックスSCN〔4〕が与えられる。メインCPU
101は、シーン〔3〕の処理に伴って条件を取得する
(S51)。
(Processing of Scene Box SCN [4]) Next, the game is developed and progresses, and processing is performed for scene [4] of N = 4 (S50). Then, as shown in FIG. 22, in the scene [4], a trigger is activated and a scene box SCN [4] is given. Main CPU
101 acquires a condition with the processing of the scene [3] (S51).

【0129】そして、メインCPU101は、前記取得
した条件と、シーンボックスSCN〔4〕内の条件
「K」,「L」と比較する(S52)。この場合、K=
p、L=qとなる。そして、メインCPU101は、条
件を判定した結果、条件Kが選択されるとテキストボッ
クスk・BXにジャンプし(S53)、条件Lが選択さ
れるとテキストボックスl・BXにジャンプする(S5
4)。
Then, the main CPU 101 compares the obtained condition with the conditions “K” and “L” in the scene box SCN [4] (S52). In this case, K =
p, L = q. Then, as a result of determining the condition, the main CPU 101 jumps to the text box k · BX when the condition K is selected (S53), and jumps to the text box 1 · BX when the condition L is selected (S5).
4).

【0130】選択されたテキストボックス(k・BX、
l・BX)の処理は、図22に示すような長さで処理さ
れてゆく。
The selected text box (k · BX,
The processing of (1 · BX) is processed with a length as shown in FIG.

【0131】ここでは、例えば条件Kが選択されたもの
とする。メインCPU101は、現在処理されている台
詞があるか検出し、台詞が現在処理されている場合にそ
の台詞のプライオリティを取得する(S57)。ここで
は、プライオリティを取得しない。メインCPU101
は、プライオリティの判定を行い(S58)、今回の台
詞のプライオリティ(p2)が高いので、今回のテキス
トボックスk・BXの台詞を開始させている。
Here, it is assumed that condition K is selected, for example. The main CPU 101 detects whether there is a line currently being processed, and if the line is currently being processed, acquires the priority of the line (S57). Here, the priority is not acquired. Main CPU 101
Determines the priority (S58), and starts the dialog of the current text box k.BX because the priority of the current dialog (p2) is high.

【0132】(シーンボックスSCN〔5〕の処理)次
に、ゲームが展開・進行してゆくが、継続してシーン
〔4〕について処理する(S50)。すると、図21に
示すようにシーン〔4〕において、トリガーがかかりシ
ーンボックスSCN〔5〕が与えられる。メインCPU
101は、シーン〔4〕の処理継続に伴って条件を取得
する(S51)。 そして、メインCPU101は、前
記取得した条件と、シーンボックスSCN〔4〕内の条
件「M」,「N」と比較する(S52)。この場合、M
=p、N=qとなる。そして、メインCPU101は、
条件を判定した結果、条件Mが選択されるとテキストボ
ックスm・BXにジャンプし(S53)、条件Nが選択
されるとテキストボックスn・BXにジャンプする(S
54)。
(Process of Scene Box SCN [5]) Next, as the game progresses and proceeds, the process is continued for scene [4] (S50). Then, as shown in FIG. 21, in the scene [4], a trigger is activated and a scene box SCN [5] is given. Main CPU
101 acquires a condition along with the continuation of the processing of the scene [4] (S51). Then, the main CPU 101 compares the acquired condition with the conditions “M” and “N” in the scene box SCN [4] (S52). In this case, M
= P, N = q. Then, the main CPU 101
As a result of the condition determination, when the condition M is selected, the process jumps to the text box m · BX (S53), and when the condition N is selected, the process jumps to the text box n · BX (S53).
54).

【0133】選択されたテキストボックス(m・BX、
n・BX)の処理は、図22に示すような長さで処理さ
れてゆく。
The selected text box (m.BX,
The processing of (n × BX) is processed with a length as shown in FIG.

【0134】ここでは、例えば条件Mが選択されたもの
とする。メインCPU101は、現在処理されている台
詞があるか検出し、台詞が現在処理されている場合にそ
の台詞(テキストボックスk・BX)のプライオリティ
(p1)を取得する(S57)。メインCPU101
は、プライオリティの判定を行い(S58)、今回の台
詞のプライオリティ(p1)と同じなので、現在処理さ
れている台詞の処理を遮り、今回のテキストボックスm
・BXの台詞を開始させている。
Here, it is assumed that condition M is selected, for example. The main CPU 101 detects whether there is a line currently being processed, and if the line is currently being processed, acquires the priority (p1) of the line (text box k · BX) (S57). Main CPU 101
Determines the priority (S58) and is the same as the priority of the current dialog (p1), so that the processing of the dialog currently being processed is interrupted and the text box m
・ Starting BX dialogue.

【0135】以後、同様に、ゲームの展開に伴って変化
するシーンに対応して与えられるシーンボックスSCN
〔N〕の条件とシーンから与えられる条件とを判定し、
その判定結果からテキストボックスを選択して台詞を選
択するようにする。
Thereafter, similarly, a scene box SCN provided corresponding to a scene that changes with the development of the game
Judge the condition of [N] and the condition given from the scene,
A text box is selected from the determination result to select a dialogue.

【0136】図23は、シーンボックスとテキストボッ
クスとの関係を示す図である。この図において、メイン
CPU101は、ゲームの展開に伴って与えられるシー
ンボックスSCN〔N〕(N=1,2,3,…で)の内
部に記述されている条件「AAAAA」,「BBBB
B」,「CCCCC」,…を判定している。そして、例
えば、投手が投げるシーンであれば、条件「AAAA
A」は「投手が調子が悪いときの投球」というものであ
ったり、条件「BBBBB」は「相手チームが勝ってい
る」というものであったり、条件「CCCCC」は「ピ
ッチャーが投げました」というものであるものとする。
FIG. 23 is a diagram showing the relationship between a scene box and a text box. In this figure, the main CPU 101 determines conditions “AAAAA”, “BBBB” described inside a scene box SCN [N] (N = 1, 2, 3,...) Given with the development of the game.
B "," CCCCC ",... For example, in the case of a scene thrown by a pitcher, the condition “AAAAA”
"A" is "Pitching when the pitcher is ill,""BBBBB" is "The opponent is winning," and "CCCCC" is "Pitcher thrown." It is assumed that.

【0137】また、メインCPU101は、条件「AA
AAA」にはテキストボックスAAAAA・BOXが、
条件「BBBBB」にはテキストボックスBBBBB・
BOXが、条件「CCCCC」にはテキストボックスC
CCCC・BOXが、それそれ対応している。メインC
PU101は、取得したした条件と、シーンボックスS
CN〔1〕の条件とを判定する。例えば条件「AAAA
A」が選択された場合には、メインCPU101は、条
件「AAAAA」によるテキストボックスAAAAA・
BOXを選択し、ついで、このテキストボックスAAA
AA・BOXに対してランダム選択命令を与えて、テキ
ストボックスAAAAA・BOXに記載されている台詞
番号「aa001」,「aa002」,「aa00
3」,「aa004」の内から、ランダム選択命令を基
に「aa004」を選択する。この選択した台詞番号
「aa004」に対応する台詞をサウンドブロック12
に与える。これにより、スピーカ5からは「aa00
4」に対応する台詞が発生することになる。
The main CPU 101 sets the condition “AA”
"AAA" contains a text box AAAAA.BOX,
The condition “BBBBB” contains a text box BBBBB
BOX has text box C for condition "CCCCC"
CCCC BOX corresponds to each. Main C
The PU 101 determines the acquired condition and the scene box S
The condition of CN [1] is determined. For example, the condition "AAAAA
When “A” is selected, the main CPU 101 determines that the text box AAAAA ·
Select BOX and then in this text box AAA
A random selection instruction is given to AA / BOX, and the dialogue numbers “aa001”, “aa002”, “aa00” described in the text box AAAAA / BOX are given.
"Aa004" is selected from among "3" and "aa004" based on a random selection instruction. The speech corresponding to the selected speech number “aa004” is stored in the sound block 12.
Give to. As a result, “aa00” is output from the speaker 5.
A line corresponding to “4” is generated.

【0138】ここで、シーンボックスSCN〔1〕に
は、条件の名前「AAAAA」,「BBBBB」,「C
CCCC」,…のみが記述されており、その名前はテキ
ストボックス名と同一である。また、テキストボックス
AAAAA・BOXの中身は、台詞番号「aa00
1」,「aa002」,「aa003」,「aa00
4」の羅列であって、シーンボックスSCN〔1〕内に
は台詞番号が入ることはない。テキストボックスBBB
BB・BOXの中身は、台詞番号「bb001」,「b
b002」,「bb003」の羅列であって、シーンボ
ックスSCN〔1〕内には台詞番号が入ることはない。
テキストボックスCCCCC・BOXの中身は、台詞番
号「cc001」,「cc002」,「cc003」,
「cc004」,「cc005」の羅列であって、シー
ンボックスSCN〔1〕内には台詞番号が入ることはな
い。これ以外のテキストボックス,…も同様である。
Here, the scene box SCN [1] contains condition names “AAAAA”, “BBBBB”, “C
.., And their names are the same as the text box names. The contents of the text box AAAAA.BOX are the dialogue numbers “aa00”.
1 "," aa002 "," aa003 "," aa00
4 ", and the dialog box number is not included in the scene box SCN [1]. Text box BBB
The contents of the BB / BOX are the dialogue numbers “bb001”, “b
b002 "and" bb003 ", and the dialog box number is not included in the scene box SCN [1].
The contents of the text boxes CCCCC and BOX are dialog numbers “cc001”, “cc002”, “cc003”,
This is a list of “cc004” and “cc005”, and the dialog box number is not included in the scene box SCN [1]. The same applies to other text boxes.

【0139】この発明の第4の実施の形態によれば、台
詞を決定する条件をシーンボックス内に配置したので、
台詞の作成処理のデバッグの時間が短くなり、故障等が
発生しても短時間に処理ができる。
According to the fourth embodiment of the present invention, the conditions for determining dialog are arranged in the scene box.
The debugging time of the speech creation processing is shortened, and even if a failure or the like occurs, processing can be performed in a short time.

【0140】<本発明の第3の実施の形態の変形例>次
に、本発明の前記第3の形態の変形例について説明す
る。先ず、この変形例に至った背景について説明する。
多量のセリフデータを扱うには、それぞれのセリフデー
タを1ファイルとしてCD−ROMの各セクタに記憶す
ることが考えられる。しかしながら、それぞれのセリフ
がファイルであるとすると、ゲーム機のCPUがアクセ
スするのに一度TOC(CD−ROMに記憶されている
全てのファイルの先頭アドレス、ファイル長などを記憶
している領域)にアクセスし、ついで該当するアドレス
(セクタ)にアクセスしてからこれらのデータを読み出
す必要があったためアクセス速度が遅かった。そこで、
複数のセリフデータをまとめて1ファイルとしてCD−
ROMに記憶し、その各セリフデータの先頭アドレスを
テーブル形式で本体側のRAMに記憶するようにしてい
た。
<Modification of Third Embodiment of the Present Invention> Next, a modification of the third embodiment of the present invention will be described. First, the background that led to this modification will be described.
In order to handle a large amount of dialog data, it is conceivable to store each dialog data as one file in each sector of the CD-ROM. However, assuming that each line is a file, once accessed by the CPU of the game machine, the TOC (the area storing the start addresses and file lengths of all the files stored in the CD-ROM) is once stored in the TOC. The access speed was slow because it was necessary to access and then read the data after accessing the corresponding address (sector). Therefore,
Collect multiple lines of data as one file on CD-
It is stored in a ROM, and the head address of each line data is stored in a table format in a RAM of the main body.

【0141】さらに、各セリフデータへのアクセスは、
RAMに記憶されている先頭アドレスを用いて行ってい
たが、その際、セリフデータの終わりが分からないた
め、そのセリフデータと次のセリフデータの先頭アドレ
スを用いてデータ長を計算していた。
Further, access to each line of data is as follows.
In this case, the head address stored in the RAM is used. However, at this time, since the end of the line data is not known, the data length is calculated using the line data and the head address of the next line data.

【0142】しかしながら、ゲーム機に適用されるゲー
ム用ソフトウエアの内容がより豊富になるに従ってセリ
フデータ数が飛躍的に増加し、その結果、本体RAMに
記憶させるデータ量が膨大になってきた。例えば、セリ
フデータが10000個あり、1セリフデータの先頭ア
ドレスに4バイト必要とすると、40キロバイトものメ
モリを使用することとなる。
However, as the content of the game software applied to the game machine becomes more abundant, the number of dialog data increases dramatically, and as a result, the amount of data stored in the main body RAM has become enormous. For example, if there are 10,000 lines of data and four bytes are required for the head address of one line of data, a memory of as much as 40 kilobytes will be used.

【0143】そこで、本体RAM側には、各セリフデー
タの先頭アドレスをプログラム中に定義して、随時必要
なときに、プログラムがCD−ROMから読み出せるよ
うにした。このとき、各セリフデータのデータ長が必要
であるが、データ形式がテーブル形式でないため演算で
きない。このために、CD−ROM側の各セリフデータ
の領域に次のセリフデータの先頭アドレスを格納し、デ
ータ長を演算できるようにした。したがって、セリフデ
ータの領域に持たす情報は、次のセリフデータの先頭ア
ドレスに限らず、セリフデータのデータ長であっても良
い。
Therefore, on the main body RAM side, the start address of each line of data is defined in the program so that the program can be read from the CD-ROM whenever necessary. At this time, the data length of each serif data is required, but cannot be calculated because the data format is not a table format. For this purpose, the head address of the next dialog data is stored in the area of each dialog data on the CD-ROM side so that the data length can be calculated. Therefore, the information held in the line data area is not limited to the head address of the next line data, but may be the data length of the line data.

【0144】なお、上記の説明において、野球のゲーム
の実況を例にとり説明したが、この発明は他の用途にも
適用できるのは言うまでもない。例えば、シーンボック
スSCNの条件やテキストボックスの内容を取り替える
えることにより、いわゆる掛け合い漫才のような表現
や、テレビ番組の途中における割り込み実況のような表
現も可能になる。いずれの場合も、台詞がランダムに選
択されるから、予想のつかない展開が毎回繰り返され、
プレーヤーを飽きさせない。したがって、非常にバラエ
ティーに富む装置・方法を提供できる。
In the above description, the actual situation of a baseball game has been described as an example, but it goes without saying that the present invention can be applied to other uses. For example, by exchanging the conditions of the scene box SCN and the contents of the text box, expressions such as a so-called conversational comic and an expression such as a live interrupt in the middle of a television program can be realized. In each case, the dialogue is randomly selected, so unpredictable expansions are repeated each time,
Keep the player tired. Therefore, it is possible to provide a variety of devices and methods.

【0145】<本発明の第5の実施の形態>次に、本発
明の第5の実施の形態の概略を説明する。この第5の実
施の形態は、CD−ROMに記録されたデータを再生す
る動作を説明するものであり、第3の実施の形態とは別
な動作例を説明するものである。すなわち、第5の実施
の形態では、ファイルの先頭情報に読出情報である次の
ファイルの始まるセクタ番号を記録しておき、CD−R
OMから当該ファイルのセクタを次々に読み出し、読み
出したセクタ番号が当該次のファイルの始まるセクタ番
号であったときに読み出しを終了させるようにしたもの
である。
<Fifth Embodiment of the Present Invention> Next, an outline of a fifth embodiment of the present invention will be described. The fifth embodiment describes an operation of reproducing data recorded on a CD-ROM, and describes another operation example different from the third embodiment. That is, in the fifth embodiment, the sector number of the beginning of the next file, which is read information, is recorded in the head information of the file, and the CD-R
The sectors of the file are sequentially read from the OM, and the reading is terminated when the read sector number is the sector number at which the next file starts.

【0146】この第5の実施の形態でも、図1、図2に
示す第1の実施の形態におけるビデオゲーム機、及び図
14(a)で示す第3の実施の形態におけるハードウエ
アを使用する。
Also in the fifth embodiment, the video game machine in the first embodiment shown in FIGS. 1 and 2 and the hardware in the third embodiment shown in FIG. 14A are used. .

【0147】それでは、上記ハードウエア及び図24及
び図25を使用して第5の実施の形態を説明することに
する。ここで、図24は同第5の実施の形態の動作を説
明するためのフローチャートであり、図25はCD−R
OMに記録されたデータの例を示す模式図である。
The fifth embodiment will now be described with reference to the above hardware and FIGS. 24 and 25. FIG. 24 is a flowchart for explaining the operation of the fifth embodiment, and FIG.
FIG. 3 is a schematic diagram illustrating an example of data recorded in an OM.

【0148】CD−ROMには、周知のとおり複数のフ
ァイルFL1,FL2,…が記録されている(図14
(a)参照)。また、前記ファイルFL1は、図25に
示すように、その記録される情報の長さに応じた複数の
セクタST,ST,…から構成されている。同様に、フ
ァイルFL2も、その記録される情報の長さに応じた複
数のセクタST,ST,…から構成されている。
As is well known, a plurality of files FL1, FL2,... Are recorded on the CD-ROM (FIG. 14).
(A)). As shown in FIG. 25, the file FL1 is composed of a plurality of sectors ST, ST,... Corresponding to the length of the information to be recorded. Similarly, the file FL2 is also composed of a plurality of sectors ST, ST,... Corresponding to the length of the information to be recorded.

【0149】前記ファイルFL1を構成する各セクタS
T,ST,…の先頭には、セクタ情報SCT10,SC
T11,SCT13,…,SCT124が設けられてい
る。また、ファイルFL2を構成するセクタST,S
T,…にも、セクタ情報SCT125,SCT126,
SCT127,…が設けられている。すなわち、各ファ
イルFL1,FL1,…は、それぞれが構成される情報
の長さに応じて複数のセクタST,ST,…から構成さ
れることなる。また、一つのファイルFLを構成する各
セクタST,ST,…は、周知のとおり、上記セクタ情
報SCTの外に、例えば識別子ギャップ、データブロッ
ク、データブロックギャップを有し、また、一つのファ
イルFLの始めと終わりには、それらのことを示す所定
情報が設けられている。また、各ファイルFL(n;n
は任意の整数である)の第1番目のセクタSTのセクタ
情報SCTには、次のファイルFL(n+1)の第1番
目のセクタ番号を記録しておくものとする。
Each sector S constituting the file FL1
T, ST,... Have sector information SCT10, SC
, SCT124 are provided. Also, sectors ST, S constituting file FL2 are used.
T,... Also have sector information SCT125, SCT126,
SCT 127,... Are provided. That is, each file FL1, FL1,... Is composed of a plurality of sectors ST, ST,. Each of the sectors ST, ST,... Constituting one file FL has, for example, an identifier gap, a data block, and a data block gap in addition to the sector information SCT. Are provided with predetermined information indicating the above. Also, each file FL (n; n
Is an arbitrary integer), the first sector number of the next file FL (n + 1) is recorded in the sector information SCT of the first sector ST.

【0150】次に、図24のフローチャートを説明に移
ることにする。
Next, the flow of FIG. 24 will be described.

【0151】まず、メインCPU101からの指令によ
り読み出すファイルが指定される。この読み出しが指定
されたファイルを指定ファイルという。ここで、この指
定ファイルが例えばファイルFL1であったとする。す
ると、サブシステム13のCPU181は、指定ファイ
ルFL1の第1番目のセクタSTをCD−ROMドライ
ブ1bを介してCD−ROMから読み出す(S61)。
CPU181は、読み出した第1番目のセクタSTの情
報の誤り訂正等の処理を実行した後、当該情報をMPE
G AUDIO182、MPED VIDEO183に
渡す。AUDIO182、MPED VIDEO183
において圧縮情報から復元された情報のうちのデータ
は、CPUブロック10に渡される。
First, a file to be read is specified by a command from the main CPU 101. The file designated to be read is called a designated file. Here, it is assumed that the designated file is, for example, the file FL1. Then, the CPU 181 of the subsystem 13 reads the first sector ST of the designated file FL1 from the CD-ROM via the CD-ROM drive 1b (S61).
After executing processing such as error correction of the read information of the first sector ST, the CPU 181 stores the information in the MPE.
G AUDIO 182 and MPED VIDEO 183. AUDIO182, MPED VIDEO183
, Data of the information decompressed from the compressed information is passed to the CPU block 10.

【0152】次に、CPU181は、そのようにした得
られた次ファイルの先頭情報を保存する(S62)。こ
の保存する次ファイルの先頭情報は、この場合、次のフ
ァイルFL2の始まる「セクタ番号(図25ではSCT
125)」が相当する。
Next, the CPU 181 saves the head information of the next file thus obtained (S62). In this case, the head information of the next file to be stored is the “sector number (SCT in FIG. 25) starting the next file FL2.
125)).

【0153】そして、CPU181は、CD−ROMか
ら当該ファイルFL1の第2番目のセクタSTを読み出
す(S63)。その後、CPU181は、その読み出し
た第2番目のセクタSTのセクタ情報SCT12が前記
保存したファイル先頭情報(SCT125)と一致する
か判断する(S64)。
Then, the CPU 181 reads the second sector ST of the file FL1 from the CD-ROM (S63). Thereafter, the CPU 181 determines whether or not the read sector information SCT12 of the second sector ST matches the stored file head information (SCT125) (S64).

【0154】この場合、読み出したセクタ情報SCT1
2であって、前記保存したファイル先頭情報(SCT1
25)とは一致しない。したがって、CPU181は、
不一致であると判断し(S64;NO)、再び、次の第
3番目のセクタのセクタ情報SCT13を読み出す(S
63)。その後、CPU181は、その読み出した第3
番目のセクタSTのセクタ情報SCT13が前記保存し
たファイル先頭情報(SCT125)と一致するか判断
する(S64)。
In this case, the read sector information SCT1
2 and the stored file head information (SCT1
25) does not match. Therefore, the CPU 181
It is determined that they do not match (S64; NO), and the sector information SCT13 of the next third sector is read again (S64).
63). After that, the CPU 181 reads the read third
It is determined whether or not the sector information SCT13 of the second sector ST matches the stored file head information (SCT125) (S64).

【0155】この場合、読み出したセクタ情報SCT1
3であって、前記保存したファイル先頭情報(SCT1
25)とは一致しない。したがって、CPU181は、
不一致であると判断し(S64;NO)、再び、次の第
4番目のセクタのセクタ情報SCT14を読み出す(S
63)。その後、CPU181は、その読み出した第4
番目のセクタSTのセクタ情報SCT14が前記保存し
たファイル先頭情報(SCT125)と一致するか判断
する(S64)。
In this case, the read sector information SCT1
3, the stored file head information (SCT1
25) does not match. Therefore, the CPU 181
It is determined that they do not match (S64; NO), and the sector information SCT14 of the next fourth sector is read again (S64).
63). Thereafter, the CPU 181 determines that the read fourth
It is determined whether the sector information SCT14 of the second sector ST matches the stored file head information (SCT125) (S64).

【0156】このようにCPU181は、ファイルFL
1のセクタSTを次々と読み出しては、保存ファイル先
頭情報(SCT125)との比較を繰り返す(S63−
S64;NO)。
As described above, the CPU 181 stores the file FL
After reading one sector ST one after another, the comparison with the storage file head information (SCT125) is repeated (S63-
S64; NO).

【0157】そして、CPU181は、CD−ROMか
ら当該ファイルFL1の第124番目のセクタSTを読
み出す(S63)。その後、CPU181は、その読み
出した第124番目のセクタSTのセクタ情報SCT1
24が前記保存したファイル先頭情報(SCT125)
と一致するか判断する(S64)。
Then, the CPU 181 reads the 124th sector ST of the file FL1 from the CD-ROM (S63). After that, the CPU 181 sets the sector information SCT1 of the read 124th sector ST.
24 is the stored file head information (SCT125)
Is determined (S64).

【0158】この場合、読み出したセクタ情報SCT1
24であって、前記保存したファイル先頭情報(SCT
125)とは一致しない。したがって、CPU181
は、不一致であると判断し(S64;NO)、再び、次
のファイルFL2の第1番目のセクタのセクタ情報SC
T125を読み出す(S63)。その後、CPU181
は、その読み出した第125番目のセクタSTのセクタ
情報SCT125が前記保存したファイル先頭情報(S
CT125)と一致するか判断する(S64)。
In this case, the read sector information SCT1
24, the stored file head information (SCT
125). Therefore, the CPU 181
Determines that they do not match (S64; NO), and again, the sector information SC of the first sector of the next file FL2
T125 is read (S63). After that, the CPU 181
Is the file information stored in the stored file information (SCT125) of the 125th sector ST.
CT125) is determined (S64).

【0159】この場合、読み出したセクタ情報SCT1
25であって、前記保存したファイル先頭情報(SCT
125)と一致する。したがって、CPU181は、先
頭情報が一致したとして、その一つ前の第124番目の
セクタSTをもって指定ファイルFL1の最後のセクタ
とし、ファイルFL1の読み出し(ロード)が完了した
として処理を終了する。
In this case, the read sector information SCT1
25 and the stored file head information (SCT
125). Therefore, the CPU 181 determines that the head information matches, sets the 124th sector ST immediately before that as the last sector of the designated file FL1, and ends the process assuming that reading (loading) of the file FL1 has been completed.

【0160】このようにしてCD−ROMからファイル
FL(n)を読み出す。
Thus, the file FL (n) is read from the CD-ROM.

【0161】この第5の実施の形態によれば、ファイル
FL(n)の第1番目のセクタ情報SCTに次のファイ
ルFL(n+1)が始まるセクタ番号を記録しておくだ
けで、サブシステム13側にCD−ROMを読み出すた
めの複雑な回路や、CPUブロック10にその読み出し
たデータを記憶させておく記憶エリアを設ける必要がな
くなり、その記憶エリアに格納しておいたデータを適正
に読み出すための処理プログラムも不要になるという利
点がある。
According to the fifth embodiment, only by recording the sector number at which the next file FL (n + 1) starts in the first sector information SCT of the file FL (n), the subsystem 13 There is no need to provide a complicated circuit for reading the CD-ROM on the side and a storage area for storing the read data in the CPU block 10, and to properly read the data stored in the storage area. There is an advantage that the processing program of (1) becomes unnecessary.

【0162】また、この第5の実施の形態によれば、第
3の実施の形態のようなファイルの長さを計算をする必
要もない。
According to the fifth embodiment, there is no need to calculate the length of a file as in the third embodiment.

【0163】<本発明の第6の実施の形態>次に、本発
明の第6の実施の形態の概略を説明する。この第6の実
施の形態は、第5の実施の形態と同様に、CD−ROM
に記録されたデータを簡単に再生させるための動作を説
明するものであり、第5の実施の形態とは別な動作例を
説明するものである。すなわち、第6の実施の形態で
は、ファイルの先頭情報に当該ファイルのセクタ数(サ
イズ)を記録しておき、CD−ROMから当該ファイル
のセクタを次々に読み出し、読み出したセクタの数が、
当該ファイルのセクタ数(サイズ)と一致したときに読
み出しを終了させるようにしたものである。
<Sixth Embodiment of the Present Invention> Next, an outline of a sixth embodiment of the present invention will be described. The sixth embodiment is similar to the fifth embodiment except that the CD-ROM
This section describes an operation for simply reproducing data recorded in the fifth embodiment, and describes another operation example different from the fifth embodiment. That is, in the sixth embodiment, the number of sectors (size) of the file is recorded in the head information of the file, and the sectors of the file are successively read from the CD-ROM.
The reading is terminated when the number of sectors (size) of the file matches.

【0164】この第6の実施の形態でも、図1、図2に
示す第1の実施の形態におけるビデオゲーム機、及び図
14(a)で示す第3の実施の形態におけるハードウエ
アを使用する。
Also in the sixth embodiment, the video game machine according to the first embodiment shown in FIGS. 1 and 2 and the hardware according to the third embodiment shown in FIG. 14A are used. .

【0165】それでは、上記ハードウエア及び図25及
び図26を使用して第6の実施の形態を説明することに
する。ここで、図25は第5の実施の形態で使用した模
式図であり、図26は同第6の実施の形態の動作を説明
するためのフローチャートである。
Now, a sixth embodiment will be described with reference to the above hardware and FIGS. 25 and 26. Here, FIG. 25 is a schematic diagram used in the fifth embodiment, and FIG. 26 is a flowchart for explaining the operation of the sixth embodiment.

【0166】まず、メインCPU101からの指令によ
り読み出すファイルが指定される。この指定ファイルが
例えばファイルFL1であったとする。すると、サブシ
ステム13のCPU181は、指定ファイルFL1の第
1番目のセクタSTをCD−ROMドライブ1bを介し
てCD−ROMから読み出す(S71)。CPU181
は、読み出した第1番目のセクタSTの情報の誤り訂正
等の処理を実行した後、当該情報をMPEG AUDI
O182、MPED VIDEO183に渡す。AUD
IO182、MPED VIDEO183において圧縮
情報から復元された情報のうちのデータは、CPUブロ
ック10に渡される。
First, a file to be read is specified by a command from the main CPU 101. It is assumed that the designated file is, for example, the file FL1. Then, the CPU 181 of the subsystem 13 reads the first sector ST of the designated file FL1 from the CD-ROM via the CD-ROM drive 1b (S71). CPU 181
Performs processing such as error correction of the read information of the first sector ST, and then stores the information in MPEG AUDI.
O182, and passed to MPED VIDEO183. AUD
The data of the information decompressed from the compressed information in the IO 182 and the MPED VIDEO 183 is passed to the CPU block 10.

【0167】次に、CPU181は、そのようにした得
られた当該ファイルFL1を構成するセクタ数を保存す
るとともにレジスタNに“1”をセットする(S7
2)。また、その保存したファイルFL1を構成するセ
クタ数は、当該第6の実施の形態の場合には、115個
のセクタで構成されている(図25参照)。
Next, the CPU 181 stores the number of sectors constituting the file FL1 thus obtained and sets "1" in the register N (S7).
2). Further, in the case of the sixth embodiment, the number of sectors constituting the saved file FL1 is constituted by 115 sectors (see FIG. 25).

【0168】そして、CPU181は、CD−ROMか
ら当該ファイルFL1の第2番目のセクタSTを読み出
した後(S73)、レジスタNをインクリメント処理を
実行する(S74)。このステップS74では、インク
レメント処理をする前は、レジスタN=1であり、イン
クリメント処理を実行すると、N=N+1=2となる。
After reading the second sector ST of the file FL1 from the CD-ROM (S73), the CPU 181 executes a process of incrementing the register N (S74). In this step S74, the register N = 1 before the increment processing is performed, and when the increment processing is executed, N = N + 1 = 2.

【0169】ついで、CPU181は、前記レジスタN
の数と上記保存したファイル数(115個)とを比較す
る(S75)。この場合、レジスタN(=2)であっ
て、ファイル数(=115個)であるので、CPU18
1は不一致と判断し(S75;NO)、再び、第3番目
のセクタSTを読み出した後(S73)、レジスタNを
インクリメント処理を実行する(S74)。このステッ
プS74では、インクレメント処理をする前は、レジス
タN=2であり、インクリメント処理を実行すると、N
=N+1=3となる。
Next, the CPU 181 sets the register N
Is compared with the number of stored files (115) (S75). In this case, since the register N (= 2) and the number of files (= 115), the CPU 18
1 judges that they do not match (S75; NO), reads the third sector ST again (S73), and executes a process of incrementing the register N (S74). In this step S74, before the increment processing is performed, the register N = 2.
= N + 1 = 3.

【0170】ついで、CPU181は、前記レジスタN
の数と上記保存したファイル数(115個)とを比較す
る(S75)。この場合、レジスタN(=3)であっ
て、ファイル数(=115個)であるので、CPU18
1は不一致と判断し(S75;NO)、再び、第4番目
のセクタSTを読み出した後(S73)、レジスタNを
インクリメント処理を実行する(S74)。
Next, the CPU 181 sets the register N
Is compared with the number of stored files (115) (S75). In this case, since the register N (= 3) and the number of files (= 115), the CPU 18
1 judges that they do not match (S75; NO), reads the fourth sector ST again (S73), and executes the increment processing of the register N (S74).

【0171】このようにCPU181は、ファイルFL
1のセクタSTを次々と読み出しては、セクタを一つ読
み出す毎にインクリメントし、そのインクリメントした
レジスタNの数値とその保存した当該ファイルFL1を
構成するセクタ数(=115個)とを比較を、レジスタ
Nの数値がセクタ数に一致するまで繰り返し実行してい
る(S73−S75;NO)。
As described above, the CPU 181 stores the file FL
When one sector ST is read one after another, it is incremented each time one sector is read, and the value of the incremented register N is compared with the number of sectors (= 115) constituting the stored file FL1. The process is repeatedly executed until the value of the register N matches the number of sectors (S73-S75; NO).

【0172】そして、CPU181は、CD−ROMか
ら当該ファイルFL1の第124番目のセクタSTを読
み出した後(S73)、レジスタNをインクリメント処
理を実行する(S74)。このステップS74では、イ
ンクレメント処理をする前は、レジスタN=114であ
り、インクリメント処理を実行すると、N=N+1=1
15となる。
Then, after reading the 124th sector ST of the file FL1 from the CD-ROM (S73), the CPU 181 executes a process of incrementing the register N (S74). In this step S74, the register N = 114 before the increment processing is performed, and when the increment processing is executed, N = N + 1 = 1
It becomes 15.

【0173】その後、CPU181は、レジスタNの数
値と、当該ファイルFL1を構成するセクタ数(=11
5個)とを比較すると(S75)、レジスタNの数値が
セクタ数(=115個)に一致するので(S75;YE
S)、指定ファイルFL1の読み出し(ロード)を完了
する。
Thereafter, the CPU 181 determines the value of the register N and the number of sectors constituting the file FL1 (= 11
(S75; YE) because the numerical value of the register N matches the number of sectors (= 115).
S), the reading (loading) of the designated file FL1 is completed.

【0174】このようにしてCD−ROMから指定され
たファイルFL(n)を次々に読み出すことができる。
In this way, the specified file FL (n) can be successively read from the CD-ROM.

【0175】この第6の実施の形態によれば、ファイル
FL(n)の第1番目のセクタ情報SCTに、当該ファ
イルFL(n)が構成されるセクタ数(サイズ)を記憶
しておくだけで、サブシステム13側にCD−ROMを
読み出すための複雑な回路や、CPUブロック10にそ
の読み出したデータを記憶させておく記憶エリアを設け
る必要がなくなり、その記憶エリアに格納しておいたデ
ータを適正に読み出すための処理プログラムも不要にな
るという利点がある。
According to the sixth embodiment, only the number of sectors (size) constituting the file FL (n) is stored in the first sector information SCT of the file FL (n). Thus, there is no need to provide the subsystem 13 with a complicated circuit for reading the CD-ROM or a storage area for storing the read data in the CPU block 10, and the data stored in the storage area can be eliminated. There is an advantage that a processing program for properly reading the data is unnecessary.

【0176】また、この第6の実施の形態によれば、第
3の実施の形態のようなファイルの長さを計算をする必
要もない。
According to the sixth embodiment, there is no need to calculate the length of a file as in the third embodiment.

【0177】なお、上記第6の実施の形態では、指定フ
ァイルFL(n)を読み出すときに、指定ファイルFL
(n)の第1番目のセクタ情報SCTを読み出して当該
ファイルFL(n)を構成するセクタ数を保存してお
き、このファイルFL(n)を構成するセクタを読み出
す毎に、インクリメントしてゆき、保存したセクタ数と
一致したときに、当該ファイルFL(n)をすべて読み
出したものとしているが、指定ファイルFL(n)のセ
クタ数を、セクタを読み出す毎にデクリメントしてゆ
き、ゼロとなったときに当該ファイルFL(n)の読み
出しが終了したものとしてもよい。
In the sixth embodiment, when the designated file FL (n) is read, the designated file FL (n) is read.
The first sector information SCT of (n) is read, the number of sectors constituting the file FL (n) is stored, and the number is incremented every time the sectors constituting the file FL (n) are read. When the number of stored sectors matches, the file FL (n) is assumed to have been completely read, but the number of sectors of the designated file FL (n) is decremented every time a sector is read, and becomes zero. At this time, the reading of the file FL (n) may be completed.

【0178】要するに、第6の実施の形態では、ファイ
ルFL(n)を構成するセクタ数(サイズ)を読み出
し、このファイルFL(n)のセクタ数(サイズ)をみ
て足りない分をCD−ROMから読み出すようにしたも
のである。
In short, in the sixth embodiment, the number of sectors (size) constituting the file FL (n) is read, and the number of sectors (size) of the file FL (n) is read, and the insufficient number is read from the CD-ROM. Is read from the memory.

【0179】加えて、上記第3の実施の形態、第5の実
施の形態、及び第6の実施の形態では、読出しをしよう
とするファイル(指定ファイル)の先頭ファイルに、読
出情報(すなわち、次のファイルに関する情報や当該フ
ァイルを構成するセクタ数等)を配置しているが、これ
に限らず、例えば2番目のセクタ、3番目のセクタ等に
配置し、その状態で読出し制御するようにしてもよい。
この場合、2番目のセクタ、3番目のセクタに当該読出
情報があるとして、当該番目の前のセクタも保存してお
き、ファイルを完成させるようにすればよい。
In addition, in the third, fifth and sixth embodiments, read information (that is, read information (ie, (Information on the next file, the number of sectors constituting the file, etc.) are arranged, but the present invention is not limited to this. For example, the information is arranged in the second sector, the third sector, etc., and read control is performed in that state. You may.
In this case, assuming that the read information is present in the second sector and the third sector, the previous sector may be saved and the file may be completed.

【0180】<本発明の第7の実施の形態>次に、本発
明の第7の実施の形態の概略を説明する。この第7の実
施の形態は、パスワードの確認作業を容易にするため
に、パスワードを音声で確認できるシステムである。こ
のTVゲーム機は、このゲームを遊戯することができる
者を限定するためにパスワードを設定し、あるいは、ゲ
ームの進行に伴ってパスワードを設定する必要がある
が、この第7の実施の形態は、当該パスワードを入力す
るときや、当該パスワードを出力したときに、当該パス
ワードの一文字毎を指定するとともに、その指定されて
いる文字を音声で確認できるようにしたシステムであ
る。
<Seventh Embodiment of the Present Invention> Next, an outline of a seventh embodiment of the present invention will be described. The seventh embodiment is a system capable of confirming a password by voice in order to facilitate a password confirmation operation. In this TV game machine, it is necessary to set a password in order to limit the players who can play this game, or to set a password as the game progresses. In addition, when the password is input or the password is output, the password is designated for each character, and the designated character can be confirmed by voice.

【0181】〔パスワード入力時の処理〕この第7の実
施の形態でも、第1の実施の形態におけるTVゲーム機
を使用している。
[Processing at the time of password input] In the seventh embodiment, too, the TV game machine of the first embodiment is used.

【0182】この第7の実施の形態において、まず、パ
スワード入力時の処理について図27を参照して説明す
る。図27は、パスワードを入力する場合の動作を説明
するためのフローチャートである。
In the seventh embodiment, the process at the time of inputting a password will be described first with reference to FIG. FIG. 27 is a flowchart for explaining the operation when a password is input.

【0183】まず、パスワードを入力するモードにする
と、図27のフローチャートの動作となる。図27で
は、まず、TV受像機5の画面に表示されたガイダンス
にしたがってパスワードの入力画面にする。そして、パ
スワードを入力する(S80)。この場合、入力された
パスワードは、TV受像機5の画面に表示される。通常
は、このTV受像機5の画面に表示されたパスワードの
一文字毎に確認してゆき、パスワードが正しく入力され
たと判断したときには(S81;YES)、処理を終了
する。
First, when the mode for inputting the password is set, the operation in the flowchart of FIG. 27 is performed. In FIG. 27, first, a password input screen is displayed in accordance with the guidance displayed on the screen of the TV receiver 5. Then, a password is input (S80). In this case, the input password is displayed on the screen of the TV receiver 5. Normally, the password is displayed for each character displayed on the screen of the TV receiver 5, and when it is determined that the password has been correctly input (S81; YES), the processing is terminated.

【0184】しかしながら、TV受像機5の画面を見な
がらのパスワードの確認作業は大変であるので、音声出
力するように設定しておくと(S82;YES)、入力
したパスワード一文字毎に、当該文字の音声がスピーカ
5a,5bから出力される。(S83)。
However, since it is difficult to confirm the password while looking at the screen of the TV receiver 5, if it is set so as to output voice (S82; YES), each character of the inputted password will be Is output from the speakers 5a and 5b. (S83).

【0185】したがって、この第7の実施の形態では、
パスワードを入力する毎に、当該入力した文字の音声が
出力されることになって、正しいパスワードが入力され
るまで、上記処理を実行すすることにより(S81〜S
84)、文字を音声で確認できるので、確認作業が簡単
になる。
Therefore, in the seventh embodiment,
Each time a password is input, the sound of the input character is output, and the above processing is executed until a correct password is input (S81 to S81).
84) Since the characters can be confirmed by voice, the confirmation work is simplified.

【0186】〔パスワード出力時の処理〕この第7の実
施の形態において、次に、パスワード出力時の処理につ
いて図28を参照して説明する。図28は、パスワード
を出力する場合の動作を説明するためのフローチャート
である。
[Processing at Password Output] In the seventh embodiment, the processing at the time of password output will be described with reference to FIG. FIG. 28 is a flowchart for explaining the operation when a password is output.

【0187】図28では、まず、TV受像機5の画面に
表示されたガイダンスにしたがってパスワードの出力画
面にする。そして、所定の手続をしてパスワードの出力
画面にする。すると、TV受像機5の画面にはパスワー
ドが表示されることになる(S91)。そして、音声出
力するか否かを設定をしておくと(S92)、例えば音
声出力しない場合には(S92;NO)、処理を終了す
る。
In FIG. 28, first, a password output screen is displayed according to the guidance displayed on the screen of the TV receiver 5. Then, a predetermined procedure is performed to display a password output screen. Then, the password is displayed on the screen of the TV receiver 5 (S91). If it is set whether or not to output a voice (S92), for example, if no voice is to be output (S92; NO), the process is terminated.

【0188】また、例えば音声出力する場合には(S9
2;YES)、パスワードの文字に応じた音声出力が出
力される(S93)。
For example, when audio is output (S9
2; YES), an audio output corresponding to the characters of the password is output (S93).

【0189】図29は、上記音声出力処理のサブルーチ
ンを示すフローチャートである。図27の音声出力処理
(S83)、あるいは、図28の音声出力処理(S9
3)のサブルーチンは、メインCPU101において処
理されることになる。まず、最初の文字にカーソルを移
動する(S831)。
FIG. 29 is a flowchart showing a subroutine of the audio output processing. The audio output processing of FIG. 27 (S83) or the audio output processing of FIG.
The subroutine 3) is processed by the main CPU 101. First, the cursor is moved to the first character (S831).

【0190】次に、処理を終了するのか判定する(S8
32)。終了ではない場合には(S832;NO)、一
時停止するかの判定をする(S833)。この処理は、
音声再生を所定のタイミングで行うためのものである。
一時停止しない場合には(S833;NO)、さらに、
停止するかの判断をする(S834)。
Next, it is determined whether the processing is to be ended (S8).
32). If it is not the end (S832; NO), it is determined whether to temporarily stop (S833). This process
This is for performing sound reproduction at a predetermined timing.
If not temporarily stopped (S833; NO),
It is determined whether to stop (S834).

【0191】停止しない場合(S834;NO)、音声
出力処理を実行する(S835)。そして、次の文字に
カーソルを移動させる(S836)。
If not stopped (S834; NO), a sound output process is executed (S835). Then, the cursor is moved to the next character (S836).

【0192】さらに、パスワードを構成する文字の最後
の文字まで再生したか判断する(S837)。パスワー
ドの最後の文字まで再生していないときには(S83
7;NO)、再び、ステップ832から処理を実行す
る。
Furthermore, it is determined whether or not the last character of the character constituting the password has been reproduced (S837). If the last character of the password has not been reproduced (S83
7; NO), the processing is executed again from step 832.

【0193】一方、パスワードの最後の文字まで再生し
たときには(S837;YES)、最初の文字にカーソ
ルを移動する処理に移行する(S841)。そして、処
理を終了するのであれば(S832;YES)、終了す
る。
On the other hand, when the last character of the password has been reproduced (S837; YES), the process shifts to a process of moving the cursor to the first character (S841). If the processing is to be ended (S832; YES), the processing is ended.

【0194】なお、一時停止する場合には(S833;
YES)、再び、ステップ832からの処理を実行す
る。
In the case of temporary suspension (S833;
YES), the processing from step 832 is executed again.

【0195】また、停止する場合(S834;YE
S)、ステップS831に戻って最初の文字にカーソル
を移動処理を実行する。
When stopping (S834: YE)
S), the process returns to step S831 to execute a process of moving the cursor to the first character.

【0196】このように音声出力処理は、パスワード入
力時、あるいは、パスワード出力時に、音声出力を選択
しているときに、共通して行われる処理である。また、
この音声出力処理は、音声を出力すべきパスワードの文
字に対して、その文字に連動してカーソルを移動させて
いるが、文字の色を他の文字の色と変更するようにして
もよい。また、上記フローチャートからも分かるよう
に、この音声出力処理は、音声出力を、一時停止、停
止、再再生、カーソルの連動を行うことができる。ま
た、この音声出力処理は、1文字単位に実行可能である
ため、パスワードの確認時には有効である。
As described above, the voice output process is a process commonly performed when voice output is selected at the time of password input or password output. Also,
In this voice output process, the cursor is moved in conjunction with the character of the password to output the voice, but the color of the character may be changed to the color of another character. In addition, as can be seen from the above flowchart, this audio output processing can temporarily stop, stop, replay, and link the cursor with the audio output. Further, since this audio output processing can be executed in units of one character, it is effective when confirming a password.

【0197】このように第7の実施の形態では、次のよ
うな特徴を有する。
As described above, the seventh embodiment has the following features.

【0198】(1)任意のタイミングで、ポスワードを
一文字毎に、再生、一時停止、停止が可能となる。
(1) It is possible to reproduce, pause, and stop a password at an arbitrary timing for each character.

【0199】(2)音声停止機能を有しているので、誤
って音声が再生されても、これを取り消すことができ
る。
(2) Since the voice stop function is provided, even if voice is reproduced by mistake, it can be canceled.

【0200】(3)画面上では音声出力に連動してカー
ソルが動くため、音声一時停止中でも次再生時に、どこ
から音声出力が始まるかが分かる。
(3) Since the cursor moves on the screen in conjunction with the audio output, it is possible to know where the audio output starts during the next reproduction even when the audio is paused.

【0201】(4)一時停止の機能を付加することによ
り、遊戯者のペースに合わせてパスワードを確認でき
る。
(4) By adding a pause function, the password can be confirmed at the pace of the player.

【0202】(5)音声出力をするかどうかは遊戯者に
一任されているため、この機能を必要としなければ使用
しなくてもよい。
(5) It is up to the player to decide whether or not to output a sound, so that this function may not be used if this function is not required.

【0203】(6)パスワードを聞き逃しても、再生要
求を行うことで、再び音声出力がされる。
(6) Even if the password is missed, a sound is output again by making a reproduction request.

【0204】(7)音声は聞き取りやすい間隔で流れる
ようにしてあるので、聞き易い。
(7) Since the sound is made to flow at intervals that are easy to hear, it is easy to hear.

【0205】(8)自分の入力したパスワードの確認の
ために使用できる。
(8) It can be used to confirm the password entered by the user.

【0206】このように第7の実施の形態では、パスワ
ード確認のために、画面と書面との間を視線を移す必要
がなくなって、目の疲れが軽減される。
As described above, in the seventh embodiment, it is not necessary to move the line of sight between the screen and the document for password confirmation, and eyestrain is reduced.

【0207】第7の実施の形態では、音声で確認できる
ので、パスワードの間違いやパスワードの入力間違いを
容易に発見できる。
In the seventh embodiment, since confirmation can be made by voice, it is possible to easily find a wrong password or a wrong password input.

【0208】第7の実施の形態によれば、ゲーム開始ま
でのいらいら感を減らせる。
According to the seventh embodiment, the irritability until the start of the game can be reduced.

【0209】第7の実施の形態によれば、ある程度長い
パスワード入力時の遊戯者の負担を軽減できる。
According to the seventh embodiment, it is possible to reduce the burden on the player when inputting a relatively long password.

【0210】第7の実施の形態によれば、ゲームの使用
感を細部にまで快適なものにすることが可能になる。
According to the seventh embodiment, it is possible to make the feeling of use of the game even more detailed and comfortable.

【0211】なお、他の実施の形態は、コンピュータ
を、処理部及びデータ装置として機能させるためのプロ
グラムを記録した媒体である。
[0211] Note that another embodiment is a medium in which a program for causing a computer to function as a processing unit and a data device is recorded.

【0212】この媒体には、例えば、フロッピーディス
ク、ハードディスク、磁気テープ、光磁気ディスク、C
D−ROM、DVD、ROMカートリッジ、バッテリバ
ックアップ付きのRAMメモリカートリッジ、フラッシ
ュメモリカートリッジ、不揮発性RAMカード等を含
む。また、電話回線等の有線通信媒体、マイクロ波回線
等の無線通信媒体等通信媒体を含む。インターネットも
ここでいう通信媒体に含まれる。
This medium includes, for example, a floppy disk, hard disk, magnetic tape, magneto-optical disk, C
D-ROM, DVD, ROM cartridge, RAM memory cartridge with battery backup, flash memory cartridge, nonvolatile RAM card, etc. are included. Also, communication media such as a wired communication medium such as a telephone line and a wireless communication medium such as a microwave line are included. The Internet is also included in the communication medium mentioned here.

【0213】また、媒体とは、何らかの物理的手段によ
り情報(主にデジタルデータ、プログラム)が記録され
ているものであって、コンピュータ、専用プロセッサ等
の処理装置に所定の機能を行わせるものができるもので
ある。要するに、何らかの手段であっても、コンピュー
タにプログラムをダウンロードし、所定の機能を実行さ
せるものであればよい。
A medium is a medium on which information (mainly digital data and programs) is recorded by some physical means, and is a medium that causes a processing device such as a computer or a dedicated processor to perform a predetermined function. You can do it. In short, any means may be used as long as it downloads a program to a computer and executes a predetermined function.

【0214】[0214]

【発明の効果】以上のように、本発明の第1によれば、
キャラクタを構成するポリゴンを配置する上での計算処
理数が少なくて済むことになり、計算処理ステップを減
少させることができる。さらに、手首、足首等の部品ポ
リゴンと胴体ポリゴン等の基準ポリゴンとの間には、関
節に相当する部分が存在しないために、部品ポリゴンを
自由に延ばしたり、縮めることができる。
As described above, according to the first aspect of the present invention,
The number of calculation processes for arranging the polygons constituting the character can be reduced, and the number of calculation processing steps can be reduced. Furthermore, since there is no part corresponding to a joint between a part polygon such as a wrist or an ankle and a reference polygon such as a body polygon, the part polygon can be freely extended or contracted.

【0215】また、本発明の第2によれば、キャラクタ
の顔面等の表情を構成するパーツは、基準点からの位置
データをそれぞれ備えた複数の部品ポリゴンから構成
し、表情を変化させるときには、表情の変化に対応す
る、目、鼻、口等のパーツのポリゴンを画像処理するよ
うにしたので、部品ポリゴンのみそれぞれ独立して画像
処理でき、画像処理負担が軽減されるとともに、キャラ
クタの表情の基準となる顔が、各パーツの変化の影響を
受けないので、極端な表現をしてもその輪郭等が崩れる
ことがない。
Further, according to the second aspect of the present invention, the parts constituting the expression such as the face of the character are composed of a plurality of part polygons each having position data from the reference point. Image processing is performed on polygons of parts such as eyes, nose, mouth, etc. corresponding to changes in facial expressions, so that only component polygons can be processed independently, reducing the image processing load and reducing the character's facial expression. Since the reference face is not affected by the change of each part, the contour or the like does not collapse even when an extreme expression is made.

【0216】また、本発明の第2によれば、一つのテク
スチャーパターンでも、部品の回転、拡大、縮小、移動
させることができるため、そのままでも多彩な表情を作
ることができるし、テクスチャーパターンの数を増やす
と、従来のテクスチャーパターンチェンジやモデルを変
化させる場合よりもはるかに多様な表情を実現すること
ができる。さらに、部品ポリゴンを基体となる顔等から
飛び出させたり、落としたりでき、アニメ風の表現を多
彩に実現することが可能になる。
Further, according to the second aspect of the present invention, since a part can be rotated, enlarged, reduced, and moved even with one texture pattern, various expressions can be created as it is, and By increasing the number, it is possible to realize much more varied expressions than when changing the conventional texture pattern or changing the model. Further, the component polygons can be projected or dropped from the face or the like serving as the base, and it is possible to realize various animation-like expressions.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の実施の形態1に係るビデオゲーム機
の外観図である。
FIG. 1 is an external view of a video game machine according to Embodiment 1 of the present invention.

【図2】この発明の実施の形態1に係るビデオゲーム機
の概略構成図である。
FIG. 2 is a schematic configuration diagram of a video game machine according to Embodiment 1 of the present invention.

【図3】この発明の第1の実施の形態におけるキャラク
タの基本的な構成を示す概念図である。
FIG. 3 is a conceptual diagram showing a basic configuration of a character according to the first embodiment of the present invention.

【図4】この発明の第1の実施の形態におけるモーショ
ンデータの構成を示す概念図である。
FIG. 4 is a conceptual diagram showing a configuration of motion data according to the first embodiment of the present invention.

【図5】この発明の第1の実施の形態の基本的処理概念
を示す概念図である。
FIG. 5 is a conceptual diagram showing a basic processing concept of the first embodiment of the present invention.

【図6】この発明の第1の実施の形態処理のフローチャ
ートである。
FIG. 6 is a flowchart of a process according to the first embodiment of this invention.

【図7】この発明の第1の実施の形態の動作によりキャ
ラクタの変化の一例を示す説明図である。
FIG. 7 is an explanatory diagram showing an example of a change of a character by the operation of the first embodiment of the present invention.

【図8】この発明の第1の実施の形態における処理と、
この実施の形態を適用しないキャラクタとの処理との比
較を説明するための図である。
FIG. 8 shows processing in the first embodiment of the present invention;
It is a figure for explaining comparison with processing with a character which does not apply this embodiment.

【図9】この発明の第2の実施の形態におけるキャラク
タの顔面の表情の作成処理について説明するための説明
図である。
FIG. 9 is an explanatory diagram for describing a process of creating a facial expression of a character according to the second embodiment of the present invention.

【図10】この発明の第2の実施の形態における各ポリ
ゴンの説明図である。
FIG. 10 is an explanatory diagram of each polygon according to the second embodiment of the present invention.

【図11】この発明の第2の実施の形態の動作を説明す
るためのフローチャートである。
FIG. 11 is a flowchart for explaining the operation of the second embodiment of the present invention.

【図12】この発明の第2の実施の形態における動作に
よりキャラクタの顔面の表情が変化することを示す図で
ある。
FIG. 12 is a diagram showing that a facial expression of a character is changed by an operation according to the second embodiment of the present invention.

【図13】この発明の第2の実施の形態における動作に
よりキャラクタの顔面の表情が変化することを示す図で
ある。
FIG. 13 is a diagram showing that a facial expression of a character changes by an operation according to the second embodiment of the present invention.

【図14】この発明の第3の実施の形態の概略構成図で
ある。
FIG. 14 is a schematic configuration diagram of a third embodiment of the present invention.

【図15】この発明の第3の実施の形態の動作を説明す
るためのフローチャートである。
FIG. 15 is a flowchart for explaining the operation of the third embodiment of the present invention.

【図16】この発明の第3の実施の形態と、この第3の
実施の形態を適用しない例との比較を説明するための図
である。
FIG. 16 is a diagram for explaining a comparison between the third embodiment of the present invention and an example to which the third embodiment is not applied.

【図17】この発明の第4の実施の形態における実況出
力の基本的な手順を示す概念図である。
FIG. 17 is a conceptual diagram showing a basic procedure of live output in a fourth embodiment of the present invention.

【図18】この発明の第4の実施の形態における一般的
なテキストボックスの例を示す図である。
FIG. 18 is a diagram illustrating an example of a general text box according to the fourth embodiment of the present invention.

【図19】この発明の第4の実施の形態におけるテキス
トボックスにおける台詞番号と台詞の中身の一部を示す
説明図である。
FIG. 19 is an explanatory diagram showing a dialog number and a part of the content of the dialog in a text box according to the fourth embodiment of the present invention.

【図20】この発明の第4の実施の形態におけるテキス
トボックスにおける台詞番号と台詞の中身の一部を示す
説明図である。
FIG. 20 is an explanatory diagram showing a dialog number and a part of the contents of the dialog in a text box according to the fourth embodiment of the present invention.

【図21】この発明の第4の実施の形態の動作を説明す
るためのフローチャートである。
FIG. 21 is a flowchart for explaining the operation of the fourth embodiment of the present invention.

【図22】この発明の第4の実施の形態の動作を説明す
るためのタイミングチャートである。
FIG. 22 is a timing chart for explaining the operation of the fourth embodiment of the present invention.

【図23】この発明の第4の実施の形態に係るシーンボ
ックスとテキストボックスとの関係を示す図である。
FIG. 23 is a diagram showing a relationship between a scene box and a text box according to a fourth embodiment of the present invention.

【図24】この発明の第5の実施の形態の動作を説明す
るためのフローチャートである。
FIG. 24 is a flowchart for explaining the operation of the fifth embodiment of the present invention.

【図25】この発明の第5の実施の形態のCD−ROM
に記録されたデータの例を示す模式図である。
FIG. 25 is a CD-ROM according to a fifth embodiment of the present invention.
FIG. 4 is a schematic diagram showing an example of data recorded in a.

【図26】この発明の第6の実施の形態の動作を説明す
るためのフローチャートである。
FIG. 26 is a flowchart for explaining the operation of the sixth embodiment of the present invention.

【図27】この発明の第7の実施の形態におけるパスワ
ードを入力する場合の動作を説明するためのフローチャ
ートである。
FIG. 27 is a flowchart illustrating an operation when a password is input according to the seventh embodiment of the present invention.

【図28】この発明の第7の実施の形態におけるパスワ
ードを出力する場合の動作を説明するためのフローチャ
ートである。
FIG. 28 is a flowchart for explaining an operation when a password is output according to the seventh embodiment of the present invention.

【図29】この発明の第7の実施の形態における音声出
力処理のサブルーチンを示すフローチャートである。
FIG. 29 is a flowchart illustrating a subroutine of a sound output process according to the seventh embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 ビデオゲーム機本体 1a カートリッジI/F 1b CD−ROMドライブ 2a コネクタ 2b ゲーム操作用のパッド 2c ケーブル 4a、4b ケーブル 5 TV受像機 10 CPUブロック 11 ビデオブロック 12 サウンドブロック 13 サブシステム 100 SCU(System Control Unit ) 101 メインCPU 102 RAM 103 ROM 104 サブCPU 105 CPUバス 106、107 バス 120、130 VDP 121 VRAM 122、123 フレームバッファ 131 VRAM 132 メモリ 140 DSP 141 CPU 160 エンコーダ 180 CD−I/F 181 CPU 182 MPEG−AUDIO 183 MPEG−VIDEO 185 回転機構 186 読取ヘッド 187 移動機構 190 CD−ROM DESCRIPTION OF SYMBOLS 1 Video game machine main body 1a Cartridge I / F 1b CD-ROM drive 2a Connector 2b Game operation pad 2c Cable 4a, 4b cable 5 TV receiver 10 CPU block 11 Video block 12 Sound block 13 Subsystem 100 SCU (System Control) 101) Main CPU 102 RAM 103 ROM 104 Sub CPU 105 CPU bus 106, 107 bus 120, 130 VDP 121 VRAM 122, 123 Frame buffer 131 VRAM 132 Memory 140 DSP 141 CPU 160 Encoder 180 CD-I / F 181 CPU 182 MPEG -AUDIO 183 MPEG-VIDEO 185 Rotating mechanism 186 Reading head 187 Moving mechanism 190 CD-ROM

───────────────────────────────────────────────────── フロントページの続き (72)発明者 大谷 嘉宏 東京都大田区羽田1丁目2番12号 株式会 社セガ・エンタープライゼス内 ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Yoshihiro Otani 1-2-12 Haneda, Ota-ku, Tokyo Inside Sega Enterprises Co., Ltd.

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 基準ポリゴンを画面上に配置する位置情
報を基に複数のポリゴンを所定の位置に配置し、各ポリ
ゴンに所定のテクスチャーをマッピングする画像データ
処理装置において、前記キャラクタは、前記基準ポリゴ
ンと、これに対する関節部分を持たない部品ポリゴンと
を備えてなり、画面上の基準ポリゴンの配置情報を基に
基準ポリゴンを計算し、かつ基準ポリゴンに対して前記
部品ポリゴンを計算する処理部を備えるデータ処理装
置。
1. An image data processing apparatus for arranging a plurality of polygons at predetermined positions based on positional information for arranging a reference polygon on a screen and mapping a predetermined texture to each polygon, wherein the character A processing unit for calculating a reference polygon based on the arrangement information of the reference polygon on the screen, and a part polygon for the reference polygon. Data processing device provided.
【請求項2】 基準ポリゴンを画面上に配置する位置情
報を基に複数のポリゴンを所定の位置に配置し、各ポリ
ゴンに所定のテクスチャーを貼り付けてキャラクタを作
成する画像データ処理装置において、キャラクタの表情
を構成するパーツを、基準点からの位置データを備えた
複数のポリゴンから構成し、表情を変化させるときに
は、表情の変化に対応したパーツのみのポリゴンに対し
て所定の画像処理を実行する処理部を備えるデータ処理
装置。
2. An image data processing apparatus for arranging a plurality of polygons at predetermined positions based on positional information for arranging a reference polygon on a screen and pasting a predetermined texture to each polygon to create a character. When the facial expression is changed, predetermined image processing is performed on the polygon of only the part corresponding to the facial expression change when the facial expression is changed. A data processing device including a processing unit.
【請求項3】 前記処理部は、該当するポリゴンを独立
して回転、拡大、縮小あるいは移動させる画像処理を行
うことができる請求項2記載のデータ処理装置。
3. The data processing apparatus according to claim 2, wherein the processing unit can perform image processing for independently rotating, enlarging, reducing, or moving the corresponding polygon.
【請求項4】 コンピュータを、請求項1乃至請求項1
4のいずれかに記載の処理部及びデータ装置として機能
させるためのプログラムを記録した媒体。
4. The computer according to claim 1, wherein
4. A medium on which a program for functioning as the processing unit and the data device according to any one of 4) is recorded.
JP23332798A 1997-09-04 1998-08-19 Data processing apparatus and storage medium Expired - Fee Related JP3420507B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23332798A JP3420507B2 (en) 1997-09-04 1998-08-19 Data processing apparatus and storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP24002997 1997-09-04
JP9-240029 1997-09-04
JP23332798A JP3420507B2 (en) 1997-09-04 1998-08-19 Data processing apparatus and storage medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP03271098A Division JP4126745B2 (en) 1997-09-04 1998-02-16 Data processing apparatus, processing method therefor, and medium

Publications (2)

Publication Number Publication Date
JPH11144088A true JPH11144088A (en) 1999-05-28
JP3420507B2 JP3420507B2 (en) 2003-06-23

Family

ID=26530987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23332798A Expired - Fee Related JP3420507B2 (en) 1997-09-04 1998-08-19 Data processing apparatus and storage medium

Country Status (1)

Country Link
JP (1) JP3420507B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6682425B2 (en) 2000-02-04 2004-01-27 Konami Corporation Game system for generating random on-the-spot broadcasting data based on player historical performance data
US7660482B2 (en) 2004-06-23 2010-02-09 Seiko Epson Corporation Method and apparatus for converting a photo to a caricature image
CN111832421B (en) * 2020-06-18 2023-09-01 西北大学 Lower limb joint point extraction method based on physiological feature error correction

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6682425B2 (en) 2000-02-04 2004-01-27 Konami Corporation Game system for generating random on-the-spot broadcasting data based on player historical performance data
US7660482B2 (en) 2004-06-23 2010-02-09 Seiko Epson Corporation Method and apparatus for converting a photo to a caricature image
CN111832421B (en) * 2020-06-18 2023-09-01 西北大学 Lower limb joint point extraction method based on physiological feature error correction

Also Published As

Publication number Publication date
JP3420507B2 (en) 2003-06-23

Similar Documents

Publication Publication Date Title
JP3133299B2 (en) Game device, moving image display method, and recording medium
US6558257B1 (en) Imaging processing apparatus and image processing method
JP3448043B2 (en) Music game progress control program, music game progress control method, and video game apparatus
US6749508B2 (en) Display method and apparatus for displaying probability controlled orders of dynamic movements
JP3890646B2 (en) Sound generating apparatus and method in game machine
US20010036860A1 (en) Character display method, information recording medium and entertainment apparatus
JP2004041645A (en) Game program, game control method and game device
JP4126745B2 (en) Data processing apparatus, processing method therefor, and medium
JP4133559B2 (en) Audio reproduction program, audio reproduction method, and audio reproduction apparatus
JPH11144088A (en) Processor and method for data processing and medium
JP2992499B2 (en) Image processing method and apparatus, recording medium
JP2003067767A (en) Character edition program for video game, storage medium thereof and video game device
JP3084621B2 (en) GAME MACHINE, GAME PROCESSING METHOD, AND MEDIUM
US7058462B1 (en) Entertainment system, entertainment apparatus, recording medium, and program
JP3941076B2 (en) Image processing apparatus and image processing method
JP3472544B2 (en) Entertainment system, entertainment apparatus, recording medium and method
JP2001148035A (en) Image processing
US20020075275A1 (en) Storage medium storing display control program, entertainment apparatus, and display control program
JP4785163B2 (en) Image generation system, program, and information storage medium
JPH10326464A (en) Information processing device and method therefor, recording medium, computer readable recording medium in which authoring program data is recorded and authoring system
JP4026081B2 (en) Sound generating apparatus and method in game machine
JP4071130B2 (en) Control device, character control method, and program
JP3502898B2 (en) Recording medium having recorded program for processing live situation, live voice output method, and game apparatus
JP2001113043A (en) Information processing device, method, and data memory device
JP4204525B2 (en) 3D image generation apparatus and 3D image generation program

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20000404

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080418

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080418

Year of fee payment: 5

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080418

Year of fee payment: 5

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080418

Year of fee payment: 5

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080418

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090418

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090418

Year of fee payment: 6

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090418

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090418

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090418

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100418

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100418

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110418

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110418

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120418

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120418

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130418

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130418

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130418

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140418

Year of fee payment: 11

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees