Nothing Special   »   [go: up one dir, main page]

JPH09101917A - Cache memory control method - Google Patents

Cache memory control method

Info

Publication number
JPH09101917A
JPH09101917A JP7261182A JP26118295A JPH09101917A JP H09101917 A JPH09101917 A JP H09101917A JP 7261182 A JP7261182 A JP 7261182A JP 26118295 A JP26118295 A JP 26118295A JP H09101917 A JPH09101917 A JP H09101917A
Authority
JP
Japan
Prior art keywords
memory
cache
address
sram
dram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7261182A
Other languages
Japanese (ja)
Inventor
Takeshi Maeda
武 前田
Atsuhiro Higa
淳裕 比嘉
Tadakazu Nagashima
覧一 長島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Hitachi Advanced Digital Inc
Original Assignee
Hitachi Ltd
Hitachi Video and Information System Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Hitachi Video and Information System Inc filed Critical Hitachi Ltd
Priority to JP7261182A priority Critical patent/JPH09101917A/en
Priority to US08/714,393 priority patent/US5761695A/en
Priority to TW085111901A priority patent/TW305962B/zh
Publication of JPH09101917A publication Critical patent/JPH09101917A/en
Pending legal-status Critical Current

Links

Landscapes

  • Memory System Of A Hierarchy Structure (AREA)
  • Dram (AREA)

Abstract

PROBLEM TO BE SOLVED: To accelerate memory access by monitoring the type and configuration of a main memory and preferentially allocating a cache memory to a low-speed access component. SOLUTION: First of all, a CPU 101 requests the memory access and simultaneously outputs a CPU address 102. This CPU address 102 is applied to an address comparator circuit 106 inside a cache control circuit part 103 and compared with a tag address 118 outputted from a tag SRAM 111, and a discriminate signal 107 is outputted. At the same time, a cache mapping control circuit part 104 outputs a mapping signal 105 corresponding to the constitutive form of the main memory and the address area of the memory access requested by the CPU 101. This mapping signal 105 performs the access control of a data SRAM 110, tag SRAM 111 and DRAM control circuit part 119.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明はキャッシュメモリ制
御方法および該方法を用いた情報処理装置に関し、特
に、情報記録媒体としてキャッシュメモリにスタティッ
ク・ランダム・アクセスメモリ(以下、SRAMという)を
用い、メインメモリにダイナミック・ランダム・アクセ
スメモリ(以下、DRAMという)を用いた場合の前記メイ
ンメモリの容量および、構成に伴う前記キャッシュメモ
リの対象とするアドレス領域制御に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a cache memory control method and an information processing apparatus using the method, and more particularly to a static random access memory (hereinafter referred to as SRAM) used as a cache memory as an information recording medium. The present invention relates to the capacity of the main memory when a dynamic random access memory (hereinafter referred to as DRAM) is used as the memory and the control of an address area targeted for the cache memory according to the configuration.

【0002】[0002]

【従来の技術】従来、前記キャッシュメモリを搭載した
メインメモリ制御方法としは、例えば特開平3-296992号
公報に開示されているように、メインメモリであるDRAM
チップ内部にSRAMをキャッシュメモリとして内蔵し、前
記DRAM列アドレスの一部を前記SRAMアドレスとして用い
ることでデータブロックのエントリ数を増加させ、キャ
ッシュヒット率を向上することで、高速アクセスを行う
技術が知られている。
2. Description of the Related Art Conventionally, as a main memory control method in which the cache memory is mounted, a DRAM which is a main memory is disclosed, for example, in Japanese Patent Laid-Open No. 3-296992.
SRAM has a built-in cache memory inside the chip, and by using a part of the DRAM column address as the SRAM address, the number of data block entries is increased, and the cache hit rate is improved. Are known.

【0003】図7は、前記特開平3-296992号公報に開示
されているキャッシュメモリ内蔵のメインメモリを搭載
した半導体記憶装置のブロック構成図である。
FIG. 7 is a block diagram showing the configuration of a semiconductor memory device equipped with a main memory having a built-in cache memory, which is disclosed in Japanese Patent Laid-Open No. 3-296992.

【0004】図7において、701はマルチプロセッサ
(以下、CPUという)、702はキャッシュ制御回路、703
はタグ部、704はマルチプレクサ、705はDRAM制御回路、
706はキャッシュメモリ内蔵メインメモリ部(以下、メ
インメモリ部という)、707はDRAM部、707a〜707dはDRA
Mデータビットプレーン部、707eはパリティビットプレ
ーン部、708はSRAM部、708a〜708dはSRAMデータビット
プレーン部、709はECC回路部、710はCPUアドレス A0-A1
7、711はウェイアドレス WA0、WA1、712はキャッシュヒ
ット信号 CH、713はメモリアドレス A0-A8、A9-A17、71
4はRAS-N/CAS-N信号、715はUCEフラグ、716はEFフラ
グ、717は転送制御信号 BT、718はデータバス DQ1-DQ4
である。
In FIG. 7, 701 is a multiprocessor (hereinafter referred to as CPU), 702 is a cache control circuit, and 703.
Is a tag unit, 704 is a multiplexer, 705 is a DRAM control circuit,
706 is a main memory unit with a built-in cache memory (hereinafter referred to as main memory unit), 707 is a DRAM unit, and 707a to 707d are DRAs.
M data bit plane part, 707e parity bit plane part, 708 SRAM part, 708a to 708d SRAM data bit plane part, 709 ECC circuit part, 710 CPU address A0-A1
7, 711 is way address WA0, WA1, 712 is cache hit signal CH, 713 is memory address A0-A8, A9-A17, 71
4 is RAS-N / CAS-N signal, 715 is UCE flag, 716 is EF flag, 717 is transfer control signal BT, 718 is data bus DQ1-DQ4
It is.

【0005】また、図8は前記図7に示す半導体記憶装
置の動作を示すタイミングチャートである。
FIG. 8 is a timing chart showing the operation of the semiconductor memory device shown in FIG.

【0006】以下、図7および、図8に示す従来技術に
よる半導体記憶装置の概略動作について説明する。
The outline of the operation of the conventional semiconductor memory device shown in FIGS. 7 and 8 will be described below.

【0007】図7において、タグ部 703は、タグメモ
リ、コンパレータおよび、置き換え論理実行部を含む。
前記タグ部 103には64セットの行アドレス信号RA0〜RA8
がタグアドレスとして記憶されている。各セットは4つ
のウェイW1〜W4に対応して4組のタグアドレスを含む。
CPU 701は、アドレス信号A0〜A17 710を発生する。アド
レス信号A0〜A8 710がタグアドレスとして、およびアド
レス信号A9〜A14がセットアドレスとしてタグ部 703の
コンパレータに入力される。コンパレータは、セットア
ドレスA9〜A14 710に対応するセットに記憶されている
4組の行アドレス信号RA0〜RA8(エントリアドレス)と
入力されたタグアドレス 710とを比較する。前記タグア
ドレスA0〜A8 710が4組の行アドレス信号RA0〜RA8のい
ずれかと一致すると、その行アドレス信号RA0〜RA8に対
応するウェイアドレスWA0、WA1 711が出力されると共
に、“H”レベルのキャッシュヒット信号 712が出力さ
れる。
In FIG. 7, the tag unit 703 includes a tag memory, a comparator, and a replacement logic execution unit.
The tag unit 103 includes 64 sets of row address signals RA0 to RA8.
Is stored as a tag address. Each set includes four sets of tag addresses corresponding to the four ways W1 to W4.
The CPU 701 generates address signals A0 to A17 710. The address signals A0 to A8 710 are input as tag addresses, and the address signals A9 to A14 are input as set addresses to the comparator of the tag unit 703. The comparator compares the four sets of row address signals RA0 to RA8 (entry addresses) stored in the set corresponding to the set addresses A9 to A14 710 with the input tag address 710. When the tag addresses A0 to A8 710 match any of the four sets of row address signals RA0 to RA8, the way addresses WA0 and WA1 711 corresponding to the row address signals RA0 to RA8 are output and the "H" level signal is output. The cache hit signal 712 is output.

【0008】前記タグ部 703のコンパレータにより比較
が行われている間にマルチプレクサ704によりメモリア
ドレス信号A9〜A17 713がキャッシュアドレスとしてメ
インメモリ部 706内部のSRAM部 708に入力され、前記SR
AM部 708が同時にアクセスされる。その結果、前記メモ
リアドレス信号A9〜A17 713に対応した4ウェイ分の16
ビットのデータが出力される。
While the comparator of the tag unit 703 is performing the comparison, the multiplexer 704 inputs the memory address signals A9 to A17 713 to the SRAM unit 708 inside the main memory unit 706 as a cache address, and the SR
AM section 708 is accessed at the same time. As a result, 16 of 4 ways corresponding to the memory address signals A9 to A17 713
Bit data is output.

【0009】図8のタイミングチャートに示すように、
そのサイクルでキャッシュヒットが起これば、前記タグ
部 103からウェイアドレスWA0、WA1 711が出力される。
このウェイアドレスWA0、WA1 711に応答して、メインメ
モリ部内 706内部のウェイデコーダにより4つのウェイ
W1〜W4のうち1つのウェイが選択される。これにより、
合計4ビットのデータ 718が出力される。このように、
キャッシュヒットの場合には、高速なアクセスが実現さ
れる。
As shown in the timing chart of FIG.
If a cache hit occurs in that cycle, the tag unit 103 outputs the way addresses WA0 and WA1 711.
In response to the way addresses WA0 and WA1 711, the four ways are decoded by the way decoder in the main memory 706.
One way is selected from W1 to W4. This allows
4-bit data 718 is output in total. in this way,
In the case of a cache hit, high speed access is realized.

【0010】もし、そのサイクルでキャッシュミスが起
これば、DRAM制御回路 705から発生されるロウアドレス
ストローブ信号および、カラムアドレスストローブ信号
714(以下、RAS-N/CAS-N信号という)によりDRAM部 70
7のアクセスが行われる。この場合、キャッシュヒット
信号 712は“L”レベルとなる。
If a cache miss occurs in that cycle, a row address strobe signal and a column address strobe signal generated by the DRAM control circuit 705 are generated.
714 (hereinafter referred to as RAS-N / CAS-N signals) DRAM section 70
7 accesses will be made. In this case, the cache hit signal 712 becomes "L" level.

【0011】メインメモリ部 706内部の列アドレスバッ
ファは、“L”レベルの前記キャッシュヒット信号 712
に応答して、マルチプレクサ 704から与えられているメ
モリアドレスA9〜A17 713をラッチする。次にマルチプ
レクサ 704は、メモリアドレスA0〜A8 713をメインメモ
リ部 706に与える。
The column address buffer inside the main memory unit 706 is provided with the cache hit signal 712 of "L" level.
In response, the memory addresses A9 to A17 713 provided from the multiplexer 704 are latched. Next, the multiplexer 704 gives the memory addresses A0 to A8 713 to the main memory unit 706.

【0012】メインメモリ部 706内部の行アドレスバッ
ファは、RAS-N信号 714の立ち下がりに応答してメモリ
アドレスA0〜A8 713を行アドレス信号RA0〜RA8として前
記メインメモリ部 706内部の行デコーダに与える。
The row address buffer in the main memory unit 706 responds to the falling edge of the RAS-N signal 714 and outputs the memory addresses A0 to A8 713 as row address signals RA0 to RA8 to the row decoder in the main memory unit 706. give.

【0013】その後、前記メインメモリ部 706内部の列
アドレスバッファは、CAS-N信号 714の立ち下がりに応
答して、ラッチしているメモリアドレスA9-A17 713を列
アドレス信号CA0〜CA8として前記メインメモリ部 706内
部の列デコーダに与える。これにより、各DRAMデータビ
ットプレーン部 707a〜707dから8ビットのデータブロ
ックが読み出される。
After that, the column address buffer inside the main memory unit 706 responds to the fall of the CAS-N signal 714 with the latched memory addresses A9-A17 713 as column address signals CA0 to CA8. It is given to the column decoder inside the memory unit 706. As a result, an 8-bit data block is read from each DRAM data bit plane section 707a to 707d.

【0014】4つのDRAMデータビットプレーン部 707a
〜707dから読み出された合計32ビットのデータが、パリ
ティビットプレーン部 707eから読み出された8ビット
のチェックビットとともにECC回路部 709に転送され
る。転送されたデータに誤りがない場合または訂正可能
な誤りがある場合には、図8のタイミングチャートに示
すように、UCEフラグ 715は“L”レベルを保持する。
Four DRAM data bit plane sections 707a
The 32-bit total data read from ˜707d is transferred to the ECC circuit unit 709 together with the 8-bit check bits read from the parity bit plane unit 707e. When there is no error in the transferred data or when there is a correctable error, the UCE flag 715 holds "L" level as shown in the timing chart of FIG.

【0015】誤りがない場合にはEFフラグ 716は“L”
レベルを保持し、訂正可能な誤りがある場合にはEFフラ
グ 716は“H”レベルに立ち上がる。また、転送された
データに転送不可能な誤りがあった場合には、前記UCE
フラグ 715およびEFフラグ 716が“H”レベルに立ち上
がる。この場合には、誤りを含むデータが出力される。
なお、ミスリードおよびミスライト時のDRAM部 707か
らSRAM部 708へのデータ転送は、キャッシュ制御回路 7
02により与えられる転送制御信号BT 717により制御され
る。なお、図8に示されるアドレス信号信号A0〜A8、A9
〜A17は、マルチプレクサ 704から出力されるメモリア
ドレス 713を示す。
If there is no error, the EF flag 716 is "L".
The level is held, and if there is a correctable error, the EF flag 716 rises to "H" level. If there is an error that cannot be transferred in the transferred data, the UCE
The flag 715 and the EF flag 716 rise to "H" level. In this case, data including an error is output.
The data transfer from the DRAM block 707 to the SRAM block 708 at the time of misread and write is performed by the cache control circuit 7
It is controlled by the transfer control signal BT 717 given by 02. The address signal signals A0 to A8 and A9 shown in FIG.
A17 indicates the memory address 713 output from the multiplexer 704.

【0016】このように従来技術では、メインメモリと
してDRAMと、キャッシュメモリとして用いるSRAMを同一
チップ上に構成し、DRAMの列アドレスの一部をキャッシ
ュメモリであるSRAMのアドレスとして利用することによ
り、キャッシュのデータブロック・エントリー数を増加
できることにより、メインメモリを高速アクセスで処理
できるようにしたものである。
As described above, in the prior art, the DRAM used as the main memory and the SRAM used as the cache memory are formed on the same chip, and a part of the column address of the DRAM is used as the address of the SRAM which is the cache memory. By increasing the number of data block entries in the cache, the main memory can be processed at high speed.

【0017】[0017]

【発明が解決しようとする課題】しかしながら、前記従
来技術では、メインメモリとしてDRAMとキャッシュメモ
リのためのSRAMを同一チップ上に形成したため、あるチ
ップに内蔵されたキャッシュ用SRAMを別のチップに割り
付けることができない。従って、メモリチップをバンク
インターリーブ構成などによりDRAMのみで高速化を計っ
た場合、キャッシュメモリによる高速化の効果が現れな
いという問題があった。
However, in the above-mentioned prior art, since the DRAM as the main memory and the SRAM for the cache memory are formed on the same chip, the cache SRAM built in one chip is allocated to another chip. I can't. Therefore, there is a problem in that the speed-up effect by the cache memory does not appear when the memory chip is speeded up only by the DRAM by the bank interleaved structure or the like.

【0018】さらに、前記従来技術では、メインメモリ
としてDRAMとキャッシュメモリ用SRAMを同一チップ上に
構成し、実装面積が大きくならないように改良されては
いるが、キャッシュメモリもしくは、メインメモリの容
量を増減させるのに、両方のメモリ容量を増減すること
になり、希望するメモリ構成を行いにくいという問題が
あった。
Further, in the above-mentioned prior art, although the DRAM and the SRAM for cache memory are constructed on the same chip as the main memory and the mounting area is not increased, the capacity of the cache memory or the main memory is reduced. To increase or decrease the number, both memory capacities are increased or decreased, which makes it difficult to achieve a desired memory configuration.

【0019】本発明の目的は、メインメモリとして用い
るDRAMの種類及び構成に応じてキャッシュメモリの割り
付けアドレスを変更し、高速アクセス可能なキャッシュ
メモリ制御方法を提供することにある。
An object of the present invention is to provide a cache memory control method capable of high-speed access by changing the allocation address of the cache memory according to the type and configuration of the DRAM used as the main memory.

【0020】本発明の他の目的は、メインメモリとして
用いるDRAMのある種の構成において、低速アクセスとな
る領域のみについてキャッシュメモリであるSRAMを割り
付けられるため、前記SRAMの使用個数を低減でき、シス
テム構成の小型化および、原価低減が実現可能なキャッ
シュメモリ制御方法を搭載した情報処理装置を提供する
ことにある。
It is another object of the present invention that, in a certain type of DRAM used as a main memory, the SRAM that is the cache memory can be allocated only to the area that is accessed at a low speed. An object of the present invention is to provide an information processing apparatus equipped with a cache memory control method capable of realizing a downsized configuration and cost reduction.

【0021】[0021]

【課題を解決するための手段】本願において開示される
発明のうち代表的なものの概要を簡単に説明すれば下記
の通りである。
The following is a brief description of an outline of a typical invention among the inventions disclosed in the present application.

【0022】すなわち、前記メインメモリとして用いて
いるDRAMの種類および構成を監視し、低速アクセス構成
部分に対し、優先的にキャッシュメモリであるSRAMを割
り付けるることで、メモリアクセスの高速化を実現する
ようにしたものである。
That is, the type and configuration of the DRAM used as the main memory is monitored, and the SRAM, which is the cache memory, is preferentially allocated to the low-speed access constituent parts to realize the high-speed memory access. It was done like this.

【0023】また、キャッシュメモリであるSRAMの割り
付け領域を保持するキャッシュマッピングレジスタおよ
び、CPUアドレスデコーダを備えたキャッシュ・マッピ
ング制御回路と、CPUアドレスとタグアドレスとを比較
するアドレス比較回路と、メインメモリ制御回路と、メ
インメモリとして用いるDRAMと、キャッシュ・データお
よびタグ用として用いるSRAMとを備えたものである。
Further, a cache mapping control circuit having a cache mapping register for holding an allocation area of SRAM which is a cache memory, a CPU address decoder, an address comparison circuit for comparing a CPU address and a tag address, and a main memory. It is provided with a control circuit, a DRAM used as a main memory, and an SRAM used for cache data and tags.

【0024】前記手段によれば、前記メインメモリとし
て用いるDRAMの種類および構成に応じて、低速アクセス
構成である領域に対し優先的にキャッシュメモリである
SRAMを割り付けるため、メインメモリを高速アクセス可
能である。また、高速アクセス構成である領域に対して
は、キャッシュメモリであるSRAMの割り付けを行わない
ようにすることで、メインメモリの高速アクセスを実現
しながら前記キャッシュメモリであるSRAMの使用個数を
低減し、原価低減の実現も兼ねることができる
According to the above means, the cache memory is preferentially given to the area having the low speed access configuration according to the type and configuration of the DRAM used as the main memory.
Since SRAM is allocated, the main memory can be accessed at high speed. Also, by not allocating the SRAM, which is the cache memory, to the area that has the high-speed access configuration, it is possible to reduce the number of the SRAM that is the cache memory used while realizing the high-speed access of the main memory. Can also realize cost reduction

【0025】。[0025].

【発明の実施の形態】以下、本発明の一実施例を図面を
用いて詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described in detail below with reference to the drawings.

【0026】図1は本発明を適用した一実施例のキャッ
シュ制御回路を搭載した情報処理装置の概略構成を示す
ブロック図である。
FIG. 1 is a block diagram showing the schematic arrangement of an information processing apparatus equipped with a cache control circuit according to an embodiment of the present invention.

【0027】図1において、101は中央処理装置(以
下、CPUという)、102は前記CPU 101より出力されるCPU
アドレス、103はキャッシュ制御回路部、104は本開発に
おける主要制御を司るキャッシュ・マッピング制御回路
部、105は前記キャッシュ・マッピング制御回路部より
出力されるキャッシュ・マッピング制御信号(以下、マ
ッピング信号という)、106は各メモリアクセスにおい
て、キャッシュヒット/ミスを判定するアドレス比較回
路部、107は前記アドレス比較回路部 106より出力され
るアドレス比較判定結果を示す信号(以下、判定信号1
という)、108はANDゲート、109は前記判定信号1 107
に前記マッピング信号 105の状態を反映させたアドレス
比較判定結果を示す信号(以下、判定信号2という)、
110はキャッシュデータ用スタティック・ランダム・ア
クセスメモリ(以下、データSRAMという)、111はキャ
ッシュアドレスを保持するキャッシュタグ用スタティッ
ク・ランダム・アクセスメモリ(以下、タグSRAMとい
う)、112は前記データSRAM 110を選択するために前記
キャッシュ制御回路部 103が出力するチップセレクト信
号(以下、CS1という)、113は前記タグSRAM 111を選択
するために前記キャッシュ制御回路部 103が出力するチ
ップセレクト信号(以下、CS2という)、114はNANDゲー
ト1、115はNANDゲート2、116は前記NANDゲート1 114
より出力され、前記データSRAM 110に与えるチップセレ
クト信号(以下、CS1-Nという)、117は前記NANDゲート
2 115より出力され、前記タグSRAM 111に与えるチップ
セレクト信号(以下、CS2-Nという)、118は前記タグSR
AM 111より出力されるタグアドレス、119はメインメモ
リ制御回路部(以下、DRAM制御回路部という)、120は
メインメモリ(以下、DRAMという)、121は前記DRAM制
御回路部 119より出力される前記DRAM 120制御信号(以
下、DRAM制御信号という)を各々示す。
In FIG. 1, 101 is a central processing unit (hereinafter referred to as CPU), and 102 is a CPU output from the CPU 101.
An address, 103 is a cache control circuit unit, 104 is a cache mapping control circuit unit that controls the main control in this development, and 105 is a cache mapping control signal output from the cache mapping control circuit unit (hereinafter referred to as a mapping signal). , 106 is an address comparison circuit section for judging a cache hit / miss in each memory access, 107 is a signal output from the address comparison circuit section 106 showing the result of the address comparison judgment (hereinafter, judgment signal 1
, 108 is an AND gate, 109 is the judgment signal 1 107
, A signal indicating the result of the address comparison determination reflecting the state of the mapping signal 105 (hereinafter referred to as determination signal 2),
110 is a static random access memory for cache data (hereinafter referred to as data SRAM), 111 is a static random access memory for cache tag that holds a cache address (hereinafter referred to as tag SRAM), and 112 is the data SRAM 110. A chip select signal (hereinafter, referred to as CS1) output by the cache control circuit unit 103 for selecting, a 113 is a chip select signal (hereinafter, CS2) output by the cache control circuit unit 103 for selecting the tag SRAM 111. , 114 is a NAND gate 1, 115 is a NAND gate 2, and 116 is the NAND gate 1 114.
A chip select signal (hereinafter referred to as CS1-N) that is output from the NAND gate 2 115 and is output from the NAND gate 2 115 and is supplied to the tag SRAM 111 (hereinafter referred to as CS2-N). , 118 is the tag SR
The tag address output from the AM 111, 119 is a main memory control circuit unit (hereinafter, referred to as DRAM control circuit unit), 120 is a main memory (hereinafter, referred to as DRAM), 121 is output from the DRAM control circuit unit 119. DRAM 120 control signals (hereinafter referred to as DRAM control signals) are shown.

【0028】本実施例における情報処理装置は以上の構
成からなり、メインメモリをノンインターリーブで構成
したDRAMに対し、優先的にキャッシュメモリを割り当て
ることにより、高速アクセス可能なシステム構成として
いる。
The information processing apparatus according to the present embodiment has the above-described configuration, and has a system configuration that enables high-speed access by preferentially allocating a cache memory to a DRAM whose main memory is non-interleaved.

【0029】以下、図1を用いて、本実施例の情報処理
装置の動作の概要について説明する。
The outline of the operation of the information processing apparatus of this embodiment will be described below with reference to FIG.

【0030】図1に示すように、まずCPU 101がメモリ
アクセス要求を行うと同時に、CPUアドレス 102を出力
する。このCPUアドレス 102はキャッシュ制御回路部 10
3内部のアドレス比較回路部 106に与えられ、タグSRAM
111より出力されるタグアドレス 118と比較され、判定
信号1 107を出力する。これと同時にキャッシュ・マッ
ピング制御回路部 104は、メインメモリの構成形態及
び、前記CPU 101の要求するメモリアクセスのアドレス
領域に応じてマッピング信号 105を出力する。このマッ
ピング信号 105は、データSRAM 110、タグSRAM 111及
び、DRAM制御回路部 119のアクセス制御を行う。前記デ
ータSRAM 110に対しては、前記キャッシュ制御回路部 1
03より出力されるCS1信号 112とNANDゲート 114を用い
てCS1-N信号 116を生成する。前記タグSRAM 111に対し
ては、前記キャッシュ制御回路部 103より出力されるCS
2信号 113とNANDゲート 115を用いてCS2-N信号 117を生
成する。更に、前記DRAM制御回路部 119に対しては、前
記判定信号1 107とANDゲート 108を用いて判定信号2
109を生成し、この判定信号2 109の状態に伴って前記D
RAM制御回路部 119はDRAM 120に対するDRAM制御信号 12
1の出力制御を行う。
As shown in FIG. 1, first, the CPU 101 issues a memory access request and, at the same time, outputs the CPU address 102. This CPU address 102 is the cache control circuit section 10
3 The tag SRAM provided to the internal address comparison circuit unit 106
It is compared with the tag address 118 output from 111, and the determination signal 1107 is output. At the same time, the cache mapping control circuit unit 104 outputs the mapping signal 105 according to the configuration of the main memory and the address area of the memory access requested by the CPU 101. The mapping signal 105 controls access to the data SRAM 110, the tag SRAM 111, and the DRAM control circuit unit 119. For the data SRAM 110, the cache control circuit unit 1
The CS1-N signal 116 is generated by using the CS1 signal 112 output from 03 and the NAND gate 114. For the tag SRAM 111, the CS output from the cache control circuit unit 103
2 The signal 113 and the NAND gate 115 are used to generate the CS2-N signal 117. Further, for the DRAM control circuit unit 119, the judgment signal 1 107 and the judgment signal 2 using the AND gate 108 are used.
109 is generated, and the above D
The RAM control circuit section 119 is a DRAM control signal for the DRAM 120.
Output control of 1.

【0031】表1は前記図1に示した情報処理装置の概
略構成図において、各々の信号の状態におけるメモリア
クセス対象を示した一覧表である。ここでは説明を簡潔
化するために、メインメモリとキャッシュメモリとの同
一性についての考慮は省略し、アクセス性能についての
み考慮するものとする。従って、表1のメモリリードサ
イクルのキャッシュミス時における動作では、メインメ
モリからのリードサイクルをアクセス対象とし、データ
の同一性のために本来同時に行われるキャッシュメモリ
へのライト動作は省略する。これより、キャッシュヒッ
トサイクルにおいても、前記キャッシュ・マッピング制
御回路部 104による前記DRAM 120の構成状態確認結果に
よってはキャッシュメモリへのアクセスを禁止し、メイ
ンメモリへのアクセスを行う。
Table 1 is a list showing the memory access targets in each signal state in the schematic configuration diagram of the information processing apparatus shown in FIG. Here, in order to simplify the description, consideration of the sameness between the main memory and the cache memory is omitted, and only access performance is considered. Therefore, in the operation at the time of cache miss in the memory read cycle of Table 1, the read cycle from the main memory is the access target, and the write operation to the cache memory, which is originally performed at the same time for the sake of data identity, is omitted. As a result, even in the cache hit cycle, access to the cache memory is prohibited and access to the main memory is performed depending on the result of confirmation of the configuration state of the DRAM 120 by the cache mapping control circuit unit 104.

【0032】図2は本開発における主要制御を司る前記
キャッシュ・マッピング制御回路部104の詳細構成図で
ある。
FIG. 2 is a detailed configuration diagram of the cache mapping control circuit unit 104 which controls the main control in the present development.

【0033】図2において、201はキャッシュ・マッピ
ングレジスタ、202から207は各々ANDゲート、208から21
0はORゲートを各々示す。
In FIG. 2, 201 is a cache mapping register, 202 to 207 are AND gates, and 208 to 21.
0 indicates each OR gate.

【0034】表2は前記図2に示した詳細構成図の、前
記DRAM 120の種類及び構成による動作モードを示す。表
2ではメモリタイプとして、256kB、1MB、4MB及び、16M
Bまた、メモリのバンク構成としてはバンク0からバン
ク5の計6バンクを有するものとして示してあるが、以
下の説明においては256kBのメモリタイプを例にして説
明する。
Table 2 shows operation modes according to the type and configuration of the DRAM 120 in the detailed configuration diagram shown in FIG. In Table 2, as memory type, 256kB, 1MB, 4MB and 16M
B In addition, although the bank configuration of the memory is shown as having a total of 6 banks of bank 0 to bank 5, the memory type of 256 kB will be described as an example in the following description.

【0035】まず第1のメモリ構成として、ノンインタ
ーリーブ構成の場合の動作を示す。この場合、前記表2
においてキャッシュ・マッピング・レジスタのビット1
及び0が共に“0”(ロウ)であり、識別アドレスはな
く、キャッシュのマッピングは先頭アドレス(0MB〜)
より行われる。本動作は前記図2において、システム起
動時にメモリ構成を判別し、キャッシュ・マッピング・
レジスタ 201のビット1及び0が共に“0”(ロウ)に
設定される。これに伴ってANDゲート 202の出力が有効
状態(ハイ)となり、ORゲート 208を通してマッピング
信号 105を有効にする。この場合、前記マッピング信号
105を有効にする条件にCPUアドレス 102は無関係なた
め、全てのバンクのDRAM 102をキャッシュ対象とする。
First, the operation in the case of the non-interleaved configuration as the first memory configuration will be described. In this case, Table 2 above
Bit 1 of the cache mapping register at
Both 0 and 0 are "0" (low), there is no identification address, and the cache mapping is the start address (0MB ~)
Done by In this operation, in FIG. 2, the memory configuration is determined at the time of system startup, and the cache mapping
Bits 1 and 0 of the register 201 are both set to "0" (low). As a result, the output of the AND gate 202 becomes a valid state (high), and the mapping signal 105 is validated through the OR gate 208. In this case, the mapping signal
Since the CPU address 102 is irrelevant to the condition for enabling 105, the DRAM 102 of all banks are targeted for cache.

【0036】図3に本動作に対するキャッシュメモリの
マッピング図また、図6に動作タイミングチャートを各
々示す。図3および図6において、ノンインターリーブ
構成であるため、全てのバンク(バンク0〜バンク5)
の前記DRAM 120に対するバーストサイクル数は10CLKサ
イクルを必要とするが、キャッシュがヒットサイクルで
ある場合、バーストサイクル数は6CLKサイクルで処理
することが可能である。
FIG. 3 is a cache memory mapping diagram for this operation, and FIG. 6 is an operation timing chart. 3 and 6, all banks (bank 0 to bank 5) have a non-interleaved configuration.
The burst cycle number for the DRAM 120 requires 10 CLK cycles, but if the cache is a hit cycle, the burst cycle number can be processed in 6 CLK cycles.

【0037】第2のメモリ構成として、バンク0と1の
みがインターリーブ、その他のバンクはノンインターリ
ーブである場合の動作を示す。この場合、前記表2にお
いてキャッシュ・マッピング・レジスタの各ビットは上
位ビットより“0、0、0、1”であり、識別アドレスに前
記CPUアドレス 102中のA19、A20を用い、キャッシュの
マッピングは512kBより行われる。本動作は前記図2に
おいて、システム起動時にメモリ構成を判別し、前記キ
ャッシュ・マッピング・レジスタ 201の各ビットが上位
より“0、0、0、1”に設定される。これに伴ってANDゲ
ート 203の出力は、CPUアドレス 102の中のA19もしくは
A20のいずれかが“1”(ハイ)であれば有効状態(ハ
イ)となり、前記ORゲート 208を通してマッピング信号
105を有効にする。この場合、前記CPUアドレス 102はA
19もしくはA20のいずれかが“1”(ハイ)の場合にキ
ャッシュ制御が有効となるため、バンク2以降のDRAM 1
02をキャッシュ対象とする。
As a second memory configuration, an operation will be shown in the case where only banks 0 and 1 are interleaved and the other banks are non-interleaved. In this case, each bit of the cache mapping register in Table 2 is “0, 0, 0, 1” from the upper bit, and A19 and A20 in the CPU address 102 are used as the identification address, and the cache mapping is It is performed from 512kB. In this operation, in FIG. 2, the memory configuration is discriminated at the time of system startup, and each bit of the cache mapping register 201 is set to “0, 0, 0, 1” from the higher order. Accordingly, the output of AND gate 203 is A19 in CPU address 102 or
If any of A20 is “1” (high), it becomes valid (high) and the mapping signal is output through the OR gate 208.
Enable 105. In this case, the CPU address 102 is A
If either 19 or A20 is "1" (high), cache control is enabled, so DRAM 1 in bank 2 and later
02 will be cached.

【0038】図4に本動作に対するキャッシュメモリの
マッピング図を示す。
FIG. 4 shows a mapping diagram of the cache memory for this operation.

【0039】前記図6に示した動作タイミングチャート
において、バンク0とバンク1のインターリーブ構成で
は、それぞれのバンクに対し独立したカラムアドレス・
ストローブ信号(CASX-N、CASY-N)を与えるため、お互
いのプリチャージ期間を利用してアクセス可能なため、
バーストサイクル数は6CLKサイクルとなり、キャッシ
ュによるサイクル数と同一のサイクル数で処理すること
が可能である。つまりインターリーブ構成されている前
記DRAM 102に対しキャッシュマッピングを行っても処理
時間の短縮効果はないことになる。従って、ここでは識
別アドレスである前記CPUアドレス(A19、A20) 102によ
ってノンインターリーブ構成となっている前記DRAM 102
のバンク2以降をキャッシュ対象とすることにより、キ
ャッシュヒットサイクルにおいて処理時間の短縮化を実
現する。
In the operation timing chart shown in FIG. 6, in the interleaved configuration of bank 0 and bank 1, independent column address
Since strobe signals (CASX-N, CASY-N) are given, they can be accessed using each other's precharge period,
The number of burst cycles is 6 CLK cycles, and it is possible to process the same number of cycles as the number of cycles by the cache. In other words, even if the cache mapping is performed on the interleaved DRAM 102, the processing time is not shortened. Therefore, the DRAM 102 which has a non-interleaved configuration by the CPU address (A19, A20) 102 which is an identification address here.
By shortening the processing time in the cache hit cycle, the bank 2 and subsequent banks are cached.

【0040】第3のメモリ構成として、バンク0と1及
び、バンク2と3がインターリーブ、その他のバンクは
ノンインターリーブである場合についての動作は、前記
バンク0と1のみがインターリーブである場合と同様で
あり、識別アドレスである前記CPUアドレス(A19、A20)
102によってノンインターリーブ構成となっている前記D
RAM 102のバンク4以降をキャッシュ対象とすることに
より、キャッシュヒットサイクルにおいて処理時間の短
縮化を実現する。
As a third memory configuration, the operation in the case where banks 0 and 1 and banks 2 and 3 are interleaved and the other banks are non-interleaved, the operation is the same as the case where only banks 0 and 1 are interleaved. And the CPU address that is an identification address (A19, A20)
The D that is non-interleaved by 102
By shortening the processing time in the cache hit cycle, the banks 4 and later of the RAM 102 are cached.

【0041】第4のメモリ構成として、バンク0と1、
バンク2と3及び、バンク4と5というように、前記DR
AM 102全てがインターリーブ構成である場合の動作につ
いて説明する。この場合、前記表2においてキャッシュ
・マッピング・レジスタのビット1及び0が共に“1”
(ハイ)であり、識別アドレスはなく、キャッシュのマ
ッピングは先頭アドレス(0MB〜)より行われる。本動
作は前記図2において、システム起動時にメモリ構成を
判別し、キャッシュ・マッピング・レジスタ 201のビッ
ト1及び、0が共に“1”(ハイ)に設定される。これ
に伴ってANDゲート 207の出力が有効状態(ハイ)とな
り、ORゲート 208を通してマッピング信号105を有効に
する。この場合、前記マッピング信号 105を有効にする
条件にCPUアドレス 102は無関係なため、インターリー
ブ構成されている全てのバンクのDRAM 102をキャッシュ
対象とする。
As a fourth memory configuration, banks 0 and 1,
Banks 2 and 3 and banks 4 and 5, the DR
The operation when all the AM 102 have the interleaved configuration will be described. In this case, bits 1 and 0 of the cache mapping register in Table 2 are both "1".
(High), there is no identification address, and cache mapping is performed from the start address (0MB-). In this operation, in FIG. 2, the memory configuration is discriminated when the system is started, and both bits 1 and 0 of the cache mapping register 201 are set to "1" (high). Along with this, the output of the AND gate 207 becomes the valid state (high), and the mapping signal 105 is validated through the OR gate 208. In this case, since the CPU address 102 is irrelevant to the condition for validating the mapping signal 105, the DRAMs 102 of all the interleaved banks are cached.

【0042】図5に本動作に対するキャッシュメモリの
マッピング図を示す。
FIG. 5 shows a mapping diagram of the cache memory for this operation.

【0043】前記図6に示した動作タイミングチャート
において、インターリーブ構成されたDRAMのバーストサ
イクル数とキャッシュSRAMのバーストサイクル数は6CLK
サイクルで同じため、全てのDRAM 102がインターリーブ
構成である場合のキャッシュメモリによる処理時間の短
縮化は認められないことになる。
In the operation timing chart shown in FIG. 6, the number of burst cycles of interleaved DRAM and the number of burst cycles of cache SRAM are 6 CLK.
Since the cycles are the same, the reduction of the processing time by the cache memory when all the DRAMs 102 have the interleaved structure cannot be recognized.

【0044】更に、キャッシュメモリのライト方式にラ
イトバック制御方式を用いた場合、本開発のようにキャ
ッシュ対象となるDRAM 120領域を限定することで、前記
タグSRAM 111に格納するキャッシュアドレス情報が従来
技術と比較して少なくて済むことにより、ライト・ミス
・サイクル時のアクセスを高速化するための情報およ
び、DRAM 120とデータSRAM 110データの同一性を維持す
るための情報を付加することが可能となる。表3に前記
データSRAM 110のキャッシュアドレスを保持するための
前記タグSRAM 111の機能一覧表を示す。本表においては
一例として、キャッシュメモリのサイズを128kBとし、
これに対しメインメモリの容量を8MB〜64MBの範囲で設
定し、バンク数を4つとした際の、本開発回路が有効及
び無効の各状態でのタグアドレス 118の設定値を示す。
表中D及び、Vで示された記号は以下の意味を持つ。
Furthermore, when the write-back control method is used as the write method of the cache memory, the cache address information stored in the tag SRAM 111 is conventionally set by limiting the DRAM 120 area to be cached as in the present development. It is possible to add information for speeding up access during write miss cycles and information for maintaining the sameness between the data of DRAM 120 and data SRAM 110 due to the smaller number of technologies. Becomes Table 3 shows a function list of the tag SRAM 111 for holding the cache address of the data SRAM 110. In this table, as an example, the cache memory size is 128 kB,
On the other hand, when the capacity of the main memory is set in the range of 8 MB to 64 MB and the number of banks is 4, the set value of the tag address 118 in each of the valid and invalid states of the developed circuit is shown.
The symbols shown by D and V in the table have the following meanings.

【0045】D(ダーティビット):同一アドレスにお
けるデータSRAM 110とDRAM 120のデータが同 一である
か否かを示す。
D (Dirty bit): Indicates whether the data in the data SRAM 110 and the data in the DRAM 120 at the same address are the same.

【0046】V(バリッドビット):データSRAM 110の
各ラインにおけるデータが全て有効であるか否かを示
す。
V (valid bit): Indicates whether or not all the data in each line of the data SRAM 110 is valid.

【0047】これら2つのビットはメモリアクセスの高
速化、メモリデータの同一性に寄与するものであり、本
開発回路を有効とすることで、キャッシュの対象とする
DRAM 102の容量を少なくでき、タグアドレスに前記ダー
ティビット(D)もしくはバリッドビット(V)が付加可能と
なり、前記ノンインターリーブ構成のDRAM 102にキャッ
シュマッピングを行うことでサイクル数を低減すること
によるメモリアクセスの高速化に加え、更なるメモリア
クセスの高速化及び、データの同一性の確保を実現可能
とすることができる。
These two bits contribute to the speeding up of memory access and the identity of memory data, and are made to be cached by enabling the developed circuit.
The capacity of the DRAM 102 can be reduced, and the dirty bit (D) or the valid bit (V) can be added to the tag address. By performing cache mapping on the non-interleaved DRAM 102, the memory can be reduced by reducing the number of cycles. In addition to speeding up the access, it is possible to realize further speeding up of the memory access and securing of data identity.

【0048】表1は、本開発によるキャッシュ制御回路
の各制御信号の状態に対するメモリアクセス対象一覧表
を示す。
Table 1 shows a memory access target list for the states of the control signals of the cache control circuit according to the present development.

【0049】[0049]

【表1】 [Table 1]

【0050】表2は、本開発によるキャッシュ・マッピ
ング制御回路の動作モード一覧表を示す。
Table 2 shows a list of operation modes of the cache mapping control circuit according to the present development.

【0051】[0051]

【表2】 [Table 2]

【0052】表3は、本開発によるキャッシュ制御回路
のタグアドレス設定値一覧表を示す。
Table 3 shows a list of tag address set values of the cache control circuit according to the present development.

【0053】[0053]

【表3】 [Table 3]

【0054】[0054]

【発明の効果】以上、説明したように、本発明によれ
ば、以下の効果を得ることができる。
As described above, according to the present invention, the following effects can be obtained.

【0055】(1)メインメモリであるDRAMの種類およ
び構成に応じて、低速アクセス構成となっている前記メ
インメモリ領域に対し優先的にキャッシュメモリである
SRAMを割り付けるため、メインメモリのアクセス性能に
関し冗長回路を排除し、高速アクセスを実現することが
できる。
(1) Depending on the type and configuration of the main memory DRAM, the cache memory is preferentially given to the main memory area having the low speed access configuration.
Since SRAM is allocated, a redundant circuit can be eliminated with respect to the access performance of the main memory, and high-speed access can be realized.

【0056】(2)キャッシュの対象とするメインメモ
リの領域をノンインターリーブ構成の低速領域に限定す
ることで、タグSRAM内部にD(ダーティ)およびV(バ
リッド)情報を付加することが可能となり、上記(1)
に加え更なるアクセスの高速化および、データの同一性
を確保することができる。
(2) By limiting the area of the main memory to be cached to the low speed area of the non-interleaved structure, it becomes possible to add D (dirty) and V (valid) information inside the tag SRAM, Above (1)
In addition to this, it is possible to further speed up access and ensure data identity.

【0057】(3)前記メインメモリであるDRAMが高速
アクセス可能な構成となっている部分に対し、キャッシ
ュメモリであるSRAMの割り付け順位を下げるため、必要
以上なキャッシュメモリの搭載を行わず、システムの小
型化を実現することができる。
(3) In order to lower the allocation order of the SRAM, which is the cache memory, to the part where the DRAM, which is the main memory, has a structure capable of high-speed access, the system is not loaded with more cache memory than necessary. It is possible to realize the miniaturization of.

【0058】(4)さらに、上記(3)によりキャッシ
ュメモリである高速で高価なSRAMの搭載数を抑えられる
ため、省電力化および原価低減を行うことができる。
(4) Furthermore, since the number of high-speed and expensive SRAM that is a cache memory is suppressed by the above (3), power saving and cost reduction can be performed.

【0059】[0059]

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した情報処理装置の一実施例の構
成を示すブロック図である。
FIG. 1 is a block diagram showing the configuration of an embodiment of an information processing apparatus to which the present invention has been applied.

【図2】本開発によるキャッシュ制御回路の主要部分を
司るキャッシュ・マッピング制御回路の詳細構成図であ
る。
FIG. 2 is a detailed configuration diagram of a cache mapping control circuit that controls a main part of the cache control circuit according to the present development.

【図3】本開発によるキャッシュ制御回路の第1のメモ
リ構成によるキャッシュメモリのアドレスマッピング図
である。
FIG. 3 is an address mapping diagram of a cache memory according to a first memory configuration of the cache control circuit according to the present development.

【図4】本開発によるキャッシュ制御回路の第2のメモ
リ構成によるキャッシュメモリのアドレスマッピング図
である。
FIG. 4 is an address mapping diagram of a cache memory according to a second memory configuration of the cache control circuit according to the present development.

【図5】本開発によるキャッシュ制御回路の第4のメモ
リ構成によるキャッシュメモリのアドレスマッピング図
である。
FIG. 5 is an address mapping diagram of a cache memory according to a fourth memory configuration of the cache control circuit according to the present development.

【図6】本開発によるキャッシュ制御回路の動作タイミ
ングチャートである。
FIG. 6 is an operation timing chart of the cache control circuit according to the present development.

【図7】従来技術によるキャッシュメモリ内蔵半導体記
憶装置の概略構成図である。
FIG. 7 is a schematic configuration diagram of a semiconductor memory device having a cache memory according to a conventional technique.

【図8】従来技術によるキャッシュメモリ内蔵半導体記
憶装置の動作を示すタイミングチャートである。
FIG. 8 is a timing chart showing an operation of a semiconductor memory device having a cache memory according to a conventional technique.

【符号の説明】[Explanation of symbols]

101…CPU 102…CPUアドレス 103…キャッシュ制御回
路部 104…キャッシュ・マッピング制御回路部 105…
マッピング信号 106…アドレス比較回路部 107…判定
信号1 108…ANDゲート 109…判定信号2 110…デー
タSRAM 111…タグSRAM 112…CS1信号 113…CS2信号
114…NANDゲート1 115…NANDゲート2 116…CS1-N信号 117…CS2-N信号 118…タグアドレス
119…DRAM制御回路部 120…DRAM 121…DRAM制御信号 201…キャッシュ・マ
ッピングレジスタ 202〜207…ANDゲート 208〜210…O
Rゲート 701…CPU 702…キャッシュ制御回路 703…タグ部 704…マルチプレクサ 705…DRAM制御回
路 706…メインメモリ部 707…DRAM部 707a〜707d…
DRAMデータビットプレーン部 707e…パリティビットプ
レーン部 708…SRAM部 708a〜708d…SRAMデータビッ
トプレーン部 709…ECC回路部 710…CPUアドレス 71
1…ウェイアドレス 712…キャッシュヒット信号 713
…メモリアドレス 714…RAS-N/CAS-N信号 715…UCEフ
ラグ 716…EFフラグ 717…転送制御信号BT
101 ... CPU 102 ... CPU address 103 ... Cache control circuit unit 104 ... Cache mapping control circuit unit 105 ...
Mapping signal 106 ... Address comparison circuit section 107 ... Judgment signal 1 108 ... AND gate 109 ... Judgment signal 2 110 ... Data SRAM 111 ... Tag SRAM 112 ... CS1 signal 113 ... CS2 signal
114 ... NAND gate 1 115 ... NAND gate 2 116 ... CS1-N signal 117 ... CS2-N signal 118 ... Tag address
119 ... DRAM control circuit section 120 ... DRAM 121 ... DRAM control signal 201 ... Cache mapping register 202-207 ... AND gate 208-210 ... O
R gate 701 ... CPU 702 ... Cache control circuit 703 ... Tag section 704 ... Multiplexer 705 ... DRAM control circuit 706 ... Main memory section 707 ... DRAM section 707a to 707d ...
DRAM data bit plane part 707e ... Parity bit plane part 708 ... SRAM part 708a to 708d ... SRAM data bit plane part 709 ... ECC circuit part 710 ... CPU address 71
1 ... Way address 712 ... Cache hit signal 713
… Memory address 714… RAS-N / CAS-N signal 715… UCE flag 716… EF flag 717… Transfer control signal BT

フロントページの続き (72)発明者 長島 覧一 神奈川県海老名市下今泉810番地 株式会 社日立製作所オフィスシステム事業部内Front page continuation (72) Inventor Kanichi Nagashima 810 Shimoimaizumi, Ebina City, Kanagawa Prefecture Hitachi Office Systems Division

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】大容量・低速な記憶媒体であるメインメモ
リと、該メインメモリに比べて高速アクセスが可能なキ
ャッシュメモリとを有し、中央処理装置もしくは外部マ
スタ装置からのメモリアクセス要求に応じてデータ転送
を行うメモリ制御装置のキャッシュメモリ制御方法であ
って、前記キャッシュメモリが対象とするアドレス領域
を、前記メインメモリの種類、構成に応じて切り替える
ことにより、高速なメモリアクセスを実現することを特
徴とするキャッシュメモリ制御方法。
1. A main memory, which is a large-capacity, low-speed storage medium, and a cache memory that can be accessed faster than the main memory, and responds to a memory access request from a central processing unit or an external master unit. A method of controlling a cache memory of a memory control device for performing data transfer according to claim 1, wherein a high-speed memory access is realized by switching an address area targeted by the cache memory according to a type and a configuration of the main memory. And a cache memory control method.
【請求項2】前記キャッシュメモリの対象とするメイン
メモリの領域を限定することにより、キャッシュアドレ
ス情報以外の情報も付加することを可能とし、メモリア
クセスの高速化および、データの同一性確保を実現する
ことを特徴とする請求項1記載のキャッシュメモリ制御
方法。
2. By limiting the area of the main memory that is the target of the cache memory, it is possible to add information other than the cache address information, thereby realizing high-speed memory access and ensuring data identity. The cache memory control method according to claim 1, further comprising:
JP7261182A 1995-09-19 1995-10-09 Cache memory control method Pending JPH09101917A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP7261182A JPH09101917A (en) 1995-10-09 1995-10-09 Cache memory control method
US08/714,393 US5761695A (en) 1995-09-19 1996-09-16 Cache memory control method and apparatus, and method and apparatus for controlling memory capable of interleave control
TW085111901A TW305962B (en) 1995-09-19 1996-09-30

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7261182A JPH09101917A (en) 1995-10-09 1995-10-09 Cache memory control method

Publications (1)

Publication Number Publication Date
JPH09101917A true JPH09101917A (en) 1997-04-15

Family

ID=17358278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7261182A Pending JPH09101917A (en) 1995-09-19 1995-10-09 Cache memory control method

Country Status (1)

Country Link
JP (1) JPH09101917A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100488103B1 (en) * 2000-12-08 2005-05-09 엘지전자 주식회사 Flexible Memory Address Mapping Circuit for CPU Max Processing

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100488103B1 (en) * 2000-12-08 2005-05-09 엘지전자 주식회사 Flexible Memory Address Mapping Circuit for CPU Max Processing

Similar Documents

Publication Publication Date Title
US5761695A (en) Cache memory control method and apparatus, and method and apparatus for controlling memory capable of interleave control
JP3786521B2 (en) Semiconductor integrated circuit and data processing system
JP3807582B2 (en) Information processing apparatus and semiconductor device
US8032715B2 (en) Data processor
US5329629A (en) Apparatus and method for reading, writing, and refreshing memory with direct virtual or physical access
US8305834B2 (en) Semiconductor memory with memory cell portions having different access speeds
US8006026B2 (en) Multi-port memory and computer system provided with the same
CN101038531A (en) Shared interface for components in embedded systems
US6202133B1 (en) Method of processing memory transactions in a computer system having dual system memories and memory controllers
US20080098176A1 (en) Method and Apparatus for Implementing Memory Accesses Using Open Page Mode for Data Prefetching
US7328311B2 (en) Memory controller controlling cashed DRAM
US6754778B2 (en) Memory controller and a cache for accessing a main memory, and a system and a method for controlling the main memory
JP6228523B2 (en) Memory control circuit and semiconductor memory device
US6397317B1 (en) Data processing method and apparatus having address conversion
US6785190B1 (en) Method for opening pages of memory with a single command
JPH09101917A (en) Cache memory control method
US20010034808A1 (en) Cache memory device and information processing system
JPH10143428A (en) Memory control system for power saving and memory control circuit
US20240020235A1 (en) Storage module supporting prefetch function and operation method thereof
JP3600830B2 (en) Processor
JPH0561769A (en) Memory access method
JP2822913B2 (en) Semiconductor storage device
JPH05143445A (en) Memory accelerating mechanism for virtual memory computer
JPH11203198A (en) Memory access controller
JPH06124236A (en) Data processor