Nothing Special   »   [go: up one dir, main page]

JP2010191638A - キャッシュ装置 - Google Patents

キャッシュ装置 Download PDF

Info

Publication number
JP2010191638A
JP2010191638A JP2009034588A JP2009034588A JP2010191638A JP 2010191638 A JP2010191638 A JP 2010191638A JP 2009034588 A JP2009034588 A JP 2009034588A JP 2009034588 A JP2009034588 A JP 2009034588A JP 2010191638 A JP2010191638 A JP 2010191638A
Authority
JP
Japan
Prior art keywords
data
cache
line
cache memory
buffer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009034588A
Other languages
English (en)
Other versions
JP5417879B2 (ja
Inventor
Gen Tsukishiro
玄 月城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Semiconductor Ltd
Original Assignee
Fujitsu Semiconductor Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Semiconductor Ltd filed Critical Fujitsu Semiconductor Ltd
Priority to JP2009034588A priority Critical patent/JP5417879B2/ja
Priority to US12/706,362 priority patent/US8380934B2/en
Publication of JP2010191638A publication Critical patent/JP2010191638A/ja
Priority to US13/620,521 priority patent/US8661198B2/en
Application granted granted Critical
Publication of JP5417879B2 publication Critical patent/JP5417879B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0804Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches with main memory updating

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

【課題】高速なアクセスを可能とすること。
【解決手段】キャッシュ装置12は、CPU11とキャッシュメモリ21との間にライトバッファ22a,22bを有する。制御回路26は、CPU11からのアクセス要求に基づいて、キャッシュミスが発生した場合には、CPU11の出力データをライトバッファ22a,22bに格納するとともに、アクセス要求に対応するデータを含むラインのデータをメインメモリからデータを読み出してキャッシュメモリ21に書き込む。そして、制御回路26は、ライトバッファ22a,22bに格納したデータをキャッシュメモリ21に転送する。
【選択図】図2

Description

キャッシュ装置に関する。
従来、コンピュータシステムでは、主記憶装置のアクセス時間を短縮するために、主記憶装置と、その主記憶装置の情報(データ)を読み出す処理装置との間に、キャッシュ装置が接続されている(例えば、特許文献1参照)。
キャッシュ装置は、主記憶装置と比べてアクセス速度、即ちデータの書き込み・読み出し速度が高速な記憶領域(キャッシュメモリ)を有している。キャッシュ装置は、このキャッシュメモリに処理装置が主記憶装置をアクセスした内容(データ)を記憶しておき、同じデータにアクセスしたときにはキャッシュメモリから取り出すことにより、主記憶装置に対するアクセス速度を見かけ上高速化している。
また、連続した複数のアドレスに記憶されたデータは、連続的にアクセスされる可能性が高いことから、キャッシュ装置は、所定数(例えば32バイト)のデータを1つのブロックとし、複数のブロックをキャッシュメモリに格納する。そして、キャッシュ装置は、ブロックの格納位置(ライン番号)と主記憶装置のアドレスとを対応付けて記憶する管理領域を有している。
要求されたデータがキャッシュメモリに記憶されている場合をキャッシュヒットといい、データがキャッシュメモリに記憶されていない場合をキャッシュミスという。従来のキャッシュ装置は、処理装置から主記憶装置内のデータに対するアクセスが要求されると、データのアドレスと管理領域に記憶されたアドレスとを比較してキャッシュヒットかキャッシュミスかを判断する。キャッシュヒットの場合、キャッシュ装置は、管理領域を参照して、データが含まれるブロックのライン番号を検索し、そのライン番号のブロックに対してアクセスに対応する処理を実行する。例えば、アクセス要求が書き込み要求の場合、キャッシュ装置は、処理装置から出力されるデータを該当するブロックに格納し、アクセス要求が読み出し要求の場合には該当するブロックのデータを処理装置に出力する。キャッシュミスの場合、キャッシュ装置は、主記憶装置からデータが含まれる1ブロック分の記憶領域のデータを読み出してキャッシュメモリに格納し、その格納したブロックに対してアクセスに対応する処理を実行する。
主記憶装置のブロックとキャッシュメモリのブロックとを対応付けるマッピング方式の代表的なものとして、セットアソシアティブ方式、フルアソシアティブ方式、セクタ方式がある。フルアソシアティブ方式は、他の方式と比べてランダムアクセスに適しており、キャッシュヒット率が高い。
特開平7−152566号公報
しかし、キャッシュ装置は、キャッシュヒットであっても、アクセスを終了するまでに時間、所謂レイテンシが発生する。このため、アクセスを終了するまでの時間短縮、即ち高速なアクセスが求められている。
このキャッシュ装置で、高速なアクセスを可能とすることを目的とする。
開示のキャッシュ装置は、処理装置と記憶装置との間に介在されるキャッシュ装置であって、前記記憶装置のデータを記憶するキャッシュメモリと、前記処理装置から出力される出力データを保持するバッファと、前記記憶装置に対するアクセス要求に基づいてキャッシュ判定をし、キャッシュミスの場合には前記アクセス要求に対応して前記出力データを前記バッファに保持し、前記アクセス要求により要求されたデータを含むラインのデータを前記記憶装置から読み出すためのリード要求を出力し、前記記憶装置の前記ラインから出力されたデータを前記キャッシュメモリに格納し、前記バッファに保持してある前記出力データを前記キャッシュメモリに格納させる制御回路と、を有する。
開示のキャッシュ装置は、高速なアクセスを可能とすることができるという効果を奏する。
コンピュータシステムの概略構成図である。 キャッシュ装置の概略ブロック図である。 キャッシュメモリ及び各バッファの説明図である。 (a)(b)はデータライト時の動作説明図である。 (a)(b)はデータライト時のタイミング図である。 データライト時の動作説明図である。 (a)〜(c)はデータライト時のタイミング図である。 (a)(b)はデータリード時の動作説明図である。 (a)(b)はデータリード時のタイミング図である。 ライトバック時の動作説明図である。 ライトバック時のタイミング図である。 ライトバック時のタイミング図である。 (a)(b)はライトバック時の動作説明図である。 ライトバック時のタイミング図である。 (a)〜(c)はライトバック時の動作説明図である。 データライト時の動作説明図である。 データライト時の動作説明図である。 ライトバック時のタイミング図である。 (a)〜(c)はキャッシュメモリのライン設定の説明図である。
以下、一実施形態を図1〜図12に従って説明する。
図1に示すように、コンピュータシステムは、処理装置としてのCPU11、キャッシュ装置12、メモリコントローラ13、主記憶装置としてのメインメモリ14を含む。CPU11とキャッシュ装置12はバスB1を介して接続され、キャッシュ装置12とメモリコントローラ13はバスB2を介して接続され、メモリコントローラ13とメインメモリ14はバスB3を介して接続されている。バスB1は、CPU11とキャッシュ装置12との間でデータの授受を行うために必要な1又は複数の制御信号を伝達する配線からなる制御バス、複数ビットのアドレス信号を伝達する配線からなるアドレスバス、複数ビットのデータを伝達する配線からなるデータバスを含む。同様に、バスB2,B3は、それぞれ、制御バス、アドレスバス、データバスを含む。以下、CPU11とキャッシュ装置12との間のバスをCPUバスといい、キャッシュ装置12とメインメモリ14との間のバスをメモリバスという。
CPU11は、キャッシュ装置12及びメモリコントローラ13を介してメインメモリ14をアクセスする。メインメモリ14は例えばSDRAMである。メインメモリ14には、CPU11が実行する制御プログラム、制御プログラムの実行に用いられるデータ、制御プログラムを実行するCPU11により生成されるデータが格納される。なお、制御プログラムやデータは、CPU11や他の処理装置が実行するブートプログラムにより、図示しないROMやディスク装置等の補助記憶装置から読み出されてメインメモリ14に格納される。
CPU11は、制御プログラムやデータをメインメモリ14から読み出すためのアクセス要求(リードリクエスト)、変更又は生成したデータをメインメモリ14に書き込むためのアクセス要求(ライトリクエスト)を出力する。
キャッシュ装置12は、メインメモリ14と比べて小容量かつ高速なメモリ(以下、キャッシュメモリという)を有している。キャッシュメモリは、例えばスタティックRAMである。キャッシュ装置12は、過去にCPU11がメインメモリ14をアクセスしたデータをキャッシュメモリに記憶する。次にCPU11から出力されるアクセス要求に対応するデータがキャッシュメモリに記憶されている場合をキャッシュヒットといい、データがキャッシュメモリに記憶されていない場合をキャッシュミスという。キャッシュ装置12は、CPU11から出力されるアクセス要求に応答して、キャッシュヒットのリード動作の場合にはキャッシュメモリに記憶したデータをCPU11に出力し、キャッシュヒットのライト動作の場合にはキャッシュメモリに書き込みを行う。即ち、キャッシュヒットの場合、CPU11のアクセス要求は、CPU11とキャッシュ装置12との間のデータの送受信だけで終了する。従って、CPU11におけるデータ入出力のためのアクセスを高速化することができる。
キャッシュ装置12は、キャッシュミスの場合にメインメモリ14をアクセスするための要求をメモリコントローラ13に出力する。この時、キャッシュ装置12は、要求されるデータのアドレスから連続したアドレスによって指定される複数バイト(例えば32バイト)のデータをメインメモリ14から読み出すようにアクセス要求を出力する。この複数バイトのデータを格納する領域をラインと呼ぶ。つまり、1つのラインには複数バイトのデータが格納され、各データのアドレスは連続している。CPU11が実行する制御プログラムは、複数の命令語(オペコード)とデータ(オペランド)から構成され、逐次実行する命令語及びその命令語の実行に必要なデータはメインメモリ14上の連続したアドレスにより指定される領域に格納されていることが多い。従って、CPU11のアクセス要求は、ある時点の前後でメインメモリ14の限られた領域に集中する。これを局所性と呼ぶ。このように、アクセス要求が集中する領域のデータを、キャッシュ装置12のキャッシュメモリに記憶することで、アクセスの高速化を図るとともにメインメモリ14に対するアクセス回数を低減する。
メモリコントローラ13は、キャッシュ装置12から出力される要求に応じて、メインメモリ14をアクセスするための1又は複数の信号をメインメモリ14に出力する。メインメモリ14は、その信号に応答してリード処理又はライト処理を実行し、メモリセルからデータの読み出し、又はメモリセルへのデータの書き込みを行う。そして、メモリコントローラ13は、メインメモリ14が出力するデータを受け取り、その受け取ったデータをキャッシュ装置12に出力する。
次に、キャッシュ装置12の構成を説明する。
図2に示すように、キャッシュ装置12は、キャッシュメモリ21、複数(本実施形態では2つ)のライトバッファ(WB)22a,22b、リードバッファ(RB)23、ライトバックバッファ(WBB)24、タグメモリ(タグ)25、制御回路26を有している。なお、カッコ内は図中の表記を示す。
キャッシュメモリ21は、複数(例えば、128)のラインに区画可能な記憶容量を持つ。
キャッシュメモリ21とCPU11との間には、ライトバッファ22a,22b及びリードバッファ23が接続されている。ライトバッファ22a,22b及びリードバッファ23は、1ラインのデータを記憶可能な容量(例えば、32バイト)のバッファメモリである。ライトバッファ22a,22b及びリードバッファ23は、内部バスIB1及びCPUバスB1を介してCPU11と接続されている。また、ライトバッファ22a,22b及びリードバッファ23は、内部バスIB2を介してキャッシュメモリ21と接続されている。
この内部バスIB1のバス幅は、CPUバスB1のバス幅と同じ値に設定されている。内部バスIB2のバス幅は、内部バスIB1のバス幅、即ちCPUバスB1のバス幅の正数倍(本実施形態では1倍)に設定されている。CPU11は、1回のアクセス要求に対して複数バイト(例えば4バイト)のデータを入出力可能に構成されている。従って、CPUバスB1のバス幅は、この複数バイト(4バイト)のデータ転送が可能なバス幅に設定されている。そして、内部バスIB1,IB2のバス幅は、CPUバスB1のバス幅と同じ値(4バイト)に設定されている。
尚、内部バスIB1,IB2は、ライトバッファ22a,22bとCPU11との間のバス幅と、ライトバッファ22a,22bとキャッシュメモリ21との間のバス幅を示すためのものであり、両内部バスが電気的に接続された1つのバスにより構成されている。即ち、キャッシュメモリ21は、シングルポート構成のスタティックRAMである。
CPU11から出力された4バイトのライトデータ(出力データ)WDcは、CPUバスB1及び内部バスIB1を介してライトバッファ22a、22bに供給され、ライトバッファ22a又はライトバッファ22bは供給されたデータWDcを記憶する。ライトバッファ22a,22bから読み出されたデータは内部バスIB2を介してキャッシュメモリ21に供給され、キャッシュメモリ21は供給されたデータを記憶する。
キャッシュメモリ21から読み出されたデータは内部バスIB2を介してリードバッファ23に供給され、そのリードバッファ23はそのデータを記憶する。リードバッファ23から読み出されたデータは、内部バスIB1及びCPUバスB1を介してCPU11にリードデータ(入力データ)RDcとして供給される。
また、リードバッファ23は内部バスIB1に接続されている。従って、CPU11から出力されたライトデータWDcを記憶可能に構成されている。また、本実施形態のキャッシュ装置12は、キャッシュメモリ21から読み出されたデータを直接的にCPU11に供給する経路(データパス)P1を有している。従って、キャッシュメモリ21から読み出したデータをリードデータRDcとして直接的にCPU11に供給可能に構成されている。
キャッシュメモリ21とメモリコントローラ13との間には、ライトバックバッファ24が接続されている。ライトバックバッファ24は、1ラインのデータを記憶可能な容量(32バイト)のバッファである。キャッシュメモリ21から読み出された1ライン分のデータは、ライトバックバッファ24に記憶される。そして、ライトバックバッファ24から読み出されたデータは、ライトデータWDmとしてメモリバスB2を介してメモリコントローラ13に出力される。一方、メモリコントローラ13からメモリバスB2に出力されたリードデータRDmは、直接的にキャッシュメモリ21に供給され、キャッシュメモリ21は供給された1ライン分のデータを記憶する。
タグメモリ25は、キャッシュメモリ21の使用状況、キャッシュメモリ21に記憶されたラインと、メインメモリ14に記憶されたラインとを対応付けるための情報(タグ情報)、等を記憶するためのメモリである。制御回路26は、タグメモリ25に格納した情報に基づいて、キャッシュメモリ21、各バッファ22a,22b,23,24における書き込み、読み出しを制御する。制御回路26は、CPUバスB1を介してCPU11と接続されるとともに、メモリバスB2を介してメモリコントローラ13と接続されている。制御回路26には、CPU11から出力されるアクセス要求のための制御信号Scc及びアドレス信号Adcが供給される。尚、制御信号Sccは、制御回路26がCPU11に出力する応答信号を含む。
制御回路26は、アドレス信号Adcに基づいて、CPU11がアクセスするアドレスのデータがキャッシュメモリ21に格納されているか否か、即ちキャッシュヒットかキャッシュミスかを判断する。上記したように、タグメモリ25には、キャッシュメモリ21に記憶されたラインと、メインメモリ14に記憶されたラインとを対応付けたタグ情報が記憶されている。制御回路26は、タグメモリ25を検索する。そして、制御回路26は、アクセス要求のアドレスがタグ情報に含まれている場合にはキャッシュヒットと判断し、アクセス要求に対応する処理を行う。また、制御回路26は、アクセス要求のアドレスがタグ情報に含まれていない場合にはキャッシュミスと判断し、アクセス要求に対応する処理を行う。
キャッシュメモリ21とメインメモリ14との対応関係、タグメモリ25に記憶する情報を、図3に従って説明する。
図3に示すように、タグメモリ25は、管理領域31とタグ領域32を含む。管理領域31には、総ライン数、使用ライン数、先頭ポインタ、末尾ポインタが格納されている。尚、カッコ内の文字は、図3におけるキャッシュメモリ21の状態を示す値である。図3には、説明を理解し易くするために、10個のラインL0〜L9を記憶可能なキャッシュメモリ21と、28個のラインM0〜M27に区分されたメインメモリ14を示している。メインメモリ14において、ハッチングを付したラインM3,M7,M9,M12,M15は、アクセス要求に応答してデータを読み出したラインを示している。そして、図中の矢印は、キャッシュメモリ21のラインL0,L1,L2,L3,L4,L5に、メインメモリ14のラインM3,M12,M7,M15,M9のデータが格納されていることを示す。
この状態において、キャッシュメモリ21の総ライン数は「10」であり、使用ライン数は「5」である。また、先頭ポインタは、最新のラインが書き込まれた位置を示し、末尾ポインタは、最古のラインが書き込まれた位置を示す。
タグ領域32に格納された情報は、ライン番号32aと、アドレス32bと、変更ビット32cと、有効ビット32dを含む。ライン番号32aとアドレス32bは、データが格納された領域を示すとともに、キャッシュメモリ21とメインメモリ14との対応関係(関連付け)を示す。即ち、アドレス32bにて示される領域のデータがメインメモリ14から読み出され、そのデータがキャッシュメモリ21のライン番号32aにて示されるラインに格納されている。また、ライン番号32aにて示されるラインのデータは、アドレス32bにて示されるメインメモリ14の領域に書き戻される。
変更ビット32cは、対応するラインのデータがCPU11により書き換えられているか否かを示すビットであり、例えば「1」の場合には書換えられていることを示し、「0」の場合は書き換えられていないことを示す。有効ビット32dは、キャッシュメモリ21のラインが使用可能か否か、つまりデータの書き込みが可能か否かを示すビットであり、例えば「1」は使用不能を示し、「0」は使用可能を示す。
図3に示す状態において、リードアクセスによりキャッシュミスが発生した場合、制御回路26は、該当するアドレスのデータをメインメモリ14から読み出す。そして、制御回路26は、管理領域31の情報に基づいて、メインメモリ14から読み出したデータをラインL5に格納するとともに、そのラインL5を示す情報と、読み出したデータのアドレスとを関連付けてタグ領域32に格納する。更に、データを読み出したのみであり、そのデータは書き換えられていないため、制御回路26は、変更ビット32cに「0」をセットするとともに、ラインL5のデータが有効であることを示すため、有効ビット32dに「1」をセットする。
尚、図2に示す制御回路26は、キャッシュメモリ21をラウンドロビン方式にて管理する。即ち、制御回路26は、メインメモリ14から読み出したデータをラインL0からラインL9に向って順次格納する。そして、データをラインL9に格納した後、制御回路26は、次にメインメモリ14から読み出したデータをラインL0に格納する。つまり、制御回路26は、キャッシュメモリ21のラインに循環的に使用し、メインメモリ14から読み出したデータをラインに書き込む。
次に、制御回路26が実行する処理を、アクセス要求に応じて説明する。
先ず、アクセス要求がライトアクセスの場合を説明する。
制御回路26は、制御信号Sccに基づいて、CPU11からのアクセス要求がライトアクセスと判断すると、2つのライトバッファ22a,22bのうちの何れか一方を選択し、CPU11に対してデータライトを許可する。その許可に応答してCPU11は、ライトするデータを出力する。例えば、ライトバッファ22aを選択した場合、図4(a)に示すように、ライトバッファ22aはCPU11から出力されたライトデータを格納する。これにより、CPU11における書き込み要求及びライトデータの書き込みが終了する。つまり、ライトバッファ22a,22bにライトデータを書き込むことにより、CPU11に対するライトアクセスの処理が終了する。従って、ライトアクセスを出力してからライトバッファ22aにライトデータを格納するまでの時間が、CPU11のライトアクセスに対する応答時間となる。
ライトバッファ22aに格納されたデータはキャッシュメモリ21に格納しなければならない。このため、制御回路26は、CPU11からのアクセス要求がライトアクセスと判断すると、アドレス信号Adcに基づいて、CPU11がアクセスするアドレスのデータがキャッシュメモリ21に格納されているか否か、即ちキャッシュヒットかキャッシュミスかを判断する。上記したように、タグメモリ25には、キャッシュメモリ21に記憶されたラインと、メインメモリ14に記憶されたラインとを対応付けたタグ情報が記憶されている。制御回路26は、タグメモリ25を検索する。そして、制御回路26は、アクセス要求のアドレスがタグ情報に含まれている場合にはキャッシュヒットと判断し、アクセス要求のアドレスがタグ情報に含まれていない場合にはキャッシュミスと判断する。
キャッシュヒットの場合、制御回路26は、図4(a)に示すように、ライトバッファ22aのデータをキャッシュメモリ21のラインLcに格納する。そして、制御回路26は、このラインLcに対応する変更ビット32cを「1」にセットする。
一方、キャッシュミスの場合、制御回路26は、アドレスのデータを含むラインのデータを読み出すためのアクセス要求をメモリコントローラ13に出力する。このアクセス要求は、読み出しを示す信号を含む制御信号Scmと、ラインのアドレスを指定するためのアドレス信号Admを含む。このアクセス要求に従って図1に示すメインメモリ14から読み出されたラインは、メモリコントローラ13を介してリードデータRDmとしてキャッシュ装置12に供給される。図4(b)に示すように、制御回路26は、このリードデータRDmをキャッシュメモリ21のラインLcに格納するとともに、そのラインの番号とリードデータRDmを読み出したアドレスとを対応付けて図3に示すタグメモリ25に格納する。そして、制御回路26は、キャッシュヒットの時と同様に、ライトバッファ22aのデータをキャッシュメモリ21のラインLcに格納し、このラインLcに対応する変更ビット32cを「1」にセットする。
キャッシュミスした場合における動作、即ち上記のライトバッファ22a(22b)にデータを書き込む動作と、メインメモリ14からデータを読み出してキャッシュメモリ21に書き込む動作は、データ転送経路が異なる。従って、制御回路26は、上記のライトバッファ22a(22b)に対するデータの書き込み処理と、メインメモリ14からデータを読み出してキャッシュメモリ21に書き込む処理とを、並行して行う。その動作を図5(a)に示す。図中、メインメモリ14を「RAM」、キャッシュメモリ21を「CM」、ライトバッファ22aを「WB0」として記す。「書込要求」に対応して図面右側に向って延びる矢印は、CPU11がライトアクセスを出力してからアクセスが許可されてデータを出力するまでの動作期間を示す。「CPU→WB0」はCPU11が出力するデータをライトバッファ22aに格納するまでの動作期間を示す。「RAM→CM」は、制御回路26がメモリコントローラ13にリード要求を出力してからメインメモリ14から読み出した1ライン分のデータをキャッシュメモリ21に格納するまでの動作期間を示す。「WB0→CM」は、ライトバッファ22aのデータを読み出してキャッシュメモリ21に格納する、即ちライトバッファ22aのデータをキャッシュメモリ21に転送する動作期間を示す。尚、上記の図5(a)(b)及び以下の説明に対するタイミング図において、矢印は、動作の順番とその動作に要する期間を概念的に示すものであって、実際の動作期間を示していない場合がある。
図5(a)に示すように、CPU11がライトバッファ22aにデータを書き込む処理(CPU→WB0)は、メインメモリ14からキャッシュメモリ21にデータを転送する処理(RAM→CM)の一部と、並行に実行される。そして、キャッシュメモリ21にデータが格納されると、制御回路26は、ライトバッファ22aからキャッシュメモリ21にデータを転送する(WB0→CM)。
図5(b)は、通常のライトアロケート動作を行うキャッシュ装置におけるライト動作を示す。このキャッシュ装置では、書込要求によってキャッシュミスが発生すると、メインメモリからキャッシュメモリにデータを転送(RAM→CM)した後にCPUに対してアクセスを許可し、CPUからキャッシュメモリにデータが書き込まれる(CPU→CM)。図中、「書込要求」について実線の矢印はキャッシュミスが発生するまでを示し、二点線の矢印はアクセスが許可されるまで、即ち要求が保留される期間を示している。従って、CPUのライトアクセスに対する応答時間は、キャッシュメモリにデータが書き込まれるまでとなる。
つまり、本実施形態のキャッシュ装置12は、ライトアロケート動作におけるキャッシュミスに対するメインメモリ14のリード動作と、CPU11のデータ書き込み動作とを並行して行う。従って、本実施形態のキャッシュ装置12は、従来の構成に比べて応答速度が短くなる、即ち従来構成と比べて高速なアクセスを実現することができる。
尚、図5(b)に示す動作を行うキャッシュ装置では、キャッシュヒットの場合、書き込み要求の後にCPUからキャッシュメモリにデータが書き込まれる。従って、キャッシュミスの場合とキャッシュヒットの場合とで応答時間が異なることになる。その点、本実施形態のキャッシュ装置12では、CPU11からライトバッファ22a(22b)にライトデータを書き込むため、キャッシュヒットの場合の応答速度と、キャッシュミスの場合の応答速度が同じになる。つまり、ライトアクセスにおいて常に同じ応答速度で処理を行うことができる。
尚、図5(a)の動作説明では、ライトバッファ22aの状態がデータを書き込み可能である場合について説明し。しかし、ライトバッファ22aにデータが保持され、そのデータがキャッシュメモリ21に囲まれていない場合がある。このような状態は、1ライン分のアドレス範囲を超えるアドレスの第1データと第2データが同一のライトバッファに対して書き込まれる場合に発生する。このような場合、制御回路26は、第2データに対するアクセス要求に対するキャッシュ判定においてキャッシュミスと判定すると、その第2データメインメモリ14に対して第2データに対応するリード要求の発行以降に、第1データをキャッシュメモリ21に書き込む動作を開始する。そして、制御回路26は、キャッシュメモリ21に対する第1データの書き込みを終了すると、第2データをライトバッファ22aに格納する。従って、この場合における応答時間は、CPU11が第2データにおけるアクセス要求を出力してから第2データをライトバッファ22aに格納するまでの時間が、CPU11のライトアクセスに対する応答時間となる。
第1データをキャッシュメモリ21に書き込む処理に要する時間と、第2データをライトバッファ22aに格納する処理に要する時間の合計値は、図5(b)に示す応答時間と比べて十分に短い。従って、本実施形態のキャッシュ装置12は、従来の構成に比べて応答速度が短くなる、即ち従来構成と比べて高速なアクセスを実現することができる。
更に、本実施形態のキャッシュ装置12は、2つのライトバッファ22a,22bを有している。制御回路26は、CPU11が書き込むデータのアドレスに対応して2つのライトバッファ22a,22bを交互に使用することで、複数の連続したライトアクセスに対する応答時間を短縮することができる。
即ち、図1に示すCPU11は、図6に示すように、1つのラインに格納されたデータのアドレスの範囲を超えるアドレスのデータD1,D2を連続的にライトアクセスする。図2に示す制御回路26は、先ず第1のライトバッファ22aを選択してこのライトバッファ22aにデータD1を格納する。次に、制御回路26は、第2のライトバッファ22bを選択してこのライトバッファ22bにデータD2を格納する。データD1,D2の書き込みが終了すると、CPU11が出力したライトアクセスに対する見かけ上の処理が終了するため、CPU11は他の処理を実行することができる。
制御回路26は、両データD1,D2のライトアクセスがそれぞれキャッシュミスであると判断すると、それぞれのアドレスに対応するラインLa,Lbのデータをメインメモリ14から順次読み込み、キャッシュメモリ21のラインLa,Lbに書き込む。そして、制御回路26は、各ライトバッファ22a,22bのデータを、キャッシュメモリ21のラインLa,Lbにそれぞれ書き込む。これにより、データD1,D2をキャッシュメモリ21に格納する処理を終了する。
同様に、3つの連続したライトアクセスがキャッシュミスの場合における動作を、図7に従って説明する。
図7(a)〜(c)は、ライトアクセスする3つのデータD1,D2,D3のアドレスが、1ラインのアドレス範囲を超える場合の動作を示す。データD1に対する書き込み動作を実線細線矢印で示し、データD2に対する書き込み動作を実線太線矢印で示し、データD3に対する書き込み動作を一点鎖線矢印で示している。
図7(a)は、データD1〜D3のアドレスが、1ラインのアドレス範囲を相互に超えている場合の動作波形を示す。
先ず、図1に示すCPU11は、データD1のライトアクセスを出力する。図2に示す制御回路26は、第1のライトバッファ22a(WB0)を選択してデータD1に対するアクセスを許可するとともに、そのデータD1のアドレスに対応するラインのデータのアクセス要求をメモリコントローラ13に出力する。従って、データD1をライトバッファ22aに書き込む処理(CPU→WB0)と、メインメモリ14をアクセスしてデータをキャッシュメモリ21に書き込む処理(RAM→CM)とを並列に実行する。
次に、CPU11は、アクセス許可に応答してデータD1を出力した後、データD2のライトアクセスを出力する。制御回路26は、第2のライトバッファ22b(WB1)を選択してデータD2に対するアクセスを許可する。CPU11は、アクセス許可に応答してデータD2を出力した後、データD3のライトアクセスを出力する。
制御回路26は、データD1に対応するメインメモリ14のデータがキャッシュメモリ21に格納される(RAM→CM)と、データD2のアドレスに対応するラインのデータのアクセス要求をメモリコントローラ13に出力するとともに、第1のライトバッファ22aに格納されたデータD1をキャッシュメモリ21に転送する(WB0→CM)。
すると、第1のライトバッファ22aに対する書き込みが可能となるため、制御回路26は、第1のライトバッファ22a(WB0)を選択してデータD3に対するアクセスを許可し、CPU11はアクセス許可に応答してデータD3を出力する。
制御回路26は、データD2に対応するメインメモリ14のデータがキャッシュメモリ21に格納される(RAM→CM)と、データD3のアドレスに対応するラインのデータのアクセス要求をメモリコントローラ13に出力するとともに、第2のライトバッファ22bに格納されたデータD2をキャッシュメモリ21に転送する(WB1→CM)。
そして、制御回路26は、データD3に対応するメインメモリ14のデータがキャッシュメモリ21に格納される(RAM→CM)と、第1のライトバッファ22aに格納されたデータD3をキャッシュメモリ21に転送する(WB0→CM)。
図7(b)は、データD1,D2のアドレスが1ラインのアドレス範囲内であり、データD3のアドレス範囲がデータD1,D2のアドレスに対して1ラインのアドレス範囲を超える場合の動作波形を示す。
先ず、図1に示すCPU11は、データD1のライトアクセスを出力する。図2に示す制御回路26は、第1のライトバッファ22a(WB0)を選択してデータD1に対するアクセスを許可するとともに、そのデータD1のアドレスに対応するラインのデータのアクセス要求をメモリコントローラ13に出力する。更に、制御回路26は、出力したアクセス要求に対応するアドレス、つまりデータD1のアドレス値を含み、ラインの容量に対応するアドレスの範囲の値を図示しないレジスタに記憶する。従って、データD1をライトバッファ22aに書き込む処理(CPU→WB0)と、メインメモリ14をアクセスしてデータをキャッシュメモリ21に書き込む処理(RAM→CM)とを並列に実行する。
次に、CPU11は、アクセス許可に応答してデータD1を出力した後、データD2のライトアクセスを出力する。制御回路26は、データD2のアドレスとレジスタに記憶した値と比較し、そのアドレスが上記のアドレス範囲内か否かを判断する。データD2のアドレスは、データD1を格納するラインのアドレスの範囲内であるため、制御回路26は、選択を変更することなくデータD2に対するアクセスを許可する。即ち、本実施形態の制御回路26は、アクセス要求に対して、そのアクセス要求に伴うアドレスを、図3に示すタグ領域32に格納したアドレスと比較するとともに、レジスタに記憶したアドレス、つまりメインメモリ14から読み出しを行っている途中のデータのアドレス範囲と比較する。そして、制御回路26は、その比較結果に基づいて、メインメモリ14に対するアクセス要求、ライトバッファ22a,22bの選択、等の動作を行う。
CPU11は、アクセス許可に応答してデータD2を出力した後、データD3のライトアクセスを出力する。制御回路26は、第2のライトバッファ22b(WB1)を選択してデータD3に対するアクセスを許可する。CPU11は、アクセス許可に応答してデータD3を出力する。
次に、制御回路26は、データD1に対応するメインメモリ14のデータがキャッシュメモリ21に格納される(RAM→CM)と、第1のライトバッファ22aに格納されたデータD1,D2をキャッシュメモリ21に転送する(WB0→CM)。
制御回路26は、データD3に対応するメインメモリ14のデータがキャッシュメモリ21に格納される(RAM→CM)と、第2のライトバッファ22bに格納されたデータD3をキャッシュメモリ21に転送する(WB1→CM)。
図7(c)は従来のライトアロケート動作を行うキャッシュ装置の動作波形を示す。
このキャッシュ装置は、データD1に対するライトアクセスに応答してメインメモリからキャッシュメモリに該当するラインのデータを転送した後、CPUにアクセスを許可することで、CPUからキャッシュメモリにデータD1が書き込まれる。データD2,D3に対しても同様の動作を行う。
次に、アクセス要求がリードアクセスの場合を説明する。
図2に示すリードバッファ23は、連続したリードアクセスのアドレスが、キャッシュメモリ21の1つのラインに格納したデータのアドレス範囲内のときにアクセス速度を向上する。
詳述すると、制御回路26は、制御信号Sccに基づいて、CPU11からのアクセス要求がリードアクセスと判断すると、アドレス信号Adcに基づいて、CPU11がアクセスするアドレスのデータがキャッシュメモリ21に格納されているか否か、即ちキャッシュヒットかキャッシュミスかを判断する。
キャッシュヒットの場合、制御回路26は、リードアクセスに伴うアドレスのデータが格納されたラインのデータをリードバッファ23に格納する。例えば、図8(a)に示すように、リードアクセスに伴うアドレスのデータがキャッシュメモリ21のラインL2に格納されている場合、制御回路26は、キャッシュメモリ21のラインL2からデータを出力させてリードバッファ23に格納する、即ちデータをキャッシュメモリ21からリードバッファ23に転送する。そして、制御回路26は、リードバッファ23からリードアクセスに対応するリードデータを出力させるとともに、このリードデータのアドレスを図示しないレジスタに記憶する。このリードデータをCPU11が受け取ることで、リードアクセスに対応する処理が終了する。従って、CPU11がリードアクセスを出力してからデータを受け取るまでの時間が、リードアクセスの応答時間となる。
次に、CPU11がリードアクセスを出力すると、制御回路26は、そのリードアクセスに伴うアドレスとレジスタに格納したアドレスとを比較する。そして、制御回路26は、CPU11から新たに出力されたアドレスが、レジスタに格納したアドレスに対して、ラインに格納したデータのアドレス範囲内、即ちリードバッファ23に格納された複数のデータを示すアドレスのうちの1つである場合、そのアドレスに対応するリードデータをリードバッファ23から出力される。
上記例示したように、リードバッファ23の容量は32バイトであり、CPU11が1回のアクセスにより要求するデータのサイズ(バス幅)は4バイトである。従って、制御回路26のレジスタには、リードバッファ23に格納された複数のデータの先頭アドレスと末尾アドレスが記憶される。制御回路26は、この2つのアドレスとCPU11から出力されたアドレスとを比較することで、CPU11から要求されているデータがリードバッファ23内に格納されているか否かを判断することができる。この判断に要する時間は、キャッシュメモリ21に要求されているデータが格納されているか否か、即ちキャッシュヒットかキャッシュミスかを判断する時間に比べて短い。従って、制御回路26は、CPU11が要求するデータを、キャッシュヒット/キャッシュミスを判断するよりも早く出力する。これにより、CPU11のリードアクセスに対する応答時間が短くなる、即ちアクセス速度が従来例よりも高くなる。
更に、本実施形態のキャッシュ装置12は、図2に示すように、キャッシュメモリ21から読み出されたデータを直接的にCPU11に供給する経路(データパス)P1を有している。制御回路26は、図8(b)に示すように、リードアクセスに伴うアドレスのデータがキャッシュメモリ21のラインL2に格納されている場合、そのラインL2のデータをリードバッファ23に格納するとともに、リードアクセスに伴うアドレスに対応するデータを、経路P1を介して出力する。なお、図8(b)では、ラインL2に格納されている複数のデータのうち、先頭アドレスのデータ(ラインL2の左端のデータ)が要求されている場合を示す。従って、ラインL2のデータを一旦リードバッファ23に格納してからCPU11に出力する場合と比べて、CPU11がデータを受け取るまでに要する時間、即ち応答時間が短くなる。
また、本実施形態のキャッシュ装置12は、図2に示すように、リードバッファ23が内部バスIB1に接続され、CPU11から出力されたライトデータWDcをリードバッファ23に記憶可能に構成されている。この構成は、同一アドレスに対するリードアクセスとライトアクセスとが連続する場合のアクセス速度を高速化する。即ち、リードバッファ23から出力されたデータを図1に示すCPU11が処理した後、処理後のデータをリードアクセスの時のアドレスと同一のアドレスにてライトアクセスする。このライトアクセスにより、CPU11から出力されるデータは、ライトバッファ22a,22bの何れかに書き込まれることになる。例えば、ライトバッファ22aに書き込まれた場合、このライトバッファ22a内のデータと、リードバッファ23内のデータとが相違する、即ちコヒーレンシが保てなくなる。すると、次に同一のアドレスに対してリードアクセスする場合には、図9(b)に示すように、ライトバッファ22aのデータをキャッシュメモリ21に格納した後、再びキャッシュメモリ21からリードバッファ23にデータを転送しなくてはならない。しかし、本実施形態のキャッシュ装置12の制御回路26は、図9(a)に示すように、ライトアクセス(W)に応答してCPU11から出力されるデータをライトバッファ22a(WB0)に格納するとともにリードバッファ23(RB)に格納する。この動作により、このライトバッファ22a内のデータと、リードバッファ23内のデータとのコヒーレンシが保てるため、次のリードアクセス(R)において、リードバッファ23から同一アドレスのデータをCPU11に出力することができるため、応答時間が短くなる、即ち高速なアクセスを実現することができる。
次に、ライトバック動作を説明する。
キャッシュメモリ21の各ラインに格納されたデータは、CPU11が実行する処理に使用される。そして、ラインに格納されたデータは、CPU11が実行する処理に応じて、書き換えられる場合がある。この場合、キャッシュメモリ21に格納されたラインのデータと、メインメモリ14に格納されたデータが相違する。このように、データが相違するラインのデータをダーティなデータといい、このラインをダーティライン(又はダーティエントリ)と呼ぶ。メインメモリ14のデータと、キャッシュメモリ21のデータとが一致するように、キャッシュメモリ21のデータをメインメモリ14の該当するアドレスに書き込む必要がある。このキャッシュメモリ21のデータをメインメモリ14に格納する動作をライトバックという。
図10に示すように、キャッシュ装置12はライトバックバッファ24を有し、このライトバックバッファ24は、キャッシュメモリ21とメモリコントローラ13との間に接続されている。キャッシュメモリ21のすべてのラインLa〜Ldには、データが格納されている。図2に示す制御回路26は、アクセス要求がキャッシュミスと判断すると、ライトバックするラインLbのデータをライトバックバッファ24に転送する。そして、制御回路26は、メモリコントローラ13に対してライト要求を出力した後、ライトバックバッファ24に格納したデータをメモリコントローラ13を介してメインメモリ14に格納する。
このように、ライトバックバッファ24を利用することにより、CPU11に対する応答時間を短縮することができる。
即ち、図11に示すように、CPU11からアクセス要求(例えばライトアクセス)が出力され、キャッシュミスが発生すると、制御回路26は、アクセス要求のアドレスに基づいてリード要求をメモリコントローラ13に出力する。そして、制御回路26は、キャッシュメモリ21のラインLb(図10参照)のデータをライトバックバッファ24に転送する(CM→WBB)。つまり、キャッシュ装置12は、図11に示すように、メインメモリ14からデータを読み出してキャッシュメモリ21に格納する動作の一部と、キャッシュメモリ21のデータをライトバックバッファ24に転送する動作を同時に行う。そして、ラインLbのデータをライトバックバッファ24に転送することにより、ラインLbにデータを書き込むことが可能となる。
やがて、メインメモリ14から読み出したデータがメモリコントローラ13から出力されると、制御回路26は、そのデータをキャッシュメモリ21に格納する(RAM→CM)。そして、制御回路26は、CPU11にアクセスを許可し、CPU11から出力されるデータをキャッシュメモリ21(ラインLb)に格納する(CPU→CM)。このデータ格納により、CPU11のアクセス要求に対する処理を終了する。つまり、CPU11がアクセス要求と出力してから、CPU11が出力するデータをキャッシュメモリ21に格納するまでの時間が、CPU11に対する応答時間となる。
上記動作に対し、ライトバックバッファを備えていないキャッシュ装置(従来例)の場合、アクセス要求によりキャッシュミスが発生すると、ラインのデータをキャッシュメモリからメインメモリにライトバックする(CM→RAM)。次に、メインメモリをアクセスしてデータをキャッシュメモリに格納する(RAM→CM)。そして、CPUから出力されるデータをキャッシュメモリに格納する(CPU→CM)。このように、従来例は、ライトバックの期間と、メインメモリからキャッシュメモリにデータを転送する時間、CPUの要求が待たされることになる。その点、本実施形態のキャッシュ装置12は、CPU11はメインメモリ14からキャッシュメモリ21にデータを転送する時間のみアクセス要求が待たされることになり、応答時間が短くなる。そして、上記したように、図2に示すライトバッファ22a,22bを用いることにより、更に応答時間が短くなる。
また、制御回路26は、ライトバックバッファ24にデータを格納した時点で、メモリコントローラ13に対してそのライトバックバッファ24のデータをメインメモリ14に格納するためのライト要求を出力する。従って、制御回路26は、キャッシュミスに対してメモリコントローラ13に出力したリード要求に続いてライト要求を出力することができる。
そして、メインメモリ14に書き込むデータは、ライトバックバッファ24から出力され、キャッシュメモリ21に書き込むデータは、メモリコントローラ13から直接キャッシュメモリ21に入力される。そして、効率的なメモリコントローラ13において、図12に示すように、リードデータ転送と、ライトデータ転送とが重なることがある。従って、キャッシュ装置12とメモリコントローラ13との間、メモリコントローラ13とメインメモリ14との間のバスにおいて、リードデータとライトデータが競合しないように、バスを分離することや、メモリコントローラ13及びメインメモリ14の動作タイミング(又はデータの出力タイミング)を調整することにより、図11に示すように、ライトバックバッファ24からデータを出力する動作を、他の動作と並行して実施することができるようになり、動作効率を高めることができる。
以上記述したように、本実施形態によれば、以下の効果を奏する。
(1)キャッシュ装置12は、CPU11とキャッシュメモリ21との間にライトバッファ22a,22bを有する。制御回路26は、CPU11から出力されるデータをライトバッファ22a,22bに格納するライト動作と、キャッシュミスによりメインメモリ14からデータを読み出してキャッシュメモリ21に書き込むメモリリード動作とを同時に行う。その結果、CPU11のライトアクセスは、ライトバッファ22a,22bにデータを格納することで終了するため、CPU11に対する応答時間が短くなり、高速なアクセスを可能とすることができる。
(2)キャッシュ装置12は、2つのライトバッファ22a,22bを有している。制御回路26は、CPU11が書き込むデータのアドレスに対応して2つのライトバッファ22a,22bを交互に使用することで、複数の連続したライトアクセスに対する応答時間を短縮することができる。
(3)キャッシュ装置12は、CPU11とキャッシュメモリ21との間にリードバッファ23を有する。制御回路26は、CPU11のアクセス要求に応答してキャッシュメモリ21から1ライン分のデータをリードバッファ23に転送し、そのリードバッファ23からリードデータを出力するようにした。その結果、リードバッファ23に格納されたデータのアドレスをアクセスする要求に対して、リードバッファ23からリードデータを出力させることで対応することができるため、応答時間が短くなり、高速なアクセスを可能とすることができる。
(4)キャッシュ装置12は、キャッシュメモリ21から読み出されたデータを直接的にCPU11に供給する経路(データパス)P1を有している。従って、ラインL2のデータを一旦リードバッファ23に格納してからCPU11に出力する場合と比べて、CPU11がデータを受け取るまでに要する時間、即ち応答時間が短くなり、高速なアクセスを可能とすることができる。
(5)キャッシュ装置12は、CPU11から出力されたライトデータWDcをリードバッファ23に記憶可能に構成されている。制御回路26は、ライトバッファ22a,22bに格納したデータのアドレスと、リードバッファ23に格納したデータのアドレスが同じ場合に、CPU11から出力されるライトデータをライトバッファ22a,22bに格納するとともに、リードバッファ23にも格納する。従って、同じアドレスに対するリードアクセスの場合に、ライトバッファ22a内のデータと、リードバッファ23内のデータとのコヒーレンシが保てるため、次のリードアクセス(R)において、リードバッファ23から同一アドレスのデータをCPU11に出力することができるため、応答時間が短くなる、即ち高速なアクセスを実現することができる。
(6)キャッシュ装置12はライトバックバッファ24を有している。制御回路26は、アクセス要求がキャッシュミスと判断すると、ライトバックするラインLbのデータをライトバックバッファ24に転送する。そして、制御回路26は、メモリコントローラ13に対してライト要求を出力した後、ライトバックバッファ24に格納したデータをメモリコントローラ13を介してメインメモリ14に格納する。この結果、データをメインメモリ14に格納する前に、アクセス要求に対応するデータをメインメモリ14から読み出すことができるため、CPU11に対する応答時間を短縮して高速なアクセスを実現することができる。
尚、上記各実施形態は、以下の態様で実施してもよい。
・上記実施形態では、ライトバックバッファ24により、ライトバック動作におけるアクセス速度を高速化するようにしたが、その他の構成により、アクセス速度を高速化するようにしてもよい。
例えば、ライトバックするタイミングを変更する。
上記したように、図2に示す制御回路26は、キャッシュメモリ21の各ラインを循環的に使用している。制御回路26は、図3に示す管理領域31に、キャッシュメモリ21の総ライン数、有効なデータを格納したライン数を示す使用ライン数、最新のデータを格納したラインを示す先頭ポインタ、現時点で最も使用していないデータを格納したラインを示す末尾ポインタを格納している。また、制御回路26は、図3に示すタグ領域32に、各ラインに対応する変更ビット32cと有効ビット32dを格納している。制御回路26は、これらの情報に基づいて、使用可能なラインが無くなったときに、ライトバック動作を実行する。
制御回路26は、CPU11のアクセス要求によってキャッシュミスが発生すると、そのアクセス要求に必要なデータをメインメモリ14から読み出すべくリード要求をメモリコントローラ13に出力する。そして、制御回路26は、メインメモリ14から読み出したデータを、無効なラインに格納するとともに、そのラインを有効化する。制御回路26は、ラインの有効・無効を、そのラインに格納したデータが有効か無効かにより判断する。
有効なデータは、ラインに格納されたデータをキャッシュメモリ21又はメインメモリ14に保存しなければならないデータであり、無効なデータは、保存する必要のないデータである。
1つの有効なデータは、CPU11により書き込まれたデータである。キャッシュメモリ21のラインには、メインメモリ14から読み出されたデータが格納される。このデータは、CPU11が実行する処理に応じて、書き換えられる場合がある。また、CPU11が実行する処理に応じて生成したデータをキャッシュメモリ21のラインに書き込む。このようなデータは、メインメモリ14のデータと相違するため、メインメモリ14に書き込まなければならないので、キャッシュメモリ21に保存する必要がある。
別の有効なデータは、最近、メインメモリ14から読み出してキャッシュメモリ21のラインに格納したデータである。キャッシュ装置12は、データの局所性、即ち、アクセスしたデータ、又はそのデータのアドレスと連続するアドレスのデータは近い将来に高い確率でアクセスされる。従って、このようなデータは、キャッシュメモリ21に保存する必要がある。
1つの無効なデータは、ライトバックしたデータである。別の無効なデータは、最も長い間使用されなかったデータである。
制御回路26は、ラウンドロビン方式によりキャッシュメモリ21のラインを使用し、使用状況を図3に示す管理領域31の情報により管理する。上記したように、制御回路26は、図13(a)に示すように、メインメモリ14から読み出してラインLcにデータを書き込み、そのラインLcを有効化する。従って、全てのラインにデータを書き込むと、全てのラインLa〜Ldが有効となる。この時、管理領域31の情報、即ち末尾ポインタが示すラインLdに格納したデータが、最も長い間使用されなかったデータである。
次に、制御回路26は、このラインLdに対応する変更ビット32cにより、このラインLdのデータが変更されているか否かを判断する。データが変更されている場合、制御回路26は、このラインLdのデータをライトバックする。そして、制御回路26は、この末尾ポインタが示すラインLdに対応するタグ領域32の有効ビット32dを「0」にしてこのラインLdを無効化するとともに、末尾ポインタを次のラインLaを示す値に変更する。
つまり、制御回路26は、キャッシュミスによりメインメモリ14から読み出したデータをキャッシュメモリ」21に格納した時に、ライトバックの要否を判断し、必要な場合、即ちラインのデータが変更されている場合にライトバックを実行し、そのラインを無効化する。
尚、キャッシュメモリ21の各ラインは、CPU11によりデータを書き込む、メインメモリ14から読み出したデータを格納することにより、データが上書きされる。無効化されたラインは、ライトバックを実行するまでは別のデータによる上書きを禁止し、別のデータにより上書きするまで元のデータを保持している。従って、この無効化したラインに対してアクセス要求が発生した場合、制御回路26は、無効化されていたラインを有効とする、即ちラインに対応する有効ビット32dに「1」をセットすることもできる。この場合も、メインメモリ14からデータを読み出す場合と比べて、応答時間が短くなる、即ち高速なアクセスを行うことができる。
このように、無効化されていたラインを有効とすると、使用可能なラインが無くなる。そして、この有効化したラインは、最近使用したデータを含むラインである。従って、制御回路26は、この有効化したラインのライン番号を、先頭ポインタに設定する。すると、使用可能なラインが無くなる。このため、制御回路26は、上記と同様に、末尾ポインタが示すラインについて、ライトバックの要否を判断して必要な処理を行った後、このラインを無効化する。
そして、無効化したラインには、キャッシュミスにより発生したメモリアクセス、即ちメインメモリ14をアクセスして読み出したデータを格納することができる。つまり、制御回路26は、CPU11のアクセス要求によりキャッシュミスが発生した場合、メモリコントローラ13にリード要求を出力する。そして、制御回路26は、メインメモリ14から読み出したデータを、上記の処理によって無効化したラインに格納する。言い換えると、キャッシュミスに対応するデータを書き込むラインを、そのキャッシュミスより先に実行するメインメモリ14のアクセスに応じて無効化する。また、キャッシュミスに対応するデータを書き込むラインのデータを、そのキャッシュミスより先に実行するメインメモリ14のアクセスに応じてライトバックする、ということもできる。つまり、制御回路26は、キャッシュミスによりデータを書き込むラインのデータ、そのキャッシュミスより先行してライトバックする。従って、キャッシュミスが発生した時には常に無効なラインが存在することになるため、キャッシュミスの後にライトバックする方式と比べて応答時間を短くすることができる。
なお、図13(a)を用いた説明においては、無効化したラインとは、キャッシュミスがあった場合に、メインメモリからキャッシュメモリに読み出してくるデータを格納する次のラインと読み替えてもよい。
図13(b)は、上記のようにライトバックを行わないキャッシュ装置における動作を示す。尚、符号は本実施形態と同じ符号を付す。キャッシュメモリ21の全てのラインLa〜Ldが使用されている。この時、キャッシュメモリ21のラインLcのデータをメインメモリ14にライトバックした後、メインメモリ14から読み出したデータをラインLcに格納する。
図14は、ライトアクセスに対するキャッシュ装置12と、従来例、つまり先行ライトバックを行わないキャッシュ装置の動作を示す。
本実施形態のキャッシュ装置12は、アクセス要求によりキャッシュミスが発生すると、メインメモリ14をアクセスしてデータをキャッシュメモリ21に格納する(RAM→CM)。そして、CPU11から出力されるデータをキャッシュメモリ21に格納し(CPU→CM)、次のラインのデータをキャッシュメモリ21からメインメモリ14にライトバックする(CM→RAM)。CPU11に対する応答時間は、CPU11がアクセス要求を出力してから、CPU11から出力されるデータをキャッシュメモリ21に格納するまでの期間となる。
従来例のキャッシュ装置は、図14の下段に示すように、アクセス要求によりキャッシュミスが発生すると、ラインのデータをキャッシュメモリからメインメモリにライトバックする(CM→RAM)。次に、メインメモリをアクセスしてデータをキャッシュメモリに格納する(RAM→CM)。そして、CPUから出力されるデータをキャッシュメモリに格納する(CPU→CM)。このように、従来例は、ライトバックの期間と、メインメモリからキャッシュメモリにデータを転送する時間、CPUの要求が待たされることになる。その点、図14の上段に示す動作では、CPUはメインメモリからキャッシュメモリにデータを転送する時間のみアクセス要求が待たされることになり、応答時間が短くなる。そして、上記したように、図2に示すライトバッファ22a,22bを用いることにより、更に応答時間が短くなる。
尚、上記の説明では、ライトバックしたラインの有効ビット32dに「0」をセットして無効化したが、有効ビット32dを「1」のままとしてもよい。即ち、図15(a)に示すように、キャッシュメモリ21のラインL0〜L8までデータを格納した。従って、管理領域31の先頭ポインタはL8を示し、末尾ポインタはL0を示す。この状態において、キャッシュミスが発生すると、制御回路26は、図15(b)に示すように、ラインL9にデータを格納し、先頭ポインタにL9をセットするとともに、有効ビット32dに「1」をセットする。そして、制御回路26は、図15(a)にて末尾ポインタが示すラインL0のデータをライトバックした後、図15(b)に示すように、末尾ポインタにL1をセットする。
次に、キャッシュミスが発生した場合、上記と同様に、図15(c)に示すように、ラインL0にデータを格納し、先頭ポインタにL0をセットする。そして、制御回路26は、図15(b)にて末尾ポインタが示すラインL1のデータをライトバックした後、図15(c)に示すように、末尾ポインタにL2をセットする。
このように、ライトバックしたラインの有効ビット32dを「1」のままとすることで、有効ライン数は、減少しない。つまり、キャッシュヒットとなるライン数が減少しないため、アクセス要求の総数に対するキャッシュヒットの数の比率、即ちヒット率を高くすることができるようになる。
・上記実施形態では、CPU11とライトバッファ22a,22bとの間のバス幅と、ライトバッファ22a,22bとキャッシュメモリ21との間のバス幅と同じ値に設定したが、バス幅が相違するようにしてもよい。
例えば、図16に示すように、ライトバッファ22a,22bとキャッシュメモリ21との間のバス幅を、CPU11とライトバッファ22a,22bの間のバス幅のn倍(n=2,4,8,…)の構成とする。例えば、2倍とすると、図18に示すように、ライトバッファ22aに対して2回のアクセスにより書き込んだデータを、1回でキャッシュメモリ21に転送することができる。従って、ライトバッファ22a,22bからキャッシュメモリ21へデータ転送する転送サイクル数を削減可能となる。このため、ライトバッファ22a,22bのデータをキャッシュメモリ21に転送する動作が、CPU11からライトバッファ22a,22bにデータを書き込む動作に対する影響を低減することができる。つまりライトバッファ22a,22bからキャッシュメモリ21にデータを転送している間に、CPU11がライトアクセスを出力すると、そのライトアクセスは、ライトバッファ22a,22bからキャッシュメモリ21へのデータ転送を終了するまで待たされることになる。このため、ライトバッファ22a,22bからキャッシュメモリ21へのデータ転送にかかる時間を短くすることで、このデータ転送とCPU11のライトアクセスが重なり難くなる、またはライトアクセスが許容されるまでの時間が短くなる、即ちアクセス要求に対するレイテンシを低減することができる。
また、図17に示すように、ライトバッファ22a,22bとキャッシュメモリ21との間のバス幅を、ライトバッファ22a,22bの容量値と等しくする。この場合、ライトバッファ22a,22bからキャッシュメモリ21へデータ転送する転送サイクル数を更に削減可能となり、レイテンシを低減することができる。更に、ライトバッファ22a,22bに、ライトバッファ22a,22bの容量値と等しい転送量であって、その後ライトバッファ22a,22bからキャッシュメモリ21に書き込まれるデータが転送(例えば、バースト転送でもよい)された場合に、キャッシュ判定のヒット又はミスによらずとも、メインメモリ14へのリード要求をキャンセルする。その後、ライトバッファ22a,22bに書き込まれたデータを、キャッシュメモリ21のラインに含まれる全てのデータに対して上書きするように書き込む。従って、メインメモリ14からキャッシュメモリ21にデータを転送する必要がなくなる。このため、CPU11のアクセス要求がライトアクセスの場合、キャッシュミスが発生しても、メインメモリ14からキャッシュメモリ21にデータを転送する処理を行わないようにする。これにより、ライトアクセスに対するレイテンシを削減することができ、ライトアクセスにおけるアクセスを高速化することができる。そして、ライトアクセスにおいてメインメモリ14からデータを読み出す処理を省略するため、メインメモリ14に対するアクセス数を低減することができる。
・上記実施形態では、キャッシュメモリ21を1つとして示したが、複数のRAM(複数チップ又は複数ブロック)によりキャッシュメモリを構成してもよい。この構成により、複数のアクセス要求を連続して処理することができるようになる。
即ち、図18に示すように、メインメモリ14に対するリード要求とライト要求が交互に2回発生すると、リード要求に対するリード動作と、ライトバックバッファ24へのライト動作が重なる場合がある。
図19(a)に示すように、全てのラインL0〜L9を含む1つのキャッシュメモリ21の場合、キャッシュミスによって使用するラインのデータをライトバッファに格納し、そのラインにメインメモリ14から読み出したデータをその格納する。そのアクセス要求の順序は以下のようになる。尚、以下の説明において、キャッシュメモリ21のラインからライトバックへの転送を「ラインnのリード」(nはライン番号)と表記し、メインメモリ14からラインmへの転送を「ラインmのライト」(mはライン番号)と表記する。
[使用するラインがラインL0の場合]
<1−1>ラインL0のリード、ラインL0のライト。
<1−2>ラインL1のリード、ラインL1のライト。
[使用するラインがラインL1の場合]
<2−1>ラインL1のリード、ラインL1のライト。
<2−2>ラインL2のリード、ラインL2のライト。
ここで、<1−1>のライト動作と、<1−2>のリード動作が重なる。ラインL1から使用する場合も同様である。このため、これらの処理を同時に実行することができない。
このため、図19(b)に示すように、2つのキャッシュメモリ41,42を含む構成とし、各キャッシュメモリ41,42に対して、ライン番号を交互に割り当てる。すると、<1−1>におけるライト動作はキャッシュメモリ41に対して実行され、<1−2>のリード動作はキャッシュメモリ42に対して実行される。つまり、異なるキャッシュメモリに対する動作となるため、同時に実行することができる。
上記したように、先行ライトバックを行う場合、1つのキャッシュメモリ21に対するアクセス要求は、以下のようになる。
[使用するラインがラインL0の場合]
<3−1>ラインL1のリード、ラインL0のライト。
<3−2>ラインL2のリード、ラインL1のライト。
[使用するラインがラインL1の場合]
<4−1>ラインL2のリード、ラインL1のライト。
<4−2>ラインL3のリード、ラインL2のライト。
ここで、<3−1>のライト動作と、<3−2>のリード動作が重なる。ラインL1から使用する場合も同様である。このため、これらの処理を同時に実行することができない。
このため、キャッシュ装置を2つのキャッシュメモリ51,52を含む構成とする。そして、一方のキャッシュメモリにおいてライン番号4Nとライン番号4N+3が連続するように設定し、他方のキャッシュメモリにおいてライン番号4N+1とライン番号4N+2で連続するように設定し、それらの規則を両キャッシュメモリに交互に割り当てる(なお、Nは例えば0以上とする)。例えば、図19(c)に示すように、キャッシュ装置を2つのキャッシュメモリ51,52を含む構成とする。そして、キャッシュメモリ51においてラインL0とラインL3が連続するように設定し、キャッシュメモリ52において、ラインL1とラインL2とが連続するように設定する。次に、キャッシュメモリ52において、ラインL2とラインL5が連続するように設定し、キャッシュメモリ51において、ラインL3とラインL4とが連続するように設定する。すると、<3−1>におけるライト動作はキャッシュメモリ51に対して実行され、<3−2>のリード動作はキャッシュメモリ52に対して実行される。つまり、異なるキャッシュメモリに対する動作となるため、同時に実行することができる。
・上記実施形態では、メインメモリ14のデータを保持するキャッシュ装置12について説明したが、キャッシュ装置12に保持するデータはメインメモリ14に限らず、磁気ディスク装置、光ディスク装置、光磁気ディスク装置等の媒体記憶装置におけるキャッシュ装置に適用してもよい。
・上記実施形態に基づき、ライトバッファとリードバッファとライトバックバッファのうちの少なくとも1つを含むキャッシュ装置に具体化してもよい。
・上記実施形態のキャッシュ装置12は、ライトバッファ22a,22bとリードバッファ23とを含む構成としたが、リードライト可能な複数のバッファを含む構成としてもよい。また、キャッシュ装置が含む各バッファの数を適宜変更してもよい。
・上記各実施形態では、シングルポートのスタティックRAMをキャッシュメモリ21に用いたが、デュアルポートのRAMを用いてもよい。
上記各実施形態に関し、以下の付記を開示する。
(付記1)
処理装置と記憶装置との間に介在されるキャッシュ装置であって、
前記記憶装置のデータを記憶するキャッシュメモリと、
前記処理装置から出力される出力データを保持するバッファと、
前記記憶装置に対するアクセス要求に基づいてキャッシュ判定をし、キャッシュミスの場合には前記アクセス要求に対応して前記出力データを前記バッファに保持し、前記アクセス要求により要求されたデータを含むラインのデータを前記記憶装置から読み出すためのリード要求を出力し、前記記憶装置の前記ラインから出力されたデータを前記キャッシュメモリに格納し、前記バッファに保持してある前記出力データを前記キャッシュメモリに格納させる制御回路と
を有することを特徴とするキャッシュ装置。
(付記2)
前記キャッシュメモリは、複数のラインを含み、各ラインは前記出力データの容量のn倍(nは2以上の整数)に設定され、前記ラインに前記記憶装置のデータを記憶し、
前記バッファは、少なくとも前記キャッシュメモリの1ライン分の記憶容量に設定されてなること、
を特徴とする付記1記載のキャッシュ装置。
(付記3)
前記バッファは複数設けられ、
前記出力データのアドレスが前記ラインのアドレス範囲を超える場合に前記データを格納する前記バッファに切り替えること
を特徴とする付記1又は2記載のキャッシュ装置。
(付記4)
前記バッファから前記キャッシュメモリに前記出力データを転送する転送量は前記ラインの容量値と等しく設定され、
前記アクセス要求がライトアクセスの場合に、そのライトアクセスにより発生するキャッシュミスに対する前記記憶装置からのデータリードをキャンセルすること、
を特徴とする付記1〜3のうちの何れか1項に記載のキャッシュ装置。
(付記5)
処理装置と記憶装置との間に介在されるキャッシュ装置であって、
前記記憶装置のデータを記憶するキャッシュメモリと、
前記キャッシュメモリから前記処理装置に出力される入力データを保持する第1バッファと、を有すること
を特徴とするキャッシュ装置。
(付記6)
前記キャッシュメモリから前記処理装置に対して入力データを直接出力する経路を有し、
前記キャッシュメモリから前記第1バッファに1ライン分のデータを転送する際に、前記アクセス要求に対応するデータを前記第1バッファに格納するとともに前記処理装置に出力させる、
を特徴とする付記5記載のキャッシュ装置。
(付記7)
前記処理装置から出力される出力データを保持する第2バッファを有し、
前記アクセス要求により前記第2バッファに前記ライトデータを格納する場合に、該出力データのアドレスが前記第1バッファのアドレス範囲内の場合には前記出力データを前記第2バッファに格納すること、
を特徴とする付記5又は6記載のキャッシュ装置。
(付記8)
処理装置と記憶装置との間に介在されるキャッシュ装置であって、
前記記憶装置のデータを記憶するキャッシュメモリと、
前記キャッシュメモリから前記記憶装置にライトバックするデータを保持するバッファと、
を有し、
前記記憶装置に対するリード要求を出力し、前記キャッシュメモリからライトバックするデータを前記バッファに転送し、前記記憶装置から読み出したデータを前記キャッシュメモリに格納すること、
を特徴とするキャッシュ装置。
(付記9)
処理装置と記憶装置との間に介在されるキャッシュ装置であって、
前記記憶装置のデータを記憶するキャッシュメモリを有し、
前記キャッシュメモリは複数のラインを含み、複数の前記ラインを順次使用して前記記憶装置のデータを格納し、
前記記憶装置のデータを格納可能なラインを使用可能ラインとし、
前記使用可能ラインが無くなったときに、次にキャッシュミスが発生した場合に使用するラインのデータを前記記憶装置にライトバックすること、
を特徴とするキャッシュ装置。
(付記10)
各ラインのデータが有効か・無効かを管理し、前記ライトバックしたラインのデータを無効化すること、
を特徴とする付記9記載のキャッシュ装置。
(付記11)
無効化した前記ラインに対してキャッシュヒットした場合には当該ラインを有効化するとともに、次にキャッシュミスが発生したときに使用するラインのデータを前記記憶装置にライトバックすること、
を特徴とする付記10記載のキャッシュ装置。
(付記12)
各ラインのデータが有効か・無効かを管理し、前記ライトバックしたラインのデータを有効のままとすること、
を特徴とする付記9記載のキャッシュ装置。
(付記13)
処理装置から出力される出力データを保持するバッファと、
前記バッファが出力する前記出力データを記憶するキャッシュメモリと、
前記キャッシュメモリの第1ラインに対応する第1データが前記バッファに格納されている場合に前記キャッシュメモリにおける前記第1ラインとは異なる第2ラインに対応する第2のデータのキャッシュ判定においてキャッシュミスと判定されると、記憶装置に前記第2データに対応するリード要求の発行以降に前記第1データの前記第1ラインへの書き込みを開始させる制御回路と、
を有することを特徴とするキャッシュ装置。
11 CPU(処理装置)
12 キャッシュ装置
14 メインメモリ(記憶装置)
21 キャッシュメモリ
22a,22b ライトバッファ
23 リードバッファ
24 ライトバックバッファ
25 タグメモリ
26 制御回路

Claims (9)

  1. 処理装置と記憶装置との間に介在されるキャッシュ装置であって、
    前記記憶装置のデータを記憶するキャッシュメモリと、
    前記処理装置から出力される出力データを保持するバッファと、
    前記記憶装置に対するアクセス要求に基づいてキャッシュ判定をし、キャッシュミスの場合には前記アクセス要求に対応して前記出力データを前記バッファに保持し、前記アクセス要求により要求されたデータを含むラインのデータを前記記憶装置から読み出すためのリード要求を出力し、前記記憶装置の前記ラインから出力されたデータを前記キャッシュメモリに格納し、前記バッファに保持してある前記出力データを前記キャッシュメモリに格納させる制御回路と、
    を有することを特徴とするキャッシュ装置。
  2. 前記キャッシュメモリは、複数のラインを含み、各ラインは前記出力データの容量のn倍(nは2以上の整数)に設定され、前記ラインに前記記憶装置のデータを記憶し、
    前記バッファは、少なくとも前記キャッシュメモリの1ライン分の記憶容量に設定されてなること、
    を特徴とする請求項1記載のキャッシュ装置。
  3. 前記バッファは複数設けられ、
    前記出力データのアドレスが前記ラインのアドレス範囲を超える場合に前記データを格納する前記バッファに切り替えること
    を特徴とする請求項1又は2記載のキャッシュ装置。
  4. 前記バッファから前記キャッシュメモリに前記出力データを転送する転送量は前記ラインの容量値と等しく設定され、
    前記アクセス要求がライトアクセスの場合に、そのライトアクセスにより発生するキャッシュミスに対する前記記憶装置からのデータリードをキャンセルすること、
    を特徴とする請求項1〜3のうちの何れか1項に記載のキャッシュ装置。
  5. 処理装置と記憶装置との間に介在されるキャッシュ装置であって、
    前記記憶装置のデータを記憶するキャッシュメモリと、
    前記キャッシュメモリから前記処理装置に出力される入力データを保持する第1バッファと、を有すること
    を特徴とするキャッシュ装置。
  6. 前記キャッシュメモリから前記処理装置に対して入力データを直接出力する経路を有し、
    前記記憶装置に対するアクセス要求に基づいて前記キャッシュメモリから前記第1バッファに1ライン分のデータを転送する際に、前記アクセス要求に基づいて対応するデータを前記第1バッファに格納するとともに前記処理装置に出力させる、
    を特徴とする請求項5記載のキャッシュ装置。
  7. 処理装置と記憶装置との間に介在されるキャッシュ装置であって、
    前記記憶装置のデータを記憶するキャッシュメモリと、
    前記キャッシュメモリから前記記憶装置にライトバックするデータを保持するバッファと、
    を有し、
    前記記憶装置に対するリード要求を出力し、前記キャッシュメモリからライトバックするデータを前記バッファに転送し、前記記憶装置から読み出したデータを前記キャッシュメモリに格納すること、
    を特徴とするキャッシュ装置。
  8. 処理装置と記憶装置との間に介在されるキャッシュ装置であって、
    前記記憶装置のデータを記憶するキャッシュメモリを有し、
    前記キャッシュメモリは複数のラインを含み、複数の前記ラインを順次使用して前記記憶装置のデータを格納し、
    前記記憶装置のデータを格納可能なラインを使用可能ラインとし、
    前記使用可能ラインが無くなったときに、次にキャッシュミスが発生した場合に使用するラインのデータを前記記憶装置にライトバックすること、
    を特徴とするキャッシュ装置。
  9. 処理装置から出力される出力データを保持するバッファと、
    前記バッファが出力する前記出力データを記憶するキャッシュメモリと、
    前記キャッシュメモリの第1ラインに対応する第1データが前記バッファに格納されている場合に前記キャッシュメモリにおける前記第1ラインとは異なる第2ラインに対応する第2のデータのキャッシュ判定においてキャッシュミスと判定されると、記憶装置に前記第2データに対応するリード要求の発行以降に前記第1データの前記第1ラインへの書き込みを開始させる制御回路と、
    を有することを特徴とするキャッシュ装置。
JP2009034588A 2009-02-17 2009-02-17 キャッシュ装置 Active JP5417879B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009034588A JP5417879B2 (ja) 2009-02-17 2009-02-17 キャッシュ装置
US12/706,362 US8380934B2 (en) 2009-02-17 2010-02-16 Cache device
US13/620,521 US8661198B2 (en) 2009-02-17 2012-09-14 Cache device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009034588A JP5417879B2 (ja) 2009-02-17 2009-02-17 キャッシュ装置

Publications (2)

Publication Number Publication Date
JP2010191638A true JP2010191638A (ja) 2010-09-02
JP5417879B2 JP5417879B2 (ja) 2014-02-19

Family

ID=42560879

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009034588A Active JP5417879B2 (ja) 2009-02-17 2009-02-17 キャッシュ装置

Country Status (2)

Country Link
US (2) US8380934B2 (ja)
JP (1) JP5417879B2 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2011018B1 (en) 2006-04-12 2016-07-13 Soft Machines, Inc. Apparatus and method for processing an instruction matrix specifying parallel and dependent operations
CN101627365B (zh) 2006-11-14 2017-03-29 索夫特机械公司 多线程架构
EP2616928B1 (en) 2010-09-17 2016-11-02 Soft Machines, Inc. Single cycle multi-branch prediction including shadow cache for early far branch prediction
EP2689330B1 (en) 2011-03-25 2022-12-21 Intel Corporation Register file segments for supporting code block execution by using virtual cores instantiated by partitionable engines
TWI533129B (zh) 2011-03-25 2016-05-11 軟體機器公司 使用可分割引擎實體化的虛擬核心執行指令序列程式碼區塊
WO2012135050A2 (en) 2011-03-25 2012-10-04 Soft Machines, Inc. Memory fragments for supporting code block execution by using virtual cores instantiated by partitionable engines
EP2710480B1 (en) 2011-05-20 2018-06-20 Intel Corporation An interconnect structure to support the execution of instruction sequences by a plurality of engines
TWI666551B (zh) 2011-05-20 2019-07-21 美商英特爾股份有限公司 以複數個引擎作資源與互連結構的分散式分配以支援指令序列的執行
KR101703401B1 (ko) 2011-11-22 2017-02-06 소프트 머신즈, 인크. 다중 엔진 마이크로프로세서용 가속 코드 최적화기
US20150039859A1 (en) 2011-11-22 2015-02-05 Soft Machines, Inc. Microprocessor accelerated code optimizer
RU2475822C1 (ru) * 2011-12-08 2013-02-20 Учреждение Российской академии наук Научно-исследовательский институт системных исследований РАН (НИИСИ РАН) Подсистема памяти ядра микропроцессора
US8930674B2 (en) 2012-03-07 2015-01-06 Soft Machines, Inc. Systems and methods for accessing a unified translation lookaside buffer
US9740612B2 (en) * 2012-07-30 2017-08-22 Intel Corporation Systems and methods for maintaining the coherency of a store coalescing cache and a load cache
US9710399B2 (en) 2012-07-30 2017-07-18 Intel Corporation Systems and methods for flushing a cache with modified data
US9430410B2 (en) 2012-07-30 2016-08-30 Soft Machines, Inc. Systems and methods for supporting a plurality of load accesses of a cache in a single cycle
US9229873B2 (en) 2012-07-30 2016-01-05 Soft Machines, Inc. Systems and methods for supporting a plurality of load and store accesses of a cache
US9916253B2 (en) 2012-07-30 2018-03-13 Intel Corporation Method and apparatus for supporting a plurality of load accesses of a cache in a single cycle to maintain throughput
US9678882B2 (en) 2012-10-11 2017-06-13 Intel Corporation Systems and methods for non-blocking implementation of cache flush instructions
WO2014150991A1 (en) 2013-03-15 2014-09-25 Soft Machines, Inc. A method for implementing a reduced size register view data structure in a microprocessor
WO2014150971A1 (en) 2013-03-15 2014-09-25 Soft Machines, Inc. A method for dependency broadcasting through a block organized source view data structure
US10275255B2 (en) 2013-03-15 2019-04-30 Intel Corporation Method for dependency broadcasting through a source organized source view data structure
US10140138B2 (en) 2013-03-15 2018-11-27 Intel Corporation Methods, systems and apparatus for supporting wide and efficient front-end operation with guest-architecture emulation
US9886279B2 (en) 2013-03-15 2018-02-06 Intel Corporation Method for populating and instruction view data structure by using register template snapshots
KR102083390B1 (ko) 2013-03-15 2020-03-02 인텔 코포레이션 네이티브 분산된 플래그 아키텍처를 이용하여 게스트 중앙 플래그 아키텍처를 에뮬레이션하는 방법
CN105210040B (zh) 2013-03-15 2019-04-02 英特尔公司 用于执行分组成块的多线程指令的方法
US9811342B2 (en) 2013-03-15 2017-11-07 Intel Corporation Method for performing dual dispatch of blocks and half blocks
US9569216B2 (en) 2013-03-15 2017-02-14 Soft Machines, Inc. Method for populating a source view data structure by using register template snapshots
US9904625B2 (en) 2013-03-15 2018-02-27 Intel Corporation Methods, systems and apparatus for predicting the way of a set associative cache
WO2014150806A1 (en) 2013-03-15 2014-09-25 Soft Machines, Inc. A method for populating register view data structure by using register template snapshots
US9891924B2 (en) 2013-03-15 2018-02-13 Intel Corporation Method for implementing a reduced size register view data structure in a microprocessor
KR20150009883A (ko) * 2013-07-17 2015-01-27 삼성전자주식회사 캐시 메모리 시스템 및 그 동작방법
JP2016170682A (ja) * 2015-03-13 2016-09-23 富士通株式会社 演算処理装置及び演算処理装置の制御方法
JP6680978B2 (ja) * 2016-04-15 2020-04-15 富士通株式会社 演算処理装置及び演算処理装置の制御方法
US10108376B1 (en) * 2017-05-04 2018-10-23 Xilinx, Inc. Memory initialization
US11907572B2 (en) * 2019-12-30 2024-02-20 Micron Technology, Inc. Interface read after write
US11003580B1 (en) * 2020-04-30 2021-05-11 Seagate Technology Llc Managing overlapping reads and writes in a data cache

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS53148343A (en) * 1977-05-31 1978-12-23 Fujitsu Ltd Post store control system
JPH01314354A (ja) * 1988-06-13 1989-12-19 Fujitsu Ltd キャッシュメモリ制御方式
JPH02207351A (ja) * 1989-02-03 1990-08-17 Digital Equip Corp <Dec> データ路の巾が予め定められたコンピュータシステムのデータ記憶レートを増加する方法及び装置
JPH02208763A (ja) * 1989-02-03 1990-08-20 Digital Equip Corp <Dec> エラー修正能力を備えた書き戻しバッファ
JPH02236748A (ja) * 1989-03-10 1990-09-19 Nec Corp ストア・バッファ
JPH04367953A (ja) * 1991-06-14 1992-12-21 Nec Corp ストアバッファ制御装置
JPH05250258A (ja) * 1992-03-04 1993-09-28 Hitachi Ltd キャッシュ制御方式
JPH07152566A (ja) * 1993-10-18 1995-06-16 Cyrix Corp スーパーパイプライン式スーパースカラーマイクロプロセッサ用の書き込みバッファ
JPH09114734A (ja) * 1995-10-16 1997-05-02 Hitachi Ltd ストアバッファ装置
JP2006244460A (ja) * 2005-02-01 2006-09-14 Seiko Epson Corp キャッシュメモリ及びプロセッサ

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3969009B2 (ja) * 2001-03-29 2007-08-29 株式会社日立製作所 ハードウェアプリフェッチシステム
US8103832B2 (en) * 2007-06-26 2012-01-24 International Business Machines Corporation Method and apparatus of prefetching streams of varying prefetch depth
US8131951B2 (en) * 2008-05-30 2012-03-06 Freescale Semiconductor, Inc. Utilization of a store buffer for error recovery on a store allocation cache miss
US20090300291A1 (en) 2008-06-03 2009-12-03 Gerald Keith Bartley Implementing Cache Coherency and Reduced Latency Using Multiple Controllers for Memory System

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS53148343A (en) * 1977-05-31 1978-12-23 Fujitsu Ltd Post store control system
JPH01314354A (ja) * 1988-06-13 1989-12-19 Fujitsu Ltd キャッシュメモリ制御方式
JPH02207351A (ja) * 1989-02-03 1990-08-17 Digital Equip Corp <Dec> データ路の巾が予め定められたコンピュータシステムのデータ記憶レートを増加する方法及び装置
JPH02208763A (ja) * 1989-02-03 1990-08-20 Digital Equip Corp <Dec> エラー修正能力を備えた書き戻しバッファ
JPH02236748A (ja) * 1989-03-10 1990-09-19 Nec Corp ストア・バッファ
JPH04367953A (ja) * 1991-06-14 1992-12-21 Nec Corp ストアバッファ制御装置
JPH05250258A (ja) * 1992-03-04 1993-09-28 Hitachi Ltd キャッシュ制御方式
JPH07152566A (ja) * 1993-10-18 1995-06-16 Cyrix Corp スーパーパイプライン式スーパースカラーマイクロプロセッサ用の書き込みバッファ
JPH09114734A (ja) * 1995-10-16 1997-05-02 Hitachi Ltd ストアバッファ装置
JP2006244460A (ja) * 2005-02-01 2006-09-14 Seiko Epson Corp キャッシュメモリ及びプロセッサ

Also Published As

Publication number Publication date
US20100211746A1 (en) 2010-08-19
US8661198B2 (en) 2014-02-25
US8380934B2 (en) 2013-02-19
JP5417879B2 (ja) 2014-02-19
US20130019066A1 (en) 2013-01-17

Similar Documents

Publication Publication Date Title
JP5417879B2 (ja) キャッシュ装置
US5530941A (en) System and method for prefetching data from a main computer memory into a cache memory
US8725987B2 (en) Cache memory system including selectively accessible pre-fetch memory for pre-fetch of variable size data
JP5536658B2 (ja) バッファメモリ装置、メモリシステム及びデータ転送方法
EP2430551B1 (en) Cache coherent support for flash in a memory hierarchy
US20110173393A1 (en) Cache memory, memory system, and control method therefor
JPH09259036A (ja) ライトバックキャッシュおよびライトバックキャッシュ内で整合性を維持する方法
US8621152B1 (en) Transparent level 2 cache that uses independent tag and valid random access memory arrays for cache access
WO2010004497A1 (en) Cache management systems and methods
US7761665B2 (en) Handling of cache accesses in a data processing apparatus
EP0470739B1 (en) Method for managing a cache memory system
US20060179173A1 (en) Method and system for cache utilization by prefetching for multiple DMA reads
KR100505695B1 (ko) 동적으로 할당 또는 해제되는 버퍼를 가지는 캐쉬 메모리장치, 이를 구비한 디지털 데이터 처리 시스템 및 그 방법
US5287512A (en) Computer memory system and method for cleaning data elements
US6240487B1 (en) Integrated cache buffers
US6976130B2 (en) Cache controller unit architecture and applied method
JP5699854B2 (ja) 記憶制御システムおよび方法、置換方式および方法
US5835945A (en) Memory system with write buffer, prefetch and internal caches
US7328310B2 (en) Method and system for cache utilization by limiting number of pending cache line requests
US8127082B2 (en) Method and apparatus for allowing uninterrupted address translations while performing address translation cache invalidates and other cache operations
JP2004240616A (ja) メモリコントローラ及びメモリアクセス制御方法
JP2004326175A (ja) プロセッサ、キャッシュシステム及びキャッシュメモリ
JP4220258B2 (ja) ノンキャッシュ領域内高速メモリアクセス方法
JPH02224161A (ja) 高速データ処理装置
JPH07152650A (ja) キャッシュ制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130610

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130930

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20131007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131022

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131104

R150 Certificate of patent or registration of utility model

Ref document number: 5417879

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350