JP2021530813A - Integrated address space for multiple hardware accelerators with dedicated low latency links - Google Patents
Integrated address space for multiple hardware accelerators with dedicated low latency links Download PDFInfo
- Publication number
- JP2021530813A JP2021530813A JP2021503580A JP2021503580A JP2021530813A JP 2021530813 A JP2021530813 A JP 2021530813A JP 2021503580 A JP2021503580 A JP 2021503580A JP 2021503580 A JP2021503580 A JP 2021503580A JP 2021530813 A JP2021530813 A JP 2021530813A
- Authority
- JP
- Japan
- Prior art keywords
- hardware accelerator
- accelerator
- hardware
- host processor
- link
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000006854 communication Effects 0.000 claims abstract description 49
- 238000004891 communication Methods 0.000 claims abstract description 49
- 238000012546 transfer Methods 0.000 claims abstract description 46
- 230000015654 memory Effects 0.000 claims description 123
- 239000000872 buffer Substances 0.000 claims description 47
- 238000000034 method Methods 0.000 claims description 24
- 230000004044 response Effects 0.000 claims description 24
- 230000000977 initiatory effect Effects 0.000 claims description 7
- 238000010586 diagram Methods 0.000 abstract description 13
- 238000004364 calculation method Methods 0.000 description 20
- 238000012545 processing Methods 0.000 description 14
- 230000009471 action Effects 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 230000007175 bidirectional communication Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000003999 initiator Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000001364 causal effect Effects 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000002085 persistent effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- LHMQDVIHBXWNII-UHFFFAOYSA-N 3-amino-4-methoxy-n-phenylbenzamide Chemical compound C1=C(N)C(OC)=CC=C1C(=O)NC1=CC=CC=C1 LHMQDVIHBXWNII-UHFFFAOYSA-N 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 239000006173 Good's buffer Substances 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 239000005441 aurora Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000013315 hypercross-linked polymer Substances 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
- G06F13/38—Information transfer, e.g. on bus
- G06F13/40—Bus structure
- G06F13/4004—Coupling between buses
- G06F13/4027—Coupling between buses using bus bridges
- G06F13/404—Coupling between buses using bus bridges with address mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
- G06F13/14—Handling requests for interconnection or transfer
- G06F13/16—Handling requests for interconnection or transfer for access to memory bus
- G06F13/1605—Handling requests for interconnection or transfer for access to memory bus based on arbitration
- G06F13/161—Handling requests for interconnection or transfer for access to memory bus based on arbitration with latency improvement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
- G06F13/14—Handling requests for interconnection or transfer
- G06F13/20—Handling requests for interconnection or transfer for access to input/output bus
- G06F13/28—Handling requests for interconnection or transfer for access to input/output bus using burst mode transfer, e.g. direct memory access DMA, cycle steal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0866—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches for peripheral storage systems, e.g. disk cache
- G06F12/0873—Mapping of cache memory to specific storage devices or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/10—Address translation
- G06F12/1027—Address translation using associative or pseudo-associative address translation means, e.g. translation look-aside buffer [TLB]
- G06F12/1045—Address translation using associative or pseudo-associative address translation means, e.g. translation look-aside buffer [TLB] associated with a data cache
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/10—Address translation
- G06F12/1081—Address translation for peripheral access to main memory, e.g. direct memory access [DMA]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
- G06F13/14—Handling requests for interconnection or transfer
- G06F13/16—Handling requests for interconnection or transfer for access to memory bus
- G06F13/1668—Details of memory controller
- G06F13/1673—Details of memory controller using buffers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/466—Transaction processing
- G06F9/467—Transactional memory
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Advance Control (AREA)
- Multi Processors (AREA)
- Bus Control (AREA)
Abstract
システムが、通信バスに接続されたホストプロセッサ(105)と、通信バスを通してホストプロセッサ(105)に通信可能にリンクされた第1のハードウェアアクセラレータ(135−1)と、通信バスを通してホストプロセッサ(105)に通信可能にリンクされた第2のハードウェアアクセラレータ(135−2)とを含み得る。第1のハードウェアアクセラレータ(135−1)と第2のハードウェアアクセラレータ(135−2)とは、通信バスから独立したアクセラレータリンクを通して直接接続される。ホストプロセッサ(105)は、アクセラレータリンクを直接通した、第1のハードウェアアクセラレータ(135−1)と第2のハードウェアアクセラレータ(135−2)との間のデータ転送を開始するように設定される。【選択図】図1The system has a host processor (105) connected to the communication bus, a first hardware accelerator (135-1) that is communicably linked to the host processor (105) through the communication bus, and a host processor (135-1) through the communication bus. It may include a second hardware accelerator (135-2) communicably linked to 105). The first hardware accelerator (135-1) and the second hardware accelerator (135-2) are directly connected through an accelerator link independent of the communication bus. The host processor (105) is configured to initiate data transfer between the first hardware accelerator (135-1) and the second hardware accelerator (135-2) through the accelerator link directly. NS. [Selection diagram] Fig. 1
Description
本開示は、ハードウェアアクセラレーションに関し、より詳細には、統合されたアドレス空間および低レイテンシ通信リンクを通した複数のハードウェアアクセラレータの使用を可能にすることに関する。 The present disclosure relates to hardware acceleration, and more particularly to enabling the use of multiple hardware accelerators through an integrated address space and low latency communication links.
異種コンピューティングプラットフォーム(HCP:heterogeneous computing platform)は、インターフェース回路を通して1つまたは複数の他のデバイスに接続されたホストプロセッサを含むデータ処理システムを指す。デバイスは、一般に、アーキテクチャ上、ホストプロセッサとは異なる。ホストプロセッサは、デバイスにタスクをオフロードすることが可能である。デバイスは、そのタスクを実施し、ホストプロセッサにとって利用可能な結果を作ることが可能である。例示的な例として、ホストプロセッサは、一般に、中央処理ユニットとして実装され、デバイスは、グラフィックス処理ユニット(GPU)および/またはデジタル信号プロセッサ(DSP)として実装される。 A heterogeneous computing platform (HCP) refers to a data processing system that includes a host processor connected to one or more other devices through an interface circuit. Devices are generally architecturally different from host processors. The host processor can offload tasks to the device. The device is capable of performing that task and producing results that are available to the host processor. As an exemplary example, the host processor is typically implemented as a central processing unit and the device is implemented as a graphics processing unit (GPU) and / or digital signal processor (DSP).
他のHCPでは、ホストプロセッサからオフロードされたタスクを実施するデバイスのうちの1つまたは複数が、(「ハードウェアアクセラレータ」と呼ばれる)ハードウェアアクセラレーションのために適応されたデバイスを含む。ハードウェアアクセラレータは、タスクを実施するためにソフトウェアまたはプログラムコードを実行することとは対照的に、ホストからオフロードされたタスクを実施することが可能である回路を含む。ハードウェアアクセラレータの回路は、ソフトウェアを実行することと機能的に等価であるが、一般に、より少ない時間においてタスクを完了することが可能である。 In other HCPs, one or more of the devices performing tasks offloaded from the host processor include devices adapted for hardware acceleration (called "hardware accelerators"). Hardware accelerators include circuits that are capable of performing tasks offloaded from the host, as opposed to executing software or program code to perform the tasks. The circuit of a hardware accelerator is functionally equivalent to running software, but in general it is possible to complete a task in less time.
ハードウェアアクセラレータの例は、フィールドプログラマブルゲートアレイ(FPGA)、部分的にプログラム可能な集積回路(IC)、特定用途向けIC(ASIC)など、プログラマブルICを含む。明らかに、HCPは、1つまたは複数がプログラムコードを実行するように適応され、1つまたは複数の他のものがハードウェアアクセラレーションのために適応された、異なるデバイスの組合せを含み得る。 Examples of hardware accelerators include programmable ICs such as field programmable gate arrays (FPGAs), partially programmable integrated circuits (ICs), and application specific integrated circuits (ASICs). Obviously, the HCP may include a combination of different devices, one or more adapted to execute program code and one or more others adapted for hardware acceleration.
1つまたは複数の実施形態では、システムが、通信バスに接続されたホストプロセッサと、通信バスを通してホストプロセッサに通信可能にリンクされた第1のハードウェアアクセラレータと、通信バスを通してホストプロセッサに通信可能にリンクされた第2のハードウェアアクセラレータとを含み得る。第1のハードウェアアクセラレータと第2のハードウェアアクセラレータとは、通信バスから独立したアクセラレータリンクを通して直接接続される。ホストプロセッサは、アクセラレータリンクを直接通した、第1のハードウェアアクセラレータと第2のハードウェアアクセラレータとの間のデータ転送を開始するように設定される。 In one or more embodiments, the system can communicate to the host processor through the communication bus with a host processor connected to the communication bus and a first hardware accelerator linked to the host processor so that it can communicate through the communication bus. It may include a second hardware accelerator linked to. The first hardware accelerator and the second hardware accelerator are directly connected through an accelerator link independent of the communication bus. The host processor is configured to initiate data transfer between the first hardware accelerator and the second hardware accelerator directly through the accelerator link.
1つまたは複数の実施形態では、ハードウェアアクセラレータは、通信バスを介してホストプロセッサと通信するように設定されたエンドポイントと、ハードウェアアクセラレータにローカルなメモリに接続されたメモリコントローラと、エンドポイントとメモリコントローラとに接続されたリンク回路とを含み得る。リンク回路は、通信バスにも接続されたターゲットハードウェアアクセラレータとのアクセラレータリンクを確立するように設定される。アクセラレータリンクは、通信バスから独立した、ハードウェアアクセラレータとターゲットハードウェアアクセラレータとの間の直接接続である。 In one or more embodiments, the hardware accelerator is an endpoint configured to communicate with the host processor over a communication bus, a memory controller connected to memory local to the hardware accelerator, and an endpoint. And a link circuit connected to the memory controller. The link circuit is configured to establish an accelerator link with a target hardware accelerator that is also connected to the communication bus. Accelerator links are direct connections between a hardware accelerator and a target hardware accelerator, independent of the communication bus.
1つまたは複数の実施形態では、方法が、第1のハードウェアアクセラレータ内で、通信バスを介してホストプロセッサから送られた命令とデータ転送についてのターゲットアドレスとを受信することと、第1のハードウェアアクセラレータが、ターゲットアドレスを、第1のハードウェアアクセラレータに対応するアドレス範囲の上限と比較することと、比較することに基づいてターゲットアドレスがアドレス範囲を超えると決定したことに応答して、第1のハードウェアアクセラレータが、第1のハードウェアアクセラレータと第2のハードウェアアクセラレータとを直接接続するアクセラレータリンクを使用してデータ転送を実施するために、第2のハードウェアアクセラレータとのトランザクションを開始することとを含み得る。 In one or more embodiments, the method is to receive an instruction sent from a host processor over a communication bus and a target address for data transfer within the first hardware accelerator, and the first. In response to the hardware accelerator comparing the target address with the upper bound of the address range corresponding to the first hardware accelerator and determining that the target address exceeds the address range based on the comparison. A first hardware accelerator performs a transaction with a second hardware accelerator in order to perform a data transfer using an accelerator link that directly connects the first hardware accelerator and the second hardware accelerator. It can include starting.
本発明の概要セクションは、いくつかの概念を導入するために提供されるにすぎず、請求される主題の重要な、または本質的な特徴を識別するために提供されるものではない。本発明の構成の他の特徴は、添付の図面および以下の発明を実施するための形態から明らかになろう。 The overview section of the invention is provided only to introduce some concepts, not to identify important or essential features of the claimed subject matter. Other features of the configuration of the present invention will become apparent from the accompanying drawings and the embodiments for carrying out the following inventions.
本発明の構成は、添付の図面において例として示される。しかしながら、図面は、本発明の構成を、図示される特定の実装形態のみに限定するものと解釈されるべきではない。様々な態様および利点が、以下の発明を実施するための形態を検討し、図面を参照すると明らかになろう。 The configuration of the present invention is shown as an example in the accompanying drawings. However, the drawings should not be construed as limiting the configuration of the invention to the particular implementations shown. Various aspects and advantages will become apparent when examining embodiments for carrying out the following inventions and referring to the drawings.
本開示は、新規の特徴を定義する特許請求の範囲で締めくくるが、本開示内で説明される様々な特徴は、図面とともにその説明を考慮することにより、より良く理解されると考えられる。本明細書で説明される(1つまたは複数の)プロセス、(1つまたは複数の)機械、(1つまたは複数の)製造物およびその任意の変形形態は、例示のために提供される。本開示内で説明される特定の構造的および機能的詳細は、限定するものとして解釈されるべきではなく、単に、特許請求の範囲のための基礎として、およびほぼすべての適切に詳細な構造において説明される特徴を様々に採用するように当業者に教示するための代表的基礎として解釈されるべきである。さらに、本開示内で使用される用語および句は、限定するものではなく、むしろ、説明される特徴の理解可能な説明を提供するものである。 The present disclosure concludes with claims that define new features, but the various features described within this disclosure are believed to be better understood by considering their description along with the drawings. The (s) processes, (s) machines, (s) products and any variants thereof described herein are provided for illustration purposes. The particular structural and functional details described within this disclosure should not be construed as limiting, but merely as a basis for the claims and in almost all well-detailed structures. It should be interpreted as a representative basis for teaching those skilled in the art to adopt various features described. Moreover, the terms and phrases used in this disclosure are not limiting, but rather provide an understandable description of the features being described.
本開示は、ハードウェアアクセラレーションに関し、より詳細には、統合されたアドレス空間および低レイテンシ通信リンクを通した複数のハードウェアアクセラレータの使用を可能にすることに関する。データ処理システムとともにハードウェアアクセラレータを使用することが、ホストプロセッサからタスクをオフロードするための有効な技法になっており、それにより、ホストプロセッサ上の作業負荷を低減する。ハードウェアアクセラレータは、一般に、バスを通してホストプロセッサに取り付けられる。たとえば、ハードウェアアクセラレータは、ホストシステムの利用可能なバススロットに挿入された回路板に取り付けられ得る。一般に、各ハードウェアアクセラレータは、対応する回路板に取り付けられる。システムに追加のハードウェアアクセラレータを追加することは、通常、利用可能なバススロットにハードウェアアクセラレータをもつ追加の回路板を挿入することを伴う。 The present disclosure relates to hardware acceleration, and more particularly to enabling the use of multiple hardware accelerators through an integrated address space and low latency communication links. Using a hardware accelerator with a data processing system has become an effective technique for offloading tasks from the host processor, thereby reducing the workload on the host processor. Hardware accelerators are typically mounted on the host processor through the bus. For example, a hardware accelerator can be mounted on a circuit board inserted into an available bus slot in a host system. Generally, each hardware accelerator is mounted on the corresponding circuit board. Adding additional hardware accelerators to the system usually involves inserting additional circuit boards with hardware accelerators into the available bus slots.
従来のシステム内では、特に(たとえば、ハードウェアアドレスによって)任意の新たに追加されたハードウェアアクセラレータにアクセスするために、ホストプロセッサによって実行されるアプリケーションが、更新され、および/または書き直されなければならない。さらに、あるハードウェアアクセラレータから別のハードウェアアクセラレータにデータを転送するために、データは、ソースハードウェアアクセラレータからホストプロセッサに移動され、次いで、ホストプロセッサからターゲットハードウェアアクセラレータまで移動される。データは、バスを介してホストプロセッサを通して各ハードウェアアクセラレータにおよび各ハードウェアアクセラレータから移動する。したがって、システムに追加される各追加のハードウェアアクセラレータが、バス上のデバイスの数を増加させ、それにより、バス上の帯域幅についての競合を生じる。ハードウェアアクセラレータ(または他のデバイス)によって実施されるタスクの複雑さ、数、および/またはサイズが増加するにつれて、バス上の利用可能帯域幅がさらに制約される。 Within a traditional system, applications run by the host processor must be updated and / or rewritten, especially to access any newly added hardware accelerator (by hardware address, for example). It doesn't become. In addition, to transfer data from one hardware accelerator to another, the data is moved from the source hardware accelerator to the host processor and then from the host processor to the target hardware accelerator. Data travels via the bus through the host processor to and from each hardware accelerator. Therefore, each additional hardware accelerator added to the system increases the number of devices on the bus, thereby creating a competition for bandwidth on the bus. As the complexity, number, and / or size of tasks performed by hardware accelerators (or other devices) increases, the available bandwidth on the bus is further constrained.
本開示内で説明される本発明の構成によれば、デバイスのための統合されたアドレス空間が提供される。さらに、本明細書では「アクセラレータリンク」と呼ばれる、バスから独立して動作することが可能であるハードウェアアクセラレータ間の直接通信リンクが提供される。ホストプロセッサによって実行されるアプリケーションが、システムにおける特定のハードウェアアクセラレータを直接参照する(たとえば、アドレス指定する)ことなしに動作し得るように、ホストによって実行されるランタイムライブラリおよびドライバが、統合されたアドレス空間を活用することが可能である。ランタイムライブラリは、ハードウェアアクセラレータの間のデータ転送を実現するために使用するための適切なアドレスを決定することが可能である。したがって、アプリケーションは、システムに追加され得る追加のハードウェアアクセラレータにアクセスするために修正される必要がない。さらに、データ転送がアクセラレータリンクを介して実施され得、アクセラレータリンクは、データが、ホストプロセッサを通過することなしに、あるハードウェアアクセラレータから別のハードウェアアクセラレータに直接転送されることを可能にし、バスを効果的にバイパスする。したがって、バス上のハードウェアアクセラレータによって使用される帯域幅が著しく低減され、それにより、全体的なシステム性能を増加させ得る。 The configurations of the invention described within the present disclosure provide an integrated address space for the device. Further provided herein are direct communication links between hardware accelerators that can operate independently of the bus, called "accelerator links". The runtime libraries and drivers run by the host have been integrated so that applications run by the host processor can run without directly referencing (for example, addressing) specific hardware accelerators in the system. It is possible to utilize the address space. The run-time library can determine the appropriate address to use to achieve data transfer between hardware accelerators. Therefore, the application does not need to be modified to access additional hardware accelerators that may be added to the system. In addition, data transfer can be performed over the accelerator link, which allows data to be transferred directly from one hardware accelerator to another without going through the host processor. Effectively bypass the bus. Therefore, the bandwidth used by the hardware accelerators on the bus can be significantly reduced, thereby increasing the overall system performance.
述べられたように、ホストプロセッサによって実行されるプログラムコード(たとえば、アプリケーション)に対する対応する変更または修正を必要とすることなしに、既存のアドレス空間を使用して追加のハードウェアアクセラレータがシステムに追加され得る。これは、少なくとも部分的に、ハードウェアアクセラレータボードについての自動発見プロセスの実装、およびそのようなボードをシステムに追加することの実装、リモートバッファフラグ対ローカルバッファフラグの使用、少なくともいくつかの場合におけるデータ転送のためのアクセラレータリンクへの自動切替え、ならびにリモートバッファのための自動アドレス変換を通してサポートされる。 As mentioned, additional hardware accelerators are added to the system using the existing address space without the need for corresponding changes or modifications to the program code (for example, applications) executed by the host processor. Can be done. This is, at least in part, the implementation of an auto-discovery process for hardware accelerator boards, and the implementation of adding such boards to the system, the use of remote buffer flags vs. local buffer flags, at least in some cases. Supported through automatic switching to accelerator links for data transfer, as well as automatic address translation for remote buffers.
図を参照しながら、本発明の構成のさらなる態様が以下でより詳細に説明される。例示を単純および明快にするために、図に示されている要素は、必ずしも一定の縮尺で描かれているとは限らない。たとえば、要素のうちのいくつかの寸法は、明快のために、他の要素に対して誇張され得る。さらに、適切と見なされる場合、対応する、類似する、または同様の特徴を指示するために、参照番号が図の間で繰り返される。 Further aspects of the configuration of the present invention will be described in more detail below with reference to the figures. For the sake of simplicity and clarity, the elements shown in the figure are not always drawn to a constant scale. For example, some dimensions of an element may be exaggerated relative to other elements for clarity. In addition, reference numbers are repeated between figures to indicate corresponding, similar, or similar features where deemed appropriate.
図1は、複数のハードウェアアクセラレータをもつシステム100の一例を示す。システム100は、コンピュータ、サーバ、または他のデータ処理システムを実装するために使用され得るコンピュータハードウェアの一例である。システム100は、異種コンピューティングシステムの一例でもある。描かれているように、システム100は、インターフェース回路115を通してホストメモリ110に接続された少なくとも1つのホストプロセッサ105を含む。
FIG. 1 shows an example of a
システム100は、複数のハードウェアアクセラレータ135をも含む。図1の例では、システム100は、3つのハードウェアアクセラレータ135−1、135−2、および135−3を含む。図1の例は、3つのハードウェアアクセラレータを示しているが、システム100は、3つよりも少ないハードウェアアクセラレータまたは4つ以上のハードウェアアクセラレータを含み得ることを諒解されたい。さらに、システム100は、グラフィックス処理ユニット(GPU)またはデジタル信号プロセッサ(DSP)など、1つまたは複数の他のデバイスを含み得る。
システム100は、ホストメモリ110内に(「プログラムコード」とも呼ばれる)コンピュータ可読命令を記憶することが可能である。ホストメモリ110は、コンピュータ可読記憶媒体の一例である。ホストプロセッサ105は、インターフェース回路115を介してホストメモリ110からアクセスされるプログラムコードを実行することが可能である。1つまたは複数の実施形態では、ホストプロセッサ105は、メモリコントローラ(図示せず)を通してホストメモリ110と通信する。
The
ホストメモリ110は、たとえば、ローカルメモリおよびバルク記憶デバイス(bulk storage device)など、1つまたは複数の物理メモリデバイスを含み得る。ローカルメモリは、概してプログラムコードの実際の実行中に使用される(1つまたは複数の)非永続的メモリデバイスを指す。ローカルメモリの例は、ランダムアクセスメモリ(RAM)、および/または、DRAM、SRAM、DDR SDRAMなど、プログラムコードの実行中のプロセッサによる使用のために好適である様々なタイプのRAMのいずれかを含む。バルク記憶デバイスは、永続的データ記憶デバイスを指す。バルク記憶デバイスの例は、限定はしないが、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、フラッシュメモリ、読取り専用メモリ(ROM)、消去可能プログラマブル読取り専用メモリ(EPROM)、電気的消去可能プログラマブル読取り専用メモリ(EEPROM)、または他の好適なメモリを含む。システム100は、プログラムコードが実行中にバルク記憶デバイスから取り出されなければならない回数を低減するために少なくともあるプログラムコードの一時的記憶を行う1つまたは複数のキャッシュメモリ(図示せず)をも含み得る。
The
ホストメモリ110は、プログラムコードおよび/またはデータを記憶することが可能である。たとえば、ホストメモリ110は、オペレーティングシステム120と、命令125と、データ130とを記憶し得る。図1の例では、命令125は、1つまたは複数のアプリケーション170と、(本明細書では「ランタイム」と呼ばれる)ランタイムライブラリ172と、ハードウェアアクセラレータ135と通信することが可能であるドライバ174とを含み得る。ランタイム172は、完了イベントをハンドリングすることと、コマンド待ち行列を管理することと、(1つまたは複数の)アプリケーション170に通知を提供することとが可能である。データ130は、他のタイプのデータ項目のうち、ハードウェアアクセラレータ135間の直接データ転送を可能にする、バッファオブジェクト176および178などのバッファオブジェクトを含み得る。バッファオブジェクト176は、リモートフラグ180を含み、バッファオブジェクト178は、リモートフラグ182を含む。例示の目的で、リモートフラグ180はセットされておらず、リモートフラグ182はセットされている。システム100、たとえば、ホストプロセッサ105は、本開示内で説明される動作を実施するために、オペレーティングシステム120と命令125とを実行することが可能である。
The
インターフェース回路115の例は、限定はしないが、システムバスと入出力(I/O)バスとを含む。インターフェース回路115は、様々なバスアーキテクチャのいずれかを使用して実装され得る。バスアーキテクチャの例は、限定はしないが、拡張業界標準アーキテクチャ(EISA)バス、アクセラレーテッドグラフィックスポート(AGP)、ビデオエレクトロニクス規格協会(VESA)ローカルバス、ユニバーサルシリアルバス(USB)、および周辺構成要素相互接続エクスプレス(PCIe)バスを含み得る。ホストプロセッサ105は、ハードウェアアクセラレータ135に結合するために使用されるものとは異なるインターフェース回路を通してホストメモリ110に接続され得る。例示の目的で、ホストプロセッサ105がそれを通して他のデバイスと通信するインターフェース回路115のためのエンドポイントは示されていない。
Examples of the
システム100は、インターフェース回路115に接続された1つまたは複数の他のI/Oデバイス(図示せず)をさらに含み得る。I/Oデバイスは、直接、または介在するI/Oコントローラを通してのいずれかで、システム100、たとえば、インターフェース回路115に接続され得る。I/Oデバイスの例は、限定はしないが、キーボード、ディスプレイデバイス、ポインティングデバイス、1つまたは複数の通信ポート、およびネットワークアダプタを含む。ネットワークアダプタは、システム100が、介在するプライベートまたは公衆ネットワークを通して他のシステム、コンピュータシステム、リモートプリンタ、および/またはリモート記憶デバイスに接続されるようになることを可能にする回路を指す。モデム、ケーブルモデム、イーサネットカード、およびワイヤレストランシーバが、システム100とともに使用され得る異なるタイプのネットワークアダプタの例である。
The
図1の例では、ハードウェアアクセラレータ135−1、135−2、および135−3の各々は、それぞれ、メモリ140−1、140−2、および140−3に接続される。メモリ140−1、140−2、および140−3は、概してホストメモリ110に関して説明されるようなRAMとして実装される。1つまたは複数の実施形態では、各ハードウェアアクセラレータ135は、ICとして実装される。ICはプログラマブルICであり得る。プログラマブルICの一例は、フィールドプログラマブルゲートアレイ(FPGA)である。
In the example of FIG. 1, each of the hardware accelerators 135-1, 135-2, and 135-3 is connected to memories 140-1, 140-2, and 140-3, respectively. The memories 140-1, 140-2, and 140-3 are generally implemented as RAM as described for the
図1の例では、ハードウェアアクセラレータ135の各々は、エンドポイント145と、リンク回路150と、(図1では「MC」と省略される)メモリコントローラ155と、相互接続回路168とを含む。各ハードウェアアクセラレータ135は、(図1では「CU」と省略される)1つまたは複数の算出ユニットをも含む。算出ユニットは、ホストプロセッサ105からオフロードされたタスクを実施することが可能である回路である。例示の目的で、ハードウェアアクセラレータ135の各々は、算出ユニット160と、算出ユニット165とを含むように示されている。ハードウェアアクセラレータ135は、図示されているよりも少ないまたは多い算出ユニットを含み得ることを諒解されたい。 In the example of FIG. 1, each of the hardware accelerators 135 includes an endpoint 145, a link circuit 150, a memory controller 155 (abbreviated as "MC" in FIG. 1), and an interconnect circuit 168. Each hardware accelerator 135 also includes one or more calculation units (abbreviated as "CU" in FIG. 1). The calculation unit is a circuit capable of performing tasks offloaded from the host processor 105. For purposes of illustration, each of the hardware accelerators 135 is shown to include a calculation unit 160 and a calculation unit 165. It should be appreciated that the hardware accelerator 135 may contain fewer or more computing units than shown.
一例では、エンドポイント145の各々は、PCIeエンドポイントとして実装される。エンドポイント145は、システム100によって使用されるインターフェース回路115の特定のタイプまたは実装を介して通信するために好適な任意のタイプのエンドポイントとして実装され得ることを諒解されたい。メモリコントローラ155の各々は、ハードウェアアクセラレータ135によるメモリ140のアクセス(たとえば、読取りおよび書込み)を可能にするために、それぞれのメモリ140に接続される。
In one example, each of the endpoints 145 is implemented as a PCIe endpoint. It should be appreciated that the endpoint 145 can be implemented as any type of endpoint suitable for communicating over a particular type or implementation of the
1つまたは複数の実施形態では、ハードウェアアクセラレータ135−1とメモリ140−1とが、第1の回路板(図示せず)に取り付けられ、ハードウェアアクセラレータ135−2とメモリ140−2とが、第2の回路板(図示せず)に取り付けられ、ハードウェアアクセラレータ135−3とメモリ140−3とが、第3の回路板(図示せず)に取り付けられる。これらの回路板の各々は、バスポートまたはスロットに結合するための好適なコネクタを含み得る。たとえば、回路板の各々は、システム100の利用可能なPCIeスロット(または他のバス/インターフェースコネクタ)への挿入のために設定されたコネクタを有し得る。
In one or more embodiments, the hardware accelerator 135-1 and the memory 140-1 are mounted on a first circuit board (not shown), and the hardware accelerator 135-2 and the memory 140-2 are attached. , Attached to a second circuit board (not shown), hardware accelerator 135-3 and memory 140-3 are attached to a third circuit board (not shown). Each of these circuit boards may include a suitable connector for coupling to a bus port or slot. For example, each of the circuit boards may have a connector configured for insertion into the available PCIe slots (or other bus / interface connectors) of the
リンク回路150の各々は、少なくとも1つの他の、たとえば、隣接する、リンク回路150とのアクセラレータリンクを確立することが可能である。本明細書で使用される「アクセラレータリンク」は、2つのハードウェアアクセラレータを直接接続する通信リンクを指す。たとえば、ハードウェアアクセラレータ135を有する回路板の各々が、リンク回路150に接続するワイヤを通して接続され得る。リンク回路150は、ワイヤを介してアクセラレータリンクを確立し得る。 Each of the link circuits 150 is capable of establishing an accelerator link with at least one other, eg, adjacent, link circuit 150. As used herein, "accelerator link" refers to a communication link that directly connects two hardware accelerators. For example, each of the circuit boards with the hardware accelerator 135 may be connected through a wire that connects to the link circuit 150. The link circuit 150 may establish an accelerator link via a wire.
特定の実施形態では、リンク回路150は、リングトポロジーを使用して通信可能にリンクされる。リンク回路150によって確立された(1つまたは複数の)アクセラレータリンクを介して送られるデータが、方向矢印によって指示されるように左から右にマスタする。たとえば、図1の例を参照すると、左側のリンク回路(たとえば、リンク回路150−1)がマスタとして動作し得、右側の隣接するリンク回路(たとえば、リンク回路150−2)がスレーブとして動作し得る。同様に、リンク回路150−2が、リンク回路150−3に関してマスタとして動作し得る。リンク回路150−3が、リンク回路150−1に関してマスタとして動作し得る。 In certain embodiments, the link circuit 150 is communicably linked using a ring topology. Data sent over the (s) accelerator links established by the link circuit 150 is mastered from left to right as indicated by the directional arrows. For example, referring to the example of FIG. 1, the left link circuit (eg, link circuit 150-1) can act as a master and the right adjacent link circuit (eg, link circuit 150-2) can act as a slave. obtain. Similarly, the link circuit 150-2 may act as a master with respect to the link circuit 150-3. The link circuit 150-3 may act as a master with respect to the link circuit 150-1.
1つまたは複数の実施形態では、各リンク回路150は、(たとえば、各ボード上の)各ハードウェアアクセラレータのためのメモリ140の量(またはサイズ)を指定するテーブルまたはレジスタを含む。テーブルを使用して、各リンク回路150は、アクセラレータリンクを使用して情報を交換する目的で、トランザクションにおいて指定されたアドレスを修正することが可能である。特定の実施形態では、テーブルまたはレジスタは、静的である。1つまたは複数の他の実施形態では、ドライバは、動的に、たとえば、ランタイムにおいて、テーブルまたはレジスタに記憶された情報を読み取り、および/または更新することが可能である。 In one or more embodiments, each link circuit 150 includes a table or register that specifies the amount (or size) of memory 140 for each hardware accelerator (eg, on each board). Using the table, each link circuit 150 can modify the address specified in the transaction for the purpose of exchanging information using the accelerator link. In certain embodiments, the table or register is static. In one or more other embodiments, the driver can dynamically read and / or update the information stored in a table or register, eg, at runtime.
例示の目的で、ハードウェアアクセラレータ135−2の動作が説明される。各それぞれのハードウェアアクセラレータにおける同様の番号の構成要素が、同じまたは同様の様式で動作することが可能であることを諒解されたい。したがって、ハードウェアアクセラレータ135−2を参照すると、リンク回路150−2は、様々な異なるソースまたはイニシエータのいずれかからトランザクションを受信することと、様々なターゲットのいずれかにトランザクションをルーティングすることとが可能である。たとえば、リンク回路150−2は、(たとえば、ホストプロセッサ105から発信した)エンドポイント145−2からのトランザクション、算出ユニット160−2からのトランザクション、算出ユニット165−2からのトランザクション、ハードウェアアクセラレータ135−1からのリンク回路150−1を介したトランザクション、またはハードウェアアクセラレータ135−3からのリンク回路150−3を介してリンク回路150−1に流れ、次いでリンク回路150−2上に至るトランザクションを受信することが可能である。リンク回路150−2は、(たとえば、ホストプロセッサ105への)エンドポイント145−2へのトランザクション、算出ユニット160−2へのトランザクション、算出ユニット165−2へのトランザクション、メモリコントローラ155−2へのトランザクション、リンク回路150−3を介してリンク回路150−1上に至る、ハードウェアアクセラレータ135−1へのトランザクション、またはリンク回路150−3を介したハードウェアアクセラレータ135−3へのトランザクションなど、任意のターゲットへのトランザクションをルーティングすることが可能であり、ここで、ターゲットは、ソースまたはイニシエータとは異なる。 For illustrative purposes, the operation of hardware accelerator 135-2 will be described. It should be appreciated that components with similar numbers in each respective hardware accelerator can operate in the same or similar manner. Therefore, referring to hardware accelerator 135-2, link circuit 150-2 can receive transactions from any of a variety of different sources or initiators and route transactions to any of a variety of targets. It is possible. For example, link circuit 150-2 may include transactions from endpoint 145-2 (eg, originating from host processor 105), transactions from compute unit 160-2, transactions from compute unit 165-2, hardware accelerator 135. A transaction from -1 via the link circuit 150-1, or a transaction flowing from the hardware accelerator 135-3 via the link circuit 150-3 to the link circuit 150-1 and then onto the link circuit 150-2. It is possible to receive. The link circuit 150-2 has a transaction to the endpoint 145-2 (for example, to the host processor 105), a transaction to the calculation unit 160-2, a transaction to the calculation unit 165-2, and a memory controller 155-2. Any transaction, such as a transaction, a transaction to the hardware accelerator 135-1 via the link circuit 150-3 over the link circuit 150-1, or a transaction to the hardware accelerator 135-3 via the link circuit 150-3. It is possible to route a transaction to a target, where the target is different from the source or initiator.
たとえば、ホストプロセッサ105は、統合されたアドレス空間の一部として、メモリ140−1、メモリ140−2、および/またはメモリ140−3における任意のロケーションにアクセスすることが可能である。しかしながら、そのようなメモリにアクセスする際に、ホストプロセッサ105は、選択されたハードウェアアクセラレータ、たとえば、ハードウェアアクセラレータ135−2にアクセスすることと、次いで、アクセラレータリンクを使用して、選択されたハードウェアアクセラレータを通してメモリ140−1、メモリ140−2、またはメモリ140−3など、任意のターゲットに達することとによって、そのようなメモリにアクセスし得る。 For example, the host processor 105 can access any location in memory 140-1, memory 140-2, and / or memory 140-3 as part of the integrated address space. However, when accessing such memory, the host processor 105 was selected using the selected hardware accelerator, eg, hardware accelerator 135-2, and then using the accelerator link. Such memory can be accessed by reaching any target, such as memory 140-1, memory 140-2, or memory 140-3, through a hardware accelerator.
例示的なおよび非限定的な例として、ホストプロセッサ105は、ハードウェアアクセラレータ135−2および135−3に関与するデータ転送を開始し得る。ハードウェアアクセラレータ135−2はイニシエータであり得る。この例では、ホストプロセッサ105、たとえば、ランタイム172および/またはドライバ174は、ハードウェアアクセラレータ135−2に対応するバッファオブジェクト176と、ハードウェアアクセラレータ135−3に対応するバッファオブジェクト178とを作成する。ホストプロセッサ105は、(ハードウェアアクセラレータ135−3中にある)データ転送のためのターゲットアドレスが、開始ハードウェアアクセラレータ(ハードウェアアクセラレータ135−2)に対してリモートであることを指示するリモートフラグ182をセットする。
As exemplary and non-limiting example, host processor 105 may initiate data transfer involving hardware accelerators 135-2 and 135-3. Hardware accelerator 135-2 can be an initiator. In this example, the host processor 105, eg, the runtime 172 and / or the driver 174, creates a buffer object 176 corresponding to the hardware accelerator 135-2 and a buffer object 178 corresponding to the hardware accelerator 135-3. Host processor 105 indicates that the target address for data transfer (in hardware accelerator 135-3) is remote to the starting hardware accelerator (hardware accelerator 135-2) with
エンドポイント145−2は、インターフェース回路115を介してホストプロセッサ105からオフロードされたタスクを受信することが可能である。1つまたは複数の実施形態では、ホストプロセッサ105は、ランタイム172およびドライバ174を実行することを介して、ハードウェアアクセラレータ135を統合されたアドレス空間と見なすことが可能である。エンドポイント145−2は、算出ユニット160−2にタスク(たとえば、データ)を提供し得る。タスクは、算出ユニット160−2が、オフロードされたタスクを実施するためのデータをそこから取り出すべきであるメモリ140−3内のターゲットアドレスを指定し得る。ハードウェアアクセラレータ135−2は、リンク回路150−2を使用して、リンク回路150−2とリンク回路150−3との間で確立されたアクセラレータリンクを介して、ハードウェアアクセラレータ135−3と直接、データ転送を開始および実施することが可能である。
The endpoint 145-2 is capable of receiving tasks offloaded from the host processor 105 via the
データ転送はホストプロセッサ105によって開始されるが、データ転送は、リンク回路150を使用して実施され、ホストプロセッサ105、ホストメモリ110、またはインターフェース回路115に関与することなしに行われる。データ転送は、ハードウェアアクセラレータ間で直接行われる。従来のシステムでは、データ転送は、ホストプロセッサ105が、インターフェース回路115を介してハードウェアアクセラレータ135−3からデータを取り出すことと、次いで、インターフェース回路115を介してハードウェアアクセラレータ135−2にデータを提供することとによって行われることになる。
The data transfer is initiated by the host processor 105, but the data transfer is performed using the link circuit 150 and without involvement of the host processor 105, the
ハードウェアアクセラレータ135自体の間のデータの読取りおよび書込みを、ホストプロセッサ105を通してそのデータを移動させることなしに行う、ハードウェアアクセラレータ135の能力は、インターフェース回路115(たとえば、PCIeバス)を介して受け渡されるデータの量を著しく低減する。これは、ホストプロセッサ105と他のハードウェアアクセラレータ135との間のデータを伝達する際に使用するためのインターフェース回路115のかなりの帯域幅を節約する。さらに、システム100の動作の速度が、ハードウェアアクセラレータ135がデータを共有するために必要とされる時間の低減により増加され得る。
The ability of the hardware accelerator 135 to read and write data between the hardware accelerator 135 itself without moving that data through the host processor 105 is received via the interface circuit 115 (eg, the PCIe bus). Significantly reduce the amount of data passed. This saves considerable bandwidth of the
システム100は、実装されるデバイスおよび/またはシステムの特定のタイプに応じて、図示された構成要素よりも少数の構成要素、または図1に示されていない追加の構成要素を含み得る。さらに、含まれる特定のオペレーティングシステム、(1つまたは複数の)アプリケーション、および/またはI/Oデバイスは、システムタイプに基づいて変動し得る。さらに、例示的な構成要素のうちの1つまたは複数は、別の構成要素に組み込まれるか、またはさもなければ、別の構成要素の一部分を形成し得る。たとえば、プロセッサが、少なくともあるメモリを含み得る。システム100は、図1のアーキテクチャまたはそれと同様のアーキテクチャを使用して各々実装される単一のコンピュータあるいは複数のネットワーク化されたまたは相互接続されたコンピュータを実装するために使用され得る。
The
図2は、図1のハードウェアアクセラレータ135−2の例示的な実装形態を示す。図2内に、リンク回路150−2の例示的な実装形態が提供される。図2中のリンク回路150−2のために示されているアーキテクチャは、図1に示されているリンク回路150のいずれかを実装するために使用され得ることを諒解されたい。 FIG. 2 shows an exemplary implementation of the hardware accelerator 135-2 of FIG. An exemplary implementation of the link circuit 150-2 is provided in FIG. It should be appreciated that the architecture shown for link circuit 150-2 in FIG. 2 can be used to implement any of the link circuits 150 shown in FIG.
1つまたは複数の実施形態では、リンク回路150−2は、他のハードウェアアクセラレータに送られるべきであるトランザクションをデータストリームベースのパケットにコンバートし、リンク回路150の間で確立されたアクセラレータリンクを介してパケットをルーティングすることが可能である。特定の実施形態では、リンク回路150−2は、送信のためにAMBA拡張可能インターフェース(AXI)準拠メモリマッピングされたトランザクションをAXIデータストリームにコンバートすることが可能である。本開示内では、AXIは、例示的な通信プロトコルとして使用される。他の通信プロトコルが使用され得ることを諒解されたい。この点について、AXIの使用は、限定ではなく、例示のためのものである。リンク回路150−2は、他のハードウェアアクセラレータ(たとえば、ハードウェアアクセラレータ135−1および135−3)からの着信パケットをハンドリングし、そのパケットをメモリマッピングされたトランザクションにコンバートし、そのデータをハードウェアアクセラレータ135−2内でローカルにルーティングすることも可能である。さらに、リンク回路150−2は、受信されたパケットをメモリマッピングされたトランザクションにコンバートし、トランザクションを修正し、メモリマッピングされたトランザクションをパケットにコンバートし、パケットを次のハードウェアアクセラレータに受け渡すことが可能である。アクセラレータリンクを介して受信されたデータは、メモリマッピングされたトランザクションとしてハードウェアアクセラレータ135−2内で内部的にルーティングされ得る。 In one or more embodiments, the link circuit 150-2 converts a transaction that should be sent to another hardware accelerator into a data stream-based packet, providing an accelerator link established between the link circuits 150. It is possible to route packets through. In certain embodiments, the link circuit 150-2 is capable of converting an AMBA Extensible Interface (AXI) compliant memory-mapped transaction into an AXI data stream for transmission. Within this disclosure, AXI is used as an exemplary communication protocol. Please understand that other communication protocols may be used. In this regard, the use of AXI is for illustrative purposes only. The link circuit 150-2 handles incoming packets from other hardware accelerators (eg, hardware accelerators 135-1 and 135-3), converts the packets into memory-mapped transactions, and hardens the data. It is also possible to route locally within the hardware accelerator 135-2. In addition, the link circuit 150-2 converts the received packet into a memory-mapped transaction, modifies the transaction, converts the memory-mapped transaction into a packet, and passes the packet to the next hardware accelerator. Is possible. Data received over the accelerator link can be routed internally within the hardware accelerator 135-2 as a memory-mapped transaction.
図2の例では、リンク回路150−2は、トランシーバ202および204と、再送信エンジン(RTE)206および208と、メモリマップ−ストリーム(MM−ストリーム)マッパ210および212とを含む。MM−ストリームマッパ210および212は、相互接続回路214に接続される。
In the example of FIG. 2, the link circuit 150-2 includes
描かれているように、トランシーバ202は、ハードウェアアクセラレータ135−1における対応するトランシーバに接続され得、トランシーバ204は、ハードウェアアクセラレータ135−3における対応するトランシーバに接続される。トランシーバ202および204は、他のハードウェアアクセラレータと確立されたアクセラレータリンクの物理レイヤを実装する。トランシーバ202および204の各々は、マルチギガビット通信リンクのための軽量のシリアル通信プロトコルを実装することが可能である。1つまたは複数の実施形態では、トランシーバ202および204の各々は、隣接するICにおけるトランシーバへの双方向インターフェースを実装することが可能である。トランシーバ202および204は、他のハードウェアアクセラレータとのアクセラレータリンクを自動的に初期化することが可能である。概して、トランシーバ202および204は、フロー制御に関係する低レベルシグナリングおよび低PHYレベルプロトコルを実装するための双方向通信が可能である。しかしながら、前に説明されたようにリングトポロジーおよび(たとえば、リングの周りの単一の方向における)マスタからスレーブへの流れを使用して、データフローが実装され得る。
As depicted,
たとえば、トランシーバ202は、ハードウェアアクセラレータ135−1のリンク回路150−1内の対応するトランシーバと双方向に通信することが可能である。トランシーバ204は、ハードウェアアクセラレータ135−3のリンク回路150−3内の対応するトランシーバと双方向に通信することが可能である。トランシーバ202および204の各々は、データストリーム、たとえば、AXIデータストリームを使用して、隣接するトランシーバと通信することが可能である。
For example,
特定の実施形態では、トランシーバ202および204は、8B/10Bコーディングルールを使用して、隣接するハードウェアアクセラレータにデータを送るおよび受信することが可能である。トランシーバ202および204の各々は、8B/10Bコーディングルールを使用して、シングルビットエラーおよびたいていのマルチビットエラーを検出することが可能である。
In certain embodiments,
1つまたは複数の実施形態では、トランシーバ202および204の各々は、Aurora 8B/10B IPコアとして実装され、これは、カリフォルニア州サンノゼのXilinx,Inc.から入手可能である。しかしながら、言及される特定のコアは、例示の目的で提供され、限定として意図されないことを諒解されたい。本明細書で説明されるように動作することが可能である他のトランシーバが使用され得る。
In one or more embodiments, each of the
トランシーバ202は、RTE206に接続される。トランシーバ202とRTE206とは、双方向通信をサポートする各方向において動く複数のデータストリームを通して通信することが可能である。トランシーバ204は、RTE208に接続される。トランシーバ204とRTE208とは、双方向通信をサポートする各方向において動く複数のデータストリームを通して通信することが可能である。
The
RTE206および208は、トランザクションを管理することが可能である。1つまたは複数の実施形態では、RTE206およびRTE208は、各々、通信プロトコルの追加のレイヤを、それぞれ、トランシーバ202および204によって実装されたものの上に実装する。たとえば、RTE206およびRTE208は、各々、トランザクションレイヤ(TL)/リンクレイヤ(LL)およびユーザレイヤを実装する。これらの追加のレイヤは、データの完全性に関するさらなる保証を提供する。初期化の後に、アプリケーションは、データのストリームとしてアクセラレータリンクにわたってデータを受け渡すことが可能である。追加のデータの完全性対策は、メモリマッピングされたトランザクションをストリームデータにコンバートするとき、制御信号がデータとマージされるので、特に有益である。データの完全性問題が、破損した制御信号を生じ得る。オンチップ相互接続および/またはバスは、制御信号に関するデータ損失に耐えられない。
RTE206 and 208 are capable of managing transactions. In one or more embodiments, the
TL/LLは、ロスレスデータ通信を保証するために、トークンベースのフロー制御を実装する。1つまたは複数の実施形態では、隣接するトランシーバ間の通信チャネルおよびトランシーバとRTEとの間の通信チャネルは、幅が128ビットである。データを送るとき、各RTEは、ターゲットハードウェアアクセラレータにおける受信リンク回路が、トランシーバによって実装された物理レイヤに、送られるべきトランザクションを実際に送る前に、トランザクション全体を受信するための十分なバッファリングリソース(たとえば、トークン)を有することを検査することが可能である。たとえば、RTE206は、ハードウェアアクセラレータ135−1における受信リンク回路150−1が、送るために(リンク回路150−2内で)トランシーバ202にデータを提供するより前に、データを受信するための十分なバッファリソースを有することを検査し得る。
TL / LL implements token-based flow control to ensure lossless data communication. In one or more embodiments, the communication channel between adjacent transceivers and the communication channel between the transceiver and the RTE are 128 bits wide. When sending data, each RTE buffers enough to receive the entire transaction before the receive link circuit in the target hardware accelerator actually sends the transaction to be sent to the physical layer implemented by the transceiver. It is possible to check that you have a resource (eg, a token). For example, the
RTE206および208は、データ破損を検出することが可能である。たとえば、RTE206および208の各々は、受信された各パケットについての、パケット長情報、パケットシーケンス情報、および/または巡回冗長検査(CRC)チェックサムを検証することが可能である。RTEスレーブ(たとえば、受信するRTE)がパケットエラーを検出したとき、RTEは、エラーアボートモードに入り得る。エラーアボートモードでは、RTEは、エラーをもつパケットを失敗したパケットとしてドロップする。RTEは、トランザクションのすべての後続のパケットをさらにドロップする。特定の実施形態では、エラーアボートモードの開始が、RTEにリンク再試行シーケンスを起動させる。リンク再試行シーケンスが成功すると、リンクマスタ(たとえば、送るRTE)は、失敗したポイントから開始することによって、送信を復元することが可能である。
RTE206 and 208 are capable of detecting data corruption. For example, each of the
RTE206は、MMストリームマッパ210に接続される。RTE206は、双方向通信をサポートする各方向において動く複数のデータストリームを介してMMストリームマッパ210と通信することが可能である。RTE208は、MMストリームマッパ212に接続される。RTE208は、双方向通信をサポートする各方向において動く複数のデータストリームを介してMMストリームマッパ212と通信することが可能である。
The
MMストリームマッパ210およびMMストリームマッパ212の各々は、相互接続回路214に接続される。相互接続回路214は、MMストリームマッパ210および212ならびにそれらに接続されたハードウェアアクセラレータ135−2の他のマスタおよび/またはスレーブ回路の間で、データをルーティングすることが可能である。相互接続回路214は、1つまたは複数のオンチップ相互接続として実装され得る。オンチップ相互接続の一例は、AXIバスである。AXIバスは、回路ブロックおよび/またはシステムの間にオンチップ接続を確立する際に使用するための埋込みマイクロコントローラバスインターフェースである。相互接続回路の他の例示的な実装形態は、限定はしないが、他のバス、クロスバー、ネットワークオンチップ(NoC)などを含み得る。
Each of the
MMストリームマッパ210および212は、それぞれ、RTE206および208からの受信されたデータストリームを、相互接続回路ブロック214に提供され得るメモリマッピングされたトランザクションにコンバートすることが可能である。この点について、データストリームは、メモリマッピングされたトランザクションをサポートする複数のチャネルに多重化解除され得る。MMストリームマッパ210および212は、相互接続回路ブロック214からの受信されたメモリマッピングされたトランザクションを、それぞれ、RTE206および208に提供され得るストリームデータにコンバートすることも可能である。MMストリームマッパ210および212は、(たとえば、説明される制御信号を含む)メモリマッピングされたトランザクションをサポートする複数のチャネルを、それぞれ、RTE206および208に送るための単一のデータストリームに多重化することが可能である。
The
1つまたは複数の実施形態では、MMストリームマッパ210および212の各々は、トランザクションにおいて受信されたターゲットアドレスを調整することが可能である。MMストリームマッパ210は、たとえば、アクセラレータリンクを介してハードウェアアクセラレータ135−1からトランザクションを受信する際に、トランザクションのターゲットアドレスから、ハードウェアアクセラレータ135−2のためのアドレス範囲(たとえば、メモリ140−2のアドレス範囲)の上限を減算し得る。トランザクションがリンク回路150を通過するとき、ターゲットアドレスを調整することによって、トランザクションが、アクセラレータリンクを介してあるハードウェアアクセラレータから別のハードウェアアクセラレータに向けられ得る。アクセラレータリンクを使用する際のアドレスの動作に関係するさらなる詳細が、図4に関してより詳細に説明される。
In one or more embodiments, each of the
例示の目的で、ハードウェアアクセラレータ135−2の他の部分が、リンク回路150−2に関して説明される。図2の例では、相互接続回路214は、直接メモリアクセス(DMA)マスタ回路216に接続される。DMAマスタ回路216は、たとえば、相互接続回路ブロック214と通信するためのメモリマッピングされたインターフェースを含む。DMAマスタ回路216は、PCIeエンドポイント218に接続される。図1のエンドポイント145−2の例示的な実装形態であるPCIeエンドポイント218は、ホストプロセッサ105に通信可能にリンクされる。
For illustrative purposes, other parts of the hardware accelerator 135-2 are described with respect to the link circuit 150-2. In the example of FIG. 2, the
図2の例では、相互接続回路214は、1つまたは複数の算出ユニットマスタ220−1〜220−Nにも接続される。各算出ユニットマスタ220は、ハードウェアアクセラレータ135−2内に実装された算出ユニットと、相互接続回路ブロック214との間の双方向インターフェースを提供する。各算出ユニットマスタ220は、相互接続回路ブロック214と通信するためのメモリマッピングされたインターフェースをさらに含む。算出ユニット160−2および算出ユニット165−2の各々は、スレーブインターフェース(図示せず)を介して相互接続回路214に接続され得る。
In the example of FIG. 2, the
図2の例では、相互接続回路214は、1つまたは複数のメモリコントローラスレーブ回路225−1〜225−Nにも接続される。各メモリコントローラスレーブ回路225は、メモリ140−2のための読取りおよび書込み動作を可能にする。メモリ140−2は、ハードウェアアクセラレータ135−2によってアクセス可能な1つまたは複数のオフチップメモリとして実装され得る。メモリコントローラ225−1〜225−Nの各々は、相互接続回路ブロック214と通信するためのメモリマッピングされたインターフェースをさらに含む。
In the example of FIG. 2, the
図3は、RTE206の例示的な一実装形態を示す。図3に関して説明される例示的なアーキテクチャは、フロー制御ユニット(FLIT)を使用するクレジットベースのフロー制御/再送信制御方式を実装する。RTE206は、アプリケーションによって使用され得るプロトコルおよび/またはインターフェースに対して内部的に使用されるFLITベースのプロトコルおよび/またはインターフェースの間で変換することが可能である。
FIG. 3 shows an exemplary implementation of the
RTE206は、送信チャネル330を含む。送信チャネル330は、データ(たとえば、AXI)ストリームをFLITベースのトランザクションにカプセル化解除することが可能である。図3の例では、送信チャネル330は、送信(TX)パケット巡回冗長検査(CRC)生成器302と、再試行ポインタ復帰コマンド(PRET)パケット/初期再試行コマンド(IRTRY)パケット生成器および復帰再試行ポインタ(RRP)埋込み器304と、トークン復帰(TRET)パケット生成器およびシーケンス(SEQ)番号/前方再試行ポインタ(FRP)/復帰トークンカウント(RTC)埋込み器306と、フロー制御回路308と、出力バッファ310とを含む。TRET生成器およびSEQ/FRP/RTC埋込み器306は、再試行バッファ312にも接続される。
The
RTE206は、受信チャネル340を含む。受信チャネル340は、FLITベースのインターフェースをカプセル化することと、そのインターフェースをデータ(たとえば、AXI)ストリームにコンバートすることとが可能である。図3の例では、受信チャネル340は、パケット境界検出器316と、受信(RX)パケットCRC回路318と、RXパケットプロセッサ320と、入力バッファ322とを含む。Rxパケットプロセッサ320は、エラーハンドラ324および再試行シーケンス回路314に接続される。
The
RTE206は、限定ではなく、例示の目的で提供される。クレジットベースのフロー制御/再送信制御方式を実装するために好適な他のアーキテクチャが使用され得ることを諒解されたい。図3に関して説明されるアーキテクチャは、データフローに関して反転したまたは逆の配向をもつ図2のRTE208を実装するためにも使用され得る。
RTE206 is provided for purposes of illustration, but not limitation. Please understand that other architectures suitable for implementing credit-based flow control / retransmission control schemes may be used. The architecture described with respect to FIG. 3 can also be used to implement the
図4は、複数のハードウェアアクセラレータをもつシステムのための動作の例示的な方法400を示す。方法400は、ハードウェアアクセラレータの間の直接的なデータ転送の一例を示す。方法400は、図1に関して説明されたシステム100と同じまたは同様のシステムによって実施され得る。方法400は、ホストプロセッサとハードウェアアクセラレータとを結合するバス上の不十分な帯域幅がどのように緩和され得るかを示す。通常ならばバス上で行われるデータ転送が、アクセラレータリンクに向けられ、それにより、他の動作のためにバス上の帯域幅を解放し得る。
FIG. 4 shows an exemplary method of
ブロック405において、システムは、ハードウェアアクセラレータシーケンスを自動的に発見することが可能である。1つまたは複数の実施形態では、ハードウェアアクセラレータ、たとえば、ハードウェアアクセラレータのボードは、システム内のリングトポロジーにおいて構成される。ホストプロセッサは、既存のPCIeトポロジー、したがって、PCIeバスに接続されたシステム内に存在するハードウェアアクセラレータの数に気づいている。さらに、ホストプロセッサは、たとえば、ランタイムを介して、各ハードウェアアクセラレータにロードされた特定の回路(たとえば、イメージまたは設定ビットストリーム)に気づいている。したがって、ホストプロセッサは、ハードウェアアクセラレータが、本明細書で説明されるようなアクセラレータリンクをサポートすることに気づいている。ホストプロセッサは、依然として、ハードウェアアクセラレータのシーケンスを決定しなければならない。ドライバは、たとえば、説明されるハードウェアアクセラレータシーケンスの自動発見を実施することが可能である。この自動発見能力は、ホストプロセッサによって実行されるアプリケーションを修正する必要なしに、システムへの新しいおよび/または追加のハードウェアアクセラレータの追加をサポートする。
At
各ハードウェアアクセラレータは、知られているおよび同じアドレス範囲を有し得る。たとえば、各ハードウェアアクセラレータは、メモリ140の16GBに対応する16GBのアドレス範囲を有すると仮定され得る。1つまたは複数の実施形態では、ホストプロセッサは、16GB間隔においてメモリアドレスに一意の値を書き込むことが可能である。ホストプロセッサは、次いで、書込み値および読取り値に基づいて、リングトポロジー内でハードウェアアクセラレータのシーケンスを決定するために、値を再び読み取り得る。 Each hardware accelerator may have known and the same address range. For example, each hardware accelerator can be assumed to have an address range of 16 GB corresponding to 16 GB of memory 140. In one or more embodiments, the host processor is capable of writing a unique value to the memory address at 16 GB intervals. The host processor can then read the values again to determine the sequence of hardware accelerators within the ring topology based on the write and read values.
ブロック410において、ホストプロセッサは、スタートアップ時に各ハードウェアアクセラレータ上にバッファを作成することが可能である。たとえば、ホストプロセッサによって実行されるランタイムは、各それぞれのハードウェアアクセラレータのメモリ内にバッファを作成するために、各ハードウェアアクセラレータと通信することが可能である。図1を参照すると、ハードウェアアクセラレータ135−1は、メモリ140−1内にバッファを作成する。ハードウェアアクセラレータ135−2は、メモリ140−2内にバッファを作成する。ハードウェアアクセラレータ135−3は、メモリ140−3内にバッファを作成する。
At
ブロック415において、ホストプロセッサは、ハードウェアアクセラレータ間のデータ転送を開始する。データ転送は、たとえば、ホストプロセッサからハードウェアアクセラレータにオフロードされるべきであるタスクの一部であり得る。例示的なおよび非限定的な例として、ホストプロセッサ105は、アプリケーションについてのタスクをハードウェアアクセラレータ135−1の算出ユニット160−1にオフロードし得る。タスクは、命令と、算出ユニット160−1がタスクのためのデータをそこから取得するべきであるターゲットアドレスとを含み得る。この例におけるターゲットアドレスは、ハードウェアアクセラレータ135−2中に(たとえば、メモリ140−2中に)ある。したがって、ホストプロセッサからオフロードされたタスクを実施するために、算出ユニット160−1は、メモリ140−2中のターゲットアドレスからデータを取り出さなければならない。 At block 415, the host processor initiates data transfer between hardware accelerators. Data transfer can be, for example, part of a task that should be offloaded from the host processor to the hardware accelerator. As an exemplary and non-limiting example, the host processor 105 may offload tasks for an application to compute unit 160-1 of hardware accelerator 135-1. The task may include an instruction and a target address from which calculation unit 160-1 should obtain data for the task. The target address in this example is in hardware accelerator 135-2 (eg, in memory 140-2). Therefore, in order to perform a task offloaded from the host processor, compute unit 160-1 must retrieve data from the target address in memory 140-2.
ブロック420において、ランタイムは、ハードウェアアクセラレータ135−1とハードウェアアクセラレータ135−2との間のデータ転送を要求し得る。たとえば、ランタイムは、ハードウェアアクセラレータ135−1による、またはハードウェアアクセラレータ135−1からのハードウェアアクセラレータ135−2の読取りを要求し得る。
At
ブロック425において、ドライバは、ハードウェアアクセラレータ135−2に対応するホストメモリ中のバッファオブジェクトと、ハードウェアアクセラレータ135−1に対応するホストメモリ中のバッファオブジェクトとを作成することが可能である。バッファオブジェクトは、ホストメモリ中で実装されるシャドーデータ構造である。各バッファオブジェクトは、システムにおけるデバイスに対応するか、またはそのデバイスを表し得る。バッファオブジェクトは、ホストプロセッサによって実行されるランタイムによって実施される管理機能をサポートするデータを含み得る。 At block 425, the driver can create a buffer object in host memory corresponding to hardware accelerator 135-2 and a buffer object in host memory corresponding to hardware accelerator 135-1. A buffer object is a shadow data structure implemented in host memory. Each buffer object can correspond to or represent a device in the system. The buffer object may contain data that supports the management functions performed by the runtime executed by the host processor.
1つまたは複数の実施形態では、ホストメモリ中で作成されたバッファオブジェクトは、リモートフラグを含み得る。リモートフラグは、バッファオブジェクトが、トランザクションを開始しているハードウェアアクセラレータの観点からリモートであることを指示するためにセットされ得る。この例では、ハードウェアアクセラレータ135−1は、ハードウェアアクセラレータ135−2からデータを読み取っている。したがって、ハードウェアアクセラレータ135−1は、トランザクションを開始している。ドライバは、作成時にハードウェアアクセラレータ135−2に対応するバッファオブジェクト中のリモートフラグをセットする。 In one or more embodiments, the buffer object created in host memory may include a remote flag. The remote flag can be set to indicate that the buffer object is remote in terms of the hardware accelerator initiating the transaction. In this example, hardware accelerator 135-1 is reading data from hardware accelerator 135-2. Therefore, hardware accelerator 135-1 is initiating a transaction. The driver sets the remote flag in the buffer object corresponding to hardware accelerator 135-2 at creation time.
ブロック430において、ランタイムライブラリは、開始ハードウェアアクセラレータによるバッファオブジェクト(たとえば、リモートバッファオブジェクト)へのアクセスを開始する。ランタイムライブラリは、ハードウェアアクセラレータ135−1からのハードウェアアクセラレータ135−2に対応するバッファオブジェクトのアクセスを開始する。たとえば、ランタイムは、リモートフラグが、ハードウェアアクセラレータ135−2についてのバッファオブジェクト内にセットされると決定する。リモートフラグがセットされると決定したことに応答して、ランタイムライブラリは、リンク回路によって確立されたアクセラレータリンクを使用して転送をスケジュールする。ハードウェアアクセラレータ間のアクセラレータリンクを使用して転送をスケジュールする際に、ランタイムは、ハードウェアアクセラレータ135−2からのデータにアクセスするためにハードウェアアクセラレータ135−1によって使用されるべきアドレスを決定する。
At
例示の目的で、ハードウェアアクセラレータ135の各々が1〜1000のアドレス範囲を有する一例について考える。そのような例では、ランタイムは、ハードウェアアクセラレータ135−1によってハードウェアアクセラレータ135−2から取り出されるべきデータが、ハードウェアアクセラレータ135−2に対応するアドレス500における(たとえば、メモリ140−2に対応するアドレス500における)バッファ中にあると決定し得る。この例では、ランタイムは、ターゲットアドレスに1000を加算し、1500のアドレスを生じ、そのアドレスは、オフロードされたタスクのために動作するためのデータを読み出すためのターゲットアドレスとして、ハードウェアアクセラレータ135−1に提供される。 For illustrative purposes, consider an example in which each of the hardware accelerators 135 has an address range of 1 to 1000. In such an example, the runtime corresponds to the data to be retrieved from hardware accelerator 135-2 by hardware accelerator 135-1 at address 500 corresponding to hardware accelerator 135-2 (eg, memory 140-2). Can be determined to be in the buffer (at address 500). In this example, the runtime adds 1000 to the target address to yield 1500 addresses, which are the hardware accelerator 135 as the target address for reading data to operate for offloaded tasks. Provided in -1.
別の例として、データがメモリ140−3内のアドレス500において記憶された場合、ランタイムは、トランザクションがハードウェアアクセラレータ135−3に達するために、ハードウェアアクセラレータ135の各々が1〜1000のアドレス範囲を有すると仮定して、2000を加算することになる。概して、知られているように、使用されるオンチップバス相互接続(たとえば、AXI相互接続)を通して戻り経路データが追跡され得る。マスタからの読取り要求が発行されたとき、たとえば、読取り要求は、読取り要求が各ハードウェアアクセラレータにわたって横断するとき、(mmストリームマッパによって実施される)一連のアドレス復号および/またはアドレスシフトとともに相互接続を通してスレーブにルーティングされる。各個々の相互接続は、どのマスタが各スレーブへの未解決のトランザクションを有するかを追跡することが可能である。読取りデータが返されると、読取りデータは、(1つまたは複数の)正しいインターフェースを介して返送され得る。いくつかの場合には、特定の読取りデータを返すために、その読取りデータを特定のマスタに関連付けるために、識別子(ID)ビットが使用され得る。 As another example, if data is stored at address 500 in memory 140-3, the runtime will run an address range of 1 to 1000 for each of the hardware accelerator 135 in order for the transaction to reach hardware accelerator 135-3. 2000 will be added, assuming that In general, as is known, return route data can be tracked through the on-chip bus interconnects used (eg, AXI interconnects). When a read request is issued from the master, for example, the read request interconnects with a series of address decryption and / or address shifts (implemented by the mm stream mapper) as the read request traverses each hardware accelerator. Routed to the slave through. Each individual interconnect can track which master has an open transaction to each slave. When the read data is returned, the read data can be sent back through the correct interface (s). In some cases, an identifier (ID) bit may be used to associate the read data with a particular master in order to return the particular read data.
ブロック435において、開始ハードウェアアクセラレータ(たとえば、第1のハードウェアアクセラレータ)は、ホストプロセッサからタスクを受信する。エンドポイント145−1は、たとえば、タスクを受信し、算出ユニット160−1にタスクを提供し得る。タスクは、算出ユニット160−1によれる動作の対象となるべきデータがターゲットアドレスに位置することを指定し、ターゲットアドレスは、この例では1500である。算出ユニット160−1は、たとえば、ターゲットアドレスが記憶され得る制御ポートを有し得る。アドレス1500に位置するデータにアクセスすることを試みる際に、算出ユニット160−1は、アドレスがハードウェアアクセラレータ135−1の範囲内にないことを認識する。たとえば、算出ユニット160−1は、アドレスを1000のアドレス範囲の上限と比較することと、アドレスが上限を超えると決定することとが可能である。この例では、算出ユニット160−1は、アドレス1500からの読取りトランザクションを開始することが可能である。たとえば、算出ユニット160−1は、相互接続214を介して送られたメモリマッピングされたトランザクションとして読取りトランザクションを開始し得る。
At
ブロック440において、開始ハードウェアアクセラレータは、アクセラレータリンクを介してターゲットハードウェアアクセラレータ(たとえば、第2のハードウェアアクセラレータ)にアクセスする。たとえば、リンク回路150−1は、(たとえば、MMストリームマッパを使用して)算出ユニット160−1によって開始されたメモリマッピングされたトランザクションをストリームベースのパケットにコンバートすることが可能である。リンク回路150−1は、さらに、(たとえば、RPEを使用して)データの完全性検査、再送信、初期化、およびエラー報告をサポートする追加のデータをもつパケットを符号化することが可能である。リングトポロジーは、左から右にマスタし得る。したがって、パケットは、リンク回路150−1のトランシーバによってリンク回路150−2に出力され得る。
At
リンク回路150−2は、トランシーバ202においてデータストリームを受信し、RTE206においてトランザクションを処理する。MMストリームマッパ210は、ストリームデータベースのパケットを受信したことに応答して、様々な動作を実施することが可能である。MMストリームマッパ210は、たとえば、ストリームベースのパケットを、メモリマッピングされたトランザクションにコンバートすることが可能である。さらに、MMストリームマッパ210は、1500のターゲットアドレスをハードウェアアクセラレータ135−2のアドレス範囲の上限だけ減分することが可能である。述べられたように、上限は、リンク回路150−2内の、たとえば、MMストリームマッパ210中のテーブルまたはレジスタに記憶され得る。この例では、MMストリームマッパ210は、1500のターゲットアドレスを1000だけ減分し、500のターゲットアドレスを生じる。ターゲットアドレスがハードウェアアクセラレータ135−2にローカルであるので、ハードウェアアクセラレータ135−2は、受信されたトランザクションに作用することが可能である。この例では、MMストリームマッパ210は、メモリマッピングされたトランザクションを相互接続214に提供する。メモリマッピングされたトランザクションは、読取りトランザクションを実施するために、(たとえば、メモリコントローラスレーブを通して)メモリコントローラ155−2に提供され得る。このようにして、ハードウェアアクセラレータ135−1は、ハードウェアアクセラレータ135−2からデータを読み出すこと(またはハードウェアアクセラレータ135−2にデータを書き込むこと)が可能である。要求されたデータは、読取り要求を送るために使用される同じ経路を使用して、メモリ140−2から要求側に提供され得る。たとえば、メモリ140−2から読み取られたデータは、リングトポロジーを通って前方にハードウェアアクセラレータ135−3に横断し、次いで、ハードウェアアクセラレータ135−1に横断する必要なしに、ハードウェアアクセラレータ135−2からハードウェアアクセラレータ135−1に送られる。
The link circuit 150-2 receives the data stream on the
たとえば、ターゲットアドレスが2500であった場合、減分した結果は1500になる。その場合、MMストリームマッパ210は、ターゲットアドレスがハードウェアアクセラレータ135−2についてのアドレス範囲の上限(たとえば、1000)よりも大きいので、ターゲットアドレスがハードウェアアクセラレータ135−2中にないと決定する。その場合、MMストリームマッパ210は、次のハードウェアアクセラレータ上にフォワーディングするために、トランザクションを、相互接続回路を通してMMストリームマッパ212に送り得る。
For example, if the target address is 2500, the result of the decrement is 1500. In that case, the
ブロック445において、ハードウェアアクセラレータ135−1中の算出ユニット160−1は、ハードウェアアクセラレータ間のデータ転送が完了したことをホストプロセッサに知らせる、ホストプロセッサへの割込みを生成することが可能である。ブロック450において、ランタイムは、アプリケーションに必要な、データ転送が完了したという通知を提供することが可能である。ランタイムは、たとえば、アプリケーションへの、完了イベント、コマンド待ち行列、および通知をハンドリングすることが可能である。
At
1つまたは複数の実施形態では、PCIeエンドポイントおよびDMAマスタは、異なるハードウェアアクセラレータ中にあるターゲットアドレスに書き込むことが可能である。例示的なおよび非限定的な例として、ホストプロセッサは、ハードウェアアクセラレータ135−2中にあるターゲットアドレスとともにデータをハードウェアアクセラレータ135−1に送り得る。その場合、DMAマスタは、ターゲットアドレスが、異なるハードウェアアクセラレータ中にあることを認識することと、アクセラレータリンクを介したデータ転送をスケジュールすることとが可能である。たとえば、DMAマスタは、ターゲットアドレスを、ハードウェアアクセラレータ135−1についてのアドレス範囲の上限と比較し得る。ターゲットアドレスが上限を超えると決定したことに応答して、DMAマスタは、アクセラレータリンクを介してハードウェアアクセラレータ135−2に送るために、相互接続回路を介した、リンク回路150−1中のMMストリームマッパ212へのメモリマッピングされたトランザクションを開始することが可能である。
In one or more embodiments, the PCIe endpoint and DMA master can write to target addresses in different hardware accelerators. As an exemplary and non-limiting example, the host processor may send data to hardware accelerator 135-1 with a target address in hardware accelerator 135-2. In that case, the DMA master can recognize that the target address is in a different hardware accelerator and schedule data transfer over the accelerator link. For example, the DMA master may compare the target address with the upper bound of the address range for hardware accelerator 135-1. In response to determining that the target address exceeds the upper bound, the DMA master MM in the link circuit 150-1 via the interconnect circuit to send to the hardware accelerator 135-2 over the accelerator link. It is possible to initiate a memory-mapped transaction to the
1つまたは複数の実施形態では、ホストプロセッサは、ロードバランシングの目的でアクセラレータリンクを使用することが可能である。たとえば、ホストプロセッサは、データが提供されるべきであるか、またはタスクがオフロードされるべきである、選択されたハードウェアアクセラレータ中のDMAチャネル(たとえば、DMAマスタ)のステータスを決定するために、ランタイムを使用することが可能である。DMAマスタが、ビジーであるかまたはアクティビティのしきい値量を上回って動作していると決定したことに応答して、ホストプロセッサは、バスを介して異なるハードウェアアクセラレータにデータを送り得る。データは、選択されたハードウェアアクセラレータ内のターゲットアドレスを指定し得る。受信ハードウェアアクセラレータ内のDMAマスタは、ホストプロセッサからデータを受信すると、(1つまたは複数の)アクセラレータリンクを介して、選択されたハードウェアアクセラレータにデータをフォワーディングすることが可能である。特定の実施形態では、ホストプロセッサは、受信ハードウェアアクセラレータ中のDMAマスタが、ビジーでないかまたはアクティビティのしきい値量を下回って動作しているという決定に基づいて、受信ハードウェアアクセラレータを選定することが可能である。 In one or more embodiments, the host processor can use accelerator links for load balancing purposes. For example, the host processor to determine the status of a DMA channel (eg, DMA master) in a selected hardware accelerator for which data should be provided or tasks should be offloaded. , It is possible to use the runtime. In response to the DMA master determining that it is busy or operating above the activity threshold, the host processor may send data over the bus to different hardware accelerators. The data may specify a target address within the selected hardware accelerator. When the DMA master in the receiving hardware accelerator receives the data from the host processor, it can forward the data to the selected hardware accelerator via the accelerator link (s). In certain embodiments, the host processor selects the receive hardware accelerator based on the determination that the DMA master in the receive hardware accelerator is not busy or is operating below the activity threshold. It is possible.
例示の目的で、ハードウェアアクセラレータ135−1からハードウェアアクセラレータ135−3への書込みトランザクションの一例が、概して、ホストプロセッサによって開始されるものとして説明される。ホストプロセッサは、ランタイムおよびドライバを介して、ターゲットハードウェアアクセラレータについてのリモートフラグをセットし、(所望のアドレスがハードウェアアクセラレータ135−3中のアドレス500に位置する、前の例を使用して)2500のアドレスを決定する。ホストプロセッサは、アドレス2500に書き込むために、ハードウェアアクセラレータ135−1に命令を提供する。ハードウェアアクセラレータ135−1内で、2500のアドレスをもつトランザクションが相互接続214に提示される。アドレスがハードウェアアクセラレータ135−1の上限を超えるので、相互接続214は、リンク回路150−1にトランザクションを送る。リンク回路150−1は、リンク回路150−2にトランザクションを送る。ハードウェアアクセラレータ135−2中のMMストリームマッパは、アドレスを1000だけ減分し、1500の新しいアドレスを生じる。新しいアドレスは、1500がハードウェアアクセラレータ135−2の上側アドレス限界を超えるので、依然としてリモートである。したがって、トランザクションは、ハードウェアアクセラレータ135−3にフォワーディングされる。
For illustrative purposes, an example of a write transaction from hardware accelerator 135-1 to hardware accelerator 135-3 is generally described as being initiated by the host processor. The host processor sets the remote flag for the target hardware accelerator via the runtime and driver (using the previous example, where the desired address is located at address 500 in the hardware accelerator 135-3). Determine the address of 2500. The host processor provides an instruction to the hardware accelerator 135-1 to write to address 2500. Within the hardware accelerator 135-1, a transaction with 2500 addresses is presented to interconnect 214. Since the address exceeds the upper limit of the hardware accelerator 135-1, the
ハードウェアアクセラレータ135−3中のMMストリームマッパは、アドレスを減分し、500の新しいアドレスを生じる。トランザクションは、次いで、ハードウェアアクセラレータ135−3中で相互接続214を介してメモリコントローラに提供され、データがメモリ140−3に書き込まれる。説明される例では、アドレスは、トランザクションが、ハードウェアアクセラレータによってサービスされ得るのか、および、トランザクションがハードウェアアクセラレータによってサービスされ得る場合、トランザクションを内部的にどこに(たとえば、メモリコントローラまたは他の回路ブロックに)ルーティングすべきか、または次のハードウェアアクセラレータにフォワーディングされるべきであるのかを決定するために、各ハードウェアアクセラレータによって使用される。特定の実施形態では、アドレスは、データがメモリ中に書き込まれる実際のアドレスとは異なる。書込み肯定応答は、説明されるように、ハードウェアアクセラレータ135−3からハードウェアアクセラレータ135−2を通してハードウェアアクセラレータ135−1に送られる。
The MM stream mapper in the hardware accelerator 135-3 decrements the address, yielding 500 new addresses. The transaction is then provided to the memory controller via
例示の目的で、ハードウェアアクセラレータ135−1によって開始された、ハードウェアアクセラレータ135−3への読取りトランザクションの別の例が、概して、ホストプロセッサによって開始されるものとして説明される。ホストプロセッサは、ランタイムおよびドライバを介して、ターゲットハードウェアアクセラレータについてのリモートフラグをセットし、(所望のアドレスがハードウェアアクセラレータ135−3中のアドレス500に位置する、前の例を使用して)2500のアドレスを決定する。ホストプロセッサは、アドレス2500から読み出すために、ハードウェアアクセラレータ135−1に命令を提供する。ハードウェアアクセラレータ135−1内で、2500のアドレスをもつトランザクションが相互接続214に提示される。アドレスがハードウェアアクセラレータ135−1の上限を超えるので、相互接続214は、リンク回路150−1にトランザクションを送る。リンク回路150−1は、リンク回路150−2にトランザクションを送る。ハードウェアアクセラレータ135−2中のMMストリームマッパは、アドレスを1000だけ減分し、1500の新しいアドレスを生じる。新しいアドレスは、1500がハードウェアアクセラレータ135−2の上側アドレス限界を超えるので、依然としてリモートである。したがって、トランザクションは、ハードウェアアクセラレータ135−3にフォワーディングされる。
For illustrative purposes, another example of a read transaction to hardware accelerator 135-3 initiated by hardware accelerator 135-1 is generally described as being initiated by the host processor. The host processor sets the remote flag for the target hardware accelerator via the runtime and driver (using the previous example, where the desired address is located at address 500 in the hardware accelerator 135-3). Determine the address of 2500. The host processor provides instructions to the hardware accelerator 135-1 to read from address 2500. Within the hardware accelerator 135-1, a transaction with 2500 addresses is presented to interconnect 214. Since the address exceeds the upper limit of the hardware accelerator 135-1, the
ハードウェアアクセラレータ135−3中のMMストリームマッパは、アドレスを減分し、500の新しいアドレスを生じる。トランザクションは、次いで、ハードウェアアクセラレータ135−3中で相互接続214を介してメモリコントローラに提供され、データがメモリ140−3から読み出される。説明される例では、アドレスは、トランザクションが、ハードウェアアクセラレータによってサービスされ得るのか、および、トランザクションがハードウェアアクセラレータによってサービスされ得る場合、トランザクションを内部的にどこにルーティングすべきか、または次のハードウェアアクセラレータにフォワーディングされるべきであるのかを決定するために、各ハードウェアアクセラレータによって使用される。特定の実施形態では、アドレスは、データがメモリから読み取られる実際のアドレスとは異なる。読み取られたデータは、説明されるように、ハードウェアアクセラレータ135−3からハードウェアアクセラレータ135−2を通してハードウェアアクセラレータ135−1に送られる。
The MM stream mapper in the hardware accelerator 135-3 decrements the address, yielding 500 new addresses. The transaction is then provided to the memory controller via
図5は、ハードウェアアクセラレータと1つまたは複数の追加のデバイスとを含むシステムの一例を示す。図5の例では、ハードウェアアクセラレータ135−1および135−2が示されており、各それぞれのハードウェアアクセラレータ中のリンク回路を使用して、アクセラレータリンクによって接続される。例示の目的で、ハードウェアアクセラレータ135−3は示されていない。システムはGPU515をも含み、GPU515は、メモリ520とI/Oデバイス525とに接続される。
FIG. 5 shows an example of a system that includes a hardware accelerator and one or more additional devices. In the example of FIG. 5, hardware accelerators 135-1 and 135-2 are shown and are connected by accelerator links using the link circuitry in each hardware accelerator. For illustrative purposes, hardware accelerators 135-3 are not shown. The system also includes a
図5の例では、GPU515は、ハードウェアアクセラレータ135−2にデータを書き込むか、またはハードウェアアクセラレータ135−2からデータを読み取り得る。この例では、ホストプロセッサ(図示せず)は、GPU515にハンドル505−Nを提供する。特定の実施形態では、ハンドルは、ファイル記述子として実装され得る。ハンドル505−Nは、バッファオブジェクト510−Nを指し得、バッファオブジェクト510−Nは、ハードウェアアクセラレータ135−2に対応する。GPU515が、読取りまたは書込み動作のためにハンドル505−Nを使用することによって、ホストプロセッサは、ハンドル505−Nに対応するバッファオブジェクト、たとえば、バッファオブジェクト510−N上でアクションを開始する。ホストプロセッサは、バッファオブジェクト510−Nがローカルであるのか、リモートであるのかを決定する。ホストプロセッサは、バッファオブジェクト510−N中のリモートフラグがセットされていないので、PCIeを介してメモリ140−2からデータを取り出し、PCIeを介してGPU515にデータを提供し得る。
In the example of FIG. 5, the
1つまたは複数の他の実施形態では、ホストプロセッサは、異なるハードウェアアクセラレータにアクセスすることによって、メモリ140−2からのデータの取出しを開始し得る。たとえば、ホストプロセッサは、メモリ140−2からデータを取り出すために、PCIeを介してハードウェアアクセラレータ135−1との通信を開始し得る。その場合、ハードウェアアクセラレータ135−1は、メモリ140−2からデータを取り出すために、リンク回路を使用してハードウェアアクセラレータ135−2と直接通信し得る。ハードウェアアクセラレータ135−1は、次いで、ホストプロセッサにデータを提供し得、ホストプロセッサは、PCIeを介してGPU515にデータを提供する。
In one or more other embodiments, the host processor may initiate the retrieval of data from memory 140-2 by accessing different hardware accelerators. For example, the host processor may initiate communication with the hardware accelerator 135-1 via PCIe to retrieve data from memory 140-2. In that case, the hardware accelerator 135-1 may communicate directly with the hardware accelerator 135-2 using a link circuit to retrieve data from memory 140-2. The hardware accelerator 135-1 may then provide the data to the host processor, which provides the data to the
別の例では、I/Oデバイス525、たとえば、カメラが、ハードウェアアクセラレータ135−1にデータを書き込み得る。その場合、ホストプロセッサは、I/Oデバイス525にハンドル505−1を提供することが可能である。ハンドル505−1は、バッファオブジェクト510−1を指し得、バッファオブジェクト510−1は、ハードウェアアクセラレータ135−1に対応する。I/Oデバイス525が、書込み動作のためにハンドル505−1を使用することによって、ホストプロセッサは、ハンドル505−1に対応するバッファオブジェクト、たとえば、バッファオブジェクト510−1上でアクションを開始する。ホストプロセッサは、バッファオブジェクト510−1がローカルであるのか、リモートであるのかを決定する。ホストプロセッサは、バッファオブジェクト510−1中のリモートフラグがセットされていないので、I/Oデバイス525からデータを受信し、メモリ140−1中への書込みおよび/またはさらなる処理のために、PCIeを介してハードウェアアクセラレータ135−1にそのようなデータを提供し得る。
In another example, an I /
1つまたは複数の実施形態では、ドライバは、説明されるようにアクセラレータリンクを使用することが可能であるハードウェアアクセラレータ間のデータ転送の場合にのみ、バッファオブジェクト内のリモートフラグをセットすることが可能である。図5は、他のタイプのデバイスが、ハードウェアアクセラレータとともに使用され得るが、そのような他のデバイスとハードウェアアクセラレータとの間のデータ転送が、バスを介して行われ、ホストプロセッサを伴うことを示す。 In one or more embodiments, the driver may set the remote flag in the buffer object only for data transfers between hardware accelerators where accelerator links can be used as described. It is possible. FIG. 5 shows that other types of devices can be used with hardware accelerators, but data transfer between such other devices and the hardware accelerators takes place over the bus and involves a host processor. Is shown.
図6は、ICのための例示的なアーキテクチャ600を示す。一態様では、アーキテクチャ600は、プログラマブルIC内に実装され得る。たとえば、アーキテクチャ600は、フィールドプログラマブルゲートアレイ(FPGA)を実装するために使用され得る。アーキテクチャ600はまた、ICのシステムオンチップ(SOC)タイプを表し得る。SOCは、プログラムコードを実行するプロセッサと、1つまたは複数の他の回路とを含むICである。他の回路は、ハードワイヤード回路、プログラマブル回路、および/またはそれらの組合せとして実装され得る。回路は、互いと、および/またはプロセッサと協働して動作し得る。
FIG. 6 shows an
図示のように、アーキテクチャ600は、いくつかの異なるタイプのプログラマブル回路、たとえば、論理、ブロックを含む。たとえば、アーキテクチャ600は、マルチギガビットトランシーバ(MGT:multi−gigabit transceiver)601、設定可能論理ブロック(CLB)602、ランダムアクセスメモリブロック(BRAM)603、入出力ブロック(IOB)604、設定およびクロッキング論理(CONFIG/CLOCKS)605、デジタル信号処理ブロック(DSP)606、特殊なI/Oブロック607(たとえば、設定ポートおよびクロックポート)、ならびにデジタルクロックマネージャ、アナログデジタル変換器、システム監視論理などの他のプログラマブル論理608を含む、多数の異なるプログラマブルタイルを含み得る。
As shown, the
いくつかのICでは、各プログラマブルタイルは、プログラマブル相互接続要素(INT)611を含み、INT611は、各隣接するタイル中の対応するINT611との間の規格化された接続を有する。したがって、INT611は、まとめると、示されているICのためのプログラマブル相互接続構造を実装する。各INT611は、図6の上部に含まれる例によって示されているように、同じタイル内のプログラマブル論理要素との間の接続をも含む。
In some ICs, each programmable tile contains a programmable interconnect element (INT) 611, which has a standardized connection to and from the
たとえば、CLB602は、ユーザ論理を実装するようにプログラムされ得る設定可能論理要素(CLE)612と、単一のINT611とを含み得る。BRAM603は、1つまたは複数のINT611に加えてBRAM論理要素(BRL)613を含み得る。一般的に、タイル中に含まれるINT611の数は、タイルの高さに依存する。描かれているように、BRAMタイルは、5つのCLBと同じ高さを有するが、他の数(たとえば、4つ)も使用され得る。DSPタイル606は、適切な数のINT611に加えてDSP論理要素(DSPL)614を含み得る。IOB604は、たとえば、INT611の1つのインスタンスに加えてI/O論理要素(IOL)615の2つのインスタンスを含み得る。IOL615に接続された実際のI/Oパッドは、IOL615のエリアに制限されないことがある。
For example, CLB602 may include a configurable logic element (CLE) 612, which may be programmed to implement user logic, and a single INT611. The
図6に描かれている例では、ダイの中心の近くの、たとえば、領域605、607、および608から形成された、列状エリアが、設定、クロック、および他の制御論理のために使用され得る。この列から延びる水平エリア609が、プログラマブルICの幅にわたってクロックおよび設定信号を分散させるために使用され得る。
In the example depicted in FIG. 6, a columnar area near the center of the die, for example formed from
図6に示されているアーキテクチャを利用するいくつかのICは、ICの大部分を作り上げる規則的な列状構造を損なう追加の論理ブロックを含む。追加の論理ブロックは、プログラマブルブロックおよび/または専用回路であり得る。たとえば、PROC610として示されているプロセッサブロックが、CLBおよびBRAMのいくつかの列にまたがる。 Some ICs utilizing the architecture shown in FIG. 6 include additional logical blocks that compromise the regular sequence structure that makes up most of the ICs. Additional logic blocks can be programmable blocks and / or dedicated circuits. For example, the processor block, designated as PROC610, spans several columns of CLB and BRAM.
一態様では、PROC610は、ICのプログラマブル回路を実装するダイの一部として作製される専用回路として、たとえば、ハードワイヤードプロセッサとして実装され得る。PROC610は、個々のプロセッサ、たとえば、プログラムコードを実行することが可能な単一のコアから、1つまたは複数のコア、モジュール、コプロセッサ、インターフェースなどを有するプロセッサシステム全体まで、複雑さに幅がある様々な異なるプロセッサタイプおよび/またはシステムのいずれかを表し得る。 In one aspect, the PROC610 can be implemented as a dedicated circuit made as part of a die that implements a programmable circuit of an IC, for example as a hardwired processor. The PROC610 ranges in complexity from individual processors, such as a single core capable of executing program code, to an entire processor system with one or more cores, modules, coprocessors, interfaces, and so on. It can represent any of a variety of different processor types and / or systems.
別の態様では、PROC610は、アーキテクチャ600から省略され、説明されるプログラマブルブロックの他の種類のうちの1つまたは複数と置き換えられ得る。さらに、そのようなブロックは、PROC610の場合のようにプログラムコードを実行することができるプロセッサを形成するためにプログラマブル回路の様々なブロックが使用され得るという点で、「ソフトプロセッサ」を形成するために利用され得る。
In another aspect, PROC610 can be omitted from
「プログラマブル回路」という句は、IC内のプログラマブル回路要素、たとえば、本明細書で説明される様々なプログラマブルまたは設定可能回路ブロックまたはタイル、ならびに、ICにロードされた設定データに従って様々な回路ブロック、タイル、および/または要素を選択的に結合する相互接続回路を指す。たとえば、CLB602およびBRAM603など、PROC610の外部にある、図6に示されている回路ブロックは、ICのプログラマブル回路と見なされる。 The phrase "programmable circuit" refers to programmable circuit elements within an IC, such as the various programmable or configurable circuit blocks or tiles described herein, as well as the various circuit blocks according to the configuration data loaded into the IC. Refers to an interconnect circuit that selectively connects tiles and / or elements. For example, the circuit blocks shown in FIG. 6 outside the PROC610, such as CLB602 and BRAM603, are considered as programmable circuits of the IC.
概して、プログラマブル回路の機能性は、設定データがICにロードされるまで確立されない。FPGAなど、ICのプログラマブル回路をプログラムするために、設定ビットのセットが使用され得る。(1つまたは複数の)設定ビットは、一般に、「設定ビットストリーム」と呼ばれる。概して、プログラマブル回路は、設定ビットストリームをICに最初にロードしなければ、動作可能でないか、または機能可能でない。設定ビットストリームは、プログラマブル回路内に特定の回路設計を効果的に実装する。回路設計は、たとえば、プログラマブル回路ブロックの機能的態様と、様々なプログラマブル回路ブロックの間の物理的接続性とを指定する。 In general, the functionality of a programmable circuit is not established until the configuration data is loaded into the IC. A set of set bits can be used to program programmable circuits of ICs, such as FPGAs. Setting bits (one or more) are commonly referred to as "setting bitstreams". In general, a programmable circuit is not operational or non-functional without first loading the set bitstream into the IC. The set bitstream effectively implements a particular circuit design within the programmable circuit. The circuit design specifies, for example, the functional aspects of the programmable circuit block and the physical connectivity between the various programmable circuit blocks.
「ハードワイヤード」または「ハード化(harden)」される、すなわち、プログラマブルでない回路が、ICの一部として製造される。プログラマブル回路とは異なり、ハードワイヤード回路または回路ブロックは、設定ビットストリームのローディングを通してICの製造後に実装されない。ハードワイヤード回路は、概して、たとえば、設定ビットストリームを、IC、たとえば、PROC610に最初にロードすることなしに機能可能である、専用回路ブロックおよび相互接続を有すると見なされる。 Circuits that are "hard-wired" or "hardened," that is, non-programmable, are manufactured as part of the IC. Unlike programmable circuits, hard-wired circuits or circuit blocks are not implemented after the IC is manufactured through the loading of the set bitstream. Hardwired circuits are generally considered to have dedicated circuit blocks and interconnects that can function, for example, without first loading a set bitstream into an IC, eg, PROC610.
いくつかの事例では、ハードワイヤード回路は、IC内の1つまたは複数のメモリ要素に記憶されたレジスタセッティングまたは値に従ってセットまたは選択され得る1つまたは複数の動作モードを有し得る。動作モードは、たとえば、ICへの設定ビットストリームのローディングを通してセットされ得る。この能力にもかかわらず、ハードワイヤード回路が、ICの一部として製造されたとき、動作可能であり、特定の機能を有するので、ハードワイヤード回路はプログラマブル回路と見なされない。 In some cases, the hardwired circuit may have one or more modes of operation that can be set or selected according to register settings or values stored in one or more memory elements in the IC. The operating mode can be set, for example, through the loading of the set bitstream into the IC. Despite this capability, hardwired circuits are not considered programmable circuits because they are operational and have specific functionality when manufactured as part of an IC.
SOCの場合、設定ビットストリームは、プログラマブル回路内に実装されるべきである回路と、PROC610またはソフトプロセッサによって実行されるべきであるプログラムコードとを指定し得る。いくつかの場合には、アーキテクチャ600は、適切な設定メモリおよび/またはプロセッサメモリに設定ビットストリームをロードする専用設定プロセッサを含む。専用設定プロセッサは、ユーザ指定のプログラムコードを実行しない。他の場合には、アーキテクチャ600は、設定ビットストリームを受信し、設定ビットストリームを適切な設定メモリにロードし、および/または実行のためのプログラムコードを抽出するために、PROC610を利用し得る。
In the case of SOC, the set bitstream may specify the circuit to be implemented in the programmable circuit and the program code to be executed by the PROC610 or soft processor. In some cases,
図6は、プログラマブル回路、たとえば、プログラマブルファブリックを含むICを実装するために使用され得る例示的なアーキテクチャを示すことを意図される。たとえば、1つの列中の論理ブロックの数、列の相対幅、列の数および順序、列中に含まれる論理ブロックのタイプ、論理ブロックの相対サイズ、および図6の上部に含まれる相互接続/論理実装形態は、例示にすぎない。実際のICでは、たとえば、CLBの2つ以上の隣接する列は、一般に、ユーザ回路設計の効率的な実装を容易にするために、CLBが現れるところならどこでも含まれる。しかしながら、隣接するCLB列の数は、ICの全体的サイズとともに変動し得る。さらに、IC内のPROC610などのブロックのサイズおよび/または配置は、例示のためのものにすぎず、限定として意図されていない。 FIG. 6 is intended to show an exemplary architecture that can be used to implement programmable circuits, eg, ICs that include programmable fabrics. For example, the number of logical blocks in a column, the relative width of the columns, the number and order of columns, the types of logical blocks contained in a column, the relative size of logical blocks, and the interconnects included at the top of FIG. The logical implementation form is only an example. In a real IC, for example, two or more adjacent columns of CLBs are generally included wherever CLBs appear to facilitate efficient implementation of user circuit design. However, the number of adjacent CLB columns can vary with the overall size of the IC. Moreover, the size and / or placement of blocks such as PROC610 within the IC is for illustration purposes only and is not intended as a limitation.
アーキテクチャ600は、本明細書で説明されるようなハードウェアアクセラレータを実装するために使用され得る。特定の実施形態では、エンドポイント、リンク回路、およびメモリコントローラのうちの1つまたは複数または各々が、ハードワイヤード回路ブロックとして実装され得る。特定の実施形態では、エンドポイント、リンク回路、およびメモリコントローラのうちの1つまたは複数または各々が、プログラマブル回路を使用して実装され得る。さらに他の実施形態では、言及される回路ブロックのうちの1つまたは複数は、ハードワイヤード回路ブロックとして実装され得、他のものは、プログラマブル回路を使用して実装される。
本開示内で説明される実施形態は、たとえば、データベースアクセラレーション、複数のビデオストリームを処理すること、リアルタイムネットワークトラフィック監視、機械学習、または複数のハードウェアアクセラレータを伴い得る任意の他の適用例など、様々な適用例のいずれかにおいて使用され得る。 The embodiments described herein include, for example, database acceleration, processing multiple video streams, real-time network traffic monitoring, machine learning, or any other application that may involve multiple hardware accelerators. , Can be used in any of various applications.
説明のために、特定の名称が、本明細書で開示される様々な発明概念の完全な理解を提供するために記載される。しかしながら、本明細書で使用される専門用語は、本発明の構成の特定の態様を説明するためのものにすぎず、限定するものではない。 For illustration purposes, specific names are given to provide a complete understanding of the various invention concepts disclosed herein. However, the terminology used herein is merely for explaining certain aspects of the configuration of the present invention and is not limiting.
本明細書で定義される単数形「a」、「an」および「the」は、文脈が別段に明確に指示するのでなければ、複数形をも含むものとする。 The singular forms "a", "an" and "the" as defined herein shall also include the plural, unless the context specifically dictates otherwise.
本明細書で定義される「約」という用語は、正確ではないが、ほぼ正しいまたは厳密である、値または量が近い、を意味する。たとえば、「約」という用語は、具陳された特性、パラメータ、または値が、厳密な特性、パラメータ、または値の所定の量内にあることを意味し得る。 The term "about" as defined herein means inaccurate, but nearly correct or exact, close in value or quantity. For example, the term "about" can mean that the specified property, parameter, or value is within a predetermined quantity of exact property, parameter, or value.
本明細書で定義される「少なくとも1つ」、「1つまたは複数」、および「および/または」という用語は、別段に明記されていない限り、運用において連言的と選言的の両方である、オープンエンド表現である。たとえば、「A、B、およびCのうちの少なくとも1つ」、「A、B、またはCのうちの少なくとも1つ」、「A、B、およびCのうちの1つまたは複数」、「A、B、またはCのうちの1つまたは複数」、および「A、B、および/またはC」という表現の各々は、Aのみ、Bのみ、Cのみ、AとBを一緒に、AとCを一緒に、BとCを一緒に、またはAとBとCを一緒に、を意味する。 The terms "at least one," "one or more," and "and / or" as defined herein are both conjunctive and selective in operation, unless otherwise stated. There is an open-ended expression. For example, "at least one of A, B, and C", "at least one of A, B, or C", "one or more of A, B, and C", "A. , B, or C, and each of the expressions "A, B, and / or C" are A only, B only, C only, A and B together, A and C. Means together, B and C together, or A, B and C together.
本明細書で定義される「自動的に」という用語は、ユーザ介入なしに、を意味する。本明細書で定義される「ユーザ」という用語は、人間を意味する。 The term "automatically" as defined herein means without user intervention. The term "user" as defined herein means human.
本明細書で定義される「コンピュータ可読記憶媒体」という用語は、命令実行システム、装置、またはデバイスが使用するための、あるいはそれとともに使用するためのプログラムコードを含んでいるかまたは記憶する記憶媒体を意味する。本明細書で定義される「コンピュータ可読記憶媒体」は、それ自体は、一時的な伝搬信号でない。コンピュータ可読記憶媒体は、限定はしないが、電子記憶デバイス、磁気記憶デバイス、光記憶デバイス、電磁記憶デバイス、半導体記憶デバイス、または上記の任意の好適な組合せであり得る。本明細書で説明される、様々な形態のメモリが、コンピュータ可読記憶媒体の例である。コンピュータ可読記憶媒体のより具体的な例の非網羅的なリストは、ポータブルコンピュータディスケット、ハードディスク、RAM、読取り専用メモリ(ROM)、消去可能プログラマブル読取り専用メモリ(EPROMまたはフラッシュメモリ)、電子的消去可能プログラマブル読取り専用メモリ(EEPROM)、スタティックランダムアクセスメモリ(SRAM)、ポータブルコンパクトディスク読取り専用メモリ(CD−ROM)、デジタル多用途ディスク(DVD)、メモリスティック、フロッピーディスクなどを含み得る。 The term "computer-readable storage medium" as defined herein refers to a storage medium that contains or stores program code for or with use by an instruction execution system, device, or device. means. The "computer-readable storage medium" as defined herein is not itself a transient propagating signal. The computer-readable storage medium can be, but is not limited to, an electronic storage device, a magnetic storage device, an optical storage device, an electromagnetic storage device, a semiconductor storage device, or any suitable combination described above. The various forms of memory described herein are examples of computer-readable storage media. A non-exhaustive list of more specific examples of computer-readable storage media is portable computer disksets, hard disks, RAM, read-only memory (ROM), erasable programmable read-only memory (EPROM or flash memory), electronically erasable. It may include programmable read-only memory (EEPROM), static random access memory (SRAM), portable compact disk read-only memory (CD-ROM), digital versatile disk (DVD), memory sticks, floppy disks and the like.
本明細書で定義される「する場合(if)」という用語は、文脈に応じて、「するとき(when)」または「すると(upon)」または「に応答して(in response to)」または「に反応して(responsive to)」を意味する。したがって、「それが決定された場合」または「[述べられた条件またはイベント]が検出された場合」という句は、文脈に応じて、「決定すると」または「決定したことに応答して」あるいは「[述べられた条件またはイベント]を検出すると」または「[述べられた条件またはイベント]を検出したことに応答して」または「[述べられた条件またはイベント]を検出したことに反応して」を意味すると解釈され得る。 The term "if" as defined herein means "when" or "upon" or "in response to" or, depending on the context. It means "responsive to". Therefore, the phrase "if it is determined" or "if [stated condition or event] is detected" may be "determined" or "in response to the decision" or, depending on the context. "When [stated condition or event] is detected" or "in response to [stated condition or event] detected" or "in response to [stated condition or event] detected" Can be interpreted as meaning.
本明細書で定義される「に反応して」という用語および上記で説明されたような同様の言い回し、たとえば、「する場合」、「するとき」、または「すると」は、アクションまたはイベントに容易に応答または反応することを意味する。応答または反応は、自動的に実施される。したがって、第2のアクションが第1のアクション「に反応して」実施される場合、第1のアクションの発生と第2のアクションの発生との間に因果関係がある。「に反応して」という用語は、因果関係を指示する。 The term "in response" as defined herein and similar phrases as described above, such as "when", "when", or "to", are easy for an action or event. Means to respond to or react to. The response or response is automatic. Therefore, when the second action is performed "in response to" the first action, there is a causal relationship between the occurrence of the first action and the occurrence of the second action. The term "in response" indicates a causal relationship.
本明細書で定義される「一実施形態(one embodiment)」、「一実施形態(an embodiment)」、「1つまたは複数の実施形態」、「特定の実施形態」という用語、または同様の言い回しは、実施形態に関して説明される特定の特徴、構造、または特性が、本開示内で説明される少なくとも1つの実施形態に含まれることを意味する。したがって、本開示全体にわたる、「一実施形態では(in one embodiment)」、「一実施形態では(in an embodiment)」、「1つまたは複数の実施形態では」、「特定の実施形態では」という句、および同様の言い回しの出現は、必ずしもそうとは限らないが、すべて、同じ実施形態を指し得る。「実施形態」および「構成」という用語は、本開示内では互換的に使用される。 The terms "one embodied", "an embodied", "one or more embodiments", "specific embodiments", or similar terms as defined herein. Means that a particular feature, structure, or property described with respect to an embodiment is included in at least one embodiment described herein. Thus, throughout the disclosure, "in one embodied," "in an embodied," "in one or more embodiments," and "in a particular embodiment." The appearance of phrases and similar phrases can all, but not necessarily, refer to the same embodiment. The terms "embodiment" and "configuration" are used interchangeably within this disclosure.
本明細書で定義される「プロセッサ」という用語は、少なくとも1つのハードウェア回路を意味する。ハードウェア回路は、プログラムコード中に含まれている命令を行うように設定され得る。ハードウェア回路は集積回路であり得る。プロセッサの例は、限定はしないが、中央処理ユニット(CPU)、アレイプロセッサ、ベクトルプロセッサ、デジタル信号プロセッサ(DSP)、FPGA、プログラマブル論理アレイ(PLA)、ASIC、プログラマブル論理回路、およびコントローラを含む。 The term "processor" as defined herein means at least one hardware circuit. Hardware circuits can be configured to perform the instructions contained in the program code. The hardware circuit can be an integrated circuit. Examples of processors include, but are not limited to, central processing units (CPUs), array processors, vector processors, digital signal processors (DSPs), FPGAs, programmable logic arrays (PLAs), ASICs, programmable logic circuits, and controllers.
本明細書で定義される「出力」という用語は、物理メモリ要素、たとえば、デバイスに記憶すること、ディスプレイまたは他の周辺出力デバイスに書き込むこと、別のシステムに送ることまたは送信すること、エクスポートすることなどを意味する。 The term "output" as defined herein refers to a physical memory element, such as storing in a device, writing to a display or other peripheral output device, sending or sending to another system, or exporting. It means things like that.
本明細書で定義される「リアルタイム」という用語は、ユーザまたはシステムが、特定のプロセスまたは決定が行われるのに十分に即時であると感じる、あるいは、プロセッサが、何らかの外部プロセスについていくことを可能にする、処理応答性のレベルを意味する。 The term "real time" as defined herein allows a user or system to feel immediate enough for a particular process or decision to be made, or to allow a processor to keep up with some external process. Means the level of processing responsiveness.
本明細書で定義される「実質的に」という用語は、具陳された特性、パラメータ、または値が正確に達成される必要がないこと、ただし、たとえば、当業者に知られている許容差、測定誤差、測定精度限界、および他のファクタを含む、偏差または変動が、特性が提供することを意図された効果を妨げない量で生じ得ることを意味する。 The term "substantially" as defined herein means that the specified properties, parameters, or values do not need to be achieved exactly, but for example, tolerances known to those skilled in the art. It means that deviations or variations, including measurement errors, measurement accuracy limits, and other factors, can occur in quantities that do not interfere with the effect the property is intended to provide.
第1の、第2のなどの用語は、様々な要素を説明するために本明細書で使用され得る。これらの用語は、別段に述べられていない限り、または文脈が別段に明確に指示しない限り、ある要素を別の要素と区別するために使用されるにすぎないので、これらの要素はこれらの用語によって限定されるべきでない。 Terms such as first and second can be used herein to describe various elements. These terms are used only to distinguish one element from another, unless otherwise stated or the context specifically dictates otherwise. Should not be limited by.
コンピュータプログラム製品は、プロセッサに本明細書で説明される本発明の構成の態様を行わせるためのコンピュータ可読プログラム命令をその上に有する(1つまたは複数の)コンピュータ可読記憶媒体を含み得る。本開示内では、「プログラムコード」という用語は、「コンピュータ可読プログラム命令」という用語と互換的に使用される。本明細書で説明されるコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体からそれぞれのコンピューティング/処理デバイスに、あるいはネットワーク、たとえば、インターネット、LAN、WANおよび/またはワイヤレスネットワークを介して外部コンピュータまたは外部記憶デバイスにダウンロードされ得る。ネットワークは、銅伝送ケーブル、光伝送ファイバー、ワイヤレス送信、ルータ、ファイアウォール、スイッチ、ゲートウェイコンピュータ、および/またはエッジサーバを含むエッジデバイスを含み得る。各コンピューティング/処理デバイス中のネットワークアダプタカードまたはネットワークインターフェースは、ネットワークからコンピュータ可読プログラム命令を受信し、そのコンピュータ可読プログラム命令を、それぞれのコンピューティング/処理デバイス内のコンピュータ可読記憶媒体に記憶するためにフォワーディングする。 Computer program products may include computer-readable storage media (s) on which computer-readable program instructions for causing a processor to perform aspects of the configuration of the invention described herein. Within this disclosure, the term "program code" is used interchangeably with the term "computer-readable program instructions." The computer-readable program instructions described herein are external computers or external storage from computer-readable storage media to their respective computing / processing devices or via networks such as the Internet, LAN, WAN and / or wireless networks. Can be downloaded to your device. The network may include edge devices including copper transmission cables, optical transmission fibers, wireless transmissions, routers, firewalls, switches, gateway computers, and / or edge servers. A network adapter card or network interface in each computing / processing device receives computer-readable program instructions from the network and stores the computer-readable program instructions in a computer-readable storage medium in each computing / processing device. Forward to.
本明細書で説明される本発明の構成のための動作を行うためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、機械命令、機械依存命令、マイクロコード、ファームウェア命令、あるいは、オブジェクト指向プログラミング言語および/または手続き型プログラミング言語を含む1つまたは複数のプログラミング言語の任意の組合せで書き込まれたソースコードまたはオブジェクトコードのいずれかであり得る。コンピュータ可読プログラム命令は、状態セッティングデータを含み得る。コンピュータ可読プログラム命令は、完全にユーザのコンピュータ上で、部分的にユーザのコンピュータ上で、スタンドアロンソフトウェアパッケージとして、部分的にユーザのコンピュータ上でおよび部分的にリモートコンピュータ上で、あるいは完全にリモートコンピュータまたはサーバ上で実行し得る。後者のシナリオでは、リモートコンピュータは、LANまたはWANを含む任意のタイプのネットワークを通してユーザのコンピュータに接続され得るか、あるいは接続は、(たとえば、インターネットサービスプロバイダを使用してインターネットを通して)外部コンピュータに対して行われ得る。いくつかの場合には、たとえば、プログラマブル論理回路、FPGA、またはPLAを含む電子回路が、本明細書で説明される本発明の構成の態様を実施するために、電子回路を個人化するためにコンピュータ可読プログラム命令の状態情報を利用することによって、コンピュータ可読プログラム命令を実行し得る。 The computer-readable program instructions for performing the operations for the configuration of the invention described herein are assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine dependent instructions, microcode, firmware instructions, or It can be either source code or object code written in any combination of one or more programming languages, including an object-oriented programming language and / or a procedural programming language. Computer-readable program instructions may include state setting data. Computer-readable program instructions are entirely on the user's computer, partially on the user's computer, as a stand-alone software package, partially on the user's computer and partially on the remote computer, or entirely on the remote computer. Or it can be run on the server. In the latter scenario, the remote computer can be connected to the user's computer through any type of network, including LAN or WAN, or the connection can be made to an external computer (eg, through the Internet using an Internet service provider). Can be done. In some cases, for example, an electronic circuit, including a programmable logic circuit, FPGA, or PLA, is used to personalize the electronic circuit in order to implement the aspects of the configuration of the invention described herein. Computer-readable program instructions can be executed by using the state information of computer-readable program instructions.
本発明の構成のいくつかの態様が、方法、装置(システム)、およびコンピュータプログラム製品のフローチャート例示図および/またはブロック図を参照しながら本明細書で説明された。フローチャート例示図および/またはブロック図の各ブロック、ならびにフローチャートの例示図および/またはブロック図中のブロックの組合せが、コンピュータ可読プログラム命令、たとえば、プログラムコードによって実装され得ることを理解されよう。 Some aspects of the configuration of the present invention have been described herein with reference to flow chart exemplary and / or block diagrams of methods, devices (systems), and computer program products. It will be appreciated that each block of the flowchart and / or block diagram, and the combination of blocks in the flowchart and / or block diagram, can be implemented by computer-readable program instructions, such as program code.
これらのコンピュータ可読プログラム命令は、汎用コンピュータ、専用コンピュータ、または機械を製造するための他のプログラマブルデータ処理装置のプロセッサに与えられ得、その結果、コンピュータまたは他のプログラマブルデータ処理装置のプロセッサを介して実行する命令は、フローチャートおよび/またはブロック図の1つまたは複数のブロックにおいて指定された関数/行為を実装するための手段を作成する。これらのコンピュータ可読プログラム命令はまた、コンピュータ、プログラマブルデータ処理装置、および/または他のデバイスに特定の様式で機能するように指示することができるコンピュータ可読記憶媒体に記憶され得、その結果、命令が記憶されたコンピュータ可読記憶媒体は、フローチャートおよび/またはブロック図の1つまたは複数のブロックにおいて指定された動作の態様を実装する命令を含む製造品を備える。 These computer-readable program instructions can be given to a general purpose computer, a dedicated computer, or the processor of another programmable data processor for manufacturing the machine, and as a result, through the processor of the computer or other programmable data processor. The command to be executed creates means for implementing the specified function / action in one or more blocks of the flowchart and / or block diagram. These computer-readable program instructions can also be stored on a computer-readable storage medium that can instruct the computer, programmable data processor, and / or other device to function in a particular manner, so that the instructions are The stored computer-readable storage medium comprises a product containing instructions that implement the specified mode of operation in one or more blocks of the flowchart and / or block diagram.
コンピュータ可読プログラム命令はまた、コンピュータ実装プロセスを作り出すために、一連の動作をコンピュータ、他のプログラマブルデータ処理装置または他のデバイス上で実施させるように、コンピュータ、他のプログラマブル装置、または他のデバイスにロードされ得、その結果、コンピュータ、他のプログラマブル装置、または他のデバイス上で実行する命令は、フローチャートおよび/またはブロック図の1つまたは複数のブロックにおいて指定された機能/行為を実装する。 Computer-readable program instructions also cause a computer, other programmable device, or other device to perform a series of operations on a computer, other programmable data processor, or other device to create a computer-implemented process. Instructions that can be loaded and thus executed on a computer, other programmable device, or other device implement the specified function / action in one or more blocks of flowcharts and / or block diagrams.
図中のフローチャートおよびブロック図は、本発明の構成の様々な態様によるシステム、方法、およびコンピュータプログラム製品の可能な実装形態のアーキテクチャ、機能性、および動作を示す。この点について、フローチャートまたはブロック図中の各ブロックは、指定された動作を実装するための1つまたは複数の実行可能な命令を備える、命令のモジュール、セグメント、または部分を表し得る。 Flowcharts and block diagrams in the drawings show the architecture, functionality, and behavior of possible implementations of systems, methods, and computer program products in various aspects of the configuration of the present invention. In this regard, each block in the flowchart or block diagram may represent a module, segment, or portion of an instruction that comprises one or more executable instructions to implement the specified operation.
いくつかの代替実装形態では、ブロック中で言及される動作は、図中で言及される順序から外れて行われ得る。たとえば、関与する機能性に応じて、連続して示されている2つのブロックが、実質的に同時に実行され得るか、またはブロックが、時々、逆の順序で実行され得る。他の例では、ブロックは、概して小さい数字から順に実施され得、さらに他の例では、1つまたは複数のブロックは、変動順で実施され得、結果は、記憶され、後続の、または直後にこない他のブロックにおいて利用される。また、ブロック図および/またはフローチャート例示図の各ブロック、ならびにブロック図および/またはフローチャート例示図中のブロックの組合せが、指定された機能または行為を実施するかあるいは専用ハードウェアとコンピュータ命令との組合せを行う専用ハードウェアベースシステムによって実装され得ることに留意されたい。 In some alternative implementations, the actions mentioned in the block may occur out of the order mentioned in the figure. For example, depending on the functionality involved, two blocks shown in succession can be executed substantially simultaneously, or the blocks can sometimes be executed in reverse order. In another example, the blocks can generally be performed in ascending order, and in yet another example, one or more blocks can be performed in variable order, and the results are stored and subsequently or immediately after. It is used in other blocks that do not come. In addition, each block of the block diagram and / or the flowchart example diagram, and the combination of the blocks in the block diagram and / or the flowchart example diagram perform the specified function or action, or the combination of the dedicated hardware and the computer instruction. Note that it can be implemented by a dedicated hardware-based system that does.
以下の特許請求の範囲において見られ得るすべての手段またはステップおよび機能要素の対応する構造、材料、行為、および等価物は、機能を実施するための任意の構造、材料、または行為を一体となって含むことを意図される。 Corresponding structures, materials, acts, and equivalents of all means or steps and functional elements that may be found in the claims below integrate any structure, material, or act to perform a function. Is intended to be included.
1つまたは複数の実施形態では、システムが、通信バスに接続されたホストプロセッサと、通信バスを通してホストプロセッサに通信可能にリンクされた第1のハードウェアアクセラレータと、通信バスを通してホストプロセッサに通信可能にリンクされた第2のハードウェアアクセラレータとを含み得る。第1のハードウェアアクセラレータと第2のハードウェアアクセラレータとは、通信バスから独立したアクセラレータリンクを通して直接接続される。ホストプロセッサは、アクセラレータリンクを直接通した、第1のハードウェアアクセラレータと第2のハードウェアアクセラレータとの間のデータ転送を開始するように設定される。 In one or more embodiments, the system can communicate to the host processor through the communication bus with a host processor connected to the communication bus and a first hardware accelerator linked to the host processor so that it can communicate through the communication bus. It may include a second hardware accelerator linked to. The first hardware accelerator and the second hardware accelerator are directly connected through an accelerator link independent of the communication bus. The host processor is configured to initiate data transfer between the first hardware accelerator and the second hardware accelerator directly through the accelerator link.
一態様では、ホストプロセッサは、通信バスを介して第1のハードウェアアクセラレータおよび第2のハードウェアアクセラレータと通信するように設定される。 In one aspect, the host processor is configured to communicate with the first hardware accelerator and the second hardware accelerator via the communication bus.
別の態様では、データ転送は、第1のハードウェアアクセラレータが、アクセラレータリンクを通して第2のハードウェアアクセラレータのメモリにアクセスすることを含む。 In another aspect, data transfer involves the first hardware accelerator accessing the memory of the second hardware accelerator through the accelerator link.
別の態様では、ホストプロセッサは、ターゲットアドレスを含むデータを第1のハードウェアアクセラレータに送ることによって第2のハードウェアアクセラレータのメモリにアクセスするように設定され、ターゲットアドレスは、第2のハードウェアアクセラレータに対応するようにホストプロセッサによって変換され、第1のハードウェアアクセラレータは、ターゲットアドレスに基づいて、アクセラレータリンクを介して第2のハードウェアアクセラレータのメモリにアクセスするためのトランザクションを開始する。 In another aspect, the host processor is configured to access the memory of the second hardware accelerator by sending data containing the target address to the first hardware accelerator, where the target address is the second hardware. Translated by the host processor to correspond to the accelerator, the first hardware accelerator initiates a transaction to access the memory of the second hardware accelerator over the accelerator link based on the target address.
別の態様では、第2のハードウェアアクセラレータは、アクセラレータリンクを介してトランザクションを受信したことに応答して、第2のハードウェアアクセラレータについてのアドレス範囲の上限だけ、データ転送についてのターゲットアドレスを減分することと、減分されたターゲットアドレスがローカルであるかどうかを決定することとを行うように設定される。 In another aspect, the second hardware accelerator decrements the target address for data transfer by the upper limit of the address range for the second hardware accelerator in response to receiving a transaction over the accelerator link. It is set to divide and determine if the decremented target address is local.
別の態様では、ホストプロセッサは、通信バスに接続された第2のハードウェアアクセラレータの直接メモリアクセス回路のステータスに基づいて、第1のハードウェアアクセラレータと第2のハードウェアアクセラレータとの間のデータ転送を開始するように設定される。 In another aspect, the host processor receives data between the first hardware accelerator and the second hardware accelerator based on the status of the direct memory access circuit of the second hardware accelerator connected to the communication bus. Set to start the transfer.
別の態様では、ホストプロセッサは、リングトポロジーにおいて第1のハードウェアアクセラレータおよび第2のハードウェアアクセラレータのシーケンスを自動的に決定するように設定される。 In another aspect, the host processor is configured to automatically determine the sequence of the first hardware accelerator and the second hardware accelerator in the ring topology.
別の態様では、ホストプロセッサは、リモートバッファフラグを使用して、第1のハードウェアアクセラレータおよび第2のハードウェアアクセラレータに対応するバッファを追跡するように設定される。 In another aspect, the host processor is configured to use the remote buffer flag to track the buffers corresponding to the first hardware accelerator and the second hardware accelerator.
1つまたは複数の実施形態では、ハードウェアアクセラレータは、通信バスを介してホストプロセッサと通信するように設定されたエンドポイントと、ハードウェアアクセラレータにローカルなメモリに接続されたメモリコントローラと、エンドポイントとメモリコントローラとに接続されたリンク回路とを含み得る。リンク回路は、通信バスにも接続されたターゲットハードウェアアクセラレータとのアクセラレータリンクを確立するように設定される。アクセラレータリンクは、通信バスから独立した、ハードウェアアクセラレータとターゲットハードウェアアクセラレータとの間の直接接続である。 In one or more embodiments, the hardware accelerator is an endpoint configured to communicate with the host processor over a communication bus, a memory controller connected to memory local to the hardware accelerator, and an endpoint. And a link circuit connected to the memory controller. The link circuit is configured to establish an accelerator link with a target hardware accelerator that is also connected to the communication bus. Accelerator links are direct connections between a hardware accelerator and a target hardware accelerator, independent of the communication bus.
リンク回路は、アクセラレータリンクを介したターゲットハードウェアアクセラレータとのデータ転送を開始するように設定され、データ転送は、通信バスを介してハードウェアアクセラレータによって受信されたホストプロセッサからの命令に応答して行われる。 The link circuit is configured to initiate data transfer with the target hardware accelerator over the accelerator link, which is in response to instructions from the host processor received by the hardware accelerator over the communication bus. Will be done.
別の態様では、リンク回路は、第1のメモリマップ−ストリームマッパ回路と、第2のメモリマップ−ストリームマッパ回路とを含み、各々は、データストリームをメモリをマッピングされたトランザクションに、およびメモリマッピングされたトランザクションをデータストリームにコンバートするように設定される。 In another aspect, the link circuit comprises a first memory map-stream mapper circuit and a second memory map-stream mapper circuit, each of which translates the data stream into a memory-mapped transaction and memory-mapped. It is set to convert the executed transaction to a data stream.
別の態様では、各メモリマップ−ストリームマッパ回路は、ハードウェアアクセラレータのアドレス範囲の上限だけ、受信されたトランザクションにおいてターゲットアドレスを減分するように設定される。 In another aspect, each memory map-stream mapper circuit is configured to decrement the target address in received transactions by the upper bound of the hardware accelerator's address range.
別の態様では、リンク回路は、ストリームデータを送るおよび受信するように設定された第1のトランシーバと、第1のトランシーバと第1のメモリマップ−ストリームマッパ回路とに接続された第1の再送信エンジンとを含む。 In another aspect, the link circuit is a first transceiver configured to send and receive stream data, and a first re-connected to the first transceiver and the first memory map-stream mapper circuit. Including transmission engine.
別の態様では、リンク回路は、ストリームデータを送るおよび受信するように設定された第2のトランシーバと、第2のトランシーバと第2のメモリマップ−ストリームマッパ回路とに接続された第2の再送信エンジンとをさらに含む。 In another aspect, the link circuit is a second transceiver configured to send and receive stream data and a second re-connected to the second transceiver and the second memory map-stream mapper circuit. Further includes a transmission engine.
1つまたは複数の実施形態では、方法が、第1のハードウェアアクセラレータ内で、通信バスを介してホストプロセッサから送られた命令とデータ転送についてのターゲットアドレスとを受信することと、第1のハードウェアアクセラレータが、ターゲットアドレスを、第1のハードウェアアクセラレータに対応するアドレス範囲の上限と比較することと、比較することに基づいてターゲットアドレスがアドレス範囲を超えると決定したことに応答して、第1のハードウェアアクセラレータが、第1のハードウェアアクセラレータと第2のハードウェアアクセラレータとを直接接続するアクセラレータリンクを使用してデータ転送を実施するために、第2のハードウェアアクセラレータとのトランザクションを開始することとを含み得る。 In one or more embodiments, the method is to receive an instruction sent from a host processor over a communication bus and a target address for data transfer within the first hardware accelerator, and the first. In response to the hardware accelerator comparing the target address with the upper bound of the address range corresponding to the first hardware accelerator and determining that the target address exceeds the address range based on the comparison. A first hardware accelerator performs a transaction with a second hardware accelerator in order to perform a data transfer using an accelerator link that directly connects the first hardware accelerator and the second hardware accelerator. It can include starting.
別の態様では、アクセラレータリンクは通信バスから独立している。 In another aspect, the accelerator link is independent of the communication bus.
別の態様では、トランザクションを開始することは、メモリマッピングされたトランザクションを開始することと、メモリマッピングされたトランザクションをアクセラレータリンクを介して送られるべきデータストリームにコンバートすることとを含む。 In another aspect, initiating a transaction involves initiating a memory-mapped transaction and converting the memory-mapped transaction into a data stream that should be sent over an accelerator link.
別の態様では、方法は、第2のハードウェアアクセラレータにおいてトランザクションを受信したことに応答して、第2のハードウェアアクセラレータは、ターゲットアドレスから第2のハードウェアアクセラレータのアドレス範囲の上限を減算することと、減算することの結果が、第2のハードウェアアクセラレータのアドレス範囲内にあるかどうかを決定することとを含む。 In another aspect, the method subtracts the upper bound of the address range of the second hardware accelerator from the target address in response to receiving a transaction on the second hardware accelerator. This includes determining if the result of the subtraction is within the address range of the second hardware accelerator.
別の態様では、第2のハードウェアアクセラレータは、データストリームとしてトランザクションを受信し、データストリームをメモリマッピングされたトランザクションにコンバートする。 In another aspect, the second hardware accelerator receives the transaction as a data stream and converts the data stream into a memory-mapped transaction.
別の態様では、方法は、第2のハードウェアアクセラレータのダイレクトメモリアクセス回路のステータスを決定することと、第2のハードウェアアクセラレータのダイレクトメモリアクセス回路のステータスに応答してデータ転送を開始することとを含む。 In another aspect, the method determines the status of the direct memory access circuit of the second hardware accelerator and initiates data transfer in response to the status of the direct memory access circuit of the second hardware accelerator. And include.
本明細書で提供される本発明の構成の説明は、例示のためであり、網羅的なものでも、開示される形式および例に限定されるものでもない。本明細書で使用される専門用語は、本発明の構成の原理、実際的適用例、または市場で見られる技術に対する技術的改善を説明するために、および/あるいは、他の当業者が本明細書で開示される本発明の構成を理解することを可能にするために選定された。説明される本発明の構成の範囲および趣旨から逸脱することなく、修正および変形が当業者に明らかになり得る。したがって、そのような特徴および実装形態の範囲を指示するものとして、上記の開示に対してではなく、以下の特許請求の範囲に対して参照が行われるべきである。 The description of the configuration of the present invention provided herein is for illustration purposes only and is not exhaustive or limited to the disclosed forms and examples. The terminology used herein is to describe the principles of construction of the invention, practical applications, or technical improvements to the techniques found on the market, and / or by others skilled in the art. Selected to allow understanding of the constitution of the invention disclosed in the document. Modifications and modifications may be apparent to those skilled in the art without departing from the scope and gist of the present invention described. Therefore, references should be made to the following claims, not to the above disclosure, as an indication of the scope of such features and implementations.
Claims (15)
前記通信バスを通して前記ホストプロセッサに通信可能にリンクされた第1のハードウェアアクセラレータと、
前記通信バスを通して前記ホストプロセッサに通信可能にリンクされた第2のハードウェアアクセラレータと
を備える、システムであって、
前記第1のハードウェアアクセラレータと前記第2のハードウェアアクセラレータとが、前記通信バスから独立したアクセラレータリンクを通して直接接続され、
前記ホストプロセッサが、前記アクセラレータリンクを直接通した、前記第1のハードウェアアクセラレータと前記第2のハードウェアアクセラレータとの間のデータ転送を開始するように設定された、システム。 With the host processor connected to the communication bus
A first hardware accelerator that is communicably linked to the host processor through the communication bus,
A system comprising a second hardware accelerator that is communicably linked to the host processor through the communication bus.
The first hardware accelerator and the second hardware accelerator are directly connected through an accelerator link independent of the communication bus.
A system in which the host processor is configured to initiate data transfer between the first hardware accelerator and the second hardware accelerator directly through the accelerator link.
通信バスを介してホストプロセッサと通信するように設定されたエンドポイントと、
前記集積回路にローカルなメモリに接続されたメモリコントローラと、
前記エンドポイントと前記メモリコントローラとに接続されたリンク回路と
を備え、前記リンク回路が、前記通信バスにも接続されたターゲットハードウェアアクセラレータとのアクセラレータリンクを確立するように設定され、前記アクセラレータリンクが、前記通信バスから独立した、前記集積回路と前記ターゲットハードウェアアクセラレータとの間の直接接続である、集積回路。 It ’s an integrated circuit,
With endpoints configured to communicate with the host processor over the communication bus,
A memory controller connected to a memory local to the integrated circuit,
It comprises a link circuit connected to the endpoint and the memory controller, the link circuit is set to establish an accelerator link with a target hardware accelerator also connected to the communication bus, and the accelerator link. Is an integrated circuit that is independent of the communication bus and is a direct connection between the integrated circuit and the target hardware accelerator.
前記第1のハードウェアアクセラレータが、前記ターゲットアドレスを、前記第1のハードウェアアクセラレータに対応するアドレス範囲の上限と比較することと、
前記比較することに基づいて前記ターゲットアドレスが前記アドレス範囲を超えると決定したことに応答して、前記第1のハードウェアアクセラレータが、前記第1のハードウェアアクセラレータと第2のハードウェアアクセラレータとを直接接続するアクセラレータリンクを使用してデータ転送を実施するために、前記第2のハードウェアアクセラレータとのトランザクションを開始することと
を含む、方法。 In the first hardware accelerator, receiving the instruction sent from the host processor via the communication bus and the target address for data transfer, and
The first hardware accelerator compares the target address with the upper limit of the address range corresponding to the first hardware accelerator.
In response to the determination that the target address exceeds the address range based on the comparison, the first hardware accelerator causes the first hardware accelerator and the second hardware accelerator to move. A method comprising initiating a transaction with said second hardware accelerator to perform a data transfer using a directly connected accelerator link.
をさらに含む、請求項11に記載の方法。 In response to receiving the transaction in the second hardware accelerator, the second hardware accelerator subtracts the upper limit of the address range of the second hardware accelerator from the target address. 11. The method of claim 11, further comprising determining if the result of the subtraction is within said address range of the second hardware accelerator.
前記第2のハードウェアアクセラレータの前記直接メモリアクセス回路の前記ステータスに応答して前記データ転送を開始することと
をさらに含む、請求項11に記載の方法。 Determining the status of the direct memory access circuit of the second hardware accelerator
11. The method of claim 11, further comprising initiating the data transfer in response to the status of the direct memory access circuit of the second hardware accelerator.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024067099A JP2024099640A (en) | 2018-07-26 | 2024-04-17 | Unified address space for multiple hardware accelerators using dedicated low latency link |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/046,602 US10802995B2 (en) | 2018-07-26 | 2018-07-26 | Unified address space for multiple hardware accelerators using dedicated low latency links |
US16/046,602 | 2018-07-26 | ||
PCT/US2019/043521 WO2020023797A1 (en) | 2018-07-26 | 2019-07-25 | Unified address space for multiple hardware accelerators using dedicated low latency links |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024067099A Division JP2024099640A (en) | 2018-07-26 | 2024-04-17 | Unified address space for multiple hardware accelerators using dedicated low latency link |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021530813A true JP2021530813A (en) | 2021-11-11 |
JP7565911B2 JP7565911B2 (en) | 2024-10-11 |
Family
ID=67551717
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021503580A Active JP7565911B2 (en) | 2018-07-26 | 2019-07-25 | Unified address space for multiple hardware accelerators with dedicated low latency links |
JP2024067099A Pending JP2024099640A (en) | 2018-07-26 | 2024-04-17 | Unified address space for multiple hardware accelerators using dedicated low latency link |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024067099A Pending JP2024099640A (en) | 2018-07-26 | 2024-04-17 | Unified address space for multiple hardware accelerators using dedicated low latency link |
Country Status (6)
Country | Link |
---|---|
US (1) | US10802995B2 (en) |
EP (1) | EP3827356A1 (en) |
JP (2) | JP7565911B2 (en) |
KR (1) | KR20210033996A (en) |
CN (1) | CN112543925B (en) |
WO (1) | WO2020023797A1 (en) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020062305A1 (en) * | 2018-09-30 | 2020-04-02 | 华为技术有限公司 | Computational accelerator, exchanger, task scheduling method, and processing system |
US10430355B1 (en) * | 2018-10-30 | 2019-10-01 | International Business Machines Corporation | Mixing restartable and non-restartable requests with performance enhancements |
US10922068B1 (en) * | 2018-11-09 | 2021-02-16 | Xilinx, Inc. | Updating firmware for programmable integrated circuits in computing environments |
EP3841530B1 (en) * | 2019-11-15 | 2023-11-08 | Kunlunxin Technology (Beijing) Company Limited | Distributed ai training topology based on flexible cable connection |
US11941433B2 (en) | 2020-03-24 | 2024-03-26 | Via Technologies Inc. | Computing apparatus and data processing method for offloading data processing of data processing task from at least one general purpose processor |
TWI811620B (en) * | 2020-03-24 | 2023-08-11 | 威盛電子股份有限公司 | Computing apparatus and data processing method |
CN111949590B (en) * | 2020-08-11 | 2022-05-06 | 国微集团(深圳)有限公司 | High-speed communication method capable of crossing FPGA platform |
CN112463714B (en) * | 2020-11-30 | 2022-12-16 | 成都海光集成电路设计有限公司 | Remote direct memory access method, heterogeneous computing system and electronic equipment |
KR20220124551A (en) * | 2021-03-03 | 2022-09-14 | 삼성전자주식회사 | Electronic devices including accelerators of heterogeneous hardware types |
CN114363626B (en) * | 2022-01-04 | 2024-06-04 | 上海航天电子通讯设备研究所 | Satellite-borne ultra-high-speed image compression system |
US11947469B2 (en) * | 2022-02-18 | 2024-04-02 | Xilinx, Inc. | Flexible queue provisioning for partitioned acceleration device |
CN115225694B (en) * | 2022-06-13 | 2023-12-12 | 中科驭数(北京)科技有限公司 | Data stream transmission method, device, equipment and medium |
US12001352B1 (en) * | 2022-09-30 | 2024-06-04 | Amazon Technologies, Inc. | Transaction ordering based on target address |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03156558A (en) * | 1989-11-14 | 1991-07-04 | Nec Home Electron Ltd | Method for communication between host cpu and coprocessor |
JPH1185963A (en) * | 1997-04-30 | 1999-03-30 | Canon Inf Syst Res Australia Pty Ltd | Device and method for image processing |
US5940086A (en) * | 1997-01-10 | 1999-08-17 | Hewlett Packard Company | System and method for dynamically allocating data among geometry accelerators in a computer graphics system |
US20090070553A1 (en) * | 2007-09-12 | 2009-03-12 | Convey Computer | Dispatch mechanism for dispatching insturctions from a host processor to a co-processor |
US20090273603A1 (en) * | 2005-12-16 | 2009-11-05 | Nvidia Corporation | Detecting connection topology in a multi processor graphics system |
US20110289279A1 (en) * | 2009-04-27 | 2011-11-24 | Lsi Corporation | Data caching in a network communications processor architecture |
JP2013504130A (en) * | 2009-09-03 | 2013-02-04 | アドバンスト・マイクロ・ディバイシズ・インコーポレイテッド | Processing unit internal memory for general use |
JP2017507405A (en) * | 2014-02-20 | 2017-03-16 | インテル・コーポレーション | Workload batch submission mechanism for graphic processing units |
US20170212724A1 (en) * | 2013-12-27 | 2017-07-27 | Intel Corporation | Scalable input/output system and techniques |
WO2018064418A1 (en) * | 2016-09-29 | 2018-04-05 | Amazon Technologies, Inc. | Configurable logic platform with multiple reconfigurable regions |
WO2018075131A1 (en) * | 2016-10-21 | 2018-04-26 | Advanced Micro Devices, Inc. | Mechanisms to improve data locality for distributed gpus |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7430652B2 (en) * | 2003-03-28 | 2008-09-30 | Tarari, Inc. | Devices for performing multiple independent hardware acceleration operations and methods for performing same |
CN101095123A (en) * | 2003-10-10 | 2007-12-26 | 诺基亚公司 | Microcontrol architecture for a system on a chip (soc) |
US20050276413A1 (en) * | 2004-06-14 | 2005-12-15 | Raja Neogi | Method and apparatus to manage heterogeneous cryptographic operations |
US8345052B1 (en) * | 2007-11-08 | 2013-01-01 | Nvidia Corporation | Method and system for using a GPU frame buffer in a multi-GPU system as cache memory |
US9170864B2 (en) * | 2009-01-29 | 2015-10-27 | International Business Machines Corporation | Data processing in a hybrid computing environment |
US9785444B2 (en) * | 2013-08-16 | 2017-10-10 | Analog Devices Global | Hardware accelerator configuration by a translation of configuration data |
US10489178B2 (en) * | 2015-04-28 | 2019-11-26 | Altera Corporation | Network functions virtualization platforms with function chaining capabilities |
US11372787B2 (en) * | 2017-12-09 | 2022-06-28 | Intel Corporation | Unified address space for multiple links |
US20190303159A1 (en) * | 2018-03-29 | 2019-10-03 | Intel Corporation | Instruction set architecture to facilitate energy-efficient computing for exascale architectures |
-
2018
- 2018-07-26 US US16/046,602 patent/US10802995B2/en active Active
-
2019
- 2019-07-25 KR KR1020217002267A patent/KR20210033996A/en active Search and Examination
- 2019-07-25 CN CN201980050194.7A patent/CN112543925B/en active Active
- 2019-07-25 JP JP2021503580A patent/JP7565911B2/en active Active
- 2019-07-25 WO PCT/US2019/043521 patent/WO2020023797A1/en active Application Filing
- 2019-07-25 EP EP19752328.5A patent/EP3827356A1/en active Pending
-
2024
- 2024-04-17 JP JP2024067099A patent/JP2024099640A/en active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03156558A (en) * | 1989-11-14 | 1991-07-04 | Nec Home Electron Ltd | Method for communication between host cpu and coprocessor |
US5940086A (en) * | 1997-01-10 | 1999-08-17 | Hewlett Packard Company | System and method for dynamically allocating data among geometry accelerators in a computer graphics system |
JPH1185963A (en) * | 1997-04-30 | 1999-03-30 | Canon Inf Syst Res Australia Pty Ltd | Device and method for image processing |
US20090273603A1 (en) * | 2005-12-16 | 2009-11-05 | Nvidia Corporation | Detecting connection topology in a multi processor graphics system |
US20090070553A1 (en) * | 2007-09-12 | 2009-03-12 | Convey Computer | Dispatch mechanism for dispatching insturctions from a host processor to a co-processor |
US20110289279A1 (en) * | 2009-04-27 | 2011-11-24 | Lsi Corporation | Data caching in a network communications processor architecture |
JP2013504130A (en) * | 2009-09-03 | 2013-02-04 | アドバンスト・マイクロ・ディバイシズ・インコーポレイテッド | Processing unit internal memory for general use |
US20170212724A1 (en) * | 2013-12-27 | 2017-07-27 | Intel Corporation | Scalable input/output system and techniques |
JP2017507405A (en) * | 2014-02-20 | 2017-03-16 | インテル・コーポレーション | Workload batch submission mechanism for graphic processing units |
WO2018064418A1 (en) * | 2016-09-29 | 2018-04-05 | Amazon Technologies, Inc. | Configurable logic platform with multiple reconfigurable regions |
WO2018075131A1 (en) * | 2016-10-21 | 2018-04-26 | Advanced Micro Devices, Inc. | Mechanisms to improve data locality for distributed gpus |
Also Published As
Publication number | Publication date |
---|---|
KR20210033996A (en) | 2021-03-29 |
EP3827356A1 (en) | 2021-06-02 |
CN112543925B (en) | 2024-08-09 |
CN112543925A (en) | 2021-03-23 |
US10802995B2 (en) | 2020-10-13 |
JP7565911B2 (en) | 2024-10-11 |
JP2024099640A (en) | 2024-07-25 |
WO2020023797A1 (en) | 2020-01-30 |
US20200081850A1 (en) | 2020-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7565911B2 (en) | Unified address space for multiple hardware accelerators with dedicated low latency links | |
US10846254B2 (en) | Management controller including virtual USB host controller | |
JP6141379B2 (en) | Using completer knowledge about memory region ordering requests to modify transaction attributes | |
US8606976B2 (en) | Data stream flow controller and computing system architecture comprising such a flow controller | |
US10713202B2 (en) | Quality of service (QOS)-aware input/output (IO) management for peripheral component interconnect express (PCIE) storage system with reconfigurable multi-ports | |
US6996659B2 (en) | Generic bridge core | |
KR102007368B1 (en) | PCI express switch and computer system using the same | |
JP5469081B2 (en) | Control path I / O virtualization method | |
US7460531B2 (en) | Method, system, and program for constructing a packet | |
US20230376442A1 (en) | Enabling a Multi-Chip Daisy Chain Topology using Peripheral Component Interconnect Express (PCIe) | |
US9753883B2 (en) | Network interface device that maps host bus writes of configuration information for virtual NIDs into a small transactional memory | |
CN111290986A (en) | Bus interconnection system based on neural network | |
US20070156937A1 (en) | Data transfer in multiprocessor system | |
US11537543B2 (en) | Technique for handling protocol conversion | |
JP2020184224A (en) | Information processing system, platform, and bridge driver | |
US20150220445A1 (en) | Transactional memory that performs a programmable address translation if a dat bit in a transactional memory write command is set | |
US11301410B1 (en) | Tags for request packets on a network communication link | |
US7225274B2 (en) | Method and apparatus for transferring data across a protocol bridge | |
CN210038775U (en) | System on chip | |
US10228968B2 (en) | Network interface device that alerts a monitoring processor if configuration of a virtual NID is changed | |
US20150222513A1 (en) | Network interface device that alerts a monitoring processor if configuration of a virtual nid is changed | |
JP4431492B2 (en) | Data transfer unit that supports multiple coherency granules | |
US20240330145A1 (en) | High-speed debug port trace circuit | |
JP4774099B2 (en) | Arithmetic processing apparatus, information processing apparatus, and control method for arithmetic processing apparatus | |
TW202032383A (en) | Configuration load and unload of a reconfigurable data processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220712 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230627 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230922 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240417 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240510 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240604 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240903 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241001 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7565911 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |