Nothing Special   »   [go: up one dir, main page]

JP2020537789A - 超並列ソフトウェア定義ハードウェアシステムにおける静的ブロックスケジューリング - Google Patents

超並列ソフトウェア定義ハードウェアシステムにおける静的ブロックスケジューリング Download PDF

Info

Publication number
JP2020537789A
JP2020537789A JP2020521607A JP2020521607A JP2020537789A JP 2020537789 A JP2020537789 A JP 2020537789A JP 2020521607 A JP2020521607 A JP 2020521607A JP 2020521607 A JP2020521607 A JP 2020521607A JP 2020537789 A JP2020537789 A JP 2020537789A
Authority
JP
Japan
Prior art keywords
neural network
hardware
systolic array
source code
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020521607A
Other languages
English (en)
Other versions
JP7337053B2 (ja
Inventor
ヨンジュン ウー,
ヨンジュン ウー,
インドリフ ゼイダ,
インドリフ ゼイダ,
エリオット ドゥレー,
エリオット ドゥレー,
アシシュ シラサオ,
アシシュ シラサオ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xilinx Inc
Original Assignee
Xilinx Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xilinx Inc filed Critical Xilinx Inc
Publication of JP2020537789A publication Critical patent/JP2020537789A/ja
Application granted granted Critical
Publication of JP7337053B2 publication Critical patent/JP7337053B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/086Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/38Concurrent instruction execution, e.g. pipeline or look ahead
    • G06F9/3836Instruction issuing, e.g. dynamic instruction scheduling or out of order instruction execution
    • G06F9/3842Speculative instruction execution
    • G06F9/3844Speculative instruction execution using dynamic branch prediction, e.g. using branch history tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/10Interfaces, programming languages or software development kits, e.g. for simulating neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W72/00Local resource management
    • H04W72/50Allocation or scheduling criteria for wireless resources
    • H04W72/54Allocation or scheduling criteria for wireless resources based on quality criteria
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Neurology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Devices For Executing Special Programs (AREA)
  • Advance Control (AREA)
  • Complex Calculations (AREA)
  • Image Processing (AREA)

Abstract

本明細書の実施形態は、超並列ハードウェアシステム(205)において実装されるニューラルネットワーク(100)を静的にスケジュールするための技法について説明する。ニューラルネットワーク(100)は、本明細書では上位レベル、中間レベル、および下位レベルと呼ばれる3つの異なるスケジューリングレベルを使用してスケジュールされ得る。一実施形態では、上位レベルは、ハードウェアシステム(205)において同時に動作する関数の連続した順序を確立する、ニューラルネットワーク(100)中の層のハードウェアまたはソフトウェアモデル(400)を含む。中間レベルでは、シストリックアレイ(280)またはメッシュを形成するために、上位レベルにおいて定義される関数における同一のプロセスが接続され、レイテンシを最小限に抑えるために平衡化されたデータフローチャネルが使用される。下位レベルでは、コンパイラ(265)が、ニューラルネットワーク(100)のための静的スケジュールを提供するために、シストリックアレイ中の処理要素によって実施される動作をハードウェアシステム(205)の異なる部分に割り当てることができる。【選択図】図3

Description

本開示の例は、一般に、超並列プログラマブルハードウェアシステムをスケジュールすることに関する。
機械学習は、コンピューティングシステムが、明示的にプログラムされることなしに働くことを引き起こす科学である。古典的な機械学習は、K平均クラスタリング、線形およびロジスティック回帰、確率的勾配降下法、相関ルール学習などを含む、様々なクラスタリングおよび分類技法を含む。深層学習は、機械学習におけるより新しい最先端領域である。深層学習は、特徴抽出および変換のために非線形処理ユニットの複数の層を使用する機械学習アルゴリズムのクラスである。深層学習アルゴリズムは、教師なし(たとえば、パターン分析)であるか、または教師あり(たとえば、分類)であり得る。深層学習アルゴリズムは、(本明細書では「ニューラルネットワーク」と呼ばれる)人工ニューラルネットワーク(ANN)の層を使用して実装され得る。
概して、ニューラルネットワークは、グラフ中で接続されたノード(すなわち、「ニューロン」)の集合である。ニューラルネットワーク中のノードは、重み付けされた入力の和を算出し、その和に随意のバイアスを加算する。ノードの出力は、(「活性化関数」と呼ばれる)最終的な和の関数である。例示的な活性化関数は、シグモイド関数、双曲線正接(tanh)関数、正規化線形ユニット(ReLU)関数、および恒等関数を含む。ニューラルネットワークモデルは、しばしば、特定のトポロジーと、対応する重みおよびバイアスとを定義するノードの層に編成される。重みおよびバイアスは、ネットワークパラメータと呼ばれる。
概して、ニューラルネットワークは、入力層と出力層とを含み、入力層と出力層との間の1つまたは複数の隠れ層を随意に含むことができる。深層学習アプリケーションにおいて使用されるニューラルネットワークは、典型的に、多くの隠れ層を含み、それにより、深層ニューラルネットワーク(DNN)という用語が生じる。ニューラルネットワークの層は、密接続される(たとえば、層中の各ノードが前の層中のすべてのノードに全接続される)か、またはスパース接続され得る(たとえば、層中の各ノードが前の層中のノードの一部のみに接続される)。畳み込みニューラルネットワーク(CNN)は、畳み込み層と呼ばれる、1つまたは複数のスパース接続された層を含む、DNNのタイプである。CNNは、画像またはビデオデータを処理するのに好適である。DNNの他のタイプは、音声およびテキストデータを処理するのに好適であるリカレントニューラルネットワーク(RNN)を含む。
現代のフィールドプログラマブルゲートアレイ(FPGA)は、超並列ハードウェアシステムをもたらすために利用され得る、数百万個のルックアップテーブルと、数千個の構成可能な論理ブロック(CLB)、デジタル信号処理(DSP)およびランダムアクセスメモリブロック(BRAM)とを与える。既存のFPGAシステムは、ハードウェア記述言語(HDL)、または高位合成(HLS:high level synthesis)ツールを使用してスケジュールされるプログラムコード(たとえば、CまたはC++)のいずれかを使用して構成される。
HDL手法では、すべてのプロセスは、極めて複雑な状態機械およびデータ管理論理を用いて手動でスケジュールされる。しかしながら、このプロセスは、大規模FPGAシステムの場合、時間がかかる。シングルスレッドソフトウェア機能では、数千個のプロセスをスケジュールすることの複雑さは指数関数的に増大し、いくつかの場合には、スケジューリングは収束することができない。
ニューラルネットワークをスケジュールするための技法が説明される。一例は、ニューラルネットワーク中の少なくとも1つの層を実行するときに実施される複数の関数の連続した順序を定義するモデルを受信することであって、ニューラルネットワークが複数の層を備える、複数の関数の連続した順序を定義するモデルを受信することを含む方法である。本方法は、ニューラルネットワークの少なくとも1つの層において同一のプロセスを実行するためのシストリックアレイを受信することと、モデルおよびシストリックアレイに対応するソースコードを、ハードウェアシステムにおいてニューラルネットワークを実行するときに静的スケジュールを提供するハードウェアレベル設計にコンパイルすることとを含む。
別の例は、1つまたは複数の処理デバイス上で実行されたとき、ニューラルネットワークをスケジュールするための動作を実施する命令を記憶する非一時的コンピュータ可読記憶媒体である。動作は、ニューラルネットワーク中の少なくとも1つの層を実行するときに実施される複数の関数の連続した順序を定義するモデルを受信することであって、ニューラルネットワークが複数の層を備える、複数の関数の連続した順序を定義するモデルを受信することを含む。動作は、ニューラルネットワークの少なくとも1つの層において同一のプロセスを実行するためのシストリックアレイを受信することと、モデルおよびシストリックアレイに対応するソースコードを、ハードウェアシステムにおいてニューラルネットワークを実行するときに静的スケジュールを提供するハードウェアレベル設計にコンパイルすることとを含む。
別の例は、プロセッサとメモリとを含むコンピューティングシステムである。メモリは、プロセッサによって実行されたとき、動作を実施するコンパイラを含む。動作は、ニューラルネットワーク中の少なくとも1つの層を実行するときに実施される複数の関数の連続した順序を定義するモデルを受信することであって、ニューラルネットワークが複数の層を備える、複数の関数の連続した順序を定義するモデルを受信することを含む。動作は、ニューラルネットワークの少なくとも1つの層において同一のプロセスを実行するためのシストリックアレイを受信することと、モデルおよびシストリックアレイに対応するソースコードを、ハードウェアシステムにおいてニューラルネットワークを実行するときに静的スケジュールを提供するハードウェアレベル設計にコンパイルすることとを含む。
上記の具陳された特徴が詳細に理解され得るように、上記で手短に要約されたより詳細な説明は、添付の図面にその一部が示されている例示的な実装形態を参照することによってなされ得る。しかしながら、添付の図面は、典型的な例示的な実装形態を示すにすぎず、したがって、その範囲の限定と見なされるべきでないことに留意されたい。
一例による、多層ニューラルネットワークを示す図である。 一例による、FPGAにおいてニューラルネットワークパイプラインを確立するためのシステムの図である。 一例による、ニューラルネットワークパイプラインをスケジュールするためのフローチャートである。 一例による、ニューラルネットワーク中の層のハードウェアモデルを示す図である。 一例による、ニューラルネットワーク中の、畳み込みまたは全接続層を実施するためのシストリックアレイを示す図である。 一例による、デジタル信号処理ブロック中のパイプライン化処理要素を示す図である。 一例による、ニューラルネットワークを実装するためのシステムを示すブロック図である。 一例による、コンピューティングシステムを示すブロック図である。 一例による、アクセラレーション回路を示すブロック図である。 一例による、プログラマブル集積回路(IC)を示すブロック図である。 一例による、プログラマブルICのFPGA実装形態を示す図である。
理解を容易にするために、可能な場合、図に共通である同じ要素を示すために同じ参照番号が使用されている。一例の要素が、他の例に有益に組み込まれ得ることが企図される。
図を参照しながら様々な特徴が以下で説明される。図は一定の縮尺で描かれることも描かれないこともあり、同様の構造または機能の要素が、図全体にわたって同様の参照番号によって表されることに留意されたい。図は、特徴の説明を容易にすることを意図されているにすぎないことに留意されたい。図は、本明細書の網羅的な説明として、または特許請求の範囲に対する限定として意図されていない。さらに、示されている例は、すべての態様または利点が示される必要があるとは限らない。特定の例に関して説明される一態様または利点は、必ずしもその例に限定されるとは限らず、そのように示されていない場合でも、またはそのように明示的に説明されていない場合でも、任意の他の例において実施され得る。
本明細書の実施形態は、超並列ハードウェアシステムにおいて実装されるニューラルネットワークを静的にスケジュールするための技法について説明する。ニューラルネットワークは、本明細書では上位レベル、中間レベル、および下位レベルと呼ばれる3つの異なるレベルを使用してスケジュールされ得る。一実施形態では、上位レベルは、ハードウェアシステムにおいて同時に動作する関数(たとえば、畳み込み関数、最大プーリング/最大プール関数、正規化線形ユニット(ReLU)関数、およびスケーリング関数)の連続した順序を確立する、ニューラルネットワーク中の層のハードウェアまたはソフトウェアモデルを含む。モデルは、層において異なる関数を相互接続するデータチャネルを含み得る。
中間レベルでは、処理要素のシストリックアレイまたはメッシュを形成するために、上位レベルにおいて定義される層における同一のプロセスが接続され、レイテンシを最小限に抑えるために平衡化されたデータフローチャネルが使用される。一実施形態では、シストリックアレイはソースコード(たとえば、CまたはC++)を使用して設計され、ソースコードは、ソースコードをレジスタ転送レベル(RTL)コードに変換するときにHLSコンパイラによって並列化され、RTLコードは、次いで、FPGAなど、プログラマブルハードウェアを構成するために使用される。下位レベルでは、HLSコンパイラは、シストリックアレイ中の処理要素によって実施される動作をプログラマブルハードウェアの異なる部分に割り当てることができる。たとえば、処理要素が異なるデジタル信号処理(DSP)ブロックを使用して実装される場合、処理要素によって実施される異なる動作(たとえば、読取り、書込み、乗算、加算など)は、並列に実施され得る。ニューラルネットワークのスケジューリングを異なるレベルに分割することによって、コンパイラは、システム中のハードウェア要素が同時に動作することができるように、並列化されたパイプラインを生成することができる。
図1は、一例による、多層ニューラルネットワーク100を示す。本明細書で使用されるニューラルネットワーク100は、機械学習において使用される計算モジュールであり、人工ニューロンと呼ばれる接続されたユニットの大きい集合に基づき、ニューロン間の接続は、変動する強度の活性化信号を搬送する。ニューラルネットワーク100は、明示的にプログラムされるのではなく、例からトレーニングされ得る。一実施形態では、ニューラルネットワーク100中のニューロンは、層、たとえば、層1、層2、層3などにおいて接続され、データが、第1の層、たとえば、層1から、最後の層、たとえば、層7に進む。7つの層が図1に示されているが、ニューラルネットワーク100は数百個または数千個の異なる層を含むことができる。
ニューラルネットワークは、コンピュータビジョン、特徴検出、音声認識など、任意の数のタスクを実施することができる。図1では、ニューラルネットワーク100は、デジタル画像中の物体を分類する、顔認識を実施する、テキストを識別するなど、デジタル画像中の特徴を検出する。そうするために、画像データ105が、ニューラルネットワーク中の第1の層に供給され、第1の層は、画像データ105に対して、対応する関数、この例では、10×10畳み込みを実施する。次いで、その関数の結果は、次の層、たとえば、層2に受け渡され、層2は、処理された画像データを次のレベルに受け渡す前に層2の関数を実施し、以下同様である。層によって処理された後に、データは画像分類器110において受信され、画像分類器110は、画像データ中の特徴を検出することができる。
層は、層1が層2の前に実施され、層2が層3の前に実施され、以下同様であるように、連続した順序で定義される。したがって、下位層と(1つまたは複数の)上位層との間にデータ依存性が存在する。層2は層1からデータを受信するのを待つが、一実施形態では、ニューラルネットワーク100は、各層が同時に動作することができるように並列化され得る。すなわち、各クロックサイクル中に、層は、新しいデータを受信し、処理されたデータを出力することができる。たとえば、各クロックサイクル中に、新しい画像データ105が層1に与えられ得る。簡単のために、各クロックサイクル中に、新しい画像の一部が層1に与えられ、各層が、前のクロックサイクル中で受信された画像データのために、処理されたデータを出力することができると仮定する。並列化されたパイプラインを形成するように層がハードウェアで実装された場合、7つのクロックサイクルの後に、層の各々は画像データの一部を処理するために同時に動作する。「画像データの一部」は、画像全体、1つの画像のピクセルのセット、画像のバッチ、または各層が同時に処理することができる任意の量のデータであり得る。したがって、並列パイプラインを形成するように層をハードウェアで実装することは、層を一度に1つ動作させることと比較して、ニューラルネットワークのスループットを非常に増加させることができる。超並列ハードウェアシステム中の層をスケジュールすることのタイミング利益は、ニューラルネットワーク100中の層の数が増加するにつれてさらに改善する。
図2は、一例による、FPGA205においてニューラルネットワークパイプライン215を確立するためのシステム200である。FPGA205に加えて、システム200は、FPGA205中でプログラマブル論理210を構成するコンピューティングデバイス250を含む。たとえば、コンピューティングデバイス250は、ラップトップ、デスクトップ、またはサーバであり得る。コンピューティングデバイス250は、任意の数の処理コアを各々含んでいることがある任意の数の処理要素を表すプロセッサ255を含む。デバイス250は、揮発性または不揮発性メモリ要素を有することができるメモリ260をも含む。
メモリ260はコンパイラ265を含み、コンパイラ265は、一実施形態では、CまたはC++などのソースコードをRTLコードに変換するソフトウェアアプリケーション(たとえば、HLSコンパイラ)であり、RTLコードは、ニューラルネットワークパイプライン215を確立するようにプログラマブル論理210を構成する。ソースコードをコンパイルするとき、コンパイラ265は、スケジューラ270を使用してRTLを生成し、それは、ニューラルネットワークパイプライン215を形成する異なるハードウェア要素(たとえば、DSPブロック220またはCLB222)が同時に動作することができるようにパイプライン215を静的にスケジュールする。一実施形態では、静的スケジュールは、ハードウェア要素が実行する順序がランタイム中に変化しないように固定である。一実施形態では、スケジューラ270は、コンパイラ265がニューラルネットワークパイプライン215を確立するための静的にスケジュールされたRTLコードを生成するために使用する、上位レベル、中間レベル、および下位レベルを受信するか、または生成する。一実施形態では、スケジュールの上位レベルは、ニューラルネットワーク中の層(または複数の層)のハードウェアまたはソフトウェアモデルを含む層設計である。層設計は層命令のパラメータ化275によって定義され得、それは、畳み込み関数、最大プーリング関数、ReLU関数、およびスケーリング関数など、同時に動作することができる、層中の複数の関数の連続した順序であり得る。
一実施形態では、スケジュールの中間レベルは、データチャネルを使用して相互接続される複数の処理要素(PE)を含むシストリックアレイ280である。一実施形態では、PEの各々は、FPGA中のDSPブロック220または1つまたは複数のCLB222(またはその両方の組合せ)のうちの1つまたは複数を含む。DSPブロック220は、CLB222よりも速い速度でDSPを実施し、システム電力消費を低下させることができる特殊な論理ブロックである。その上、CLB222を使用して同じDSP性能を達成することは、より大きい集積回路をもたらすので、DSPブロック220を追加することにより、FPGAの全体的なサイズを低減することができる。DSPブロック220は、加算器、事前加算器、減算器、アキュムレータ、加算ユニットなどを含む。
シストリックアレイ280は、PEを形成するDSPブロック220またはCLB222が、層において定義される関数を実施するためにどのように相互接続されるかを定義する。たとえば、畳み込みを実施するために、シストリックアレイ280は複数の相互接続されたPEを含み得、複数の相互接続されたPEは各々、FPGA205中のプログラマブルDSPブロック220から形成された複数の乗算アキュムレータ(MAC:multiply−accumulator)ブロックを含む。別の実施形態では、最大プーリング関数またはReLU関数を実装するとき、PEは、対応する動作を実施するCLB222を含み得る。層命令のパラメータ化275において定義される関数のように、コンパイラ265は、PEが同時に動作することができるように、シストリックアレイ280に対応するRTLコードを生成することができる。
一実施形態では、スケジュールの下位レベルは、シストリックアレイ280中のPEによって実施される動作を定義するPE設計285である。上記の例を続けると、PEがMACブロックを含む場合、PE設計285は、これらのブロックによって実施される、読取り動作、書込み動作、乗算動作、および加算動作(add operation)をリストすることができる。もちろん、MACブロックは、PEを実装することの一例にすぎず、最大プーリングユニットまたはReLUの一部であるPEによって、他の動作が実施され得る。
FPGA205は、プログラマブル論理210とメモリ225とを含む。プログラマブル論理210は、プログラマブル論理ブロックのアレイと、論理ブロックが通信可能に連結されることを可能にする再構成可能な相互接続の階層とを含むことができる。プログラマブル論理ブロックの一例は、ニューラルネットワークパイプライン215中の、畳み込みまたは全接続層を実施するときに有用であるDSPブロック220を含む。プログラマブル論理ブロックは、スケーリング関数または最大プール関数を実施するときに使用され得る1つまたは複数のCLB222をも含むことができる。一実施形態では、ニューラルネットワークパイプライン215は、畳み込みを実施するために行列乗算が使用され得るように、受信された画像データを(im2colと呼ばれる)2D行列に変換するためのプログラマブル論理210を含む。
FPGA205が示されているが、本明細書で説明されるスケジューリング技法は、ニューラルネットワークを実装するように特別に設計されたグラフィックスプロセッサユニット(GPU)または特定用途向け集積回路(ASIC)など、他のタイプの非プログラマブルハードウェアシステム上で、ニューラルネットワークパイプライン215を実装するために実施され得る。すなわち、これらのシステム上でニューラルネットワークを設計するかまたは実装するとき、ハードウェア要素が同時に動作することができるようにハードウェア要素が静的にスケジュールされるように、層命令のパラメータ化275と、シストリックアレイ280と、PE設計285とが使用され得る。
図3は、一例による、ニューラルネットワークパイプラインをスケジュールするための方法300のフローチャートである。ブロック305において、スケジューラは、FPGAにおいて同時に動作する複数の関数の連続した順序を確立する、ニューラルネットワーク中の層のためのモデルを受信する。一実施形態では、モデルは、層命令のパラメータ化275を含む、図2で説明されたような層設計である。さらに、モデルは、超並列ハードウェアシステム、たとえば、FPGAにおいて実装されるような完全なニューラルネットワークを表すソフトウェアまたはハードウェアモデルであり得る。
一実施形態では、モデルは、ユーザによってスケジューラに与えられる。たとえば、ユーザは、ユーザがFPGA上に実装することを望むニューラルネットワークのタイプに従ってモデルを設計し得る。たとえば、異なるニューラルネットワークは、異なる層と、それらの層内の異なる関数とを有することができる。上述のように、ニューラルネットワークは、デジタル画像中の特徴検出、オーディオ処理、またはテキストを処理することなど、異なるタスクを実施するように設計され得る。ニューラルネットワークの非限定的な例は、CNN、RNN、長短期記憶(LSTM)ニューラルネットワーク、および特徴ベース学習または教師あり/教師なし学習を使用するニューラルネットワークを含む。その上、同じタイプのニューラルネットワークの構造は、大きく変動することができる。たとえば、いくつかのCNNは数十個の層を含むことができ、他のCNNは数百個の層を含むことができ、層の各々は別様に構成され得、たとえば、3×3畳み込みを実施する層、11×11畳み込みを実施する層、全接続(FC)層、プーリング層などである。
一実施形態では、モデルは、ニューラルネットワーク中の層の各々のための上位レベルスケジュールを定義する。図4は、一例による、ニューラルネットワーク中の層のアーキテクチャ記述(architecture description)400のハードウェアモデルを示す。アーキテクチャ記述400は、画像中の特徴検出を実施するための、層スケジューラ405、畳み込みユニット410、最大プーリングユニット415、マルチプレクサ(mux)420、ReLU425、mux430、スケーリングユニット435、およびmux440を含み、これらは、一般に、パイプライン化関数(pipelined function)と呼ばれる。アーキテクチャ記述400のモデルは、ニューラルネットワークの1つまたは複数の層を実行するときのパイプライン化関数の連続した順序を定義する。一実施形態では、畳み込みユニット410は、行列乗算器を使用して行列乗算を実施し、任意の数の重み(またはカーネル)を使用して、受信された画像データを重み付けする。一実施形態では、最大プーリングユニット415は、画像がパイプラインの後半でスケーリングされるときに特徴が失われないように画像中の特徴を拡大する。ReLU425は、あるタイプの活性化ユニットまたはランプ関数であり、その活性化ユニットまたはランプ関数は、一実施形態では、f(x)=max(0,x)として定義され、ここで、xはニューロンからの出力である。スケーリングユニット435は、処理されたデータの値を、量子化による数値誤差を最小限に抑えるように調整することができる。
層スケジューラ405は、データフローがどこで開始するかを決定する。たとえば、いくつかの層では、入力画像データは、最初に、畳み込みユニット410に送られ得る。ニューラルネットワーク中の他の層では、画像データは、畳み込みユニット410をバイパスし、代わりに、最大プーリングユニット415またはスケーリングユニット435に層スケジューラ405によって送られる。さらに、データがアーキテクチャ記述400中を伝搬する様式は、層に応じて変動することができる。たとえば、第1の層では、画像データが畳み込みユニット410によって処理された後に、mux420は、処理されたデータをReLU425に直接フォワーディングし、それにより、最大プーリングユニット415をバイパスし得る。代替的に、第2の層では、畳み込みユニット410によって出力されたデータは、最初に、最大プーリングユニット415によって処理され、その後、mux420がそのデータをReLU425に送信する。このようにして、マルチプレクサ420、430、および440は、たとえば層スケジューラ405によって与えられた制御信号に従って、画像データがアーキテクチャ記述400中をどのように流れるかを変更することができる。
一実施形態では、アーキテクチャ記述400は、ニューラルネットワークを実行するために必要とされる完全なシステムを示すブロック図である。言い換えれば、アーキテクチャ記述400は、ニューラルネットワークおよびその対応する層を実行するためにFPGA(または他のハードウェアシステム)において必要とされるハードウェアブロックを、抽象化された(abstracted)レベルで表す。図示されていないが、アーキテクチャ記述400は、異なるブロックが同時に実行することを可能にするためにそれらのブロックの間に挿入されたデータフローチャネルを含み得る。データフローチャネルは、全体的なシステムレイテンシを最小限に抑えるように、適切にサイズ決定され得る。その上、図4に示されているアーキテクチャ記述400はソフトウェア定義され得、これは、ユーザが単に(ここでは異なるブロックとして表される)スカラー動作(scalar operation)のシーケンスを表現し、並列化プラグマ(parallelization pragma)を追加することを意味する。すなわち、ユーザは、ブロックをスケジュールすることなしに(すなわち、ブロックがいつ実行されるべきであるかを定義することなしに)、これらのブロックが実行されるシーケンスを定義することができる。一実施形態では、並列化プラグマは、定義されたブロックが並列に動作するようにスケジュールされるべきであることをコンパイラに指定する指示プラグマ(directive pragma)である。図4に示されているハードウェアモデルをソースコードに変換し、並列化プラグマを使用することによって、コンパイラは、アーキテクチャ記述400を実行するための最適な静的スケジュールを作成することができる。一実施形態では、得られた静的スケジュールは、図4に示されている異なるブロックが同時に実行することを可能にする。
アーキテクチャ記述400をハードウェアモデルとして表現するのではなく、アーキテクチャ記述400は、ソフトウェアモデルとして表され得る。アーキテクチャ記述400のためのソフトウェアモデルのC++実装形態の一例が表1で与えられる。
Figure 2020537789
表1中のソースコードは、「cnnLayers」個の層をもつニューラルネットワークのためのアンタイムド関数コード(untimed functional code)である。さらに、コードは、定義されたシーケンスにおいて順序付けされるが、明示的にスケジュールされない。この実施形態では、HLS DATAFLOWは、データフローのための並列化プラグマである。このプラグマは、ニューラルネットワーク設計者が、並列ブロックをスケジュールする必要なしにそれらのブロックをインスタンス化することによってRTL概念を使用することを可能にする。RTLにコンパイルされた後に、コードにおける異なる関数(たとえば、Conv、MaxPool、Relu、およびScale)が同時に動作する。図示されていないが、コードは、異なる関数を相互接続するFIFO(または他のバッファ)を含み得る。
表1に示されているコードから生成された、得られたコンパイルされたRTLは、ニューラルネットワークのすべての層のための、統計的にスケジュールされた状態機械を含んでいる。各層内で、すべてのブロック(または関数)は同時に稼働する。図4に示されているハードウェアモデルと、表1中のソフトウェアコードとは、設計者が高レベルソフトウェア定義システムにおけるハードウェア挙動を表現することができる容易さを示す。
方法300に戻ると、ブロック310において、スケジューラは、ニューラルネットワーク層において同一のプロセスを実行するためのシストリックアレイを受信する。一実施形態では、設計者は、シストリックアレイの構成を定義するソフトウェアコードを与え、スケジューラ(またはコンパイラ)は、次いで、そのシストリックアレイを、シストリックアレイ中の異なる動作がハードウェアで同時に実行するように並列化する。
一実施形態では、シストリックアレイは2次元アレイであり、2次元アレイは、全体的なスケジューリングを簡略化し、ならびに、一貫したデータフローを維持して、ハードウェアシステムにおいて配置することおよびルーティングすることをより容易にする。一実施形態では、シストリックアレイは、同時に実行するために相互接続された複数のPEを含む。たとえば、各PEは、乗算アキュムレータ(MAC)ブロックであり得る。しかしながら、PEは、シストリックアレイによって実施されるプロセスに応じて変動することができる。たとえば、畳み込みを実施するために使用されるシストリックアレイはMACブロックを有し得、プーリング、ReLU、またはスケーリングを実施するために使用されるシストリックアレイは異なるPEを有する。多次元アレイにおいてPEを配列することによって、PEの各々は、指数関数的に大きくなる帯域幅データ経路を受信することができる。ここで示されている2次元メッシュは、帯域幅と、配置およびルーティングの難しさとの間の妥協を与える。
図5は、一例による、ニューラルネットワーク中のシストリックアレイ280を示す。図5では、シストリックアレイ280は、畳み込みブロックとして構成される。一実施形態では、図4に示されている畳み込みユニット410は、図5に示されているシストリックアレイ280のうちの1つまたは複数から形成される。図5中の他のブロック、すなわち、最大プーリングユニット415、ReLU425、およびスケーリングユニット435は、同じシストリックアレイ280または異なるシストリックアレイを使用して形成され得る。
図5では、2次元シストリックアレイ280は、4×4行列を形成するために相互接続された複数のPEを含む。一実施形態では、スケジューラは、ユーザまたは設計者によって与えられたソフトウェアコードを使用してシストリックアレイ280を形成する。この例では、シストリックアレイ280は、forループ(および、HLSコンパイラの場合、随意のアンロールプラグマ(unroll pragma))から導出され得、それは、A×Bの乗算をN回実施する。スケジューラは、次いで、図5に示されているシストリックアレイ280を生成し、それは、A入力およびB入力から形成された行列の行列乗算を実施することを含む。
この例では、4つの上PE、すなわち、PE00、01、02、および03は、Bオペランド行列からデータを受信し、4つの最左PE、すなわち、PE00、10、20、および30は、Aオペランド行列からデータを受信する。一実施形態では、スケジューラは、各個々のPEが他のPEと同時にその関数を実施するようにPEを同期させる同期信号を生成する。一実施形態では、PEは、各クロックサイクル中に入力を受信し、各クロックサイクル中に出力を与える。PEは、受信されたデータを処理するために1つのクロックサイクルを必要とするか、または、受信されたデータを処理するために複数のクロックサイクルを使用し得る。いずれの場合も、PEは、各クロックサイクル中に、受信されたデータに対して何らかの動作が実施されているようにスケジュールされ得る。
一実施形態では、アレイ280中のPEは、バッファを使用してデータを交換する。たとえば、FIFOが、PEが矢印によって示されているようにデータを交換するロケーションの各々に配設され得る。その上、FIFOは、レイテンシを最小限に抑えるように平衡化されたデータフローチャネルの一部であり得る。一実施形態では、PEは、ソフトウェア定義ストリームクラスとして表現される。
図5に示されているように、スケジューラは、スケジューラが並列化されたシストリックアレイ280に変換することができるシストリックアレイを定義するソフトウェアコード(たとえば、上記で説明された「forループ」)を受信することができる。たとえば、ユーザによって与えられたソフトウェア定義は、単一のPEまたはコアを含む表現を含むことができ、スケジューラは、それをアンパックして、図5に示されているPEのシストリックアレイ280またはメッシュにする。
図4に戻ると、ブロック315において、コンパイラは、高レベルコードをRTLコードにコンパイルし、RTLコードは、ニューラルネットワークのパイプラインのための静的スケジュールを提供する。一実施形態では、コンパイラは、RTLコードを生成するために、ブロック305において受信されたモデルとブロック310において受信されたシストリックアレイとに対応するソースコードを使用する。たとえば、コンパイラは、全体としてニューラルネットワーク全体をスケジュールすることを試みるのではなく、モデルまたは層設計において個々のブロックをスケジュールすることができる。図4を参照すると、コンパイラは、スケジューリング処理を簡略化し、スケジューリングが収束する可能性を増加させるために、畳み込みユニット410と、最大プーリングユニット415と、ReLU425と、スケーリングユニット435とを別々にスケジュールすることができる。すなわち、個々のブロックをスケジュールすることによって、コンパイラは、ブロックを形成するハードウェアをスケジュールし、次いで、スケジューリングプロセスの上位レベルを実施するときにブロック間でデータを共有するためのデータフローチャネルを生成することができる。
上位レベルにおける個々のブロックをスケジュールするとき、コンパイラは、ブロックを1つまたは複数のシストリックアレイに分割することができる。すなわち、シストリックアレイはスケジューリングの中間レベルを表し、スケジューリングの中間レベルは、上位レベルにおけるブロック、すなわち、アーキテクチャ記述400における関数ブロック(functional block)をさらに再分割する。一実施形態では、シストリックアレイは、(複数の乗算を実施することに依拠する畳み込みなどの)関数ブロック中で同一のプロセスが実施されているときに使用される。言い換えれば、畳み込みは同じPE(たとえば、同じMACブロック)を使用して実施され得るので、これらのPEは、並列に動作する多次元シストリックアレイ280に配列され得る。対照的に、一実施形態では、上位レベルにおけるブロック中での異なるプロセスは、データフローチャネルと接続され、シストリックアレイまたはメッシュを形成することなしにスケジューリングの下位レベル中にスケジュールされる。
スケジューリングの下位レベル中に、コンパイラは、スケジュールの上位レベルおよび中間レベルにおいてプロセスおよび関数を形成するハードウェアブロックをスケジュールする。たとえば、図4に示されているアーキテクチャ設計中のブロックと、シストリックアレイとを形成するPEは、ハードウェア要素に分割され得、ハードウェア要素は、次いで、コンパイラによってスケジュールされる。一実施形態では、スケジューラは、ハードウェア要素が入力オペランドを受信し、クロックサイクルごとに出力を作り出すように、これらの要素の動作をパイプライン化することができる。スケジューリングを複数のレベルに再分割することによって、コンパイラおよびスケジューラは、異なるブロック、ソフトウェア機能/方法、および処理要素が同時に動作するようにハードウェアシステムを構成するハードウェアレベルコード(たとえば、RTLコード)を生成することができる。
図6は、一例による、デジタル信号処理ブロック中のパイプライン化PE600を示す。この実施形態では、PE600は、畳み込みを実施するためのMACブロック605であるが、任意の1つまたは複数のハードウェア要素であり得る。図6では、MACブロック605は、単一のクロックサイクル中で実施され得ない浮動小数点動作(floating point operation)を実施する。したがって、HLSコンパイラが、この浮動小数点動作を、各々1つのクロックサイクル中で実施され得るサブ動作に分割することができる。ここで、浮動小数点動作は、最初に読取り動作610を実施し、後続の乗算動作615を実施し、後続の加算動作(addition operation)620と、書込み動作625とを実施することによって、4つのクロックサイクル中で実施され得る。
第1のクロックサイクルにおいて、読取り動作610は、オペランドAおよびBを取り出す。第2のクロックサイクルにおいて、乗算動作(multiply operation)615は、AオペランドにBオペランドを乗算する。第3のクロックサイクルにおいて、加算動作620は、この乗算の結果を前の乗算に加算し、累算動作として働く。第4のクロックサイクルにおいて、書込み動作は、加算動作の結果(たとえば、出力C)をメモリに書き込む。このようにして、MACブロック605の全体的な動作は、各クロックサイクル中に完了され得る複数のステップに分割され得る。
一実施形態では、動作610、615、620、および625を並列にまたは同時に実施するために、それらの動作は、FPGA中の異なるハードウェア要素によって実施される。すなわち、読取り動作610は第1のメモリインターフェースハードウェア要素によって実施され得、書込み動作625は第2のメモリインターフェースハードウェア要素によって実施される。これらのハードウェア要素が、別個のメモリから読み取り、別個のメモリに書き込むことを試みている(すなわち、FPGA中の異なるブロックRAM(BRAM)要素が、オペランドAおよびBならびに出力Cを記憶するように割り当てられる)限り、読取り動作610と書込み動作625とは、同時に実施され得る。同様に、乗算動作615と加算動作620とが同時に実施され得るように、乗算動作615は第1のDSPブロックによって実施され得、加算動作620は第2のDSPブロックによって実施される。
図6は、7つのクロックサイクル(すなわち、サイクル1、2、3、4、5、6、および7)中のPE600のステータスを示し、PE600は、その7つのクロックサイクル中に、画像データ(すなわち、画像データ105A〜D)の4つのチャンクまたはパケットを処理する。サイクル1中に、画像データ105Aに対応するオペランドAおよびBがFPGA中のメモリから読み取られる。サイクル2中に、画像データ105Bに対応するオペランドAおよびBがメモリから読み取られると同時に、画像データ105Aに対応するオペランドAおよびBが乗算される。サイクル3中に、画像データ105Bに対応するオペランドAおよびBが乗算され、画像データ105Cに対応するオペランドAおよびBがメモリから読み取られると同時に、画像データ105Aに対して乗算を実施した結果が加算動作620によって加算される。サイクル4によって、PE600を構築するハードウェア要素のすべてが同時に実行する。この例では、サイクル4において、画像データ105Bに対して乗算を実施した結果が加算され、画像データ105Cに対応するオペランドAおよびBが乗算され、画像データ105Dに対応するオペランドAおよびBがメモリから読み取られる間に、画像データ105Aについて加算を実施した結果がFPGAのメモリに書き込まれる。追加の画像データが利用可能である(すなわち、PE600によって処理される必要があるさらなる画像データがニューラルネットワークパイプライン中にある)限り、ハードウェア要素は同時に実行する。言い換えれば、コンパイラは、ハードウェア要素が同時に動作するように、FPGA中のハードウェア要素を使用してハードウェア要素をパイプラインにスケジュールすることができる。コンパイラは、スケジュールの上位レベル、中間レベル、および下位レベルにおいてすべてのハードウェア要素について同様のスケジューリングプロセスを実施することができるので、ニューラルネットワークパイプラインは、全体として、ハードウェア要素が同時に動作するようにスケジュールされ得る。
方法300に戻ると、ブロック320において、コンピューティングデバイスは、ブロック315において生成されたRTLコードに従って、FPGA中でプログラマブルハードウェア論理を構成する。すなわち、コンピューティングデバイスは、図6に示されているPEを実施するために選択されたハードウェア要素が同時に動作することができるようにFPGAを構成する。その上、RTLコードは、バッファを含み得るハードウェア要素間のデータフローチャネルを定義することができる。RTLが詳細に言及されているが、コンパイラ(または合成ツール)は、GPUまたはASICなどのハードウェアシステムにおいてニューラルネットワークを実行するときに静的スケジュールを提供する、任意の種類のハードウェアレベル設計を生成し得る。
図7は、一例による、ニューラルネットワークを実装するためのシステム700を示すブロック図である。システム700は、コンピュータシステム702と、1つまたは複数のコンピュータシステム708とを含む。コンピュータシステム702は、1つまたは複数の設計ツール704を与えるソフトウェアを実行するように構成された従来のコンピューティング構成要素を含む。各コンピュータシステム708は、1つまたは複数のニューラルネットワーク710を実行する。(1つまたは複数の)ニューラルネットワーク710は、アプリケーション712と、アクセラレーションライブラリ714と、1つまたは複数のハードウェアアクセラレータ716とを使用して実装される。
一例では、(1つまたは複数の)ハードウェアアクセラレータ716は、FPGAなどのプログラマブルICを含む。アクセラレーションライブラリ714は、(1つまたは複数の)ハードウェアアクセラレータ716とインターフェースするためのアプリケーションプログラミングインターフェース(API)を与える。アクセラレーションライブラリ714はまた、ニューラルネットワーク層および他のタイプのニューラルネットワーク構造のあらかじめ定義されたおよび最適化された実装形態を含む、ニューラルネットワーク機能を与えるライブラリを含むことができる。したがって、(1つまたは複数の)ニューラルネットワーク710は、(1つまたは複数の)ハードウェアアクセラレータ716において実装されるハードウェア部分、ならびに、アクセラレーションライブラリ714において実装されるソフトウェア部分の両方を含むことができる。アプリケーション712は、(1つまたは複数の)ニューラルネットワーク710を実装するように(1つまたは複数の)ハードウェアアクセラレータ716をプログラムし、制御するためにアクセラレーションライブラリ714のAPIを起動する。
設計者は、(1つまたは複数の)ニューラルネットワーク710を定義するために(1つまたは複数の)設計ツール704と対話する。(1つまたは複数の)設計ツール704は、(1つまたは複数の)ハードウェアアクセラレータ716をプログラムするためのファイル(たとえば、FPGAのための構成ビットストリーム)と、アクセラレーションライブラリ714を与えるファイルと、アプリケーション712を与えるファイルとを生成することができる。設計者は、レジスタ転送言語(RTL)を使用して、あるいは、C、C++、OpenCLなどのプログラミング言語、またはRTLと(1つまたは複数の)プログラマブル言語との組合せを使用して、(1つまたは複数の)ニューラルネットワーク710のハードウェア部分を定義することができる。ユーザは、C、C++、OpenCLなどのプログラミング言語を使用して、(1つまたは複数の)ニューラルネットワーク710のソフトウェア部分を定義することができる。(1つまたは複数の)設計ツール704は、(1つまたは複数の)ハードウェアアクセラレータ716をプログラムするためのファイルと、アクセラレーションライブラリ714のためのライブラリファイルとを生成するために、ソフトウェア定義されたニューラルネットワークをコンパイルする。設計者は、(1つまたは複数の)ニューラルネットワーク710のハードウェア部分およびソフトウェア部分を開発するのを支援するために、クラスライブラリ、テンプレートライブラリなどを与えるライブラリ706を活用することができる。
ユーザは、プログラミング言語(たとえば、C、C++、Pythonなど)を使用してアプリケーション712を定義することができる。ユーザは、Caffe、TensorFlow、MXNetなど、ニューラルネットワークフレームワークおよびライブラリを活用することができる。
図8は、一例による、コンピューティングシステム708を示すブロック図である。コンピューティングシステム708は、ハードウェア804と、ハードウェア804上で実行するソフトウェア806とを含む。ハードウェア804は、処理システム810と、システムメモリ816と、ストレージデバイス(「ストレージ818」)と、ハードウェアアクセラレータ716とを含む。ソフトウェア806は、オペレーティングシステム(OS)844と、アクセラレーションライブラリ714と、アプリケーション712とを含む。
処理システム810は、マイクロプロセッサ812と、サポート回路814と、周辺バス815とを含む。マイクロプロセッサ812は、x86ベースプロセッサ、ARM(登録商標)ベースプロセッサなど、任意のタイプの汎用中央処理ユニット(CPU)であり得る。マイクロプロセッサ812は、1つまたは複数のコアと、関連する回路要素(たとえば、キャッシュメモリ、メモリ管理ユニット(MMU)、割込みコントローラなど)とを含むことができる。マイクロプロセッサ812は、本明細書で説明される1つまたは複数の動作を実施するプログラムコードを実行するように構成され、それらのプログラムコードは、システムメモリ816および/またはストレージ818に記憶され得る。サポート回路814は、マイクロプロセッサ812と協働して、マイクロプロセッサ812、システムメモリ816、ストレージ818、ハードウェアアクセラレータ716、または任意の他の周辺デバイスの間のデータフローを管理する、様々なデバイスを含む。たとえば、サポート回路814は、チップセット(たとえば、ノースブリッジ、サウスブリッジ、プラットフォームホストコントローラなど)、電圧調節器、ファームウェア(たとえば、BIOS)などを含むことができる。サポート回路814は、マイクロプロセッサ812と周辺バス815との間のデータフローを管理し、そこにハードウェアアクセラレータ716などの様々な周辺機器が接続される。いくつかの例では、マイクロプロセッサ812は、チップセット(たとえば、ノースブリッジ、サウスブリッジなど)の機能性の全部または実質的部分を吸収する、システムインパッケージ(SiP)、システムオンチップ(SoC)などであり得る。周辺バスは、周辺構成要素相互接続エクスプレス(PCIe)など、拡張バス規格を実装することができる。本例では、処理システム810は、ハードウェアアクセラレータ716とは別個に示されている。以下でさらに説明される他の例では、処理システム810とハードウェアアクセラレータ716とは、システムオンチップ(SoC)を使用して同じIC上に実装され得る。
システムメモリ816は、実行可能な命令およびデータなどの情報が記憶され、取り出されることを可能にするデバイスである。システムメモリ816は、たとえば、ダブルデータレート(DDR)ダイナミックRAM(DRAM)など、1つまたは複数のランダムアクセスメモリ(RAM)モジュールを含むことができる。ストレージデバイス818は、ローカルストレージデバイス(たとえば、1つまたは複数のハードディスク、フラッシュメモリモジュール、ソリッドステートディスク、および光ディスク)、および/またはコンピューティングシステム708が1つまたは複数のネットワークデータストレージシステムと通信することを可能にするストレージインターフェースを含む。ハードウェア804は、グラフィックスカード、ユニバーサルシリアルバス(USB)インターフェースなど、コンピューティングシステムの様々な他の従来のデバイスおよび周辺機器を含むことができる。
ハードウェアアクセラレータ716は、プログラマブルIC828と、不揮発性メモリ824と、RAM826とを含む。プログラマブルIC828は、FPGAなど、またはFPGAを有するSoCなどであり得る。NVM824は、フラッシュメモリなど、任意のタイプの不揮発性メモリを含むことができる。RAM826は、DDR DRAMなどを含むことができる。プログラマブルIC828は、NVM824およびRAM826に連結される。プログラマブルIC828は、処理システム810の周辺バス815にも連結される。
OS844は、Linux(登録商標)、Microsoft Windows(登録商標)、Mac OS(登録商標)など、当技術分野において知られている任意のコモディティオペレーティングシステムであり得る。アクセラレーションライブラリ714は、ハードウェアアクセラレータ716のコマンドおよび制御のためのAPIを与えるドライバおよびライブラリを含む。アプリケーション712は、(1つまたは複数の)ニューラルネットワークを実装するためにアクセラレーションライブラリ714のAPIを起動する、マイクロプロセッサ812上で実行するソフトウェアを含む。
動作中、プログラマブルIC828は、アクセラレーション回路830(たとえば、ニューラルネットワークアクセラレーション回路またはカーネルアクセラレーション回路)で構成される。アクセラレーション回路830は、概して、ベースプラットフォーム830Aとカーネル830Bとを含む。たとえば、アクセラレーション回路830は、静的領域834とプログラマブル領域836とを使用して実装され得る。静的領域834は、周辺バス815と、NVM824と、RAM826とにインターフェースを与えるためのサポート回路840を含む。プログラマブル領域836は、1つまたは複数のカーネル回路(「(1つまたは複数の)カーネル838」)を含むことができる。ベースプラットフォーム830Aは静的領域834を使用して実装され、カーネル830Bはプログラマブル領域836を使用して実装される。別の例では、ベースプラットフォーム830Aはまた、プログラマブル領域836の一部分を使用して実装され得る。したがって、いくつかの例では、プログラマブル領域836は、いくつかのインターフェース回路をも含む。いくつかの例では、アクセラレーション回路830は、それらの各々が個々に(1つまたは複数の)カーネル838で構成され得る、2つ以上のプログラマブル領域836を含むことができる。
静的領域834は、静的領域834の回路要素がプログラマブル領域836の再構成にわたって不変のままであるという点で「静的」であり、上記で説明された静的スケジューリングとは異なる。一例では、サポート回路840は、PCIeエンドポイント回路、ダイレクトメモリアクセス(DMA)コントローラ、相互接続、メモリコントローラ、メモリインターフェース回路(たとえば、DDRインターフェース)、(部分再構成をサポートするための)デカップラ回路、フラッシュプログラマー、デバッグ回路などを含む。いくつかの例では、プログラマブル領域836は、サポート回路840のいずれをも含まない。他の例では、いくつかのサポート回路は、プログラマブル領域836において実装される。そのような場合、プログラマブル領域836は「拡張されたプログラマブル領域」と呼ばれることがある。いずれの場合も、一例では、PCIe回路およびDMA回路など、いくつかのサポート回路840は、常に、静的領域834中に存在する。
図9は、一例による、アクセラレーション回路830を示すブロック図である。アクセラレーション回路830は、サポート回路840とカーネル838とを含む。本例では、サポート回路840は、PCIeエンドポイント回路(「PCIeエンドポイント902」)と、PCIe DMAコントローラ904と、相互接続回路(「相互接続906」)と、メモリコントローラ910と、メモリインターフェース912とを含む。サポート回路840は、明快のために省略される他の回路(たとえば、デカップラ回路、デバッグ回路など)を含むことができる。PCIeエンドポイント902は、周辺バス815への物理インターフェースを与える。PCIe DMAコントローラ904は、RAM826とカーネル838とへのDMA動作を容易にする。相互接続906は、PCIe DMAコントローラ904をメモリコントローラ910とカーネル838とに連結する。メモリコントローラ910はメモリインターフェース912に連結される。メモリインターフェース912はRAM826に連結される。
動作中、アクセラレーションライブラリ714は、PCIe DMAコントローラ904を通してRAM826に直接アクセスすることができる。アクセラレーションライブラリ714はまた、PCIe DMAコントローラ904を通してカーネル838にアクセスすることができる。カーネル838は、メモリコントローラ910を通してRAM826にアクセスすることができる。データは、システムメモリ816とRAM826との間のDMA動作を使用して、ソフトウェア806とカーネル838との間で交換され得る。
本例では、カーネル838は、相互接続906と通信するためにインターフェース930、931、および932を使用する。特に、これらのインターフェースは、第1の読取りインターフェース930と、第2の読取りインターフェース931と、読取り/書込みインターフェース932とを含み得る。たとえば、読取りインターフェース930は、カーネル838を制御するための制御インターフェースとして使用され得る。読取りインターフェース931は、メモリインターフェース912のうちの第1のメモリインターフェースを通してRAM826から読み取るために使用され得る。読取り/書込みインターフェース932は、メモリインターフェース912のうちの第2のメモリインターフェースを通してRAM826からの読取りおよび書込みを行うために使用され得る。
カーネル838は、相互接続インターフェース940と、制御論理942と、処理回路941とを含む。処理回路941は、IM2COL回路(「IM2COL944」)と、読取り制御回路(「読取り制御946」)と、マルチプレクサ956と、先入れ先出し回路(「FIFO958」)と、算出アレイ962と、スケーラ回路(ReLU活性化回路などの「スケーラ964」)と、最大プール回路(「最大プール966」)と、マルチプレクサ968と、FIFO954と、書込み制御回路(「書込み制御952」)と、キャッシュ948と、読取り制御回路(「読取り制御950」)と、FIFO960とを含む。相互接続インターフェース940は、インターフェース930、931、および932と、制御論理942と、処理回路941とに連結される。相互接続インターフェース940は、制御論理942とインターフェース930との間の通信、ならびに処理回路941とインターフェース931および932との間の通信を容易にするための、スイッチ、クロック変換器などを含むことができる。
本例では、相互接続インターフェース940は、IM2COL回路944の入力と、読取り制御回路946の入力と、キャッシュ948の入力と、書込み制御回路952の入力とに連結される。IM2COL回路944の出力と、読取り制御回路946の出力とが、マルチプレクサ956の入力に連結される。マルチプレクサ956の出力がFIFO958の入力に連結される。FIFO958の出力が算出アレイ962の第1の入力に連結される。キャッシュ948の出力が読取り制御回路950の入力に連結される。読取り制御回路950の出力がFIFO960の入力に連結される。FIFO960の出力が算出アレイ962の第2の入力に連結される。算出アレイ962の出力がスケーラ964の入力に連結される。スケーラ964の出力が、最大プール回路966の入力とマルチプレクサ968の入力とに連結される。最大プール回路966の出力がマルチプレクサ968の別の入力に連結される。マルチプレクサ968の出力がFIFO954の入力に連結される。FIFO954の出力が書込み制御回路952に連結される。
動作中、算出アレイ962は、ニューラルネットワークを実装するための行列乗算動作を実施する。算出アレイ962の入力は、FIFO958から入力活性化行列を受信し、FIFO960から重み行列を受信する。入力活性化行列は、読取り制御回路946を使用してRAM826から直接読み取られ得る。代替的に、入力活性化は、RAM826から読み取られ、算出アレイ962への入力のためにIM2COL回路944によって処理され得る。IM2COL回路944の実施形態が以下で説明される。重み行列は、読取り制御回路950によってRAM826から読み取られ、キャッシュ948中にキャッシュされ得る。スケーラ964は、算出アレイ962の出力をスケーリングすることができる。最大プール回路966は、算出アレイ962のスケーリングされた出力に対する最大プーリング関数を実装することができる。一例では、最大プール回路966は、CLBまたは他の構成可能な論理を使用して実装される。最大プール回路966の出力またはスケーラ964の出力のいずれかがFIFO954に記憶され得る。書込み制御回路952は、FIFO中のデータをRAM826に書き込む。制御論理942は、IM2COL回路944、読取り制御回路946、マルチプレクサ956および968、読取り制御回路950、ならびにスケーラ964、最大プール回路966、ならびに書込み制御回路952など、処理回路941中の様々な回路を制御する。
図10は、一例による、プログラマブルIC828を示すブロック図である。プログラマブルIC828は、プログラマブル論理3と、構成論理25と、構成メモリ26とを含む。プログラマブルIC828は、NVM824、RAM826、および他の回路29など、外部回路に連結され得る。プログラマブル論理3は、論理セル30と、サポート回路31と、プログラマブル相互接続32とを含む。論理セル30は、複数の入力の一般的な論理関数を実装するように構成され得る回路を含む。サポート回路31は、トランシーバ、入出力ブロック、デジタル信号プロセッサ、メモリなどの専用の回路を含む。論理セルとサポート回路31とは、プログラマブル相互接続32を使用して相互接続され得る。論理セル30をプログラムするための情報と、サポート回路31のパラメータを設定するための情報と、プログラマブル相互接続32をプログラムするための情報とが、構成論理25によって構成メモリ26に記憶される。構成論理25は、不揮発性メモリ824または任意の他のソース(たとえば、DRAM28または他の回路29)から構成データを取得することができる。いくつかの例では、プログラマブルIC828は処理システム2を含む。処理システム2は、(1つまたは複数の)マイクロプロセッサ、メモリ、サポート回路、IO回路などを含むことができる。たとえば、処理システム2は、処理システム810と同様の回路を含むことができる。いくつかの例では、処理システム2は、処理システム810の代わりに使用され得る。そのような場合、コンピューティングシステム708全体がプログラマブルIC828を使用して実装され得、ソフトウェア806は処理システム2上で実行する。
図11は、トランシーバ37、CLB33、BRAM34、入出力ブロック(「IOB」)36、構成およびクロッキング論理(「CONFIG/CLOCKS」)42、DSPブロック35、特殊な入出力ブロック(「I/O」)41(たとえば、構成ポートおよびクロックポート)、ならびにデジタルクロックマネージャ、アナログデジタル変換器、システム監視論理などの他のプログラマブル論理39を含む、多数の異なるプログラマブルタイルを含むプログラマブルIC828のFPGA実装形態を示す。FPGAはまた、PCIeインターフェース40、アナログデジタル変換器(ADC)38などを含むことができる。
いくつかのFPGAでは、各プログラマブルタイルは、図11の上部に含まれる例によって示されているように、同じタイル内のプログラマブル論理要素の入力および出力端子48への接続を有する少なくとも1つのプログラマブル相互接続要素(「INT」)43を含むことができる。各プログラマブル相互接続要素43は、同じタイルまたは(1つまたは複数の)他のタイル中の(1つまたは複数の)隣接するプログラマブル相互接続要素の相互接続セグメント49への接続をも含むことができる。各プログラマブル相互接続要素43は、論理ブロック(図示せず)間の一般的なルーティングリソースの相互接続セグメント50への接続をも含むことができる。一般的なルーティングリソースは、相互接続セグメント(たとえば、相互接続セグメント50)のトラックを備える論理ブロック(図示せず)と、相互接続セグメントを接続するためのスイッチブロック(図示せず)との間のルーティングチャネルを含むことができる。一般的なルーティングリソースの相互接続セグメント(たとえば、相互接続セグメント50)は、1つまたは複数の論理ブロックにわたることができる。一般的なルーティングリソースとともにとられるプログラマブル相互接続要素43は、示されているFPGAのためのプログラマブル相互接続構造(「プログラマブル相互接続」)を実装する。
例示的な一実装形態では、CLB33は、ユーザ論理を実装するようにプログラムされ得る構成可能論理要素(「CLE」)44と、単一のプログラマブル相互接続要素(「INT」)43とを含むことができる。BRAM34は、1つまたは複数のプログラマブル相互接続要素に加えてBRAM論理要素(「BRL」)45を含むことができる。典型的には、タイル中に含まれる相互接続要素の数は、タイルの高さに依存する。描かれている例では、BRAMタイルは、5つのCLBと同じ高さを有するが、他の数(たとえば、4つ)も使用され得る。DSPタイル35は、適切な数のプログラマブル相互接続要素に加えてDSP論理要素(「DSPL」)46を含むことができる。IOB36は、たとえば、プログラマブル相互接続要素43の1つのインスタンスに加えて入出力論理要素(「IOL」)47の2つのインスタンスを含むことができる。当業者に明らかになるように、たとえばI/O論理要素47に接続される実際のI/Oパッドは、典型的に、入出力論理要素47のエリアに制限されない。
描かれている例では、(図11に示されている)ダイの中心の近くの水平方向のエリアが、構成、クロック、および他の制御論理のために使用される。この水平方向のエリアまたは列から延びる垂直方向の列51が、FPGAの幅にわたってクロックおよび構成信号を分散させるために使用される。
図11に示されているアーキテクチャを利用するいくつかのFPGAは、FPGAの大部分を構築する規則的な列状構造を損なう追加の論理ブロックを含む。追加の論理ブロックは、プログラマブルブロックおよび/または専用の論理であり得る。
図11は、例示的なFPGAアーキテクチャを示すことを意図されているにすぎないことに留意されたい。たとえば、1つの行中の論理ブロックの数、行の相対幅、行の数および順序、行中に含まれる論理ブロックのタイプ、論理ブロックの相対サイズ、および図11の上部に含まれる相互接続/論理実装形態は、例にすぎない。たとえば、実際のFPGAでは、ユーザ論理の効率的な実装を容易にするために、CLBが現れるところならどこでも、CLBの2つ以上の隣接する行が典型的に含まれるが、隣接するCLB行の数は、FPGAの全体的なサイズによって変動する。
本発明の様々な実施形態の説明は、例示の目的で提示されており、網羅的なものでも、開示される実施形態に限定されるものでもない。説明される実施形態の範囲および趣旨から逸脱することなく、多くの修正および変形が当業者に明らかになるであろう。本明細書で使用される用語は、実施形態の原理、実際的適用例、または市場で見られる技術に対する技術的改善を最も良く説明するために、あるいは、他の当業者が本明細書で開示される実施形態を理解することを可能にするために選定された。
上記では、本開示において提示される実施形態への言及が行われた。しかしながら、本開示の範囲は、特定の説明される実施形態に限定されない。代わりに、本明細書で説明される特徴および要素の任意の組合せが、異なる実施形態に関係するか否かにかかわらず、企図された実施形態を実装および実施するために企図される。さらに、本明細書で開示される実施形態は、他の可能な解決策または従来技術に勝る利点を達成し得るが、特定の利点が所与の実施形態によって達成されるか否かは、本開示の範囲を限定するものではない。したがって、本明細書で説明される態様、特徴、実施形態および利点は、例示的なものにすぎず、(1つまたは複数の)請求項において明示的に具陳されている場合を除いて、添付の特許請求の範囲の要素または限定と見なされない。同様に、「本発明」への言及は、本明細書で開示される発明の主題の一般化と解釈されるものではなく、(1つまたは複数の)請求項において明示的に具陳されている場合を除いて、添付の特許請求の範囲の要素または限定であると見なされるものではない。
本明細書で説明される態様は、完全にハードウェアの実施形態、(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)完全にソフトウェアの実施形態、またはソフトウェア態様とハードウェア態様とを組み合わせる実施形態の形態をとり得、これらはすべて、本明細書では概して「モジュール」または「システム」と呼ばれることがある。
本発明は、システム、方法、および/またはコンピュータプログラム製品であり得る。コンピュータプログラム製品は、プロセッサに本発明の態様を行わせるためのコンピュータ可読プログラム命令をその上に有する(1つまたは複数の)コンピュータ可読記憶媒体を含み得る。
コンピュータ可読記憶媒体は、命令実行デバイスによる使用のための命令を保持および記憶することができる有形デバイスであり得る。コンピュータ可読記憶媒体は、たとえば、限定はしないが、電子ストレージデバイス、磁気ストレージデバイス、光ストレージデバイス、電磁ストレージデバイス、半導体ストレージデバイス、または上記の任意の好適な組合せであり得る。コンピュータ可読記憶媒体のより具体的な例の非網羅的なリストは、ポータブルコンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、消去可能プログラマブル読取り専用メモリ(EPROMまたはフラッシュメモリ)、スタティックランダムアクセスメモリ(SRAM)、ポータブルコンパクトディスク読取り専用メモリ(CD−ROM)、デジタル多用途ディスク(DVD)、メモリスティック、フロッピーディスク、パンチカードまたは命令が記録された溝における隆起構造など、機械的に符号化されたデバイス、および上記の任意の好適な組合せを含む。本明細書で使用されるコンピュータ可読記憶媒体は、電波または他の自由に伝搬する電磁波、導波路または他の伝送媒体中を伝搬する電磁波(たとえば、光ファイバーケーブルを通過する光パルス)、あるいはワイヤを通して送信される電気信号など、それ自体が一時的信号であると解釈されるべきではない。
本明細書で説明されるコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体からそれぞれのコンピューティング/処理デバイスに、あるいはネットワーク、たとえば、インターネット、ローカルエリアネットワーク、ワイドエリアネットワークおよび/またはワイヤレスネットワークを介して外部コンピュータまたは外部ストレージデバイスにダウンロードされ得る。ネットワークは、銅伝送ケーブル、光伝送ファイバー、ワイヤレス送信、ルータ、ファイアウォール、スイッチ、ゲートウェイコンピュータおよび/またはエッジサーバを備え得る。各コンピューティング/処理デバイス中のネットワークアダプタカードまたはネットワークインターフェースは、ネットワークからコンピュータ可読プログラム命令を受信し、そのコンピュータ可読プログラム命令を、それぞれのコンピューティング/処理デバイス内のコンピュータ可読記憶媒体に記憶するためにフォワーディングする。
本発明の動作を行うためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、機械命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、あるいは、Smalltalk、C++などのオブジェクト指向プログラミング言語、および「C」プログラミング言語または同様のプログラミング言語などの従来の手続き型プログラミング言語を含む1つまたは複数のプログラミング言語の任意の組合せで書き込まれたソースコードまたはオブジェクトコードのいずれかであり得る。コンピュータ可読プログラム命令は、完全にユーザのコンピュータ上で、部分的にユーザのコンピュータ上で、スタンドアロンソフトウェアパッケージとして、部分的にユーザのコンピュータ上でおよび部分的にリモートコンピュータ上で、あるいは完全にリモートコンピュータまたはサーバ上で実行し得る。後者のシナリオでは、リモートコンピュータは、ローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)を含む任意のタイプのネットワークを通してユーザのコンピュータに接続され得るか、あるいは接続は、(たとえば、インターネットサービスプロバイダを使用してインターネットを通して)外部コンピュータに対して行われ得る。いくつかの実施形態では、たとえば、プログラマブル論理回路要素、フィールドプログラマブルゲートアレイ(FPGA)、またはプログラマブル論理アレイ(PLA)を含む電子回路要素が、本発明の態様を実施するために、電子回路要素を個人化するためにコンピュータ可読プログラム命令の状態情報を利用することによって、コンピュータ可読プログラム命令を実行し得る。
本発明の態様が、本発明の実施形態による方法、装置(システム)、およびコンピュータプログラム製品のフローチャートの例示図および/またはブロック図を参照しながら本明細書で説明された。フローチャートの例示図および/またはブロック図の各ブロック、ならびにフローチャートの例示図および/またはブロック図中のブロックの組合せが、コンピュータ可読プログラム命令によって実装され得ることを理解されよう。
これらのコンピュータ可読プログラム命令は、汎用コンピュータ、専用コンピュータ、または機械を製造するための他のプログラマブルデータ処理装置のプロセッサに与えられ得、その結果、コンピュータまたは他のプログラマブルデータ処理装置のプロセッサを介して実行する命令は、フローチャートおよび/またはブロック図の1つまたは複数のブロックにおいて指定された関数/行為を実装するための手段を作成する。これらのコンピュータ可読プログラム命令はまた、コンピュータ、プログラマブルデータ処理装置、および/または他のデバイスに特定の様式で機能するように指示することができるコンピュータ可読記憶媒体に記憶され得、その結果、命令が記憶されたコンピュータ可読記憶媒体は、フローチャートおよび/またはブロック図の1つまたは複数のブロックにおいて指定された関数/行為の態様を実装する命令を含む製造品を備える。
コンピュータ可読プログラム命令はまた、コンピュータ実装プロセスを作り出すために、一連の動作ステップをコンピュータ、他のプログラマブルデータ処理装置または他のデバイス上で実施させるように、コンピュータ、他のプログラマブル装置、または他のデバイスにロードされ得、その結果、コンピュータ、他のプログラマブル装置、または他のデバイス上で実行する命令は、フローチャートおよび/またはブロック図の1つまたは複数のブロックにおいて指定された関数/行為を実装する。
図中のフローチャートおよびブロック図は、本発明の様々な実施形態によるシステム、方法、およびコンピュータプログラム製品の可能な実装形態のアーキテクチャ、機能性、および動作を示す。この点について、フローチャートまたはブロック図中の各ブロックは、(1つまたは複数の)指定された論理関数を実装するための1つまたは複数の実行可能な命令を備える、命令のモジュール、セグメント、または部分を表し得る。いくつかの代替実装形態では、ブロック中で言及される関数は、図中で言及される順序から外れて行われ得る。たとえば、関与する機能性に応じて、連続して示されている2つのブロックが、事実上、実質的に同時に実行され得るか、またはブロックが、時々、逆の順序で実行され得る。また、ブロック図および/またはフローチャートの例示図の各ブロック、ならびにブロック図および/またはフローチャートの例示図中のブロックの組合せが、指定された関数または行為を実施するかあるいは専用ハードウェアとコンピュータ命令との組合せを行う専用ハードウェアベースシステムによって実装され得ることに留意されたい。
非限定的な例のリスティングが以下で提供される。
一例では、ニューラルネットワークをスケジュールするための方法が提供される。そのような方法は、ニューラルネットワーク中の少なくとも1つの層を実行するときに実施される複数のパイプライン化関数の連続した順序を定義するモデルを受信することであって、ニューラルネットワークが複数の層を備える、複数のパイプライン化関数の連続した順序を定義するモデルを受信することと、
ニューラルネットワークの少なくとも1つの層において同一のプロセスを実行するためのシストリックアレイを受信することと、1つまたは複数のコンピューティングプロセッサを使用して、モデルおよびシストリックアレイに対応するソースコードを、ハードウェアシステムにおいてニューラルネットワークを実行するときに静的スケジュールを提供するハードウェアレベル設計にコンパイルすることとを含み得る。
あるそのような方法は、ハードウェアレベル設計に基づいてフィールドプログラマブルゲートアレイ(FPGA)を構成することであって、ハードウェアレベル設計がレジスタ転送レベル(RTL)コードを含む、フィールドプログラマブルゲートアレイ(FPGA)を構成することをさらに含み得る。
あるそのような方法では、シストリックアレイのソースコードをコンパイルすることは、シストリックアレイのソースコードを、相互接続された処理要素の2次元アレイに変換することを含み得る。
あるそのような方法では、シストリックアレイのソースコードをコンパイルすることは、相互接続された処理要素の各々によって実施される複数の動作を識別することであって、相互接続された処理要素の各々が同じ複数の動作を実施する、複数の動作を識別することと、複数の動作が同時に機能することが可能であり得るように、複数の動作をハードウェアシステム中の異なるハードウェア要素に割り当てることとを含み得る。
あるそのような方法では、モデルは、複数のパイプライン化関数の連続した順序を示すソフトウェア定義並列化プラグマを含み得る。
あるそのような方法では、モデルに対応するソースコードは、ニューラルネットワークのためのアンタイムド関数コードを含む。
あるそのような方法では、複数のパイプライン化関数は、畳み込みユニット、プーリングユニット、およびデータを複数のパイプライン化関数における活性化ユニットに送信する行列乗算器のうちの少なくとも1つを含む。
別の例では、1つまたは複数の処理デバイス上で実行されたとき、ニューラルネットワークをスケジュールするための動作を実施する命令を記憶する非一時的コンピュータ可読記憶媒体が提供され得る。動作は、ニューラルネットワーク中の少なくとも1つの層を実行するときに実施される複数のパイプライン化関数の連続した順序を定義するモデルを受信することであって、ニューラルネットワークが複数の層を備える、複数のパイプライン化関数の連続した順序を定義するモデルを受信することと、ニューラルネットワークの少なくとも1つの層において同一のプロセスを実行するためのシストリックアレイを受信することと、モデルおよびシストリックアレイに対応するソースコードを、ハードウェアシステムにおいてニューラルネットワークを実行するときに静的スケジュールを提供するハードウェアレベル設計にコンパイルすることとを含み得る。
そのようなコンピュータ可読記憶媒体では、動作は、ハードウェアレベル設計に基づいてフィールドプログラマブルゲートアレイ(FPGA)を構成することであって、ハードウェアレベル設計がレジスタ転送レベル(RTL)コードを含む、フィールドプログラマブルゲートアレイ(FPGA)を構成することをさらに含み得る。
そのようなコンピュータ可読記憶媒体では、シストリックアレイのソースコードをコンパイルすることは、シストリックアレイのソースコードを、相互接続された処理要素の2次元アレイに変換することを含み得る。
そのようなコンピュータ可読記憶媒体では、シストリックアレイのソースコードをコンパイルすることは、相互接続された処理要素の各々によって実施される複数の動作を識別することであって、相互接続された処理要素の各々が同じ複数の動作を実施する、複数の動作を識別することと、複数の動作が同時に機能することが可能であり得るように、複数の動作をハードウェアシステム中の異なるハードウェア要素に割り当てることとを含み得る。
そのようなコンピュータ可読記憶媒体では、モデルは、複数のパイプライン化関数の連続した順序を示すソフトウェア定義並列化プラグマを含み得る。
そのようなコンピュータ可読記憶媒体では、モデルに対応するソースコードは、ニューラルネットワークのためのアンタイムド関数コードを含む。
そのようなコンピュータ可読記憶媒体では、複数のパイプライン化関数は、畳み込みユニット、プーリングユニット、およびデータを複数のパイプライン化関数における活性化ユニットに送信する行列乗算器のうちの少なくとも1つを含む。
別の例では、コンピューティングシステムが提供され得る。そのようなコンピューティングシステムは、プロセッサと、コンパイラを備えるメモリとを含み得、コンパイラは、プロセッサによって実行されたとき、ニューラルネットワーク中の少なくとも1つの層を実行するときに実施される複数のパイプライン化関数の連続した順序を定義するモデルを受信することであって、ニューラルネットワークが複数の層を備える、複数のパイプライン化関数の連続した順序を定義するモデルを受信することと、ニューラルネットワークの少なくとも1つの層において同一のプロセスを実行するためのシストリックアレイを受信することと、モデルおよびシストリックアレイに対応するソースコードを、ハードウェアシステムにおいてニューラルネットワークを実行するときに静的スケジュールを提供するハードウェアレベル設計にコンパイルすることとを含む動作を実施する。
あるそのようなコンピューティングシステムでは、動作は、ハードウェアレベル設計に基づいてフィールドプログラマブルゲートアレイ(FPGA)を構成することであって、ハードウェアレベル設計がレジスタ転送レベル(RTL)コードを含む、フィールドプログラマブルゲートアレイ(FPGA)を構成することをさらに含み得る。
そのようなコンピューティングシステムでは、シストリックアレイのソースコードをコンパイルすることは、シストリックアレイのソースコードを、相互接続された処理要素の2次元アレイに変換することを含む。
そのようなコンピューティングシステムでは、シストリックアレイのソースコードをコンパイルすることは、相互接続された処理要素の各々によって実施される複数の動作を識別することであって、相互接続された処理要素の各々が同じ複数の動作を実施する、複数の動作を識別することと、複数の動作が同時に機能できるように、複数の動作をハードウェアシステム中の異なるハードウェア要素に割り当てることとを含み得る。
あるそのようなコンピューティングシステムでは、モデルは、複数のパイプライン化関数の連続した順序を示すソフトウェア定義並列化プラグマを含み得る。
あるそのようなコンピューティングシステムでは、モデルに対応するソースコードは、ニューラルネットワークのためのアンタイムド関数コードを含み得る。
上記は特定の例を対象とするが、他のおよびさらなる例がその基本的範囲から逸脱することなく考案され得、その範囲は以下の特許請求の範囲によって決定される。
表1中のソースコードは、「p_cnnLayers」個の層をもつニューラルネットワークのためのアンタイムド関数コード(untimed functional code)である。さらに、コードは、定義されたシーケンスにおいて順序付けされるが、明示的にスケジュールされない。この実施形態では、HLS DATAFLOWは、データフローのための並列化プラグマである。このプラグマは、ニューラルネットワーク設計者が、並列ブロックをスケジュールする必要なしにそれらのブロックをインスタンス化することによってRTL概念を使用することを可能にする。RTLにコンパイルされた後に、コードにおける異なる関数(たとえば、Conv、MaxPool、Relu、およびScale)が同時に動作する。図示されていないが、コードは、異なる関数を相互接続するFIFO(または他のバッファ)を含み得る。
図5は、一例による、ニューラルネットワーク中のシストリックアレイ280を示す。図5では、シストリックアレイ280は、畳み込みブロックとして構成される。一実施形態では、図4に示されている畳み込みユニット410は、図5に示されているシストリックアレイ280のうちの1つまたは複数から形成される。図4中の他のブロック、すなわち、最大プーリングユニット415、ReLU425、およびスケーリングユニット435は、同じシストリックアレイ280または異なるシストリックアレイを使用して形成され得る。
図3に戻ると、ブロック315において、コンパイラは、高レベルコードをRTLコードにコンパイルし、RTLコードは、ニューラルネットワークのパイプラインのための静的スケジュールを提供する。一実施形態では、コンパイラは、RTLコードを生成するために、ブロック305において受信されたモデルとブロック310において受信されたシストリックアレイとに対応するソースコードを使用する。たとえば、コンパイラは、全体としてニューラルネットワーク全体をスケジュールすることを試みるのではなく、モデルまたは層設計において個々のブロックをスケジュールすることができる。図4を参照すると、コンパイラは、スケジューリング処理を簡略化し、スケジューリングが収束する可能性を増加させるために、畳み込みユニット410と、最大プーリングユニット415と、ReLU425と、スケーリングユニット435とを別々にスケジュールすることができる。すなわち、個々のブロックをスケジュールすることによって、コンパイラは、ブロックを形成するハードウェアをスケジュールし、次いで、スケジューリングプロセスの上位レベルを実施するときにブロック間でデータを共有するためのデータフローチャネルを生成することができる。

Claims (13)

  1. ニューラルネットワークをスケジュールするための方法であって、
    前記ニューラルネットワーク中の少なくとも1つの層を実行するときに実施される複数のパイプライン化関数の連続した順序を定義するモデルを受信することであって、前記ニューラルネットワークが複数の層を備える、複数のパイプライン化関数の連続した順序を定義するモデルを受信することと、
    前記ニューラルネットワークの前記少なくとも1つの層において同一のプロセスを実行するためのシストリックアレイを受信することと、
    1つまたは複数のコンピューティングプロセッサを使用して、前記モデルおよび前記シストリックアレイに対応するソースコードを、ハードウェアシステムにおいて前記ニューラルネットワークを実行するときに静的スケジュールを提供するハードウェアレベル設計にコンパイルすることと
    を含む、方法。
  2. 前記ハードウェアレベル設計に基づいてフィールドプログラマブルゲートアレイ(FPGA)を構成することであって、前記ハードウェアレベル設計がレジスタ転送レベル(RTL)コードを含む、フィールドプログラマブルゲートアレイ(FPGA)を構成すること
    をさらに含む、請求項1に記載の方法。
  3. 前記シストリックアレイの前記ソースコードをコンパイルすることが、
    前記シストリックアレイの前記ソースコードを、相互接続された処理要素の2次元アレイに変換すること
    を含む、請求項1に記載の方法。
  4. 前記シストリックアレイの前記ソースコードをコンパイルすることは、
    前記相互接続された処理要素の各々によって実施される複数の動作を識別することであって、前記相互接続された処理要素の各々が同じ複数の動作を実施する、複数の動作を識別することと、
    前記複数の動作が同時に機能できるように、前記複数の動作を前記ハードウェアシステム中の異なるハードウェア要素に割り当てることと
    を含む、請求項3に記載の方法。
  5. 前記モデルが、前記複数のパイプライン化関数の前記連続した順序を示すソフトウェア定義並列化プラグマを含む、請求項1に記載の方法。
  6. 前記モデルに対応する前記ソースコードが、前記ニューラルネットワークのためのアンタイムド関数コードを含む、請求項1に記載の方法。
  7. 前記複数のパイプライン化関数が、畳み込みユニット、プーリングユニット、およびデータを前記複数のパイプライン化関数における活性化ユニットに送信する行列乗算器のうちの少なくとも1つを含む、請求項1に記載の方法。
  8. プロセッサと、
    コンパイラを備えるメモリと
    を備えるコンピューティングシステムであって、前記コンパイラは、前記プロセッサによって実行されたとき、
    ニューラルネットワーク中の少なくとも1つの層を実行するときに実施される複数のパイプライン化関数の連続した順序を定義するモデルを受信することであって、前記ニューラルネットワークが複数の層を備える、複数のパイプライン化関数の連続した順序を定義するモデルを受信することと、
    前記ニューラルネットワークの前記少なくとも1つの層において同一のプロセスを実行するためのシストリックアレイを受信することと、
    前記モデルおよび前記シストリックアレイに対応するソースコードを、ハードウェアシステムにおいて前記ニューラルネットワークを実行するときに静的スケジュールを提供するハードウェアレベル設計にコンパイルすることと
    を含む動作を実施する、コンピューティングシステム。
  9. 前記動作は、
    前記ハードウェアレベル設計に基づいてフィールドプログラマブルゲートアレイ(FPGA)を構成することであって、前記ハードウェアレベル設計がレジスタ転送レベル(RTL)コードを含む、フィールドプログラマブルゲートアレイ(FPGA)を構成すること
    をさらに含む、請求項8に記載のコンピューティングシステム。
  10. 前記シストリックアレイの前記ソースコードをコンパイルすることが、
    前記シストリックアレイの前記ソースコードを、相互接続された処理要素の2次元アレイに変換すること
    を含む、請求項8に記載のコンピューティングシステム。
  11. 前記シストリックアレイの前記ソースコードをコンパイルすることは、
    前記相互接続された処理要素の各々によって実施される複数の動作を識別することであって、前記相互接続された処理要素の各々が同じ複数の動作を実施する、複数の動作を識別することと、
    前記複数の動作が同時に機能できるように、前記複数の動作を前記ハードウェアシステム中の異なるハードウェア要素に割り当てることと
    を含む、請求項10に記載のコンピューティングシステム。
  12. 前記モデルが、前記複数のパイプライン化関数の前記連続した順序を示すソフトウェア定義並列化プラグマを含む、請求項8に記載のコンピューティングシステム。
  13. 前記モデルに対応する前記ソースコードが、前記ニューラルネットワークのためのアンタイムド関数コードを含む、請求項8に記載のコンピューティングシステム。
JP2020521607A 2017-10-17 2018-10-01 超並列ソフトウェア定義ハードウェアシステムにおける静的ブロックスケジューリング Active JP7337053B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/786,434 2017-10-17
US15/786,434 US12061990B2 (en) 2017-10-17 2017-10-17 Static block scheduling in massively parallel software defined hardware systems
PCT/US2018/053820 WO2019079025A1 (en) 2017-10-17 2018-10-01 ORDERING STATIC BLOCKS IN MATERIAL SYSTEMS DEFINED BY MASSIVELY PARALLEL SOFTWARE

Publications (2)

Publication Number Publication Date
JP2020537789A true JP2020537789A (ja) 2020-12-24
JP7337053B2 JP7337053B2 (ja) 2023-09-01

Family

ID=63963512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020521607A Active JP7337053B2 (ja) 2017-10-17 2018-10-01 超並列ソフトウェア定義ハードウェアシステムにおける静的ブロックスケジューリング

Country Status (6)

Country Link
US (1) US12061990B2 (ja)
EP (1) EP3698295A1 (ja)
JP (1) JP7337053B2 (ja)
KR (1) KR102650299B1 (ja)
CN (1) CN111771215B (ja)
WO (1) WO2019079025A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021508125A (ja) * 2017-12-29 2021-02-25 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 行列乗算器
WO2024095624A1 (ja) * 2022-10-31 2024-05-10 LeapMind株式会社 画像処理装置、学習方法及び推論方法
JP7495028B2 (ja) 2022-02-15 2024-06-04 イルヌメリックス ゲーエムベーハー コンピュータ実装方法及びコンピュータプログラム

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11461579B2 (en) 2018-02-08 2022-10-04 Western Digital Technologies, Inc. Configurable neural network engine for convolutional filter sizes
US11551064B2 (en) 2018-02-08 2023-01-10 Western Digital Technologies, Inc. Systolic neural network engine capable of forward propagation
US11151769B2 (en) 2018-08-10 2021-10-19 Intel Corporation Graphics architecture including a neural network pipeline
US11468338B2 (en) * 2018-09-11 2022-10-11 Apple Inc. Compiling models for dedicated hardware
US12020168B2 (en) 2018-09-11 2024-06-25 Apple Inc. Compiling models for dedicated hardware
CN109359732B (zh) * 2018-09-30 2020-06-09 阿里巴巴集团控股有限公司 一种芯片及基于其的数据处理方法
US11106437B2 (en) 2019-01-14 2021-08-31 Microsoft Technology Licensing, Llc Lookup table optimization for programming languages that target synchronous digital circuits
US11093682B2 (en) * 2019-01-14 2021-08-17 Microsoft Technology Licensing, Llc Language and compiler that generate synchronous digital circuits that maintain thread execution order
US11275568B2 (en) 2019-01-14 2022-03-15 Microsoft Technology Licensing, Llc Generating a synchronous digital circuit from a source code construct defining a function call
US11113176B2 (en) 2019-01-14 2021-09-07 Microsoft Technology Licensing, Llc Generating a debugging network for a synchronous digital circuit during compilation of program source code
US11144286B2 (en) 2019-01-14 2021-10-12 Microsoft Technology Licensing, Llc Generating synchronous digital circuits from source code constructs that map to circuit implementations
US10810343B2 (en) 2019-01-14 2020-10-20 Microsoft Technology Licensing, Llc Mapping software constructs to synchronous digital circuits that do not deadlock
US11783176B2 (en) 2019-03-25 2023-10-10 Western Digital Technologies, Inc. Enhanced storage device memory architecture for machine learning
US10929058B2 (en) 2019-03-25 2021-02-23 Western Digital Technologies, Inc. Enhanced memory device architecture for machine learning
US12093806B1 (en) * 2019-07-01 2024-09-17 Amazon Technologies, Inc. Static memory allocation for neural network inference
KR20210014902A (ko) 2019-07-31 2021-02-10 삼성전자주식회사 프로세서 및 그 제어 방법
CN114258538B (zh) * 2019-08-16 2024-04-12 谷歌有限责任公司 片上操作的显式调度
US11556450B2 (en) 2019-10-11 2023-01-17 International Business Machines Corporation Hybrid data-model parallelism for efficient deep learning
CN110738311A (zh) * 2019-10-14 2020-01-31 哈尔滨工业大学 基于高层次综合的lstm网络加速方法
CN111027688A (zh) * 2019-10-21 2020-04-17 浙江省北大信息技术高等研究院 一种基于fpga的神经网络计算器生成方法及装置
CN111105023B (zh) * 2019-11-08 2023-03-31 深圳市中科元物芯科技有限公司 数据流重构方法及可重构数据流处理器
US20210191765A1 (en) * 2019-12-18 2021-06-24 Deep Vision Inc. Method for static scheduling of artificial neural networks for a processor
CN111176820B (zh) * 2019-12-31 2021-06-25 中科院计算技术研究所大数据研究院 一种基于深度神经网络的边缘计算任务的分配方法及装置
US11687778B2 (en) 2020-01-06 2023-06-27 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
CN111210019B (zh) * 2020-01-16 2022-06-24 电子科技大学 一种基于软硬件协同加速的神经网络推断方法
US11687279B2 (en) * 2020-01-27 2023-06-27 Samsung Electronics Co., Ltd. Latency and throughput centric reconfigurable storage device
KR20210100335A (ko) 2020-02-06 2021-08-17 삼성전자주식회사 멀티 디바이스 기반 추론 방법 및 장치
US11556766B2 (en) 2020-03-23 2023-01-17 Hewlett Packard Enterprise Development Lp Loading of neural networks onto physical resources
US11734605B2 (en) 2020-04-29 2023-08-22 SiMa Technologies, Inc. Allocating computations of a machine learning network in a machine learning accelerator
US11734549B2 (en) 2020-04-21 2023-08-22 SiMa Technologies, Inc. Avoiding data routing conflicts in a machine learning accelerator
US11886981B2 (en) * 2020-05-01 2024-01-30 SiMa Technologies, Inc. Inter-processor data transfer in a machine learning accelerator, using statically scheduled instructions
US11586894B2 (en) 2020-05-04 2023-02-21 SiMa Technologies, Inc. Ordering computations of a machine learning network in a machine learning accelerator for efficient memory usage
DE102020132088A1 (de) 2020-05-01 2021-11-04 Intel Corporation Berechnung effizienter kanalübergreifender operationen in parallelrechenmaschinen mit systolischen arrays
CN111667053B (zh) * 2020-06-01 2023-05-09 重庆邮电大学 一种卷积神经网络加速器的前向传播计算加速方法
US12124882B2 (en) 2020-11-11 2024-10-22 Seoul National University R&Db Foundation Method and apparatus for lightweight and parallelization of accelerator task scheduling
US11709795B2 (en) * 2020-11-12 2023-07-25 Electronics And Telecommunications Research Institute Electronic device including main processor and systolic array processor and operating method of electronic device
KR102253414B1 (ko) * 2020-12-16 2021-05-18 주식회사 모빌린트 Cnn-rnn 아키텍처 전환형 연산 가속장치 설계 방법
KR102463147B1 (ko) 2021-02-26 2022-11-03 고려대학교 산학협력단 초병렬 심층 학습 방법 및 장치
CN113570033B (zh) * 2021-06-18 2023-04-07 北京百度网讯科技有限公司 神经网络处理单元、神经网络的处理方法及其装置
CN113592066B (zh) * 2021-07-08 2024-01-05 深圳市易成自动驾驶技术有限公司 硬件加速方法、装置、设备及存储介质
CN116090383B (zh) * 2022-12-27 2024-07-02 广东高云半导体科技股份有限公司 实现静态时序分析的方法、装置、计算机存储介质及终端
WO2024177377A1 (ko) * 2023-02-23 2024-08-29 삼성전자 주식회사 인공지능 모델을 이용하여 연산을 수행하는 전자 장치 및 전자 장치의 동작 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014006650A (ja) * 2012-06-22 2014-01-16 Renesas Electronics Corp 動作合成装置、動作合成方法、動作合成装置を備えたデータ処理システム、及び、動作合成プログラム
US20170103299A1 (en) * 2015-10-07 2017-04-13 Altera Corporation Method and Apparatus for Implementing Layers on a Convolutional Neural Network Accelerator

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4766560A (en) * 1985-12-23 1988-08-23 Xerox Corporation Parallel/pipelined arithmetic variable clock frequency synthesizer
US5274832A (en) * 1990-10-04 1993-12-28 National Semiconductor Corporation Systolic array for multidimensional matrix computations
JPH0823874B2 (ja) * 1993-11-18 1996-03-06 株式会社ジーデイーエス シストリックアレイプロセサー
US6346825B1 (en) 2000-10-06 2002-02-12 Xilinx, Inc. Block RAM with configurable data width and parity for use in a field programmable gate array
US7245615B1 (en) * 2001-10-30 2007-07-17 Cisco Technology, Inc. Multi-link protocol reassembly assist in a parallel 1-D systolic array system
EP2080104A4 (en) * 2006-11-10 2010-01-06 Sandbridge Technologies Inc METHOD AND SYSTEM FOR PARALLELING PIPE-LINE CALCULATIONS
US7764846B2 (en) 2006-12-12 2010-07-27 Xerox Corporation Adaptive red eye correction
US8117137B2 (en) * 2007-04-19 2012-02-14 Microsoft Corporation Field-programmable gate array based accelerator system
US8620984B2 (en) * 2009-11-23 2013-12-31 Xilinx, Inc. Minimum mean square error processing
JP5529976B2 (ja) * 2009-12-22 2014-06-25 ジュネイト エフ. バズラマッチ 高速ipルックアップのためのシストリック・アレイ・アーキテクチャ
US9501449B2 (en) * 2013-09-10 2016-11-22 Sviral, Inc. Method, apparatus, and computer-readable medium for parallelization of a computer program on a plurality of computing cores
CN105579959B (zh) * 2013-09-24 2019-06-07 渥太华大学 硬件加速器虚拟化
US9978014B2 (en) * 2013-12-18 2018-05-22 Intel Corporation Reconfigurable processing unit
US9747546B2 (en) 2015-05-21 2017-08-29 Google Inc. Neural network processor
US10846591B2 (en) * 2015-12-29 2020-11-24 Synopsys, Inc. Configurable and programmable multi-core architecture with a specialized instruction set for embedded application based on neural networks
CN106650922B (zh) 2016-09-29 2019-05-03 清华大学 硬件神经网络转换方法、计算装置、软硬件协作系统
US10567775B2 (en) * 2016-10-01 2020-02-18 Intel Corporation Method and system of hardware accelerated video coding with per-frame parameter control
US10824938B2 (en) * 2017-04-24 2020-11-03 Intel Corporation Specialized fixed function hardware for efficient convolution
US11410024B2 (en) * 2017-04-28 2022-08-09 Intel Corporation Tool for facilitating efficiency in machine learning
US11222256B2 (en) * 2017-10-17 2022-01-11 Xilinx, Inc. Neural network processing system having multiple processors and a neural network accelerator

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014006650A (ja) * 2012-06-22 2014-01-16 Renesas Electronics Corp 動作合成装置、動作合成方法、動作合成装置を備えたデータ処理システム、及び、動作合成プログラム
US20170103299A1 (en) * 2015-10-07 2017-04-13 Altera Corporation Method and Apparatus for Implementing Layers on a Convolutional Neural Network Accelerator

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021508125A (ja) * 2017-12-29 2021-02-25 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 行列乗算器
US11334648B2 (en) 2017-12-29 2022-05-17 Huawei Technologies Co., Ltd. Matrix multiplier
US11934481B2 (en) 2017-12-29 2024-03-19 Huawei Technologies Co., Ltd. Matrix multiplier
JP7495028B2 (ja) 2022-02-15 2024-06-04 イルヌメリックス ゲーエムベーハー コンピュータ実装方法及びコンピュータプログラム
WO2024095624A1 (ja) * 2022-10-31 2024-05-10 LeapMind株式会社 画像処理装置、学習方法及び推論方法

Also Published As

Publication number Publication date
CN111771215A (zh) 2020-10-13
US12061990B2 (en) 2024-08-13
US20190114548A1 (en) 2019-04-18
JP7337053B2 (ja) 2023-09-01
WO2019079025A1 (en) 2019-04-25
CN111771215B (zh) 2024-08-13
KR20200069346A (ko) 2020-06-16
EP3698295A1 (en) 2020-08-26
KR102650299B1 (ko) 2024-03-21

Similar Documents

Publication Publication Date Title
JP7337053B2 (ja) 超並列ソフトウェア定義ハードウェアシステムにおける静的ブロックスケジューリング
JP7382925B2 (ja) ニューラルネットワークアクセラレーションのための機械学習ランタイムライブラリ
CN111226230B (zh) 具有多个处理器和神经网络加速器的神经网络处理系统
US11204747B1 (en) Re-targetable interface for data exchange between heterogeneous systems and accelerator abstraction into software instructions
EP3698296B1 (en) Multi-layer neural network processing by a neural network accelerator using host communicated merged weights and a package of per-layer instructions
US20200042856A1 (en) Scheduler for mapping neural networks onto an array of neural cores in an inference processing unit
US20190138373A1 (en) Multithreaded data flow processing within a reconfigurable fabric
US11934308B2 (en) Processor cluster address generation
US20190057060A1 (en) Reconfigurable fabric data routing
Amiri et al. FPGA-based soft-core processors for image processing applications
US20190130291A1 (en) Dynamic reconfiguration with partially resident agents
US11847507B1 (en) DMA synchronization using alternating semaphores
US11221979B1 (en) Synchronization of DMA transfers for large number of queues
Paul et al. Resource-awareness on heterogeneous MPSoCs for image processing
US12086572B1 (en) Software defined neural network layer pipelining
US11875247B1 (en) Input batching with serial dynamic memory access
Khurge Strategic Infrastructural Developments to Reinforce Reconfigurable Computing for Indigenous AI Applications
Chung Optimization of compiler-generated OpenCL CNN kernels and runtime for FPGAs
Gupta et al. Hardware Based AI and ML
Chen FPGA Based Multi-core Architectures for Deep Learning Networks
Kumawat An OpenCL Framework for Real-time Inference of Next-Generation Convolutional Neural Networks on FPGAs

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20200612

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230116

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230822

R150 Certificate of patent or registration of utility model

Ref document number: 7337053

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150