JP2012242975A - Distributed parallel processing cache device and method, resource management node and program - Google Patents
Distributed parallel processing cache device and method, resource management node and program Download PDFInfo
- Publication number
- JP2012242975A JP2012242975A JP2011110847A JP2011110847A JP2012242975A JP 2012242975 A JP2012242975 A JP 2012242975A JP 2011110847 A JP2011110847 A JP 2011110847A JP 2011110847 A JP2011110847 A JP 2011110847A JP 2012242975 A JP2012242975 A JP 2012242975A
- Authority
- JP
- Japan
- Prior art keywords
- node
- calculation
- task
- input data
- resource management
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、分散並列処理キャッシュ装置及び方法及び資源管理ノード及びプログラムに係り、特に、分散処理フレームワークにおける分散並列処理を行う際に、入力データを有する計算ノードにタスクを割り当てるためのキャッシュ装置及び方法及び資源管理ノード及びプログラムに関する。 The present invention relates to a distributed parallel processing cache device and method, a resource management node, and a program, and more particularly to a cache device for assigning a task to a computation node having input data when performing distributed parallel processing in a distributed processing framework. The present invention relates to a method, a resource management node, and a program.
分散処理フレームワークにおいて、PCクラスタ上にファイルを分割して保存する分散記憶装置を前提としたデータ解析基盤ソフトウェアがある。これは、図1に示すように、有向グラフの形式で動作フローを記述することで、互いに依存関係のない入力データに対して並列計算を行うプログラムを実行基盤とするものである。図1において、辺がデータの流れであり、頂点が行う処理内容を意味する。頂点上で実行される処理をタスクという。実行時は、分散ファイルシステムにアクセスし、入力ファイルを処理単位に分割する初期化処理を行い、分割したファイルが保存されているデータノードに近い計算ノードに、処理内容が記述されたプログラムを配置し、計算が完了したら結果を分散ファイルシステムに書き込むものである。なお、「計算ノード」とは、実際にタスクを実行する計算機を指す。 In a distributed processing framework, there is data analysis infrastructure software based on a distributed storage device that divides and stores files on a PC cluster. As shown in FIG. 1, this is based on a program that performs parallel computation on input data that are not dependent on each other by describing an operation flow in the form of a directed graph. In FIG. 1, an edge is a data flow, which means processing contents performed by a vertex. Processing executed on the top is called a task. At the time of execution, the distributed file system is accessed, the input file is divided into processing units, initialization processing is performed, and the program describing the processing contents is placed on the calculation node close to the data node where the divided file is stored When the calculation is completed, the result is written into the distributed file system. The “calculation node” refers to a computer that actually executes a task.
このような環境において、1つ前の頂点の処理結果を分割し、入力データとして処理する方法として、MapReduceを拡張し、ループ処理に特化させたシステムがある(例えば、非特許文献1、2参照)、Map処理、Reduceで記述されたプログラムを分散並列処理するシステム(例えば、特許文献1参照 )や、非循環有向グラフ処理で記述されたプログラムを分散並列処理するシステム(特許文献2参照)がある。 In such an environment, there is a system that extends MapReduce and specializes in loop processing as a method of dividing the processing result of the previous vertex and processing it as input data (for example, Non-Patent Documents 1 and 2). System) that performs distributed parallel processing of programs described in Map processing and Reduce (for example, see Patent Document 1), and system that performs distributed parallel processing of programs described in acyclic directed graph processing (see Patent Document 2). is there.
以下に従来の技術における分散並列処理キャッシュ処理を説明する。 The distributed parallel processing cache processing in the prior art will be described below.
図2は、従来技術の概略フローチャートである。 FIG. 2 is a schematic flowchart of the prior art.
資源管理ノードがキャッシュを考慮しながら計算ノードにタスクを割り当て(ステップ210)、計算ノードが割り当てられたタスクを実行する(ステップ220)。タスクの実行結果を計算ノードに一時ファイルとして保存し(ステップ230)、ジョブが終了していない場合はステップ210に戻る。ジョブが終了したら計算ノードの一時ファイルを削除する。なお、ここで、「ジョブ」とは、動作フローを記述したプログラムが行う一連の処理を指し、各頂点で実行される処理と、データの流れを表現するデータフローで構成される。 The resource management node assigns a task to the computation node while considering the cache (step 210), and executes the task to which the computation node is assigned (step 220). The task execution result is stored as a temporary file in the computation node (step 230). If the job has not ended, the process returns to step 210. When the job is finished, delete the temporary file on the compute node. Here, “job” refers to a series of processes performed by a program describing an operation flow, and includes a process executed at each vertex and a data flow expressing a data flow.
上記の計算ノードにタスクを割り当てるステップ210の処理を図3に示す。 FIG. 3 shows the process of step 210 for assigning a task to the calculation node.
特許文献1の技術に基づいて資源管理ノードが次に実行すべきタスクを決定する(ステップ410)。次に、資源管理ノードが次に実行ジョブ中における再利用するデータの宣言を確認する(ステップ420)。ステップ410で選択したタスクの入力は再利用可能かを判定し、再利用可能であり、1回目の実行である場合は、計算結果を保持するノードで処理が終了したと見做し、計算をスキップし(ステップ440)、ステップ410の処理に戻る。一方、再利用ができない、または、2回目以降の実行である場合は、特許文献1の技術に基づいて実行する計算ノードを決定する(ステップ460)。
Based on the technique of Patent Document 1, the resource management node determines a task to be executed next (step 410). Next, the resource management node confirms the declaration of data to be reused in the next execution job (step 420). It is determined whether or not the input of the task selected in
上記のステップ230では、図4に示すように、完了したタスクの計算結果を計算ノードの外部記憶装置(ローカルディスク)に保存する(ステップ610)。 In step 230, as shown in FIG. 4, the calculation result of the completed task is stored in the external storage device (local disk) of the calculation node (step 610).
最後に、ステップ240では、図5に示すように、完了したタスクの計算結果を計算ノードの外部記憶装置(ローカルディスク)に保存する(ステップ610)。
Finally, in
しかしながら、上記特許文献1,2、非特許文献1,2のシステムのよい箇所を組み合わせたシステムを構築した場合でも、以下のような問題がある。
However, even when a system in which the good parts of the systems of
(1) ジョブ内で過去に行われた計算結果を再利用するためには、再利用するデータをユーザが宣言する必要がある。 (1) In order to reuse a calculation result performed in the past in a job, the user needs to declare data to be reused.
(2) ジョブが複数回実行される場合、過去に行ったことがあるタスクであっても再度同じ計算、転送を行う必要がある。詳しくは、
・過去に行ったことがある計算が実行中のジョブに含まれていたとしても、複数ジョブを実行する際には再度同じ計算を行う必要がある。
(2) When a job is executed a plurality of times, it is necessary to perform the same calculation and transfer again even for tasks that have been performed in the past. For more information,
Even if a calculation that has been performed in the past is included in the job being executed, it is necessary to perform the same calculation again when executing multiple jobs.
・過去に行ったことがある計算が実行中のジョブに含まれていたとしても、計算ノード間における転送が発生してしまう。 Even if a calculation that has been performed in the past is included in the job being executed, transfer between the calculation nodes occurs.
本発明は、上記の点に鑑みなされたもので、ジョブ内に複数回実行されるタスクが含まれている場合、ジョブを高速に処理すると共に、過去に行ったことがある処理を高速化することが可能な分散並列処理キャッシュ装置及び方法及びプログラムを提供することを目的とする。 The present invention has been made in view of the above points. When a task to be executed a plurality of times is included in a job, the job is processed at a high speed, and the processing that has been performed in the past is accelerated. It is an object of the present invention to provide a distributed parallel processing cache device, method, and program that can be used.
上記の課題を解決するため、本発明(請求項1)は、分散並列実行フレームワークにおいて実行するプログラムのフローが循環有向グラフとして表現されている場合に、タスクを割り当てる資源管理ノード及びタスクを割り当てられる計算ノードから構成される並列キャッシュシステムであって、
前記資源管理ノードは、
タスクの入力データを有する計算ノードに対して入力データのハッシュ値の計算を要求し、実行ファイルと共に取得するハッシュ値取得手段と、
タスクを実行した計算ノードから取得した入力データのハッシュ値、実行ファイル、入力ファイル取得し、該計算ノードと関連付けて計算結果記憶手段に格納するタスク管理手段と、
前記入力データのハッシュ値と前記実行ファイルを検索キーとして、前記計算結果記憶手段を検索し、該キーに該当する計算ノードのデータがある場合には、計算をスキップし、ない場合にはタスクを割り当てる計算ノードを決定するタスク割当手段と、
を有し、
前記計算ノードは、
前記資源管理ノードから要求された前記入力データのハッシュ値を求め、該資源管理ノードに返却するハッシュ値計算手段と、
前記資源管理ノードにより割り当てられたタスクを実行し、その結果を実行ファイル、入力データと関連付けて計算結果一時記憶手段に格納すると共に、該資源管理ノードに送信するタスク実行手段と、を有する。
In order to solve the above-described problem, the present invention (Claim 1) can allocate a resource management node and a task to which a task is allocated when a flow of a program executed in the distributed parallel execution framework is expressed as a circular directed graph. A parallel cache system composed of compute nodes,
The resource management node is:
A hash value acquisition means for requesting calculation of the hash value of the input data to the calculation node having the input data of the task, and acquiring it together with the execution file;
A task management unit that obtains a hash value of an input data acquired from a calculation node that executed the task, an execution file, an input file, and stores the hash value in association with the calculation node in a calculation result storage unit;
The calculation result storage means is searched using the hash value of the input data and the execution file as a search key. If there is data of a calculation node corresponding to the key, the calculation is skipped, and if not, the task is A task assignment means for determining a calculation node to be assigned;
Have
The compute node is
A hash value calculation means for obtaining a hash value of the input data requested from the resource management node and returning the hash value to the resource management node;
Task execution means for executing a task assigned by the resource management node, storing the result in an execution file and input data in association with the input data, and transmitting the result to the resource management node.
また、本発明(請求項2)は、前記資源管理ノードにおいて、
ジョブが終了すると、前記検索キーに基づいて前記計算結果記憶手段から計算結果を保持している計算ノードを抽出し、該計算ノードと同じ物理計算機上で動作しているデータノードに対して、該計算結果を送信し、格納する手段を更に有する。
The present invention (Claim 2) is the resource management node,
When the job is completed, a calculation node holding the calculation result is extracted from the calculation result storage unit based on the search key, and the data node operating on the same physical computer as the calculation node is extracted from the calculation node. A means for transmitting and storing the calculation result is further included.
上記のように、本発明によれば、入力データを保持する計算ノードにおいて実行されたタスクの実行結果を資源管理ノードで記録しておくことにより、
(1)ジョブ内に複数回実行されるタスクが含まれている場合、ジョブの高速化を自動的に行うことができる。
As described above, according to the present invention, by recording the execution result of the task executed in the calculation node holding the input data in the resource management node,
(1) When a task that is executed a plurality of times is included in a job, the job can be automatically accelerated.
(2)ジョブが複数回実行される場合において、過去に行ったことのある処理を高速化できる。詳しくは、過去に行ったことのある計算が実行中のジョブに含まれていた場合、その結果を入力ブロック単位で再利用し計算をスキップすることができる。 (2) When a job is executed a plurality of times, processing that has been performed in the past can be accelerated. Specifically, when a calculation that has been performed in the past is included in the job being executed, the calculation can be skipped by reusing the result in units of input blocks.
以下図面と共に、本発明の実施の形態を説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図6は、本発明の一実施の形態におけるシステム構成を示す。 FIG. 6 shows a system configuration in an embodiment of the present invention.
同図に示すシステムは、資源管理ノード10と計算ノード21、分散ファイルシステムのノードであり、データを保存するデータノード22を有する複数の物理計算機20から構成される。
The system shown in FIG. 1 is a
資源管理ノード10は、どの計算ノードにどのタスクを割り当てるかを管理する計算機であり、タスク管理部11、検索部12、ノード管理DB13を有し、外部記憶として計算結果記憶部1(ローカルディスク)が接続されている。ノード管理DB13は、物理計算機毎に、計算ノード、データノード、及び、タスク用の入力データを関連付けて保持している。また、計算結果記憶部1は、計算ノード毎にハッシュ値及び実行ファイルが格納される。以下では外部記憶装置として説明するが、資源管理ノード内のディスク装置やメモリとして構築されていてもよい。
The
物理計算機20の計算ノード21は、ハッシュ計算部211を有し、計算結果一時記憶部2を有するローカルディスクが接続されている。データノード22はデータ記憶部221を有する。
The
上記の構成のシステムの処理について説明する。 Processing of the system having the above configuration will be described.
図7は、本発明の一実施の形態における全体動作のフローチャートである。 FIG. 7 is a flowchart of the overall operation in one embodiment of the present invention.
ステップ310) 資源管理ノード10のタスク管理部11は、キャッシュを考慮しながら計算ノード21にタスクを割り当てる。詳細については図8で後述する。
Step 310) The
ステップ320) タスクを割り当てられた計算ノード21は、資源管理ノード10の指示によりタスクを実行する。
Step 320) The
ステップ330) 計算ノード21は、ステップ320の結果を実行ファイル、入力データと関連付けて一時ファイルとして計算結果一時記憶部2(ローカルディスク)に保存すると共に、資源管理ノード10に計算結果を送信し、ジョブが終了すればステップ340に移行し、終了していなければステップ310に戻る。詳細については図9にて後述する。
Step 330) The
ステップ340) ジョブが終了したら、資源管理ノード10のタスク管理部11は、計算結果を再利用できるように計算結果記憶部1に保存し、永続化する。詳細は図10にて後述する。
Step 340) When the job is finished, the
次に、上記のステップ310について説明する。
Next,
図8は、本発明の一実施の形態における図7のS310の詳細化のフローチャートである。 FIG. 8 is a detailed flowchart of S310 in FIG. 7 according to the embodiment of the present invention.
ステップ510) 資源管理ノード10のタスク管理部11は、特許文献1の技術に基づいて、次に実行すべきタスクを決定する。
Step 510) The
ステップ520) 資源管理ノード10のタスク管理部11は、ステップ510で選択したタスクの入力データを保持している計算ノード21をノード管理DB13から検索し、当該計算ノード21に対して入力データのハッシュ値を計算するように要求する。これにより計算ノード21は、入力データのハッシュ値を計算してハッシュ値と実行ファイルを資源管理ノード10に送信する。
Step 520) The
ステップ530) 資源管理ノード10のノード検索部12は、ステップ520において、計算ノード21に要求して取得した、入力データのハッシュ値と実行ファイルをキーとして、計算結果記憶部1から過去の計算結果の有無と当該計算結果の保存場所を検索する。計算結果記憶部1に入力データのハッシュ値に該当する計算結果が存在する場合には、すでに計算が実行されているものとしてステップ540に移行し、存在しない場合はまだ計算が実行されていないものとしてステップ550に移行する。
Step 530) The
ステップ540) タスク管理部11は、計算結果を保持する計算ノードで処理が終了したと見做し、計算をスキップし、ステップ510に移行する。
Step 540) The
ステップ550) タスク管理部11は、特許文献1の技術に基づいて、タスクを実行する計算ノードを決定する。
Step 550) The
次に、図7のタスク終了時の処理(ステップ330)について説明する。 Next, the process at the time of task termination (step 330) in FIG. 7 will be described.
図9は、本発明の一実施の形態における図7のS330の詳細化のフローチャートである。 FIG. 9 is a detailed flowchart of S330 in FIG. 7 according to the embodiment of the present invention.
ステップ710) 計算ノード21は、実行完了したタスクの計算結果(入力データのハッシュ値、実行ファイル、実行結果)を自ノードに接続された計算結果一時記憶部2に保存すると共に、資源管理ノード10に送信する。
Step 710) The
ステップ720) 資源管理ノード10のタスク管理部11は、計算ノードからキー(入力データのハッシュ値と実行ファイル)と実行結果を取得し、計算ノードと関連付けて計算結果記憶部1に格納する。
Step 720) The
次に、図7のジョブ終了時の処理(ステップ340)について説明する。 Next, the job end processing (step 340) in FIG. 7 will be described.
図10は、本発明の一実施の形態における図7のS340のフローチャートである。 FIG. 10 is a flowchart of S340 in FIG. 7 according to the embodiment of the present invention.
ステップ910) ジョブが終了すると、資源管理ノード10のノード検索部12は、検索キー(入力データのハッシュ値と実行ファイル)に基づいて計算結果記憶部1を検索し、当該キーに対応する計算結果を保持している計算ノードを検索する。
Step 910) When the job is completed, the
ステップ920) ノード検索部12は、ステップ910で検索された計算ノードと同じ物理計算機上で動作しているデータノードをノード管理DB13から検索する。タスク管理部11は、当該データノード22に計算結果を送信する。これにより物理計算機20のデータノード22は当該計算結果をデータ記憶部221に格納する。
Step 920) The
図11は、本発明の一実施の形態における全体動作のシーケンスチャートである。同図におけるステップ番号は前述のフローチャートのステップ番号に対応する。 FIG. 11 is a sequence chart of the overall operation in one embodiment of the present invention. The step numbers in the figure correspond to the step numbers in the flowchart described above.
上記のような処理を行うことにより、入力データが時系列に従って増えていくような処理を含む計算を高速に行うことができる。 By performing the processing as described above, calculation including processing in which input data increases in time series can be performed at high speed.
これにより、
(1)検索エンジンの更新が高速に行えるようになる。
This
(1) The search engine can be updated at high speed.
(2)ユーザへのレコメンデーションが高速に更新できるようになる。 (2) Recommendations to users can be updated at high speed.
(3)ログ解析を高速に行うことができる。 (3) Log analysis can be performed at high speed.
なお、上記の資源管理ノード及び計算ノードの動作をプログラムとして構築し、資源管理ノード、計算ノードとして利用されるコンピュータにインストールして実行させる、または、ネットワークを介して流通させることが可能である。 Note that the operations of the resource management node and the calculation node can be constructed as a program, installed in a computer used as the resource management node and the calculation node, executed, or distributed via a network.
本発明は、上記の実施の形態に限定されることなく特許請求の範囲内において種々変更・応用が可能である。 The present invention is not limited to the above-described embodiments, and various modifications and applications can be made within the scope of the claims.
1 計算結果記憶部
2 計算結果一時記憶部
10 資源管理ノード
11 タスク管理部
12 検索部
13 ノード管理DB
20 物理計算機
21 計算ノード
22 データノード
211 ハッシュ計算部
221 データ記憶部
DESCRIPTION OF SYMBOLS 1 Calculation result memory |
20
Claims (6)
前記資源管理ノードは、
タスクの入力データを有する計算ノードに対して入力データのハッシュ値の計算を要求し、実行ファイルと共に取得するハッシュ値取得手段と、
タスクを実行した計算ノードから取得した入力データのハッシュ値、実行ファイル、入力ファイル取得し、該計算ノードと関連付けて計算結果記憶手段に格納するタスク管理手段と、
前記入力データのハッシュ値と前記実行ファイルを検索キーとして、前記計算結果記憶手段を検索し、該キーに該当する計算ノードのデータがある場合には、計算をスキップし、ない場合にはタスクを割り当てる計算ノードを決定するタスク割当手段と、
を有し、
前記計算ノードは、
前記資源管理ノードから要求された前記入力データのハッシュ値を求め、該資源管理ノードに返却するハッシュ値計算手段と、
前記資源管理ノードにより割り当てられたタスクを実行し、その結果を実行ファイル、入力データと関連付けて計算結果一時記憶手段に格納すると共に、該資源管理ノードに送信するタスク実行手段と
を有することを特徴とする並列キャッシュシステム。 When the flow of a program executed in the distributed parallel execution framework is expressed as a circular directed graph, a parallel cache system including a resource management node to which a task is assigned and a computation node to which the task is assigned,
The resource management node is:
A hash value acquisition means for requesting calculation of the hash value of the input data to the calculation node having the input data of the task, and acquiring it together with the execution file;
A task management unit that obtains a hash value of an input data acquired from a calculation node that executed the task, an execution file, an input file, and stores the hash value in association with the calculation node in a calculation result storage unit;
The calculation result storage means is searched using the hash value of the input data and the execution file as a search key. If there is data of a calculation node corresponding to the key, the calculation is skipped, and if not, the task is A task assignment means for determining a calculation node to be assigned;
Have
The compute node is
A hash value calculation means for obtaining a hash value of the input data requested from the resource management node and returning the hash value to the resource management node;
A task execution unit that executes the task assigned by the resource management node, stores the result in an execution file and input data in association with the input data, and transmits the result to the resource management node; A parallel cache system.
ジョブが終了すると、前記検索キーに基づいて前記計算結果記憶手段から計算結果を保持している計算ノードを抽出し、該計算ノードと同じ物理計算機上で動作しているデータノードに対して、該計算結果を送信し、格納する手段を更に有する
請求項1記載の並列キャッシュシステム。 The resource management node is:
When the job is completed, a calculation node holding the calculation result is extracted from the calculation result storage unit based on the search key, and the data node operating on the same physical computer as the calculation node is extracted from the calculation node. The parallel cache system according to claim 1, further comprising means for transmitting and storing the calculation result.
前記資源管理ノードのハッシュ値取得手段が、入力データを保持している計算ノードに該入力データのハッシュ値を要求し、実行ファイルと共に取得するハッシュ値取得ステップと、
前記資源管理ノードのタスク割当手段が、入力データを保持している計算ノードにタスクを割り当てるタスク割り当てステップと、
前記計算ノードのタスク実行手段が、前記資源管理ノードから割り当てられたタスクを実行し、その結果を実行ファイル、入力データと関連付けて計算結果一時記憶手段に格納するタスク実行ステップと、
前記資源管理ノードの実行結果管理手段が、前記計算ノードからタスクの実行結果として、実行ファイル、入力データを取得して、該計算ノードと関連付けて計算結果記憶手段に格納する実行結果管理ステップと、
を行い、
前記タスク割当ステップにおいて、
前記計算ノードにタスクを割り当てる際に、前記入力データのハッシュ値と前記実行ファイルをキーとして、前記計算結果記憶手段を検索し、該計算ノードによる該タスクの計算結果が存在している場合には、当該タスクの処理をスキップする
ことを特徴とする並列キャッシュ方法。 When the flow of a program executed in the distributed parallel execution framework is expressed as a circular directed graph, a parallel cache method comprising a resource management node to which a task is assigned and a computation node to which the task is assigned,
A hash value acquisition unit of the resource management node requests a hash value of the input data from a calculation node holding the input data, and acquires the hash value together with the execution file;
A task allocation step in which the task allocation means of the resource management node allocates a task to a computation node holding input data;
The task execution means of the calculation node executes the task assigned from the resource management node, and stores the result in the calculation result temporary storage means in association with the execution file and input data;
An execution result management step in which the execution result management unit of the resource management node acquires an execution file and input data as a task execution result from the calculation node, and stores it in the calculation result storage unit in association with the calculation node;
And
In the task assignment step,
When assigning a task to the calculation node, the calculation result storage unit is searched using the hash value of the input data and the execution file as a key, and when the calculation result of the task by the calculation node exists A parallel cache method characterized in that the processing of the task is skipped.
ジョブが終了すると、前記キーに基づいて前記計算結果記憶手段から計算結果を保持している計算ノードを抽出し、該計算ノードと同じ物理計算機上で動作しているデータノードに対して、該計算結果を送信し格納する
請求項3記載の並列キャッシュ方法。 In the resource management node,
When the job is completed, a calculation node holding the calculation result is extracted from the calculation result storage unit based on the key, and the calculation is performed on the data node operating on the same physical computer as the calculation node. 4. The parallel cache method according to claim 3, wherein the result is transmitted and stored.
タスクの入力データを有する計算ノードから取得した入力データのハッシュ値、実行ファイル、入力データを取得し、該計算ノードと関連付けて前記計算結果記憶手段に格納するタスク管理手段と、
前記計算ノードに対して入力データのハッシュ値の計算を要求し、ハッシュ値と実行ファイルを取得するハッシュ値取得手段と、
前記入力データのハッシュ値と前記実行ファイルを検索キーとして、前記計算結果記憶手段を検索し、該キーに該当するデータがある場合には、計算をスキップし、ない場合にはタスクを割り当てる計算ノードを決定するタスク割当手段と、
を有することを特徴とする資源管理ノード。 A resource management node that assigns a task to a computation node when the flow of a program executed in the distributed parallel execution framework is expressed as a circular directed graph,
Task management means for acquiring a hash value of input data obtained from a calculation node having task input data, an execution file, input data, and storing the calculation data storage means in association with the calculation node;
A hash value acquisition unit that requests the calculation node to calculate a hash value of input data and acquires a hash value and an executable file;
A calculation node that searches the calculation result storage means using the hash value of the input data and the execution file as a search key, skips the calculation when there is data corresponding to the key, and allocates a task when there is no data Task assignment means for determining
A resource management node characterized by comprising:
請求項5記載の資源管理ノードの各手段として機能させるための並列キャッシュプログラム。 Computer
The parallel cache program for functioning as each means of the resource management node according to claim 5.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011110847A JP2012242975A (en) | 2011-05-17 | 2011-05-17 | Distributed parallel processing cache device and method, resource management node and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011110847A JP2012242975A (en) | 2011-05-17 | 2011-05-17 | Distributed parallel processing cache device and method, resource management node and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012242975A true JP2012242975A (en) | 2012-12-10 |
Family
ID=47464650
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011110847A Pending JP2012242975A (en) | 2011-05-17 | 2011-05-17 | Distributed parallel processing cache device and method, resource management node and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012242975A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013205891A (en) * | 2012-03-27 | 2013-10-07 | Fujitsu Ltd | Parallel computer, control method of parallel computer and control program |
KR101403095B1 (en) | 2013-04-01 | 2014-06-11 | 한국과학기술원 | Distributed coordination method and system of task-oriented services using graph coloring algorithm |
KR101690944B1 (en) * | 2015-09-22 | 2016-12-30 | 충북대학교 산학협력단 | Method and apparatus for managing distributed cache in consideration of load distribution in heterogeneous computing environment |
KR101783770B1 (en) * | 2016-05-01 | 2017-10-11 | 충북대학교 산학협력단 | In-memory based incremental stream processing system and method in distributed invironments |
JPWO2022024252A1 (en) * | 2020-07-29 | 2022-02-03 | ||
CN114510317A (en) * | 2021-12-24 | 2022-05-17 | 天翼云科技有限公司 | Virtual machine management method, device, equipment and storage medium |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10105420A (en) * | 1996-09-25 | 1998-04-24 | Hitachi Ltd | Remote procedure call processing system |
JP2000235514A (en) * | 1999-02-12 | 2000-08-29 | Seiko Epson Corp | Information retrieval method, information retrieval system, and recording medium recording information retrieval processing program |
JP2004062608A (en) * | 2002-07-30 | 2004-02-26 | Dainippon Printing Co Ltd | Parallel processing system, server, parallel processing method, program and recording medium |
JP2009087190A (en) * | 2007-10-02 | 2009-04-23 | Nec Corp | Stream data analysis speed-up device, method and program |
JP2010505201A (en) * | 2006-09-29 | 2010-02-18 | マイクロソフト コーポレーション | Secure peer-to-peer cache sharing |
JP2010092222A (en) * | 2008-10-07 | 2010-04-22 | Internatl Business Mach Corp <Ibm> | Caching mechanism based on update frequency |
-
2011
- 2011-05-17 JP JP2011110847A patent/JP2012242975A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10105420A (en) * | 1996-09-25 | 1998-04-24 | Hitachi Ltd | Remote procedure call processing system |
JP2000235514A (en) * | 1999-02-12 | 2000-08-29 | Seiko Epson Corp | Information retrieval method, information retrieval system, and recording medium recording information retrieval processing program |
JP2004062608A (en) * | 2002-07-30 | 2004-02-26 | Dainippon Printing Co Ltd | Parallel processing system, server, parallel processing method, program and recording medium |
JP2010505201A (en) * | 2006-09-29 | 2010-02-18 | マイクロソフト コーポレーション | Secure peer-to-peer cache sharing |
JP2009087190A (en) * | 2007-10-02 | 2009-04-23 | Nec Corp | Stream data analysis speed-up device, method and program |
JP2010092222A (en) * | 2008-10-07 | 2010-04-22 | Internatl Business Mach Corp <Ibm> | Caching mechanism based on update frequency |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013205891A (en) * | 2012-03-27 | 2013-10-07 | Fujitsu Ltd | Parallel computer, control method of parallel computer and control program |
KR101403095B1 (en) | 2013-04-01 | 2014-06-11 | 한국과학기술원 | Distributed coordination method and system of task-oriented services using graph coloring algorithm |
KR101690944B1 (en) * | 2015-09-22 | 2016-12-30 | 충북대학교 산학협력단 | Method and apparatus for managing distributed cache in consideration of load distribution in heterogeneous computing environment |
KR101783770B1 (en) * | 2016-05-01 | 2017-10-11 | 충북대학교 산학협력단 | In-memory based incremental stream processing system and method in distributed invironments |
JPWO2022024252A1 (en) * | 2020-07-29 | 2022-02-03 | ||
WO2022024252A1 (en) * | 2020-07-29 | 2022-02-03 | 日本電信電話株式会社 | Task priority control system, method for saving data of task priority control system, and program |
JP7552697B2 (en) | 2020-07-29 | 2024-09-18 | 日本電信電話株式会社 | Task priority control system, data saving method for task priority control system, and program |
CN114510317A (en) * | 2021-12-24 | 2022-05-17 | 天翼云科技有限公司 | Virtual machine management method, device, equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12079342B2 (en) | Data lineage management | |
US8510751B2 (en) | Optimizing workflow engines | |
US9304835B1 (en) | Optimized system for analytics (graphs and sparse matrices) operations | |
WO2017020637A1 (en) | Task allocation method and task allocation apparatus for distributed data calculation | |
US20130232495A1 (en) | Scheduling accelerator tasks on accelerators using graphs | |
JP2017062767A5 (en) | ||
WO2016165472A1 (en) | Method and device for creating virtual machine | |
US11526475B2 (en) | Code generator platform for data transformation | |
CN111258565B (en) | Mini-program generation method, system, server and storage medium | |
JP2012242975A (en) | Distributed parallel processing cache device and method, resource management node and program | |
US9275201B2 (en) | Execution-based license discovery and optimization | |
KR20160099762A (en) | Cloud System for supporting auto-scaled Hadoop Distributed Parallel Processing System | |
US11055262B1 (en) | Extensible streams on data sources | |
JP2012160013A (en) | Data analysis and machine learning processing unit, method, and program | |
US10599472B2 (en) | Information processing apparatus, stage-out processing method and recording medium recording job management program | |
CN106874067A (en) | Parallel calculating method, apparatus and system based on lightweight virtual machine | |
CN110781159B (en) | Ceph directory file information reading method and device, server and storage medium | |
Koch et al. | An empirical comparison of big graph frameworks in the context of network analysis | |
US20130013666A1 (en) | Monitoring data access requests to optimize data transfer | |
US11755309B2 (en) | Tagging packages in an application ecosystem | |
JP2016081495A (en) | Apparatus and method for processing complex event based on high load path | |
JP5501288B2 (en) | Speculative execution apparatus, method and program | |
KR101841847B1 (en) | Method and apparatus for managing provisioning virtual disk | |
JP2012242972A (en) | Aggregation system and method, resource management node, calculation node and aggregation processing program | |
JP6322968B2 (en) | Information processing apparatus, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130806 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20131004 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140311 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140701 |