Nothing Special   »   [go: up one dir, main page]

JP5192226B2 - 待機系計算機の追加方法、計算機及び計算機システム - Google Patents

待機系計算機の追加方法、計算機及び計算機システム Download PDF

Info

Publication number
JP5192226B2
JP5192226B2 JP2007337232A JP2007337232A JP5192226B2 JP 5192226 B2 JP5192226 B2 JP 5192226B2 JP 2007337232 A JP2007337232 A JP 2007337232A JP 2007337232 A JP2007337232 A JP 2007337232A JP 5192226 B2 JP5192226 B2 JP 5192226B2
Authority
JP
Japan
Prior art keywords
computer
standby
server
data
log
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007337232A
Other languages
English (en)
Other versions
JP2009157785A (ja
Inventor
知広 花井
憲宏 原
恒彦 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007337232A priority Critical patent/JP5192226B2/ja
Priority to US12/071,774 priority patent/US8195777B2/en
Publication of JP2009157785A publication Critical patent/JP2009157785A/ja
Application granted granted Critical
Publication of JP5192226B2 publication Critical patent/JP5192226B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Hardware Redundancy (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、障害許容性を有する計算機システムに関し、特に、計算機システムに待機系の計算機を追加する技術に関する。
データベースシステムでは、複数のサーバによってデータ処理を行う実行系サーバ及び実行系サーバに障害が発生した場合にデータ処理を引き継ぐ待機系サーバによるクラスタ構成によって信頼性を確保することができる。ディスクベースのデータベース(DB)では、実行系サーバ及び待機系サーバから参照可能な共有ディスクによってデータを引継ぎ、待機系サーバによって処理を継続する。
一方、インメモリDBでは、サーバ内のメモリによってデータが保持されるため、サーバ間でストレージ装置を共有してデータを共有することはできない。そこで、待機系サーバは、実行系サーバのデータベースデータの複製をメモリ上に保持することによってデータを冗長化する。
また、サーバに障害が発生し、クラスタから切り離されると、データの冗長度が低下する。冗長度が低下したまま長時間システムの稼動を続けると、更なる障害が発生することによってシステム停止又はデータ損失が発生する可能性がある。したがって、連続運転を要求されるオンラインシステムではデータの冗長度が低下したままの運用を避ける必要がある。そこで、障害が発生したサーバをクラスタに復旧させること、若しくは、新たなサーバをクラスタに追加することによってデータの冗長度を回復させ、システムを継続して安定稼動させることが必要である。
そこで、ペアとなる装置の障害を監視し、相手先の障害を検知すると自動的に新たなペアを決定することによって、迅速に冗長性を回復させる技術が開示されている(特許文献2参照)。
また、実行系サーバと待機系サーバで独立したデータ領域にデータベースデータを保持するクラスタ構成では、待機系サーバを新たに追加する場合、新たに追加される待機系サーバについても保持するデータを実行系サーバのデータと同期させる必要がある。データの同期とは、実行系サーバが保持するデータを待機系サーバが生成可能な状態にすることである。すなわち、実行系サーバが保持するデータと同一のデータを待機系サーバが保持してもよいし、実行系サーバが保持するデータを生成可能な別のデータを保持してもよい。例えば、後者の例として、データベースでは、実行系サーバに保持されるデータの更新ログを待機系が保持していれば、待機系サーバでは当該データを生成可能である。
しかし、実行系サーバが保持するデータベースデータを整合性が確保された状態で新たな待機系サーバに複製するためには、実行系サーバのデータベースに対する更新処理を一時的に停止(静止化)する必要がある。この場合、実行系サーバに対してデータベースの更新処理を要求する業務処理についても、一時的に停止させなければならないという問題がある。
特許文献2に開示された技術では、新たに追加された装置にデータを複製する点については言及されていない。そこで、実行系サーバの動作を妨げることなくデータのバックアップを取得するために、第1及び第2の待機系サーバを用意し、実行系サーバと第1の待機系サーバのデータベースが同期している状態から、第1の待機系サーバの更新を停止し、第1の待機系から第2の待機系にデータを複製する技術が開示されている(特許文献1参照)。
米国特許出願公開第2006/0253731号明細書 特開2005−251055号公報
特許文献1に開示された技術では、第1の待機系サーバは、更新内容をバッファリングし、第2の待機系サーバにデータの複製が完了してから反映することによって、再び実行系サーバと同期させることができる。しかし、第2の待機系サーバは、複製を作成した後に実行系サーバで更新された内容を反映できないため、第2の待機系サーバは、実行系サーバとデータベースデータを同期できないという問題がある。
本発明の目的は、実行系サーバを停止させず、かつ、新たに追加された待機系サーバに保持されるデータを実行系サーバに保持されるデータと同期させる技術を提供することを目的とする。
本発明の代表的な一形態では、クライアントからの処理要求に応じて業務処理を実行する実行系計算機(実行系サーバ)、及び、前記実行系計算機に格納されたデータの複製を格納する複数の待機系計算機(待機系サーバ)を含み、前記複数の待機系計算機は前記実行系計算機でデータが更新された時に作成され前記実行系計算機から転送される更新情報を受けて、それぞれ自らが格納するデータの複製を更新する計算機システムにおいて、前記計算機システムに前記待機系計算機として新たに計算機を追加する方法であって、前記計算機システムから前記複数の待機系計算機の一つを選択し、前記実行系計算機から前記追加される計算機に前記更新情報の転送を開始し、前記選択された待機系計算機に格納された前記データの複製を前記追加される計算機に転送し、前記追加される計算機は、転送されたデータの複製を格納した後に、それまで滞留していた更新情報のそれぞれが重複反映にならないかを確認した上で前記格納したデータの複製に反映する。
本発明の一形態によれば、実行系計算機の処理を停止させることなく、実行系計算機に同期された状態で待機系計算機として新たに計算機を計算機システムに追加することが可能となる。
以下、本発明の実施の形態を添付図面に基づいて説明する。
<第1の実施の形態>
図1は、本発明の第1の実施の形態の計算機システムのハードウェア構成を示すブロック図である。
本発明の第1の実施の形態の計算機システムは、実行系サーバ100、待機系サーバ(200、300及び400)、クライアント150、及び、管理サーバ160を含む。実行系サーバ100、待機系サーバ(200、300及び400)、クライアント150、及び、管理サーバ160は、ネットワーク7によって接続される。ネットワーク7は、IPネットワークであってもよいし、サーバがブレードサーバである場合には内部バスであってもよい。
本発明の第1の実施の形態の計算機システムは、データベース業務を提供する実行系サーバ100、及び、実行系サーバ100に障害が発生した場合に、実行系サーバ100の業務を引き継ぐ1台以上の待機系サーバ(200、300及び400)を含むクラスタ構成となっている。
管理サーバ160は、実行系サーバ100及び待機系サーバ(200、300及び400)を管理する。クライアント150は、実行系サーバ100で稼働しているデータベースを利用する。
実行系サーバ100は、CPU101、メモリ102、及び、通信インターフェース103を備える。待機系サーバ(200、300及び400)についても、実行系サーバ100と同様の構成である。なお、待機系サーバに含まれるCPUなどの構成要素についても、実行系サーバ100と同じ符号を用いる。
CPU101は、各種演算処理を実行する。メモリ102は、データベース管理システムなどのプログラムと、各種演算処理で使用されるデータ及びデータベース管理システムによって管理されるデータを格納する。通信インターフェース103は、ネットワーク7を介して他の計算機と通信する。
図2は、本発明の第1の実施の形態のクラスタ構成のデータベースシステムのソフトウェアを主体とした機能ブロック図である。
実行系サーバ100は、待機系として動作する場合に備え、また、待機系サーバ(200、300及び400)は、実行系として動作する場合に備え、実行系サーバ100及び待機系サーバ(200、300及び400)は同一の構成要素を備える。ここで、実行系サーバが実行系、待機系サーバが待機系として動作する場合に利用しない構成要素については、それぞれ、待機系、実行系として動作を開始する際に生成してもよい。
また、図2では、実行系サーバ100の構成要素は100番台、待機系サーバ200の構成要素は200番台、待機系サーバ300の構成要素は300番台、待機系サーバ400の構成要素は400番台の符号を付与する。また、以下の説明では、実行系サーバの各構成要素の機能について説明するが、特に記載の無い場合には、待機系サーバにおける各構成要素も同様の機能を有する。
実行系サーバ100は、トランザクション制御部111、ログ送信バッファ112、ログ送信部113、ログ受信部114、ログ受信バッファ115、ログ適用部116、データベース送信部117、データベース受信部118、クラスタ構成管理部119、リソース使用量監視部120、及び、データベース121を備える。トランザクション制御部111、ログ送信部113、ログ受信部114、ログ適用部116、データベース送信部117、データベース受信部118、クラスタ構成管理部119、及び、リソース使用量監視部120は、プログラムを含み、CPU101によって実行されることで各処理が実行される。
図2に示すデータベースシステムは、実行系サーバ100のトランザクション制御部111がクライアント150からのデータベース操作要求を受け付け、データベース121に対する操作を実行し、結果をクライアント150に送信する。
実行系サーバ100は、トランザクション制御部111がデータベース121を更新した際に、更新内容を表すログをログ送信バッファ112に書き込む。ログ送信部113は、ログ送信バッファ112に書き込まれたログを待機系サーバ(200、300及び400)に送信する。
さらに、クラスタ構成管理部119は、実行系サーバ100及び待機系サーバ(200、300及び400)の状態を管理する。ここで、他系の状態を管理するために、クラスタ構成管理部119は、他系の管理部及び管理サーバ160と通信する機能を有する。
また、リソース使用量監視部120は、実行系サーバのCPU、メモリ、及び、ネットワーク帯域などのリソースがどの程度使用されているかを監視する。さらに、リソース使用量監視部120は、監視されたリソース使用量を他系のリソース使用量監視部120及び管理サーバ160と通信する機能を有する。なお、リソース使用量監視部120は、本発明の第2の実施の形態で利用される。
待機系サーバ200は、ログ受信部214が実行系サーバ100からログを受信し、受信したログをログ受信バッファ215に書き込む。
待機系サーバ200は、さらに、ログ適用部216がログ受信バッファ215からログ受信部214に書き込まれたログを読み出し、データベース221に反映させる。このように、実行系サーバからログが送信されると、待機系サーバ200に備えられるデータベース221を、実行系サーバ100に備えられるデータベース121と同期させることができる。
また、ログ適用部216の状態には、ログ適用中状態とログ適用開始待ち状態がある。ログ適用中状態は、ログ受信バッファ215に格納されたログをデータベース221に順次反映させている状態である。ログ適用開始待ち状態は、ログ受信バッファ215にログが格納されたまま待機している状態である。
さらに、待機系サーバ200は、データベース送信部217がデータベース221のデータを他の待機系サーバに送信する。また、データベース受信部218は、他の待機系サーバからデータを受信し、データベース221に格納する。
図3は、本発明の第1の実施の形態の通常動作中にクライアント150から送信されたデータベース更新要求によって、データベースが更新される処理を示すシーケンス図である。
クライアント150は、実行系サーバ100のトランザクション制御部111にデータベース更新要求を送信する(S301)。
トランザクション制御部111は、データベース更新要求を受信すると、要求されたデータベース更新処理をデータベース121に対して実行する(S302)。さらに、トランザクション制御部111は、データベースの更新内容に対応するログをログ送信バッファ112に書き込む(S303)。
ログ送信部113は、S303の処理で書き込まれたログをログ送信バッファ112から読み出す(S304)。次に、クラスタ構成管理部119からログ送信先リストを取得する(S305)。
さらに、ログ送信部113は、取得されたログ送信先リストに含まれているすべての待機系サーバのログ受信部214にS304の処理で読み出されたログを送信する(S306)。ログの送信は、データベーストランザクションのコミット時点で当該トランザクションに関連するログを送信してもよいし、複数回のコミットのログをまとめて送信してもよい。
待機系サーバ200のログ受信部214は、実行系サーバ100のログを受信すると、受信したログをログ受信バッファ215に書き込む(S307)。ログ適用部216は、通常動作中においてはログ適用中状態であり、ログ受信バッファ215からログを読み出して(S308)、読み出されたログをデータベース221に反映する(S309)。
以上のS302からS309までの処理によって、実行系サーバ100のデータベース121に対して更新された内容が、待機系サーバ200のデータベース221に反映される。このようにして、実行系サーバ100のデータベース121と待機系サーバ200のデータベース221との間で同期が保たれる。
図4A及び図4Bは、本発明の第1の実施の形態のデータベース121に格納された情報の一例を示す図である。
図4Aは、業務処理で使用される表の一例である。列1から列nはユーザによって定義され、各行の列1から列nに対応する部分には、ユーザデータが格納される。各行には、行を一意に識別する行IDが付与される。
図4Bは、データベーストランザクションがコミットされる度にインクリメントされるコミット通番を格納する表の一例である。
図5は、本発明の第1の実施の形態のログ情報550の一例を示す図である。
ログ情報550は、コミット通番551、行ID552、操作種別553、及び、行データ554を含む。
コミット通番551は、図4Bに示したように、データベーストランザクションがコミットされる度にインクリメントされる番号である。データベーストランザクション内で複数の行が挿入、更新又は削除された場合、同一のデータベーストランザクション内で更新された内容に対しては、同一のコミット通番が割り当てられる。
行ID552は、操作された行を特定する識別子である。操作種別553は、操作された行に対して実行された操作の種別である。操作種別553は、挿入、更新又は削除のいずれかである。操作種別553が挿入である場合には、挿入された行のデータを含む。また、操作種別553が更新である場合には、更新後の行データ554を含む。
ログ情報550は、クライアント150からのデータベース更新要求によって、更新の要求の対象となった行の行ID、操作種別及び行データに基づいて生成される。また、トランザクションに付与されたデータベースのコミット通番をログに付与する。待機系サーバは、ログに含まれる行の行ID、操作種別及び行データに基づいて、自サーバのデータベースを更新する。
図6は、本発明の第1の実施の形態のクラスタの状態を管理するクラスタ構成テーブル600の一例を示す図である。
クラスタ構成テーブル600は、クラスタ構成管理部119によって管理される。クラスタ構成テーブル600は、サーバ名601、IPアドレス602、及び、状態603を含む。
サーバ名601は、クラスタに含まれる実行系サーバ及び待機系サーバのサーバ名である。IPアドレス602は、サーバ名601に対応するサーバのIPアドレスである。
状態603は、サーバ名601に対応するサーバの状態である。サーバの状態には、「実行系」、「待機系」、及び、「追加中」の3種類がある。また、待機系については、追加される待機系サーバにデータベースを複製する複製元となるか否かによって状態をさらに分類してもよい。
図7は、本発明の第1の実施の形態の実行系サーバ100におけるログ送信部113のログ送信処理の手順を示すフローチャートである。
実行系サーバ100のCPU101は、まず、ログ送信部113を実行し、ログ送信バッファ212にログが存在するか否かを判定する(S701)。
実行系サーバ100のCPU101は、ログ送信バッファ212にログが存在する場合には(S701の結果が「Yes」)、当該ログをログ送信バッファから読み出す(S702)。
実行系サーバ100のCPU101は、クラスタ構成管理部119からログ送信先リストを取得し(S703)、リストに含まれる待機系サーバにログを送信する(S704)。さらに、送信されたログをログ送信バッファから削除する(S705)。
実行系サーバ100のCPU101は、ログ送信バッファ212にログが存在しなかった場合には(S701の結果が「No」)、ログの存在チェック(S701)を繰り返すことによって、ログがログ送信バッファ212に書き込まれるまで待機する。
図8は、本発明の第1の実施の形態の待機系サーバ200におけるログ適用部216のログ適用処理の手順を示すフローチャートである。
待機系サーバ200のCPU101は、ログ適用部216の状態が「ログ適用中状態」であるか否かを判定する(S801)。ログ適用部216の状態が「ログ適用中状態」でない場合には(S801の結果が「No」)、「ログ適用中状態」になるまで待機する。
待機系サーバ200のCPU101は、ログ適用部216の状態が「ログ適用中状態」である場合には(S801の結果が「Yes」)、ログ受信バッファ215にログが存在するか否かを判定する(S802)。ログが存在しない場合には(S802の結果が「No」)、ログがログ受信バッファ215に書き込まれるまで待機する。
待機系サーバ200のCPU101は、ログ受信バッファ215にログが存在した場合には(S802の結果が「Yes」)、当該ログをログ受信バッファ215から読み出す(S803)。
さらに、待機系サーバ200のCPU101は、読み出されたログに含まれるコミット通番が、データベース221に格納されているコミット通番(適用済みコミット通番)よりも大きいか否かを判定する(S804)。読み出されたログに含まれるコミット通番が適用済みコミット通番よりも大きい場合には(S804の結果が「Yes」)、当該ログをデータベース221に反映する(S805)。さらに、データベース221のコミット通番を当該ログのコミット通番で更新する(S806)。
待機系サーバ200のCPU101は、読み出されたログに含まれるコミット通番が適用済みコミット通番と等しいか小さい場合には(S804の結果が「No」)、同一のログを重複して適用してしまうことを避けるために、当該ログの適用及びコミット通番の更新を実行しない。ログの適用、非適用によらず、読み出したログをログ受信バッファ215から削除する(S807)。
図9は、本発明の第1の実施の形態の計算機システムに待機系サーバを追加する処理を示すシーケンス図である。
図9に示すシーケンス図は、実行系サーバ100及び待機系サーバ200の2台の計算機が同期している状態に、待機系サーバ400を新たに追加し、データベースを同期させて待機系サーバとして動作可能になるまでの手順を示している。
はじめに、クラスタ管理者によって管理サーバ160から待機系サーバ400の追加が指示される(S901)。このとき、クラスタ管理者は、データベース送信元となる待機系サーバを指定してもよい。
管理サーバ160は、クラスタに追加される待機系サーバ(追加待機系サーバ)400に、実行系サーバ100のIPアドレスと共に待機系サーバの追加要求を送信する(S902)。
追加待機系サーバ400のクラスタ構成管理部419は、待機系サーバの追加要求を受信すると、実行系サーバ100のクラスタ構成管理部119に対し、クラスタ構成テーブルの転送を要求する(S903)。
実行系サーバ100のクラスタ構成管理部119は、クラスタ構成テーブルの転送要求を受信すると、要求元である追加待機系サーバ400のクラスタ構成管理部419にクラスタ構成テーブルを送信する(S904)。このとき、クラスタ構成テーブルには、待機系サーバ400が追加される前のクラスタ構成の各サーバのエントリ、つまり、実行系サーバ100及び待機系サーバ200のエントリが含まれる。
追加待機系サーバ400のクラスタ構成管理部419は、クラスタ構成テーブルを受信すると、データベース送信元待機系サーバをクラスタ構成テーブルから選択し、決定する(S905)。ここでは、唯一の待機系サーバである待機系サーバ200がデータベース送信元待機系サーバとして選択される。また、S901の処理において管理者がデータベース送信元待機系サーバを指定した場合には、指定された待機系サーバがデータベース送信元待機系サーバとして選択される。
次に、追加待機系サーバ400のクラスタ構成管理部419は、実行系サーバ100のクラスタ構成管理部119にログ送信先追加要求を送信する(S906)。
実行系サーバ100のクラスタ構成管理部119は、ログ送信先追加要求を受信すると、追加待機系サーバ400のサーバ名及びIPアドレス、さらに、状態を「追加中」としてクラスタ構成テーブルにエントリを追加する(S907)。実行系サーバ100のクラスタ構成テーブルに追加待機系サーバ400が追加されると、実行系サーバ100のデータベース121が更新された場合に、待機系サーバ200に加えて、追加待機系サーバ400に対してもログが送信される。なお、追加待機系サーバ400のログ適用部416では、送信されたログを適用するデータベースの複製が完了していないため、「ログ適用開始待ち状態」となる。
ここで、実行系サーバ100のデータベース121に対してデータベースの更新が要求された場合に、実行系サーバから待機系サーバに更新データを反映する処理は、図3に示したS301からS309までの処理と同じである。ただし、追加待機系サーバ400では、前述したとおり、ログ適用部416が「ログ適用開始待ち状態」であるため、データベースの複製が完了し、ログ適用が開始されるまでの間は、ログ受信部414が受信したログはログ受信バッファ415に滞留されている。
追加待機系サーバ400のクラスタ構成管理部419は、ログ送信先追加要求(S906)が完了すると、S905の処理で選択された待機系サーバ200のデータベース送信部217にデータベース送信要求を送信する(S908)。
待機系サーバ200のデータベース送信部217は、データベース送信要求を受信すると、ログ適用部216に対してログ反映処理の停止を指示する(S909)。ログ適用部216は、ログ反映処理の停止指示を受け付けると、ログ適用部216の状態を「ログ適用開始待ち状態」に変更する。これ以降、ログ受信部214が新たなログを受信した場合であっても、受信したログはログ受信バッファ215に滞留される。このようにして、ログ適用部216の反映処理が停止し、データベース221が静止化状態となる(S910)。
待機系サーバ200のデータベース送信部217は、ログ適用部216のログ反映処理が停止すると、データベース221のデータを追加待機系サーバ400のデータベース受信部418に送信する(S911)。データベース送信部217は、データベース221のデータの送信が完了すると、ログ適用部216に対してログ反映処理の再開を指示する(S914)。
待機系サーバ200のログ適用部216は、ログ反映処理の再開指示を受け付けると、ログ適用部216の状態を「ログ適用中状態」に変更する(S915)。ログ適用部216の状態が「ログ適用中状態」になると、図8に示したように、ログ受信バッファ215に滞留していたログが、順次、データベース221に適用される(S308、S309)。そして、再び実行系サーバ100のデータベース121と待機系サーバ200のデータベース221が同期した状態となる。
追加待機系サーバ400のデータベース受信部418は、待機系サーバ200のデータベース送信部217から受信したデータをデータベース421に格納する(S912)。データベースの受信が完了すると、データベース受信部418は、クラスタ構成管理部419にデータベース受信完了を通知する(S916)。
追加待機系サーバ400のクラスタ構成管理部419は、データベース受信完了通知を受信すると、ログ適用部416に対してログ反映処理の開始を指示する(S917)。ログ適用部416は、ログ反映処理の開始指示を受け付けると、ログ適用部416の状態を「ログ適用開始待ち状態」から「ログ適用中状態」に変更する。ログ適用部216の状態が「ログ適用中状態」になると、図8に示したように、ログ受信バッファ415に滞留していたログが、順次、データベース421に適用され(S308、S309)、追加待機系サーバ400のデータベース421が実行系サーバ100のデータベース121と同期した状態となる。
追加待機系サーバ400のクラスタ構成管理部419は、その後、実行系サーバ100のクラスタ構成管理部119及び待機系サーバ200のクラスタ構成管理部219に、待機系追加完了通知を送信する(S918)。
実行系サーバ100のクラスタ構成管理部119は、待機系追加完了通知を受信すると、S907の処理で追加された追加待機系サーバ400のエントリの状態を「追加中」から「待機系」に変更する(S919)。待機系サーバ200のクラスタ構成管理部219は、待機系追加完了通知を受信すると、追加待機系サーバ400のサーバ名及びIPアドレス、さらに、状態を「待機系」としてクラスタ構成テーブルにエントリを追加する(S920)。
また、追加待機系サーバ400のクラスタ構成管理部419は、追加待機系サーバ400のサーバ名及びIPアドレス、さらに、状態を「待機系」としてクラスタ構成テーブルにエントリに追加する(S921)。この結果、クラスタ構成テーブルも実行系サーバ100、待機系サーバ200、及び、追加待機系サーバ400の間で一致した状態となる。その後、クラスタ構成管理部419は、管理サーバ160に待機系サーバの追加完了を通知する(S922)。
管理サーバ160は、待機系サーバの追加完了が通知されると(S922)、クラスタ管理者に待機系サーバの追加処理が完了したことを提示する。また、図9には示していないが、データベース受信部418がデータベースデータの受信及び格納の進捗状況を、ログ適用部416がログ受信バッファ415に格納されるログ量を、管理サーバ160に報告することによって、クラスタ管理者に待機系サーバの追加処理の進捗状況を提示することができる。
図10は、本発明の第1の実施の形態の追加待機系サーバ400におけるクラスタ構成管理部419の待機系追加処理の手順を示すフローチャートである。
追加待機系サーバ400のCPU101は、待機系サーバの追加要求を受信すると、実行系サーバ100にクラスタ構成テーブルを要求し、当該クラスタ構成テーブルを取得する(S1001、図9のS903及びS904の処理に対応)。
次に、追加待機系サーバ400のCPU101は、取得したクラスタ構成テーブルの情報に基づいて、データベースの送信元となる待機系サーバを決定する(S1002、図9のS905の処理に対応)。データベースの送信元となる待機系サーバは、ランダムに選択されてもよいし、最も負荷の低い待機系サーバを選択されてもよい。さらに、実行系サーバ100のクラスタ構成管理部119にログ送信先追加要求を送信する(S1003、図9のS906の処理に対応)。
追加待機系サーバ400のCPU101は、S1002の処理で決定されたデータベース送信元待機系サーバのデータベース送信部217にデータベース送信要求を送信する(S1004、図9のS908の処理に対応)。さらに、データベース受信部418によってデータベースの受信が完了するまで待機する(S1005)。
追加待機系サーバ400のCPU101は、データベースの受信が完了すると、ログ適用部416にログの適用開始を指示する(S1006、図9のS916及びS917の処理に対応)。
その後、追加待機系サーバ400のCPU101は、実行系サーバ及びすべての待機系サーバのクラスタ構成管理部に待機系追加完了通知を送信する(S1007、図9のS918の処理に対応)。さらに、クラスタ構成管理部419に保持されるクラスタ構成テーブルに、追加待機系サーバ400のサーバ名及びIPアドレス、さらに、状態を「待機系」としてエントリを追加する(S1008、図9のS921の処理に対応)。最後に、管理サーバ160に待機系サーバの追加完了を通知する(S1009、図9のS922の処理に対応)。
図11は、本発明の第1の実施の形態の実行系サーバ100においてクラスタ構成管理部119がログ送信先追加要求を受信した際の処理の手順を示すフローチャートである。
実行系サーバ100のCPU101は、クラスタ構成管理部119がログ送信先追加要求を受信すると、ログ送信先追加要求の送信元のサーバ名及びIPアドレス、さらに、状態を「追加中」として、クラスタ構成テーブルに追加する(S1101、図9のS907の処理に対応)。クラスタ構成テーブルに新たに追加される待機系サーバ400のエントリを追加することによって、実行系サーバ100でデータが更新されると、更新内容が待機系サーバ400にも反映されるようになる。
図12は、本発明の第1の実施の形態のデータベース送信元として選択された待機系サーバにおけるデータベース送信部217の処理の手順を示すフローチャートである。
待機系サーバ200のCPU101は、データベース送信部217によって、データベース送信要求を受信する(S1201、図9のS908の処理に対応)。さらに、ログ受信バッファ215にデータベースに未反映のログが存在するか否かを判定する(S1202)。
待機系サーバ200のCPU101は、未反映のログが存在する場合には(S1202の結果が「Yes」)、ログ受信バッファ215に含まれる最大のコミット通番を取得する(S1203)。さらに、データベース221のコミット通番が最大コミット通番と等しくなるまで待機する(S1204)。
次に、待機系サーバ200のCPU101は、ログ適用部216を「ログ適用開始待ち状態」に設定することによって、ログの反映を停止する(S1205、図9のS909及びS910の処理に対応)。さらに、データベース送信要求の送信元サーバにデータベース221のデータを送信する(S1206、図9のS911の処理に対応)。データベース221のデータの送信が完了すると、ログ適用部216を「ログ適用中状態」に設定することによってログの反映を再開させる(S1207、図9のS913及びS914の処理に対応)。
図13は、本発明の第1の実施の形態の実行系サーバ100及び待機系サーバにおいて、クラスタ構成管理部が待機系追加完了通知を受信した際の処理の手順を示すフローチャートである。
実行系サーバ100のCPU101は、まず、クラスタ構成テーブルに通知元サーバが既に「追加中」として登録されているか否かを判定する(S1301)。既に登録されている場合には(S1301の結果が「Yes」)、クラスタ構成テーブルに通知元サーバの状態を「追加中」から「待機系」に変更する(S1302)。登録されていない場合には(S1301の結果が「No」)、新たに通知元サーバを「待機系」としてクラスタ構成テーブルに登録する(S1303)。
以上のように、図3から図13にて説明した処理によって、実行系サーバを停止することなく、新たなサーバを待機系として追加して、データ冗長性を回復することが可能となる。
なお、本発明の第1の実施の形態では、実行系サーバから待機系サーバに転送する更新情報として、ログを用いる方法を示したが、転送するデータは、実行系で更新されたデータを、待機系に反映するために必要な情報であればよい。例えば、更新されたデータそのものを転送してもよい。
さらに、データの転送は一度の送信ですべての処理を実施するのではなく、複数回に分割して送信してもよく、例えば、データが更新されたことのみを通知し、通知された待機系サーバがから更新情報を実行系に問い合わせる方法であってもよい。
また、転送する経路として、ネットワークを用いる場合を一例としたが、複数計算機間で通信可能な方法であれば、異なる転送経路を用いてもよい。例えば、ストレージ装置のボリューム複製機能を用いてもよいし、DMA(Direct Memory Access)を用いてもよい。さらに、複数の転送方法を選択可能な場合には、それらを組み合わせてもよい。例えば、待機系サーバからのデータベースの転送と、実行系サーバからの更新ログの転送とを別の転送方法を用いてもよい。
また、さらに別の方法として、事前にデータを定期的にディスクドライブなどの記憶装置に保存するチェックポイントダンプ又はスナップショットが実装されている場合には、当該保存されたデータを転送先となる追加計算機で読み出して、保存されたデータとの差分となるデータを転送元の計算機から転送してもよい。
本発明の第1の実施の形態によれば、待機系サーバからデータベースを複製するため、実行系サーバを停止することなく、新たなサーバを待機系サーバとして追加することが可能となる。
さらに、本発明の第1の実施の形態によれば、データベース送信元の待機系サーバがログ適用中に追加された待機系サーバからデータベース送信要求を受信した場合であっても、データベース送信元の待機系サーバのログ適用を停止し、データベースの複製が完了してから再開することによって、実行系サーバ、データベース送信元の待機系サーバ、及び、追加された待機系サーバに格納されたデータを同期させることが可能となる。
<第2の実施の形態>
本発明の第1の実施の形態では、実行系サーバ100と1台の待機系サーバ200とが含まれている計算機システムに、待機系サーバ400を追加する手順について説明した。本発明の第2の実施の形態では、待機系サーバ200及び待機系サーバ300の2台の待機系サーバのデータベースが実行系サーバ100のデータベース121と同期している状態で、待機系サーバ400を新たにクラスタに追加してデータベースを同期させる手順について説明する。
なお、本発明の第2の実施の形態において、本発明の第1の実施の形態と共通する内容については適宜説明を省略する。
本発明の第1の実施の形態では、実行系サーバ100と同期している待機系サーバが待機系サーバ200のみであったため、追加待機系サーバ400のクラスタ構成管理部419によるデータベース送信元待機系サーバ決定処理(S905及びS1002)では唯一の待機系サーバである待機系サーバ200をデータベース送信元待機系サーバとして選択していた。しかし、待機系サーバが複数存在する状況では、いずれの待機系サーバをデータベース送信元待機系サーバとして選択するかを判断する必要がある。
図14は、本発明の第2の実施の形態の計算機システムに待機系サーバを追加する処理を示すシーケンス図である。
本発明の第2の実施の形態では、実行系サーバ100、待機系サーバ200及び待機系サーバ300の3台の計算機のデータベースが同期している状態に、待機系サーバ400を新たに追加して同期させる。図14は、本発明の第1の実施の形態における図9に対応する。図14におけるS300番台及びS900番台の処理については、図9における処理と同じである。なお、図14では、待機系サーバ200の処理と待機系サーバ300の処理とが同じであるため、待機系サーバ300の記載を省略している。
追加待機系サーバ400のクラスタ構成管理部419は、クラスタ構成テーブルを実行系サーバ100から受信すると(S904)、クラスタ構成テーブルに含まれ、状態が「待機系」であるすべての待機系サーバのリソース使用量監視部に対してリソース使用率要求を送信する(S1401)。具体的には、待機系サーバ200のリソース使用量監視部220及び待機系サーバ300のリソース使用量監視部320にリソース使用率要求が送信される。
待機系サーバ200のリソース使用量監視部220は、待機系サーバ200におけるCPUの使用率、メモリの使用率、ネットワーク帯域の使用率などを監視している。リソース使用率要求を受信すると、CPUの使用率、メモリの使用率、ネットワーク帯域の使用率を要求元に送信する(S1402)。待機系サーバ300のリソース使用量監視部320についても同様である。
追加待機系サーバ400のクラスタ構成管理部419は、各待機系サーバからリソース使用率を受信すると、待機系サーバのリソース使用率を比較し、最もリソース使用量が少ない待機系サーバをデータベース送信元待機系サーバとして選択する(S1403)。
データベース送信元の待機系サーバを選択した後の処理は、本発明の第1の実施の形態における図9に示した処理と同様である。
図15は、本発明の第2の実施の形態のデータベース送信元待機系サーバ決定処理において使用されるリソース使用量の比較テーブルの一例を示す図である。
リソース使用量の比較テーブルには、待機系サーバごとのサーバ名、CPU使用率、メモリ使用率、ネットワーク使用率が保持される。なお、各待機系サーバが利用可能なCPU及びネットワークなどのリソースが複数存在するような場合には、リソースごとの使用量を保持してもよい。
図16は、本発明の第2の実施の形態の追加待機系サーバ400のクラスタ構成管理部419におけるデータベース送信元待機系サーバ決定処理(S1002)の手順を示すフローチャートである。
追加待機系サーバ400のCPU101は、まず、クラスタ構成テーブルに含まれ、状態が「待機系」であるすべての待機系サーバにリソース使用率要求を送信し、リソースの使用率を取得する(S1601)。さらに、取得した各待機系サーバのリソースの使用率に基づいて、図16に示したリソース使用量の比較テーブルを作成する。
次に、追加待機系サーバ400のCPU101は、CPU使用率、メモリ使用率、ネットワーク帯域使用率をリソース使用量の比較テーブルのサーバ間で比較し、最もリソース使用量が少ない待機系サーバをデータベース送信元待機系サーバとして選択する(S1602)。
リソース使用量の比較は、各待機系サーバから取得した各リソース使用率に基づいて評価値を算出し、最もリソース使用量の少ないサーバを選択する。比較方法の一例としては、以下の評価式によってリソース使用量を比較し、値が最も大きい待機系サーバをデータベース送信元待機系サーバとして選択する。
(1−CPU使用率)×(1−メモリ使用率)×(1−ネットワーク帯域使用率)
また、別の比較方法として、単純にCPU使用率が最も小さい待機系サーバを選択してもよいし、同様にメモリ使用率又はネットワーク帯域使用率が最も小さい待機系サーバを選択してもよい。
本発明の第2の実施の形態では、リソースの例として、CPU、メモリ、ネットワークについて述べたが、各サーバで用いられる他のハードウェア要素を用いてもよい。また、本発明の第2の実施の形態において、リソース使用量を表す情報として、使用率を用いて説明したが、直接的又は間接的にリソース使用量を表す指標を利用してもよい。
本発明の第2の実施の形態によれば、第1の実施の形態に示した効果に加えて、最もリソース使用率が小さい待機系サーバからデータベースを追加待機系サーバに転送することによって、新たな待機系サーバを速やかに追加することが可能となる。
<第3の実施の形態>
本発明の第3の実施の形態は、本発明の第1の実施の形態と同様に、待機系サーバ200のデータベース221が実行系サーバ100のデータベース121と同期しており、待機系サーバ400を新たにクラスタに追加してデータベースを同期させる。
本発明の第1の実施の形態では、追加待機系サーバ400は、実行系サーバ100からのみログを取得したが、本発明の第3の実施の形態では、待機系サーバ200からもログを取得する点が相違する。
図17A及び図17Bは、本発明の第3の実施の形態の計算機システムに待機系サーバを追加する処理を示すシーケンス図である。
本発明の第3の実施の形態では、実行系サーバ100及び待機系サーバ200の2台の計算機のデータベースが同期している状態に、待機系サーバ400を新たに追加して同期させる。図17A及び図17Bは、本発明の第1の実施の形態における図9に対応する。図17A及び図17BにおけるS300番台及びS900番台の処理については、図9における処理と同じである。
以下、本発明の第1の実施の形態と相違する処理を中心に説明する。
クラスタ管理者によって管理サーバ160が待機系サーバの追加を指示してから(S901)、追加待機系サーバ400のクラスタ構成管理部419がデータベース送信元待機系サーバを決定するまでの処理(S905)は、図9と同じである。
追加待機系サーバのクラスタ構成管理部419は、データベース送信元待機系サーバ200にデータベース送信要求を送信する(S908)。その後、S909からS913までの処理は、図9と同じである。
データベース送信元待機系サーバ200のデータベース送信部217は、データベースの送信が完了すると(S913)、クラスタ構成管理部219にログ送信先の追加を要求する(S906)。クラスタ構成管理部219は、追加待機系サーバ400のサーバ名及びIPアドレス、さらに、状態を「追加中」としてクラスタ構成テーブルに追加する(S907)。その後、ログ反映の再開を指示する(S914)。
データベース送信元待機系サーバ200のログ適用部216は、ログ反映の再開を指示されると、ログ反映の再開処理が実行される(S915)。ログ適用部216におけるログの反映処理においては、ログをデータベース221に反映した後に、当該ログをログ送信バッファ212にも書き込む(S1701)。
データベース送信元待機系サーバ200のログ送信部213は、当該ログをログ送信バッファ212から読み出すと(S304)、クラスタ構成管理部219からログ送信先を取得する(S1702)。このとき、サーバの状態が「追加中」となっているサーバのみをログ送信先として取得する。そして、ログ送信先である追加待機系サーバ400にログを送信する(S306)。送信されたログを受信した追加待機系サーバ400におけるS307からS309までの処理は、図9と同じである。
待機系サーバ200において、ログ反映停止S910からログ反映再開S915までの間に、データベースが更新された場合には、待機系サーバ200で受信したログはログ受信バッファ215に保持される。
追加待機系サーバ400におけるデータベース受信時の処理(S912、S916)は、図9と同じである。追加待機系サーバ400のクラスタ構成管理部419は、データベース受信完了通知を受信すると、ログ適用部416にログの適用開始を指示(S917)し、ログの適用が開始(S1704)した後に、ログ送信先追加要求を実行系サーバ100に送信する(S906)。実行系サーバ100におけるS907の処理は、図9と同じの処理である。
したがって、実行系サーバ100におけるS907の処理以降にデータベースに対してクライアントから更新が要求されると(S301)、追加待機系サーバ400に対してもログが送信される(S302〜S307)。
追加待機系サーバ400のログ適用部416は、ログを読み出してデータベースに反映する際に、ログのコミット通番とデータベース421のコミット通番を比較することによって、反映済みのログを重複して受信したことを検出することが可能である。ログの重複受信を検出した場合には、クラスタ構成管理部419に通知する(S1703)。クラスタ構成管理部419は、ログの重複受信を通知されると、実行系サーバ100のクラスタ構成管理部119及び待機系サーバ200のクラスタ構成管理部219に、待機系追加完了通知を送信する(S918)。以降のS919からS922までの処理は、図9と同じである。
図18は、本発明の第3の実施の形態の追加待機系サーバ400におけるクラスタ構成管理部419の待機系追加処理の手順を示すフローチャートである。
追加待機系サーバ400のCPU101は、待機系サーバの追加要求を受信すると、実行系サーバ100にクラスタ構成テーブルを要求し、クラスタ構成テーブルを取得する(S1801図17AのS903及びS904の処理に対応)。次に、追加待機系サーバ400のCPU101は、取得したクラスタ構成テーブルの情報に基づいて、データベースの送信元となる待機系サーバを決定する(S1802図17AのS905の処理に対応)。なお、S1801及びS1802の処理は、図10のS1001及びS1002の処理と同じである。
追加待機系サーバ400のCPU101は、S1802の処理で決定されたデータベース送信元待機系サーバのデータベース送信部217にデータベース送信要求を送信する(S1803、図17AのS908の処理に対応)。次に、データベース受信部418がデータベースの受信を完了するまで待機する(S1804)。
追加待機系サーバ400のCPU101は、データベースの受信が完了すると、ログ適用部416にログの適用開始を指示する(S1805、図17AのS917の処理に対応)。次に、実行系サーバ100のクラスタ構成管理部119にログ送信先追加要求を送信する(S1806)。その後、ログ適用部416が重複受信を検出するまで待機する(S1807、図17AのS1703の処理に対応)。
追加待機系サーバ400のCPU101は、実行系サーバ及びすべての待機系サーバのクラスタ構成管理部に待機系追加完了通知を送信する(S1808、図17BのS918の処理に対応)。さらに、クラスタ構成管理部419に保持されるクラスタ構成テーブルに、追加待機系サーバ400のサーバ名及びIPアドレス、さらに、状態を「待機系」としてエントリを追加する(S1809、図17BのS921の処理に対応)。最後に、管理サーバ160に待機系サーバの追加完了を通知する(S1810、図17BのS922の処理に対応)。なお、S1808からS1810までの処理は、図10のS1007からS1009までの処理と同じである。
以上、本発明の第3の実施の形態によれば、実行系サーバ100がデータベース更新要求によってデータベース121を更新する場合であっても、待機系サーバ200からデータベース221を複製し、さらに、待機系サーバ200からログを転送して適用することによって、新たに追加される待機系サーバ400のデータベース421を実行系サーバ100のデータベース121と同期させることが可能となる。
また、本発明の第3の実施の形態と本発明の第2の実施の形態に記載される待機系サーバの決定方法を組み合わせることによって、複数の待機系が存在する場合に対しても、本発明の第3の実施の形態を適用可能である。
本発明の第3の実施の形態によれば、本発明の第1の実施の形態と比較して、追加待機系サーバ400のログ受信バッファ415において一時的に保持しなければならないログの量を少なくすることができる。なお、データベース送信元待機系サーバ200がログを送信しなければならないため、待機系サーバ200のリソース使用量は増大する。
<第4の実施の形態>
本発明の第1の実施の形態ではデータベースデータをネットワーク経由で転送するが、本発明の第4の実施の形態では、ネットワーク帯域に余裕がある場合にはネットワーク経由でデータベースデータを転送するが、ネットワーク帯域に余裕がない場合には、データベース送信元待機系サーバ及び追加待機系サーバで共有されるストレージよってデータベースデータを転送する。
図19は、本発明の第4の実施の形態における計算機システムのハードウェア構成を示すブロック図である。
以下、図1に示した本発明の第1の実施の形態における計算機システムのハードウェア構成との相違点を中心に説明する。
実行系サーバ100は、SAN(Storage Area Network)4を介してストレージ装置5にアクセスするI/Oインターフェース(ホストバスアダプタ)104を備える。待機系サーバ(200、300及び400)についても、実行系サーバ100と同様に構成される。
ストレージ装置5は、複数のディスクドライブを備え、実行系サーバ100及び待機系サーバ(200、300及び400)からアクセス可能な記憶領域として領域(ボリューム)501〜503が設定される。
図20は、本発明の第4の実施の形態のデータベース送信元待機系サーバ200のデータベース送信部217の処理手順を示すフローチャートである。
図20に示す処理は、図12に示した本発明の第1の実施の形態におけるS1206の処理の代わりに実行される。
データベース送信元待機系サーバ200のCPU101は、データベース送信部217がデータベース送信要求を受信すると、リソース使用量監視部220からネットワーク帯域使用率を取得する(S2001)。さらに、取得されたネットワーク帯域使用率があらかじめ設定された閾値(例えば50%)よりも小さいか否かを判定する(S2002)。ネットワーク帯域使用率が閾値よりも小さい場合には(S2002の結果が「Yes」)、本発明の第1の実施の形態と同様にネットワークを使用してデータベースデータを送信する(S2003)。
データベース送信元待機系サーバ200のCPU101は、ネットワーク帯域使用率が閾値以上の場合には(S2002の結果が「No」)、データベースデータをストレージのボリュームに書き込む(S2004)。さらに、書き込まれたボリュームのIDを含む書き込み完了通知をデータベース送信要求の送信元にネットワーク経由で送信する(S2005)。
なお、図20では、データベース送信元待機系サーバ200によってS2002の判定処理が実行される例を説明したが、例えば、追加系計算機がリソース使用量の監視結果に基づいて判断し、データベース送信元待機系サーバ200に送信方法を通知するようにしてもよい。さらに、本発明の第2の実施の形態で説明したデータベース送信元待機系サーバを選択する処理で、S2002の判断処理を実行してもよい。この場合、選択方法の一部としてS2002の処理を実行してもよく、ネットワークによるデータベース転送を優先した待機系サーバの追加が可能である。
図21は、本発明の第4の実施の形態の追加待機系サーバ400のデータベース受信部418の処理手順を示すフローチャートである。
図21に示す処理は、本発明の第1の実施の形態におけるS912及びS916の処理の代わりに実行される。
追加待機系サーバ400のCPU101は、データベース送信元待機系サーバ200のデータベース送信部217から、データベースデータでなく、ストレージ装置5のデータ領域を識別する格納ボリュームIDを受信したか否かを判定する(S2101)。
追加待機系サーバ400のCPU101は、格納ボリュームIDを受信した場合には(S2101の結果が「Yes」)、データベースデータを指定されたデータ領域であるボリュームから読み出し、データベース421に格納する(S2102)。一方、データベースデータを受信した場合には(S2101の結果が「No」)、受信したデータベースデータをデータベース421に格納する(S2103、図9のS912の処理に対応)。いずれの場合であっても、データベースデータの格納が完了すると、クラスタ構成管理部419にデータベースの受信完了を通知する(S2104、図9のS916の処理に対応)。
以上より、本発明の第4の実施の形態では、ネットワーク帯域に余裕がある場合にはネットワーク経由でデータベースデータを転送し、ネットワーク帯域に余裕がない場合にはデータベース送信元待機系サーバと追加待機系サーバで共有されるストレージよってデータベースデータを転送することができる。ここで、本発明の第4の実施の形態では、ネットワーク経由とストレージ経由とを選択する例を示したが、転送経路を変更するようにしてもよい。また、データベースデータの転送だけではなく、更新ログの転送に対して適用してもよい。
本発明の第4の実施の形態によれば、データ転送がログ転送処理又はその他の転送経路を使用する処理に影響を与える可能性がある場合に、当該影響を回避して性能に影響を与えることなく、データベースシステムに新しい待機系を追加することが可能となる。
<第5の実施の形態>
本発明の第5の実施の形態は、仮想化機構による仮想化機能及び仮想サーバのリソース使用量制御機能が利用可能な場合に、新たな待機系サーバをデータベースシステムに追加する実施形態である。
図22は、本発明の第5の実施の形態の計算機システムのハードウェア構成を示すブロック図である。
本発明の第1の実施の形態のハードウェア構成(図1)との相違点は、実行系サーバ100のメモリ102に仮想化機構105が格納され、仮想化機構105が実行されることによって、仮想サーバ107が生成される。
仮想サーバ107は、仮想化機構105によって、計算機内のメモリ102、CPU101及び通信インターフェース103などのリソースが仮想サーバ107ごとに分配されることによって、サーバと同等の機能を有することができる。仮想サーバ107は、仮想サーバ107の内部で、図2に示した実行系サーバ100の内部で実行される機能ブロック111から121までの各部が実際の計算機上と同様に動作する。
仮想化機構105に含まれるリソース使用量制御部106は、設定値に基づいて、仮想サーバ107が使用するメモリ102、CPU101及び通信インターフェース103などのリソース使用量を制御する機能を有する。なお、設定値は、外部から指定することが可能であり、例えば、管理サーバ160など他サーバから、又は、設定対象となる仮想サーバから設定されてもよい。
待機系サーバ200、300及び400についても、実行系サーバ100と同様に構成される。
図23は、本発明の第5の実施の形態のリソース使用量制御部106に保持されるリソース使用量設定テーブルの一例を示す図である。
リソース使用量制御部106は、リソース使用量設定テーブルに基づいて、仮想サーバ107が使用可能なリソース量を制御する。リソース使用量設定テーブルは、サーバの仮想化機構105によって管理される仮想サーバ107の仮想サーバ名、サーバが保持するCPU101、メモリ102及び通信インターフェース103に対して各仮想サーバが使用可能なCPU使用率、メモリ使用率及びネットワーク使用率の上限を保持する。いずれの仮想サーバにも割り当てられていないリソースは、未割当て状態のリソースとしてリソース使用量設定テーブルに記録される。各仮想サーバのリソース使用率の上限は、あらかじめシステム管理者によって管理サーバ160を介して設定される。なお、各仮想サーバが利用可能なCPU又はネットワークなどのリソースが複数存在するような場合には、当該リソースのそれぞれに対する上限を保持することもできる。
図24A及び図24Bは、本発明の第5の実施の形態の計算機システムに待機系サーバを追加する処理を示すシーケンス図である。
本発明の第5の実施の形態では、サーバ仮想化機能及び仮想サーバのリソース使用量制御機能が利用可能な場合に、実行系仮想サーバ107及び待機系仮想サーバ207の計算機のデータベースが同期している状態に、待機系仮想サーバ407を新たに追加して同期させる。図24A及び図24Bは、本発明の第1の実施の形態における図9に対応する。図24A及び図24BにおけるS300番台及びS900番台の処理については、図9における処理と同じである。
以下、本発明の第1の実施の形態と相違する処理を中心に説明する。
本発明の第5の実施の形態では、追加待機系仮想サーバ407のクラスタ構成管理部419は、実行系仮想サーバ107にログ送信先の追加を要求する際に(S906)、リソース割当ての変更量を算出する(S2401)。さらに、自サーバのリソース使用量制御部406に対してリソース割当ての変更を要求する(S2402)。なお、図24Aでは、リソース割当量変更要求S2402を、ログ送信先追加要求S906の後に実施しているが、追加待機系サーバのリソース変更は、ログ書き込みS307及びログ反映S309を実施するためのリソースを割り当てるためであるため、例えば、S906の処理の前に実行してもよい。また、S307又はS309の処理を実行する場合に追加待機系サーバのログ受信部414又はログ適用部416がリソース割当量変更要求S2402を指示する形であってもよい。
リソース使用量制御部406は、リソース割当量変更要求S2402を受信すると、追加待機系仮想サーバ407のリソース使用量の上限を変更する(S2403)。その後、クラスタ構成管理部419は、データベース送信元待機系仮想サーバ207にデータベースの送信を要求する(S908)。データベース送信要求を受信した待機系仮想サーバ207のデータベース送信部217は、ログ適用部216にログ反映停止指示(S909)の前に、リソース割当ての変更量を算出し(S2404)、自サーバのリソース使用量制御部206に対してリソース割当ての変更を要求する(S2405)。
リソース使用量制御部206は、リソース割当量変更要求を受信すると、データベース送信元待機系仮想サーバ207のリソース使用量の上限を変更する(S2406)。なお、図24Aでは、リソース割当量変更要求S2405は、データベース送信元待機系仮想サーバ207から送信されているが、前述したリソース割当量変更要求S2402の場合と同様に、管理サーバ160が指示してもよい。さらにその場合には、S2402の処理と同様に、データベース送信要求S908よりも前に実施しても、後に実施してもよい。
その後、データベース送信元待機系仮想サーバ207のログ適用部216は、データベース送信(S911)の間にログ受信バッファ215に格納されたログを、ログ反映再開指示(S914)を受信してから、データベース221に順次反映する(S308、S309)。このとき、ログの反映と同時にログ受信バッファ215に格納されているログの量を監視する(S2407)。そして、ログの量が一定量以下、例えば、ログ反映停止指示S909を実施した時のログ量、又は、ログが一つも無くなった状態に減少したことを検出した場合には、ログ適用部216は、自サーバのリソース使用量制御部206に対してリソース割当量を戻すように要求する(S2408)。
ここで、リソース割当量戻し要求S2408は、ログ量の減少検出を管理サーバに通知することによって、リソース割当変更量要求S2405と同様に、管理サーバが行う形であってもよい。リソース使用量制御部206は、リソース割当量戻し要求を受信すると、S2406の処理で変更されたデータベース送信元待機系仮想サーバ207のリソース使用量の上限を変更前の状態に戻す(S2409)。
追加待機系仮想サーバ407についても同様に、ログ適用部416は、データベースの受信が完了し(S916)し、ログ反映開始指示(S917)を受信すると、ログ受信バッファ415に格納されたログをデータベース421に順次反映する(S308、S309)。このとき、ログの反映と同時にログ受信バッファ415に格納されているログの量を監視する(S2410)。ログの量が一定量以下に減少したことを検出した場合には、ログ適用部416は、自サーバのリソース使用量制御部406に対してリソースの割当量を戻すように要求する(S2411)。リソース使用量制御部406は、リソース割当量戻し要求を受信すると、S2403の処理で変更された追加待機系仮想サーバ407のリソース使用量の上限を変更前の状態に戻す(S2412)。
以上のように、本発明の第5の実施の形態では、データベースデータの転送からデータベースデータ転送処理中にログ受信バッファに滞留したログの反映が完了するまでの期間に、仮想化機構によって、仮想サーバに対するリソース割当量を増やす。したがって、データベースデータの転送及びログの反映を速やかに実行することが可能となり、結果としてデータベースシステムに新たな待機系仮想サーバを追加するために必要な時間を短縮することができる。
図25は、本発明の第5の実施の形態のリソース割当変更量算出処理(S2401及びS2404)の手順を示すフローチャートである。
待機系サーバのCPU101は、まず、クラスタ構成テーブルを参照し、クラスタ構成テーブルに含まれる状態が「待機系」となっているサーバ数を算出する。さらに、状態が「待機系」であるサーバ台数が、あらかじめシステム管理者によって設定された複製数閾値よりも大きいか否かを判定する(S2501)。
待機系サーバのCPU101は、状態が「待機系」であるサーバ台数が複製数閾値を超えている場合には(S2501の結果が「YES」)、未割当てリソースのうち一部を追加のリソース割当て変更量とする(S2502)。例えば、未割当てリソースの半分を追加のリソース割当て変更量とする。若しくは、あらかじめシステム管理者によって指定される固定量を追加するリソース割当変更量とする。
待機系サーバのCPU101は、状態が「待機系」であるサーバ台数が複製数閾値を超えていない場合には(S2501の結果が「NO」)、未割当てリソースすべてを追加のリソース割当て変更量とする(S2503)。
本発明の第5の実施の形態によれば、追加される待機系サーバ及びデータベースの複製を提供する待機系サーバのリソース割当量を大きくすることによって、速やかに待機系仮想サーバの追加を完了させることができる。特に、待機系仮想サーバ数が少なくデータベースデータの冗長度が低い場合には、より多くのリソースを割り当てることによって、速やかにデータベースデータの冗長度を回復させることができる。なお、追加待機系サーバでリソース割当量を変更するための閾値は、システム管理者によって管理サーバに設定された閾値を追加待機系サーバ利用してもよいし、システム管理者によって直接設定されたものであってもよい。
ここで、本発明の第5の実施の形態では、追加される待機系サーバ及びデータベースの複製を提供する待機系サーバのリソース割当量を大きくする例を示したが、データ転送がログ転送処理又はその他の転送経路を使用する処理に影響を与える可能性がある場合には、当該影響を回避することを目的としてリソース割当量を小さくしてもよい。
本発明は、データ更新の性能劣化を防止しつつ待機系を追加することによって、データの冗長性を保証する技術に関するものであり、データの更新頻度が高く、高い信頼性が要求されるデータ処理システムに対して好適である。例えば、証券又は銀行などの金融分野における情報処理システムに好適である。
さらに、本発明は、データを転送する処理を含むため、高速なデータ転送手段を可能とするシステム、特に、内部バスによってサーバ間でデータを転送可能なブレードサーバを用いたシステムに対して好適である。
加えて、実施形態では、データベースシステムを例に待機系計算機を追加する方法について説明したが、本発明はデータベースシステムに限ったものではなく、実行系サーバに格納されたデータと待機系サーバに格納されたデータとを同期させるシステムに適用可能である。
また、実施形態では、複数台の計算機のうち、クライアントからのデータベース更新要求を受け付ける実行系サーバが一台であり、他の計算機は実行系サーバから更新情報の転送を受け付けて反映する待機系サーバである場合について説明したが、複数の実行系サーバが存在する場合に対しても、本発明を適用可能である。例えば、一つの計算機が実行系と待機系の双方の処理部を有することで、複数の計算機間で相互に更新情報を転送し、互いの更新を反映可能である。この場合には、各計算機が実行系と待機系の処理部を個別に有していてもよいし、共通する機能については同一の処理部を利用してもよい。
さらに、複数の計算機から更新情報が転送される待機系サーバは、各更新情報に対する処理部を複数有していてもよいし、共通する機能については同一の処理部を利用してもよい。加えて、この場合、本発明において追加される計算機も、データの同期後にクライアントからのデータベース更新要求を受け付けることによって、実行系サーバとして動作してもよい。
以上のように、複数のサーバにデータの複製を保持することによってデータの冗長性を保証するクラスタ型のデータベースシステムに対して本発明を適用することにより、データベースシステムの可用性を向上させることが可能となる。
本発明の第1の実施の形態の計算機システムのハードウェア構成を示すブロック図である。 本発明の第1の実施の形態のクラスタ構成のデータベースシステムのソフトウェアを主体とした機能ブロック図である。 本発明の第1の実施の形態の通常動作中にクライアントから送信されたデータベース更新要求によって、データベースが更新される処理を示すシーケンス図である。 本発明の第1の実施の形態のデータベースに格納された情報(業務処理で使用される表)の一例を示す図である。 本発明の第1の実施の形態のデータベースに格納された情報(コミット通番)の一例を示す図である。 本発明の第1の実施の形態のログ情報の一例を示す図である。 本発明の第1の実施の形態のクラスタの状態を管理するクラスタ構成テーブルの一例を示す図である。 本発明の第1の実施の形態の実行系サーバにおけるログ送信部のログ送信処理の手順を示すフローチャートである。 本発明の第1の実施の形態の待機系サーバにおけるログ適用部のログ適用処理の手順を示すフローチャートである。 本発明の第1の実施の形態の計算機システムに待機系サーバを追加する処理を示すシーケンス図である。 本発明の第1の実施の形態の追加待機系サーバにおけるクラスタ構成管理部の待機系追加処理の手順を示すフローチャートである。 本発明の第1の実施の形態の実行系サーバにおいてクラスタ構成管理部がログ送信先追加要求を受信した際の処理の手順を示すフローチャートである。 本発明の第1の実施の形態のデータベース送信元として選択された待機系サーバにおけるデータベース送信部の処理の手順を示すフローチャートである。 本発明の第1の実施の形態の実行系サーバ及び待機系サーバにおいて、クラスタ構成管理部が待機系追加完了通知を受信した際の処理の手順を示すフローチャートである。 本発明の第2の実施の形態の計算機システムに待機系サーバを追加する処理を示すシーケンス図である。 本発明の第2の実施の形態のデータベース送信元待機系サーバ決定処理において使用されるリソース使用量の比較テーブルの一例を示す図である。 本発明の第2の実施の形態の追加待機系サーバのクラスタ構成管理部におけるデータベース送信元待機系サーバ決定処理の手順を示すフローチャートである。 本発明の第3の実施の形態の計算機システムに待機系サーバを追加する処理を示すシーケンス図である。 本発明の第3の実施の形態の計算機システムに待機系サーバを追加する処理を示すシーケンス図である。 本発明の第3の実施の形態の追加待機系サーバにおけるクラスタ構成管理部の待機系追加処理の手順を示すフローチャートである。 本発明の第4の実施の形態における計算機システムのハードウェア構成を示すブロック図である。 本発明の第4の実施の形態のデータベース送信元待機系サーバのデータベース送信部の処理手順を示すフローチャートである。 本発明の第4の実施の形態の追加待機系サーバのデータベース受信部の処理手順を示すフローチャートである。 本発明の第5の実施の形態の計算機システムのハードウェア構成を示すブロック図である。 本発明の第5の実施の形態のリソース使用量制御部に保持されるリソース使用量設定テーブルの一例を示す図である。 本発明の第5の実施の形態の計算機システムに待機系サーバを追加する処理を示すシーケンス図である。 本発明の第5の実施の形態の計算機システムに待機系サーバを追加する処理を示すシーケンス図である。 本発明の第5の実施の形態のリソース割当て変更量算出処理の手順を示すフローチャートである。
符号の説明
100 実行系サーバ
200、300、400 待機系サーバ
160 管理サーバ
111 トランザクション制御部
112 ログ送信バッファ
113 ログ送信部
119、219、419 クラスタ構成管理部
121、221、421 データベース
214、414 ログ受信部
215、415 ログ受信バッファ
216、416 ログ適用部
217 データベース送信部
418 データベース受信部

Claims (12)

  1. クライアントからの処理要求に応じて業務処理を実行する実行系計算機、及び、前記実行系計算機に格納されたデータの複製を格納する複数の待機系計算機を含み、前記複数の待機系計算機は前記実行系計算機でデータが更新された時に作成され前記実行系計算機から転送される更新情報を受けて、それぞれ自らが格納するデータの複製を更新する計算機システムにおいて、前記計算機システムに前記待機系計算機として新たに計算機を追加する方法であって、
    前記計算機システムから前記複数の待機系計算機の一つを選択し、
    前記実行系計算機から前記追加される計算機に前記更新情報の転送を開始し、
    前記選択された待機系計算機に格納された前記データの複製を前記追加される計算機に転送し、
    前記追加される計算機は、転送されたデータの複製を格納した後に、それまで滞留していた更新情報のそれぞれが重複反映にならないかを確認した上で前記格納したデータの複製に反映することを特徴とする待機系計算機の追加方法。
  2. 前記実行系計算機及び前記待機系計算機には、データベース管理システムが稼動しており、
    前記実行系計算機及び前記待機系計算機に格納されるデータは、前記データベース管理システムによって管理されることを特徴とする請求項1に記載の待機系計算機の追加方法。
  3. 前記更新情報は、前記データベース管理システムによって生成される更新ログであることを特徴とする請求項2に記載の待機系計算機の追加方法。
  4. 前記方法は、前記選択された待機系計算機が前記追加される計算機に前記データの複製を転送する前に、前記実行系計算機に格納されたデータの更新情報を前記選択された待機系計算機に格納された前記データの複製に反映する処理を一時的に停止することを特徴とする請求項1に記載の待機系計算機の追加方法。
  5. 前記方法は、前記選択された待機系計算機が前記追加される計算機に前記データの複製を転送する処理が完了した後、前記実行系計算機に格納されたデータの更新情報を前記選択された待機系計算機に格納された前記データの複製に反映する処理を再開することを特徴とする請求項4に記載の待機系計算機の追加方法。
  6. 前記実行系計算機に格納されたデータの複製を転送する待機系計算機は、前記計算機システムに含まれる待機系計算機のリソース使用量に基づいて選択されることを特徴とする請求項1に記載の待機系計算機の追加方法。
  7. 前記リソース使用量のリソースは、プロセッサ、メモリ及びネットワークの少なくとも一つが含まれることを特徴とする請求項6に記載の待機系計算機の追加方法。
  8. 前記計算機システムは、データを格納するストレージ装置をさらに備え、
    前記待機系計算機の追加方法は、前記選択された待機系計算機のリソース使用量に基づいて、前記追加される計算機に前記データの複製を転送する際に、前記ストレージ装置を経由させるか否かを判定することを特徴とする請求項1に記載の待機系計算機の追加方法。
  9. 前記計算機システムは、計算機の物理的なリソースを論理的に分割することによって、論理計算機を提供し、
    前記待機系計算機の追加方法は、前記選択された待機系計算機及び前記追加される計算機の少なくとも一方が前記論理計算機である場合に、当該論理計算機によって使用されるリソース量を変更した後に、前記データの複製を開始することを特徴とする請求項1に記載の待機系計算機の追加方法。
  10. クライアントからの処理要求に応じて業務処理を実行する実行系計算機、及び、前記実行系計算機に格納されたデータの複製をそれぞれ格納し、かつ前記実行系計算機でデータが更新された時に作成され前記実行系計算機から転送される更新情報を受けて、それぞれ自らが格納するデータの複製を更新する複数の待機系計算機を含む計算機システムに、前記待機系計算機として新たに追加される計算機であって、
    前記追加される計算機は、
    前記実行系計算機に前記更新情報の転送を要求し、
    前記計算機システムから前記待機系計算機を選択し、
    前記選択された待機系計算機に、前記データの複製の転送を要求し、
    前記選択された待機系計算機から転送された前記データの複製を格納し、
    前記更新情報の転送が開始されてから滞留していた更新情報のそれぞれが重複反映にならないかを確認した上で前記格納したデータの複製に反映することを特徴とする計算機。
  11. クライアントからの処理要求に応じて業務処理を実行する実行系計算機、及び、前記実行系計算機に格納されたデータの複製をそれぞれ格納し、かつ前記実行系計算機でデータが更新された時に作成され前記実行系計算機から転送される更新情報を受けて、それぞれ自らが格納するデータの複製を更新する複数の待機系計算機を含む計算機システムであって、
    前記待機系計算機として新たに計算機が追加される場合には、
    前記追加される計算機は、
    前記実行系計算機に前記更新情報の転送を要求し、
    前記計算機システムから前記複数の待機系計算機の一つを選択し、
    前記選択された待機系計算機に、前記データの複製の転送を要求し、
    前記選択された待機系計算機は、前記データの複製を前記追加される計算機に転送し、
    前記実行系計算機は、前記前記追加される計算機に更新情報の転送を開始し、
    前記追加される計算機は、前記転送されたデータの複製の格納が完了した後に、それまで滞留していた前記更新情報のそれぞれが重複反映にならないかを確認した上で前記格納したデータの複製に反映することを特徴とする計算機システム。
  12. 前記実行系計算機及び前記待機系計算機には、データベース管理システムが稼動し、
    前記実行系計算機及び前記待機系計算機に格納されるデータは、前記データベース管理システムによって管理され、
    前記更新情報は、前記データベース管理システムによって生成される更新ログであることを特徴とする請求項11に記載の計算機システム。
JP2007337232A 2007-12-27 2007-12-27 待機系計算機の追加方法、計算機及び計算機システム Expired - Fee Related JP5192226B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007337232A JP5192226B2 (ja) 2007-12-27 2007-12-27 待機系計算機の追加方法、計算機及び計算機システム
US12/071,774 US8195777B2 (en) 2007-12-27 2008-02-26 System and method for adding a standby computer into clustered computer system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007337232A JP5192226B2 (ja) 2007-12-27 2007-12-27 待機系計算機の追加方法、計算機及び計算機システム

Publications (2)

Publication Number Publication Date
JP2009157785A JP2009157785A (ja) 2009-07-16
JP5192226B2 true JP5192226B2 (ja) 2013-05-08

Family

ID=40799918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007337232A Expired - Fee Related JP5192226B2 (ja) 2007-12-27 2007-12-27 待機系計算機の追加方法、計算機及び計算機システム

Country Status (2)

Country Link
US (1) US8195777B2 (ja)
JP (1) JP5192226B2 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9569319B2 (en) * 2009-09-18 2017-02-14 Alcatel Lucent Methods for improved server redundancy in dynamic networks
KR100990412B1 (ko) * 2009-10-29 2010-10-29 주식회사 팀스톤 씨피유 가상화를 지원할 수 있는 컴퓨터 서버
JP5282046B2 (ja) * 2010-01-05 2013-09-04 株式会社日立製作所 計算機システム及びその可用化方法
US20110178984A1 (en) * 2010-01-18 2011-07-21 Microsoft Corporation Replication protocol for database systems
US8825601B2 (en) * 2010-02-01 2014-09-02 Microsoft Corporation Logical data backup and rollback using incremental capture in a distributed database
JP5331737B2 (ja) 2010-03-15 2013-10-30 株式会社日立製作所 ストリームデータ処理障害回復方法および装置
JP5308403B2 (ja) 2010-06-15 2013-10-09 株式会社日立製作所 データ処理の障害回復方法、システムおよびプログラム
JP2012064002A (ja) * 2010-09-16 2012-03-29 Yokogawa Electric Corp データ保護装置
JP5691390B2 (ja) * 2010-10-25 2015-04-01 サンケン電気株式会社 電源装置およびプログラム
US9032053B2 (en) * 2010-10-29 2015-05-12 Nokia Corporation Method and apparatus for upgrading components of a cluster
US8521768B2 (en) * 2011-01-13 2013-08-27 International Business Machines Corporation Data storage and management system
JP5261515B2 (ja) 2011-02-23 2013-08-14 シャープ株式会社 画像形成装置
JP5686034B2 (ja) * 2011-04-28 2015-03-18 富士通株式会社 クラスタシステム、同期制御方法、サーバ装置および同期制御プログラム
US8543545B2 (en) 2011-06-29 2013-09-24 International Business Machines Corporation Minimizing replication search on failover
JP5741254B2 (ja) * 2011-06-30 2015-07-01 富士通株式会社 送信制御方法、装置及びプログラム
US9203900B2 (en) 2011-09-23 2015-12-01 Netapp, Inc. Storage area network attached clustered storage system
US8683170B1 (en) 2011-09-23 2014-03-25 Netapp, Inc. Consistent distributed storage communication protocol semantics in a clustered storage system
JP2013190921A (ja) * 2012-03-13 2013-09-26 Oki Electric Ind Co Ltd クラスタシステム
US8935568B2 (en) * 2012-07-27 2015-01-13 Dell Products, Lp System and method of replicating virtual machines for live migration between data centers
CN103262480B (zh) * 2012-11-13 2016-05-25 华为技术有限公司 一种虚拟集群建立的方法及网络设备
US20150227599A1 (en) * 2012-11-30 2015-08-13 Hitachi, Ltd. Management device, management method, and recording medium for storing program
EP2960784A4 (en) 2013-02-21 2016-09-14 Nec Corp VIRTUALIZATION SYSTEM
JP6251965B2 (ja) * 2013-03-04 2017-12-27 日本電気株式会社 情報システムおよびデータベース復旧方法
EP2975523A4 (en) 2013-03-12 2017-02-08 Toshiba Solutions Corporation Database system, program, and data processing method
JP6382819B2 (ja) 2013-08-21 2018-08-29 株式会社東芝 データベースシステム、ノード、管理装置、プログラムおよびデータ処理方法
WO2015029139A1 (ja) 2013-08-27 2015-03-05 株式会社東芝 データベースシステム、プログラムおよびデータ処理方法
JP6200376B2 (ja) * 2014-05-27 2017-09-20 クラリオン株式会社 車載情報システム及びその情報処理方法
US10176114B2 (en) * 2016-11-28 2019-01-08 Oracle International Corporation Row identification number generation in database direct memory access engine
CN109299175B (zh) * 2018-09-26 2022-11-08 中国建设银行股份有限公司 数据库动态扩展方法、系统、装置和存储介质
US11429595B2 (en) * 2020-04-01 2022-08-30 Marvell Asia Pte Ltd. Persistence of write requests in a database proxy
US11436110B2 (en) * 2021-02-11 2022-09-06 Huawei Technologies Co., Ltd. Distributed database remote backup

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5555404A (en) * 1992-03-17 1996-09-10 Telenor As Continuously available database server having multiple groups of nodes with minimum intersecting sets of database fragment replicas
JP3203935B2 (ja) * 1994-03-11 2001-09-04 日本電気株式会社 ホットスタンバイシステム切り替えシステム
JP3534596B2 (ja) * 1997-12-05 2004-06-07 富士通株式会社 インテリジェントネットワーク内のデータベースの同期方法と装置
JP3887130B2 (ja) * 1999-07-30 2007-02-28 株式会社東芝 高可用性計算機システム及び同システムにおけるデータバックアップ方法
EP1368742A4 (en) * 2001-02-13 2010-09-01 Candera Inc STORAGE VIRTUALIZATION AND STORAGE MANAGEMENT FOR PROVIDING HIGHER STORAGE SERVICES
US7165187B2 (en) * 2003-06-06 2007-01-16 Hewlett-Packard Development Company, L.P. Batch based distributed data redundancy
JP4318211B2 (ja) * 2004-03-08 2009-08-19 富士通株式会社 高信頼システム、冗長構成制御方法及びプログラム
JP2007241325A (ja) * 2004-12-21 2007-09-20 Nippon Telegr & Teleph Corp <Ntt> 多重化データベースシステム及びその同期化方法、仲介装置、仲介プログラム
US7627776B2 (en) * 2004-11-16 2009-12-01 Petruzzo Stephen E Data backup method
US7769886B2 (en) * 2005-02-25 2010-08-03 Cisco Technology, Inc. Application based active-active data center network using route health injection and IGP
US20070220059A1 (en) * 2006-03-20 2007-09-20 Manyi Lu Data processing node

Also Published As

Publication number Publication date
JP2009157785A (ja) 2009-07-16
US20090172142A1 (en) 2009-07-02
US8195777B2 (en) 2012-06-05

Similar Documents

Publication Publication Date Title
JP5192226B2 (ja) 待機系計算機の追加方法、計算機及び計算機システム
US10503427B2 (en) Synchronously replicating datasets and other managed objects to cloud-based storage systems
JP4477950B2 (ja) リモートコピーシステム及び記憶装置システム
JP4405509B2 (ja) データ管理方法、システム、およびプログラム(リモート記憶位置にフェイルオーバを行うための方法、システム、およびプログラム)
US8027952B2 (en) System and article of manufacture for mirroring data at storage locations
US9594822B1 (en) Method and apparatus for bandwidth management in a metro cluster environment
US8694700B1 (en) Using I/O track information for continuous push with splitter for storage device
US10083093B1 (en) Consistent replication in a geographically disperse active environment
JP5331737B2 (ja) ストリームデータ処理障害回復方法および装置
US10223007B1 (en) Predicting IO
US20120303912A1 (en) Storage account migration between storage stamps
US20180101558A1 (en) Log-shipping data replication with early log record fetching
JP2005301590A (ja) ストレージシステム及びデータ複製方法
US7979651B1 (en) Method, system, and computer readable medium for asynchronously processing write operations for a data storage volume having a copy-on-write snapshot
JP2019185371A (ja) サーバ切り替えプログラム、サーバ切り替え方法、及びサーバ切り替えシステム
JP4546629B2 (ja) 記憶システム、記憶システムの応答方法及び記録媒体
JP2005309793A (ja) データ処理システム
US7376859B2 (en) Method, system, and article of manufacture for data replication
JP2017174238A (ja) 制御プログラム、制御方法、および制御装置
JP5292350B2 (ja) メッセージキュー管理システム及びロックサーバ及びメッセージキュー管理方法及びメッセージキュー管理プログラム
US11132271B2 (en) Determining which target is most ahead in a multi-target mirroring environment
JP2006048300A (ja) ディスクアレイ装置群およびそのコピー処理方法
JP4998010B2 (ja) データベースシステム管理、データベースシステム、プログラム及び処理装置
JP7117338B2 (ja) リモートコピーシステム及びリモートコピー管理方法
JP4461777B2 (ja) トランザクション処理システムおよび方法ならびにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130131

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160208

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees