Nothing Special   »   [go: up one dir, main page]

JP3843713B2 - Computer system and device allocation method - Google Patents

Computer system and device allocation method Download PDF

Info

Publication number
JP3843713B2
JP3843713B2 JP2000238865A JP2000238865A JP3843713B2 JP 3843713 B2 JP3843713 B2 JP 3843713B2 JP 2000238865 A JP2000238865 A JP 2000238865A JP 2000238865 A JP2000238865 A JP 2000238865A JP 3843713 B2 JP3843713 B2 JP 3843713B2
Authority
JP
Japan
Prior art keywords
storage device
computer
storage
request
subsystem
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000238865A
Other languages
Japanese (ja)
Other versions
JP2001142648A (en
Inventor
学 北村
達也 村上
憲司 山神
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2000238865A priority Critical patent/JP3843713B2/en
Publication of JP2001142648A publication Critical patent/JP2001142648A/en
Application granted granted Critical
Publication of JP3843713B2 publication Critical patent/JP3843713B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、計算機システム、及び、計算機システムにおける計算機への記憶デバイスの割り当て方法に係り、特に、複数の計算機により共用される記憶装置サブシステムを備えた計算機システムにおいて、計算機に対する記憶デバイスの割り当てを行うための方法に関する。
【0002】
【従来の技術】
近年、企業などで利用される計算機システムで扱われる情報量は、飛躍的に増大しており、これに伴いデータを記憶するディスク装置などの容量も増加の一途をたどっている。例えば、磁気ディスク装置においては、数TB(テラバイト)の容量を持つ装置も珍しくなくなってきている。このようなディスク装置に関して、例えば、特開平9−274544号公報には、1台の記憶装置サブシステムを複数種類の論理的なディスク装置(以下では、デバイスとも呼ぶ)で構成する技術が開示されている。具体的には、ホストコンピュータからアクセスされるデバイス(論理ディスク)として、RAID(Redundant Arrays of Inexpensive Disks)におけるRAID5とRAID1のように、RAIDレベルの異なるものを混在させ、あるいは、論理ディスクを構成するための実際の磁気ディスク装置(物理ディスク装置)として、アクセス速度の異なるものを混在させたディスクサブシステムが開示されている。ユーザは、各デバイスのアクセス頻度に応じて、デバイスを使い分けることができる。
【0003】
一方、ホスト計算機とディスク装置などの周辺装置との間のインタフェースとして、ファイバチャネル技術が現れたことにより、複数のホスト計算機、複数の記憶装置を1つのファイバチャネルケーブルで接続して計算機システムを構成することも行われるようになってきた。このような計算機システムでは、それぞれのホスト計算機は、ファイバチャネル上の任意の記憶装置に直接アクセスできる。このため、従来ように、各ホスト計算機がそれぞれに記憶装置を持つ場合に比べ、ホスト計算機間でのデータの共有やネットワーク負荷の低減が期待できる。
【0004】
【発明が解決しようとする課題】
上述した従来技術によれば、各ホスト計算機がアクセスできるデバイスの数や種類を飛躍的に増加させることができる。しかし、ホスト計算機がアクセスできるデバイスの数や種類が増加するに伴い、各ホスト計算機でのデバイスの管理が難しくなってくる。1つのホスト計算機から多くのデバイスにアクセスできる利点の一方で、ユーザにとっては、ある業務でどのデバイスを使用すれば良いか選択するといったことが困難となる。特に、ファイバチャネルで接続された計算機システムの場合、あるホスト計算機からそのホスト計算機が本来使用していないデバイスにまでアクセスできることとなる。このため、他のホスト計算機が使用しているデバイスに不正アクセスを起こし、データを破壊してしまうといったことが生じ得る。
【0005】
特開平10―333839号公報には、このような問題を解決するため、ファイバチャネルで接続された記憶装置が、特定のホスト計算機からのアクセスだけを許可する方法が開示されている。しかし、記憶装置、デバイスが複数になった場合や、異なる種類のデバイスが混在する場合には、処理が複雑であることには変わりはなく、各ホスト計算機で、それぞれデバイスの種類などを常に意識する必要がある。
【0006】
本発明の目的は、各ホスト計算機が用途に合ったデバイスを必要な時に必要な分だけ利用できるように、デバイスの設定、デバイスの各ホスト計算機への割り当てを容易に行えるようにすることにある。
【0007】
【課題を解決するための手段】
本発明における計算機システムは、その好ましい一つの態様において、複数の計算機と、これら複数の計算機に接続する記憶装置サブシステムとを有する。記憶装置サブシステムは、複数の記憶デバイスと複数のインタフェースとを有し、各計算機に接続される。複数の計算機の1つは、記憶装置サブシステム内の記憶デバイスと、各計算機と記憶装置サブシステムの接続関係の情報を保持する管理手段を有する。各計算機は、新たにデバイスが必要なとき、管理手段にその容量や種類を通知する。管理手段は、その通知を受けて、要求に合った記憶デバイスを選択する。そして選択したデバイスが計算機からアクセスできるように、記憶装置サブシステムに対し所定の情報を設定するように指示する。管理手段は、また、デバイス割り当ての要求の有った計算機に所定の情報を返却し、要求の有った計算機では、その情報に基づき計算機の設定を変更し、当該計算機で割り当てられたデバイスが使用できるようにする。
【0008】
本発明の他の態様において、複数の計算機と複数の記憶装置サブシステムがネットワークを介して接続される。任意の計算機上には、各記憶装置サブシステムが有する記憶デバイスと、各計算機と記憶装置サブシステムの接続関係の情報を保持する管理手段が設けられる。各記憶装置サブシステムは、管理手段から指定された計算機に対してアクセスを許可するための制御手段を有する。各計算機は、新たな記憶デバイスを必要とするとき、管理手段にその容量や種類を通知する。管理手段は、通知に応じて要求に合ったデバイスを選択し、選択したデバイスが新たな記憶デバイスを必要とする計算機からアクセスできるように、記憶装置サブシステムに対し当該計算機からのアクセスを許可するよう指示する。管理手段は、また、デバイス割り当てを要求した計算機に所定の情報を返却する。デバイス割り当てを要求した計算機では、管理手段から返却された情報に基づき、計算機の設定を変更し、その計算機から割り当てられたデバイスが使用できるようにする。
【0009】
【発明の実施の形態】
図1は、本発明が適用された計算機システムの一実施形態における構成例を示す簡略なブロック図である。
【0010】
計算機システムは、複数のホスト計算機、ホスト計算機1a、ホスト計算機1b、…ホスト計算機1n(総称してホスト1と呼ぶ)、ホスト1に接続される記憶装置サブシステム2、管理用ホスト計算機3、ネットワーク4、及び遠隔地に配置される記憶装置である副記憶装置5を有して構成される。
【0011】
ホスト計算機1a、1b、…は、CPU、メモリなどを有する計算機であり、メモリに格納されたオペレーティングシステム、アプリケーションプログラムをCPUが読み出して実行することで、所定の機能を達成する。
【0012】
記憶装置サブシステム2は、複数のディスクユニット21、ディスクコントローラ22、ホスト計算機1と接続する複数のポート23、副記憶装置5と接続するためのインタフェース24、ネットワーク4と接続するネットワークインタフェース25を有している。本実施形態における記憶装置サブシステム2は、複数のディスクユニット21をまとめて1または複数の論理デバイスとしてホスト計算機1に見せかける。もちろん、個々のディスクユニット21を1つの論理デバイスとしてホスト計算機1に見せるようにしても良い。
【0013】
ポート23としては、たとえば、接続されるホスト計算機1が、いわゆるオープンシステムの計算機であればSCSI(Small Computer System Interface)などのインタフェースが用いられる。一方、ホスト計算機1が、いわゆるメインフレームであれば、ESCON(Enterprise System CONnection)などのチャネルインタフェースが用いられる。それぞれのポート23は、同一のインタフェースであっても異なるものが混在していてもかまわない。本実施形態では、全てのポート23にインタフェースとして、SCSIを用いるものとして説明する。
【0014】
ディスクコントローラ22は、プロセッサ221、キャッシュメモリ222、制御メモリ223を有している。プロセッサ221は、ホスト計算機1からのアクセスやディスクユニット21の制御を行う。プロセッサ221は、特に、記憶装置サブシステム2がホスト計算機1に対してディスクユニット21単体ではなく、ディスクアレイの様に複数のディスクユニットをまとめて1または複数の論理デバイスに見せかけている場合には、その処理や管理などを行う。ディスクコントローラ22は、ネットワークインタフェース25を介して管理用ホスト計算機3との通信を行う。
【0015】
キャッシュメモリ222は、ホスト計算機1からのアクセス処理速度を高めるため、頻繁に読み出されるデータを格納したり、あるいはホスト計算機1からのライトデータを一時的に格納したりする。キャッシュメモリ222の一部を、1または複数の論理的なディスクに見せかけ、磁気ディスクユニットへのアクセスが不要なデバイスとして利用することもできる。
【0016】
制御メモリ223は、プロセッサ221が実行するプログラムを格納し、また、ディスクユニット21や、複数のディスクユニット21を組み合わせて構成される論理デバイスの管理を行うための情報を格納するために使用される。
【0017】
各ホスト計算機1a、1b…には、ボリュームマネージャ11と呼ばれるソフトウェア(プログラム)が配置される。ボリュームマネージャ11は、管理用ホスト計算機3に配置される管理マネージャ31と通信しあって動作する。各ホスト計算機1は、インタフェース(I/F)12を持っており、インタフェース12により記憶装置サブシステム2のポート23と接続される。
【0018】
次に、記憶装置サブシステム2内の論理デバイスの管理形態について説明する。
【0019】
前述の通り、記憶装置サブシステム2は、複数のディスクユニット21を1または複数の論理デバイスとして、あるいは、個々のディスクユニット21を1つの論理デバイスとしてホスト計算機1に見せかける。記憶装置サブシステム2は、また、キャッシュメモリ222の一部の領域を1または複数の論理デバイスとしてホスト計算機1に見せる。記憶装置サブシステム2内のディスクユニット21の数と論理デバイスの数に相関関係はない。
【0020】
図2は、記憶装置サブシステム2が論理デバイスを管理するために使用する情報を保持する論理デバイス管理テーブルの一例を示すテーブル構成図である。
【0021】
論理デバイス管理テーブルは、論理デバイス番号61に対し、サイズ62、構成63、状態64、パス65、ターゲットID66,LUN67の項目の組を保持する。サイズ62には、論理デバイス番号61により特定される論理デバイスの容量を表す情報が設定される。
【0022】
構成63には、当該論理デバイスの構成を示す情報、たとえばディスクユニット21によりRAID(Redundant Arrays of Inexpensive Disks)が構成され、それが論理デバイスに割り当てられている場合、RAID1、RAID5など、RAIDの種別を示す情報が設定される。また、当該論理デバイスとして、キャッシュメモリ222の一部の領域が割り当てられていれば「キャッシュ」、単体のディスクユニットが割り当てられている場合には「単体ディスクユニット」を示す情報が構成63に設定される。
【0023】
状態64には、当該論理デバイスの状態を示す情報が設定される。状態としては、「オンライン」、「オフライン」、「未実装」、「障害オフライン」が存在する。「オンライン」は、当該論理デバイスが正常に稼動し、ホスト計算機1からのアクセスが可能な状態であることを示す。「オフライン」は、当該論理デバイスは定義され、正常に稼動しているが、ホスト計算機1からのアクセスはできない状態にあることを示す。この状態は、以前ホスト計算機1で使用されていたが、ホスト計算機1でそのデバイスが不要となって使われなくなった場合に相当する。「未実装」は、当該論理デバイスが定義されておらずホストからのアクセスはできない状態にあることを示す。また「障害オフライン」は、当該論理デバイスに障害が発生してホストからのアクセスができないことを示す。
【0024】
パス65には、当該論理デバイスが複数のポート23のどのポートに接続されているかを表す情報が設定される。各ポート23には、記憶装置サブシステム2内で一意な番号が割り振られており、「パス」欄には論理デバイスが接続されているポート23の番号が記録される。ターゲットID66とLUN67は、論理デバイスを識別するための識別子である。ここでは、これらの識別子として、SCSI上でホスト計算機1からデバイスをアクセスする場合に用いられるSCSI−ID、LUNが用いられる。
【0025】
1つの論理デバイスを複数のポートに接続し、複数のホスト計算機1から同一の論理デバイスをアクセス可能とすることができる。この場合、論理デバイス管理テーブルには、当該論理デバイスに関する複数のエントリが作成される。例えば、図2に示す論理デバイス管理テーブルでは、論理デバイス番号2番のデバイスはポート番号0、及び1の2つのポート23に接続されている。このため、論理デバイス番号2番の項目が2つ存在している。1つの論理デバイスがこのように複数のポート23からアクセス可能とされる場合、それぞれのパス65に対応するターゲットID、LUNは同一である必要はなく、図2に示されるように異なっていても良い。
【0026】
論理デバイス管理テーブルに保持された情報は、ネットワークインタフェース24を通じて、適当なタイミングで、あるいは記憶装置サブシステム2に障害が発生して構成が変化した、などの際に管理用ホスト計算機3に送られる。このため、管理用ホスト計算機3も、図2に示すテーブルと同様の論理デバイス管理テーブルを保持する。
【0027】
図3は、管理用ホスト計算機3の管理マネージャ31により保持されるホスト管理テーブルの一例を示すテーブル構成図である。
【0028】
ホスト管理テーブルは、管理用ホスト計算機3が各ホスト計算機1に対するデバイスの割り当てを管理するために、ホスト名71、ポート番号72、インタフェース番号73、論理デバイス番号74の組で構成される管理情報を保持する。
【0029】
ポート番号72と論理デバイス番号74は、記憶装置サブシステム2の内部で定義される番号で、記憶装置サブシステム2の各ポート23及び論理デバイスを識別するための情報である。ポート番号72と論理デバイス番号74には、ホスト名71に設定された識別子で識別されるホスト計算機1が接続されるポートのポート番号と、そのホスト計算機に割り当てられている論理デバイスのデバイス番号が設定される。
【0030】
インタフェース番号73は、各ホスト計算機1のインタフェース12を管理するために付けられた番号である。インタフェース番号73は、特に、1つのホスト計算機1が複数のインタフェース12を持つ場合に必要となる。ポート番号72とインタフェース番号73の組は、ホスト計算機1と論理デバイスの接続関係を示すために重要な要素である。例えば、図1に示すホスト計算機1bは、2つのインタフェース12を備え、各インタフェース12は、それぞれ異なるポート23に接続されている。このような場合、一方のインタフェース、あるいは、一方のインタフェースと記憶装置サブシステム2を接続するラインの障害などにより使えなくなっても、他方のインタフェースから論理デバイスへの接続がなされていれば処理を続行でき、信頼性を高めることができる。
【0031】
管理用ホスト計算機3は、ホスト管理テーブルと、記憶装置サブシステム2から送られる論理デバイス管理テーブルを参照して、各ホスト計算機1に論理デバイスを割り当てる。以下、デバイスの割り当ての処理について説明する。
【0032】
図4は、各ホスト計算機1のボリュームマネージャ11により実施される処理の流れを示すフローチャートである。この処理は、ホスト計算機1を使用するユーザ、またはホスト計算機1で稼動するアプリケーションプログラムなどが新規にデバイスを必要とするときに実施される。
【0033】
ステップ1001で、ボリュームマネージャ11は、ユーザ、またはアプリケーションプログラムから必要とされるデバイスの数とデバイスの種類の情報を得る。ユーザ、またはアプリケーションプログラムは、デバイスに関する情報として、その容量、性能条件、信頼性レベルなどの情報を指定する。デバイスの容量とは、先に説明したデバイスのサイズのことである。性能条件としては、例えば、低速ディスクドライブ、高速ディスクドライブ、キャッシュ常駐ディスクドライブといった、デバイスのアクセス速度などの性能に関する情報が指定される。信頼性レベルとしては、例えば、RAID0、RAID1、RAID5、二重パス、リモートミラーなど、デバイスの信頼性に関する情報が指定される。二重パスでは、ホスト計算機1が複数のインタフェースを持つ場合に、それら複数のインタフェースを利用して同一デバイスにアクセスできるよう複数のパスが設けられる。二重パスでは、あるパスが利用できなくなった時でも、他のパスを使ってそのデバイスにアクセスすることが可能となる。リモートミラーは、副記憶装置5に記憶装置サブシステム2内のデバイスのコピーを持たせるものであり、地震、火災などの要因で記憶装置サブシステム2そのものが稼動できなくなった場合にも、副記憶装置5にデータが保持されているため、信頼性を高めることができる。
【0034】
次に、ステップ1002でボリュームマネージャ11は、当該ホスト計算機1のインタフェース12上で使用されていないターゲットID、LUNの組を検索する。
【0035】
ステップ1003でボリュームマネージャ11は、ステップ1001において指定された容量、性能条件、信頼性レベル、及びステップ1002で検索された未使用のターゲットID、LUNの組を管理用ホスト計算機3の管理マネージャ31に送信し、新たなデバイスの割付を要求する。管理マネージャ31は、受け取った情報に基づいて割り当てるべきデバイスを検索し、そのデバイスのアクセスに使用するホストインタフェース番号、ターゲットID、及びLUNを指定する情報を返却する。ここで行われる管理マネージャ31の処理については後述する。
【0036】
ステップ1004でボリュームマネージャ11は、管理マネージャ13からの情報を受け取る。ステップ1005では、管理マネージャ13から受け取った情報をもとに、新しいデバイスを使用できるようにホスト計算機1の設定変更が行われる。
【0037】
いわゆるオープン系のオペレーティングシステムの場合、ホスト計算機1が各デバイスにアクセスするために、デバイスファイルがデバイス毎に用意され、デバイスファイルに対してアクセスが実施される。通常、デバイスファイルは、ホスト計算機1のデバイスコンフィギュレーション処理を行った際に用意され、デバイスコンフィギュレーション処理時に存在しないデバイスについては、デバイスファイルが作成されていない。このため、ステップ1004では、新しく割り当てられたデバイスに関するデバイスファイルが作成される。具体的には、例えば、サンマイクロシステムズ社のSolarisオペレーティングシステムでは、“drvconfig”コマンド、あるいは“drives”コマンドにより、新規デバイスの認識、デバイスファイルの作成が行われ、ホスト計算機1から新たに割り当てられたデバイスに対してアクセスできるようになる。
【0038】
最後にステップ1006でボリュームマネージャ11は、割り当てられたデバイスファイル名、ターゲットID、LUNの情報をユーザまたはアプリケーションプログラムに通知して処理を終了する。
【0039】
図5は、新しいデバイスの割り当て時に管理用ホスト計算機3の管理マネージャ31による処理の流れを示すフローチャートである。
【0040】
管理マネージャ31は、ステップ1101でホスト計算機1から送られてきたデバイスサイズ、性能条件、信頼度レベルなどの情報を受け取ると、保持している論理デバイス管理テーブル、及びホスト管理テーブルに設定されている情報を参照し、要求に応じたデバイスが存在するか検索する。ここで検索対象となるデバイスは、論理デバイス管理テーブルの状態64に「オフライン」が設定されているものである(ステップ1102)。管理マネージャ31は、検索の結果、要求に合った「オフライン」状態のデバイスが見つかったかどうか判別する(ステップ1103)。
【0041】
要求に合った「オフライン」状態のデバイスが見つかった場合、管理マネージャ31は、ホスト計算機1から受け取ったターゲットID、LUNの情報と、論理デバイス管理テーブル及びホスト管理テーブルに設定されている情報に基づいて、当該デバイスをホスト計算機1に接続するために使用するポート番号、ターゲットID、LUNを決定する(ステップ1104)。
【0042】
次に、管理マネージャ31は、ステップ1103で見つけた論理デバイス番号のデバイスを、ステップ1104で決定したポート番号、ターゲットID、LUNでアクセスできるように設定してオンライン状態にするよう記憶装置サブシステム2に指示する。記憶装置サブシステム2は、管理マネージャ31からの指示に従って設定を行い、その結果を管理マネージャ31に返却する(ステップ1105)。
【0043】
管理マネージャ31は、記憶装置サブシステム2から結果を受け取ると(ステップ1106)、要求のあったホスト計算機1のボリュームマネージャ11に対して、インタフェース番号、ターゲットID、LUNを返却する(ステップ1107)。
【0044】
一方、ステップ1103で「オフライン」状態のデバイスで要求に合ったものが存在しなかった場合、管理マネージャ31は、論理デバイス管理テーブルの状態64が「未実装」の論理デバイス番号が存在するか検索する(ステップ1108)。「未実装」の論理デバイス番号が存在する場合、管理マネージャ31は、記憶装置サブシステム2に対して、ホスト計算機1から要求のあったデバイスサイズ、性能条件、信頼度レベルなどの情報を伝えてデバイスの構築を要求する。記憶装置サブシステム2は、管理マネージャ31から要求に合わせて当該デバイス番号のデバイスを構築し、管理マネージャ31にその結果を返却する(ステップ1109)。管理マネージャ31は、その結果を受け取ると、上述したステップ1104以降の処理を実施する(ステップ1110)。
【0045】
図6は、ホスト計算機1で不必要になったデバイスの返却処理においてボリュームマネージャ11が実施する処理の流れを示すフローチャートである。
【0046】
デバイスの返却処理において、ボリュームマネージャ11は、まず、ユーザ、あるいは上位アプリケーションプログラムから不必要になったデバイスの情報、例えば、デバイスファイル名を受け取る(ステップ1201)。ボリュームマネージャ11は、受け取った情報をもとに、返却処理の対象となるデバイスに関連するインタフェース番号、ターゲットID、LUNを取得する(ステップ1202)。
【0047】
次に、ボリュームマネージャ11は、ホスト計算機1でそのデバイスを使わないようにするため、必要に応じてホスト計算機1の設定変更を行う。ここでは、具体的には、デバイスファイルの削除などの処理が行われる(ステップ1203)。続いて、ボリュームマネージャ11は、ステップ1202で取得したインタフェース番号、ターゲットID、LUNを管理マネージャ31に通知し、処理を終了する(ステップ1204)。
【0048】
図7は、ホスト計算機1で不必要になったデバイスの返却処理において管理マネージャ31が実施する処理の流れを示すフローチャートである。
【0049】
管理マネージャ31は、ホスト計算機1からインタフェース番号、ターゲットID、LUNを受け取る(ステップ1301)。管理マネージャ31は、受け取ったインタフェース番号、ターゲットID、LUNに基づいて、記憶装置サブシステム2に対し、返却の対象とされているデバイスをオフラインにするよう指示する。この指示に応じて、記憶装置サブシステム2は、指定されたデバイスをオフラインとし、その結果を反映した論理デバイス管理テーブルを管理マネージャ31に返却する(ステップ1302)。記憶装置サブシステム2から、論理デバイス管理テーブルを受け取ると、それを保持して処理を完了する(ステップ1303)。
【0050】
上述した第1の実施形態では、管理用ホスト計算機を設け、そこに管理マネージャを配置しているが、管理マネージャの機能は必ずしも管理用ホスト計算機に存在する必要はない。例えば、ホスト計算機1a、1b、…のいずれかに存在するように構成することも可能である。また、管理マネージャの機能を記憶装置サブシステムに設けることもできる。この場合、各ホスト計算機1a、1b、…は、インタフェースを介して直接記憶装置サブシステムとの間で、要求の送出、情報受け取りを行えばよい。
【0051】
図8は、本発明の第2の実施形態における計算機システムの構成を示す簡略なブロック図である。
【0052】
本実施形態における計算機システムは、複数のホスト計算機1(ホスト計算機1a、ホスト計算機1b、…、ホスト計算機1n)と、複数の記憶装置サブシステム2a、2b、…、2m、管理用ホスト計算機3、ネットワーク4、及びファイバチャネルスイッチ6を有して構成される。
【0053】
ホスト計算機1は、第1の実施形態と同じく、ボリュームマネージャ11を有する。ボリュームマネージャ11は、管理用ホスト計算機3におかれた管理マネージャ31と通信しあって動作する。さらに、ホスト計算機1は、インタフェース(I/F)12を有し、インタフェース12によりファイバチャネルスイッチ8と接続される。
【0054】
記憶装置サブシステム2a、2b、…、2mは、それぞれ、第1の実施形態における記憶装置サブシステム2と同様に、ディスクユニット21、ディスクコントローラ22、ポート23、ネットワークと接続するネットワークインタフェース(ネットワークI/F)25を含んで構成される。第1の実施形態と同じくディスクユニット21、ポート23は複数あってもよいが、ここでは説明を簡単にするためディスクユニット、及びポートは、それぞれ1つであるものとして説明する。
【0055】
ファイバチャネルスイッチ8は、複数のポート81を有する。各ポート81には、ホスト計算機1a、1b、…のインタフェース12、及び、記憶装置サブシステム2a、2b、…のポート23のいずれかが接続される。ファイバチャネルスイッチ8は、ネットワークインタフェース82を有しており、ネットワーク4にも接続されている。ファイバチャネルスイッチ8は、ホスト計算機1a、1b、…が、記憶装置サブシステム2a、2b、…を自由にアクセスできるようにするために使用される。この構成では、基本的にすべてのホスト計算機1が、すべての記憶装置サブシステム2にアクセスすることが可能である。
管理用ホスト計算機3は、第1の実施形態と同じく、管理マネージャ31を有する。管理マネージャ31は、各ホスト計算機1a、1b、…のボリュームマネージャ11と通信しあって動作する。
【0056】
図9は、管理用ホスト計算機3が保持する論理デバイス管理テーブルの一例を示すテーブル構成図である。本実施形態における論理デバイス管理テーブルは、第1の実施形態において記憶装置サブシステム2が保持する論理デバイス管理テーブルと同様の情報を管理するために用いられる。以下、主に第1の実施形態における論理デバイス管理テーブルとの相違点について説明する。
【0057】
本実施形態において、管理用ホスト計算機3は、全ての記憶装置サブシステム2が有する全てのデバイスに一意な番号をつけて管理する。この管理の目的のため、論理デバイス管理テーブルには、デバイス毎にそのサイズ103、構成104、状態105、LUN106、WWN(World Wide Name)102、及び接続ホスト名107を情報として持つ。
【0058】
サイズ103、構成104、状態105、LUN106については、第1の実施形態における論理デバイス管理テーブルが保持する情報と同じものである。WWN102は、記憶装置サブシステム2のポート23に設定されている情報で、各ポートを識別するために個々のファイバチャネルインタフェースに固有に割り付けられている情報である。WWN107は、N_PORT_NAMEとも呼ばれる。接続ホスト名107は、当該デバイスに接続が許可されているホスト計算機を識別するためのホスト名である。
【0059】
基本的に、ファイバチャネルスイッチ8に接続された複数のホスト計算機1が任意の記憶装置サブシステム2に自由にアクセスできると、システムの安全上問題となることがある。このようなシステムの安全性に関する問題を解決するために、例えば、特開平10―333839号公報には、ファイバチャネルで接続された記憶装置に対し、特定のホスト計算機からのアクセスだけを許可することを可能とする技術が開示されている。本実施形態でも、システムの安全性を維持するために、記憶装置サブシステム2は、特開平10―333839号公報に開示されているような安全性を維持するための手段を持っているものとする。ただし、これについては、本発明の本質とは直接関係するところではなく、ここでは詳しい説明を省略する。
【0060】
本実施形態において、WWN107は、各ホスト計算機1のインタフェース12にも与えられている。管理用ホスト計算機3は、図10に示すテーブルにより、ホスト名108とWWN109の組を管理している。
【0061】
以下、ボリュームマネージャ11、管理マネージャ31の動作について説明する。
【0062】
本実施形態において、ホスト計算機に新しいデバイスを割り当てる際にボリュームマネージャ11によって実施される処理は、基本的には、図4に示した第1の実施形態における処理と同様に実施される。すなわち、ボリュームマネージャ11は、ユーザまたはアプリケーションプログラムから必要とするデバイスの数や種類の情報を受けると、それをもとに管理マネージャ31に新たなデバイスの割付を要求する。管理マネージャ31において新たなデバイスの割り当てが終わると、ボリュームマネージャ11は、デバイスの設定変更を行い、新しいデバイスをホスト計算機1から利用できるようにする。
【0063】
図11に、本実施形態において、新しいデバイスの割り当て時に管理マネージャ31により実施される処理のフローチャートを示す。
【0064】
管理マネージャ31により行われる処理も、同様に、図5に示した第1の実施形態における管理マネージャの処理とほぼ同様に行われる。なお、図11において、図5に示したものと同様の処理が行われる部分については、図5と同一の参照番号を用いている。以下では、主に、図5と異なる処理が行われる部分について説明し、図5と同一の処理が行われる部分については説明を省略する。
【0065】
本実施形態において、記憶装置サブシステム2は、デバイスに対して、割り当てられていないホスト計算機から不用意にアクセスされることのないよう、初期状態では全てのホスト計算機1からのアクセスを禁止している。このため、管理マネージャ31は、ステップ1105で記憶装置サブシステム2にデバイスをオンラインにするよう指示する際、併せて記憶装置サブシステム2に当該ホスト計算機1から新たに割り当てるデバイスへのアクセスを許可するように指示する。この指示において、管理マネージャ31は、記憶装置サブシステム2に対して、デバイスへのアクセスを許可すべきホスト計算機1のWWNを通知する。記憶装置サブシステム2は、ホスト計算機1によるデバイスのアクセス時に、管理マネージャ31から受け取ったWWNに基づいて、そのアクセスの可否を判断する(ステップ2105)。
【0066】
ステップ2105の処理に続いて、管理マネージャ31は、ファイバチャネルスイッチ8の設定変更を行う。例えば、図12に示すように、ホスト計算機A、Bは、ディスクユニット(デバイス)a、bにアクセスするが、ホスト計算機Cは、ディスクユニット(デバイス)cのみにアクセスする場合を考える。この場合、管理マネージャ31は、ホスト計算機Cに接続するポートcからは、ディスクユニットa、bに接続するポート(ポートd、ポートe)にはアクセスできないような経路設定をファイバチャネルスイッチ8に対して行う。これにより、あたかも2つのスイッチが存在するようにできる。このような経路設定を行うことをゾーニングと呼ぶ。ゾーニングを行うことによって、あるデバイスが本来アクセスが許されていないホスト計算機からアクセスされることを防ぐことができる。また、データの流れが分離されるため、性能を向上させることもできる(ステップ2106)。
【0067】
以上の処理の後、管理マネージャ31は、ステップ1106、1107の処理を実施する。
【0068】
図13は、本発明が適用された計算機システムの第3の実施形態における構成例を示す簡略なブロック図である。
【0069】
本実施形態の計算機システムは、複数のホスト計算機1a′、ホスト計算機1b′、…ホスト計算機1n′(総称してホスト1′と呼ぶ)がネットワークインタフェース(I/F)12′、ネットワーク4を介して、ファイルサーバ9に接続されている。ファイルサーバ9は、インタフェース(I/F)92を介して記憶装置サブシステム2に接続される。記憶装置サブシステム2、及び遠隔地に配置される記憶装置である副記憶装置5は第1の実施形態と同様のものである。
【0070】
ファイルサーバ9は各ホスト計算機1′と接続するネットワークインタフェース91、記憶装置サブシステム2と接続する複数のインタフェース32、管理マネージャ93、及びサーバプログラム94を備える。
【0071】
管理マネージャ93は、第1の実施形態におけるの管理マネージャ31と同じく、要求に応じたデバイスの割り当てなどを実施する。サーバプログラム94は、NFS(Network File System)などの、ネットワーク経由でのファイルアクセスを提供するファイルサーバプログラムである。サーバプログラム94は、ファイルサーバ9が記憶装置サブシステム2に作ったファイルシステムをホスト計算機1′からアクセスするための手段を提供する。
【0072】
記憶装置サブシステム2とファイルサーバ9は、各ホスト計算機1′からそれらがひとつの記憶装置として見える、いわゆるNAS(Network Attached Storage)になっている構成もありうる。
【0073】
ホスト計算機1′のクライアントプログラム11′は、ファイルサーバ9上のサーバプログラム94と通信しあって、ホスト1′上で動作するアプリケーションプログラムから、ファイルサーバ9が記憶装置サブシステム2に作ったファイルシステムを使用できるようにするプログラムである。クライアントプログラム11′は、システムの構成によっては、ホスト1′上の図示しないオペレーティングシステムに組み込まれていてもよい。クライアントプログラム11′は、管理マネージャ93に対し、新たにファイルシステムを作るよう要求し、あるいは既存のファイルシステムのサイズの変更を要求する。
【0074】
ホスト計算機1の稼働中に、既存のファイルシステムのサイズの変更を可能とするため、本実施形態の記憶装置サブシステムは、ある論理デバイスに存在するデータをその論理デバイスが形成されている物理的なディスクユニットとは別の物理的なディスクユニットに移動する機能を備える。このような機能を実現する具体的な技術手段については、例えば、特開平9−274544号公報に開示された公知の技術を適用することができる。したがって、本明細書ではその詳細な説明は省略する。
【0075】
図14は、ホスト計算機1′のクライアントプログラム11′が新規にファイルシステムを構築する際に行われる処理の流れを示すフローチャートである。
【0076】
この処理は、ホスト計算機1′を使用するユーザ、またはホスト計算機1′で稼動するアプリケーションプログラムなどが新規にファイル領域を必要とするときに実施される。
【0077】
クライアントプログラム11′は、ユーザ、またはアプリケーションプログラムからの要求に応じて必要とするデバイスについての情報の指定を受け付ける。ここで取得する情報には、図4に示した第1の実施形態におけるステップ1001と同様に、必要とするデバイスの容量、性能条件、信頼性レベルなどの情報が含まれる(ステップ2001)。
【0078】
次に、クライアントプログラム11′は、ステップ2001で指定された容量、性能条件、信頼性レベルなどの情報を管理マネージャ93に送信し、新たなファイルシステムの領域を要求する。管理マネージャ93は、クライアントプログラム11′から受け取った情報に基づいて、割り当てることのできるデバイスの領域を検索して用意し、その結果をクライアントプログラム11′に返却する。このとき行われる管理マネージャ93の処理については後述する(ステップ2002)。
【0079】
クライアントプログラム11′は、新たな領域の要求に対する管理マネージャ93からの応答を受け取る。このときに受け取る応答には情報は、マウントポイント、例えば、NFSの場合にはファイルサーバのホスト名、あるいは、ホストIPアドレス、及びディレクトリ名などが含まれる(ステップ2003)。クライアントプログラム11′は、管理マネージャ93受け取った情報をもとに、ファイルシステムをマウントする(ステップ2004)。最後に、クライアントプログラム11′は、割り当てられたマウントポイントをユーザまたはアプリケーションプログラムに通知して処理を終了する(ステップ2005)。
【0080】
図15は、クライアントプログラム11′からの新たな領域の要求に応答して行われる管理マネージャ93による処理の流れを示すフローチャートである。
【0081】
この処理は、基本的に図5に示した第1の実施形態における管理マネージャ31の処理と同様に行われる。ただし、図5におけるステップ1107の処理が、ステップ2107、2111、2112の処理に変更される。
【0082】
図5のステップ1107では要求のあったホスト計算機に対してターゲットIDなどの情報が渡されるが、本実施形態では、これらの情報に対する加工が施される。このために、管理マネージャ93は、ターゲットIDなどデバイスについての情報をサーバプログラム94に渡し(ステップ2107)、サーバプログラム94からマウントポイントの情報を受け取る(ステップ2111)。そして、サーバプログラム94から受け取ったマウントポイントの情報を要求のあったクライアントプログラム11′に渡して処理を終了する(ステップ2112)。
【0083】
図16は、デバイスについての情報を管理マネージャから受け取ったサーバプログラムが実施する処理の流れを示すフローチャートである。
【0084】
管理マネージャ93からデバイスについての情報が渡されると(ステップ2201)、サーバプログラム94は、ファイルサーバ9のデバイスリコンフィグを実施する。この処理は、具体的には、図4に示した第1の実施形態におけるステップ1005の処理と同様の処理である(ステップ2202)。
【0085】
続いて、サーバプログラム94は、新たにできたデバイスにファイルシステムを作成し(ステップ2203)、管理マネージャ93にそのファイルシステムのマウントポイントを示す情報を返却する(ステップ2204)。
【0086】
以上の処理により、ホスト計算機1′から利用可能な新しいファイルシステムを追加することができる。
【0087】
図17は、既存のファイルシステムのサイズを変更する際に管理マネージャ93により実施される処理の流れを示すフローチャートである。図15に示した新たなファイルシステムの要求時の処理とは、以下の点において相違する。
【0088】
既存のファイルシステムのサイズを変更しようとするとき、ユーザ、あるいは、アプリケーションプログラムは、クライアントプログラム11′に対して、サイズを変更するファイルシステムのマウントポイント、拡張、あるいは、縮小しようとするサイズなどに関する情報を指定した要求を発行する。クライアントプログラム11′は、ユーザ、あるいは、アプリケーションプログラムから指定された情報を用いて管理マネージャ93にファイルシステムのサイズの変更を要求する。管理マネージャ93は、クライアントプログラム11′から送られてくる、処理の対象とするファイルシステムのマウントポイント、拡張したいサイズ等の情報を受け取る(ステップ2301)。
【0089】
管理マネージャ93は、クライアントプログラム11′から受け取ったマウントポイントに基づいて処理の対象となっているファイルシステムを格納している論理デバイスのターゲットID、LUNなどの情報を得て、論理デバイスを判別する。そして、管理マネージャ93は、この論理デバイスの種類、すなわち、信頼性、性能等の情報を得る(ステップ2302)。続いて、管理マネージャ93は、ステップ2301、2302で得た情報に基づき、新たなファイルシステムを追加するときと同様にして、変更後のファイルシステムのサイズの空き領域を持ち、元の論理デバイスと同じ種類の論理デバイスを確保する(ステップ1102〜1110)。
【0090】
この後、管理マネージャ93は、ステップ2304において、記憶装置サブシステム2に対し、これまでファイルシステムが記録されていた論理デバイスから新たに確保した論理デバイスにデータの移動を指示する。データの移動はファイルサーバプログラム94から透過的に行われる。ホスト計算機1′はファイルサーバプログラム94を介して記憶装置サブシステム2にアクセスするため、この処理は、ホスト計算機1′からも透過的な処理となる。したがって、データの移動中、ホスト計算機1′は処理を停止する必要はない。
【0091】
データの移動が終わると、管理マネージャ93は、サーバプログラム94にファイルシステムの拡張を指示する。実際のデバイス容量が増加してもファイルシステムを構築しなおさなければ、ファイルシステムとしては拡張された容量のすべてを使うことはできない。サーバプログラム94に対してファイルシステムの拡張を指示した後、管理マネージャ93は、処理の完了をクライアントプログラム11′に通知して処理を終了する(ステップ2305)。
【0092】
以上の処理により、既存のファイルシステムのサイズの変更を、ホスト計算機1′を稼働させたまま行うことが可能となる。なお、既存のファイルシステムのサイズを変更する場合、クライアントプログラム11′は、管理マネージャからの通知を受けた後、そのまま拡張されたファイルシステムを使用することができる。したがって、この場合には、図14におけるステップ2004、及びステップ2005の処理は実施する必要がない。
【0093】
図18は、本発明が適用された計算機システムの第4の実施形態における構成例を示す簡略なブロック図である。
【0094】
本実施形態における計算機システムは、複数のホスト計算機1″(ホスト計算機1a″、1b″、・・・、1n″)、管理用ホスト計算機3、記憶装置サブシステム2′、副記憶装置5を有している。各ホスト計算機1″と記憶装置サブシステム2′は、ファイバチャネルスイッチ8を介して接続される。また、ホスト計算機1″、記憶装置サブシステム2′、ファイバチャネルスイッチ8は、ネットワーク4を介して相互に接続されている。
【0095】
ファイバチャネルスイッチ8は、複数のポート81を備えており、これらのポート間の接続を切り替え、ポート81に接続された機器間でのデータ転送を実現する。ファイバチャネルスイッチ8は、また、ネットワーク4を介して通信を行うためのネットワークインタフェース82を備える。ホスト計算機1″は、それぞれ、ボリュームマネージャ11″、1または複数のインタフェース12を備えている。ホスト計算機1″のインタフェース12は、ファイバチャネル8が有する複数のポート81のいずれかと接続される。
【0096】
記憶装置サブシステム2′は、複数のクラスタ26とクラスタ26を相互に接続するコントローラ間接続機構27を有する。各クラスタ26は、チャネルプロセッサ23′、ドライブプロセッサ22′、複数のディスクユニット21を備える。同じクラスタ内のチャネルプロセッサ23′とドライブプロセッサ22′とは、コントローラ間接続機構27よりも高速なバス28で結合されている。各チャネルプロセッサ23′は、1、または複数のポート231を備えており、副記憶装置5、あるいは、ファイバチャネル8を介してホスト計算機1″と接続される。ドライブプロセッサ22′には複数のディスクユニット21が接続されている。本実施形態では、これら複数のディスクユニット21を組み合わせて1または複数の論理デバイスが構成され、あるいは、1つのディスクユニット21により1または複数の論理デバイスが構成される。なお、ある1つの論理デバイスを構成するにあたって複数のクラスタ26が備えるディスクユニット21を組み合わせることはできないものとする。
【0097】
チャネルプロセッサ23′は、各ホスト計算機1″に対し、1または複数の論理デバイスを見せ、各ホスト1″からのアクセスを受け付ける。原則として、チャネルプロセッサ23′は、そのチャネルプロセッサ23′が属するクラスタ26内のドライブプロセッサ22′に接続されたディスクユニット21により構成される論理デバイスを管理対象とする。これは同一クラスタ26内のチャネルプロセッサ23′とドライブプロセッサ22′の通信は、クラスタをまたがった通信よりも高速に行うことができることによる。ただし、障害などの要因により、あるクラスタ26のチャネルプロセッサ23′が動作しない場合には、他クラスタ26のチャネルプロセッサ23′がその処理を肩代わりする。チャネルプロセッサ23′はホスト計算機1″から指定された論理デバイスがどのドライブプロセッサ22′に接続されたディスクユニット21に構成されているか判別し、然るべきドライブプロセッサ22′に処理の要求を渡す。ドライブプロセッサ22′は、チャネルプロセッサ23′からの要求を解釈して、論理デバイスの置かれている各ディスクユニット21に対するディスクアクセス要求を生成して、該当するディスクユニット21にそのディスクアクセス要求を送る。
【0098】
ホスト計算機1″は、第1の実施形態におけるホスト計算機1とほぼ同様の構成を有するが、その上で動作するボリュームマネージャ11″の機能に若干の相違がある。ボリュームマネージャ11″は、第1の実施形態においてボリュームマネージャ11が行う論理デバイスの割り当て、返却の処理に加え、複数の論理デバイスをまとめて、別の論理デバイスとして上位のアプリケーションプログラムに見せる機能を持つ。以下、ボリュームマネージャ11″が作る論理デバイスを、記憶装置サブシステム2′が管理する論理デバイスと区別するためLVOLと表記する。ボリュームマネージャ11″は、複数の論理デバイスを見かけ上結合してより大きな1つのLVOLを形成し、あるいは、1つの論理デバイスを複数の領域に分割し、それらの領域をLVOLとしてホスト計算機1″上のアプリケーションプログラムに利用させることができる。また、すでに存在するLVOLに新たな論理デバイスを結合して、LVOLの容量を拡張することもできる。
【0099】
図19は、本実施形態においてボリュームを新規に割り当てる際にボリュームマネージャ11″により実施される処理の流れを示すフローチャートである。
【0100】
ここで説明する処理は、図4に示した第1の実施形態におけるデバイスの割り当て処理のステップ1002がステップ1002′に、ステップ1006がステップ1005′、ステップ1006′に置き換えたものである。このほかのステップでは、図4の対応するステップと同様の処理が行われる。以下、ステップ1002′、1005′、及び1006′で行われる処理について説明する。
【0101】
ステップ1002′では、未使用のWWN、LUNの組をボリュームマネージャ11″が管理しているLVOL管理テーブルより検索する。LVOL管理テーブルの一例を図20に示す。LVOL管理テーブルには、LVOL名151、デバイスファイル名152、サイズ153、そして各デバイスのWWN154、LUN155の組からなる情報が登録される。LVOL名151は、ボリュームマネージャ11″によりアプリケーションプログラムに提供されているLVOLを識別するために付与される識別子である。デバイスファイル名152は、LVOLを構成する論理デバイスの名称である。ボリュームマネージャ11″は、各LVOLに属する論理デバイスをデバイスファイル名に基づいて管理している。サイズ153は、そのLVOLを構成する各論理デバイスの容量を示す。1つのLVOLが複数の論理デバイスで構成されることもあるため、1つのLVOL名に複数のデバイスファイルが属することもある。
【0102】
ステップ1005′でボリュームマネージャ11″は、管理マネージャ31によって割り当てられた論理デバイスを用いて新たにLVOLを作成し、その内容をLVOL管理テーブルに登録する。ステップ1006′では、割り当ての済んだLVOL名がユーザに通知されて処理は終了する。
【0103】
図21は、ユーザ、あるいは、アプリケーションプログラムの要求に応じてLVOLの容量を拡張する際のボリュームマネージャの処理を示すフローチャートである。
【0104】
LVOLの容量を拡張する際には、新たに論理デバイスが用意され、その論理デバイスを拡張しようとするLVOLを構成している論理デバイスと組み合わされて新しいLVOLが構築される。このとき新たに用意される論理デバイスは、拡張しようとするLVOLを構築している論理デバイスと同じ種類の論理デバイスであることが普通である。本実施形態では、ボリュームマネージャ11″が拡張しようとするLVOLを構成している論理デバイスの種類を判別し、同じ種類の論理デバイスを確保する。
【0105】
本処理において、ボリュームマネージャ11″は、まず、ユーザあるいは、アプリケーションプログラムから拡張対象のLVOLのLVOL名と拡張すべき容量についての情報を受け取る(ステップ2501)。次に、ボリュームマネージャ11″は、拡張対象のLVOLを構成する論理デバイスの種類を管理マネージャ31に問い合わせる(ステップ2502)。ボリュームマネージャ11″は、未使用のWWN、LUNの組をLVOL管理テーブルより検索する(ステップ2503)。ボリュームマネージャ11″は、ステップ2502、2503で取得した論理デバイスの種類、及び未使用のWWNとLUNの組み合わせを含む情報を管理マネージャ31に送信する。(ステップ2504)。管理マネージャ31から新たに割り当てられた論理デバイスについての情報を受信すると(ステップ2505)、ボリュームマネージャ11″は、ホスト計算機1″のリコンフィグを実施し、新たに割り当てられた論理デバイスをホスト計算機1″から認識できるようにする(ステップ2506)。最後に、ボリュームマネージャ11″は、拡張対象のLVOLに新たに割り当てられた論理デバイスを追加してLVOLの容量を拡張し、処理を終了する(ステップ2507)。
【0106】
図19のステップ1003、及び図21のステップ2504でボリュームマネージャ11″から新しい論理ボリュームの割り当ての要求があると、管理マネージャ31は、いずれの場合もボリュームマネージャ11″から要求されたデバイスの種類、容量に見合ったデバイスを検索して割り当てる。この処理のために、管理マネージャ31は、図9に示すような論理デバイス管理テーブルの他、記憶装置サブシステム2′内のクラスタ26に関する情報が設定されたクラスタ情報テーブルを備える。
【0107】
図22は、クラスタ情報管理テーブルの一例を示すテーブル構成図である。
【0108】
クラスタ情報管理テーブルは、各クラスタ26に対応したエントリを有し、クラスタ26ごとにそのクラスタを識別するクラスタ番号161、クラスタが有するポートのポート番号162、及びポートに割り当てられているWWN163が設定されている。図に示すように、1つのクラスタ26に複数のポートが存在する場合、それぞれのポート番号とWWNがそのクラスタに対応したエントリに設定される。先に説明したように、あるドライブプロセッサ22′に接続されたディスクユニット21に論理デバイスを構築したときは、その論理デバイスに対しては同一のクラスタ内のポート231からアクセスできるようにすることが性能上の観点から望ましい。管理マネージャ31は、クラスタ情報テーブルに基づいてホスト計算機1″からのアクセスに用いられるポート231と、新しく割り当てる論理デバイスが構築されるディスクユニット21が接続するドライブプロセッサ22′が同じクラスタとなるようにデバイスの設定を行う。
【0109】
図23は、管理マネージャ31によるデバイスの割り当て処理の流れを示すフローチャートである。
【0110】
本実施形態におけるデバイスの割り当て処理は、図11に示した第2の実施形態における処理とほぼ同様に行われるが、記憶装置サブシステムの構成上の相違から一部の処理が第2の実施形態とは異なる。具体的には、ステップ1109において、管理マネージャ31から記憶装置サブシステム2′に対して新規にデバイスの構築が要求されると、記憶装置サブシステム2′は、要求に合わせてデバイスを構築する。記憶装置サブシステム2′において論理デバイスが構築されると、管理マネージャ31には、新しく構築された論理デバイスに関し、その論理デバイスがどのクラスタ26に構築されたかを示す情報を受け取る(ステップ2610)。
【0111】
管理マネージャ31は、記憶装置サブシステム2′から受け取った論理デバイスに関する情報と、クラスタ情報管理テーブルを参照して、どのポートから当該デバイスをアクセスできるようにするか決定する。管理マネージャ31は、さらに、未使用LUNの情報によって、新たに割り当てるデバイスのLUNを決定する(ステップ2604)。また、管理マネージャ31は、最後に、ボリュームマネージャ11″に対し、新しく割り当てる論理ボリュームのアクセスに必要なWWN、LUNなどの情報を送り、処理を終了する(ステップ2607)。
【0112】
ここで説明した以外の処理については、図11に示した第2の実施形態における管理マネージャの処理と同様であり、図では、図11と同一の参照番号を用い、詳細な説明は省略する。
【0113】
以上説明した実施の形態によれば、ホスト計算機が稼働中であっても、要求にあわせてデバイスの割り当てを行うことができる。さらにファイバチャネルスイッチで構成された、複数のデバイスが混在するような環境でも、要求に合ったデバイスを容易にホスト計算機に割り当てることが可能となる。
【0114】
なお、本発明は、上述した実施形態に限定されるものではなく、本発明の趣旨の範囲内において種々の態様をとり得るものであることは言うまでもない。
【0115】
【発明の効果】
本発明によれば、ホスト計算機に対する記憶デバイスの割り当てを必要に応じて動的に行うことができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態における計算機システムの構成例を示すブロック図である。
【図2】記憶装置サブシステムにより保持される論理デバイス管理テーブルの一例を示すテーブル構成図である。
【図3】管理マネージャにより保持されるホスト管理テーブルの一例を示すテーブル構成図である。
【図4】ホスト計算機のボリュームマネージャにより実施され処理の流れを示すフローチャートである。
【図5】管理マネージャにより実施される処理の流れを示すフローチャートである。
【図6】デバイスの返却処理におけるボリュームマネージャによる処理の流れを示すフローチャートである。
【図7】デバイスの返却処理における管理マネージャによる処理の流れを示すフローチャートである。
【図8】本発明の第2の実施形態における計算機システムの構成例を示すブロック図である。
【図9】管理マネージャにより保持される論理デバイス管理テーブルの一例を示すテーブル構成図である。
【図10】管理マネージャにより保持されるホスト計算機とWWNの対応関係を管理するためのテーブルの一例を示すテーブル構成図である。
【図11】管理マネージャによる処理の流れを示すフローチャートである。
【図12】ファイバチャネルスイッチのゾーニングの機能を示す説明図である。
【図13】本発明の第3の実施形態における計算機システムの構成例を示すブロック図である。
【図14】クライアントプログラムによる処理の流れを示すフローチャートである。
【図15】ファイルサーバの管理マネージャによる処理の流れを示すフローチャートである。
【図16】ファイルサーバのサーバプログラムによる処理の流れを示すフローチャートである。
【図17】ファイルシステムを拡張する際に管理マネージャにより実施される処理の流れを示すフローチャートである。
【図18】本発明の第4の実施形態における計算機システムの構成例を示すブロック図である。
【図19】ボリュームマネージャによる処理の流れを示すフローチャートである。
【図20】LVOL管理テーブルの一例を示すテーブル構成図である。
【図21】LVOLを拡張するときにボリュームマネージャにより実施される処理の流れを示すフローチャートである。
【図22】クラスタ情報テーブルの一例を示すテーブル構成図である。
【図23】LVOLを拡張するときに管理マネージャにより実施される処理の流れを示すフローチャートである。
【符号の簡単な説明】
1…ホスト計算機、
2…記憶装置サブシステム
3…管理用ホスト計算機
4…ネットワーク
5…副記憶装置
8…ファイバチャネルスイッチ
11…ボリュームマネージャ
21…ディスクユニット
22…ディスクコントローラ
23…ポート
31…管理マネージャ
81…ポート
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a computer system and a method for assigning a storage device to a computer in the computer system, and more particularly to assigning a storage device to a computer in a computer system having a storage subsystem shared by a plurality of computers. On how to do.
[0002]
[Prior art]
In recent years, the amount of information handled by computer systems used by companies and the like has increased dramatically, and along with this, the capacity of disk devices for storing data has been steadily increasing. For example, in a magnetic disk device, a device having a capacity of several TB (terabytes) has become rare. With regard to such a disk device, for example, Japanese Patent Laid-Open No. 9-274544 discloses a technique in which one storage device subsystem is composed of a plurality of types of logical disk devices (hereinafter also referred to as devices). ing. Specifically, devices having different RAID levels, such as RAID 5 and RAID 1 in RAID (Redundant Arrays of Inexpensive Disks), are mixed as a device (logical disk) accessed from the host computer, or a logical disk is configured. As an actual magnetic disk device (physical disk device), a disk subsystem in which devices having different access speeds are mixed is disclosed. The user can use different devices according to the access frequency of each device.
[0003]
On the other hand, with the emergence of Fiber Channel technology as an interface between host computers and peripheral devices such as disk devices, a computer system is configured by connecting multiple host computers and multiple storage devices with a single Fiber Channel cable. It has come to be done. In such a computer system, each host computer can directly access any storage device on the fiber channel. For this reason, as compared with the conventional case where each host computer has a storage device, sharing of data between host computers and reduction of network load can be expected.
[0004]
[Problems to be solved by the invention]
According to the above-described prior art, the number and types of devices that can be accessed by each host computer can be dramatically increased. However, as the number and types of devices that can be accessed by the host computer increase, it becomes difficult to manage the devices in each host computer. While it is possible to access many devices from one host computer, it is difficult for the user to select which device should be used in a certain job. In particular, in the case of a computer system connected via Fiber Channel, a certain host computer can access a device that is not originally used by the host computer. For this reason, it is possible to cause unauthorized access to a device used by another host computer and destroy data.
[0005]
Japanese Patent Laid-Open No. 10-333839 discloses a method for allowing a storage device connected by a fiber channel only to access from a specific host computer in order to solve such a problem. However, when there are multiple storage devices and devices, or when different types of devices are mixed, the processing remains the same, and each host computer is always aware of the device type. There is a need to.
[0006]
An object of the present invention is to make it possible to easily set a device and assign a device to each host computer so that each host computer can use a device suitable for the application as needed. .
[0007]
[Means for Solving the Problems]
In a preferred embodiment, the computer system according to the present invention includes a plurality of computers and a storage subsystem connected to the plurality of computers. The storage subsystem has a plurality of storage devices and a plurality of interfaces, and is connected to each computer. One of the plurality of computers has a storage device in the storage device subsystem and management means for holding information on the connection relationship between each computer and the storage device subsystem. Each computer notifies the management means of its capacity and type when a new device is required. The management means receives the notification and selects a storage device that meets the request. Then, the storage subsystem is instructed to set predetermined information so that the selected device can be accessed from the computer. The management means also returns predetermined information to the computer that requested the device assignment, and the requested computer changes the setting of the computer based on the information, and the device assigned by the computer is changed. Make it available.
[0008]
In another aspect of the present invention, a plurality of computers and a plurality of storage device subsystems are connected via a network. On an arbitrary computer, a storage device included in each storage device subsystem and management means for holding information on the connection relationship between each computer and the storage device subsystem are provided. Each storage subsystem has control means for permitting access to the computer designated by the management means. When each computer needs a new storage device, it notifies the management means of its capacity and type. The management means selects a device that meets the request in response to the notification, and permits the storage subsystem to access from the computer so that the selected device can be accessed from the computer that requires the new storage device. Instruct. The management means also returns predetermined information to the computer that requested the device assignment. The computer that requested the device assignment changes the setting of the computer based on the information returned from the management means so that the device assigned from the computer can be used.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a simplified block diagram showing a configuration example in an embodiment of a computer system to which the present invention is applied.
[0010]
The computer system includes a plurality of host computers, a host computer 1a, a host computer 1b,..., A host computer 1n (collectively referred to as a host 1), a storage subsystem 2 connected to the host 1, a management host computer 3, a network 4 and a secondary storage device 5 which is a storage device disposed in a remote place.
[0011]
The host computers 1a, 1b,... Are computers having a CPU, a memory, and the like, and achieve predetermined functions by the CPU reading and executing an operating system and application programs stored in the memory.
[0012]
The storage device subsystem 2 has a plurality of disk units 21, a disk controller 22, a plurality of ports 23 connected to the host computer 1, an interface 24 for connecting to the secondary storage device 5, and a network interface 25 connected to the network 4. is doing. The storage subsystem 2 in the present embodiment pretends to the host computer 1 as one or a plurality of logical devices by combining a plurality of disk units 21 together. Of course, each disk unit 21 may be shown to the host computer 1 as one logical device.
[0013]
As the port 23, for example, if the host computer 1 to be connected is a so-called open system computer, an interface such as SCSI (Small Computer System Interface) is used. On the other hand, if the host computer 1 is a so-called mainframe, a channel interface such as ESCON (Enterprise System CONnection) is used. Each port 23 may be the same interface or different ones. In the present embodiment, description will be made assuming that SCSI is used as an interface for all ports 23.
[0014]
The disk controller 22 includes a processor 221, a cache memory 222, and a control memory 223. The processor 221 performs access from the host computer 1 and control of the disk unit 21. The processor 221 is particularly useful when the storage subsystem 2 makes the host computer 1 appear to be one or more logical devices as a disk array, rather than a single disk unit 21 as a single unit. , Perform its processing and management. The disk controller 22 communicates with the management host computer 3 via the network interface 25.
[0015]
The cache memory 222 stores frequently read data or temporarily stores write data from the host computer 1 in order to increase the access processing speed from the host computer 1. A part of the cache memory 222 can be made to appear as one or more logical disks and used as a device that does not require access to the magnetic disk unit.
[0016]
The control memory 223 stores a program executed by the processor 221 and is also used to store information for managing the disk unit 21 and a logical device configured by combining a plurality of disk units 21. .
[0017]
Each host computer 1a, 1b,... Has software (program) called a volume manager 11 arranged therein. The volume manager 11 operates in communication with the management manager 31 arranged in the management host computer 3. Each host computer 1 has an interface (I / F) 12, and is connected to the port 23 of the storage subsystem 2 by the interface 12.
[0018]
Next, the management form of the logical devices in the storage subsystem 2 will be described.
[0019]
As described above, the storage subsystem 2 pretends to the host computer 1 as a plurality of disk units 21 as one or a plurality of logical devices, or each disk unit 21 as one logical device. The storage subsystem 2 also causes the host computer 1 to show a part of the cache memory 222 as one or more logical devices. There is no correlation between the number of disk units 21 in the storage subsystem 2 and the number of logical devices.
[0020]
FIG. 2 is a table configuration diagram showing an example of a logical device management table that holds information used by the storage subsystem 2 to manage logical devices.
[0021]
The logical device management table holds a set of items of size 62, configuration 63, status 64, path 65, target ID 66, and LUN 67 for the logical device number 61. In the size 62, information indicating the capacity of the logical device specified by the logical device number 61 is set.
[0022]
In the configuration 63, information indicating the configuration of the logical device, for example, a RAID (Redundant Array of Inexpensive Disks) is configured by the disk unit 21, and the RAID type such as RAID 1 or RAID 5 is assigned to the logical device. Is set. Further, information indicating “cache” is set in the configuration 63 when a part of the cache memory 222 is allocated as the logical device, and “single disk unit” is set when a single disk unit is allocated. Is done.
[0023]
In the state 64, information indicating the state of the logical device is set. The status includes “online”, “offline”, “unimplemented”, and “failure offline”. “Online” indicates that the logical device operates normally and is accessible from the host computer 1. “Offline” indicates that the logical device is defined and operating normally, but cannot be accessed from the host computer 1. This state corresponds to a case where the host computer 1 has been used before, but the host computer 1 no longer uses the device because it is unnecessary. “Unmounted” indicates that the logical device is not defined and cannot be accessed from the host. “Fault offline” indicates that the logical device has failed and cannot be accessed from the host.
[0024]
In the path 65, information indicating to which port of the plurality of ports 23 the logical device is connected is set. Each port 23 is assigned a unique number within the storage device subsystem 2, and the number of the port 23 to which the logical device is connected is recorded in the “path” column. The target ID 66 and LUN 67 are identifiers for identifying logical devices. Here, as these identifiers, SCSI-ID and LUN used when accessing the device from the host computer 1 on the SCSI are used.
[0025]
One logical device can be connected to a plurality of ports, and the same logical device can be accessed from a plurality of host computers 1. In this case, a plurality of entries related to the logical device are created in the logical device management table. For example, in the logical device management table shown in FIG. 2, the device with the logical device number 2 is connected to the two ports 23 with the port numbers 0 and 1. For this reason, there are two items of logical device number 2. When one logical device can be accessed from a plurality of ports 23 in this way, the target ID and LUN corresponding to each path 65 do not need to be the same, and may differ as shown in FIG. good.
[0026]
The information held in the logical device management table is sent to the management host computer 3 through the network interface 24 at an appropriate timing or when the configuration changes due to a failure in the storage subsystem 2. . Therefore, the management host computer 3 also holds a logical device management table similar to the table shown in FIG.
[0027]
FIG. 3 is a table configuration diagram showing an example of a host management table held by the management manager 31 of the management host computer 3.
[0028]
The host management table stores management information including a host name 71, a port number 72, an interface number 73, and a logical device number 74 in order for the management host computer 3 to manage device assignment to each host computer 1. Hold.
[0029]
The port number 72 and the logical device number 74 are numbers defined inside the storage subsystem 2 and are information for identifying each port 23 and logical device of the storage subsystem 2. The port number 72 and the logical device number 74 include the port number of the port to which the host computer 1 identified by the identifier set in the host name 71 is connected and the device number of the logical device assigned to the host computer. Is set.
[0030]
The interface number 73 is a number assigned to manage the interface 12 of each host computer 1. The interface number 73 is necessary particularly when one host computer 1 has a plurality of interfaces 12. A set of the port number 72 and the interface number 73 is an important element for indicating the connection relationship between the host computer 1 and the logical device. For example, the host computer 1 b shown in FIG. 1 includes two interfaces 12, and each interface 12 is connected to a different port 23. In such a case, even if one interface or a line connecting one interface and the storage subsystem 2 cannot be used, the process continues if the other interface is connected to the logical device. And reliability can be improved.
[0031]
The management host computer 3 assigns a logical device to each host computer 1 with reference to the host management table and the logical device management table sent from the storage subsystem 2. The device allocation process will be described below.
[0032]
FIG. 4 is a flowchart showing the flow of processing performed by the volume manager 11 of each host computer 1. This process is performed when a user who uses the host computer 1 or an application program running on the host computer 1 newly needs a device.
[0033]
In step 1001, the volume manager 11 obtains information on the number of devices and the type of devices required from the user or application program. The user or application program specifies information such as the capacity, performance conditions, and reliability level as information about the device. The device capacity is the device size described above. As the performance condition, for example, information related to performance such as a device access speed such as a low-speed disk drive, a high-speed disk drive, and a cache resident disk drive is designated. As the reliability level, for example, information related to device reliability, such as RAID 0, RAID 1, RAID 5, double path, and remote mirror, is designated. In the double path, when the host computer 1 has a plurality of interfaces, a plurality of paths are provided so that the same device can be accessed using the plurality of interfaces. With a double path, even if a path becomes unavailable, it is possible to access the device using another path. The remote mirror causes the secondary storage device 5 to have a copy of the device in the storage device subsystem 2, and even if the storage device subsystem 2 itself cannot be operated due to an earthquake, fire, or the like, the secondary storage device Since data is held in the device 5, reliability can be improved.
[0034]
In step 1002, the volume manager 11 searches for a set of target IDs and LUNs that are not used on the interface 12 of the host computer 1.
[0035]
In step 1003, the volume manager 11 sets the capacity, performance condition, reliability level specified in step 1001, and the unused target ID and LUN set retrieved in step 1002 to the management manager 31 of the management host computer 3. Send and request a new device assignment. The management manager 31 searches for a device to be allocated based on the received information, and returns information specifying the host interface number, target ID, and LUN used to access the device. The processing of the management manager 31 performed here will be described later.
[0036]
In step 1004, the volume manager 11 receives information from the management manager 13. In step 1005, based on the information received from the management manager 13, the setting of the host computer 1 is changed so that a new device can be used.
[0037]
In the case of a so-called open system, a device file is prepared for each device so that the host computer 1 accesses each device, and the device file is accessed. Normally, a device file is prepared when the device configuration process of the host computer 1 is performed, and no device file is created for a device that does not exist during the device configuration process. Therefore, in step 1004, a device file relating to the newly assigned device is created. Specifically, for example, in the Solaris operating system of Sun Microsystems, a new device is recognized and a device file is created by the “drvconfig” command or the “drives” command, and newly assigned from the host computer 1. Access to the device.
[0038]
Finally, in step 1006, the volume manager 11 notifies the user or application program of the assigned device file name, target ID, and LUN information, and ends the process.
[0039]
FIG. 5 is a flowchart showing the flow of processing by the management manager 31 of the management host computer 3 when a new device is allocated.
[0040]
When the management manager 31 receives information such as the device size, performance condition, and reliability level sent from the host computer 1 in step 1101, it is set in the held logical device management table and host management table. Refer to the information and search for a device that meets the request. The devices to be searched here are those for which “offline” is set in the state 64 of the logical device management table (step 1102). As a result of the search, the management manager 31 determines whether a device in the “offline” state that matches the request has been found (step 1103).
[0041]
When a device in the “offline” state that matches the request is found, the management manager 31 is based on the target ID and LUN information received from the host computer 1, and information set in the logical device management table and the host management table. Then, the port number, target ID, and LUN used to connect the device to the host computer 1 are determined (step 1104).
[0042]
Next, the management manager 31 sets the device of the logical device number found in step 1103 so that it can be accessed with the port number, target ID, and LUN determined in step 1104 and puts it online. To instruct. The storage subsystem 2 performs setting according to the instruction from the management manager 31 and returns the result to the management manager 31 (step 1105).
[0043]
When the management manager 31 receives the result from the storage subsystem 2 (step 1106), it returns the interface number, target ID, and LUN to the volume manager 11 of the requested host computer 1 (step 1107).
[0044]
On the other hand, if there is no device that meets the request in the “offline” state in step 1103, the management manager 31 searches for a logical device number whose status 64 in the logical device management table is “unmounted”. (Step 1108). If there is a logical device number “unmounted”, the management manager 31 informs the storage subsystem 2 of information such as the device size, performance condition, reliability level, etc. requested from the host computer 1. Request device construction. The storage subsystem 2 constructs a device having the device number in response to a request from the management manager 31, and returns the result to the management manager 31 (step 1109). When the management manager 31 receives the result, the management manager 31 performs the processing from step 1104 described above (step 1110).
[0045]
FIG. 6 is a flowchart showing the flow of processing executed by the volume manager 11 in the device return processing that is unnecessary in the host computer 1.
[0046]
In the device return process, the volume manager 11 first receives unnecessary device information such as a device file name from the user or the upper application program (step 1201). Based on the received information, the volume manager 11 acquires an interface number, a target ID, and a LUN related to the device to be returned (step 1202).
[0047]
Next, the volume manager 11 changes the setting of the host computer 1 as necessary so that the host computer 1 does not use the device. Specifically, processing such as device file deletion is performed (step 1203). Subsequently, the volume manager 11 notifies the management manager 31 of the interface number, target ID, and LUN acquired in step 1202, and ends the processing (step 1204).
[0048]
FIG. 7 is a flowchart showing the flow of processing performed by the management manager 31 in the device return processing which is unnecessary in the host computer 1.
[0049]
The management manager 31 receives the interface number, target ID, and LUN from the host computer 1 (step 1301). Based on the received interface number, target ID, and LUN, the management manager 31 instructs the storage subsystem 2 to take the device to be returned offline. In response to this instruction, the storage subsystem 2 takes the specified device offline and returns a logical device management table reflecting the result to the management manager 31 (step 1302). When the logical device management table is received from the storage subsystem 2, it is held and the processing is completed (step 1303).
[0050]
In the first embodiment described above, the management host computer is provided and the management manager is arranged there, but the function of the management manager does not necessarily have to exist in the management host computer. For example, it may be configured to exist in any of the host computers 1a, 1b,. Further, the function of the management manager can be provided in the storage subsystem. In this case, each host computer 1a, 1b,... May send a request and receive information directly with the storage device subsystem via the interface.
[0051]
FIG. 8 is a simplified block diagram showing the configuration of a computer system according to the second embodiment of the present invention.
[0052]
The computer system in this embodiment includes a plurality of host computers 1 (host computer 1a, host computer 1b,..., Host computer 1n), a plurality of storage device subsystems 2a, 2b,. A network 4 and a fiber channel switch 6 are included.
[0053]
The host computer 1 has a volume manager 11 as in the first embodiment. The volume manager 11 communicates with the management manager 31 placed in the management host computer 3 and operates. Further, the host computer 1 has an interface (I / F) 12 and is connected to the fiber channel switch 8 through the interface 12.
[0054]
The storage device subsystems 2a, 2b,..., 2m are respectively the same as the storage device subsystem 2 in the first embodiment, the disk unit 21, the disk controller 22, the port 23, and the network interface (network I) connected to the network. / F) 25. As in the first embodiment, there may be a plurality of disk units 21 and ports 23, but here, for simplicity of explanation, it is assumed that there is one disk unit and one port.
[0055]
The fiber channel switch 8 has a plurality of ports 81. Each port 81 is connected to any one of the interfaces 12 of the host computers 1a, 1b,... And the ports 23 of the storage subsystems 2a, 2b,. The fiber channel switch 8 has a network interface 82 and is also connected to the network 4. The fiber channel switch 8 is used to allow the host computers 1a, 1b,... To freely access the storage subsystems 2a, 2b,. In this configuration, basically all the host computers 1 can access all the storage device subsystems 2.
The management host computer 3 has a management manager 31 as in the first embodiment. The management manager 31 operates in communication with the volume manager 11 of each host computer 1a, 1b,.
[0056]
FIG. 9 is a table configuration diagram showing an example of a logical device management table held by the management host computer 3. The logical device management table in this embodiment is used for managing the same information as the logical device management table held by the storage subsystem 2 in the first embodiment. Hereinafter, differences from the logical device management table in the first embodiment will be mainly described.
[0057]
In this embodiment, the management host computer 3 manages all devices included in all storage subsystems 2 with unique numbers. For the purpose of this management, the logical device management table has size 103, configuration 104, status 105, LUN 106, WWN (World Wide Name) 102, and connected host name 107 as information for each device.
[0058]
The size 103, the configuration 104, the state 105, and the LUN 106 are the same as the information held in the logical device management table in the first embodiment. The WWN 102 is information set in the port 23 of the storage subsystem 2, and is information uniquely assigned to each Fiber Channel interface in order to identify each port. The WWN 107 is also called N_PORT_NAME. The connection host name 107 is a host name for identifying a host computer that is permitted to connect to the device.
[0059]
Basically, if a plurality of host computers 1 connected to the fiber channel switch 8 can freely access any storage subsystem 2, there may be a system safety problem. In order to solve such a problem related to the security of the system, for example, Japanese Patent Laid-Open No. 10-333839 permits only access from a specific host computer to a storage device connected by a fiber channel. Techniques that enable this are disclosed. Also in this embodiment, in order to maintain the safety of the system, the storage device subsystem 2 has means for maintaining the safety as disclosed in JP-A-10-333839. To do. However, this is not directly related to the essence of the present invention, and detailed description thereof is omitted here.
[0060]
In this embodiment, the WWN 107 is also given to the interface 12 of each host computer 1. The management host computer 3 manages a set of the host name 108 and the WWN 109 using the table shown in FIG.
[0061]
Hereinafter, operations of the volume manager 11 and the management manager 31 will be described.
[0062]
In this embodiment, the processing executed by the volume manager 11 when assigning a new device to the host computer is basically executed in the same manner as the processing in the first embodiment shown in FIG. That is, when the volume manager 11 receives information on the number and type of devices required from the user or application program, the volume manager 11 requests the management manager 31 to allocate a new device based on the information. When the management device 31 finishes assigning a new device, the volume manager 11 changes the device setting so that the new device can be used from the host computer 1.
[0063]
FIG. 11 shows a flowchart of processing executed by the management manager 31 when a new device is allocated in this embodiment.
[0064]
Similarly, the processing performed by the management manager 31 is performed in substantially the same manner as the processing of the management manager in the first embodiment shown in FIG. In FIG. 11, the same reference numerals as those in FIG. 5 are used for portions where the same processing as that shown in FIG. 5 is performed. In the following, a part where processing different from that in FIG. 5 is performed will be mainly described, and description of a part where processing identical to that in FIG. 5 is performed will be omitted.
[0065]
In this embodiment, the storage subsystem 2 prohibits access from all the host computers 1 in the initial state so that the device is not inadvertently accessed from an unassigned host computer. Yes. For this reason, when the management manager 31 instructs the storage subsystem 2 to bring the device online in step 1105, the management manager 31 also permits the storage subsystem 2 to access the newly allocated device from the host computer 1. To instruct. In this instruction, the management manager 31 notifies the storage subsystem 2 of the WWN of the host computer 1 that should be allowed to access the device. When the host computer 1 accesses the device, the storage subsystem 2 determines whether or not the access is possible based on the WWN received from the management manager 31 (step 2105).
[0066]
Following the processing of step 2105, the management manager 31 changes the setting of the fiber channel switch 8. For example, as shown in FIG. 12, the host computers A and B access the disk units (devices) a and b, but the host computer C accesses only the disk unit (device) c. In this case, the management manager 31 makes a path setting for the Fiber Channel switch 8 so that the port (port d, port e) connected to the disk units a, b cannot be accessed from the port c connected to the host computer C. Do it. This makes it possible to have two switches. Performing such route setting is called zoning. By performing zoning, it is possible to prevent a certain device from being accessed from a host computer to which access is not originally permitted. Further, since the data flow is separated, the performance can be improved (step 2106).
[0067]
After the above processing, the management manager 31 performs the processing of steps 1106 and 1107.
[0068]
FIG. 13 is a simplified block diagram showing a configuration example in the third embodiment of the computer system to which the present invention is applied.
[0069]
In the computer system of this embodiment, a plurality of host computers 1a ′, host computers 1b ′,... Host computers 1n ′ (collectively referred to as hosts 1 ′) are connected via a network interface (I / F) 12 ′ and a network 4. And connected to the file server 9. The file server 9 is connected to the storage device subsystem 2 via an interface (I / F) 92. The storage device subsystem 2 and the secondary storage device 5 that is a storage device disposed at a remote location are the same as those in the first embodiment.
[0070]
The file server 9 includes a network interface 91 connected to each host computer 1 ′, a plurality of interfaces 32 connected to the storage subsystem 2, a management manager 93, and a server program 94.
[0071]
Similar to the management manager 31 in the first embodiment, the management manager 93 performs device allocation in response to a request. The server program 94 is a file server program that provides file access via a network, such as NFS (Network File System). The server program 94 provides means for accessing the file system created by the file server 9 in the storage subsystem 2 from the host computer 1 '.
[0072]
The storage subsystem 2 and the file server 9 may be configured as a so-called NAS (Network Attached Storage) in which each host computer 1 'can be seen as one storage device.
[0073]
The client program 11 ′ of the host computer 1 ′ communicates with the server program 94 on the file server 9, and the file system created by the file server 9 in the storage device subsystem 2 from the application program operating on the host 1 ′. It is a program that makes it possible to use. The client program 11 ′ may be incorporated in an operating system (not shown) on the host 1 ′ depending on the system configuration. The client program 11 ′ requests the management manager 93 to create a new file system or to change the size of the existing file system.
[0074]
In order to make it possible to change the size of an existing file system while the host computer 1 is in operation, the storage subsystem of the present embodiment uses data that exists in a certain logical device to be physically stored in the logical device. A function of moving to a physical disk unit different from the correct disk unit. As specific technical means for realizing such a function, for example, a known technique disclosed in Japanese Patent Laid-Open No. 9-274544 can be applied. Therefore, detailed description thereof is omitted in this specification.
[0075]
FIG. 14 is a flowchart showing the flow of processing performed when the client program 11 'of the host computer 1' constructs a new file system.
[0076]
This processing is performed when a user who uses the host computer 1 'or an application program running on the host computer 1' newly needs a file area.
[0077]
The client program 11 ′ accepts designation of information about a required device in response to a request from a user or an application program. The information acquired here includes information such as required device capacity, performance conditions, reliability level, and the like, as in step 1001 in the first embodiment shown in FIG. 4 (step 2001).
[0078]
Next, the client program 11 ′ transmits information such as the capacity, performance condition, reliability level, etc. specified in step 2001 to the management manager 93 and requests a new file system area. Based on the information received from the client program 11 ', the management manager 93 searches for and prepares a device area that can be allocated, and returns the result to the client program 11'. The processing of the management manager 93 performed at this time will be described later (step 2002).
[0079]
The client program 11 ′ receives a response from the management manager 93 in response to a request for a new area. The response received at this time includes a mount point, for example, in the case of NFS, the host name of the file server, or the host IP address and directory name (step 2003). The client program 11 ′ mounts the file system based on the information received from the management manager 93 (step 2004). Finally, the client program 11 ′ notifies the user or application program of the assigned mount point and ends the process (step 2005).
[0080]
FIG. 15 is a flowchart showing the flow of processing performed by the management manager 93 in response to a request for a new area from the client program 11 ′.
[0081]
This process is basically performed in the same manner as the process of the management manager 31 in the first embodiment shown in FIG. However, the processing of step 1107 in FIG. 5 is changed to the processing of steps 2107, 2111, and 2112.
[0082]
In step 1107 of FIG. 5, information such as the target ID is passed to the requested host computer. In this embodiment, processing is performed on these pieces of information. For this purpose, the management manager 93 passes information about the device such as the target ID to the server program 94 (step 2107), and receives mount point information from the server program 94 (step 2111). Then, the mount point information received from the server program 94 is passed to the requested client program 11 'and the process is terminated (step 2112).
[0083]
FIG. 16 is a flowchart showing the flow of processing executed by the server program that has received information about the device from the management manager.
[0084]
When information about a device is passed from the management manager 93 (step 2201), the server program 94 performs device reconfiguration of the file server 9. Specifically, this process is the same as the process of Step 1005 in the first embodiment shown in FIG. 4 (Step 2202).
[0085]
Subsequently, the server program 94 creates a file system in the newly created device (step 2203), and returns information indicating the mount point of the file system to the management manager 93 (step 2204).
[0086]
Through the above processing, a new file system that can be used from the host computer 1 'can be added.
[0087]
FIG. 17 is a flowchart showing the flow of processing performed by the management manager 93 when changing the size of an existing file system. The processing at the time of requesting a new file system shown in FIG. 15 is different in the following points.
[0088]
When attempting to change the size of an existing file system, the user or application program relates to the mount point of the file system whose size is to be changed, the size to be expanded or reduced, and the like for the client program 11 ′. Issue a request with information. The client program 11 'requests the management manager 93 to change the size of the file system using information specified by the user or the application program. The management manager 93 receives information such as the mount point of the file system to be processed, the size to be expanded, etc. sent from the client program 11 ′ (step 2301).
[0089]
The management manager 93 obtains information such as the target ID and LUN of the logical device storing the file system to be processed based on the mount point received from the client program 11 ′, and determines the logical device. . Then, the management manager 93 obtains information such as the type of the logical device, that is, reliability and performance (step 2302). Subsequently, based on the information obtained in steps 2301 and 2302, the management manager 93 has a free area of the size of the file system after the change in the same way as when adding a new file system, The same type of logical device is secured (steps 1102 to 1110).
[0090]
Thereafter, in step 2304, the management manager 93 instructs the storage subsystem 2 to move data from the logical device in which the file system has been recorded to the newly secured logical device. Data movement is performed transparently from the file server program 94. Since the host computer 1 'accesses the storage subsystem 2 via the file server program 94, this process is transparent to the host computer 1'. Therefore, it is not necessary for the host computer 1 'to stop processing during the data movement.
[0091]
When the data movement is completed, the management manager 93 instructs the server program 94 to extend the file system. Even if the actual device capacity increases, if the file system is not rebuilt, the entire extended capacity cannot be used as the file system. After instructing the server program 94 to expand the file system, the management manager 93 notifies the client program 11 'of the completion of the process and ends the process (step 2305).
[0092]
Through the above processing, it is possible to change the size of the existing file system while the host computer 1 'is operating. When the size of the existing file system is changed, the client program 11 'can use the expanded file system as it is after receiving the notification from the management manager. Therefore, in this case, it is not necessary to carry out the processing of step 2004 and step 2005 in FIG.
[0093]
FIG. 18 is a simplified block diagram showing a configuration example in the fourth embodiment of a computer system to which the present invention is applied.
[0094]
The computer system in the present embodiment includes a plurality of host computers 1 ″ (host computers 1a ″, 1b ″,..., 1n ″), a management host computer 3, a storage device subsystem 2 ′, and a secondary storage device 5. is doing. Each host computer 1 ″ and the storage device subsystem 2 ′ are connected via a fiber channel switch 8. The host computer 1 ″, the storage device subsystem 2 ′, and the fiber channel switch 8 are connected via a network 4. Are connected to each other.
[0095]
The fiber channel switch 8 includes a plurality of ports 81, and switches the connection between these ports to realize data transfer between devices connected to the port 81. The fiber channel switch 8 also includes a network interface 82 for performing communication via the network 4. Each host computer 1 ″ includes a volume manager 11 ″ and one or more interfaces 12. The interface 12 of the host computer 1 ″ is connected to one of a plurality of ports 81 included in the fiber channel 8.
[0096]
The storage subsystem 2 'has a plurality of clusters 26 and an inter-controller connection mechanism 27 that connects the clusters 26 to each other. Each cluster 26 includes a channel processor 23 ′, a drive processor 22 ′, and a plurality of disk units 21. The channel processor 23 ′ and the drive processor 22 ′ in the same cluster are coupled by a bus 28 that is faster than the inter-controller connection mechanism 27. Each channel processor 23 'includes one or a plurality of ports 231 and is connected to the host computer 1 "via the secondary storage device 5 or the fiber channel 8. A plurality of disks are connected to the drive processor 22'. In this embodiment, one or a plurality of logical devices are configured by combining the plurality of disk units 21, or one or a plurality of logical devices are configured by one disk unit 21. It is assumed that the disk units 21 included in the plurality of clusters 26 cannot be combined in configuring a certain logical device.
[0097]
The channel processor 23 ′ shows one or a plurality of logical devices to each host computer 1 ″ and accepts access from each host 1 ″. In principle, the channel processor 23 ′ manages a logical device constituted by the disk unit 21 connected to the drive processor 22 ′ in the cluster 26 to which the channel processor 23 ′ belongs. This is because communication between the channel processor 23 ′ and the drive processor 22 ′ in the same cluster 26 can be performed at a higher speed than communication across clusters. However, when a channel processor 23 'of a certain cluster 26 does not operate due to a failure or the like, the channel processor 23' of another cluster 26 takes over the processing. The channel processor 23 'determines which disk processor 21 is connected to which drive processor 22' is the logical device designated by the host computer 1 ", and passes the processing request to the appropriate drive processor 22 '. 22 ′ interprets the request from the channel processor 23 ′, generates a disk access request for each disk unit 21 in which the logical device is placed, and sends the disk access request to the corresponding disk unit 21.
[0098]
The host computer 1 ″ has substantially the same configuration as the host computer 1 in the first embodiment, but there is a slight difference in the function of the volume manager 11 ″ operating on it. The volume manager 11 ″ has a function of allocating and returning a plurality of logical devices to another higher level application program as a separate logical device in addition to the logical device assignment and return processing performed by the volume manager 11 in the first embodiment. Hereinafter, the logical device created by the volume manager 11 ″ will be referred to as LVOL in order to distinguish it from the logical device managed by the storage subsystem 2 ′. The volume manager 11 ″ apparently combines a plurality of logical devices to form one larger LVOL, or divides one logical device into a plurality of areas, and these areas are set as LVOL on the host computer 1 ″. Can be used by other application programs. It is also possible to expand the capacity of the LVOL by combining a new logical device with the existing LVOL.
[0099]
FIG. 19 is a flowchart showing a flow of processing performed by the volume manager 11 ″ when a volume is newly allocated in the present embodiment.
[0100]
In the processing described here, step 1002 of the device allocation processing in the first embodiment shown in FIG. 4 is replaced with step 1002 ′, and step 1006 is replaced with step 1005 ′ and step 1006 ′. In other steps, the same processing as the corresponding steps in FIG. 4 is performed. Hereinafter, processing performed in steps 1002 ′, 1005 ′, and 1006 ′ will be described.
[0101]
In step 1002 ′, an unused WWN / LUN pair is retrieved from the LVOL management table managed by the volume manager 11 ″. An example of the LVOL management table is shown in FIG. 20. The LVOL management table includes an LVOL name 151. , Device file name 152, size 153, and WWN 154 and LUN 155 information of each device are registered. The LVOL name 151 is assigned to identify the LVOL provided to the application program by the volume manager 11 ″. Identifier. The device file name 152 is the name of the logical device that constitutes the LVOL. The volume manager 11 ″ manages the logical devices belonging to each LVOL based on the device file name. The size 153 indicates the capacity of each logical device constituting the LVOL. One LVOL is composed of a plurality of logical devices. In some cases, a plurality of device files may belong to one LVOL name.
[0102]
In step 1005 ′, the volume manager 11 ″ newly creates an LVOL using the logical device assigned by the management manager 31, and registers the contents in the LVOL management table. In step 1006 ′, the assigned LVOL name. Is notified to the user and the process ends.
[0103]
FIG. 21 is a flowchart showing the processing of the volume manager when the LVOL capacity is expanded in response to a request from the user or an application program.
[0104]
When expanding the capacity of an LVOL, a new logical device is prepared, and a new LVOL is constructed in combination with the logical device that constitutes the LVOL to be expanded. At this time, the newly prepared logical device is usually the same type of logical device as the logical device constructing the LVOL to be expanded. In the present embodiment, the type of logical device constituting the LVOL to be expanded by the volume manager 11 ″ is determined, and the same type of logical device is secured.
[0105]
In this processing, the volume manager 11 ″ first receives information about the LVOL name of the expansion target LVOL and the capacity to be expanded from the user or application program (step 2501). Next, the volume manager 11 ″ is expanded. The management manager 31 is inquired about the types of logical devices constituting the target LVOL (step 2502). The volume manager 11 ″ searches for an unused WWN / LUN pair from the LVOL management table (step 2503). The volume manager 11 ″ determines the type of logical device acquired in steps 2502 and 2503, and the unused WWN. Information including the combination of LUNs is transmitted to the management manager 31. (Step 2504). When the information about the newly assigned logical device is received from the management manager 31 (step 2505), the volume manager 11 ″ performs reconfiguration of the host computer 1 ″, and the newly assigned logical device is transferred to the host computer 1. The volume manager 11 ″ adds a logical device newly allocated to the expansion target LVOL to expand the capacity of the LVOL, and ends the processing (step S2506). 2507).
[0106]
When there is a request for allocation of a new logical volume from the volume manager 11 ″ in step 1003 of FIG. 19 and step 2504 of FIG. 21, the management manager 31 in any case, the device type requested from the volume manager 11 ″, Search for and assign devices that match capacity. For this process, the management manager 31 includes a logical device management table as shown in FIG. 9 and a cluster information table in which information related to the cluster 26 in the storage subsystem 2 ′ is set.
[0107]
FIG. 22 is a table configuration diagram illustrating an example of a cluster information management table.
[0108]
The cluster information management table has an entry corresponding to each cluster 26. For each cluster 26, a cluster number 161 for identifying the cluster, a port number 162 of a port included in the cluster, and a WWN 163 assigned to the port are set. ing. As shown in the figure, when a plurality of ports exist in one cluster 26, each port number and WWN are set in an entry corresponding to the cluster. As described above, when a logical device is constructed in the disk unit 21 connected to a certain drive processor 22 ', the logical device can be accessed from the port 231 in the same cluster. Desirable from the viewpoint of performance. Based on the cluster information table, the management manager 31 ensures that the port 231 used for access from the host computer 1 ″ and the drive processor 22 ′ to which the disk unit 21 in which the newly assigned logical device is constructed are connected are in the same cluster. Set up the device.
[0109]
FIG. 23 is a flowchart showing the flow of device allocation processing by the management manager 31.
[0110]
The device assignment processing in this embodiment is performed in substantially the same manner as the processing in the second embodiment shown in FIG. 11, but some processing is performed in the second embodiment due to the difference in the configuration of the storage subsystem. Is different. Specifically, in step 1109, when a new device construction is requested from the management manager 31 to the storage subsystem 2 ', the storage subsystem 2' constructs a device in accordance with the request. When the logical device is constructed in the storage subsystem 2 ', the management manager 31 receives information indicating in which cluster 26 the logical device is constructed with respect to the newly constructed logical device (step 2610).
[0111]
The management manager 31 refers to the information regarding the logical device received from the storage subsystem 2 ′ and the cluster information management table, and determines from which port the device can be accessed. The management manager 31 further determines the LUN of the device to be newly allocated based on the unused LUN information (step 2604). Finally, the management manager 31 sends information such as WWN and LUN necessary for accessing the newly allocated logical volume to the volume manager 11 ″, and ends the processing (step 2607).
[0112]
The processes other than those described here are the same as those of the management manager in the second embodiment shown in FIG. 11, and the same reference numerals as those in FIG.
[0113]
According to the embodiment described above, device allocation can be performed in accordance with a request even when the host computer is operating. Furthermore, even in an environment in which a plurality of devices are configured with fiber channel switches, it is possible to easily assign devices that meet the requirements to the host computer.
[0114]
Needless to say, the present invention is not limited to the above-described embodiments, and can take various forms within the scope of the gist of the present invention.
[0115]
【The invention's effect】
According to the present invention, storage devices can be dynamically allocated to a host computer as necessary.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration example of a computer system according to a first embodiment of this invention.
FIG. 2 is a table configuration diagram showing an example of a logical device management table held by a storage device subsystem.
FIG. 3 is a table configuration diagram showing an example of a host management table held by a management manager.
FIG. 4 is a flowchart showing the flow of processing executed by the volume manager of the host computer.
FIG. 5 is a flowchart showing a flow of processing executed by a management manager.
FIG. 6 is a flowchart showing a flow of processing by a volume manager in device return processing;
FIG. 7 is a flowchart showing a flow of processing by a management manager in device return processing;
FIG. 8 is a block diagram illustrating a configuration example of a computer system according to a second embodiment of this invention.
FIG. 9 is a table configuration diagram showing an example of a logical device management table held by a management manager.
FIG. 10 is a table configuration diagram showing an example of a table for managing a correspondence relationship between a host computer and a WWN held by a management manager.
FIG. 11 is a flowchart showing a flow of processing by a management manager.
FIG. 12 is an explanatory diagram showing a zoning function of the fiber channel switch.
FIG. 13 is a block diagram illustrating a configuration example of a computer system according to a third embodiment of this invention.
FIG. 14 is a flowchart showing a flow of processing by a client program.
FIG. 15 is a flowchart showing a flow of processing by a file server management manager;
FIG. 16 is a flowchart showing a flow of processing by a server program of a file server.
FIG. 17 is a flowchart showing a flow of processing performed by the management manager when expanding a file system.
FIG. 18 is a block diagram illustrating a configuration example of a computer system according to a fourth embodiment of this invention.
FIG. 19 is a flowchart showing a flow of processing by the volume manager.
FIG. 20 is a table configuration diagram showing an example of an LVOL management table.
FIG. 21 is a flowchart showing a flow of processing performed by the volume manager when expanding an LVOL.
FIG. 22 is a table configuration diagram showing an example of a cluster information table.
FIG. 23 is a flowchart showing a flow of processing performed by the management manager when extending an LVOL.
[Brief description of symbols]
1 ... Host computer,
2 ... Storage subsystem
3 ... Host computer for management
4 ... Network
5 ... Secondary storage device
8 ... Fiber Channel switch
11 ... Volume manager
21 ... Disk unit
22 ... Disk controller
23 ... Port
31 ... Management manager
81 ... Port

Claims (15)

第1の計算機と、前記第1の計算機からアクセスされるデータを保持する記憶デバイスを有する記憶装置サブシステムと、前記記憶装置サブシステムが有する前記記憶デバイスに関するデバイス管理情報と、前記記憶デバイスの前記第1の計算機への割り当ての状態を示すホスト管理情報とを有する第2の計算機とを有する計算機システムであって、
前記第1の計算機は、ユーザまたはアプリケーションプログラムからの新たな記憶デバイスの要求を受け付け、前記第2の計算機に新たな記憶デバイスの割り当てを要求する要求手段を有し、前記第2の計算機は、前記要求手段からの要求に応じて、前記デバイス管理情報及び前記ホスト管理情報を参照して前記第1の計算機に割り当て可能な記憶デバイスを決定する手段、及び該決定手段により決定された記憶デバイスを前記第1の計算機からアクセス可能となるように前記記憶装置サブシステムの設定を変更する変更手段とを有することを特徴とする計算機システム。
A first computer, a storage device subsystem having a storage device that holds data accessed from the first computer, device management information relating to the storage device included in the storage device subsystem, and the storage device A computer system having a second computer having host management information indicating a state of assignment to the first computer,
The first computer has a request unit that accepts a request for a new storage device from a user or an application program and requests the second computer to allocate a new storage device, and the second computer includes: In response to a request from the requesting means, referring to the device management information and the host management information, a means for determining a storage device that can be allocated to the first computer, and a storage device determined by the determining means A computer system comprising: changing means for changing the setting of the storage subsystem so that the first computer can be accessed.
前記記憶デバイスは、前記記憶装置サブシステムが備える物理的な記憶装置に形成される少なくとも一部の記憶領域であることを特徴とする請求項1記載の計算機システム。  The computer system according to claim 1, wherein the storage device is at least a part of a storage area formed in a physical storage device included in the storage device subsystem. 前記要求手段は、前記割り当ての要求とともに、割り当てられる記憶デバイスの条件を指定する情報を前記第2の計算機に送ることを特徴とする請求項1記載の計算機システム。  2. The computer system according to claim 1, wherein the request unit sends information specifying a condition of a storage device to be allocated to the second computer together with the request for allocation. 前記決定手段は、前記デバイス管理情報を参照し、前記要求手段により指定された前記条件を満たす記憶デバイスであって、オフライン状態にある記憶デバイスを前記割り当て可能な記憶デバイスとして選択することを特徴とする請求項3記載の計算機システム。  The determining means refers to the device management information, and selects a storage device that satisfies the condition specified by the request means and is in an offline state as the assignable storage device. The computer system according to claim 3. 前記条件は、要求される記憶デバイスの性能及び信頼性の少なくとも一方を指定するための情報を含むことを特徴とする請求項4記載の計算機システム。  5. The computer system according to claim 4, wherein the condition includes information for designating at least one of required performance and reliability of the storage device. 前記要求手段は、既存の記憶デバイスの容量の変更の要求を受け付け、該要求を前記第2の計算機に送信する手段を有し、前記第2の計算機は、前記変更の要求に応じて、容量の変更後における記憶デバイスに合致する記憶デバイスを選択する手段と、前記記憶装置サブシステムに対し、前記既存の記憶デバイスに保持されているデータを前記選択手段により選択された記憶デバイスに移動するよう指示する手段とを有し、前記記憶装置サブシステムは、前記指示に応答してデータを移動する手段を有することを特徴とする請求項1記載の計算機システム。  The request unit includes a unit that receives a request for changing the capacity of an existing storage device and transmits the request to the second computer. The second computer has a capacity according to the change request. Means for selecting a storage device that matches the storage device after the change, and for the storage subsystem, the data held in the existing storage device is moved to the storage device selected by the selection means 2. The computer system according to claim 1, wherein the storage subsystem includes means for moving data in response to the instruction. 前記第1の計算機は、複数の記憶デバイスを論理的に一つのデバイスとして前記アプリケーションプログラムに提供する手段を有することを特徴とする請求項1記載の計算機システム。  2. The computer system according to claim 1, wherein the first computer has means for providing a plurality of storage devices to the application program as one logical device. 前記要求手段は、すでに前記アプリケーションプログラムに提供しているデバイスの容量の拡張の要求に応じて、前記第2の計算機に前記拡張の要求で要求された拡張に必要な容量の新たな記憶デバイスの割り当てを要求し、前記提供する手段は、新たに割り当てられた記憶デバイスを前記拡張が要求されたデバイスの一部とすることを特徴とする請求項7記載の計算機システム。  In response to a request for expansion of the device capacity already provided to the application program, the requesting unit is provided with a new storage device having a capacity required for the expansion requested by the second computer. 8. The computer system according to claim 7, wherein the means for requesting allocation and the providing means make a newly allocated storage device a part of the device requested to be expanded. 第1の計算機、前記第1の計算機からアクセスされるデータを保持する記憶デバイスを有する記憶装置サブシステム、及び前記記憶装置サブシステムが有する前記記憶デバイスの前記第1の計算機への割り当ての状態を管理する第2の計算機とを有する計算機システムにおける記憶デバイスの割り当て方法であって、
前記第1の計算機から前記第2の計算機に新たな記憶デバイスの割り当てを要求するステップと、
前記第2の計算機において、前記要求に基づいて前記第1の計算機に割り当て可能な記憶デバイスを決定するステップと、
前記第2の計算機から前記記憶装置サブシステムに対して決定された記憶デバイスを前記第1の計算機からアクセス可能となるように設定を変更するよう前記記憶装置サブシステムに指示するステップと、
前記第2の計算機から前記第1の計算機に前記決定された記憶デバイスのアクセスに必要な情報を転送するステップと、及び、
前記第1の計算機において、前記アクセスに必要な情報に基づいて前記決定された記憶デバイスを利用できるように、前記第1の計算機の設定を変更するステップとを有することを特徴とする記憶デバイス割り当て方法。
A first computer, a storage device subsystem having a storage device that holds data accessed from the first computer, and a state of assignment of the storage device of the storage device subsystem to the first computer; A storage device allocation method in a computer system having a second computer to be managed,
Requesting the second computer to allocate a new storage device from the first computer;
In the second computer, determining a storage device that can be allocated to the first computer based on the request;
Instructing the storage subsystem to change the setting so that the storage device determined from the second computer is accessible to the storage subsystem;
Transferring information necessary for accessing the determined storage device from the second computer to the first computer; and
A storage device allocation comprising: a step of changing a setting of the first computer so that the storage device determined based on information necessary for the access can be used in the first computer. Method.
前記割り当てを要求するステップは、前記新たな記憶デバイスに要求される条件を示す情報を含む要求を前記第2の計算機に送信するステップを含むことを特徴とする請求項9記載の記憶デバイス割り当て方法。  10. The storage device allocation method according to claim 9, wherein the step of requesting the allocation includes a step of transmitting a request including information indicating a condition required for the new storage device to the second computer. . 前記要求される条件は、前記新たな記憶デバイスの性能及び信頼性の少なくとも一方を指定するための情報を含むことを特徴とする請求項10記載の記憶デバイス割り当て方法。  11. The storage device allocation method according to claim 10, wherein the required condition includes information for designating at least one of performance and reliability of the new storage device. 前記決定するステップは、前記記憶装置サブシステム内の記憶デバイスを管理するデバイス管理情報を参照し、前記条件を満たす記憶デバイスであってオフライン状態にある記憶デバイスを前記割り当て可能な記憶デバイスとして決定するステップを含むことを特徴とする請求項11記載の記憶デバイス割り当て方法。  The determining step refers to device management information for managing storage devices in the storage subsystem and determines a storage device that satisfies the conditions and is in an offline state as the assignable storage device. 12. The storage device allocation method according to claim 11, further comprising a step. 請求項9記載の記憶デバイス割り当て方法において、さらに、前記第1の計算機において、前記決定された記憶デバイスと、前記第1の計算機において使用されている論理的なストレージを構成する既存の記憶デバイスとを結合し、前記論理的なストレージの容量を拡張するステップを有することを特徴とする記憶デバイス割り当て方法。  10. The storage device allocation method according to claim 9, further comprising: in the first computer, the determined storage device; and an existing storage device constituting a logical storage used in the first computer. And allocating the logical storage capacity to expand the capacity of the logical storage. 複数の計算機と、該複数の計算機がネットワークを介して接続されるファイルサーバと、ファイルサーバに接続され、複数の記憶デバイスを備える記憶装置サブシステムとを有する計算機システムにおいて、
前記複数の計算機は、ユーザまたはアプリケーションプログラムからの新たなファイル領域の要求を受け付け、前記ファイルサーバに新たなファイル領域の割り当てを要求する要求手段を有し、
前記ファイルサーバは、前記要求手段からの要求に応じて、前記記憶デバイスに関するデバイス管理情報と、前記記憶デバイスの前記計算機への割り当ての状態を示すホスト管理情報と、を参照して前記ファイル領域を設定可能な記憶領域を有する記憶デバイスを決定する手段、該決定手段により決定された記憶デバイスを前記計算機からアクセス可能となるように前記記憶装置サブシステムの設定を変更する変更手段、前記決定された記憶デバイスを利用できるように前記計算機と前記ファイルサーバの設定を変更する設定手段、前記決定された記憶デバイス上に前記ファイル領域を作成するファイル管理手段を有することを特徴とする計算機システム。
In a computer system having a plurality of computers, a file server to which the plurality of computers are connected via a network, and a storage device subsystem connected to the file server and including a plurality of storage devices,
The plurality of computers have request means for receiving a request for a new file area from a user or an application program, and requesting the file server to allocate a new file area,
In response to a request from the request unit, the file server refers to device management information related to the storage device and host management information indicating a state of allocation of the storage device to the computer , and determines the file area. Means for determining a storage device having a configurable storage area, changing means for changing the setting of the storage subsystem so that the storage device determined by the determining means can be accessed from the computer, the determined A computer system comprising: setting means for changing settings of the computer and the file server so that a storage device can be used; and file management means for creating the file area on the determined storage device.
前記ファイル管理手段は、作成したファイル領域のアクセスに使われる情報を、前記要求を行った計算機に送信する手段を備え、前記要求を行った計算機は、前記アクセスに使われる情報を利用して前記作成されたファイル領域へのアクセスを行うアプリケーションプログラムを有することを特徴とする請求項14記載の計算機システム。The file management means includes means for transmitting information used to access the created file area to the computer that made the request, and the computer that made the request uses the information used for the access to 15. The computer system according to claim 14, further comprising an application program for accessing the created file area.
JP2000238865A 1999-08-27 2000-08-02 Computer system and device allocation method Expired - Fee Related JP3843713B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000238865A JP3843713B2 (en) 1999-08-27 2000-08-02 Computer system and device allocation method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP11-241024 1999-08-27
JP24102499 1999-08-27
JP2000238865A JP3843713B2 (en) 1999-08-27 2000-08-02 Computer system and device allocation method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2004184406A Division JP4501548B2 (en) 1999-08-27 2004-06-23 Computer system and device allocation method

Publications (2)

Publication Number Publication Date
JP2001142648A JP2001142648A (en) 2001-05-25
JP3843713B2 true JP3843713B2 (en) 2006-11-08

Family

ID=26535038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000238865A Expired - Fee Related JP3843713B2 (en) 1999-08-27 2000-08-02 Computer system and device allocation method

Country Status (1)

Country Link
JP (1) JP3843713B2 (en)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4501548B2 (en) * 1999-08-27 2010-07-14 株式会社日立製作所 Computer system and device allocation method
US7315911B2 (en) 2005-01-20 2008-01-01 Dot Hill Systems Corporation Method for efficient inter-processor communication in an active-active RAID system using PCI-express links
US7143227B2 (en) 2003-02-18 2006-11-28 Dot Hill Systems Corporation Broadcast bridge apparatus for transferring data to redundant memory subsystems in a storage controller
US7146448B2 (en) 2001-09-28 2006-12-05 Dot Hill Systems Corporation Apparatus and method for adopting an orphan I/O port in a redundant storage controller
US7536495B2 (en) 2001-09-28 2009-05-19 Dot Hill Systems Corporation Certified memory-to-memory data transfer between active-active raid controllers
US7437493B2 (en) 2001-09-28 2008-10-14 Dot Hill Systems Corp. Modular architecture for a network storage controller
US7340555B2 (en) 2001-09-28 2008-03-04 Dot Hill Systems Corporation RAID system for performing efficient mirrored posted-write operations
US7062591B2 (en) 2001-09-28 2006-06-13 Dot Hill Systems Corp. Controller data sharing using a modular DMA architecture
WO2003043254A2 (en) 2001-11-09 2003-05-22 Chaparral Network Storage, Inc. Transferring data using direct memory access
US8788611B2 (en) 2001-12-28 2014-07-22 Hewlett-Packard Development Company, L.P. Method for using partitioning to provide capacity on demand in data libraries
US7281044B2 (en) 2002-01-10 2007-10-09 Hitachi, Ltd. SAN infrastructure on demand service system
WO2003069480A1 (en) * 2002-02-14 2003-08-21 Fujitsu Limited Data storage control program and data storage control method
JP2003316713A (en) 2002-04-26 2003-11-07 Hitachi Ltd Storage device system
JP4061960B2 (en) 2002-04-26 2008-03-19 株式会社日立製作所 Computer system
US6925541B2 (en) * 2002-06-12 2005-08-02 Hitachi, Ltd. Method and apparatus for managing replication volumes
JP2004102374A (en) * 2002-09-05 2004-04-02 Hitachi Ltd Information processing system having data transition device
JP4175083B2 (en) 2002-10-29 2008-11-05 株式会社日立製作所 Storage device management computer and program
US8095704B2 (en) * 2003-01-13 2012-01-10 Sierra Logic Integrated-circuit implementation of a storage-shelf router and a path controller card for combined use in high-availability mass-storage-device shelves that may be incorporated within disk arrays
JP4345313B2 (en) 2003-01-24 2009-10-14 株式会社日立製作所 Operation management method of storage system based on policy
JP2004280690A (en) 2003-03-18 2004-10-07 Hitachi Ltd Information processing system, and system setting method
JP4294353B2 (en) 2003-03-28 2009-07-08 株式会社日立製作所 Storage system failure management method and apparatus having job management function
JP2004302751A (en) 2003-03-31 2004-10-28 Hitachi Ltd Method for managing performance of computer system and computer system managing performance of storage device
JP4462852B2 (en) 2003-06-23 2010-05-12 株式会社日立製作所 Storage system and storage system connection method
JP4716838B2 (en) * 2005-10-06 2011-07-06 株式会社日立製作所 Computer system, management computer, and volume allocation change method for management computer
JP4463042B2 (en) 2003-12-26 2010-05-12 株式会社日立製作所 Storage system having volume dynamic allocation function
JP2005215943A (en) * 2004-01-29 2005-08-11 Hitachi Ltd Connection control system for disk device
US7137031B2 (en) * 2004-02-25 2006-11-14 Hitachi, Ltd. Logical unit security for clustered storage area networks
JP4653965B2 (en) * 2004-04-08 2011-03-16 株式会社日立製作所 I / O interface module management method
JP4566668B2 (en) 2004-09-21 2010-10-20 株式会社日立製作所 Encryption / decryption management method in computer system having storage hierarchy
JP2006134021A (en) * 2004-11-05 2006-05-25 Hitachi Ltd Storage system and configuration management method therefor
JP4451293B2 (en) 2004-12-10 2010-04-14 株式会社日立製作所 Network storage system of cluster configuration sharing name space and control method thereof
JP4324088B2 (en) 2004-12-17 2009-09-02 富士通株式会社 Data replication control device
US7543096B2 (en) 2005-01-20 2009-06-02 Dot Hill Systems Corporation Safe message transfers on PCI-Express link from RAID controller to receiver-programmable window of partner RAID controller CPU memory
JP5031195B2 (en) * 2005-03-17 2012-09-19 株式会社日立製作所 Storage management software and grouping method
JP4987307B2 (en) * 2005-03-25 2012-07-25 株式会社日立製作所 Storage system
JP4671738B2 (en) 2005-04-01 2011-04-20 株式会社日立製作所 Storage system and storage area allocation method
JP2006285808A (en) * 2005-04-04 2006-10-19 Hitachi Ltd Storage system
JP4681337B2 (en) * 2005-04-06 2011-05-11 株式会社日立製作所 Fiber channel switch device, information processing system, and login processing method
JP4885575B2 (en) * 2006-03-08 2012-02-29 株式会社日立製作所 Storage area allocation optimization method and management computer for realizing the method
US7536508B2 (en) 2006-06-30 2009-05-19 Dot Hill Systems Corporation System and method for sharing SATA drives in active-active RAID controller system
US7681089B2 (en) 2007-02-20 2010-03-16 Dot Hill Systems Corporation Redundant storage controller system with enhanced failure analysis capability
JP6193373B2 (en) * 2013-03-18 2017-09-06 株式会社日立製作所 Hybrid storage system and storage control method
JP7047429B2 (en) * 2018-02-07 2022-04-05 日本電気株式会社 Storage device management system, storage device management device, storage device management method, and program

Also Published As

Publication number Publication date
JP2001142648A (en) 2001-05-25

Similar Documents

Publication Publication Date Title
JP3843713B2 (en) Computer system and device allocation method
US6854034B1 (en) Computer system and a method of assigning a storage device to a computer
US9639277B2 (en) Storage system with virtual volume having data arranged astride storage devices, and volume management method
EP2652586B1 (en) Information storage system and storage system management method
JP4175764B2 (en) Computer system
US7117336B2 (en) Computer system for managing storage areas in a plurality of storage devices
US9223501B2 (en) Computer system and virtual server migration control method for computer system
US9229645B2 (en) Storage management method and storage system in virtual volume having data arranged astride storage devices
US7596637B2 (en) Storage apparatus and control method for the same, and computer program product
US20030236884A1 (en) Computer system and a method for storage area allocation
JP4568574B2 (en) Storage device introduction method, program, and management computer
US9122415B2 (en) Storage system using real data storage area dynamic allocation method
EP4139802B1 (en) Methods for managing input-ouput operations in zone translation layer architecture and devices thereof
WO2011135636A1 (en) Computer system and method for controlling same
US8972656B1 (en) Managing accesses to active-active mapped logical volumes
US8972657B1 (en) Managing active—active mapped logical volumes
JP2006048627A (en) Dynamic load balancing of storage system
JP2007102760A (en) Automatic allocation of volume in storage area network
JP2003091449A (en) Storage system and method for managing the same system
JP4501548B2 (en) Computer system and device allocation method
US11165850B1 (en) Storage system and method of storing data in nodes
US7827269B2 (en) System and method for managing networked storage devices with a plurality of logical units
JP4258768B2 (en) File placement system
JP6019169B2 (en) Information storage system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060410

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060410

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060418

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060509

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060607

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060807

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100825

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100825

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110825

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120825

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130825

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees