2021年12月

28

【てくさぽBLOG】Azure Stack HCIを導入してみた Vol.1 -Azure Stack HCI構築編-

こんにちは。
てくさぽBLOGメンバーの宮里です。

今回はAzure Stack HCIの検証をしてみたので3回シリーズで検証で得られた知見をお伝えします。
検証の目的は、Azure Stack HCIの構築・管理・クラウドとの連携をどのような手順でおこなうのか、使いやすいのか、を実機を使って体感してみることです。

今回は3回シリーズの1回目で、Windows Server 2019の2台をAzure Stack HCIとして構築した手順をご紹介します。

Azure Stack HCIを導入してみた Vol.1 -Azure Stack HCI構築編- *本編
Azure Stack HCIを導入してみた Vol.2 -管理機能編-
Azure Stack HCIを導入してみた Vol.3 -Azureと連携編-
 

Index


 

はじめに

まず、Azure Stack HCIについて簡単に説明します。現在のAzure Stack HCIは2種類あります。1つはクラウドのAzureがサブスクリプションで提供する専用OSを利用するタイプ、もう1つはWindows Serverで提供される機能を利用するタイプです。今回は後者で検証します。
Windows Server が持つ仮想化機能のHyper-VとSDS(Software defined Storage)機能のS2D(ストレージスペースダイレクト)で、外部ストレージを使用しない仮想基盤であるHCI(ハイパーコンバージドインフラ)を実現します。

私は実機を使った検証や構築は初めての経験になります。そのため、うまくできるのか不安な気持ちと楽しみの気持ちの半々で挑みました。

検証機につきましては、レノボ・エンタープライズ・ソリューションズ様から実機をお借りして行いました。
レノボ・エンタープライズ・ソリューションズ様、ありがとうございます!

今回の検証環境の概要図はこちらになります。お借りしたAzure Stack HCIのハードウェアはLenovo ThinkAgile MXの2ノード(以下、MXサーバー)になります。もう1台、周辺サーバー用にSR630(以下、Hyper-Vサーバー)もあります。オンプレ側はこれら物理サーバー3台を使用して検証を行いました。



 

1. 事前準備

MXサーバーでの構築検証の前に以下を実施しておきます。物理サーバーへのWindows Server 2019インストールには、XClarity Controllerの仮想ファイル(ISOイメージ)のマッピング機能を利用したのでインストール用メディアを用意する必要はありませんでした。

  • Hyper-VサーバーにWindows Server 2019 構築。周辺サーバーを仮想マシンで構築するためHyper-Vを有効にします。
  • MXサーバーの2台にWindows Server 2019 構築。ADドメインにメンバーサーバーとして参加しておきます。
  • 以下の2台の周辺サーバーをSR630のHyper-Vサーバー上に仮想マシンで構築します。
    - 周辺サーバー1:Active Directory ドメインコントローラ(以下、ADサーバー)
    - 周辺サーバー2:Windows Admin Centerサーバー(以下、WACサーバー)*Azure Stack HCIの管理をWACサーバーから行います。WACサーバー自体の構築手順は第2回のブログでお伝えします。


 

2. MXサーバー環境構築

2-1. 必要なコンポーネントの追加

WACサーバーにて、ドメインのadministratorアカウントでMXサーバーに接続します。

「役割と機能」にて”Hyper-V”、”データ重複排除”、”Data Center Bridging”、”フェールオーバークラスタリング”の4つの役割と機能を選択してインストールします(2台とも)。

4つの役割と機能を選択すると関連する必要なコンポーネントもまとめてインストールされます。

2-2. ネットワークの設定

今回設定したAzure Stack HCIのネットワーク構成は以下になります。2台のノード間は直接接続し、外部ネットワーク用の物理スイッチとの接続は各ノードとも1ポートです。

今回のネットワーク設定は「Microsoft Storage Spaces Direct (S2D) Deployment Guide」(以下、デプロイメントガイド)という資料を参考にしました。英語資料ですが接続構成毎に詳細に解説してありますので、ぜひMXサーバー構築の際には一読されることをおすすめします。今回はデプロイメントガイド43ページからの「RoCE: 2-3 nodes, direct-connected」という箇所を参考にしました。

MXサーバーにリモートデスクトップ接続して以下の設定作業を行います。2台ありますのでそれぞれで設定します。

以下はホストOSが認識しているネットワークアダプターです。この後、PowerShellで設定していくので、コマンドの入力をしやすくするために「Slot4 ポート1」「Slot4 ポート2」と言う名前になっているMellanoxアダプターの名前を変更します。

”pNIC1-Port1”、”pNIC1-Port2”とそれぞれ変更しました。

続いて”IBM USB Remote NDIS Network Device”を無効にします。これが有効のままだとこの後のフェールオーバークラスタの設定ウィザードでエラーになるためです。

ここからPowerShellで設定します。デプロイメントガイド49ページに沿って実行していきます。以下の設定を行いました。

  • DCBXプロトコルのブロック(Set-NetQosDcbxSettingコマンド)Set-NetQosDcbxSetting
  • 帯域制御(QoS)の設定(New-NetQosPolicyコマンド)
  • SMB-Directのフローコントロールの有効化(Enable-NetQosFlowControlコマンド)
  • その他通信のフローコントロールの無効化(Disable-NetQosFlowControlコマンド)
  • 通信制御をノード間通信用に適用(Enable-NetAdapterQosコマンド)
  • 最低帯域の設定 – SMB-Directは50%、Cluster-HBは1%(New-NetQosTrafficClassコマンド)
  • Mellanoxアダプターのフロー制御を無効にする(Set-NetAdapterAdvancedPropertyコマンド)
PS C:\Users\Administrator> Set-NetQosDcbxSetting -InterfaceAlias “pNIC1-Port1” -Willing $False

確認

この操作を実行しますか?

Set-NetQosDcbxSetting -Willing $false -InterfaceAlias “pNIC1-Port1”

[Y] はい(Y)  [A] すべて続行(A)  [N] いいえ(N)  [L] すべて無視(L)  [S] 中断(S)  [?] ヘルプ (既定値は “Y”): y

PS C:\Users\Administrator> Set-NetQosDcbxSetting -InterfaceAlias “pNIC1-Port2” -Willing $False

確認

この操作を実行しますか?

Set-NetQosDcbxSetting -Willing $false -InterfaceAlias “pNIC1-Port2”

[Y] はい(Y)  [A] すべて続行(A)  [N] いいえ(N)  [L] すべて無視(L)  [S] 中断(S)  [?] ヘルプ (既定値は “Y”): y

PS C:\Users\Administrator> New-NetQosPolicy -Name “SMB” -NetDirectPortMatchCondition 445 -PriorityValue8021Action 3

Name           : SMB
Owner          : Group Policy (Machine)
NetworkProfile : All
Precedence     : 127
JobObject      :
NetDirectPort  : 445
PriorityValue  : 3

PS C:\Users\Administrator> New-NetQosPolicy -Name “Cluster-HB” -Cluster -PriorityValue8021Action 7

Name           : Cluster-HB
Owner          : Group Policy (Machine)
NetworkProfile : All
Precedence     : 127
Template       : Cluster
JobObject      :
PriorityValue  : 7

PS C:\Users\Administrator> New-NetQosPolicy -Name “Default” -Default -PriorityValue8021Action 0

Name           : Default
Owner          : Group Policy (Machine)
NetworkProfile : All
Precedence     : 127
Template       : Default
JobObject      :
PriorityValue  : 0

PS C:\Users\Administrator> Enable-NetQosFlowControl -Priority 3

PS C:\Users\Administrator> Disable-NetQosFlowControl -Priority 0,1,2,4,5,6,7

PS C:\Users\Administrator> Enable-NetAdapterQos -Name “pNIC1-Port1”

PS C:\Users\Administrator> Enable-NetAdapterQos -Name “pNIC1-Port2”

PS C:\Users\Administrator> New-NetQosTrafficClass “SMB” -Priority 3 -BandwidthPercentage 50 -Algorithm ETS

Name                      Algorithm Bandwidth(%) Priority                  PolicySet        IfIndex IfAlias

—-                       ———       ————        ——–                     ———          ——- ——-
SMB                       ETS              50                      3                               Global

PS C:\Users\Administrator> New-NetQosTrafficClass “Cluster-HB” -Priority 7 -BandwidthPercentage 1 -Algorithm ETS

Name                      Algorithm Bandwidth(%) Priority                  PolicySet        IfIndex IfAlias

—-                      ——— ———— ——–                  ———        ——- ——-

Cluster-HB                ETS       1            7                         Global

PS C:\Users\Administrator> Set-NetAdapterAdvancedProperty -Name “pNIC1-Port1” -RegistryKeyword “*FlowControl” -RegistryValue 0

PS C:\Users\Administrator> Set-NetAdapterAdvancedProperty -Name “pNIC1-Port2” -RegistryKeyword “*FlowControl” -RegistryValue 0

PS C:\Users\Administrator>

次にHyper-Vマネージャーで仮想スイッチを作成します。Hyper-Vマネージャーは[スタート] ボタン-[管理ツール] -[Hyper-V マネージャー] で実行します。
右ペインの[操作] メニューから”仮想スイッチマネージャー”を開き、”新しい仮想ネットワークスイッチ”を選択して、仮想スイッチの種類として”外部”を選択します。

仮想スイッチを以下のように設定して作成します。

  • 仮想スイッチの名前:S2DSwitch
  • 仮想スイッチの種類:”外部ネットワーク”、物理スイッチに接続している物理NICを選択
  • ”管理オペレーティングシステムにこのネットワークアダプターの共有を許可する”にチェック

すると、”vEthernet(S2DSwitch)”という名前のHyper-v Virtual Ethernet Adapterが作成されました。これがホストOSが利用するネットワークアダプターになります。

次に再びPowerShellで設定を行います。デプロイメントガイド50ページに沿って実行していきます。以下の設定を行いました。

  • MellanoxアダプターへのRDMA有効化(Enable-NetAdapterRDMAコマンド)
  • Intelアダプター(em1)へのRDMA無効化(Disable-NetAdapterRDMAコマンド)
PS C:\Users\Administrator> Enable-NetAdapterRDMA -Name “pNIC1-Port1”

PS C:\Users\Administrator> Enable-NetAdapterRDMA -Name “pNIC1-Port2”

PS C:\Users\Administrator> Disable-NetAdapterRDMA -Name “em1”

続いてこの”vEthernet(S2DSwitch)”にホストOS用の固定IPを設定します。

また、物理スイッチに接続した物理NIC(em1)のプロパティを表示し、”インターネットプロトコル バージョン4(TCP/IP V4)”のチェックボックスがオフでIPアドレスが設定できないことを確認します。

続いてノード間通信用に直接接続しているMellanoxの物理NICに固定IPを設定します。外部ネットワークと接続しないのでデフォルトゲートウェイは指定しません。

最後に、設定した固定IPにpingコマンドが正常に実行されればOKです。

以上で本章の最初に示したネットワーク構成になりました。

2-3. フェールオーバークラスタの構成

引き続きMXサーバーにリモートデスクトップ接続して設定を進めます。フェールオーバークラスターマネージャーは[スタート] ボタン-[管理ツール] -[フェールオーバークラスターマネージャー] で実行します。起動したら、右ペインの[操作] メニューから”構成の検証”をクリックします。

「構成の検証ウィザード」が起動します。MXサーバー2台が選択されていることを確認して「次へ」をクリックします。

テストオプション画面で「すべてのテストを実行する」を選択し、次の確認画面を進みます。

下図のように”検証済み”、”成功”と表示されればテストは完了です。「検証されたノードを使用してクラスターを今すぐ作成する」にチェックを入れて完了します。続けてクラスターの作成ウィザードが始まります。

「クラスタ名」と「クラスタ用IPアドレス」を入力し、次の画面で確認します。

クラスタの作成ウィザードが正常に完了したことを確認します。

続いて、作成したクラスタ名を右クリックし、”クラスタークォーラム設定の構成”を選択します。

クラスタクォーラム構成ウィザードを実行します。構成オプション選択画面では”クォーラム監視を選択する”を選択します。

続いて監視の選択画面では”ファイル共有監視を構成する”を選択します。そして次の画面で利用する共有フォルダのぱすを入力します。今回は事前構築したADサーバー(サーバー名:AD01)上に作成した共有フォルダ(¥¥AD01¥quorum)を指定します。

指定した項目を確認して設定を進めます。正常に構成されたことが確認できました。

フェールオーバークラスタマネージャーにて、両方のノードが稼働中であることを確認したらここまでは完了です。

躓きポイント:

この”クラスタークォーラム設定の構成”の設定で1点躓いたのでご紹介します。
最初に実行した際にウィザードの最後で以下のようなエラーとなりました。

調べると共有フォルダのアクセス権が不足していました。作成した共有フォルダのプロパティ画面の「セキュリティ」タブで2台のコンピュータ名とクラスタ名の3つをコンピュータアカウントとしてアクセス権を”フルコントロール”にして追加します。

この後にクラスタクォーラム構成ウィザードを再度実行したら正常に構成されました。

2-4. ディスクの構成(S2Dの有効化)

リモートデスクトップ接続したまま、引き続きS2D(記憶域スペースダイレクト)を有効にしてディスクの構成を行います。まず「ディスクの管理」ツールで各ディスクが以下のように”未割り当て”となっていることを確認します。

PowerShellでS2Dを有効にします。”Enable-ClusterStorageSpacesDirect”コマンドを実行します。

PS C:\Users\Administrator> Enable-ClusterStorageSpacesDirect
確認この操作を実行しますか?ターゲット ’クラスターの記憶域スペース ダイレクトを有効にします’ で操作’nicp-cluster’を実行しています。[Y] はい(Y)  [A] すべて続行(A)  [N] いいえ(N)  [L] すべて無視(L)  [S] 中断(S)  [?] ヘルプ (既定値は “Y”): yNode        EnableReportName
——-       ————————
NICP01   C:\WIndows\Cluster\Reports\EnableClusterS2D on 2021.11.11-14.55.16.htm
PS C:\Users\Administrator>

フェールオーバークラスターマネージャーにて、新しくプールとクラスター仮想ディスク(ClusterPerformanceHistory)が作成されて、どちらもステータスがオンラインであることを確認します。

2-5. ボリューム作成

ここからWACサーバーで設定していきます。
WACサーバーにてクラスタを登録してから、クラスタに接続して作成します。

ボリューム画面から「作成」をクリックし、名前とサイズを入力します。今回はtest-vol01という200GBのボリュームを作成しました。

しばらくするとボリュームが作成されます。状態がOKになっていれば利用できます。

プロパティを確認します。作成直後はこのような状態になります。

フェールオーバークラスターマネージャーからも確認してみます。このようにクラスタの共有ボリュームとして作成されていることが確認できました。

以上で共有ストレージを持たない2ノードのクラスタ構成で共有ディスクが作成できました。

これで仮想マシンを作成できるようになりました。

仮想マシンの作成やMXサーバーでの管理機能について検証してみた内容は第2回のブログでお伝えします。

 

さいごに

実機での検証は所々うまく動作せず、調べたり聞いたりと試しながらでしたが6時間ほどで検証は成功しました!
実際にXClarity Controllerを使ってみると操作性も良く、Enterpriseへアップグレードすることによる仮想ドライブのマッピングも便利でした。

Windows Admin Centerではインターフェースが分かりやすかったので、まだまだ触り始めの私でも十分理解出来ました。

個人的にはネットワークの設定辺りで躓くことが多かったです。参考にした手順書を見習いながら設定を進めましたがうまくいかないこともあり、一つ一つ調べながらの作業となりました。

もう少しネットワークの勉強が必要ですね。

 

構築編は以上になります。
如何でしたでしょうか、次は管理機能編になりますので是非ご覧ください。

 

お問い合わせ

この記事に関するご質問は下記までご連絡ください。

エヌアイシー・パートナーズ株式会社
技術支援本部
E-Mail:nicp_support@NIandC.co.jp

 

その他の記事

2025年06月26日

次世代型のインフラ構築を実現するIBM Fusion HCIがクラウドシフトを加速

公開日:2025-06-26 クラウドファースト時代となり、企業のインフラ構築においてもクラウドネイティブなアーキテクチャをめざす潮流が高まりつつあります。なかでも重要な技術とされるのが、コンテナベースの基盤づくりで、アプリケーションをコンテナ化できれば、その移植性や効率性、スケーラビリティなどが大きく高まり、ビジネスの展開を高速化できると期待が集まっています。 しかし、基盤のコンテナ化は、これまでのシステム構築のあり方と大きく“作法”が異なり、専門のナレッジやスキルが求められます。ただでさえ IT人材が不足している今日、一朝一夕に移行するのは難しく、この点が多くの企業にとって大きなジレンマとなっています。 貴社においても、 「クラウド移行は進めたものの、残るオンプレミスシステムとどう連携させればいいのか」 「自社で腰を据えてAI活用に取り組みたいが、社内リソースが足りない」 などのお悩みはないでしょうか。 今回は、企業が課題を抱えがちな次世代型のインフラ構築をあっさり実現するソリューションIBM Fusion HCIを紹介します。 目次 インフラ基盤が抱える課題 IBM Fusion HCIの概要 インフラ基盤が抱える課題への最適策 IBM Fusion HCIを利用したユースケース 次世代のインフラ基盤への鍵を握るIBM Fusion HCI お問い合わせ インフラ基盤が抱える課題 今日、企業情報システムのインフラ基盤は様々な意味で岐路に立っているといえます。これまで同様の手法では、刻一刻と変化し続けるビジネス環境を受けとめきれず企業競争力を低下させる恐れもあります。 例えば、具体的な危惧の内容として次のようなものがあります。 1. クラウドネイティブなアーキテクチャ導入の高い難易度 クラウドネイティブなアーキテクチャは柔軟性やスケーラビリティを重視した設計手法で、ビジネススピードの向上にも貢献します。しかしその導入には既存のシステムとは手法が異なるため、互換性確保や高度な専門知識を持つ人材の確保といった点に障壁があります。また、従来型の開発手法から移行する際には、文化的変革や技術的理解のギャップが課題になっています。結果、プロジェクトを立ち上げたものの頓挫してしまった、というケースも発生しています。 2. マルチクラウド戦略を推進する上での壁 マルチクラウド戦略とは複数のクラウドサービスを使い分けることで、効率的なリソース管理やリスク分散を実現することを指します。多くの企業が「オンプレとクラウドを統合」または「複数のクラウド環境を最適化」したいと考えています。 しかし、相互接続性やデータ移動に大きな課題があります。また、異なるプロバイダ間での運用調整やコスト管理の複雑化も実践の妨げになりがちです。特に、各クラウド特有の設計要件への対応やパブリッククラウドとプライベートクラウド間のデータ連携には多くのリソースとノウハウが必要です。 3. 自社AIワークロードの拡大 AIワークロードの拡大は、迅速なデータ処理や大量データ解析を可能にします。しかし、これに伴って高性能なインフラ整備が求められます。既存のインフラでは計算負荷が高く、パフォーマンスが著しく制限されるためです。慎重に選定を進めなければ計算資源の増加による費用の急増が発生するリスクがあります。 エッジ環境でのデータ処理や通信コストの抑制に対応できる基盤という観点も重視しなければなりません。開発プロセスの最適化や適切な AIモデルの選定なども大きな課題です。 4. VMware基盤のコスト問題 すべての企業に当てはまるわけではありませんが、仮想化基盤として VMware を採用するのは普遍的なソリューションであり、信頼性の高い仮想化テクノロジーを提供します。 しかし、近年そのコスト問題が大きく取り沙汰されており、ライセンス料や運用費用の高さが企業にとって大きな負担となっています。長期的な予算圧迫を招く可能性があり、特に運用規模が拡大していくビジネス環境の場合、コスト管理が難航するリスクがあります。さらに、技術的な側面では仮想マシン単位でしか運用管理できないという点があり、リソースの効率的な活用に限界があります。 IBM Fusion HCIの概要 IBM Fusion HCI は、上記のようなインフラ課題を解決するために登場したハイパーコンバージドインフラ(HCI)ソリューションです。コンテナ(Red Hat OpenShift、以下 OpenShift)ベースのシステムを構築するために必要な機能をあらかじめすべてパッケージ化しており、コンテナ専用のオール・イン・ワンソリューションといえます。 具体的に必要な機能とは、統合運用管理ダッシュボード、ストレージファイルシステム、バックアップリストア、コンテナ、仮想マシンを指しており、オプションでデータ連携カタログも選択できます。納品後最短4時間で構築が完了し、すぐに使用を開始することができます。 図1:IBM Fusion HCI概念図 これにより、企業において統合データ管理やクラウドとの透過的アクセス、アプリケーションの高速化といった次世代志向のインフラ構築が実現します。また、IBM Fusion HCI はサーバー/スイッチも統合管理でき、サポートを IBM に統一できるという点においても企業の運用管理負荷を大きく軽減することが可能です。AI を含む負荷の高いワークロードにも対応できます。 このプラットフォームで、データ管理、計算リソース、ストレージを効率的に統合できるため、AIアプリケーションの実行に必要な環境がシームレスに整います。例えば、AIモデルのトレーニングや推論処理を高速化するために計算資源にスケーラビリティをもたせるといったことも可能です。さらに、セキュリティ面でも信頼性の高い機能が提供されており、企業の重要なデータを安全に保護します。 インフラ基盤が抱える課題への最適策 IBM Fusion HCI は 導入しやすく柔軟でパフォーマンスに優れたインフラ基盤 です。コンテナベースのシステム構築を進めたい企業にとって最適の選択肢といえ、そのメリットとしては次のようなものがあります。 1. クラウドネイティブへのスムーズな移行を実現 Red Hat OpenShift を基盤とし、これをあらかじめパッケージした HCI であるため、ユーザーはクラウドネイティブなコンテナ基盤を導入する際に設計を始めとした複雑な調整を省けます。また、専用インストーラーを搭載しており導入をスムーズに進めることができるため、製品が到着したその日からデジタルトランスフォーメーションに着手することが可能です。 2. マルチクラウド/エッジ環境への移行 IBM Fusion HCI は、オンプレミス、パブリッククラウド、エッジ環境のどこでも稼働することができます。特に、ハイブリッドクラウドのアプローチを強化するために設計された新しいサービス「IBM Cloud Satellite」を活用すれば、IBM Cloud サービスのメリットを IBM Fusion HCI の環境にも容易に拡張できます。 例えば、データが特定の地域に留まる必要がある法規制に従う際に、IBM Cloud Satellite はその地域でのデプロイメントをサポートしつつ IBM Cloud が提供する最新の AI、セキュリティ、ストレージ機能をオンプレミス環境で利用できます。 この透過的なデータ連携能力は、マルチクラウド環境のデータ制御に大きな力を発揮します。 3. AIワークロードに対する優れた対応力 セルフ型オンプレミスクラウドの提供 IBM Fusion HCI は AIワークロードに特化した柔軟で高度なインフラ基盤を提供します。強みは、watsonx との連携によるセルフ型オンプレミスクラウドの構築が可能 である点です。この連携により、クラウドの利便性をオンプレミス環境に取り入れ、AIモデルのトレーニングやインファレンス(推論)作業をシームレスかつ効率的に進められます。 AI処理に最適化された設計 IBM Fusion HCI には高速な AI処理を実現する設計が施されています。NVIDIA GPU の活用を可能とし、AIモデルのトレーニングや推論の速度を飛躍的に向上させます。また、watsonx.data と組み合わせることでデータクエリのパフォーマンスを従来インフラの最大90倍まで高速化 することが可能です。 エンタープライズグレードのデータ基盤 IBM Fusion HCI はデータレイクハウスとしての機能を提供し、AIワークロードに必要なデータ収集・分析基盤の構築を支援します。エンタープライズ規模の大容量データ管理に対応し高い柔軟性と拡張性を持つため、DX を推進する企業にとって理想的な選択肢と言えます。 4. コスト削減と効率性の向上 VMwareのライセンス費用をカット IBM Fusion HCI は、VMware を利用した仮想化基盤の代替として大幅なコスト削減の可能性とします。物理サーバー上に Red Hat OpenShift環境を直接構築する仕組みによって VMwareライセンス費用や運用コストを削減すると同時に、OpenShift利用における費用も最適化できます。 効率的なリソース管理 コンテナ単位での精細なリソース管理を実現する IBM Fusion HCI は、従来の仮想マシン管理よりも大きな効率性を発揮します。これにより、仮想化環境の課題(例:仮想マシン単位でしかリソースを扱えない問題)を解消し、リソースの使用効率を最大化します。 運用負荷とコストの削減 IBM Fusion HCI は設計・導入・運用にかかる負担を軽減し、運用管理の効率化を達成します。IBM による一元的なサポートが可能なため、トラブル発生時の対応が迅速かつスムーズです。また、watsonx を活用した次世代ワークロードに最適化されており、最新技術を活用しながら長期的なライセンスコストの抑制を実現します。 5. 障害時の運用負荷負担削減 IBM Fusion HCI は、システムの信頼性を高めるために設計された自動監視および報告機能である CallHome機能を搭載しています。そのため、障害発生時に IBM に自動通知でき、運用負担を軽減することができます。統合管理コンソールによりシステムの状態を一元的に確認できるため、トラブルシューティングも容易に行うことができます。 IBM Fusion HCIを利用したユースケース 1. IoTサービスでの利用 製造業で IoTサービスを開始したいという場合、製品や生産機械から IoTデータを収集し、このデータをクラウドなど IoTサービスの拠点に送る必要があります。しかし、生産拠点によってはセキュリティやネットワーク要件が厳しくデータをクラウドに出せないということもあります。 そこで、条件の厳しい工場には IBM Fusion HCI を設置しクラウド同様の IoTサービスを展開することで、エンドユーザーにデータから得られる知見を提供できます。 2. マルチクラウドでの利用 すでに進んでいるクラウド移行を統一管理したい場合にも IBM Fusion HCI は活躍します。例えば、複数クラウドの OpenShift環境に統一したセキュリティポリシーを適用するとした場合、お客様サイトの IBM Fusion HCI を起点として IBM Cloud を介して様々なロケーションの OpenShiftサービスを一元化できます。ポリシーをアップデートする際も変更が自動的に反映されるため、運用管理の負荷が大きく軽減できます。 3. AIワークロードでの利用 AIデータ処理を IBM Fusion HCI上の NVIDIA A100 GPU で実行することができます。これにより、大規模な AIシステムを構成するコアシステムやクラウド上の AIアプリケーションのデータへライブストリーミングすることができます。また、エッジで処理を終えてから、コアシステムやクラウド上のデータレイクやデータウェアハウスに送信するといったことも可能です。 図2:エッジのIBM Fusion HCIでAIデータ処理を実行 次世代のインフラ基盤への鍵を握るIBM Fusion HCI 未来志向のインフラ基盤に求められるのは「柔軟性」「効率性」「スピード」「安全性」です。IBM Fusion HCI は、これらすべてを備えた次世代型のソリューションとして、顧客提案の新しい切り札になると考えられます。 エヌアイシー・パートナーズは、IBM ソフトウェア/ハードウェアの認定ディストリビューターとして、IBM Fusion HCI のお客様への提案をサポートします。また、IBM のソフトウェア製品およびハードウェア製品を組み合わせた最適な提案を提供するとともに、製品の特長や利点をお客様にわかりやすく説明し、お客様・パートナー様のビジネスをサポートしています。 「お客様のニーズや要件に合わせて総合的なIBMソリューションを提案したい」 「IBM製品の機能や適用方法についての問い合わせに適切に対応したい」 「IBM製品の特長や利点を活かしてお客様ビジネスに最適なプランを提示したい」 といったご要望をお持ちの際は、お気軽にエヌアイシー・パートナーズへご相談ください。 お問い合わせ この記事に関するお問い合せは以下のボタンよりお願いいたします。お問い合わせ   .highlighter { background: linear-gradient(transparent 50%, #ffff52 90% 90%, transparent 90%); } .anchor{ display: block; margin-top:-20px; padding-top:40px; } .btn_A{ height:26px; } .btn_A a{ display:block; width:100%; height:100%; text-decoration: none; background:#eb6100; text-align:center; border:1px solid #FFFFFF; color:#FFFFFF; font-size:16px; border-radius:50px; -webkit-border-radius:50px; -moz-border-radius:50px; box-shadow:0px 0px 0px 4px #eb6100; transition: all 0.5s ease; } .btn_A a:hover{ background:#f56500; color:#999999; margin-left:0px; margin-top:0px; box-shadow:0px 0px 0px 4px #f56500; } .bigger { font-size: larger; }

back to top