特集・ブログ
皆さんこんにちは。てくさぽBLOG メンバーの佐野です。 以前にメンバーがBluemix上のデータベースサービスである「dashDB」についての記事を作成しました。(話題のBluemixのトライアルライセンスを活用してBIシステムの構築検証をしてみよう! Vol.1 Bluemixアカウント作成、話題のBluemixのトライアルライセンスを活用してBIシステムの構築検証をしてみよう! Vol.2 dashDBの作成、データLoad) 今回はBluemix上のdashDBにローカルからデータをまとめてアップロードする方法を紹介します。その名も「Bluemix Lift」です。 1.大量データのアップロードにBluemix Liftを使う 以前の記事にあるようなやり方を使って、dashDBに対して手動で都度データをアップロードするという方法もありますが、取り込むテーブル毎にアップロードする必要があります。また、常に手動でのアップロードであるため、最新化をするために手間がかかります。 データの分析用途の場合には複数テーブルにまたがる大量のデータをアップロードする必要がありますので、手動での運用は現実的ではありません。 そのような場合に利用できる有効な方法として「Bluemix Lift」というサービスが用意されています。 Bluemix Liftは以下の特徴を持っています。 1.高速 高速に大容量データを移行するために、高速ファイル転送サービス「Aspera」の技術を利用しています。 2.セキュア Bluemixとプライベート環境をセキュアに接続する「Secure Gateway」を利用します。またAsperaを用いたSSH通信によるセキュリティを確保しています。 3.簡単操作 オンプレミス環境に簡単にセットアップできます。また、WebブラウザからのGUI操作で移行ジョブを定義できます。 1-1.Bluemix Liftのデータ移行フロー Bluemix Liftを利用する前に、どのようなフローでデータをアップロードするのかを簡単にまとめます。 (出典:http://www.ibm.com/developerworks/jp/analytics/library/ba-dashdb-bluemixlift/index.html) 関連するコンポーネントとしては、Bluemix環境とオンプレミス環境を繋ぐための「Secure Gateway」、ローカルのデータをSecure Gatewayへ渡すためのツールである「Slingshot」、最後にデータを移行するためのツールである「Bluemix Lift」この3つがあります。 これらのコンポーネントを利用してdashDBへデータを移行します。 Secure GatewayはBluemixへデータを送信するためのゲートウェイであるため、企業内に最低でも1つ立ててあれば共有して利用できますが、dashDBへ取り込むデータを送るためのSlingshotはデータを送信するシステム毎に必要です。 今回は1台のマシン上のデータをdashDBに取り込むので、Secure GatewayとSlingshotは同一マシンに導入しますが、実運用時にはSlingshotはデータソース毎に導入をするようにして下さい。 1-2.Bluemix Liftを利用する手順 Bluemix Liftを利用するためには以下の手順でインストール・構成設定を行う必要があります。 1.Secure Gatewayの構成(初回のみ) 2.ソースおよびターゲットのConnectionの設定(Slingshotのインストールを含む) 3.Activityの構成と実行 それぞれの具体的な手順についてこれから紹介していきますが、今回は手元にあるWindows 2012R2サーバー上に導入をしていきます。 1-3.Secure Gatewayを構成する 最初にSecure Gatewayを構成します。 ・Bluemixのカタログから「Lift」サービスを選択します。(「データ&分析」サービスのところにあります) ・サービス名を入力し(ここでは「My-Lift」とします)、作成ボタンを押します。 ・表示された画面の「LAUNCH」ボタンを押します。 ・「1. Add Secure Gateway」ボタンを押します。 ・「ゲートウェイの追加」ボタンを押します。 ・ゲートウェイの追加欄にゲートウェイ名を入力し(ここでは「My-Gateway」とします)ゲートウェイの追加ボタンを押します。 ここまででSecure Gatewayの定義が作成されました。 次にSecure Gatewayのクライアントモジュールをダウンロードし導入します。 モジュールは「IBMインストーラ」「Docker」「IBM DataPower」の3種類のサポートされているクライアントが選択できます。今回はWindowsサーバーに導入するため「IBMインストーラ」を選択して進めます。 ・画面を下にスクロールし、「クライアントの接続」ボタンを押します。 ・後で使いますので、表示されている「ゲートウェイID」および「セキュリティー・トークン」をメモ帳などにコピー&ペーストしておきます。右端のアイコンをクリックするだけでクリップボードにコピーされますので便利ですね。 ・Windowsのソフトウェア・インストーラーをダウンロードします。(実際にはお使いのプラットフォームに合わせてソフトウェア・インストーラーをダウンロード下さい。) ・ダウンロードしたプログラムを実行します。 ・インストールフォルダーを聞かれるので任意のパスを指定して「Next」ボタンを押します。(ここでは「C:\Secure Gateway Client」とします) ・CLIの言語を選択し「Next」ボタンを押します。ここでは「English」を選択して進めます。 ・Windowsサービスとして起動するかを聞かれるのでここではチェックを付けずに進めます。 ・Secure Gatewayの「ゲートウェイID」と「セキュリティ・トークン」を聞かれますので、先ほどコピー&ペーストしたものをそれぞれ貼り付けて「Next」ボタンを押します。 ・パスワードはオプションなので今回は特に指定せずに「Install」ボタンを押してインストールを開始します。 インストールが完了したら次はSecure Gatewayを起動します。 今回はコマンドラインを利用しますので、コマンドプロンプトから操作します。 左記の手順でインストールした先のディレクトリ下の「ibm\securegateway\client」ディレクトリへ移動し、以下のコマンドを実行します。 secgw.cmd 起動が成功すると、自動でブラウザが立ち上がり、Secure Gateway Clientの画面が表示されます。 次にACLをセットします。これはこの後にインストールをするSlingshotへSecure Gatewayへのアクセスを許可する設定となります。 Secure Gatewayを起動したコマンドプロンプトで、「acl allow :」コマンドを実行します。(ここでは全ての接続を許可します) ここまででSecure Gatewayの導入設定は完了です。 続きは、こちら↓(※)をご覧ください。 【触ってみた】Bluemix LiftでdashDBにデータをアップロードの”2.ソースおよびターゲットのConnectionの設定” ※ビジネスパートナー専用サイト(MERITひろば)のコンテンツです。ログイン or 新規会員登録が必要となります。 この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp
皆さま、こんにちは。てくさぽBLOG メンバーの 岡田です。 前回のブログ(「Cisco UCSってなんだ?」)で Cisco UCS の特徴をお伝えしましたが、特長を知ると実際に使ってみたくなりますよね。特にUCSの管理インターフェイスであるUCS Managerは使ってみることが理解への一番の早道なのですが、ファブリックインターコネクト(以下 FI)の購入が難しい場合もあるかと思います。 そのような場合にお勧めしたいのが、今回ご紹介する「UCS Platform Emulator(以下 UCS Emulator)」です。 今回は、この UCS Emulator を利用できるようにする手順をご紹介します。 1.UCS Emulatorとは Cisco UCS Managerの設定・管理操作をシミュレートし、どのように機能するかを確認することができます。仮想マシンのディスクイメージとして提供されていますので、簡単に環境構築が可能です。 2.用意するもの 環境構築にあたり、以下をご用意ください。 Cisco.com ID (今回は登録手順の紹介は省略します。) Cisco.com ID登録手順: https://supportforums.cisco.com/sites/default/files/attachments/document/files/cisco_com_registration.201607.pdf 仮想環境(vSphere,Hyper-Vなどのサーバー仮想化環境や、VMware WorkStation/FusionなどのPCでの仮想化環境でも利用できます) Webブラウザ(Microsoft Internet Explorer 6.0 以上,またはMozilla Firefox 3.0 以上) サポートされる仮想環境、Webブラウザの詳細は以下のリリースノートの2ページ目をご確認ください。 https://communities.cisco.com/servlet/JiveServlet/download/69786-4-129067/UCSPE_GMR1_Release_Notes_3_1_2bPE1_Final.pdf IPアドレス 3個(固定IPで利用する場合)/サブネットマスク/デフォルトゲートウェイ 3.ダウンロード まずダウンロードサイトにアクセスし、Cisco.com IDでログインします。 (ダウンロードサイト) https://communities.cisco.com/docs/DOC-37827 ログインしたらファイルをダウンロードします。Zipファイル形式とovaファイル形式の2種類がありますので、ご利用環境によってお選びください。今回はOVAファイルをダウンロードしました。 4.仮想マシンの構築 OVAファイルをデプロイします。OVAファイルのデプロイ方法は一般的な手順と同じですので、ここでは詳細は省略します。 今回は、vSphere 5.0の環境上に構築しました。以降の画面イメージはvSphere クライアント 5.0の画面になります。 まず、vSphere クライアントのメニューバーの「ファイル」-「OVFファイルテンプレートのデプロイ」を選択します。 以降、ウィザード画面には利用環境にあった値を入力してください。これにより仮想マシンが作成されます。では、"UCS Emularor の設定" を行っていきましょう。 続きは、こちら↓(※)をご覧ください。 『Cisco UCS Emulatorを触ってみよう!』 の "5.UCS Emulatorの設定" ※ビジネスパートナー専用サイト(MERITひろば)のコンテンツです。ログイン or 新規会員登録が必要となります。 MERITひろば には、Cisco UCS に関する以下のような製品情報、サポート保守のサービスの情報が提供されております。あわせて、ぜひ、ご活用ください。 ▼10分でわかる『Cisco UCS 製品』まとめ ▼IBMの技術員がサポートする「CISCO UCS IBM保守サービス」 この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp
皆様こんにちは。てくさぽBLOGメンバーの佐野です。 前回の記事の続編になります。 今回はパフォーマンスについてと、可用性について少し補足をしておきます。 1.可用性 Nutanixではないサーバーやストレージでは、可用性を高めるために、通常はRAIDを構成しているかと思います。 このRAIDは確かに可用性を高めることはできますが、ディスクが壊れた後、壊れたディスクを交換しない限り可用性は失われたままの状態となります。交換用のディスクを追加して復旧させることはできますが、RAIDにはパリティの再計算が必須で、全てのディスクのデータを読み込みながら1本分のデータを復旧することとなります。 ディスクの故障を経験したことがある人なら分かると思いますが、このパリティ再計算での復旧には非常に時間がかかります。時間がかかるうえに「もう1本壊れたらどうしよう」と復旧が完了するまで非常に不安な時間が続きます。 Nutanixの場合、データのコピーを別のディスクまたは筐体に保管するため、RAIDのようなパリティの計算が必要ありません。もしディスクが壊れたとしても、自動的に復旧プロセスが走りますが、全データではなく壊れたディスク上にあったデータのみを読み込み、他のディスクへ再度書き込みを行います。 これにより、復旧時間が短くなり、かつ何もしなくても冗長性が保たれた状態になります。 単一の共有ストレージを採用すると、「このストレージが壊れたらどうしよう・・・」と不安に思ってしまいますが、Nutanixではデータが自動的に分散配置されますので、可用性という観点でも安心です。 2.パフォーマンス Nutnix独自の機能として「データローカリティ」があります。 データローカリティとは、データを書き込むとき「自ノードに書き込む+設定されたミラー分のコピーを他筐体に書き込む」動作を示します。言葉で書くと理解しづらいと思いますので、簡単に絵で解説します。 ①仮想マシンから書き込み要求があるとその要求をCVMが受け取ります。 ②CVMが受け取った書き込み要求はローカルのSSDに書き込まれます。 ③同時に他ノードにも書き込み要求を送信します。 ④他ノードのローカルのSSDにデータが書き込まれます。 ⑤②と④が完了した時点で、書き込み完了の応答を仮想マシンに返します。 これにより、ローカルのディスク(SSD)と他ノードに同じデータが書き込まれます。 他社のハイパーコンバージド製品では、この「ローカルにデータを書き込む」ということが保証されません。 他ノードへのデータ転送が1回ではなく2回発生するということがほとんどになり、大きなデータを書き込むことを考えれば想像できると思いますが、1回の書き込みと比べると書き込み完了までにかかる時間が余計にかかってしまいます。 ローカルに必ずデータがあるとどんないいことがあるのか?疑問に思うかと思います。それは読み込み時に威力を発揮します。 図を見てもらえば分かる通り、ローカルにデータがあるため読み込み時には他ノードへアクセスを行わず、自ノード上のデータを読み込むだけで済みます。 自ノード上のデータだけにアクセスすることで、他のノードには影響を与えない。これが重要な点です。 次の章で解説しますが、このアーキテクチャーは「Noisy Neighbor(うるさい隣人)問題」に大きな威力を発揮します。 また、データがローカルにあることでノード間の通信が発生しないため、応答時間についても若干のアドバンテージがあります。Nutanixがデータ転送に使うネットワークである10GbEの場合、1KBのデータを転送するためにかかる時間はおよそ1μ秒(スイッチなどの環境により増減します)程度と非常に小さい時間ですが、塵も積もればなんとやら、Write時と同様に転送するデータ量が多くなれば全体としての応答時間に違いが現れてきます。 3.Noisy Neighbor問題 Noisy Neighborとは何か?まずここから解説します。 仮想環境では一般的に共有ストレージを利用することが多いです。共有ストレージを利用するということは、いろいろなコンポーネントを各仮想マシンが共有で利用するということです。容量効率を高めるために、複数のRAID Arrayを束ねてプール化することがほとんどだと思います。 このプール化された領域が例えば10,000IOPSのパフォーマンスが出せるとしましょう。仮想環境全体で10VMが稼働し各VMが500IOPSを使っている場合、全体で5,000IOPSなので問題なく処理ができます。 しかし、1台のVMが極端に大きな負荷をかけた場合、そのVMが原因で残りの9台のVMのパフォーマンスが低下します。 図の場合では1台が6,000IOPSという負荷をかけて、全体でストレージの処理能力を超える高負荷状態となっています。ストレージの処理能力を超えると、IO要求に安定して応答することができなくなり、応答時間が長くなります。仮に処理能力を超える負荷でなかったとしても、ディスクを共有しているために応答時間が長くなるということが発生します。 被害にあっている(?)9台の仮想マシンは何も悪くないのにパフォーマンスが悪くなる。これが「Noisy Neighbor」と言われる現象です。 前章で解説したNutanixのデータローカリティ機能があれば、この影響範囲を最小限に抑えることができます。 簡単なイメージ図を添付しますが、データがローカルにあるのであれば、負荷はローカルにのみ集中します。そのため、他のノードには影響がありません。 繰り返しになりますが、他社のハイパーコンバージド製品ではデータがローカルにあることが担保されません。ですので、高負荷状態になると全ノードに影響が出てしまいます。 ※画像はイメージです これがNutanixを使うメリットになります。 特にVDIの基盤として利用する場合には、ログイン時の負荷が集中するログインストームやウィルススキャンの負荷など、ディスクIOが高負荷になるきっかけは多々存在します。 パフォーマンスへの影響を局所化することができるNutanixがVDI環境向けの基盤としての採用が多いのは、こういった機能があるから、ということもあるのでしょう。 4.まとめ 可用性について、Nutanixは一般的なRAIDと比べて勝手にデータの冗長性が確保されるということが分かると思います。 過去にディスク障害で徹夜をした経験があるようなお客様には非常に有効なソリューションではないでしょうか。 パフォーマンスについては、高負荷状態になっても影響範囲を最小化できると解説をしました。これはNutanixのデータローカリティが実現し、他社製品にはない機能です。 最後に、Nutanixの動作等に関する情報はバイブルとして公開がされています。是非こちらもご参照ください。 URL:http://nutanixbible.jp/ <関連記事> 今注目の”ハイパー・コンバージド・インフラ”とは ハイパーコンバージド製品のNutanixを解説! ハイパーコンバージド製品のNutanixを解説!vol.2 10分でわかる『Nutanix製品』まとめ ※ MERITひろば 会員サイトにログインが必要 ———- この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp
皆さん、最近「Spark」という言葉をよく耳にされませんか? 「Hadoop と同様ビッグデータを分散処理で扱うソリューション?」「インメモリーで稼動するので高速処理できる開発基盤?」 のような認識をされているかもしれません。 (さらに…)
皆さま、こんにちは。てくさぽBLOG メンバーの 岡田です。 エヌアイシー・パートナーズでは今年度から新たにCisco Unified Computing System(以下 UCS)の取り扱いを始めました。 UCSが発表されてから既に7年近く経っておりますが、再びUCSが注目を浴びています。今回は、これからUCSを検討しようとお考えの皆さんに向けて、その特徴やメリットをお伝えします。 1. Cisco UCS とは ずばり、Cisco社製のIA(Intel Architecture)サーバです。 Intel製CPUが搭載されているので、Windows Server/Linux/VMware ESXiなどの、Intel CPU用のサーバOSがUCS上でも稼働します。 では、なぜネットワーク機器のベンダーであるCiscoがIAサーバを出したのでしょうか。 仮想化が一般化した現在のデータセンターでは、サーバ、ネットワーク、ストレージ、アプリケーションといった各構成要素を個別に構築、デザイン、最適化するサイロ型になっています。その結果として、各コンポーネント個別の管理となり、管理者間の連携の煩雑さや環境変更時の検討項目・調整・検証期間工数の増大が大きな課題となっています。 これらの問題を解決するために、UCS は、仮想環境やクラウド環境で利用されることを念頭に置き、すべてのコンポーネントを全体最適化されたアーキテクチャの下に統合することで、複雑さをなくし、リソース管理を容易にし、最適な仮想環境を実現しています。つまり、サーバやネットワークを大きな1つのリソースとして一元管理することにより、管理・運用がしやすくなるということです。 (UCSの全体最適化されたアーキテクチャ) 2.他社IAサーバとの違い では、UCSは他社IAサーバと比べて、どんなところが違うのでしょうか。UCSが他社IAサーバと異なるところは主に以下の3点になります。 ①ファブリックインターコネクト ユニファイドポートという1Gbまたは10Gbのイーサネットポート、またはファイバーチャネルポートのどちらにも設定できるスイッチポートを搭載したスイッチです。一般的なIAサーバでは、ネットワークスイッチとファイバーチャネルスイッチそれぞれに接続しますが、UCSサーバは基本的にこのファブリックインターコネクトとのみ接続します。 ②UCS Manager ファブリックインターコネクトに搭載された統合管理コンソールです。接続されたBladeサーバ、ラックサーバを一元管理します。 ③サービスプロファイル UCSでは、サーバのハードウェア各種設定情報をサービスプロファイルとして保持し、これを実際のハードウェアに関連付けることでサーバやネットワークの設定を行います。 このような違いを持つUCSを選択すると、どのようなメリットがあるのでしょうか。 3.UCSのメリット ・シンプルな構成 UCSサーバはファブリックインターコネクトとのみ10Gbイーサネットケーブルで接続します。この10Gbイーサネットケーブルの中に、イーサネットとファイバーチャネルの両方のプロトコルが流れます。 これにより、ラック背面のケーブル本数が激減し、より適切なエアフローと低い消費電力を実現します。この結果として、データセンターのファシリティコスト、配線コスト、配線トラブルを削減できます。 ・管理ポイントの削減 UCSでは、サーバやBladeシャーシ毎に管理モジュールを持たず、ファブリックインターコネクト上にあるUCS Managerで一元管理されます。これにより、台数が増えても管理ポイントはUCS Manger1箇所のみのままですので、管理対象が増えません。これにより、個々の機器毎に管理する必要がなくなり、管理工数を削減できます。 ・シンプルな運用 サービスプロファイルを利用することで、構築時や障害発生における機器交換時において時間がかかっていたハードウェア設定作業を大幅に削減することが可能になります。他社IAサーバでは、サーバ導入時にさまざまな設定を個々に実施する必要がありますが、サービスプロファイルを利用するとハードウェアにプロファイルを割り当てるだけでハードウェア設定が完了します。また、機器が届く前にMAC アドレスなどの予約や、BIOS の設定を先にやっておくといったことも可能になります。 ・ラックマウントサーバの統合 ファブリックインターコネクト配下に接続することで、UCS Managerによる統合管理機能を、サーバ形状を問わずに一元管理可能になります。 このような特徴を持つUCSですが、エヌアイシー・パートナーズでは日本IBM社が取り扱う、IBM保守のUCSをお勧めしています。 4.IBM保守 UCSの特徴 IBM技術員によりオンサイト保守を実施します。 スペシャリストによりリモート問題判別支援をおこないます。 保守時間帯の選択が可能です。 UCSの運用を支援するオプション(交換したハードディスクのお渡しサービスと部品2時間配送サービス)を追加できます。 5.まとめ いかがでしたでしょうか。UCSはサーバメーカーとしては後発であることのメリットを活かして、これまでのIAサーバが抱えていた課題を解決できるソリューションを備えています。これにIBM保守を加えることで、ネットワーク機器からサーバまで保守をまとめてIBM社に一元化することができます。現在のデータセンター運用に課題を抱えたお客様にはぜひUCSをご検討ください。 また、エヌアイシー・パートナーズではUCSとIBMストレージ、ネットワークスイッチ等の複雑な組み合わせでの構成でも対応可能です。ご相談からお見積り依頼まで、遠慮無くお申し付けください。 最後に、弊社サイトのUCSページにてラインナップや支援内容などを記載していますので、こちらももぜひ御覧ください。 https://www.nicpartners.co.jp/products/42992/ この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp 商標帰属 ・すべての名称ならびに商標は、それぞれの企業の商標または登録商標です。
こんにちは。てくさぽBLOGメンバーの瓜谷です。 お客様に「見積りを持ってこい!」って言われることありませんか? 概算であれば、Lenovo サーバーは誰でも簡単に構成を作成することができます。 新しく我々エヌアイシー・パートナーズのサーバー構成チームに加わった新人Nさん向けのLenovoサーバー構成教育の一部を公開いたします。 これを見て頂ければ、きっと皆さんも自分でも構成できると思って頂けると思います。 【構成作成の例題】 先輩U:では、単純な構成の例題を出しますのでサーバーのモデルを選定していきましょう。 <例題> サーバータイプ :ラック型 CPU :14core 2ソケット メモリ :32GB HDD :300GB×3(RAID1+HS) ※HS・・・ホットスペア ネットワークポート数 :8ポート OS :VMware(構成には、含めない) 【サーバーモデルを選定する】 新人N: <例題>の情報だけで選定できるんですか? 先輩U:2016年6月の「Lenovo System x サーバーのラインナップ」の表を見てください。 Lenovo System x サーバーのラインナップ 要件は、ラック型の2ソケットとあるのでラック型の列を見ましょう。 ラック型で2ソケット可能なサーバーを参照すると「x3550 M5」と「x3650 M5」の2つのモデルに絞られます。 これらの違いは、HDDとPCIスロットの最大搭載数の違いです。 2Uのx3650 M5の方が、HDDとPCIスロットがたくさん搭載できます。 HDDの要件は、「実効容量300GB×3(RAID1+HS)」ですね。 それほど多くのHDDを搭載する必要がないため「x3550 M5」となります。 ※x3550 M5のHDD最大搭載数 2.5インチモデル 8個(モデルによっては、10個あり。) 3.5インチモデル 4個 先輩U:これで、サーバーモデルが決まりましたね。 <例題> サーバータイプ :ラック型 x3550 M5 CPU :14core 2ソケット メモリ :32GB HDD :300GB×3(RAID1+HS) ※HS・・・ホットスペア ネットワークポート数 :8ポート OS :VMware(構成には、含めない) 先輩U:サーバーモデルが決まったので、ツールを使って構成を作成していきましょう。 続きは、構成作成ガイドツールを使ってみる(※)より参照ください。 ※ ビジネスパートナー専用のコンテンツです。ログイン or 新規会員登録が必要となります。 この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp 商標帰属 すべての名称ならびに商標は、それぞれの企業の商標または登録商標です。
皆様こんにちは。てくさぽBLOG メンバーの佐野です。 今回のブログは、10/5(水)にヒルトンお台場で開催されたNVIDIA主催のカンファレンス「GTC Japan 2016」に参加してきましたので、簡単にフィードバックします。 1.GTC Japan 2016とは? GPUを製造している会社であるNVIDIAが主催のカンファレンスです。GTC=GPU Technology Conferenceの略称です。 GPUを用いた最先端のソリューションや、NVIDIAの最新製品、パートナー企業がブースに出展し各社のソリューションを展示していました。 イベント全般的な感想としては、「ディープラーニング」や「IoT」といった言葉がキーワードとなっていたように感じました。特にディープラーニングについてはセッションも多く、GPUとの相性も抜群なのでキラーソリューションの1つであると思います。 2.基調講演 基調講演は立ち見も出るほどの盛況で、私が数える限りでは約800~1000人程度の参加者がいました。 基調講演にはNVIDIAのCEOのジェン・スン・ファン氏が登壇し基本的には1人で説明をしていました。 内容をまとめると、大きく以下の2点をアピールしていました。 ・ディープラーニング ・自動運転 GPUによるディープラーニングは新しいコンピューティングモデルであるという説明をし、GPUディープラーニングの開発者が25倍に増加しているという事実を公表しました。 GPUディープラーニングはIoTデバイスなどからの情報を分析・学習し、推論した結果を各デバイスにフィードバックするというサイクルでできているということを説明しました。 これを実現している企業として、企業向けロボットの製造会社であるファナック様が登壇して実際の仕組みについてを説明していました。(流ちょうな英語で・・・) ロボットにAIを搭載し、学習することで作業効率性を上げるということを実現しているそうです。 続いてジェン・スン・ファン氏は、IoT機器に搭載することを目的とした小型のGPU搭載マシン「Jetson TX1」を紹介しました。この機器は乾電池と同じ大きさで、動作にはわずか10Wという低消費電力で1Tflopsもの処理能力をもつことが売りです。Jetsonを使えば、各IoT機器が自己学習し動作することが可能となります。 自動運転に関しては「Driveworks Alpha」という自動運転用のオペレーティングシステムを発表しています。 このOSを使うことで、位置情報や周囲の車両・レーンの情報などを把握し、運転をサポートする機能を利用できます。 最後に、今までのソフトウェアを書くだけでは解決できなかった問題を解決するために、ディープラーニングやAIを利用することが重要だということを述べて締めくくりました。 3.セッション 全部のセッションの内容は書ききれないので、IBMセッションの内容について書きます。 IBMセッションは、最近発表した「Power System S822LC」に関するセッションでした。 このモデルは、2つのPOWER8 CPUと4枚のGPU(NVIDIA Tesla P100)を搭載しており、CPUとGPU間はNVLinkで接続されているのが特徴です。 NVLinkを利用するメリットは、x86サーバーでGPUを接続するとPCIe x16での接続となるので帯域は16GB/sにとどまりますが、NVLinkでは2.5倍の40GB/sとなり、高帯域幅を利用することが可能となります。(GPU間もNVLinkでの接続) トポロジー概要は以下になります。 CPU-Memory間でも115GB/sという転送速度ですので、CPUからGPUにデータを渡すところが全体のパフォーマンスのボトルネックとなることが見て取れると思います。 電気通信大学の森下亨様から、この実機を使ったいくつかのシミュレーションを実施し、システムのパフォーマンスがどのようになるのかの検証結果を発表していました。 簡単にいうと、実施したシミュレーションは、大きな行列で表された物質の状態に、状態変化のための係数(行列)を掛け合わせるものです。この掛け算を繰り返すことで、物質の状態がどのように変わるのかをシミュレーションします。 行列の大きさはシミュレーション内容によって変わります。 1つ目のシミュレーションでは、行列の大きさが16GB以内に収まるようなシミュレーションです。 CPUのみで計算した時には約11.51Gflopsでしたが、GPUを利用すると107.10Gflopsと10倍近くのパフォーマンスが得られました。 この場合には、トポロジー図にも記載したように、GraphicsMemory内に全てが格納できてしまいますので、計算を開始してからCPUからGPUにデータが送られるのは1回だけです。 そのため、GPUのパフォーマンスがフルに発揮できたといえます。 2つ目のシミュレーションでは、20GB以上のメモリを利用するようなシミュレーションです。 この結果が興味深いもので、CPUのみで計算した時には約23.86Gflopsでしたが、GPUを利用すると14.84Gflopsと2/3程度に落ち込んでいます。 このシミュレーションでは行列が大きいことでCPUからGPUへの転送が500回発生しており、NVLinkの帯域がCPU-メモリ間の帯域よりも狭いことでパフォーマンスが落ちているようです。 3つ目のシミュレーションでは、物質の状態を表す行列を大きくした場合です。CPUからGPUへのデータ転送は2つ目のシミュレーション同様に500回発生していますが、パフォーマンス結果は異なっています。 CPUのみでは234.71Gflopsでしたが、GPUを利用する場合には483.90Gflopsとなっており、GPUを利用した方が2倍近くの性能を出しています。 これは、計算量が多くなったことでNVLinkの帯域幅が小さいことよりもGPUの処理能力が高いことによるメリットが大きくなったということを示しています。 森下様によると、このシミュレーションにはまだ改善の余地があるということですが、数値が結果として出ているので見ている方としてはイメージがしやすく、メリットもよく分かりました。x86サーバーとは帯域幅が違うので、これだけのパフォーマンスが出るのはPower Systemsだから、というのもありそうです。 このように、GPUが有効に活用できるような計算処理があると、GPUを搭載できるモデルは計算速度に圧倒的なメリットがでてきます。 4.その他 各社の展示では、GPUは関係なさそうな展示もありました。 例えば、こんなのや、 こんなの です。 前者は歩行機械の右に見える画面で歩くときの重心位置をポインティングしていました。(ピンクの丸です) 後者はパワードスーツのようなもので、GPUとの関連性がいまいち分からず・・・ 最後に、休憩時間になると展示ブースは常に人がいっぱいで、本当に盛況なイベントだったと感じました。 <関連情報> ・Power System S822LCのお披露目動画 https://www.youtube.com/watch?v=-8IioY4HplA ———- この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp
皆さま、こんにちは。今回のてくさぽ BLOG は再び Guardium の登場です。 こちらのブログを愛読されている方には、「お腹いっぱいだよ」なんて言われてしまいそうですが、Guardium の魅力はまだまだあるのでご紹介させてください! Guardiumってなに?という方は、こちらをご覧ください♪ ▼データベース監査ソリューション”Guardium”最新バージョン「V10」使ってみた(前編) ▼データベース監査ソリューション”Guardium”最新バージョン「V10」使ってみた(後編) それでは、GuardiumV10 より新機能として追加された Data Protection for Files についてご紹介していきたいと思います。 ◆Data Protection for Files ってなに? Guardium Data Protection for Files 機能とは。。『ファイルアクティビティーを監視する機能』のこと。 「あれあれ? Guardium ってデータベースを監視する製品じゃなかったっけ?」 なんて思ってくれた読者がいたら立派なてくサポーターです! そうなんです! これまでの Guardium はデータベースを監視する製品でしたが、GuardiumV10 よりデータベース監視機能に加えてファイル監視機能が加わりました! 「……んーでも、ファイル監視機能っていわれてもいまいちピンとこない!」という方もいると思うので、Data Protection for Files 機能についてすこーし説明させてください。 ◆Data Protection for Files ってどんなことができるの? こちらの図をごらんください。 上図のように、いつ何時不正なユーザがログサーバやファイルサーバにアクセスするかわかりません。いまも不正なアクセスがあなたの大事なファイルに忍び寄っているかもしれません!! Guardium Data Protection for Files 機能を使用すれば、不正アクセスがあったことをリアルタイムで検知し、メール等で教えてくれます! アクセス制御だってできちゃうんです。 データベースは監視できているけど、ファイルまでは管理できていないよーという方も少なくないのでは? GuardiumV10 より、従来のデータベースアクティビティーを監視するだけでなく、ファイルアクティビティーまで監視できるようになりました。1台で2度おいしい優れもの♪という感じですかね。 「でも、操作方法はどうなの? 簡単じゃないと使いたくないなあー」という人も安心です。 そこは Guardium にお任せです。 見やすくわかりやすく使いやすいところも Guardium の魅力のひとつ。 では、使い方もみてみましょう! ◆Data Protection for Filesを使ってみよう! その1:ライセンス適用 Data Protection for Files機能を使うにはData Protection for Files用のライセンスが必要なので、ライセンスを適用していきます。 セットアップ→ツールとビュー→ライセンスに遷移し、Data Protection for Files用のライセンスキーを入力して、適用ボタンでライセンスを適用します。 その2:ポリシー設定 “その1”でData Protection for Files用ライセンスを適用したことで、”ファイルのためのポリシー・ビルダー”というData Protection for Files用の設定タブが表示されます。 (ライセンスを適用しないとこのタブはでてこないんです!) 保護→セキュリティー・ポリシー→ファイルのためのポリシー・ビルダーに遷移して、ポリシーを設定していきます。 ファイル監視用のポリシー設定画面なので、いままでのポリシー設定画面とは少し違いますね! 赤く囲った、+ボタンでポリシーを追加します。 任意のポリシー名を入力し、赤く囲った、+ボタンでルールを追加します。 ルール名や、監視対象のファイルサーバ又はログサーバを選択します。ポリシー設定にて、データソースを選択するのですね! データソースは、Guardiumエージェント(FS-TAP)を監視対象のサーバへ導入して設定すれば、自動的にこの画面に表示されます。 続いて、ルール・アクションの選択です。アクションは”アラートおよび監査”、”無視”、”監査のみ”、”違反として記録、および監査”の4パターンあるようです。 今回は、”監査のみ”を選択して、重要なファイルにアクセスが発生した時にレポートに表示されるか確認してみましょう。 ルール基準の定義にて、“ファイル・パス”にて、どのファイルに対してアクセスが発生した場合アクションを実行するかという対象を設定します。 今回は、SAMPLE配下のファイルを対象として設定してみましょう。 作成したポリシーを保存して、ポリシー設定は完成です! その3:ポリシー・インストール 次は、ポリシーをインストールしてみましょう。 保護→セキュリティー・ポリシー→ポリシー・インストールでポリシーのインストール画面に遷移します。 現在インストールされているものに上書きするので、”インストールおよびオーバーライド”を選択します。 作成したポリシーがインストールされました! インストール方法は、これまでの Guardium とは変わりないですね! もちろんデータベース監視のポリシーとの同居もできます。 対象ファイルを開いて読み込んだから、READ。 データ持ち出しによるファイルコピーでもREADとなります。 残念ながらコピー先のPCやIPは表示されませんが、リモートデスクトップによる監視対象サーバへログインをした不正の場合は、リモートデスクトップを実行したPCのIPがClient IP欄に表示されます。 素朴な疑問、書き込んだら何とでるのでしょう。WRITEってでるのか?? はい、WRITE でしたね! Sample 配下の”サンプル2ファイル”に文字列を書き込んだら、”WRITE”ログが表示されました。 見やすくてわかりやすくてなんといってもリアルタイムに発見できるのはありがたいですね! ということで、今回はここまで。 ファイル監視のイメージはつきましたでしょうか。 いままでの、データベース監視機能と同様にリアルタイムでファイルの動きが確認できることがわかりました。 Guardiumでデータ監視はばっちりできているけれど、ファイルの監視はこれからという方や、データもファイルも一括監視したいという方にはたいへんおすすめの機能ですね! この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp
皆様こんにちは。てくさぽBLOGメンバーの佐野です。 前回の記事の続編になります。 1.Nutanixのエディション 前回、ソフトウェアに3つのエディション(Starter、Pro、Ulitamate)があるということを書きました。 詳細を書いていなかったので、今回はエディションの違いから説明します。 Starter:最大12ノードまで、データは2重ミラーのみ、その他基本的な機能は利用可能なので、可用性要件が厳しくなければこのエディションです。 Pro:最もスタンダードなエディション。イレイジャー・コーディングやデータの3重ミラー、可用性ドメイン機能でStarterエディションに比べて可用性を高めることができます。またCloud Connect機能でAWSやAzureに仮想マシンをバックアップさせることもできます。 Ultimate:Proエディションの機能に加えて、VMフラッシュモードやマルチサイトDR機能が追加。これらの特殊な要件があった場合に選択します。 差がある機能を一覧にまとめると以下のようになります。 選択の基準としては、 ・基本的にはStarterを選択 ・可用性要件でRF3や可用性ドメイン機能(後述)を使う場合にProエディションを選択 ・災害対策要件がある場合やRDBサーバーとして利用し、パフォーマンスを担保する必要がある場合にはUltimate となります。 2.可用性ドメイン ハードウェアとして、2Uサイズに4ノードが入るモデルがありますが、筐体障害に対応するための機能が「可用性ドメイン」機能となります。 4ノード間で共有しているのは電源のみであり、電源は2重化されていますので、よっぽどのことがない限りは障害で全部が止まるなんてことは起こりませんが、不安に思うユーザー向けの機能です。 Nutanixはデータを2重に書き込むといっても、あくまで違うノードに書き込みをするというだけで、必ず筐体をまたがってデータを保管しているとは限りません。 「可用性ドメイン」機能を使うことで必ずドメインをまたいでデータの書き込みが行われるようになります。イメージ図は以下になります。 可用性ドメインを設定すると、赤色のデータが異なるドメイン上に書き込まれます。これにより、仮に可用性ドメインAの筐体が全障害でダウンしても他のノードにデータが残り、リカバリが可能になります。 3.Cloud Connect あまり他の製品では見かけない機能で「Cloud Connect」というものがあります。 この機能では、Nutanixから仮想マシンをAWSもしくはAzureに保管します。現時点ではクラウドへの一方通行でのバックアップという位置づけです。 他のクラウド環境への対応は未定ですが、今後増えていくかもしれません。 また、Nutanixは「EnterpriseのAWSになる」ことを目指していますので、バックアップだけでなくAWS上に仮想マシンを移動して稼働させるところまで実装する可能性があります。 クラウドとの連携については拡張が見込まれるので要注目です。 4.VMフラッシュモード ここからはUltimateの機能です。 VMフラッシュモードで、仮想マシンの稼働をSSDのみ(もしくはHDDのみ)に限定することができます。 通常では、ホットなデータはSSDに書き込まれ、コールドデータ(=アクセスの少ないデータ)はHDDに保管されます。 仮想マシンのデータを常にSSDに保管することで、常にSSDへのアクセスとしハイパフォーマンスが担保されるようになります。 IOパフォーマンスが求められるRDBやExchangeサーバー向きの機能といえるでしょう。 逆に、アーカイブシステムのようなIOパフォーマンスが求められないシステムにはHDDへ固定化することでSSDのリソースを他サーバーに使ってもらえます。 よい機能だと思いますが、個人的にはこの機能を使いこなすのは非常に難しいのではないかと思います。 5.マルチサイトDR、Metro Availability データセンター間でのデータ同期やフェールオーバーを行うのがこの機能です。 複数サイトにデータをミラーリング(バックアップ)するための機能がマルチサイトDR機能で、多対多でのレプリケーションを実施できます。 Metro Availabilityは、あるサイトが全滅した場合でもデータロスなく別のサイト上で稼働させるための機能です。 VMware SRMが機能イメージとしては一番近いかもしれません。 ただ、日本の環境で考えると、東京-大阪間ではMetro Availabilityを利用するための要件を満たすことができないので、実際に利用することはないかもしれません。 要件が緩和されることに期待です。 6.まとめ 今回はNutanixソフトウェアのエディションと一部機能について解説しました。 Cloud Connectのようにまだ発展途上の機能もあり、フルで活用するのは難しい印象はありますが、基本機能がしっかりしているので基本的な機能を使うだけでも実は十分利用する価値があります。 次回はパフォーマンスに関する話と今年発表された新バージョンv4.6、v4.7で追加された新機能について解説をしていく予定です。 お楽しみに! <関連記事> 今注目の”ハイパー・コンバージド・インフラ”とは ハイパーコンバージド製品のNutanixを解説! ハイパーコンバージド製品のNutanixを解説! vol3 10分でわかる『Nutanix製品』まとめ New! (※ MERITひろば へのログインが必要です。) ---------- この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp
皆様こんにちは。てくさぽBLOGメンバーの佐野です。 4月に書いたハイパーコンバージドの紹介記事が好評のようで、ありがたいです。 今回は皆様も興味があると思いますNutanixについて詳しく書きます。 1.Nutanixとは Nutanixは2009年に創業した会社で、GoogleやFacebookなどをスピンアウトした人々が設立しました。 Nutanixが目指す先は「インビジブルなインフラストラクチャー」です。 インビジブルとは「見えない=意識しなくてよい存在」という意味で、ユーザーや管理者があまり意識せずに簡単に使えるインフラを目指しています。 これを実現するために、Nutanixでは専用ストレージやSANスイッチを排除したシンプルな環境であるハイパー・コンバージド製品をアプライアンスとして提供しています。 ストレージやSANスイッチが存在しないことでストレージの管理スキルが不要となり、サーバー管理者が全てを管理できるようになるため、運用管理の点でお客様にメリットが生まれます。 従来のITインフラスタックとNutanixのインフラスタックの簡単な構成要素の比較図は以下になります。 これを見て頂くと、インフラを構成する要素が大幅に減っていることが分かると思います。 日本ではまだ知名度はそれほど高くありませんが、米国での知名度はかなり高く、NutanixはGartnerの2015年のMagic Quadrantではリーダーの位置づけになっています。 (参考サイト)http://www.slaitconsulting.com/nutanix-leader-2015-gartner-magic-quadrant-integrated-systems/ 2.Nutanixの特徴 Nutanix製品の最大の特長は、GoogleやFacebook、Amazonといった超大規模な独自のシステムのメリット(スケールやメンテナンスの効率化)を一般企業でも利用できるように分散ファイルシステムを独自で開発し、アプライアンスとして提供していることです。 Nutanixアプライアンスは最低3ノードから利用開始でき、1ノード単位で増設することができるため、リソースの利用効率を高めながら拡張していくことが可能です。 拡張の際にも、事前にハイパーバイザーが導入済みで出荷されるため、機器を搭載しネットワークを接続して電源をつなぐだけよく、数十分で利用開始することができます。 もちろん、既存環境に追加・拡張を行う際にシステム停止は必要ありません。 SANやNASがないため、前述のインフラスタックを見ても分かる通り、シンプルな構成となっており障害発生時にも問題の解決がスムーズに行えます。 システム運用開始後には、単一の管理Web画面である”Prism”を見ることで、システムのリソース状況からシステムの状況まで確認することができます。 上に添付してある画像がPrismの画面ですが、画面を縦に4分割して見ると、左から、システム概要、パフォーマンス、システムヘルス、アラートの情報となっています。 このように、日常の運用管理においても単一のWeb画面を確認すればよいため、個別に確認をしなくてはいけない従来の基盤に比べて運用負荷を格段に減らすことができます。 3.Nutanixの信頼性 Nutanixのデータ冗長化は、現在ディスクの冗長化でよく使われるRAIDは利用しておらず、ノード間での2重ミラーリングもしくは3重ミラーリング(Proエディション以上必須)での冗長化となります。 RAIDはノード内でのデータ保護となるため、ノードがダウンすると全てのデータが失われてしまいますが、他のノードにデータをコピーしていればノードダウン時にも復旧ができるのがこのNutanixが採用している方式のメリットです。 また、ノード障害が発生した後、自動的にデータの冗長化を復旧させるセルフヒーリングが発動し、特に管理者が何かの操作を実施しなくても、データの冗長性は確保されます。 副次的な効果として、RAIDのようなパリティーの再計算をしなくて済むので、復旧時間も早く済むことが多いようです。 <イレージャー・コーディング> 2重ミラーリング・3重ミラーリングでは、単純に2倍・3倍のディスク容量が必要となりますが、Nutanixではイレージャー・コーディングもサポートしています。 イレージャー・コーディングはオブジェクトストレージでよく使われるデータ冗長・容量削減の方式です。具体的にはデータを分割し、その分割後のデータに対してパリティを付与することで冗長性を担保します。 簡単にイメージ図を以下に図示しておきます。 メリットは、容量が2重コピーに比べて削減できること、2重コピーと同様に1台のノードがダウンしてもデータが復旧できることが挙げられます。 デメリットは、データの分割・パリティ計算にCPU能力を使ってしまうことです。 処理能力への影響が大きいので、イレージャー・コーディングの利用はコールドデータ(=HDDのデータ)に対してのみの適用が推奨されています。 4.Nutanixの動作 ここからはNutanixでのデータを書き込みと読み込み動作について書きます。 Nutanixでは、IO要求は全てController VM(以下CVM)が処理を行います。CVMは、各ノードに1台だけが稼働し、そのノードに接続しているSSD・HDDに対してIOの処理を行います。 ・データの書き込み時の動作 データ書き込み時(2重ミラーリング)には、 1.ゲストOSからの書き込み要求が発生するとCVMが要求を受け取る 2.ノードのローカルに接続されているSSDに(容量に空きがあれば)データを書き込み 3.他のノード上のCVMへデータの書き込みを要求 4.2.と同様にローカルのSSDにデータを書き込み 5.ゲストOSに書き込み完了の通知 という流れを踏みます。この流れを見てもらえばわかる通り、データは必ず別のノードにミラーリングして書き込みがなされます。 図示すると以下のような流れとなります。 SSDからHDDへは定期的にデータが退避されるようになっていて、アクセス頻度の低いデータをSSDからHDDに移動します。このため、SSDは常に空きがある状態となるため、IOを非常に高速に実行することができます。 ・データ読み込み時の動作 データの読み込み時は、書き込みしたデータがノードのローカルに必ずあるはずですので、ローカルからの読み込みになります。そのため、ノード間の通信が発生せずパフォーマンス上のメリットがあります。 仮にvMotionなどを利用した後で書き込みをしたノード上に仮想マシンが動作していないような場合には、ネットワーク越しに不足しているデータを読み込みますので、ローカルにデータがないからエラーになるというようなことはありません。この場合、読み込んだデータはローカルに保管しますので、2度目以降の読み込み発生時にはノード間の通信は発生しません。 5.ラインナップ NutanixアプライアンスにはNXシリーズと500名以下の企業を対象としたXpressモデルの2種類があります。 現在Xpressモデルの詳細情報を入手できていないので、ここにスペックなどを書くことはできませんが、 ・最大4ノードまで ・ソフトウェアの機能に一部制限あり(専用のXpressエディション) ・ご購入頂ける企業は従業員数500名以下 といった制限がある代わりに、かなり安価にご購入頂けるモデルとなっています。 NXシリーズはXpressモデルのような制限はなく、ソフトウェアも3つのエディション(Starter、Pro、Ulitamate)から選択頂けます。 最新はBroadwell CPUを搭載したG5モデルとなり、以下の4つのモデルがあります。 機器のサイジング結果次第で、どのモデルを選択するのかは変わってきますが、ほとんどの場合がNX-1000シリーズもしくはNX-3000シリーズからスタートします。 お客様環境のNutanixクラスタ内で、複数のモデルを混在させることができますので、まずはNX-1000シリーズから導入し、追加するワークロードに合わせてNX-3000を増設していくなんてこともできます。 モデル設定の際には特に2U4ノードモデルを採用することでラックスペース削減に大きく効いてきますので、是非既存の環境とTCOを比べてみてください。 6.まとめ 本記事ではNutanixに関する概要と少し詳しい解説をお届けいたしました。もっと詳しい内容も書きたかったのですが、記事スペースの関係上、ここまでが限界です。 ご要望や反響が大きければ続編も書きますのでお楽しみに! <関連記事> 今注目の”ハイパー・コンバージド・インフラ”とは ハイパーコンバージド製品のNutanixを解説! Vol.2 ハイパーコンバージド製品のNutanixを解説! Vol.3 10分でわかる『Nutanix製品』まとめ New! (※ MERITひろば へのログインが必要です。) ---------- この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp