特集・ブログ
"SPSS" は1968年に誕生し、汎用機の時代からデータの解析に広く使われており、歴史、実績のある製品です。2009年の IBM による買収で IBM SPSS製品ファミリーとなりました。 当ページでは、なぜ SPSS は今も世界中の多くの現場で採用/利用されているのか、実際にユーザー (企業) への提案やトレーニングを担当しているスペシャリストにその本質を聞き、ポイントをまとめています。これから SPSS を使ってみようと思うユーザーの参考となれば幸いです。 (注記)SPSS 製品は複数のエディションで構成されるファミリー製品ですが、 当記事では、SPSS Statistics もしくは SPSS Modeler を主として記載しています。 結論:GUI が秀逸のため採用、利用されている SPSS はその GUI による操作性がユーザに受け入れられている。製品の採用を検討しているユーザは「これなら自分たちでも利用できそうだ!」と評価し、採用している。 実際の利用ユーザにとっては業務効率をあげるだけでなく処理フローがグラフィカルに分かるため、担当者変更による引き継ぎの負担が低いことがポイントとなっている。 SPSS 製品は業務部門主導で・・・ また、SPSS 製品は、製品選定から導入を含め業務部門システム、業務の実担当が主導となることが多く、情報システム部門の負担も低い「情シスにやさしい」製品と言える。 利用用途は小売・流通業における販売データの分析、会員データ分析、製造業における販売製品の需要予測、また、事故の予防保全から経営状況の予測と幅広く使われ、売上向上や顧客ロイヤルティの向上に成果をあげている。 <現場で受け入れらている主な理由> ライセンスは 1 ユーザから利用可能なため比較的安価にスタートできる 分析シナリオは下図のように ”ストリーム”という形式でアイコンで視覚化され、 わかりやすい アイコン化により作成したロジックの共有や検証がしやすくなり、業務スピードが増す 図:SPSS Modeler のGUIイメージ SPSS 選定の決め手 スペシャリスト曰く「お客様の多くは最初は高度な分析経験はないところからスタートしている」。つまり、これから分析担当者を育てようというユーザが多いのである。 SPSS製品は、無償トライアルが Webサイトからダウンロード可能であり、導入費用自体も比較的安価である点もスタートしやすいポイントだ。 また、分析したい業務やデータにSPSSが適しているかの検討においては、標準で提供されている豊富なサンプルデータや処理フローから目的に合致したモデルを探すこともできる。 筆者も以前、Webアクセスログを分析したい!というきっかけから自身で SPSS Modeler をインストールし、評価したことがある。 分析者を育てるためのトレーニングも、現場にとって気になるポイントだろう。 「3日間ほどの有償トレーニングを受ければ、エンジニアでなくとも SPSS の操作についてはマスターできるし、SPSS の画面から呼び出すヘルプを見ながら操作していくユーザも多い」とスペシャリストは言う。 まずは容易に使ってみることができ、また、ベンダーの支援やトレーニングを受けながら業務に活かしていくことが可能な製品なのである。この点も分析担当を育てたいという企業にとって朗報であり、1つの評価ポイントとなるのであろう。 < 3日間のトレーニングで操作はマスターできる > SPSS 導入時のポイント SPSS 選定までの流れについて紹介してきたが、ここで、SPSS の実際の導入、インストール時に考慮するポイントを伝えながら製品の守備範囲についても触れておこう。 先述してきたように、SPSS は 気軽に自身の PC に導入して使えるが、製品としてはクライアント-サーバ型も提供されている。 SPSS の稼働環境としてどちらの形態を選択するかは、利用部署が複数にわかれるなどデータを共有する必要があるのか、また、データサイズ、分析頻度、ユーザ数なども判断材料となる。 例えば、データサイズを基準に検討する場合、数百万件〜1千万件もの規模になるとサーバ側で処理させることが望ましいため、クライアント―サーバー型をお勧めしている。 SPSS は、小規模環境でのパーソナル的な利用はもちろんのこと、大量データを扱う環境での活用も十分可能な製品なのである。 他社製品と比較した強み 冒頭に示した結論のとおり "GUI が秀逸である点"、つまり操作性の良さが SPSS の最大の強みである。 製品選定では「他製品と比較しても機能面ではそれほど変わらない」という良くあるパターンにおいて、GUI の操作性が優れているという特出した点は選定するポイントとなる。 アナリティクスの大手 SAS の製品や Visual Mining Studio などのマイニングツールを比較し、それぞれの強みを検討するユーザもあるが、操作性で SPSS を選んで間違いはなさそうだ。 大学で広く使われているのも学生でも利用できる操作性であるという証明になるであろう。 また、SPSS は長く使われている歴史のある製品で、不具合 (バグ) が非常に少ないことも有名である。その点も選択理由の 1つとなっていることが容易に推察できる。 R (アール) からの移行ユーザは? "操作性の良さ" という点での例をもう1つ挙げよう。 今このページを見ている皆さんの中には R もしくは R言語と呼ばれるオープンソースのフリーソフトウェアの名称を聞いたことがある方も多いと思われる。 R は世界中の研究者が使っているツールだが、R言語のプログラミング知識が前提となる。 プログラミング知識が前提となる R言語に対し、プログラミング知識が無いユーザーであっても GUI操作で設定できるのが SPSS製品の1つの優れた点でもある。 Rユーザーや R を使った解析の資産がある場合、SPSS で無償で提供されている「SPSS Statistics-Integration Plug-In for R」というプラグインを利用し、両方の特性を活かした連携が可能となる。 実際に R から SPSS へ移行するユーザー、また、R と SPSS 両方を利用している現場も多くあるようだ。 様々な業務、システムに組み込まれているSPSS 最後に、数多くの SPSS導入を支援してきたスペシャリストからは、SPSS の提案、採用の際に見受けられるケースについて以下のような話を聞くことができた。 皆さんも SPSS製品の提案の際には、ぜひ、参考にして欲しい。 SPSS を使うためにデータの整備 (正規化) は必須であり、そのデータ元として DB の存在がある。データ量が増えていくとその DB をアナリティクスに適した、DB2 BLU、Netezza、dashDB などにするケースもある。 データ統合・連携に DataStage のような連携ツールを使う企業もあれば、SPSS 自体を ETL ツールと割り切って運用するユーザーもいる。 顧客データ分析を目的としている場合、IBM Campaign のようなマーケティングツールと合わせて採用するケースもある。 大規模データにも対応できる SPSS Modeler だが、データの処理性能はサーバ側の CPU , メモリーに依存するため、サーバーとして Power System を選択する事例もある。 利用が広がる SPSS 弊社 (エヌアイシー・パートナーズ株式会社) は、ディストリビューターといわれるハードウェア、ソフトウェア製品を販売会社に提供する企業だが、実際の販売データをみてもSPSS ファミリーは新規導入やライセンス追加、保守の更新など取引量が増える傾向がある。 これは「ビッグデータ」という言葉が流行して久しいが、実際は「目の前にあるデータを活用できていないユーザーがまだまだ多い」というスペシャリストの言葉とも重なり、実際の世相を現しているのではないだろうか。 データの活用については、これから本格的な取り組みを始めるという企業、ユーザーも多くあるだろう。これからもデータ分析ツールは必要とされ、SPSS 製品の普及もまだまだ続くに違いない。 データ活用をビジネスに活かしたいと考えている読者は是非とも「無償トライアル」の SPSS 製品を試してみてください。 また、SPSS 製品に関してご不明なことがありましたら、弊社ビジネスパートナーや、こちらの お問い合わせ先 より お気軽にお問合せください。 最後までお読みいただきありがとうございました。
皆さんこんにちは。てくさぽBLOG メンバーの佐野です。 以前にメンバーがBluemix上のデータベースサービスである「dashDB」についての記事を作成しました。(話題のBluemixのトライアルライセンスを活用してBIシステムの構築検証をしてみよう! Vol.1 Bluemixアカウント作成、話題のBluemixのトライアルライセンスを活用してBIシステムの構築検証をしてみよう! Vol.2 dashDBの作成、データLoad) 今回はBluemix上のdashDBにローカルからデータをまとめてアップロードする方法を紹介します。その名も「Bluemix Lift」です。 1.大量データのアップロードにBluemix Liftを使う 以前の記事にあるようなやり方を使って、dashDBに対して手動で都度データをアップロードするという方法もありますが、取り込むテーブル毎にアップロードする必要があります。また、常に手動でのアップロードであるため、最新化をするために手間がかかります。 データの分析用途の場合には複数テーブルにまたがる大量のデータをアップロードする必要がありますので、手動での運用は現実的ではありません。 そのような場合に利用できる有効な方法として「Bluemix Lift」というサービスが用意されています。 Bluemix Liftは以下の特徴を持っています。 1.高速 高速に大容量データを移行するために、高速ファイル転送サービス「Aspera」の技術を利用しています。 2.セキュア Bluemixとプライベート環境をセキュアに接続する「Secure Gateway」を利用します。またAsperaを用いたSSH通信によるセキュリティを確保しています。 3.簡単操作 オンプレミス環境に簡単にセットアップできます。また、WebブラウザからのGUI操作で移行ジョブを定義できます。 1-1.Bluemix Liftのデータ移行フロー Bluemix Liftを利用する前に、どのようなフローでデータをアップロードするのかを簡単にまとめます。 (出典:http://www.ibm.com/developerworks/jp/analytics/library/ba-dashdb-bluemixlift/index.html) 関連するコンポーネントとしては、Bluemix環境とオンプレミス環境を繋ぐための「Secure Gateway」、ローカルのデータをSecure Gatewayへ渡すためのツールである「Slingshot」、最後にデータを移行するためのツールである「Bluemix Lift」この3つがあります。 これらのコンポーネントを利用してdashDBへデータを移行します。 Secure GatewayはBluemixへデータを送信するためのゲートウェイであるため、企業内に最低でも1つ立ててあれば共有して利用できますが、dashDBへ取り込むデータを送るためのSlingshotはデータを送信するシステム毎に必要です。 今回は1台のマシン上のデータをdashDBに取り込むので、Secure GatewayとSlingshotは同一マシンに導入しますが、実運用時にはSlingshotはデータソース毎に導入をするようにして下さい。 1-2.Bluemix Liftを利用する手順 Bluemix Liftを利用するためには以下の手順でインストール・構成設定を行う必要があります。 1.Secure Gatewayの構成(初回のみ) 2.ソースおよびターゲットのConnectionの設定(Slingshotのインストールを含む) 3.Activityの構成と実行 それぞれの具体的な手順についてこれから紹介していきますが、今回は手元にあるWindows 2012R2サーバー上に導入をしていきます。 1-3.Secure Gatewayを構成する 最初にSecure Gatewayを構成します。 ・Bluemixのカタログから「Lift」サービスを選択します。(「データ&分析」サービスのところにあります) ・サービス名を入力し(ここでは「My-Lift」とします)、作成ボタンを押します。 ・表示された画面の「LAUNCH」ボタンを押します。 ・「1. Add Secure Gateway」ボタンを押します。 ・「ゲートウェイの追加」ボタンを押します。 ・ゲートウェイの追加欄にゲートウェイ名を入力し(ここでは「My-Gateway」とします)ゲートウェイの追加ボタンを押します。 ここまででSecure Gatewayの定義が作成されました。 次にSecure Gatewayのクライアントモジュールをダウンロードし導入します。 モジュールは「IBMインストーラ」「Docker」「IBM DataPower」の3種類のサポートされているクライアントが選択できます。今回はWindowsサーバーに導入するため「IBMインストーラ」を選択して進めます。 ・画面を下にスクロールし、「クライアントの接続」ボタンを押します。 ・後で使いますので、表示されている「ゲートウェイID」および「セキュリティー・トークン」をメモ帳などにコピー&ペーストしておきます。右端のアイコンをクリックするだけでクリップボードにコピーされますので便利ですね。 ・Windowsのソフトウェア・インストーラーをダウンロードします。(実際にはお使いのプラットフォームに合わせてソフトウェア・インストーラーをダウンロード下さい。) ・ダウンロードしたプログラムを実行します。 ・インストールフォルダーを聞かれるので任意のパスを指定して「Next」ボタンを押します。(ここでは「C:\Secure Gateway Client」とします) ・CLIの言語を選択し「Next」ボタンを押します。ここでは「English」を選択して進めます。 ・Windowsサービスとして起動するかを聞かれるのでここではチェックを付けずに進めます。 ・Secure Gatewayの「ゲートウェイID」と「セキュリティ・トークン」を聞かれますので、先ほどコピー&ペーストしたものをそれぞれ貼り付けて「Next」ボタンを押します。 ・パスワードはオプションなので今回は特に指定せずに「Install」ボタンを押してインストールを開始します。 インストールが完了したら次はSecure Gatewayを起動します。 今回はコマンドラインを利用しますので、コマンドプロンプトから操作します。 左記の手順でインストールした先のディレクトリ下の「ibm\securegateway\client」ディレクトリへ移動し、以下のコマンドを実行します。 secgw.cmd 起動が成功すると、自動でブラウザが立ち上がり、Secure Gateway Clientの画面が表示されます。 次にACLをセットします。これはこの後にインストールをするSlingshotへSecure Gatewayへのアクセスを許可する設定となります。 Secure Gatewayを起動したコマンドプロンプトで、「acl allow :」コマンドを実行します。(ここでは全ての接続を許可します) ここまででSecure Gatewayの導入設定は完了です。 続きは、こちら↓(※)をご覧ください。 【触ってみた】Bluemix LiftでdashDBにデータをアップロードの”2.ソースおよびターゲットのConnectionの設定” ※ビジネスパートナー専用サイト(MERITひろば)のコンテンツです。ログイン or 新規会員登録が必要となります。 この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp
皆さま、こんにちは。てくさぽBLOG メンバーの 岡田です。 前回のブログ(「Cisco UCSってなんだ?」)で Cisco UCS の特徴をお伝えしましたが、特長を知ると実際に使ってみたくなりますよね。特にUCSの管理インターフェイスであるUCS Managerは使ってみることが理解への一番の早道なのですが、ファブリックインターコネクト(以下 FI)の購入が難しい場合もあるかと思います。 そのような場合にお勧めしたいのが、今回ご紹介する「UCS Platform Emulator(以下 UCS Emulator)」です。 今回は、この UCS Emulator を利用できるようにする手順をご紹介します。 1.UCS Emulatorとは Cisco UCS Managerの設定・管理操作をシミュレートし、どのように機能するかを確認することができます。仮想マシンのディスクイメージとして提供されていますので、簡単に環境構築が可能です。 2.用意するもの 環境構築にあたり、以下をご用意ください。 Cisco.com ID (今回は登録手順の紹介は省略します。) Cisco.com ID登録手順: https://supportforums.cisco.com/sites/default/files/attachments/document/files/cisco_com_registration.201607.pdf 仮想環境(vSphere,Hyper-Vなどのサーバー仮想化環境や、VMware WorkStation/FusionなどのPCでの仮想化環境でも利用できます) Webブラウザ(Microsoft Internet Explorer 6.0 以上,またはMozilla Firefox 3.0 以上) サポートされる仮想環境、Webブラウザの詳細は以下のリリースノートの2ページ目をご確認ください。 https://communities.cisco.com/servlet/JiveServlet/download/69786-4-129067/UCSPE_GMR1_Release_Notes_3_1_2bPE1_Final.pdf IPアドレス 3個(固定IPで利用する場合)/サブネットマスク/デフォルトゲートウェイ 3.ダウンロード まずダウンロードサイトにアクセスし、Cisco.com IDでログインします。 (ダウンロードサイト) https://communities.cisco.com/docs/DOC-37827 ログインしたらファイルをダウンロードします。Zipファイル形式とovaファイル形式の2種類がありますので、ご利用環境によってお選びください。今回はOVAファイルをダウンロードしました。 4.仮想マシンの構築 OVAファイルをデプロイします。OVAファイルのデプロイ方法は一般的な手順と同じですので、ここでは詳細は省略します。 今回は、vSphere 5.0の環境上に構築しました。以降の画面イメージはvSphere クライアント 5.0の画面になります。 まず、vSphere クライアントのメニューバーの「ファイル」-「OVFファイルテンプレートのデプロイ」を選択します。 以降、ウィザード画面には利用環境にあった値を入力してください。これにより仮想マシンが作成されます。では、"UCS Emularor の設定" を行っていきましょう。 続きは、こちら↓(※)をご覧ください。 『Cisco UCS Emulatorを触ってみよう!』 の "5.UCS Emulatorの設定" ※ビジネスパートナー専用サイト(MERITひろば)のコンテンツです。ログイン or 新規会員登録が必要となります。 MERITひろば には、Cisco UCS に関する以下のような製品情報、サポート保守のサービスの情報が提供されております。あわせて、ぜひ、ご活用ください。 ▼10分でわかる『Cisco UCS 製品』まとめ ▼IBMの技術員がサポートする「CISCO UCS IBM保守サービス」 この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp
皆様こんにちは。てくさぽBLOGメンバーの佐野です。 前回の記事の続編になります。 今回はパフォーマンスについてと、可用性について少し補足をしておきます。 1.可用性 Nutanixではないサーバーやストレージでは、可用性を高めるために、通常はRAIDを構成しているかと思います。 このRAIDは確かに可用性を高めることはできますが、ディスクが壊れた後、壊れたディスクを交換しない限り可用性は失われたままの状態となります。交換用のディスクを追加して復旧させることはできますが、RAIDにはパリティの再計算が必須で、全てのディスクのデータを読み込みながら1本分のデータを復旧することとなります。 ディスクの故障を経験したことがある人なら分かると思いますが、このパリティ再計算での復旧には非常に時間がかかります。時間がかかるうえに「もう1本壊れたらどうしよう」と復旧が完了するまで非常に不安な時間が続きます。 Nutanixの場合、データのコピーを別のディスクまたは筐体に保管するため、RAIDのようなパリティの計算が必要ありません。もしディスクが壊れたとしても、自動的に復旧プロセスが走りますが、全データではなく壊れたディスク上にあったデータのみを読み込み、他のディスクへ再度書き込みを行います。 これにより、復旧時間が短くなり、かつ何もしなくても冗長性が保たれた状態になります。 単一の共有ストレージを採用すると、「このストレージが壊れたらどうしよう・・・」と不安に思ってしまいますが、Nutanixではデータが自動的に分散配置されますので、可用性という観点でも安心です。 2.パフォーマンス Nutnix独自の機能として「データローカリティ」があります。 データローカリティとは、データを書き込むとき「自ノードに書き込む+設定されたミラー分のコピーを他筐体に書き込む」動作を示します。言葉で書くと理解しづらいと思いますので、簡単に絵で解説します。 ①仮想マシンから書き込み要求があるとその要求をCVMが受け取ります。 ②CVMが受け取った書き込み要求はローカルのSSDに書き込まれます。 ③同時に他ノードにも書き込み要求を送信します。 ④他ノードのローカルのSSDにデータが書き込まれます。 ⑤②と④が完了した時点で、書き込み完了の応答を仮想マシンに返します。 これにより、ローカルのディスク(SSD)と他ノードに同じデータが書き込まれます。 他社のハイパーコンバージド製品では、この「ローカルにデータを書き込む」ということが保証されません。 他ノードへのデータ転送が1回ではなく2回発生するということがほとんどになり、大きなデータを書き込むことを考えれば想像できると思いますが、1回の書き込みと比べると書き込み完了までにかかる時間が余計にかかってしまいます。 ローカルに必ずデータがあるとどんないいことがあるのか?疑問に思うかと思います。それは読み込み時に威力を発揮します。 図を見てもらえば分かる通り、ローカルにデータがあるため読み込み時には他ノードへアクセスを行わず、自ノード上のデータを読み込むだけで済みます。 自ノード上のデータだけにアクセスすることで、他のノードには影響を与えない。これが重要な点です。 次の章で解説しますが、このアーキテクチャーは「Noisy Neighbor(うるさい隣人)問題」に大きな威力を発揮します。 また、データがローカルにあることでノード間の通信が発生しないため、応答時間についても若干のアドバンテージがあります。Nutanixがデータ転送に使うネットワークである10GbEの場合、1KBのデータを転送するためにかかる時間はおよそ1μ秒(スイッチなどの環境により増減します)程度と非常に小さい時間ですが、塵も積もればなんとやら、Write時と同様に転送するデータ量が多くなれば全体としての応答時間に違いが現れてきます。 3.Noisy Neighbor問題 Noisy Neighborとは何か?まずここから解説します。 仮想環境では一般的に共有ストレージを利用することが多いです。共有ストレージを利用するということは、いろいろなコンポーネントを各仮想マシンが共有で利用するということです。容量効率を高めるために、複数のRAID Arrayを束ねてプール化することがほとんどだと思います。 このプール化された領域が例えば10,000IOPSのパフォーマンスが出せるとしましょう。仮想環境全体で10VMが稼働し各VMが500IOPSを使っている場合、全体で5,000IOPSなので問題なく処理ができます。 しかし、1台のVMが極端に大きな負荷をかけた場合、そのVMが原因で残りの9台のVMのパフォーマンスが低下します。 図の場合では1台が6,000IOPSという負荷をかけて、全体でストレージの処理能力を超える高負荷状態となっています。ストレージの処理能力を超えると、IO要求に安定して応答することができなくなり、応答時間が長くなります。仮に処理能力を超える負荷でなかったとしても、ディスクを共有しているために応答時間が長くなるということが発生します。 被害にあっている(?)9台の仮想マシンは何も悪くないのにパフォーマンスが悪くなる。これが「Noisy Neighbor」と言われる現象です。 前章で解説したNutanixのデータローカリティ機能があれば、この影響範囲を最小限に抑えることができます。 簡単なイメージ図を添付しますが、データがローカルにあるのであれば、負荷はローカルにのみ集中します。そのため、他のノードには影響がありません。 繰り返しになりますが、他社のハイパーコンバージド製品ではデータがローカルにあることが担保されません。ですので、高負荷状態になると全ノードに影響が出てしまいます。 ※画像はイメージです これがNutanixを使うメリットになります。 特にVDIの基盤として利用する場合には、ログイン時の負荷が集中するログインストームやウィルススキャンの負荷など、ディスクIOが高負荷になるきっかけは多々存在します。 パフォーマンスへの影響を局所化することができるNutanixがVDI環境向けの基盤としての採用が多いのは、こういった機能があるから、ということもあるのでしょう。 4.まとめ 可用性について、Nutanixは一般的なRAIDと比べて勝手にデータの冗長性が確保されるということが分かると思います。 過去にディスク障害で徹夜をした経験があるようなお客様には非常に有効なソリューションではないでしょうか。 パフォーマンスについては、高負荷状態になっても影響範囲を最小化できると解説をしました。これはNutanixのデータローカリティが実現し、他社製品にはない機能です。 最後に、Nutanixの動作等に関する情報はバイブルとして公開がされています。是非こちらもご参照ください。 URL:http://nutanixbible.jp/ <関連記事> 今注目の”ハイパー・コンバージド・インフラ”とは ハイパーコンバージド製品のNutanixを解説! ハイパーコンバージド製品のNutanixを解説!vol.2 10分でわかる『Nutanix製品』まとめ ※ MERITひろば 会員サイトにログインが必要 ———- この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp
皆さん、最近「Spark」という言葉をよく耳にされませんか? 「Hadoop と同様ビッグデータを分散処理で扱うソリューション?」「インメモリーで稼動するので高速処理できる開発基盤?」 のような認識をされているかもしれません。 (さらに…)
皆さま、こんにちは。てくさぽBLOG メンバーの 岡田です。 エヌアイシー・パートナーズでは今年度から新たにCisco Unified Computing System(以下 UCS)の取り扱いを始めました。 UCSが発表されてから既に7年近く経っておりますが、再びUCSが注目を浴びています。今回は、これからUCSを検討しようとお考えの皆さんに向けて、その特徴やメリットをお伝えします。 1. Cisco UCS とは ずばり、Cisco社製のIA(Intel Architecture)サーバです。 Intel製CPUが搭載されているので、Windows Server/Linux/VMware ESXiなどの、Intel CPU用のサーバOSがUCS上でも稼働します。 では、なぜネットワーク機器のベンダーであるCiscoがIAサーバを出したのでしょうか。 仮想化が一般化した現在のデータセンターでは、サーバ、ネットワーク、ストレージ、アプリケーションといった各構成要素を個別に構築、デザイン、最適化するサイロ型になっています。その結果として、各コンポーネント個別の管理となり、管理者間の連携の煩雑さや環境変更時の検討項目・調整・検証期間工数の増大が大きな課題となっています。 これらの問題を解決するために、UCS は、仮想環境やクラウド環境で利用されることを念頭に置き、すべてのコンポーネントを全体最適化されたアーキテクチャの下に統合することで、複雑さをなくし、リソース管理を容易にし、最適な仮想環境を実現しています。つまり、サーバやネットワークを大きな1つのリソースとして一元管理することにより、管理・運用がしやすくなるということです。 (UCSの全体最適化されたアーキテクチャ) 2.他社IAサーバとの違い では、UCSは他社IAサーバと比べて、どんなところが違うのでしょうか。UCSが他社IAサーバと異なるところは主に以下の3点になります。 ①ファブリックインターコネクト ユニファイドポートという1Gbまたは10Gbのイーサネットポート、またはファイバーチャネルポートのどちらにも設定できるスイッチポートを搭載したスイッチです。一般的なIAサーバでは、ネットワークスイッチとファイバーチャネルスイッチそれぞれに接続しますが、UCSサーバは基本的にこのファブリックインターコネクトとのみ接続します。 ②UCS Manager ファブリックインターコネクトに搭載された統合管理コンソールです。接続されたBladeサーバ、ラックサーバを一元管理します。 ③サービスプロファイル UCSでは、サーバのハードウェア各種設定情報をサービスプロファイルとして保持し、これを実際のハードウェアに関連付けることでサーバやネットワークの設定を行います。 このような違いを持つUCSを選択すると、どのようなメリットがあるのでしょうか。 3.UCSのメリット ・シンプルな構成 UCSサーバはファブリックインターコネクトとのみ10Gbイーサネットケーブルで接続します。この10Gbイーサネットケーブルの中に、イーサネットとファイバーチャネルの両方のプロトコルが流れます。 これにより、ラック背面のケーブル本数が激減し、より適切なエアフローと低い消費電力を実現します。この結果として、データセンターのファシリティコスト、配線コスト、配線トラブルを削減できます。 ・管理ポイントの削減 UCSでは、サーバやBladeシャーシ毎に管理モジュールを持たず、ファブリックインターコネクト上にあるUCS Managerで一元管理されます。これにより、台数が増えても管理ポイントはUCS Manger1箇所のみのままですので、管理対象が増えません。これにより、個々の機器毎に管理する必要がなくなり、管理工数を削減できます。 ・シンプルな運用 サービスプロファイルを利用することで、構築時や障害発生における機器交換時において時間がかかっていたハードウェア設定作業を大幅に削減することが可能になります。他社IAサーバでは、サーバ導入時にさまざまな設定を個々に実施する必要がありますが、サービスプロファイルを利用するとハードウェアにプロファイルを割り当てるだけでハードウェア設定が完了します。また、機器が届く前にMAC アドレスなどの予約や、BIOS の設定を先にやっておくといったことも可能になります。 ・ラックマウントサーバの統合 ファブリックインターコネクト配下に接続することで、UCS Managerによる統合管理機能を、サーバ形状を問わずに一元管理可能になります。 このような特徴を持つUCSですが、エヌアイシー・パートナーズでは日本IBM社が取り扱う、IBM保守のUCSをお勧めしています。 4.IBM保守 UCSの特徴 IBM技術員によりオンサイト保守を実施します。 スペシャリストによりリモート問題判別支援をおこないます。 保守時間帯の選択が可能です。 UCSの運用を支援するオプション(交換したハードディスクのお渡しサービスと部品2時間配送サービス)を追加できます。 5.まとめ いかがでしたでしょうか。UCSはサーバメーカーとしては後発であることのメリットを活かして、これまでのIAサーバが抱えていた課題を解決できるソリューションを備えています。これにIBM保守を加えることで、ネットワーク機器からサーバまで保守をまとめてIBM社に一元化することができます。現在のデータセンター運用に課題を抱えたお客様にはぜひUCSをご検討ください。 また、エヌアイシー・パートナーズではUCSとIBMストレージ、ネットワークスイッチ等の複雑な組み合わせでの構成でも対応可能です。ご相談からお見積り依頼まで、遠慮無くお申し付けください。 最後に、弊社サイトのUCSページにてラインナップや支援内容などを記載していますので、こちらももぜひ御覧ください。 https://www.nicpartners.co.jp/products/42992/ この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp 商標帰属 ・すべての名称ならびに商標は、それぞれの企業の商標または登録商標です。
こんにちは。てくさぽBLOGメンバーの瓜谷です。 お客様に「見積りを持ってこい!」って言われることありませんか? 概算であれば、Lenovo サーバーは誰でも簡単に構成を作成することができます。 新しく我々エヌアイシー・パートナーズのサーバー構成チームに加わった新人Nさん向けのLenovoサーバー構成教育の一部を公開いたします。 これを見て頂ければ、きっと皆さんも自分でも構成できると思って頂けると思います。 【構成作成の例題】 先輩U:では、単純な構成の例題を出しますのでサーバーのモデルを選定していきましょう。 <例題> サーバータイプ :ラック型 CPU :14core 2ソケット メモリ :32GB HDD :300GB×3(RAID1+HS) ※HS・・・ホットスペア ネットワークポート数 :8ポート OS :VMware(構成には、含めない) 【サーバーモデルを選定する】 新人N: <例題>の情報だけで選定できるんですか? 先輩U:2016年6月の「Lenovo System x サーバーのラインナップ」の表を見てください。 Lenovo System x サーバーのラインナップ 要件は、ラック型の2ソケットとあるのでラック型の列を見ましょう。 ラック型で2ソケット可能なサーバーを参照すると「x3550 M5」と「x3650 M5」の2つのモデルに絞られます。 これらの違いは、HDDとPCIスロットの最大搭載数の違いです。 2Uのx3650 M5の方が、HDDとPCIスロットがたくさん搭載できます。 HDDの要件は、「実効容量300GB×3(RAID1+HS)」ですね。 それほど多くのHDDを搭載する必要がないため「x3550 M5」となります。 ※x3550 M5のHDD最大搭載数 2.5インチモデル 8個(モデルによっては、10個あり。) 3.5インチモデル 4個 先輩U:これで、サーバーモデルが決まりましたね。 <例題> サーバータイプ :ラック型 x3550 M5 CPU :14core 2ソケット メモリ :32GB HDD :300GB×3(RAID1+HS) ※HS・・・ホットスペア ネットワークポート数 :8ポート OS :VMware(構成には、含めない) 先輩U:サーバーモデルが決まったので、ツールを使って構成を作成していきましょう。 続きは、構成作成ガイドツールを使ってみる(※)より参照ください。 ※ ビジネスパートナー専用のコンテンツです。ログイン or 新規会員登録が必要となります。 この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp 商標帰属 すべての名称ならびに商標は、それぞれの企業の商標または登録商標です。
皆様こんにちは。てくさぽBLOG メンバーの佐野です。 今回のブログは、10/5(水)にヒルトンお台場で開催されたNVIDIA主催のカンファレンス「GTC Japan 2016」に参加してきましたので、簡単にフィードバックします。 1.GTC Japan 2016とは? GPUを製造している会社であるNVIDIAが主催のカンファレンスです。GTC=GPU Technology Conferenceの略称です。 GPUを用いた最先端のソリューションや、NVIDIAの最新製品、パートナー企業がブースに出展し各社のソリューションを展示していました。 イベント全般的な感想としては、「ディープラーニング」や「IoT」といった言葉がキーワードとなっていたように感じました。特にディープラーニングについてはセッションも多く、GPUとの相性も抜群なのでキラーソリューションの1つであると思います。 2.基調講演 基調講演は立ち見も出るほどの盛況で、私が数える限りでは約800~1000人程度の参加者がいました。 基調講演にはNVIDIAのCEOのジェン・スン・ファン氏が登壇し基本的には1人で説明をしていました。 内容をまとめると、大きく以下の2点をアピールしていました。 ・ディープラーニング ・自動運転 GPUによるディープラーニングは新しいコンピューティングモデルであるという説明をし、GPUディープラーニングの開発者が25倍に増加しているという事実を公表しました。 GPUディープラーニングはIoTデバイスなどからの情報を分析・学習し、推論した結果を各デバイスにフィードバックするというサイクルでできているということを説明しました。 これを実現している企業として、企業向けロボットの製造会社であるファナック様が登壇して実際の仕組みについてを説明していました。(流ちょうな英語で・・・) ロボットにAIを搭載し、学習することで作業効率性を上げるということを実現しているそうです。 続いてジェン・スン・ファン氏は、IoT機器に搭載することを目的とした小型のGPU搭載マシン「Jetson TX1」を紹介しました。この機器は乾電池と同じ大きさで、動作にはわずか10Wという低消費電力で1Tflopsもの処理能力をもつことが売りです。Jetsonを使えば、各IoT機器が自己学習し動作することが可能となります。 自動運転に関しては「Driveworks Alpha」という自動運転用のオペレーティングシステムを発表しています。 このOSを使うことで、位置情報や周囲の車両・レーンの情報などを把握し、運転をサポートする機能を利用できます。 最後に、今までのソフトウェアを書くだけでは解決できなかった問題を解決するために、ディープラーニングやAIを利用することが重要だということを述べて締めくくりました。 3.セッション 全部のセッションの内容は書ききれないので、IBMセッションの内容について書きます。 IBMセッションは、最近発表した「Power System S822LC」に関するセッションでした。 このモデルは、2つのPOWER8 CPUと4枚のGPU(NVIDIA Tesla P100)を搭載しており、CPUとGPU間はNVLinkで接続されているのが特徴です。 NVLinkを利用するメリットは、x86サーバーでGPUを接続するとPCIe x16での接続となるので帯域は16GB/sにとどまりますが、NVLinkでは2.5倍の40GB/sとなり、高帯域幅を利用することが可能となります。(GPU間もNVLinkでの接続) トポロジー概要は以下になります。 CPU-Memory間でも115GB/sという転送速度ですので、CPUからGPUにデータを渡すところが全体のパフォーマンスのボトルネックとなることが見て取れると思います。 電気通信大学の森下亨様から、この実機を使ったいくつかのシミュレーションを実施し、システムのパフォーマンスがどのようになるのかの検証結果を発表していました。 簡単にいうと、実施したシミュレーションは、大きな行列で表された物質の状態に、状態変化のための係数(行列)を掛け合わせるものです。この掛け算を繰り返すことで、物質の状態がどのように変わるのかをシミュレーションします。 行列の大きさはシミュレーション内容によって変わります。 1つ目のシミュレーションでは、行列の大きさが16GB以内に収まるようなシミュレーションです。 CPUのみで計算した時には約11.51Gflopsでしたが、GPUを利用すると107.10Gflopsと10倍近くのパフォーマンスが得られました。 この場合には、トポロジー図にも記載したように、GraphicsMemory内に全てが格納できてしまいますので、計算を開始してからCPUからGPUにデータが送られるのは1回だけです。 そのため、GPUのパフォーマンスがフルに発揮できたといえます。 2つ目のシミュレーションでは、20GB以上のメモリを利用するようなシミュレーションです。 この結果が興味深いもので、CPUのみで計算した時には約23.86Gflopsでしたが、GPUを利用すると14.84Gflopsと2/3程度に落ち込んでいます。 このシミュレーションでは行列が大きいことでCPUからGPUへの転送が500回発生しており、NVLinkの帯域がCPU-メモリ間の帯域よりも狭いことでパフォーマンスが落ちているようです。 3つ目のシミュレーションでは、物質の状態を表す行列を大きくした場合です。CPUからGPUへのデータ転送は2つ目のシミュレーション同様に500回発生していますが、パフォーマンス結果は異なっています。 CPUのみでは234.71Gflopsでしたが、GPUを利用する場合には483.90Gflopsとなっており、GPUを利用した方が2倍近くの性能を出しています。 これは、計算量が多くなったことでNVLinkの帯域幅が小さいことよりもGPUの処理能力が高いことによるメリットが大きくなったということを示しています。 森下様によると、このシミュレーションにはまだ改善の余地があるということですが、数値が結果として出ているので見ている方としてはイメージがしやすく、メリットもよく分かりました。x86サーバーとは帯域幅が違うので、これだけのパフォーマンスが出るのはPower Systemsだから、というのもありそうです。 このように、GPUが有効に活用できるような計算処理があると、GPUを搭載できるモデルは計算速度に圧倒的なメリットがでてきます。 4.その他 各社の展示では、GPUは関係なさそうな展示もありました。 例えば、こんなのや、 こんなの です。 前者は歩行機械の右に見える画面で歩くときの重心位置をポインティングしていました。(ピンクの丸です) 後者はパワードスーツのようなもので、GPUとの関連性がいまいち分からず・・・ 最後に、休憩時間になると展示ブースは常に人がいっぱいで、本当に盛況なイベントだったと感じました。 <関連情報> ・Power System S822LCのお披露目動画 https://www.youtube.com/watch?v=-8IioY4HplA ———- この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp
皆さま、こんにちは。今回のてくさぽ BLOG は再び Guardium の登場です。 こちらのブログを愛読されている方には、「お腹いっぱいだよ」なんて言われてしまいそうですが、Guardium の魅力はまだまだあるのでご紹介させてください! Guardiumってなに?という方は、こちらをご覧ください♪ ▼データベース監査ソリューション”Guardium”最新バージョン「V10」使ってみた(前編) ▼データベース監査ソリューション”Guardium”最新バージョン「V10」使ってみた(後編) それでは、GuardiumV10 より新機能として追加された Data Protection for Files についてご紹介していきたいと思います。 ◆Data Protection for Files ってなに? Guardium Data Protection for Files 機能とは。。『ファイルアクティビティーを監視する機能』のこと。 「あれあれ? Guardium ってデータベースを監視する製品じゃなかったっけ?」 なんて思ってくれた読者がいたら立派なてくサポーターです! そうなんです! これまでの Guardium はデータベースを監視する製品でしたが、GuardiumV10 よりデータベース監視機能に加えてファイル監視機能が加わりました! 「……んーでも、ファイル監視機能っていわれてもいまいちピンとこない!」という方もいると思うので、Data Protection for Files 機能についてすこーし説明させてください。 ◆Data Protection for Files ってどんなことができるの? こちらの図をごらんください。 上図のように、いつ何時不正なユーザがログサーバやファイルサーバにアクセスするかわかりません。いまも不正なアクセスがあなたの大事なファイルに忍び寄っているかもしれません!! Guardium Data Protection for Files 機能を使用すれば、不正アクセスがあったことをリアルタイムで検知し、メール等で教えてくれます! アクセス制御だってできちゃうんです。 データベースは監視できているけど、ファイルまでは管理できていないよーという方も少なくないのでは? GuardiumV10 より、従来のデータベースアクティビティーを監視するだけでなく、ファイルアクティビティーまで監視できるようになりました。1台で2度おいしい優れもの♪という感じですかね。 「でも、操作方法はどうなの? 簡単じゃないと使いたくないなあー」という人も安心です。 そこは Guardium にお任せです。 見やすくわかりやすく使いやすいところも Guardium の魅力のひとつ。 では、使い方もみてみましょう! ◆Data Protection for Filesを使ってみよう! その1:ライセンス適用 Data Protection for Files機能を使うにはData Protection for Files用のライセンスが必要なので、ライセンスを適用していきます。 セットアップ→ツールとビュー→ライセンスに遷移し、Data Protection for Files用のライセンスキーを入力して、適用ボタンでライセンスを適用します。 その2:ポリシー設定 “その1”でData Protection for Files用ライセンスを適用したことで、”ファイルのためのポリシー・ビルダー”というData Protection for Files用の設定タブが表示されます。 (ライセンスを適用しないとこのタブはでてこないんです!) 保護→セキュリティー・ポリシー→ファイルのためのポリシー・ビルダーに遷移して、ポリシーを設定していきます。 ファイル監視用のポリシー設定画面なので、いままでのポリシー設定画面とは少し違いますね! 赤く囲った、+ボタンでポリシーを追加します。 任意のポリシー名を入力し、赤く囲った、+ボタンでルールを追加します。 ルール名や、監視対象のファイルサーバ又はログサーバを選択します。ポリシー設定にて、データソースを選択するのですね! データソースは、Guardiumエージェント(FS-TAP)を監視対象のサーバへ導入して設定すれば、自動的にこの画面に表示されます。 続いて、ルール・アクションの選択です。アクションは”アラートおよび監査”、”無視”、”監査のみ”、”違反として記録、および監査”の4パターンあるようです。 今回は、”監査のみ”を選択して、重要なファイルにアクセスが発生した時にレポートに表示されるか確認してみましょう。 ルール基準の定義にて、“ファイル・パス”にて、どのファイルに対してアクセスが発生した場合アクションを実行するかという対象を設定します。 今回は、SAMPLE配下のファイルを対象として設定してみましょう。 作成したポリシーを保存して、ポリシー設定は完成です! その3:ポリシー・インストール 次は、ポリシーをインストールしてみましょう。 保護→セキュリティー・ポリシー→ポリシー・インストールでポリシーのインストール画面に遷移します。 現在インストールされているものに上書きするので、”インストールおよびオーバーライド”を選択します。 作成したポリシーがインストールされました! インストール方法は、これまでの Guardium とは変わりないですね! もちろんデータベース監視のポリシーとの同居もできます。 対象ファイルを開いて読み込んだから、READ。 データ持ち出しによるファイルコピーでもREADとなります。 残念ながらコピー先のPCやIPは表示されませんが、リモートデスクトップによる監視対象サーバへログインをした不正の場合は、リモートデスクトップを実行したPCのIPがClient IP欄に表示されます。 素朴な疑問、書き込んだら何とでるのでしょう。WRITEってでるのか?? はい、WRITE でしたね! Sample 配下の”サンプル2ファイル”に文字列を書き込んだら、”WRITE”ログが表示されました。 見やすくてわかりやすくてなんといってもリアルタイムに発見できるのはありがたいですね! ということで、今回はここまで。 ファイル監視のイメージはつきましたでしょうか。 いままでの、データベース監視機能と同様にリアルタイムでファイルの動きが確認できることがわかりました。 Guardiumでデータ監視はばっちりできているけれど、ファイルの監視はこれからという方や、データもファイルも一括監視したいという方にはたいへんおすすめの機能ですね! この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp
皆様こんにちは。てくさぽBLOGメンバーの佐野です。 前回の記事の続編になります。 1.Nutanixのエディション 前回、ソフトウェアに3つのエディション(Starter、Pro、Ulitamate)があるということを書きました。 詳細を書いていなかったので、今回はエディションの違いから説明します。 Starter:最大12ノードまで、データは2重ミラーのみ、その他基本的な機能は利用可能なので、可用性要件が厳しくなければこのエディションです。 Pro:最もスタンダードなエディション。イレイジャー・コーディングやデータの3重ミラー、可用性ドメイン機能でStarterエディションに比べて可用性を高めることができます。またCloud Connect機能でAWSやAzureに仮想マシンをバックアップさせることもできます。 Ultimate:Proエディションの機能に加えて、VMフラッシュモードやマルチサイトDR機能が追加。これらの特殊な要件があった場合に選択します。 差がある機能を一覧にまとめると以下のようになります。 選択の基準としては、 ・基本的にはStarterを選択 ・可用性要件でRF3や可用性ドメイン機能(後述)を使う場合にProエディションを選択 ・災害対策要件がある場合やRDBサーバーとして利用し、パフォーマンスを担保する必要がある場合にはUltimate となります。 2.可用性ドメイン ハードウェアとして、2Uサイズに4ノードが入るモデルがありますが、筐体障害に対応するための機能が「可用性ドメイン」機能となります。 4ノード間で共有しているのは電源のみであり、電源は2重化されていますので、よっぽどのことがない限りは障害で全部が止まるなんてことは起こりませんが、不安に思うユーザー向けの機能です。 Nutanixはデータを2重に書き込むといっても、あくまで違うノードに書き込みをするというだけで、必ず筐体をまたがってデータを保管しているとは限りません。 「可用性ドメイン」機能を使うことで必ずドメインをまたいでデータの書き込みが行われるようになります。イメージ図は以下になります。 可用性ドメインを設定すると、赤色のデータが異なるドメイン上に書き込まれます。これにより、仮に可用性ドメインAの筐体が全障害でダウンしても他のノードにデータが残り、リカバリが可能になります。 3.Cloud Connect あまり他の製品では見かけない機能で「Cloud Connect」というものがあります。 この機能では、Nutanixから仮想マシンをAWSもしくはAzureに保管します。現時点ではクラウドへの一方通行でのバックアップという位置づけです。 他のクラウド環境への対応は未定ですが、今後増えていくかもしれません。 また、Nutanixは「EnterpriseのAWSになる」ことを目指していますので、バックアップだけでなくAWS上に仮想マシンを移動して稼働させるところまで実装する可能性があります。 クラウドとの連携については拡張が見込まれるので要注目です。 4.VMフラッシュモード ここからはUltimateの機能です。 VMフラッシュモードで、仮想マシンの稼働をSSDのみ(もしくはHDDのみ)に限定することができます。 通常では、ホットなデータはSSDに書き込まれ、コールドデータ(=アクセスの少ないデータ)はHDDに保管されます。 仮想マシンのデータを常にSSDに保管することで、常にSSDへのアクセスとしハイパフォーマンスが担保されるようになります。 IOパフォーマンスが求められるRDBやExchangeサーバー向きの機能といえるでしょう。 逆に、アーカイブシステムのようなIOパフォーマンスが求められないシステムにはHDDへ固定化することでSSDのリソースを他サーバーに使ってもらえます。 よい機能だと思いますが、個人的にはこの機能を使いこなすのは非常に難しいのではないかと思います。 5.マルチサイトDR、Metro Availability データセンター間でのデータ同期やフェールオーバーを行うのがこの機能です。 複数サイトにデータをミラーリング(バックアップ)するための機能がマルチサイトDR機能で、多対多でのレプリケーションを実施できます。 Metro Availabilityは、あるサイトが全滅した場合でもデータロスなく別のサイト上で稼働させるための機能です。 VMware SRMが機能イメージとしては一番近いかもしれません。 ただ、日本の環境で考えると、東京-大阪間ではMetro Availabilityを利用するための要件を満たすことができないので、実際に利用することはないかもしれません。 要件が緩和されることに期待です。 6.まとめ 今回はNutanixソフトウェアのエディションと一部機能について解説しました。 Cloud Connectのようにまだ発展途上の機能もあり、フルで活用するのは難しい印象はありますが、基本機能がしっかりしているので基本的な機能を使うだけでも実は十分利用する価値があります。 次回はパフォーマンスに関する話と今年発表された新バージョンv4.6、v4.7で追加された新機能について解説をしていく予定です。 お楽しみに! <関連記事> 今注目の”ハイパー・コンバージド・インフラ”とは ハイパーコンバージド製品のNutanixを解説! ハイパーコンバージド製品のNutanixを解説! vol3 10分でわかる『Nutanix製品』まとめ New! (※ MERITひろば へのログインが必要です。) ---------- この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp