特集・ブログ

ブログ

2017年06月20日

【てくさぽBLOG】WASのバージョンアップでビジネスが拡がる!?

皆様こんにちは。ちょっとお久し振りのてくさぽBLOGです。 このコラムを読んでくださっている皆様の中には、アプリケーションサーバーの構築や販売経験をお持ちの方がたくさんいらっしゃると思います。 オンプレでもクラウドでも、B2BでもB2Cでも、Webシステムにアプリケーションサーバーは欠かせない存在ですが、その実行プラットフォームであるIBM WebSphere Application Server(以下 WAS)は、この競争が激しい市場で8年連続TOPシェアを誇る製品です。 WASは昨年2016年6月に最新バージョンであるV9.0が発表されていますが、保守サポートが終了しない限りSWのバージョンアップはしたくない・・というお客様が多いかもしれません。 でも、バージョンアップが保守サポートの制限だけでなくお客様にとって有意義であれば、是非ご提案したいですよね。今日はそんなバージョンアップのお話をしたいと思います。 1.Java SE 6はもうすぐサポート終了 WASにはJavaの実行環境が含まれていますが、Java SE(JDK) 6がサポート終了間近となっていることはご存じですか。 それって結構古いWASでしょ?うちのお客様はそんな古いバージョンは使ってないはず・・と思いきや、そうでもないかもしれません。 Java SEの最新バージョンは8ですので、下図のように古いバージョンのWASをお使いであれば、是非バージョンアップのご検討に入っていただきたいと思います。 2.バージョンアップの利点 とはいえ、Javaの保守サポート終了という理由だけでバージョンアップするのは・・・と躊躇されている皆さんに、是非このブログを参考にしていただきたいと思います。 最新バージョンのWAS V9.0は、Javaの最新仕様に対応しているだけでなく、お客様のビジネス傾向に合わせて以下の特長を持っています。 特長1.多様なクラウド環境への対応 特長2.マイクロサービスとAPIエコノミーへの参画を推進 特長3.従来のPVU課金モデルに加え、仮想コア・ベースの月額課金モデルのライセンス体系も登場  特長3の詳細はこちら(MERITひろばへ) WASは、基幹システムとエンドユーザーに近いシステム、いずれにも対応しています。 エンドユーザーに近いシステムは変化が激しく、素早い開発や継続的なデリバリーが必須要素となり、マイクロサービスアーキテクチャー型で、インフラもすぐに利用可能なクラウド環境が活用されます。 一方、基幹システムを中心とした安定したエンタープライズ・アプリケーションでは、オンプレ環境でのウォーターフォール型開発が依然として引き継がれていますが、基幹システムが保持している情報をエンド・ユーザーに素早く提供したいというニーズから、API公開する方法、マイクロサービス化といった検討も始まりつつあります。 そしてこれらの2極化したものを連携する仕組みとしてAPIが注目されています。 クラウドやAPIエコノミーへの対応など多様化する用途に対応できる最新バージョンでは、用途に応じたラインタイムが選べるようにもなっています。 3.Libertyランタイムの検討のタイミング 今後のクラウド展開を考えると、もっと軽量なランタイムが欲しいですよね。 先程用途に応じたラインタイムを選べると書きましたが、WASは軽量なLibertyラインタイムを提供しています。 また、従来のラインタイムに比べ、運用の自動化や新機能のいち早い利用も実現されています。 Libertyランタイムはたった5秒で起動でき、メモリー使用量60MB ディスク使用量100MBと軽量で、リソース使用量で課金されるクラウドの利用に適しています。また、構成ファイルはserver.xmlという1ファイルのみのため移行も簡単ですし、再起動なしで構成変更が可能です。 では、何故このような軽量化が実現できたのでしょう。 それはフィーチャーと呼ばれる必要な機能単位だけを柔軟に組み合わせて利用しているからです。使わないフィーチャーはメモリーにロードされないため、高速に起動できます。 また、新機能は新しいフィーチャーで提供され、従来のフィーチャーも使い続けることができるため、ランタイムの更新が不要です。このゼロ・マイグレーションという新しい概念により、既存構成やアプリケーションへの影響を最小化でき、最新ラインタイムへの移行が楽になります。 4.ランタイム選びは注意点もある 他にも、今回ご紹介できなかった多くの特長を持つLibertyランタイムですが、注意点もあります。 たとえば、LibertyはWAS V8.5以降から提供されたランタイムのため、従来の古いランタイムとはサポートしているJavaのレベルが異なるため、使用できない古いAPIが存在します。 また、プロセスの起動・停止方法やログの種類、アプリケーションのデプロイ方法など、運用の仕組みも変わってきます。 5.ほかのアプリケーション・サーバーも気になる!? もしかしたらWASのバージョンアップどころか、JBoss、WebLogic、Apache Tomcatなど他製品への切り替えが検討されている・・・どいうケースもあるかもしれませんね(涙)。 WASは8年連続TOPシェアを誇る製品ですので多くの特長を持っていますが、今回は軽量性と課金体系について比較してみました。 ・軽量性 起動時間とメモリー使用量(フットプリント)を比較した左グラフでは、LibertyランタイムはTomcatに少し劣っているものの、JBossやGlassfish(Weblogicのオープンソース版)の半分以下と非常に軽量です。 また、右のグラフでは、Libertyランタイムはどの製品よりも性能(スループット)が高く、Tomcatより20%も性能が高いことがわかります。 ・課金 WASにはランタイムが2種類ありますが、ラインタイムによらず課金体系が豊富です。 オープンソースはライセンス・フリーですが、エンタープライズのお客様には保守サポート付きのメーカー版を選択されているケースが多いのではないでしょうか。WASはご使用環境によって最適な体系を選択することができるよう、複数の課金体系が用意されています。 たとえば、大規模な仮想環境では、物理サーバー全体の性能で課金するとかなり高額になってしまいますね。 その場合には、アプリケーションが稼働しているサーバーの性能分だけ課金する、サブキャパシティ・ライセンス体系が用意されています。この課金体系はRedHat社のJBossでは提供されていません。 また、仮想コア数のみで課金計算できる体系も提供されています。パブリック・クラウドでは、物理サーバーのコア数などの情報を開示していないケースもありますので、コア数を数えるだけ見積もることができますし、もちろん月額課金も用意されています。 6.最後に 実はLibertyランタイムは最新バージョンではないバージョン8.5でも提供されています。しかしながら、是非WASのバージョンアップと共に、新しいLibertyランタイムの検討もお勧めしたいと思います。 この軽量なLibertyランタイムの無償評価版と日本語の技術情報がこちらからダウンロード可能ですので、是非お試しください。 http://ibm.biz/LibertyJPN この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp

2017年06月02日

「IBM Watson Summit 2017」に参加してみた ~コグニティブはどこまで浸透したのか?~

参加メンバーにインタビュー 皆さま、こんにちは。 企画部のWebサイト運営担当です。 去る 4月27日、28日にグランドプリンスホテル新高輪で開催された「IBM Watson Summit 2017」の参加レポートをお届けします。昨年の”参加してみた”レポート同様、Summit に参加した弊社エヌアイシー・パートナーズのメンバーにインタビューしました。 企画担当:では早速。まず、はじめに、昨年の Watson Summit と比較して感じた違いを「ひとこと」で教えてください。   昨年の Watson Summit と比較して Kさん:昨年はみずほ銀行のコールセンターの事例が中心だったが今年は他社のコールセンターの事例も多かった。国内の大手銀行、生保は Watson の採用もしくは導入検討が進んでおり、裾野が広がってきたのだと思う。 Jさん:蔦屋(TSUTAYA)と地銀支店が連携した事例などもありましたね。 Aさん:昨年は「これからの時代はコグニティブだ」という言葉が多かったのですが、すでに実装している企業もあり、更に AI やチャットボットなど Watson に関連するテクノロジーもユーザ側がコグニティブを意識してなくても利用していると感じました。 また、この 1 年で日本IBM が直接受けた Watson 案件は 200 件を超えているという話を聞きました。いよいよ実案件でも Watson、と言った感じがしました。 代表的な事例まとめ( Watson の活用事例 2017年) ◆海外の Watson 米国では大手税務サービス企業の H&R BLOCK が顧客が作成した確定申告の内容を確認し、より多くの還付金を得られるようにアドバイスするサービスに Watsonを利用するなどサービスの展開が進んでいる。 ◆日本の Watson 日本では銀行、生保のコールセンターで Watson が採用されている。この一年の特長としては「知識ベース」と言われる Watson の辞書にあたるナレッジを収集、蓄積し、分析する活動が活発である。これらの知識ベースを「学習済み Watson 」としてサービス展開を視野に入れている。 三井住友銀行は企業の信用力変化を示すニュースを自動収集するための知識ベースを構築 トランスコスモスは自社のコールセンター運営知見を複数の知識ベースにまとめる 三菱自動車は自動車の不具合兆候を把握し、未然防止につながる情報や顧客の声を可視化する知識ベースを構築 また、国内大手企業以外にもベンチャーや研究開発型の企業がWatsonの活用を開始している QUICK は金融マーケット情報の自然言語照会に取り組む ファーマクラウドは調剤薬局向けの在庫医薬シェアリングサービスに Watson のチャット機能を付加 アイ・ラーニング社はプログラミング研修で受講者の質問に回答する Watson や個々人の最適なラーニングパスを提示する Watson を活用提供 日本電通は基幹システムとの連携で総務・人事・経理関連の社員向けチャットボットを提供 企画担当:事例がどんどん増えているということですね。ところで、イベントの形式として昨年と違う点として、今年は会場に入る一般の参加者も有料のイベントになりましたよね。展示数が増え、内容も充実した思いますが、会場の様子はいかがでしょうか。 Aさん:参加者の総数は減っているはずですが、混み具合は去年と同じか、それ以上に感じましたよ。私どもの親会社である日本情報通信(株)はダイヤモンドの更に上のマーキー(Marquee)というトップのスポンサーとして出展していましたが、ブースエリアも賑わっていました。 ご参考:▼【出展レポート】 IBM Watson Summit 2017 [gallery link="file" size="large" ids="49156,49157,49158"]   企画担当:なるほど、イベント会場盛況で内容としては先行事例だけでなく、Watson 採用事例の裾野が広がってきたのですね。本題に入る前に、Watson の話題がどれだけ盛り上がっていたかを企画部の Web 担当として、ちょっと違う視点で調べてみました。   ネットでみる Watson の盛り上がり IBM Watson の注目度合いはネットの検索量でも推し量ることができます。下図は世界中の人が過去5年間の「IBM Watson」を検索したボリュームです。(Google Trendより) トレンドラインは右肩あがりですね。(大きな谷間はクリスマス〜年末のシーズンです)   ついでに地域別の検索ボリュームをみると、1 位はシンガポール、次いでUS、インドと IT、開発の先進国と重なります。日本は 9 位でした。     地域別の集計を都市別のメッシュを変えてみると・・・中央区が世界で 2  位です! 我が社も中央区にかまえていますのでその影響でしょうか(笑) (ツッコミ:日本IBM本社も中央区です!)   1 位のポキプシー、3 位のオースティンも IBM の研究所があり、 IT の中心都市ですからね、2 位 の中央区は検索の世界ではリードしています。 企画担当:また、昨年当サイトにて掲載の Watson Summit2016 の記事 もイベント開催1ヶ月程度前から期間中にかけて、アクセス数が 200%Up になっていました。大手メディアサイトではない弊社のページにアクセスしてくださって感謝です。   今年の Watson Summit で使われた「メッセージ」「キーワード」とは? 企画担当:このようにネットの世界でも注目されている IBM Watson について、Summit で感じたことをもっと伺おうと思います。今年の Summit の「メッセージ」はどのようなものか教えてください。メッセージが難しければ、良く使われていたキーワードでも良いです。   ハイブリッドクラウドに見る【非機能要件】と【Lift&Shift】というキーワード Jさん:そうですね、今年の Watson Summit を一言でいうなら、「Cognitive on IBM Cloud」というメッセージを鮮明に感じました。 企画担当:Watson と Cloud が明確に一つに繋がったのですね。では、まず「IBM Cloud」についてのメッセージはいかがでしょう。 Aさん:クラウドというメッセージにおいて「非機能要件」という言葉は頻繁に聞きました。当初は「API connect を利用してオンプレからクラウドに上げると Watson が使えるんだよ」という事かと思ってましたが、そうではなく、オンプレをそのままクラウドに上げるのではなく、それぞれを分ける。というメッセージでした。   企画担当:「非機能要件」という言葉はあまり馴染みがなかったのですが、どういった定義なのでしょうか。 Jさん:「Lift&Shift」という言葉も一緒に使われていました。ハイブリッド・クラウドを構築するにあたって、既存のアプリケーションを変えなくてよいものと書き直してクラウドに持っていくものの 2つ に分けて考えるというところから来ています。この時に変えなくてよいものをパブリック・クラウドに持っていくと、従来はオンプレのアプリケーションの下層で動いていた管理、監視、制御などの部分もクラウド上で自分で構築する必要に迫られる。この部分を「非機能要件」と呼んでいます。 一方で、書き直すクラウドにもっていくアプリケーションの移行方法を「Lift&Shift」と呼んでいるようです。 Aさん:そうそう、オンプレをそのままパブリック・クラウドに上げるのは無理があるので、IBM Bluemix Infrastructure (Softlayer) では、ベアメタルを用意しているんですよ、オンプレからシステム管理も含めてベアメタルに持っていけばいんだよ、というメッセージですね。 Kさん:「非機能要件」と「Lift&Shift」については、どのセッションでも話題として出ていました。 企画担当:なるほど、IBM Bluemix Infrastructure(SoftLayer)の強みを活かしたアプローチですね。クラウドのキーワード、メッセージは他にもありましたか?   クラウド時代の戦略【オープンスタンダート】とは? Jさん:IBM Cloud はBluemix という PaaS 環境がベースになっているので、まずはそこから入り、アプリケーションの差別化に Watson / コグニティブ が IBM の強みとなっています。さらにアプリケーションが使うデータがキーとなります。データという意味では IT 業界では DB のあるべき姿を考え、SQL と NonSQL のトピックになりがちですが、「データレイク」をキチンと管理しようという話をされています。 これらのデータの扱いについては、IBM は全て「オープンスタンダード」で答えています。つまり IBM というベンダー製品で抱え込むのではなく、仕様をオープンにしていく、オープンソースを活用するという意味です。IBM はオープンスタンダードに投資し、そこから出てきたテクノロジー、会社を買収するという戦略をとっていて、全方位で隙間がないように、ニッチなエリアに対しても同じ「オープンスタンダード」を戦略にしています。エンドユーザから見ても「ベンダーロックインを回避でき、自由度が広がる」という利点につながります。 Aさん:「データレイク」というキーワードは昨年のWatson Summitでも登場してましたね。 Sさん:私は 3 月にラスベガスで開催された IBM 最大のイベントInterconnect 2017 に参加してきましたが、テクニカルな面での IBM のメッセージは Watson Summit もほぼ同じでした。 IBM Bluemix Infrastructure (SoftLayer) 関連では Cloud Automation Manager というマルチクラウド、オンプレのいずれにも対応したデプロイ管理ツールがオープンスタンダードのひとつだと思います。マルチクラウドということは SoftLayer だけでなく、AWS や Azure なども対象となるということです。現在は、IBM Bluemix 上に無料で提供開始していて注目されています。 企画担当:Blumix 自体がオープン・クラウド・アーキテクチャーの実装プラットフォームですから戦略は理解しやすいですね。では次に、Watson に関連した製品・サービスという切り口ではどのようなメッセージ、キーワードが Summit で話題になっていましたか?   Watson の知識データ Jさん:データの扱いについてですが、知識ベースの構築しかり、大事なのはデータを Watson で扱える状態にすることです。いわゆる「コーパス」と呼ばれる AI の知識データですね。ここをどう構築していくかが鍵でもあり、泥臭い領域ではあるのですが、このテキスト分析の行程で「Watson Knowledge Studio」を大々的にメッセージしていました。「Watson Knowledge Studio」は、開発者と各分野の専門家が協力して、特定の業界向で利用されている言葉の意味を理解する機械学習モデルを、開発者と知見者である専門家が協力して作成できるクラウド・ベースのアプリケーションです。ブラウザ環境ですし、無料トライアルもあるので試しに使ってみるユーザが増えると思います。 Watson Knowledge Studioの画面   企画担当:Web サイトを見ると「特定の業界向けのカスタム・アノテーター・コンポーネントを作成できる」と表記されていますが、要するに「業界特有の用語や知識のニュアンスを Watson に教えることができる」という感じですね。やはりテキスト分析は重要ですよね。 Aさん:ユーザのセッションで女性研究員2名によるテキスト分析の話がありました。大量のデータの中に、「川崎」という文字が出てきた時に人の名前なのか地名なのかをどのように識別させるかというトピックなど興味深い話でした。ユーザは色々試行錯誤されているようです。   学習済み Watson の提供 Jさん:一昔前の AI  はルールの定義という作業でひとつひとつの言葉を定義する必要がありました。そして機械学習が主流になっていくのです。IBM ではこの領域は SPSS のテキストマイニングなどのナレッジが活かされています。サービスインまでに Watson にある程度覚えさせる行程とリリース後に覚えさせる行程がありますが、コグニティブの世界ではこのコーパスを作るところは泥臭い作業で、特にリリース後のユーザの参加は必須ですね。 企画担当:データ分析の領域において、近年は「データサイエンティスト」という分析担当者に注目されていましたね。 Jさん:最近、IBM は「データサイエンティストのようなスーパーマンはそんなに多くはいない」と言い始めています。確かに私も個人的に存在を一人も知りません(笑)。DSX(Data Science Experience)というプラットフォームを IBM は用意しています。一人のスーパーマンではなく、データの準備、整備、プログラム開発、分析など行程をわけてチームワークでデータサイエンスを始めるためのプラットフォーム。こういうのが出てくるのは Knowledge Studio と同様に市場がコグニティブの導入検討ではなく、実際の導入の際に生産性に影響しているプロセスの改善ニーズがあるのだと思います。Watson も「何に使えるのか」から「どうやって効率的に使うか」のフェーズに入ってきたのですね。 Data Science Experienceの画面   企画担当:全体のメッセージは先行事例から次のフェーズに来ているということですね。先行投資できる企業は良いですが、研究や開発に大きな投資ができない企業はどうすれば良いでしょうか。 Jさん:IBM はインダストリー別に「”学習済み” Watson」をリリースしていくとこのイベントでも発信しています。例えば「Watson automobile」は自動車業界向けというように業界別にパッケージし、金融、製薬など現在 80 種類ほどの学習済 Watson をリリースしていくとのこと。 企画担当:企業が持つ「データレイク」やナレッジを知識ベースとして提供し、学習済みの Watson が用意されていく、オープンスタンダードな思想をもとに Watson を利用したサービスが増えていく・・・こんな近未来が見えてきますね。 Jさん:気象データや医療文献情報などもそのうちの一つですね。IBM 自体も The Weather Company を買収して、気象データを提供する側になっています。   今後のビジネス展開 - API 化 企画担当:こういった環境において、ビジネス面で考えるとシステムインテグレーターやソリューションプロバイダーはどのような戦術が必要になるのでしょうか。 Aさん:私の理解ですが、Watson は API のことを示していると思います。そして知識ベースは個別のインダストリーで用意する。この知識ベースを構築する行程はシステムインテグレータなどのベンダーがユーザをリードし、一緒に構築していく領域だと思います。 Kさん:テキスト分析、データマイニングの経験が豊富なベンダーは優位ですね。また、Web アプリ、API 開発が得意なベンダーにもチャンスだと思います。IBM は「IBM マーケットプレイス」をラウンチしていますが、日本国内はまだ立ち上がったばかりです。 このマーケットプレイスで開発ベンダーは開発した API、ソリューションをカタログ化して掲載できるのです。   企画担当:なるほど、開発力はあるが営業力が弱いといったベンチャー型の会社や部門は参入のチャンスですね。 Jさん:そうですね、「今後は API 化してほしい」というのが IBM のメッセージです。ユーザ、パートナー企業を含めた「API エコノミーの推進」とも言えます。 企画担当:ありがとうございます。初歩的な質問をしますが、一般企業が API 化することの利点ってどんなことがありますか? Jさん:例えば、フライト情報を検索、表示する旅行会社のアプリがあって、コンシューマーがフライト情報にアクセスする度に航空会社の Web を参照するアプリの仕様だと提供側の航空会社の Web サーバの負荷は高くなります。いわゆる Web スクレイピング、Web クローリングという技術ですね。これを API アクセスすることで Web サーバーの負荷が減ります。情報開示側が API 化しておくことで、開発ベンダーは様々な API を組合せてより良いサービスやアプリケーションを作っていけるのです。 Aさん:API 化しておけば、「Lift&Shift」の際に、クラウド or オンプレ という移行もスムーズになりそうです。 Jさん:API 化はマイクロサービス化と言い換えてもいいだろうと思います。 企画担当:開発会社、エンジニアから見て、API 実装自体は新しいことではないと思いますが、マーケットプレイスにパッケージしてカタログ化していくことも最初から意識するという点でベンダーにとっては新しいビジネスモデルになりそうですね。 IBM マーケットプレイスなどのエコシステムについてはディストリビューターの弊社としても要ウォッチですね。 今後もエヌアイシー・パートナーズの取引先の皆様には専用Web サイト「MERITひろば」でより詳しい情報を掲載していきたいと思います。 本日はありがとうございました。   【関連リンク】

2017年03月23日

【てくさぽBLOG】速報「IBM InterConnect 2017」基調講演の概要

皆さんこんにちは。てくさぽBLOGメンバーの佐野です。 私は今、IBM のグローバルイベントである「IBM InterConnect 2017」(以下 InterConnect)に参加するため、ラスベガスまでやってきています。 InterConnect は 3/20-23 の 4日間開催で、IBM 社の最新の情報や事例などのセッションが 2,000 以上も組まれているため(当然全部は聞けません)、非常に密度の濃いイベント内容となっています。 クラウドサービス(Bluemix)やセキュリティ、Watson と言った IBM が注力している製品群に加えて、マイクロサービスやブロックチェーンといった最新テクノロジーや従来からある WebSphere Application Server といった製品に至るまで幅広い範囲をカバーしています。 このイベントの基調講演は 3/20 と 21 の 2回 に分かれていますが、本記事では内容をまとめて要約してお届けします。   1.注目トピック Watson 関連でいくつか発表・言及がありました。 既に発表済みではありますが、Watson の質疑応答システムと QRadar が連携してインシデントの絞り込みや洞察を得るのに役立つ IBM QRadar Advisor with Watson の紹介、Watson Visual Recognition を使った画像解析のソリューションについてもデモを交えて解説をしていました。 セキュリティに関しては、先の QRadar の話と、セキュリティの免疫システムである「IBM Security Immune System」について話がありました。 Security Immune System は概念の話で、製品の話ではありませんが、昨今は全てのセキュリティリスクをシャットアウトすることは非常に困難であり、またセキュリティインシデントの数も非常に大量に発生することから、人間だけでは対処しきれない状況となってきていますので、Watson も活用しつつ、セキュリティ対策をしましょう。というのがざっくりした内容です。 ブロックチェーンに関しては、ダイヤモンドの原産地証明などのためにブロックチェーンを活用している事例を発表しました。 ダイヤモンドの取引では、戦争の資金を得ることなどの目的のために、ダイヤモンドを利用することを禁じる「キンバリー・プロセス」に準拠する必要があります。 原産地を証明する、価値を証明するためにも、改ざんが不可能な監査台帳が必要となり、そのプラットフォームとして IBM のブロックチェーンが利用されています。 2.協業関連 IBM と他企業との協業関連としては以下の発表がありました。 ・RedHat 社との協業: IBM クラウド上で RedHat 製品をサービスとして提供 ・Indiegogo + Arrow Electronics + IBM(Watson) : IoT の協業でスタートアップ企業に対して Watson サービスの利用促進 ・Galvanize との提携 : Bluemix Garage の一環で、Watson API を主とした機械学習に関する協業 ・Intel 社とのパートナーシップ: エコシステムを構築するために、Intel 社とのパートナーシップを提携 Salesforce 社とのパートナーシップは既に発表済みですが、Salesforce CEO のマーク・ベニオフが2日目の基調講演で登壇していました。   3.2日目の IBM CEO ジニー・ロメッティーのメッセージ 要約すると、IBM は以下の強みを結びつけることで大きな課題を解決できる、と言っています。 ・Enterprise Strong :業界向けのノウハウを豊富に持っているので、業界特化のソリューションを提供できる ・データファースト:お客様が持っているデータを利用して、分析により洞察を得たり、またそのデータをより活用するためのデータ管理ソリューションなどを提供できる ・コグニティブ:いわずもがな、Watson のことです。画像解析にはもちろん、音声認識も人間を超える数値をたたき出している 4.その他 ・金融向けに特化した「IBM Cloud for Finacial Services」の発表:決済などの機能を持ったクラウドサービスの提供 ・IBM Cloud Automation Manager :マルチクラウドの環境を単一のコンソールから操作することが可能となる製品 ・Kubernetes のコンテナーが IBM Cloud (Bluemix)上で動作可能に ・Hyperledger Fabric v1.0 : IBM のブロックチェーンがついに正式リリース版に ・IBM Cloud Object Storage Flex :詳細は不明ですが、エクサバイトクラスのデータを 99.999 % の可用性で運用可能なストレージプラットフォーム。AWS などと比べても費用が安価になるとのこと 参考:ZDNetの記事:IBM InterConnect 2017開幕--AWS、Azureを強く意識 5.最後に 全体的な印象としては、Watson を既存製品と組み合わせや企業を跨った協業ソリューションの活用に関する内容が多かったように思います。また、セキュリティにもいくつか言及していたので、注力する姿が見られました。 会場はとても広く、セッション会場が 30以上あることもあり、場所によっては移動で 10分以上はかかる、なんてことも結構ざらにあります。 また、海外のイベントであるため、基調講演などの特別なセッションを除いては当然全て英語です。時々何を言っているか理解できないこともありますが、それもまた勉強、ということになるでしょうか。 最新の情報をいち早く入手したい!この分野の詳しい情報をゲットしてビジネスに役立てたい!という目的には最適ですので、興味がありましたら是非来年の参加を検討してみて下さい。 (現地の様子) ・自分が座った席から撮った基調講演会場の様子。右側がステージとなります。まだ少し空席がありますね。 ・基調講演終了後の帰り道。参加者が多いのでめっちゃ混んでます。みんなが個別セッション会場に向かうので、途中までこんな状態が続きます   <3/28更新> 現地で行動を共にしていたNI+Cの大島さんもブログを書いていますので是非こちらも参考にしてください。 [InterConnect2017]現地レポート 3/19 [InterConnect2017]現地レポート 3/20 [InterConnect2017]現地レポート 振り返り [InterConnect2017]現地レポート 最終日   この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp

2017年03月23日

担当者に聞いた!SPSSが採用される本当の理由

"SPSS" は1968年に誕生し、汎用機の時代からデータの解析に広く使われており、歴史、実績のある製品です。2009年の IBM による買収で IBM SPSS製品ファミリーとなりました。 当ページでは、なぜ SPSS は今も世界中の多くの現場で採用/利用されているのか、実際にユーザー (企業) への提案やトレーニングを担当しているスペシャリストにその本質を聞き、ポイントをまとめています。これから SPSS を使ってみようと思うユーザーの参考となれば幸いです。 (注記)SPSS 製品は複数のエディションで構成されるファミリー製品ですが、 当記事では、SPSS Statistics もしくは SPSS Modeler を主として記載しています。   結論:GUI が秀逸のため採用、利用されている SPSS はその GUI による操作性がユーザに受け入れられている。製品の採用を検討しているユーザは「これなら自分たちでも利用できそうだ!」と評価し、採用している。 実際の利用ユーザにとっては業務効率をあげるだけでなく処理フローがグラフィカルに分かるため、担当者変更による引き継ぎの負担が低いことがポイントとなっている。   SPSS 製品は業務部門主導で・・・ また、SPSS 製品は、製品選定から導入を含め業務部門システム、業務の実担当が主導となることが多く、情報システム部門の負担も低い「情シスにやさしい」製品と言える。 利用用途は小売・流通業における販売データの分析、会員データ分析、製造業における販売製品の需要予測、また、事故の予防保全から経営状況の予測と幅広く使われ、売上向上や顧客ロイヤルティの向上に成果をあげている。 <現場で受け入れらている主な理由> ライセンスは 1 ユーザから利用可能なため比較的安価にスタートできる 分析シナリオは下図のように ”ストリーム”という形式でアイコンで視覚化され、 わかりやすい アイコン化により作成したロジックの共有や検証がしやすくなり、業務スピードが増す 図:SPSS Modeler のGUIイメージ   SPSS 選定の決め手 スペシャリスト曰く「お客様の多くは最初は高度な分析経験はないところからスタートしている」。つまり、これから分析担当者を育てようというユーザが多いのである。 SPSS製品は、無償トライアルが Webサイトからダウンロード可能であり、導入費用自体も比較的安価である点もスタートしやすいポイントだ。 また、分析したい業務やデータにSPSSが適しているかの検討においては、標準で提供されている豊富なサンプルデータや処理フローから目的に合致したモデルを探すこともできる。 筆者も以前、Webアクセスログを分析したい!というきっかけから自身で SPSS Modeler をインストールし、評価したことがある。 分析者を育てるためのトレーニングも、現場にとって気になるポイントだろう。 「3日間ほどの有償トレーニングを受ければ、エンジニアでなくとも SPSS の操作についてはマスターできるし、SPSS の画面から呼び出すヘルプを見ながら操作していくユーザも多い」とスペシャリストは言う。 まずは容易に使ってみることができ、また、ベンダーの支援やトレーニングを受けながら業務に活かしていくことが可能な製品なのである。この点も分析担当を育てたいという企業にとって朗報であり、1つの評価ポイントとなるのであろう。   < 3日間のトレーニングで操作はマスターできる >   SPSS 導入時のポイント SPSS 選定までの流れについて紹介してきたが、ここで、SPSS の実際の導入、インストール時に考慮するポイントを伝えながら製品の守備範囲についても触れておこう。 先述してきたように、SPSS は 気軽に自身の PC に導入して使えるが、製品としてはクライアント-サーバ型も提供されている。 SPSS の稼働環境としてどちらの形態を選択するかは、利用部署が複数にわかれるなどデータを共有する必要があるのか、また、データサイズ、分析頻度、ユーザ数なども判断材料となる。 例えば、データサイズを基準に検討する場合、数百万件〜1千万件もの規模になるとサーバ側で処理させることが望ましいため、クライアント―サーバー型をお勧めしている。 SPSS は、小規模環境でのパーソナル的な利用はもちろんのこと、大量データを扱う環境での活用も十分可能な製品なのである。   他社製品と比較した強み 冒頭に示した結論のとおり "GUI が秀逸である点"、つまり操作性の良さが SPSS の最大の強みである。 製品選定では「他製品と比較しても機能面ではそれほど変わらない」という良くあるパターンにおいて、GUI の操作性が優れているという特出した点は選定するポイントとなる。 アナリティクスの大手 SAS の製品や Visual Mining Studio などのマイニングツールを比較し、それぞれの強みを検討するユーザもあるが、操作性で SPSS を選んで間違いはなさそうだ。 大学で広く使われているのも学生でも利用できる操作性であるという証明になるであろう。 また、SPSS は長く使われている歴史のある製品で、不具合 (バグ) が非常に少ないことも有名である。その点も選択理由の 1つとなっていることが容易に推察できる。   R (アール) からの移行ユーザは? "操作性の良さ" という点での例をもう1つ挙げよう。 今このページを見ている皆さんの中には R もしくは R言語と呼ばれるオープンソースのフリーソフトウェアの名称を聞いたことがある方も多いと思われる。 R は世界中の研究者が使っているツールだが、R言語のプログラミング知識が前提となる。 プログラミング知識が前提となる R言語に対し、プログラミング知識が無いユーザーであっても GUI操作で設定できるのが SPSS製品の1つの優れた点でもある。 Rユーザーや R を使った解析の資産がある場合、SPSS で無償で提供されている「SPSS Statistics-Integration Plug-In for R」というプラグインを利用し、両方の特性を活かした連携が可能となる。 実際に R から SPSS へ移行するユーザー、また、R と SPSS 両方を利用している現場も多くあるようだ。   様々な業務、システムに組み込まれているSPSS 最後に、数多くの SPSS導入を支援してきたスペシャリストからは、SPSS の提案、採用の際に見受けられるケースについて以下のような話を聞くことができた。 皆さんも SPSS製品の提案の際には、ぜひ、参考にして欲しい。 SPSS を使うためにデータの整備 (正規化) は必須であり、そのデータ元として DB の存在がある。データ量が増えていくとその DB をアナリティクスに適した、DB2 BLU、Netezza、dashDB などにするケースもある。  データ統合・連携に DataStage のような連携ツールを使う企業もあれば、SPSS 自体を ETL ツールと割り切って運用するユーザーもいる。  顧客データ分析を目的としている場合、IBM Campaign のようなマーケティングツールと合わせて採用するケースもある。  大規模データにも対応できる SPSS Modeler だが、データの処理性能はサーバ側の CPU , メモリーに依存するため、サーバーとして Power System を選択する事例もある。   利用が広がる SPSS 弊社 (エヌアイシー・パートナーズ株式会社) は、ディストリビューターといわれるハードウェア、ソフトウェア製品を販売会社に提供する企業だが、実際の販売データをみてもSPSS ファミリーは新規導入やライセンス追加、保守の更新など取引量が増える傾向がある。 これは「ビッグデータ」という言葉が流行して久しいが、実際は「目の前にあるデータを活用できていないユーザーがまだまだ多い」というスペシャリストの言葉とも重なり、実際の世相を現しているのではないだろうか。 データの活用については、これから本格的な取り組みを始めるという企業、ユーザーも多くあるだろう。これからもデータ分析ツールは必要とされ、SPSS 製品の普及もまだまだ続くに違いない。   データ活用をビジネスに活かしたいと考えている読者は是非とも「無償トライアル」の SPSS 製品を試してみてください。 また、SPSS 製品に関してご不明なことがありましたら、弊社ビジネスパートナーや、こちらの お問い合わせ先 より お気軽にお問合せください。 最後までお読みいただきありがとうございました。  

2017年02月23日

【てくさぽBLOG】Bluemix LiftでdashDBにデータをアップロードしてみた

皆さんこんにちは。てくさぽBLOG メンバーの佐野です。 以前にメンバーがBluemix上のデータベースサービスである「dashDB」についての記事を作成しました。(話題のBluemixのトライアルライセンスを活用してBIシステムの構築検証をしてみよう! Vol.1 Bluemixアカウント作成、話題のBluemixのトライアルライセンスを活用してBIシステムの構築検証をしてみよう! Vol.2 dashDBの作成、データLoad) 今回はBluemix上のdashDBにローカルからデータをまとめてアップロードする方法を紹介します。その名も「Bluemix Lift」です。   1.大量データのアップロードにBluemix Liftを使う 以前の記事にあるようなやり方を使って、dashDBに対して手動で都度データをアップロードするという方法もありますが、取り込むテーブル毎にアップロードする必要があります。また、常に手動でのアップロードであるため、最新化をするために手間がかかります。 データの分析用途の場合には複数テーブルにまたがる大量のデータをアップロードする必要がありますので、手動での運用は現実的ではありません。 そのような場合に利用できる有効な方法として「Bluemix Lift」というサービスが用意されています。 Bluemix Liftは以下の特徴を持っています。 1.高速 高速に大容量データを移行するために、高速ファイル転送サービス「Aspera」の技術を利用しています。 2.セキュア Bluemixとプライベート環境をセキュアに接続する「Secure Gateway」を利用します。またAsperaを用いたSSH通信によるセキュリティを確保しています。 3.簡単操作 オンプレミス環境に簡単にセットアップできます。また、WebブラウザからのGUI操作で移行ジョブを定義できます。 1-1.Bluemix Liftのデータ移行フロー Bluemix Liftを利用する前に、どのようなフローでデータをアップロードするのかを簡単にまとめます。 (出典:http://www.ibm.com/developerworks/jp/analytics/library/ba-dashdb-bluemixlift/index.html) 関連するコンポーネントとしては、Bluemix環境とオンプレミス環境を繋ぐための「Secure Gateway」、ローカルのデータをSecure Gatewayへ渡すためのツールである「Slingshot」、最後にデータを移行するためのツールである「Bluemix Lift」この3つがあります。 これらのコンポーネントを利用してdashDBへデータを移行します。 Secure GatewayはBluemixへデータを送信するためのゲートウェイであるため、企業内に最低でも1つ立ててあれば共有して利用できますが、dashDBへ取り込むデータを送るためのSlingshotはデータを送信するシステム毎に必要です。 今回は1台のマシン上のデータをdashDBに取り込むので、Secure GatewayとSlingshotは同一マシンに導入しますが、実運用時にはSlingshotはデータソース毎に導入をするようにして下さい。   1-2.Bluemix Liftを利用する手順 Bluemix Liftを利用するためには以下の手順でインストール・構成設定を行う必要があります。 1.Secure Gatewayの構成(初回のみ) 2.ソースおよびターゲットのConnectionの設定(Slingshotのインストールを含む) 3.Activityの構成と実行 それぞれの具体的な手順についてこれから紹介していきますが、今回は手元にあるWindows 2012R2サーバー上に導入をしていきます。   1-3.Secure Gatewayを構成する 最初にSecure Gatewayを構成します。 ・Bluemixのカタログから「Lift」サービスを選択します。(「データ&分析」サービスのところにあります) ・サービス名を入力し(ここでは「My-Lift」とします)、作成ボタンを押します。 ・表示された画面の「LAUNCH」ボタンを押します。 ・「1. Add Secure Gateway」ボタンを押します。 ・「ゲートウェイの追加」ボタンを押します。 ・ゲートウェイの追加欄にゲートウェイ名を入力し(ここでは「My-Gateway」とします)ゲートウェイの追加ボタンを押します。 ここまででSecure Gatewayの定義が作成されました。 次にSecure Gatewayのクライアントモジュールをダウンロードし導入します。 モジュールは「IBMインストーラ」「Docker」「IBM DataPower」の3種類のサポートされているクライアントが選択できます。今回はWindowsサーバーに導入するため「IBMインストーラ」を選択して進めます。 ・画面を下にスクロールし、「クライアントの接続」ボタンを押します。 ・後で使いますので、表示されている「ゲートウェイID」および「セキュリティー・トークン」をメモ帳などにコピー&ペーストしておきます。右端のアイコンをクリックするだけでクリップボードにコピーされますので便利ですね。 ・Windowsのソフトウェア・インストーラーをダウンロードします。(実際にはお使いのプラットフォームに合わせてソフトウェア・インストーラーをダウンロード下さい。) ・ダウンロードしたプログラムを実行します。 ・インストールフォルダーを聞かれるので任意のパスを指定して「Next」ボタンを押します。(ここでは「C:\Secure Gateway Client」とします) ・CLIの言語を選択し「Next」ボタンを押します。ここでは「English」を選択して進めます。 ・Windowsサービスとして起動するかを聞かれるのでここではチェックを付けずに進めます。 ・Secure Gatewayの「ゲートウェイID」と「セキュリティ・トークン」を聞かれますので、先ほどコピー&ペーストしたものをそれぞれ貼り付けて「Next」ボタンを押します。 ・パスワードはオプションなので今回は特に指定せずに「Install」ボタンを押してインストールを開始します。 インストールが完了したら次はSecure Gatewayを起動します。 今回はコマンドラインを利用しますので、コマンドプロンプトから操作します。 左記の手順でインストールした先のディレクトリ下の「ibm\securegateway\client」ディレクトリへ移動し、以下のコマンドを実行します。 secgw.cmd 起動が成功すると、自動でブラウザが立ち上がり、Secure Gateway Clientの画面が表示されます。 次にACLをセットします。これはこの後にインストールをするSlingshotへSecure Gatewayへのアクセスを許可する設定となります。 Secure Gatewayを起動したコマンドプロンプトで、「acl allow :」コマンドを実行します。(ここでは全ての接続を許可します) ここまででSecure Gatewayの導入設定は完了です。 続きは、こちら↓(※)をご覧ください。 【触ってみた】Bluemix LiftでdashDBにデータをアップロードの”2.ソースおよびターゲットのConnectionの設定” ※ビジネスパートナー専用サイト(MERITひろば)のコンテンツです。ログイン or  新規会員登録が必要となります。 この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp

2017年01月26日

【てくさぽBLOG】Cisco UCS Emulatorを触ってみよう!

皆さま、こんにちは。てくさぽBLOG メンバーの 岡田です。 前回のブログ(「Cisco UCSってなんだ?」)で Cisco UCS の特徴をお伝えしましたが、特長を知ると実際に使ってみたくなりますよね。特にUCSの管理インターフェイスであるUCS Managerは使ってみることが理解への一番の早道なのですが、ファブリックインターコネクト(以下 FI)の購入が難しい場合もあるかと思います。 そのような場合にお勧めしたいのが、今回ご紹介する「UCS Platform Emulator(以下 UCS Emulator)」です。 今回は、この UCS Emulator を利用できるようにする手順をご紹介します。   1.UCS Emulatorとは Cisco UCS Managerの設定・管理操作をシミュレートし、どのように機能するかを確認することができます。仮想マシンのディスクイメージとして提供されていますので、簡単に環境構築が可能です。   2.用意するもの 環境構築にあたり、以下をご用意ください。 Cisco.com ID (今回は登録手順の紹介は省略します。) Cisco.com ID登録手順: https://supportforums.cisco.com/sites/default/files/attachments/document/files/cisco_com_registration.201607.pdf 仮想環境(vSphere,Hyper-Vなどのサーバー仮想化環境や、VMware WorkStation/FusionなどのPCでの仮想化環境でも利用できます) Webブラウザ(Microsoft Internet Explorer 6.0 以上,またはMozilla Firefox 3.0 以上) サポートされる仮想環境、Webブラウザの詳細は以下のリリースノートの2ページ目をご確認ください。 https://communities.cisco.com/servlet/JiveServlet/download/69786-4-129067/UCSPE_GMR1_Release_Notes_3_1_2bPE1_Final.pdf IPアドレス 3個(固定IPで利用する場合)/サブネットマスク/デフォルトゲートウェイ   3.ダウンロード まずダウンロードサイトにアクセスし、Cisco.com IDでログインします。 (ダウンロードサイト) https://communities.cisco.com/docs/DOC-37827 ログインしたらファイルをダウンロードします。Zipファイル形式とovaファイル形式の2種類がありますので、ご利用環境によってお選びください。今回はOVAファイルをダウンロードしました。   4.仮想マシンの構築 OVAファイルをデプロイします。OVAファイルのデプロイ方法は一般的な手順と同じですので、ここでは詳細は省略します。 今回は、vSphere 5.0の環境上に構築しました。以降の画面イメージはvSphere クライアント 5.0の画面になります。 まず、vSphere クライアントのメニューバーの「ファイル」-「OVFファイルテンプレートのデプロイ」を選択します。 以降、ウィザード画面には利用環境にあった値を入力してください。これにより仮想マシンが作成されます。では、"UCS Emularor の設定" を行っていきましょう。   続きは、こちら↓(※)をご覧ください。 『Cisco UCS Emulatorを触ってみよう!』 の "5.UCS Emulatorの設定" ※ビジネスパートナー専用サイト(MERITひろば)のコンテンツです。ログイン or  新規会員登録が必要となります。 MERITひろば には、Cisco UCS に関する以下のような製品情報、サポート保守のサービスの情報が提供されております。あわせて、ぜひ、ご活用ください。 ▼10分でわかる『Cisco UCS 製品』まとめ ▼IBMの技術員がサポートする「CISCO UCS IBM保守サービス」 この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp

2016年12月20日

【てくさぽBLOG】ハイパーコンバージド製品のNutanixを解説!Vol.3

皆様こんにちは。てくさぽBLOGメンバーの佐野です。 前回の記事の続編になります。 今回はパフォーマンスについてと、可用性について少し補足をしておきます。   1.可用性 Nutanixではないサーバーやストレージでは、可用性を高めるために、通常はRAIDを構成しているかと思います。 このRAIDは確かに可用性を高めることはできますが、ディスクが壊れた後、壊れたディスクを交換しない限り可用性は失われたままの状態となります。交換用のディスクを追加して復旧させることはできますが、RAIDにはパリティの再計算が必須で、全てのディスクのデータを読み込みながら1本分のデータを復旧することとなります。 ディスクの故障を経験したことがある人なら分かると思いますが、このパリティ再計算での復旧には非常に時間がかかります。時間がかかるうえに「もう1本壊れたらどうしよう」と復旧が完了するまで非常に不安な時間が続きます。 Nutanixの場合、データのコピーを別のディスクまたは筐体に保管するため、RAIDのようなパリティの計算が必要ありません。もしディスクが壊れたとしても、自動的に復旧プロセスが走りますが、全データではなく壊れたディスク上にあったデータのみを読み込み、他のディスクへ再度書き込みを行います。 これにより、復旧時間が短くなり、かつ何もしなくても冗長性が保たれた状態になります。 単一の共有ストレージを採用すると、「このストレージが壊れたらどうしよう・・・」と不安に思ってしまいますが、Nutanixではデータが自動的に分散配置されますので、可用性という観点でも安心です。   2.パフォーマンス Nutnix独自の機能として「データローカリティ」があります。 データローカリティとは、データを書き込むとき「自ノードに書き込む+設定されたミラー分のコピーを他筐体に書き込む」動作を示します。言葉で書くと理解しづらいと思いますので、簡単に絵で解説します。 ①仮想マシンから書き込み要求があるとその要求をCVMが受け取ります。 ②CVMが受け取った書き込み要求はローカルのSSDに書き込まれます。 ③同時に他ノードにも書き込み要求を送信します。 ④他ノードのローカルのSSDにデータが書き込まれます。 ⑤②と④が完了した時点で、書き込み完了の応答を仮想マシンに返します。 これにより、ローカルのディスク(SSD)と他ノードに同じデータが書き込まれます。 他社のハイパーコンバージド製品では、この「ローカルにデータを書き込む」ということが保証されません。 他ノードへのデータ転送が1回ではなく2回発生するということがほとんどになり、大きなデータを書き込むことを考えれば想像できると思いますが、1回の書き込みと比べると書き込み完了までにかかる時間が余計にかかってしまいます。 ローカルに必ずデータがあるとどんないいことがあるのか?疑問に思うかと思います。それは読み込み時に威力を発揮します。 図を見てもらえば分かる通り、ローカルにデータがあるため読み込み時には他ノードへアクセスを行わず、自ノード上のデータを読み込むだけで済みます。 自ノード上のデータだけにアクセスすることで、他のノードには影響を与えない。これが重要な点です。 次の章で解説しますが、このアーキテクチャーは「Noisy Neighbor(うるさい隣人)問題」に大きな威力を発揮します。 また、データがローカルにあることでノード間の通信が発生しないため、応答時間についても若干のアドバンテージがあります。Nutanixがデータ転送に使うネットワークである10GbEの場合、1KBのデータを転送するためにかかる時間はおよそ1μ秒(スイッチなどの環境により増減します)程度と非常に小さい時間ですが、塵も積もればなんとやら、Write時と同様に転送するデータ量が多くなれば全体としての応答時間に違いが現れてきます。   3.Noisy Neighbor問題 Noisy Neighborとは何か?まずここから解説します。 仮想環境では一般的に共有ストレージを利用することが多いです。共有ストレージを利用するということは、いろいろなコンポーネントを各仮想マシンが共有で利用するということです。容量効率を高めるために、複数のRAID Arrayを束ねてプール化することがほとんどだと思います。 このプール化された領域が例えば10,000IOPSのパフォーマンスが出せるとしましょう。仮想環境全体で10VMが稼働し各VMが500IOPSを使っている場合、全体で5,000IOPSなので問題なく処理ができます。 しかし、1台のVMが極端に大きな負荷をかけた場合、そのVMが原因で残りの9台のVMのパフォーマンスが低下します。 図の場合では1台が6,000IOPSという負荷をかけて、全体でストレージの処理能力を超える高負荷状態となっています。ストレージの処理能力を超えると、IO要求に安定して応答することができなくなり、応答時間が長くなります。仮に処理能力を超える負荷でなかったとしても、ディスクを共有しているために応答時間が長くなるということが発生します。 被害にあっている(?)9台の仮想マシンは何も悪くないのにパフォーマンスが悪くなる。これが「Noisy Neighbor」と言われる現象です。 前章で解説したNutanixのデータローカリティ機能があれば、この影響範囲を最小限に抑えることができます。 簡単なイメージ図を添付しますが、データがローカルにあるのであれば、負荷はローカルにのみ集中します。そのため、他のノードには影響がありません。 繰り返しになりますが、他社のハイパーコンバージド製品ではデータがローカルにあることが担保されません。ですので、高負荷状態になると全ノードに影響が出てしまいます。 ※画像はイメージです これがNutanixを使うメリットになります。 特にVDIの基盤として利用する場合には、ログイン時の負荷が集中するログインストームやウィルススキャンの負荷など、ディスクIOが高負荷になるきっかけは多々存在します。 パフォーマンスへの影響を局所化することができるNutanixがVDI環境向けの基盤としての採用が多いのは、こういった機能があるから、ということもあるのでしょう。   4.まとめ 可用性について、Nutanixは一般的なRAIDと比べて勝手にデータの冗長性が確保されるということが分かると思います。 過去にディスク障害で徹夜をした経験があるようなお客様には非常に有効なソリューションではないでしょうか。 パフォーマンスについては、高負荷状態になっても影響範囲を最小化できると解説をしました。これはNutanixのデータローカリティが実現し、他社製品にはない機能です。 最後に、Nutanixの動作等に関する情報はバイブルとして公開がされています。是非こちらもご参照ください。 URL:http://nutanixbible.jp/   <関連記事> 今注目の”ハイパー・コンバージド・インフラ”とは ハイパーコンバージド製品のNutanixを解説! ハイパーコンバージド製品のNutanixを解説!vol.2 10分でわかる『Nutanix製品』まとめ ※ MERITひろば 会員サイトにログインが必要 ———- この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp

2016年11月28日

【てくさぽBLOG】Sparkとは?

皆さん、最近「Spark」という言葉をよく耳にされませんか? 「Hadoop と同様ビッグデータを分散処理で扱うソリューション?」「インメモリーで稼動するので高速処理できる開発基盤?」 のような認識をされているかもしれません。 (さらに…)

2016年11月25日

【てくさぽBLOG】Cisco UCSってなんだ?[2016年11月版]

皆さま、こんにちは。てくさぽBLOG メンバーの 岡田です。 エヌアイシー・パートナーズでは今年度から新たにCisco Unified Computing System(以下 UCS)の取り扱いを始めました。 UCSが発表されてから既に7年近く経っておりますが、再びUCSが注目を浴びています。今回は、これからUCSを検討しようとお考えの皆さんに向けて、その特徴やメリットをお伝えします。 1. Cisco UCS とは ずばり、Cisco社製のIA(Intel Architecture)サーバです。 Intel製CPUが搭載されているので、Windows Server/Linux/VMware ESXiなどの、Intel CPU用のサーバOSがUCS上でも稼働します。 では、なぜネットワーク機器のベンダーであるCiscoがIAサーバを出したのでしょうか。 仮想化が一般化した現在のデータセンターでは、サーバ、ネットワーク、ストレージ、アプリケーションといった各構成要素を個別に構築、デザイン、最適化するサイロ型になっています。その結果として、各コンポーネント個別の管理となり、管理者間の連携の煩雑さや環境変更時の検討項目・調整・検証期間工数の増大が大きな課題となっています。 これらの問題を解決するために、UCS は、仮想環境やクラウド環境で利用されることを念頭に置き、すべてのコンポーネントを全体最適化されたアーキテクチャの下に統合することで、複雑さをなくし、リソース管理を容易にし、最適な仮想環境を実現しています。つまり、サーバやネットワークを大きな1つのリソースとして一元管理することにより、管理・運用がしやすくなるということです。 (UCSの全体最適化されたアーキテクチャ) 2.他社IAサーバとの違い では、UCSは他社IAサーバと比べて、どんなところが違うのでしょうか。UCSが他社IAサーバと異なるところは主に以下の3点になります。 ①ファブリックインターコネクト ユニファイドポートという1Gbまたは10Gbのイーサネットポート、またはファイバーチャネルポートのどちらにも設定できるスイッチポートを搭載したスイッチです。一般的なIAサーバでは、ネットワークスイッチとファイバーチャネルスイッチそれぞれに接続しますが、UCSサーバは基本的にこのファブリックインターコネクトとのみ接続します。 ②UCS Manager ファブリックインターコネクトに搭載された統合管理コンソールです。接続されたBladeサーバ、ラックサーバを一元管理します。 ③サービスプロファイル UCSでは、サーバのハードウェア各種設定情報をサービスプロファイルとして保持し、これを実際のハードウェアに関連付けることでサーバやネットワークの設定を行います。 このような違いを持つUCSを選択すると、どのようなメリットがあるのでしょうか。 3.UCSのメリット ・シンプルな構成 UCSサーバはファブリックインターコネクトとのみ10Gbイーサネットケーブルで接続します。この10Gbイーサネットケーブルの中に、イーサネットとファイバーチャネルの両方のプロトコルが流れます。 これにより、ラック背面のケーブル本数が激減し、より適切なエアフローと低い消費電力を実現します。この結果として、データセンターのファシリティコスト、配線コスト、配線トラブルを削減できます。 ・管理ポイントの削減 UCSでは、サーバやBladeシャーシ毎に管理モジュールを持たず、ファブリックインターコネクト上にあるUCS Managerで一元管理されます。これにより、台数が増えても管理ポイントはUCS Manger1箇所のみのままですので、管理対象が増えません。これにより、個々の機器毎に管理する必要がなくなり、管理工数を削減できます。 ・シンプルな運用 サービスプロファイルを利用することで、構築時や障害発生における機器交換時において時間がかかっていたハードウェア設定作業を大幅に削減することが可能になります。他社IAサーバでは、サーバ導入時にさまざまな設定を個々に実施する必要がありますが、サービスプロファイルを利用するとハードウェアにプロファイルを割り当てるだけでハードウェア設定が完了します。また、機器が届く前にMAC アドレスなどの予約や、BIOS の設定を先にやっておくといったことも可能になります。 ・ラックマウントサーバの統合 ファブリックインターコネクト配下に接続することで、UCS Managerによる統合管理機能を、サーバ形状を問わずに一元管理可能になります。 このような特徴を持つUCSですが、エヌアイシー・パートナーズでは日本IBM社が取り扱う、IBM保守のUCSをお勧めしています。 4.IBM保守 UCSの特徴 IBM技術員によりオンサイト保守を実施します。 スペシャリストによりリモート問題判別支援をおこないます。 保守時間帯の選択が可能です。 UCSの運用を支援するオプション(交換したハードディスクのお渡しサービスと部品2時間配送サービス)を追加できます。 5.まとめ いかがでしたでしょうか。UCSはサーバメーカーとしては後発であることのメリットを活かして、これまでのIAサーバが抱えていた課題を解決できるソリューションを備えています。これにIBM保守を加えることで、ネットワーク機器からサーバまで保守をまとめてIBM社に一元化することができます。現在のデータセンター運用に課題を抱えたお客様にはぜひUCSをご検討ください。 また、エヌアイシー・パートナーズではUCSとIBMストレージ、ネットワークスイッチ等の複雑な組み合わせでの構成でも対応可能です。ご相談からお見積り依頼まで、遠慮無くお申し付けください。 最後に、弊社サイトのUCSページにてラインナップや支援内容などを記載していますので、こちらももぜひ御覧ください。 https://www.nicpartners.co.jp/products/42992/   この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp 商標帰属 ・すべての名称ならびに商標は、それぞれの企業の商標または登録商標です。

2016年10月25日

【てくさぽBLOG】Lenovoサーバーモデルを構成するには?

こんにちは。てくさぽBLOGメンバーの瓜谷です。 お客様に「見積りを持ってこい!」って言われることありませんか? 概算であれば、Lenovo サーバーは誰でも簡単に構成を作成することができます。 新しく我々エヌアイシー・パートナーズのサーバー構成チームに加わった新人Nさん向けのLenovoサーバー構成教育の一部を公開いたします。 これを見て頂ければ、きっと皆さんも自分でも構成できると思って頂けると思います。   【構成作成の例題】 先輩U:では、単純な構成の例題を出しますのでサーバーのモデルを選定していきましょう。 <例題>  サーバータイプ :ラック型  CPU :14core 2ソケット メモリ :32GB  HDD :300GB×3(RAID1+HS)         ※HS・・・ホットスペア  ネットワークポート数 :8ポート OS :VMware(構成には、含めない)     【サーバーモデルを選定する】 新人N: <例題>の情報だけで選定できるんですか? 先輩U:2016年6月の「Lenovo System x サーバーのラインナップ」の表を見てください。 Lenovo System x サーバーのラインナップ 要件は、ラック型の2ソケットとあるのでラック型の列を見ましょう。 ラック型で2ソケット可能なサーバーを参照すると「x3550 M5」と「x3650 M5」の2つのモデルに絞られます。 これらの違いは、HDDとPCIスロットの最大搭載数の違いです。 2Uのx3650 M5の方が、HDDとPCIスロットがたくさん搭載できます。 HDDの要件は、「実効容量300GB×3(RAID1+HS)」ですね。 それほど多くのHDDを搭載する必要がないため「x3550 M5」となります。 ※x3550 M5のHDD最大搭載数 2.5インチモデル 8個(モデルによっては、10個あり。) 3.5インチモデル 4個 先輩U:これで、サーバーモデルが決まりましたね。 <例題>  サーバータイプ :ラック型  x3550 M5  CPU :14core 2ソケット メモリ :32GB  HDD :300GB×3(RAID1+HS)         ※HS・・・ホットスペア  ネットワークポート数 :8ポート OS :VMware(構成には、含めない) 先輩U:サーバーモデルが決まったので、ツールを使って構成を作成していきましょう。     続きは、構成作成ガイドツールを使ってみる(※)より参照ください。 ※ ビジネスパートナー専用のコンテンツです。ログイン or  新規会員登録が必要となります。     この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp 商標帰属 すべての名称ならびに商標は、それぞれの企業の商標または登録商標です。

1 10 11 12 13 14 15
back to top