特集・ブログ

ブログ

2017年09月07日

最近のHCIまとめ[2017年9月版]

皆さんこんにちは。てくさぽBLOG メンバーの 佐野です。 1年前ほど前と比べて、最近HCIを提供するベンダーが増えてきましたね。よい頃合いだと思いますので、現時点でのHCIについてまとめてみます。   Nutanix(Nutanix NXシリーズ及びOEM製品) HCIといえばNutanix。と言われるほどの存在になったのではないでしょうか。過去の記事で詳細をお伝えしているので、機能的なことはそちらをご参照ください。(ハイパーコンバージド製品のNutanixを解説!、ハイパーコンバージド製品のNutanixを解説! vol2、ハイパーコンバージド製品のNutanixを解説! vol3) 最近のNutanixはHCIという枠組みを飛び出した発表を多数行っています。 例えば、「Xi Cloud Services」というパブリッククラウド上でNutanixのソフトウェアスタックを稼働させてIaaSとして提供するサービスがあります。当初はGoogle Cloud Platformでのみ稼働し、DR用途限定で開始のサービスです。 HCIと言えばオンプレミスに設置する専用ハードウェアというイメージがありますが、Nutanixはハイブリッドクラウドへの対応を進めています。 他にもNutanix Calmという機能でマーケットプレイスからプログラムを半自動で導入する機能も発表になっています。 これらの最新のサービス・機能は6月末のNutanixのイベントで発表になったもので、リリースはされていないため詳細が不明ですが、Nutanixが向かっている方向がHCIの枠にとらわれていないことが分かると思います。 他社の製品には無いのが、vSphereだけではなくHyper-VやXenServer、自社開発したAcropolis Hypervisorなど多くの種類のハイパーバイザーサポートです。 また、いろいろな会社の製品上でのサポートもあり、DellやLenovo製品上ではOEMとしての提供を、HPEやCiscoUCSでの稼働を「勝手にサポート」するなどしています。 極めつけは、IBM PowerSystem上での稼働もサポートしています。 HCIという枠組みを超えてどんどん進化するNutanixですので、「変わらないこと」を要件とするような環境にはもしかしたら向かないのかもしれませんね。   Dell EMC(VxRAIL) ハイパーバイザーとしては圧倒的なシェアを誇るVMwareが提供するvSANを使ったHCIがVxRAILです。管理はVxRAIL Managerから行います。(もちろんvCenterによる管理もあります) 特徴としてはNutanixと同じぐらいの製品ラインナップがあること、同梱ソフトウェアにEMCのRecoverPoint for VMやCloudArrayが含まれる事があります。 特にRecoverPoint for VMはRPOを数秒で設定できるので、仮想マシンをほぼ任意の時点に復旧することが可能となります。 CloudArrayは、クラウドにデータを逃がす機能ですが、この機能があるのはVxRAILとNutanixだけです。 x86サーバー向けのハイパーバイザーであるvSphereで有名なVMwareが提供するvSANがストレージ部分なので、VxRAILは今後も採用実績を伸ばしていくのではないかと想像します。   HPE(SimpliVity 380 with OmniStack) 今年の1月にHPEが買収したSimpliVityという会社の製品をProLiant上で稼働させるようにしたのが「SimpliVity 380 with OmniStack」です。 この製品の最大の特徴は、ストレージの機能を補うためのハードウェアアクセラレータを搭載しているという点です。 他のHCIはストレージをソフトウェアで定義していますが、SimpliVityはストレージの処理をこのアクセラレータに任せることで重複排除や圧縮の処理を他社よりも粒度のサイズを小さく処理でき、より高いデータ削減効果を得られるようにしています。 ディスクに書き込みデータ到達する前にデータ容量や書き込み回数が減るので、その分パフォーマンスが上がる効果もありそうです。 個人的に気になるのは、HPEらしくディスクの保護はRAIDを採用している点です。現時点ではAll Flashモデルだけなのであまり気にしなくてもよいのですが、HDDモデルが出てくると当然大容量HDDを搭載することになります。RAIDによる保護の欠点は障害時のリカバリが容量に比例して遅くなる点にあり、復旧処理中に二次障害が発生するとデータ全損となる恐れもあります。 SimpliVityでは他のノードに同じデータをコピーして保護するのでさすがにデータが飛んでしまうような状況は無さそうですが、今後1台あたりのHDD容量が増えてくると(HCIかどうかに関わらず)注意が必要となります。   Cisco(HyperFlex) 過去のブログ記事で詳細を書いていますので、詳しくはそちらをご参照頂きたいと思います。 上記のブログにも記載がありますが、Blade型ノードが使えるのがHyperFlexの特徴の一つとなります。 しかし、UCSファブリックインターコネクト(以下FI)というネットワークポートと管理機能が一体になった製品が別途必要になるというところが注意点です。 FIの存在がCisco UCSの強みではありますが、HyperFlexを導入する際にもFIは必須の機器になります。   NetApp 詳細情報があまり出ていませんが、SolidFireをベースにしたAll FlashのHCIです。ストレージ部分はSolidFireでONTAPではないようです。 概要としては2U4ノードのシャーシにストレージノードとコンピューティングノードを混載する構成で、最小で2シャーシからになります。また、ストレージとコンピュート部分が完全に分離しています。 All Flashストレージなので当然高パフォーマンスが期待できますが、その分価格に反映されるのが懸念事項です。 いかんせんこれ以上の詳細な情報が無いので、現時点では何とも言えないところです。この絵だけ見ると、これってHCIなの?と思うのですが。。。   まとめ 各社それぞれ特徴があるので、ケースバイケースでどの製品を採用するのか、適材適所での採用となることが多くなりそうです。 国内での実績ではNutanixやVxRAILが多いですが、SimpliVityもこれから伸びてきそうです。 ご紹介した5つの製品は全て弊社からご提案することもできますので、何かありましたらお気軽にお問い合わせください。   この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp

2017年07月19日

AI ビジネス:今こそ Bluemix で Watson 日本語版を使うべき4つの理由

この記事のポイント Watson API によって、急速に成長する 第3次 AI (人工知能)ブームの波に乗り遅れることなくビジネスに参入できる機会が広がっています。 当ブログは、企画部の担当が改めて Watson ビジネスについてその可能性を考え、「今だからこそ利用するタイミングである」と判断した理由について記載します。 主に営業、企画、マーケティングやマネージャークラスの方を対象として記述しております。 内容は担当者の個人的な見解が含まれております。また、急成長している市場とテクノロジーですので、最新の情報はリンクのソースを見て確認いただきますよう予め了承ください。   先に結論:「今こそ、Bluemix で Watson 日本語版を使うべき4つの理由」 1.IBM Watson の日本語環境は7月から、大きな縛りがなくなり、より利用しやすくなった 2.Watson は、コグニティブ・システムを実現するための要素を Web API  として提供している 3.API エコノミーは 260 兆円を超える市場に成長する予測がある 4.Bluemix はクラウドサービスのデパートのような存在でありながら、すぐに利用開始可能である 上記4つの理由によって、技術者だけでなく、ビジネスを拡大させるミッションの営業、企画、マーケティングの方も Bluemix を評価・利用しない理由が見当たらないという結論に至りました。 1.4.については、弊社のビジネスパートナー様向けに、"MERITひろば" にて詳細をご紹介しています。   日々進展するWatson API(日本語対応)ここをチェックしよう   「え?12 個でしょ?13 個なの?」 弊社の企画部のリサーチメンバーにおいても、今日(2017年7月1日)現在での Watson API の日本語環境リリースは 13 個か?12 個か?で意見がわかれていました。 正解は 12 個。IBM Bluemix カタログの Web サイトで公開されています。ログインしなくとも見ることができるのでまずはページを開いて俯瞰してみましょう。 https://console.bluemix.net/catalog/?category=watson     13 個だと認識していたメンバーは IBM WatsonのDeveloper Cloudのサイトを見ていました。 https://www.ibm.com/watson/jp-ja/developercloud/services-catalog.html   前者は IBM Bluemix のサイト、後者は IBM マーケットプレイスのサイト。マーケットプレイスはリリースされて間もないのですが、ある API は IBM 以外の会社が開発し、カタログとして掲載しているので数に違いが出ました。 今後、マーケットプレイスの API は増えていく見込みです。   12個どころではない、実は以前からフル機能使えていたBluemix   英語 Web サイトではもっと多くの APIs が公開されており、英語アレルギーが無い人々、開発者などはフル機能の恩恵、先行者利益を得ていたことでしょう。 しかし、焦らなくとも大丈夫です。この市場はまだまだ今後成長することが予想されており、この記事を読んでからすぐに「まずはやってみよう」という気持ちで進めてください。 手順や契約など不明な点がある方はお気軽にお問い合わせフォームからご連絡ください。弊社ビジネスパートナー様は担当がご説明差し上げます。 日本語の IBM Bluemix サイトに掲載されている API もまだ完全に日本語対応していないのですが、日々進展しております。   260兆円市場? そもそも API(エーピーアイ)とは?   アプリケーションプログラミングインタフェース(API、英: Application Programming Interface)とは、ソフトウェアコンポーネントが互いにやりとりするのに使用するインタフェースの仕様である。(出典:Wikipedia) この API はWeb API のことを示しており、ソフトウェアの一部を Web 上に公開することによって、誰でも外部から利用することができる仕組みです。 例えば、Instagram (インスタグラム)のアカウントを作成するときに、Facebook アカウントでそのまま利用することができますが、他のアプリ、サービスのアカウントで認証する仕組みも API を使っているのです。アプリケーション同士が連携でき、開発側は API を使うことでその機能を自社で開発する必要がないという大きな利点があります。 この API を提供する側の市場は「APIエコノミー」と呼ばれ、2018年には 260 兆円市場に成長するという予測もあります。 出典:http://news.mynavi.jp/articles/2016/01/12/bizapieconomy/     では、API 提供者しか利益を享受出来ないのかと言えばそうではありません。 API を組み合わせる、データを提供する、新たなサービスを作るといった”付加価値”をつけることで新たなビジネスを創出できる点が重要なのです。 海外で人気の API をローカライズ(翻訳)してサービス提供するだけでも立派なモデルとなり得ると思います。 また、この2年ではチャットボットを使った会話形のサービスも数多く生まれてきましたが、 Conversation という Watson API の日本語版を使うことでチャットボットの開発は効率化され、貴社の資産(データ)があらたなビジネスにつながる可能性が高まっています。 スタートアップや Web 系のベンチャーは当たり前のように使っている API を是非、貴社のビジネスに取り入れてみてはいかがでしょうか。   2017年7月版 APIを使ったデモサイトを見てみよう!   百聞は一見にしかず、実際に Watson API デモを見てみましょう。12個の API から今回は 2 つの API デモサイトをご紹介。   その1:画像から意味を検出しちゃう! 「Visual Recognition」   この API はその名のとおり、画像を判別する機能で、ユーザ独自の画像判別モデルを手軽に作成できます。 Web 上で公開されているいくつかのデモの中で、日本情報通信株式会社の Bluemix デモサイト に記載されている記事を紹介します。     「ハッピーターン」と「ばかうけ」を判別することが出来る? 日本人にピッタリの良いデモですね(笑)。判定させるために、ハッピーターンとばかうけの画像をWatsonに学習させています。   また、技術サイト Qiita では、Twitter で話題になった「ラブラドールとフライドチキン」の画像を Visual Recognition API で判定させてみたブログもありす。   そこで、私も使ってみました。デモサイトは英語版ですが、画像系なので抵抗ありません。 エンジニアではないため、試しに画像を Upload しただけ、10 分で体験しました。 サイトは冒頭で紹介した IBM Watson Developer Cloud の英語版サイト。   サンプルの画像をクリックするか、自分で画像をアップロードしてみよう!とのことで、この画像をアップロードすることにします。   そうです、MERITひろば のロゴです。 学習をさせていない Watson に判定さてみます。ロゴ画像を指定し、待つこと5秒。結果がこちら。   Watson が MERIT ひろば のロゴから読み取った意味は「Jobcentre」 0.57、「Office」 0.57と続きます。Watsonは正解に対する確信度を0~1の数字で表しているので、0.5をちょっと超えていますがが「うーん、たぶんJobcentre?」という感じでしょうか。 ハッピーターンの時のように学習させてませんから無理もありません。 ところで、jobcentre とは何でしょうか。どうやら、イギリス版ハローワークのようです。   Google は似ている画像を検索していますが、Visual Recognition API はネット上を検索するのではなく、その画像の意味を考えたのですね。 今後は「あの MERITひろば でしょ?」と Watson に言わせたいと思いました。   その2:テキストから筆者の性格を推定しちゃう「Personality Insights」   次は、言語分析をして、文章を書いた人の思考や性格を推定する API です。 https://personality-insights-livedemo.mybluemix.net/   では、早速このブログ記事のここまでの文章をコピペして診断します。・・・約 3,400 文字ですが、待つこと2秒で結果がでました。   かなり攻めの姿勢がある人物ですね(笑) 右上に記載されている「下記のような傾向がありそうです」については、具体的ですのでわかりやすく、正直あたっていると思います。 Twitter アカウントを入力すると過去のツイートから性格判断をしてくれます。 さて、この API をビジネスに展開するにはどのようなアプローチが考えられるでしょうか。 例えば、人事・採用の現場で SNS のデータから人物の特性を見る・・・というのは序の口で、特定の著者の文章を学習させ、校閲をWatsonが実施し、「この著者はこのような表記を使わない。もしかして◯◯では?」という示唆をしてくれるかも知れません。 もちろん、商品のマーケティングで SNS を分析して消費者の反応を解析するのにも役に立ちます。「これヤバくない?」がどちらの意味のヤバイなのかは前後の会話や状況、その人の過去のヤバイの使い方によって反対できるのかも知れません。   自社でどのように Bluemix 、Watson API を検証し、ビジネスにつなげていけばよいか   ここまではテクノロジーの可能性を見てきましたが、いざ自分たちのビジネスにつなげるにはどのようなアプローチが必要でしょうか。 使ってみる!という最初の一歩を踏み出すには、まずは自分(自社)の得意な領域で評価してみるのが良いと思います。 例えば、IBM の特約店など、旧来から IBM 製品を販売してきた企業の場合を考えてみます。 会社では Notes を利用していますが、Notes に蓄積されている文書データの解析に Watson を利用してみることを検討したとします。そうです、共有 DB などの膨大な文書が存在しているはずです。 これらは、カテゴリに分けて整理されていると思いますが、探す時だけでなく、文書を作成し登録する際にも「どのカテゴリが適しているか」に悩んだことはありませんか? テキスト解析を活用すれば、ユーザは文章を Notes に放り込むだけで、Watson が文書の中身をみて、適切なカテゴリに配置してくれるという仕組みが考えれます。 これによって、社員の生産性があがる可能性があります。 このようなナレッジを社内に作ることで、自社の顧客の製造業に対して、製品の利用者のデータが膨大に集まっているが活用できていないケースを見つけ、サービスを構築することにつながるかも知れません。(もしくはデータを集めるビジネスモデルを提案できるかも知れません)     最後に   IBM Bluemix、IBM Watson API (日本語対応)について、2017 年は「まずは使ってみる」というビジネスの準備期間として取り組んでみてはいかがでしょうか。 この Web サイトを運営しているメンバーの一人が「日々投稿しているページのサムネイル画像の選択が大変なので、Watson に自動選定してほしい!」と言っていました。 今は人間がやっているが、自動化できるのではないか? 自動化されると助かる!という領域こそが Watson ビジネスの切り口になると思います。 若手のエンジニアや Web サービスを企画したい人に Watson API を使ったコンテストを実施し、その可能性を検証してみるものも良いでしょう。 API やクラウド、オープン系の技術をビジネスにつなげるきっかけは意外なところにあるかも知れません。 そのきっかけ作りをお手伝いします。お気軽に弊社までお問い合わせください。   ご案内 7月27日、8月31日に日本 IBM が主催となる IBM Watson 実践セミナーが東京で開催されます。ビジネスパートナー限定のセミナーです。 詳細はMERITひろば の案内ページをご覧ください。     ご参考情報 製品情報 ▼IBM Bluemix 関連製品情報 ▼IBM API Connect ▼IBM Watson Explorer(WEX)

2017年06月30日

Cisco HyperFlex アップデート

皆さま、こんにちは。てくさぽBLOG メンバーの 岡田です。 仮想インフラの提案が必要になった際に、ハイパーコンバージド・インフラストラクチャ(以下、HCIと省略)を検討することも多くなってきたのではないでしょうか。Nutanixを始め各社からHCIが提供されていますが、Cisco社もCisco UCS(以下、UCSと省略)をベースにしたHCIを提供しています。過去2回のCisco UCSブログに続き3回目の今回は、今年4月に発表になった、Cisco社のHCIであるHypertFlexとその最新アップデートの 2.0について紹介させていただきます。 (1回目)Cisco UCSってなんだ? (2回目)Cisco UCS Emulatorを触ってみよう!   1.そもそもHyperFlexとは 2.0を説明する前に、HyperFlexそのものについて説明します。 HyperFlex は2016年3月に発表されたUCSベースのHCI製品です。 ⇒ ここではHCIそのものの説明は割愛しますので、ご興味ありましたらこちらもご覧ください。(今注目の”ハイパー・コンバージド・インフラ”とは) ・ハードウェアの特長 ラック型の「HX220c」「HX240c」、Blade型の「B200 M4」があります。(ちなみにコンピュートノード用途限定ですがBlade型のHCIがあるのはHyperFlexだけです)。最初のリリースではディスク構成としてはSSD+HDDのハイブリッド構成しか選択できないことや、既にUCSサーバーとファブリックインターコネクト(以下、FIと省略)を持っていても、HyperFlexは専用のFIが必要なことが課題でした。 ・対応ハイパーバイザー 現時点vSphereのみで、管理はvSphere Web Clientから行います。 以下のようにvCenterからHyperFlexのクラスタを管理することができます。 ・統合管理 コンピューティング、ストレージに加え、ネットワークの管理も統合できます。これはUCSが持つ特長ですが、他のHCIと比べてHyperFlexの特徴でもあります。 ・共有ストレージ HCIはサーバーのローカルディスクをソフトウェアを利用して共有ストレージ化してハイパーバイザーに提供しています。これをSoftware Defined Storage(以下、SDSと省略)と言いますが、HyperFlexのSDS部分は仮想アプライアンス型でSpringPath社の製品をOEM利用しています。 このような特長を持つHyperFlexが進化したものがHyperFlex2.0になります。 2.HyperFlex 2.0とは このようなHyperFlexですが、今年4月に2.0が発表になりました。 2.0の新しいトピックは以下になります。 ・オールフラッシュノードの追加 これまではハイブリッドモデルのみでしたが、オールフラッシュモデルが追加されました。これによりハイブリッドモデルと比べて大幅なパフォーマンス向上が可能となりますので、高い性能要件が求められる案件でもHyperFlexを検討できますね。NutanixやVxRailでは既にオールフラッシュモデルが選択できましたので、HyperFlexも追いついたということですね。 ちなみに、気になる性能ですが、HyperFlexのハイブリッドモデルと比べて最大で6倍のIOPS、5分の1の遅延になるとのことです。 ・40 Gbpsファブリックインターコネクトへの接続の対応  UCSファブリックインターコネクト(以下、FIと省略)の第三世代モデルであるUCS6300シリーズに対応し、40Gbpsネットワークが利用可能になります。オールフラッシュモデルの対応と合わせて、より高い負荷に対応できるようになりました。 ・既存FIへのHyperFlexノード追加 これまではHyperFlex専用のFIが必要であることが運用面および費用面での課題でしたが、2.0からは既存FI環境にHyperFlexノードを追加して構成することが可能になります。これにより、既存のFIを有効活用してUCSサーバーとHyperFlexをUCS Managerから統合管理することが可能となります。既にUCSとFIをお持ちの環境では管理効率が良くなりますね。 ・HyperFlex Edge(ROBO)登場 リモートオフィス/ブランチオフィス(ROBO: Remote Office and Branch Office)向けに設計されたシンプルなソリューションで、HX220ハイブリッドモデル3ノード構成。FIなしで1Gbネットワークが利用可能。ただし、拡張はできません。 ROBO向けとはなっていますが、FIが不要ということもあり、小規模案件でも検討できるかもしれませんね。 ・ その他に、HTML GUIオプションの提供やRESTful APIのサポートといった操作性の向上に関連したアップデートも含まれます。   3.まとめ いかがでしょうか。HyperFlexも他のHCIと同様に継続的にアップグレードが行われて進化していることがご理解いただけたかと思います。HyperFlexを選択する一番のメリットは、FIとUCS Managerでの統合管理だと思いますので、既にUCS環境が導入済みのお客様には最適なHCIです。また、まだUCS・FI環境をお持ちでない場合もまずはHyperFlex+FIを導入して、その後に続くサーバー導入にもUCSを選択いただくことで同様に統合管理が実現できます。 ぜひHCI選択の候補にHyperFlexもご検討ください。 ==================================================================== <関連情報> MERIT広場には、以下のような関連の製品情報、サポート保守のサービスの情報が提供されております。あわせて、ぜひ、ご活用ください。 ※ビジネスパートナー専用サイト(MERITひろば)のコンテンツです。ログイン or 新規会員登録が必要となります。 10分でわかる『Cisco UCS 製品』まとめ IBMの技術員がサポートする「CISCO UCS IBM保守サービス」 ==================================================================== この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp

2017年06月20日

WASのバージョンアップでビジネスが拡がる!?

皆様こんにちは。ちょっとお久し振りのてくさぽBLOGです。 このコラムを読んでくださっている皆様の中には、アプリケーションサーバーの構築や販売経験をお持ちの方がたくさんいらっしゃると思います。 オンプレでもクラウドでも、B2BでもB2Cでも、Webシステムにアプリケーションサーバーは欠かせない存在ですが、その実行プラットフォームであるIBM WebSphere Application Server(以降WASと記載)は、この競争が激しい市場で8年連続TOPシェアを誇る製品です。 WASは昨年2016年6月に最新バージョンであるV9.0が発表されていますが、保守サポートが終了しない限りSWのバージョンアップはしたくない・・というお客様が多いかもしれません。 でも、バージョンアップが保守サポートの制限だけでなくお客様にとって有意義であれば、是非ご提案したいですよね。今日はそんなバージョンアップのお話をしたいと思います。 1.Java SE 6はもうすぐサポート終了 WASにはJavaの実行環境が含まれていますが、Java SE(JDK) 6がサポート終了間近となっていることはご存じですか。 それって結構古いWASでしょ?うちのお客様はそんな古いバージョンは使ってないはず・・と思いきや、そうでもないかもしれません。 Java SEの最新バージョンは8ですので、下図のように古いバージョンのWASをお使いであれば、是非バージョンアップのご検討に入っていただきたいと思います。 2.バージョンアップの利点 とはいえ、Javaの保守サポート終了という理由だけでバージョンアップするのは・・・と躊躇されている皆さんに、是非このブログを参考にしていただきたいと思います。 最新バージョンのWAS V9.0は、Javaの最新仕様に対応しているだけでなく、お客様のビジネス傾向に合わせて以下の特長を持っています。 特長1.多様なクラウド環境への対応 特長2.マイクロサービスとAPIエコノミーへの参画を推進 特長3.従来のPVU課金モデルに加え、仮想コア・ベースの月額課金モデルのライセンス体系も登場  特長3の詳細はこちら(MERITひろばへ) WASは、基幹システムとエンドユーザーに近いシステム、いずれにも対応しています。 エンドユーザーに近いシステムは変化が激しく、素早い開発や継続的なデリバリーが必須要素となり、マイクロサービスアーキテクチャー型で、インフラもすぐに利用可能なクラウド環境が活用されます。 一方、基幹システムを中心とした安定したエンタープライズ・アプリケーションでは、オンプレ環境でのウォーターフォール型開発が依然として引き継がれていますが、基幹システムが保持している情報をエンド・ユーザーに素早く提供したいというニーズから、API公開する方法、マイクロサービス化といった検討も始まりつつあります。 そしてこれらの2極化したものを連携する仕組みとしてAPIが注目されています。 クラウドやAPIエコノミーへの対応など多様化する用途に対応できる最新バージョンでは、用途に応じたラインタイムが選べるようにもなっています。 3.Libertyランタイムの検討のタイミング 今後のクラウド展開を考えると、もっと軽量なランタイムが欲しいですよね。 先程用途に応じたラインタイムを選べると書きましたが、WASは軽量なLibertyラインタイムを提供しています。 また、従来のラインタイムに比べ、運用の自動化や新機能のいち早い利用も実現されています。 Libertyランタイムはたった5秒で起動でき、メモリー使用量60MB ディスク使用量100MBと軽量で、リソース使用量で課金されるクラウドの利用に適しています。また、構成ファイルはserver.xmlという1ファイルのみのため移行も簡単ですし、再起動なしで構成変更が可能です。 では、何故このような軽量化が実現できたのでしょう。 それはフィーチャーと呼ばれる必要な機能単位だけを柔軟に組み合わせて利用しているからです。使わないフィーチャーはメモリーにロードされないため、高速に起動できます。 また、新機能は新しいフィーチャーで提供され、従来のフィーチャーも使い続けることができるため、ランタイムの更新が不要です。このゼロ・マイグレーションという新しい概念により、既存構成やアプリケーションへの影響を最小化でき、最新ラインタイムへの移行が楽になります。 4.ランタイム選びは注意点もある 他にも、今回ご紹介できなかった多くの特長を持つLibertyランタイムですが、注意点もあります。 たとえば、LibertyはWAS V8.5以降から提供されたランタイムのため、従来の古いランタイムとはサポートしているJavaのレベルが異なるため、使用できない古いAPIが存在します。 また、プロセスの起動・停止方法やログの種類、アプリケーションのデプロイ方法など、運用の仕組みも変わってきます。 5.ほかのアプリケーション・サーバーも気になる!? もしかしたらWASのバージョンアップどころか、JBoss、WebLogic、Apache Tomcatなど他製品への切り替えが検討されている・・・どいうケースもあるかもしれませんね(涙)。 WASは8年連続TOPシェアを誇る製品ですので多くの特長を持っていますが、今回は軽量性と課金体系について比較してみました。 ・軽量性 起動時間とメモリー使用量(フットプリント)を比較した左グラフでは、LibertyランタイムはTomcatに少し劣っているものの、JBossやGlassfish(Weblogicのオープンソース版)の半分以下と非常に軽量です。 また、右のグラフでは、Libertyランタイムはどの製品よりも性能(スループット)が高く、Tomcatより20%も性能が高いことがわかります。 ・課金 WASにはランタイムが2種類ありますが、ラインタイムによらず課金体系が豊富です。 オープンソースはライセンス・フリーですが、エンタープライズのお客様には保守サポート付きのメーカー版を選択されているケースが多いのではないでしょうか。WASはご使用環境によって最適な体系を選択することができるよう、複数の課金体系が用意されています。 たとえば、大規模な仮想環境では、物理サーバー全体の性能で課金するとかなり高額になってしまいますね。 その場合には、アプリケーションが稼働しているサーバーの性能分だけ課金する、サブキャパシティ・ライセンス体系が用意されています。この課金体系はRedHat社のJBossでは提供されていません。 また、仮想コア数のみで課金計算できる体系も提供されています。パブリック・クラウドでは、物理サーバーのコア数などの情報を開示していないケースもありますので、コア数を数えるだけ見積もることができますし、もちろん月額課金も用意されています。 6.最後に 実はLibertyランタイムは最新バージョンではないバージョン8.5でも提供されています。しかしながら、是非WASのバージョンアップと共に、新しいLibertyランタイムの検討もお勧めしたいと思います。 この軽量なLibertyランタイムの無償評価版と日本語の技術情報がこちらからダウンロード可能ですので、是非お試しください。 http://ibm.biz/LibertyJPN この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp

2017年06月02日

参加してみた!IBM Watson Summit 2017 ~ コグニティブはどこまで浸透したのか?~

参加メンバーにインタビュー 皆さま、こんにちは。 企画部のWebサイト運営担当です。 去る 4月27日、28日にグランドプリンスホテル新高輪で開催された「IBM Watson Summit 2017」の参加レポートをお届けします。昨年の”参加してみた”レポート同様、Summit に参加した弊社エヌアイシー・パートナーズのメンバーにインタビューしました。 企画担当:では早速。まず、はじめに、昨年の Watson Summit と比較して感じた違いを「ひとこと」で教えてください。   昨年の Watson Summit と比較して Kさん:昨年はみずほ銀行のコールセンターの事例が中心だったが今年は他社のコールセンターの事例も多かった。国内の大手銀行、生保は Watson の採用もしくは導入検討が進んでおり、裾野が広がってきたのだと思う。 Jさん:蔦屋(TSUTAYA)と地銀支店が連携した事例などもありましたね。 Aさん:昨年は「これからの時代はコグニティブだ」という言葉が多かったのですが、すでに実装している企業もあり、更に AI やチャットボットなど Watson に関連するテクノロジーもユーザ側がコグニティブを意識してなくても利用していると感じました。 また、この 1 年で日本IBM が直接受けた Watson 案件は 200 件を超えているという話を聞きました。いよいよ実案件でも Watson、と言った感じがしました。 代表的な事例まとめ( Watson の活用事例 2017年) ◆海外の Watson 米国では大手税務サービス企業の H&R BLOCK が顧客が作成した確定申告の内容を確認し、より多くの還付金を得られるようにアドバイスするサービスに Watsonを利用するなどサービスの展開が進んでいる。 ◆日本の Watson 日本では銀行、生保のコールセンターで Watson が採用されている。この一年の特長としては「知識ベース」と言われる Watson の辞書にあたるナレッジを収集、蓄積し、分析する活動が活発である。これらの知識ベースを「学習済み Watson 」としてサービス展開を視野に入れている。 三井住友銀行は企業の信用力変化を示すニュースを自動収集するための知識ベースを構築 トランスコスモスは自社のコールセンター運営知見を複数の知識ベースにまとめる 三菱自動車は自動車の不具合兆候を把握し、未然防止につながる情報や顧客の声を可視化する知識ベースを構築 また、国内大手企業以外にもベンチャーや研究開発型の企業がWatsonの活用を開始している QUICK は金融マーケット情報の自然言語照会に取り組む ファーマクラウドは調剤薬局向けの在庫医薬シェアリングサービスに Watson のチャット機能を付加 アイ・ラーニング社はプログラミング研修で受講者の質問に回答する Watson や個々人の最適なラーニングパスを提示する Watson を活用提供 日本電通は基幹システムとの連携で総務・人事・経理関連の社員向けチャットボットを提供 企画担当:事例がどんどん増えているということですね。ところで、イベントの形式として昨年と違う点として、今年は会場に入る一般の参加者も有料のイベントになりましたよね。展示数が増え、内容も充実した思いますが、会場の様子はいかがでしょうか。 Aさん:参加者の総数は減っているはずですが、混み具合は去年と同じか、それ以上に感じましたよ。私どもの親会社である日本情報通信(株)はダイヤモンドの更に上のマーキー(Marquee)というトップのスポンサーとして出展していましたが、ブースエリアも賑わっていました。 ご参考:▼【出展レポート】 IBM Watson Summit 2017 [gallery link="file" size="large" ids="49156,49157,49158"]   企画担当:なるほど、イベント会場盛況で内容としては先行事例だけでなく、Watson 採用事例の裾野が広がってきたのですね。本題に入る前に、Watson の話題がどれだけ盛り上がっていたかを企画部の Web 担当として、ちょっと違う視点で調べてみました。   ネットでみる Watson の盛り上がり IBM Watson の注目度合いはネットの検索量でも推し量ることができます。下図は世界中の人が過去5年間の「IBM Watson」を検索したボリュームです。(Google Trendより) トレンドラインは右肩あがりですね。(大きな谷間はクリスマス〜年末のシーズンです)   ついでに地域別の検索ボリュームをみると、1 位はシンガポール、次いでUS、インドと IT、開発の先進国と重なります。日本は 9 位でした。     地域別の集計を都市別のメッシュを変えてみると・・・中央区が世界で 2  位です! 我が社も中央区にかまえていますのでその影響でしょうか(笑) (ツッコミ:日本IBM本社も中央区です!)   1 位のポキプシー、3 位のオースティンも IBM の研究所があり、 IT の中心都市ですからね、2 位 の中央区は検索の世界ではリードしています。 企画担当:また、昨年当サイトにて掲載の Watson Summit2016 の記事 もイベント開催1ヶ月程度前から期間中にかけて、アクセス数が 200%Up になっていました。大手メディアサイトではない弊社のページにアクセスしてくださって感謝です。   今年の Watson Summit で使われた「メッセージ」「キーワード」とは? 企画担当:このようにネットの世界でも注目されている IBM Watson について、Summit で感じたことをもっと伺おうと思います。今年の Summit の「メッセージ」はどのようなものか教えてください。メッセージが難しければ、良く使われていたキーワードでも良いです。   ハイブリッドクラウドに見る【非機能要件】と【Lift&Shift】というキーワード Jさん:そうですね、今年の Watson Summit を一言でいうなら、「Cognitive on IBM Cloud」というメッセージを鮮明に感じました。 企画担当:Watson と Cloud が明確に一つに繋がったのですね。では、まず「IBM Cloud」についてのメッセージはいかがでしょう。 Aさん:クラウドというメッセージにおいて「非機能要件」という言葉は頻繁に聞きました。当初は「API connect を利用してオンプレからクラウドに上げると Watson が使えるんだよ」という事かと思ってましたが、そうではなく、オンプレをそのままクラウドに上げるのではなく、それぞれを分ける。というメッセージでした。   企画担当:「非機能要件」という言葉はあまり馴染みがなかったのですが、どういった定義なのでしょうか。 Jさん:「Lift&Shift」という言葉も一緒に使われていました。ハイブリッド・クラウドを構築するにあたって、既存のアプリケーションを変えなくてよいものと書き直してクラウドに持っていくものの 2つ に分けて考えるというところから来ています。この時に変えなくてよいものをパブリック・クラウドに持っていくと、従来はオンプレのアプリケーションの下層で動いていた管理、監視、制御などの部分もクラウド上で自分で構築する必要に迫られる。この部分を「非機能要件」と呼んでいます。 一方で、書き直すクラウドにもっていくアプリケーションの移行方法を「Lift&Shift」と呼んでいるようです。 Aさん:そうそう、オンプレをそのままパブリック・クラウドに上げるのは無理があるので、IBM Bluemix Infrastructure (Softlayer) では、ベアメタルを用意しているんですよ、オンプレからシステム管理も含めてベアメタルに持っていけばいんだよ、というメッセージですね。 Kさん:「非機能要件」と「Lift&Shift」については、どのセッションでも話題として出ていました。 企画担当:なるほど、IBM Bluemix Infrastructure(SoftLayer)の強みを活かしたアプローチですね。クラウドのキーワード、メッセージは他にもありましたか?   クラウド時代の戦略【オープンスタンダート】とは? Jさん:IBM Cloud はBluemix という PaaS 環境がベースになっているので、まずはそこから入り、アプリケーションの差別化に Watson / コグニティブ が IBM の強みとなっています。さらにアプリケーションが使うデータがキーとなります。データという意味では IT 業界では DB のあるべき姿を考え、SQL と NonSQL のトピックになりがちですが、「データレイク」をキチンと管理しようという話をされています。 これらのデータの扱いについては、IBM は全て「オープンスタンダード」で答えています。つまり IBM というベンダー製品で抱え込むのではなく、仕様をオープンにしていく、オープンソースを活用するという意味です。IBM はオープンスタンダードに投資し、そこから出てきたテクノロジー、会社を買収するという戦略をとっていて、全方位で隙間がないように、ニッチなエリアに対しても同じ「オープンスタンダード」を戦略にしています。エンドユーザから見ても「ベンダーロックインを回避でき、自由度が広がる」という利点につながります。 Aさん:「データレイク」というキーワードは昨年のWatson Summitでも登場してましたね。 Sさん:私は 3 月にラスベガスで開催された IBM 最大のイベントInterconnect 2017 に参加してきましたが、テクニカルな面での IBM のメッセージは Watson Summit もほぼ同じでした。 IBM Bluemix Infrastructure (SoftLayer) 関連では Cloud Automation Manager というマルチクラウド、オンプレのいずれにも対応したデプロイ管理ツールがオープンスタンダードのひとつだと思います。マルチクラウドということは SoftLayer だけでなく、AWS や Azure なども対象となるということです。現在は、IBM Bluemix 上に無料で提供開始していて注目されています。 企画担当:Blumix 自体がオープン・クラウド・アーキテクチャーの実装プラットフォームですから戦略は理解しやすいですね。では次に、Watson に関連した製品・サービスという切り口ではどのようなメッセージ、キーワードが Summit で話題になっていましたか?   Watson の知識データ Jさん:データの扱いについてですが、知識ベースの構築しかり、大事なのはデータを Watson で扱える状態にすることです。いわゆる「コーパス」と呼ばれる AI の知識データですね。ここをどう構築していくかが鍵でもあり、泥臭い領域ではあるのですが、このテキスト分析の行程で「Watson Knowledge Studio」を大々的にメッセージしていました。「Watson Knowledge Studio」は、開発者と各分野の専門家が協力して、特定の業界向で利用されている言葉の意味を理解する機械学習モデルを、開発者と知見者である専門家が協力して作成できるクラウド・ベースのアプリケーションです。ブラウザ環境ですし、無料トライアルもあるので試しに使ってみるユーザが増えると思います。 ご参考:▼IBM Watson Knowledge Studio Watson Knowledge Studioの画面   企画担当:Web サイトを見ると「特定の業界向けのカスタム・アノテーター・コンポーネントを作成できる」と表記されていますが、要するに「業界特有の用語や知識のニュアンスを Watson に教えることができる」という感じですね。やはりテキスト分析は重要ですよね。 Aさん:ユーザのセッションで女性研究員2名によるテキスト分析の話がありました。大量のデータの中に、「川崎」という文字が出てきた時に人の名前なのか地名なのかをどのように識別させるかというトピックなど興味深い話でした。ユーザは色々試行錯誤されているようです。   学習済み Watson の提供 Jさん:一昔前の AI  はルールの定義という作業でひとつひとつの言葉を定義する必要がありました。そして機械学習が主流になっていくのです。IBM ではこの領域は SPSS のテキストマイニングなどのナレッジが活かされています。サービスインまでに Watson にある程度覚えさせる行程とリリース後に覚えさせる行程がありますが、コグニティブの世界ではこのコーパスを作るところは泥臭い作業で、特にリリース後のユーザの参加は必須ですね。 企画担当:データ分析の領域において、近年は「データサイエンティスト」という分析担当者に注目されていましたね。 Jさん:最近、IBM は「データサイエンティストのようなスーパーマンはそんなに多くはいない」と言い始めています。確かに私も個人的に存在を一人も知りません(笑)。DSX(Data Science Experience)というプラットフォームを IBM は用意しています。一人のスーパーマンではなく、データの準備、整備、プログラム開発、分析など行程をわけてチームワークでデータサイエンスを始めるためのプラットフォーム。こういうのが出てくるのは Knowledge Studio と同様に市場がコグニティブの導入検討ではなく、実際の導入の際に生産性に影響しているプロセスの改善ニーズがあるのだと思います。Watson も「何に使えるのか」から「どうやって効率的に使うか」のフェーズに入ってきたのですね。 Data Science Experienceの画面   企画担当:全体のメッセージは先行事例から次のフェーズに来ているということですね。先行投資できる企業は良いですが、研究や開発に大きな投資ができない企業はどうすれば良いでしょうか。 Jさん:IBM はインダストリー別に「”学習済み” Watson」をリリースしていくとこのイベントでも発信しています。例えば「Watson automobile」は自動車業界向けというように業界別にパッケージし、金融、製薬など現在 80 種類ほどの学習済 Watson をリリースしていくとのこと。 企画担当:企業が持つ「データレイク」やナレッジを知識ベースとして提供し、学習済みの Watson が用意されていく、オープンスタンダードな思想をもとに Watson を利用したサービスが増えていく・・・こんな近未来が見えてきますね。 Jさん:気象データや医療文献情報などもそのうちの一つですね。IBM 自体も The Weather Company を買収して、気象データを提供する側になっています。   今後のビジネス展開 - API 化 企画担当:こういった環境において、ビジネス面で考えるとシステムインテグレーターやソリューションプロバイダーはどのような戦術が必要になるのでしょうか。 Aさん:私の理解ですが、Watson は API のことを示していると思います。そして知識ベースは個別のインダストリーで用意する。この知識ベースを構築する行程はシステムインテグレータなどのベンダーがユーザをリードし、一緒に構築していく領域だと思います。 Kさん:テキスト分析、データマイニングの経験が豊富なベンダーは優位ですね。また、Web アプリ、API 開発が得意なベンダーにもチャンスだと思います。IBM は「IBM マーケットプレイス」をラウンチしていますが、日本国内はまだ立ち上がったばかりです。 このマーケットプレイスで開発ベンダーは開発した API、ソリューションをカタログ化して掲載できるのです。   企画担当:なるほど、開発力はあるが営業力が弱いといったベンチャー型の会社や部門は参入のチャンスですね。 Jさん:そうですね、「今後は API 化してほしい」というのが IBM のメッセージです。ユーザ、パートナー企業を含めた「API エコノミーの推進」とも言えます。 企画担当:ありがとうございます。初歩的な質問をしますが、一般企業が API 化することの利点ってどんなことがありますか? Jさん:例えば、フライト情報を検索、表示する旅行会社のアプリがあって、コンシューマーがフライト情報にアクセスする度に航空会社の Web を参照するアプリの仕様だと提供側の航空会社の Web サーバの負荷は高くなります。いわゆる Web スクレイピング、Web クローリングという技術ですね。これを API アクセスすることで Web サーバーの負荷が減ります。情報開示側が API 化しておくことで、開発ベンダーは様々な API を組合せてより良いサービスやアプリケーションを作っていけるのです。 Aさん:API 化しておけば、「Lift&Shift」の際に、クラウド or オンプレ という移行もスムーズになりそうです。 Jさん:API 化はマイクロサービス化と言い換えてもいいだろうと思います。 企画担当:開発会社、エンジニアから見て、API 実装自体は新しいことではないと思いますが、マーケットプレイスにパッケージしてカタログ化していくことも最初から意識するという点でベンダーにとっては新しいビジネスモデルになりそうですね。 IBM マーケットプレイスなどのエコシステムについてはディストリビューターの弊社としても要ウォッチですね。 今後もエヌアイシー・パートナーズの取引先の皆様には専用Web サイト「MERITひろば」でより詳しい情報を掲載していきたいと思います。 本日はありがとうございました。   【関連リンク】

2017年03月23日

【速報】InterConnect 2017の基調講演の概要

皆さんこんにちは。てくさぽBLOG メンバーの 佐野です。 私は今、IBM のグローバルイベントである「IBM InterConnect 2017」(以下 InterConnect )に参加するため、ラスベガスまでやってきています。 InterConnect は 3/20-23 の 4日間開催で、IBM 社の最新の情報や事例などのセッションが 2,000 以上も組まれているため(当然全部は聞けません)、非常に密度の濃いイベント内容となっています。 クラウドサービス(Bluemix)やセキュリティ、Watson と言った IBM が注力している製品群に加えて、マイクロサービスやブロックチェーンといった最新テクノロジーや従来からある WebSphere Application Server といった製品に至るまで幅広い範囲をカバーしています。 このイベントの基調講演は 3/20 と 21 の 2回 に分かれていますが、本記事では内容をまとめて要約してお届けします。   1.注目トピック Watson 関連でいくつか発表・言及がありました。 既に発表済みではありますが、Watson の質疑応答システムと QRadar が連携してインシデントの絞り込みや洞察を得るのに役立つ IBM QRadar Advisor with Watson の紹介、Watson Visual Recognition を使った画像解析のソリューションについてもデモを交えて解説をしていました。 セキュリティに関しては、先の QRadar の話と、セキュリティの免疫システムである「IBM Security Immune System」について話がありました。 Security Immune System は概念の話で、製品の話ではありませんが、昨今は全てのセキュリティリスクをシャットアウトすることは非常に困難であり、またセキュリティインシデントの数も非常に大量に発生することから、人間だけでは対処しきれない状況となってきていますので、Watson も活用しつつ、セキュリティ対策をしましょう。というのがざっくりした内容です。 ブロックチェーンに関しては、ダイヤモンドの原産地証明などのためにブロックチェーンを活用している事例を発表しました。 ダイヤモンドの取引では、戦争の資金を得ることなどの目的のために、ダイヤモンドを利用することを禁じる「キンバリー・プロセス」に準拠する必要があります。 原産地を証明する、価値を証明するためにも、改ざんが不可能な監査台帳が必要となり、そのプラットフォームとして IBM のブロックチェーンが利用されています。 2.協業関連 IBM と他企業との協業関連としては以下の発表がありました。 ・RedHat 社との協業: IBM クラウド上で RedHat 製品をサービスとして提供 ・Indiegogo + Arrow Electronics + IBM(Watson) : IoT の協業でスタートアップ企業に対して Watson サービスの利用促進 ・Galvanize との提携 : Bluemix Garage の一環で、Watson API を主とした機械学習に関する協業 ・Intel 社とのパートナーシップ: エコシステムを構築するために、Intel 社とのパートナーシップを提携 Salesforce 社とのパートナーシップは既に発表済みですが、Salesforce CEO のマーク・ベニオフが2日目の基調講演で登壇していました。   3.2日目の IBM CEO ジニー・ロメッティーのメッセージ 要約すると、IBM は以下の強みを結びつけることで大きな課題を解決できる、と言っています。 ・Enterprise Strong :業界向けのノウハウを豊富に持っているので、業界特化のソリューションを提供できる ・データファースト:お客様が持っているデータを利用して、分析により洞察を得たり、またそのデータをより活用するためのデータ管理ソリューションなどを提供できる ・コグニティブ:いわずもがな、Watson のことです。画像解析にはもちろん、音声認識も人間を超える数値をたたき出している 4.その他 ・金融向けに特化した「IBM Cloud for Finacial Services」の発表:決済などの機能を持ったクラウドサービスの提供 ・IBM Cloud Automation Manager :マルチクラウドの環境を単一のコンソールから操作することが可能となる製品 ・Kubernetes のコンテナーが IBM Cloud (Bluemix)上で動作可能に ・Hyperledger Fabric v1.0 : IBM のブロックチェーンがついに正式リリース版に ・IBM Cloud Object Storage Flex :詳細は不明ですが、エクサバイトクラスのデータを 99.999 % の可用性で運用可能なストレージプラットフォーム。AWS などと比べても費用が安価になるとのこと 参考:ZDNetの記事:IBM InterConnect 2017開幕--AWS、Azureを強く意識 5.最後に 全体的な印象としては、Watson を既存製品と組み合わせや企業を跨った協業ソリューションの活用に関する内容が多かったように思います。また、セキュリティにもいくつか言及していたので、注力する姿が見られました。 会場はとても広く、セッション会場が 30以上あることもあり、場所によっては移動で 10分以上はかかる、なんてことも結構ざらにあります。 また、海外のイベントであるため、基調講演などの特別なセッションを除いては当然全て英語です。時々何を言っているか理解できないこともありますが、それもまた勉強、ということになるでしょうか。 最新の情報をいち早く入手したい!この分野の詳しい情報をゲットしてビジネスに役立てたい!という目的には最適ですので、興味がありましたら是非来年の参加を検討してみて下さい。 (現地の様子) ・自分が座った席から撮った基調講演会場の様子。右側がステージとなります。まだ少し空席がありますね。 ・基調講演終了後の帰り道。参加者が多いのでめっちゃ混んでます。みんなが個別セッション会場に向かうので、途中までこんな状態が続きます   <3/28更新> 現地で行動を共にしていたNI+Cの大島さんもブログを書いていますので是非こちらも参考にしてください。 [InterConnect2017]現地レポート 3/19 [InterConnect2017]現地レポート 3/20 [InterConnect2017]現地レポート 振り返り [InterConnect2017]現地レポート 最終日   この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp

2017年03月23日

担当者に聞いた!SPSS が採用される本当の理由

“SPSS”は1968年に誕生し、汎用機の時代からデータの解析に広く使われており、歴史、実績のある製品です。2009年の IBM による買収で IBM SPSS 製品ファミリーとなりました。 当ページでは、なぜ SPSS は今も世界中の多くの現場で採用、利用されているのかを 実際にユーザ(企業)への提案やトレーニングを担当しているスペシャリストにその本質を聞き、ポイントをまとめています。これから SPSS を使ってみようと思われるユーザーの参考となれば幸いです。 (注記)SPSS 製品は複数のエディションで構成されるファミリー製品ですが、 当記事では、SPSS Statistics もしくは SPSS Modeler を主として記載しています。   結論:GUI が秀逸のため採用、利用されている SPSS はその GUI による操作性がユーザに受け入れられている。製品の採用を検討しているユーザは「これなら自分たちでも利用できそうだ!」と評価し、採用している。実際の利用ユーザにとっては業務効率をあげるだけでなく処理フローがグラフィカルに分かるため、担当者変更による引き継ぎの負担が低いことがポイントとなっている。   リンク Youtube デモ「データマイニングソフトウェア IBM SPSS Modeler」   SPSS 製品は業務部門主導で・・・ また、SPSS 製品は、製品選定から導入を含め業務部門システム、業務の実担当が主導となることが多く、情報システム部門の負担も低い「情シスにやさしい」製品と言える。 利用用途は小売・流通業における販売データの分析、会員データ分析、製造業における販売製品の需要予測、また、事故の予防保全から経営状況の予測と幅広く使われ、売上向上や顧客ロイヤルティの向上に成果をあげている。 <現場で受け入れらている主な理由> ライセンスは 1 ユーザから利用可能なため比較的安価にスタートできる 分析シナリオは下図のように ”ストリーム”という形式でアイコンで視覚化され、 わかりやすい アイコン化により作成したロジックの共有や検証がしやすくなり、業務スピードが増す 図:SPSS Modeler のGUIイメージ   SPSS 選定の決め手 スペシャリスト曰く「お客様の多くは最初は高度な分析経験はないところからスタートしている」。つまり、これから分析担当者を育てようというユーザが多いのである。SPSS 製品は、無償トライアルが Web サイトからダウンロード可能であり、導入費用自体も比較的安価である点もスタートしやすいポイントだ。 また、分析したいと考えている業務やデータにSPSSが適しているかの検討においては、標準で提供されている豊富なサンプルデータや処理フローから目的に合致したモデルを探すこともできる。 筆者も以前、Web アクセスログを分析したい!というきっかけから自身で SPSS Modeler をインストールし、評価したことがある。(以下のリンク先にて"特別企画"として掲載) リンク「Web解析業務にSPSS Modelerを実際に使ってみた」  分析者を育てるためのトレーニングも、現場にとって気になるポイントだろう。「3日間ほどの有償トレーニングを受ければ、エンジニアでなくとも SPSS  の操作についてはマスターできるし、SPSS の画面から呼び出すヘルプを見ながら操作していくユーザも多い」とスペシャリストは言う。 まずは容易に使ってみることができ、また、ベンダーの支援やトレーニングを受けながら業務に活かしていくことが可能な製品なのである。この点も分析担当を育てたいという企業にとって朗報であり、1 つの評価ポイントとなるのであろう。 < 3日間のトレーニングで操作はマスターできる >   SPSS 導入時のポイント SPSS 選定までの流れについて紹介してきたが、ここで、SPSS の実際の導入、インストール時に考慮するポイントを伝えながら製品の守備範囲についても触れておこう。 先述してきたように、SPSS は 気軽に自身の PC に導入して使えるが、製品としてはクライアント-サーバ型も提供されている。 SPSS の稼働環境としてどちらの形態を選択するかは、利用部署が複数にわかれるなどデータを共有する必要があるのか、また、データサイズ、分析頻度、ユーザ数なども判断材料となる。 例えば、データサイズを基準に検討する場合、数百万件〜1千万件もの規模になるとサーバ側で処理させることが望ましいため、クライアント―サーバー型をお勧めしている。 SPSS は、小規模環境でのパーソナル的な利用はもちろんのこと、大量データを扱う環境での活用も十分可能な製品なのである。   他社製品と比較した強み 冒頭に示した結論のとおり” GUI が秀逸である点”、つまり操作性の良さが SPSS の最大の強みである。製品選定では「他製品と比較しても機能面ではそれほど変わらない」という良くあるパターンにおいて、GUI の操作性が優れているという特出した点は選定するポイントとなる。 アナリティクスの大手 SAS の製品や Visual Mining Studio などのマイニングツールを比較し、それぞれの強みを検討するユーザもあるが、操作性で SPSS を選んで間違いはなさそうだ。大学で広く使われているのも学生でも利用できる操作性であるという証明になるであろう。 また、SPSS は長く使われている歴史のある製品で、不具合(バグ)が非常に少ないことも有名である。その点も選択理由の 1つとなっていることが容易に推察できる。   R(アール)からの移行ユーザは? "操作性の良さ"という点での例をもう 1つ挙げよう。今このページを見ている皆さんの中には R もしくは R言語と呼ばれるオープンソースのフリーソフトウェアの名称を聞いたことがある方も多いと思われる。R は、世界中の研究者が使っているツールだが、R 言語のプログラミング知識が前提となる。プログラミング知識が前提となる R 言語に対し、プログラミング知識が無いユーザーであっても、GUI 操作で設定できるのが SPSS 製品の 1つの優れた点でもある。 R ユーザーや R を使った解析の資産がある場合、SPSS で無償で提供されている「SPSS Statistics-Integration Plug-In for R」というプラグインを利用し、両方の特性を活かした連携が可能となる。実際に R から SPSS へ移行するユーザー、また、R と SPSS 両方を利用している現場も多くあるようだ。   様々な業務、システムに組み込まれているSPSS 最後に、数多くの SPSS 導入を支援してきたスペシャリストからは、SPSS の提案、採用の際に見受けられるケースについて以下のような話を聞くことができた。皆さんも SPSS 製品の提案の際には、ぜひ、参考にして欲しい。 SPSS を使うためにデータの整備(正規化)は必須であり、そのデータ元として DB の存在がある。データ量が増えていくとその DB をアナリティクスに適した、DB2 BLU、Netezza、dashDB などにするケースもある。  データ統合・連携に DataStage のような連携ツールを使う企業もあれば、SPSS 自体を ETL ツールと割り切って運用するユーザーもいる。  顧客データ分析を目的としている場合、IBM Campaign のようなマーケティングツールと合わせて採用するケースもある。  大規模データにも対応できる SPSS Modeler だが、データの処理性能はサーバ側の CPU , メモリーに依存するため、サーバーとして Power System を選択する事例もある。   利用が広がる SPSS 弊社(エヌアイシー・パートナーズ株式会社)はディストリビューターといわれるハードウェア、ソフトウェア製品を販売会社に提供する企業だが、実際の販売データをみてもSPSS ファミリーは新規導入やライセンス追加、保守の更新など取引量が増える傾向がある。 これは「ビッグデータ」という言葉が流行して久しいが、実際は「目の前にあるデータを活用できていないユーザーがまだまだ多い」というスペシャリストの言葉とも重なり、実際の世相を現しているのではないだろうか。データの活用については、これから本格的な取り組みを始めるという企業、ユーザーも多くあるだろう。これからもデータ分析ツールは必要とされ、SPSS 製品の普及もまだまだ続くに違いない。   データ活用をビジネスに活かしたいと考えている読者は是非とも「無償トライアル」の SPSS 製品を試してみてください。 また、SPSS 製品に関してご不明なことがありましたら、弊社ビジネスパートナーや、こちらの お問い合わせ先 より お気軽にお問合せください。 最後までお読みいただきありがとうございました。   この記事を見た人はこのページも見ています。 リンク「Web解析業務にSPSS Modelerを実際に使ってみた」   リンク「SPSSファミリー製品紹介」

2017年02月23日

【触ってみた】Bluemix LiftでdashDBにデータをアップロード

皆さんこんにちは。てくさぽBLOG メンバーの 佐野です。 以前にメンバーがBluemix上のデータベースサービスである「dashDB」についての記事を作成しました。(話題のBluemixのトライアルライセンスを活用してBIシステムの構築検証をしてみよう! Vol.1 Bluemixアカウント作成、話題のBluemixのトライアルライセンスを活用してBIシステムの構築検証をしてみよう! Vol.2 dashDBの作成、データLoad) 今回はBluemix上のdashDBにローカルからデータをまとめてアップロードする方法を紹介します。その名も「Bluemix Lift」です。   1.大量データのアップロードにBluemix Liftを使う 以前の記事にあるようなやり方を使って、dashDBに対して手動で都度データをアップロードするという方法もありますが、取り込むテーブル毎にアップロードする必要があります。また、常に手動でのアップロードであるため、最新化をするために手間がかかります。 データの分析用途の場合には複数テーブルにまたがる大量のデータをアップロードする必要がありますので、手動での運用は現実的ではありません。 そのような場合に利用できる有効な方法として「Bluemix Lift」というサービスが用意されています。 Bluemix Liftは以下の特徴を持っています。 1.高速 高速に大容量データを移行するために、高速ファイル転送サービス「Aspera」の技術を利用しています。 2.セキュア Bluemixとプライベート環境をセキュアに接続する「Secure Gateway」を利用します。またAsperaを用いたSSH通信によるセキュリティを確保しています。 3.簡単操作 オンプレミス環境に簡単にセットアップできます。また、WebブラウザからのGUI操作で移行ジョブを定義できます。 1-1.Bluemix Liftのデータ移行フロー Bluemix Liftを利用する前に、どのようなフローでデータをアップロードするのかを簡単にまとめます。 (出典:http://www.ibm.com/developerworks/jp/analytics/library/ba-dashdb-bluemixlift/index.html) 関連するコンポーネントとしては、Bluemix環境とオンプレミス環境を繋ぐための「Secure Gateway」、ローカルのデータをSecure Gatewayへ渡すためのツールである「Slingshot」、最後にデータを移行するためのツールである「Bluemix Lift」この3つがあります。 これらのコンポーネントを利用してdashDBへデータを移行します。 Secure GatewayはBluemixへデータを送信するためのゲートウェイであるため、企業内に最低でも1つ立ててあれば共有して利用できますが、dashDBへ取り込むデータを送るためのSlingshotはデータを送信するシステム毎に必要です。 今回は1台のマシン上のデータをdashDBに取り込むので、Secure GatewayとSlingshotは同一マシンに導入しますが、実運用時にはSlingshotはデータソース毎に導入をするようにして下さい。   1-2.Bluemix Liftを利用する手順 Bluemix Liftを利用するためには以下の手順でインストール・構成設定を行う必要があります。 1.Secure Gatewayの構成(初回のみ) 2.ソースおよびターゲットのConnectionの設定(Slingshotのインストールを含む) 3.Activityの構成と実行 それぞれの具体的な手順についてこれから紹介していきますが、今回は手元にあるWindows 2012R2サーバー上に導入をしていきます。   1-3.Secure Gatewayを構成する 最初にSecure Gatewayを構成します。 ・Bluemixのカタログから「Lift」サービスを選択します。(「データ&分析」サービスのところにあります) ・サービス名を入力し(ここでは「My-Lift」とします)、作成ボタンを押します。 ・表示された画面の「LAUNCH」ボタンを押します。 ・「1. Add Secure Gateway」ボタンを押します。 ・「ゲートウェイの追加」ボタンを押します。 ・ゲートウェイの追加欄にゲートウェイ名を入力し(ここでは「My-Gateway」とします)ゲートウェイの追加ボタンを押します。 ここまででSecure Gatewayの定義が作成されました。 次にSecure Gatewayのクライアントモジュールをダウンロードし導入します。 モジュールは「IBMインストーラ」「Docker」「IBM DataPower」の3種類のサポートされているクライアントが選択できます。今回はWindowsサーバーに導入するため「IBMインストーラ」を選択して進めます。 ・画面を下にスクロールし、「クライアントの接続」ボタンを押します。 ・後で使いますので、表示されている「ゲートウェイID」および「セキュリティー・トークン」をメモ帳などにコピー&ペーストしておきます。右端のアイコンをクリックするだけでクリップボードにコピーされますので便利ですね。 ・Windowsのソフトウェア・インストーラーをダウンロードします。(実際にはお使いのプラットフォームに合わせてソフトウェア・インストーラーをダウンロード下さい。) ・ダウンロードしたプログラムを実行します。 ・インストールフォルダーを聞かれるので任意のパスを指定して「Next」ボタンを押します。(ここでは「C:\Secure Gateway Client」とします) ・CLIの言語を選択し「Next」ボタンを押します。ここでは「English」を選択して進めます。 ・Windowsサービスとして起動するかを聞かれるのでここではチェックを付けずに進めます。 ・Secure Gatewayの「ゲートウェイID」と「セキュリティ・トークン」を聞かれますので、先ほどコピー&ペーストしたものをそれぞれ貼り付けて「Next」ボタンを押します。 ・パスワードはオプションなので今回は特に指定せずに「Install」ボタンを押してインストールを開始します。 インストールが完了したら次はSecure Gatewayを起動します。 今回はコマンドラインを利用しますので、コマンドプロンプトから操作します。 左記の手順でインストールした先のディレクトリ下の「ibm\securegateway\client」ディレクトリへ移動し、以下のコマンドを実行します。 secgw.cmd 起動が成功すると、自動でブラウザが立ち上がり、Secure Gateway Clientの画面が表示されます。 次にACLをセットします。これはこの後にインストールをするSlingshotへSecure Gatewayへのアクセスを許可する設定となります。 Secure Gatewayを起動したコマンドプロンプトで、「acl allow :」コマンドを実行します。(ここでは全ての接続を許可します) ここまででSecure Gatewayの導入設定は完了です。 続きは、こちら↓(※)をご覧ください。 【触ってみた】Bluemix LiftでdashDBにデータをアップロードの”2.ソースおよびターゲットのConnectionの設定” ※ビジネスパートナー専用サイト(MERITひろば)のコンテンツです。ログイン or  新規会員登録が必要となります。 この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp

2017年01月26日

Cisco UCS Emulatorを触ってみよう!

皆さま、こんにちは。てくさぽBLOG メンバーの 岡田です。 前回のブログ(「Cisco UCSってなんだ?」)で Cisco UCS の特徴をお伝えしましたが、特長を知ると実際に使ってみたくなりますよね。特にUCSの管理インターフェイスであるUCS Managerは使ってみることが理解への一番の早道なのですが、ファブリックインターコネクト(以下、FI)の購入が難しい場合もあるかと思います。 そのような場合にお勧めしたいのが、今回ご紹介する「UCS Platform Emulator(以下、UCS Emulator)」です。 今回は、この UCS Emulator を利用できるようにする手順をご紹介します。   1.UCS Emulatorとは Cisco UCS Managerの設定・管理操作をシミュレートし、どのように機能するかを確認することができます。仮想マシンのディスクイメージとして提供されていますので、簡単に環境構築が可能です。   2.用意するもの 環境構築にあたり、以下をご用意ください。 Cisco.com ID (今回は登録手順の紹介は省略します。) Cisco.com ID登録手順: https://supportforums.cisco.com/sites/default/files/attachments/document/files/cisco_com_registration.201607.pdf 仮想環境(vSphere,Hyper-Vなどのサーバー仮想化環境や、VMware WorkStation/FusionなどのPCでの仮想化環境でも利用できます) Webブラウザ(Microsoft Internet Explorer 6.0 以上,またはMozilla Firefox 3.0 以上) サポートされる仮想環境、Webブラウザの詳細は以下のリリースノートの2ページ目をご確認ください。 https://communities.cisco.com/servlet/JiveServlet/download/69786-4-129067/UCSPE_GMR1_Release_Notes_3_1_2bPE1_Final.pdf IPアドレス 3個(固定IPで利用する場合)/サブネットマスク/デフォルトゲートウェイ   3.ダウンロード まずダウンロードサイトにアクセスし、Cisco.com IDでログインします。 (ダウンロードサイト) https://communities.cisco.com/docs/DOC-37827 ログインしたらファイルをダウンロードします。Zipファイル形式とovaファイル形式の2種類がありますので、ご利用環境によってお選びください。今回はOVAファイルをダウンロードしました。   4.仮想マシンの構築 OVAファイルをデプロイします。OVAファイルのデプロイ方法は一般的な手順と同じですので、ここでは詳細は省略します。 今回は、vSphere 5.0の環境上に構築しました。以降の画面イメージはvSphere クライアント 5.0の画面になります。 まず、vSphere クライアントのメニューバーの「ファイル」-「OVFファイルテンプレートのデプロイ」を選択します。 以降、ウィザード画面には利用環境にあった値を入力してください。これにより仮想マシンが作成されます。では、"UCS Emularor の設定" を行っていきましょう。   続きは、こちら↓(※)をご覧ください。 『Cisco UCS Emulatorを触ってみよう!』 の "5.UCS Emulatorの設定" ※ビジネスパートナー専用サイト(MERITひろば)のコンテンツです。ログイン or  新規会員登録が必要となります。 MERITひろば には、Cisco UCS に関する以下のような製品情報、サポート保守のサービスの情報が提供されております。あわせて、ぜひ、ご活用ください。 ▼10分でわかる『Cisco UCS 製品』まとめ ▼IBMの技術員がサポートする「CISCO UCS IBM保守サービス」 この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp

2016年12月20日

ハイパーコンバージド製品のNutanixを解説! Vol.3

皆様こんにちは。てくさぽBLOG メンバーの 佐野です。 前回の記事の続編になります。 今回はパフォーマンスについてと、可用性について少し補足をしておきます。   1.可用性 Nutanixではないサーバーやストレージでは、可用性を高めるために、通常はRAIDを構成しているかと思います。 このRAIDは確かに可用性を高めることはできますが、ディスクが壊れた後、壊れたディスクを交換しない限り可用性は失われたままの状態となります。交換用のディスクを追加して復旧させることはできますが、RAIDにはパリティの再計算が必須で、全てのディスクのデータを読み込みながら1本分のデータを復旧することとなります。 ディスクの故障を経験したことがある人なら分かると思いますが、このパリティ再計算での復旧には非常に時間がかかります。時間がかかるうえに「もう1本壊れたらどうしよう」と復旧が完了するまで非常に不安な時間が続きます。 Nutanixの場合、データのコピーを別のディスクまたは筐体に保管するため、RAIDのようなパリティの計算が必要ありません。もしディスクが壊れたとしても、自動的に復旧プロセスが走りますが、全データではなく壊れたディスク上にあったデータのみを読み込み、他のディスクへ再度書き込みを行います。 これにより、復旧時間が短くなり、かつ何もしなくても冗長性が保たれた状態になります。 単一の共有ストレージを採用すると、「このストレージが壊れたらどうしよう・・・」と不安に思ってしまいますが、Nutanixではデータが自動的に分散配置されますので、可用性という観点でも安心です。   2.パフォーマンス Nutnix独自の機能として「データローカリティ」があります。 データローカリティとは、データを書き込むとき「自ノードに書き込む+設定されたミラー分のコピーを他筐体に書き込む」動作を示します。言葉で書くと理解しづらいと思いますので、簡単に絵で解説します。 ①仮想マシンから書き込み要求があるとその要求をCVMが受け取ります。 ②CVMが受け取った書き込み要求はローカルのSSDに書き込まれます。 ③同時に他ノードにも書き込み要求を送信します。 ④他ノードのローカルのSSDにデータが書き込まれます。 ⑤②と④が完了した時点で、書き込み完了の応答を仮想マシンに返します。 これにより、ローカルのディスク(SSD)と他ノードに同じデータが書き込まれます。 他社のハイパーコンバージド製品では、この「ローカルにデータを書き込む」ということが保証されません。 他ノードへのデータ転送が1回ではなく2回発生するということがほとんどになり、大きなデータを書き込むことを考えれば想像できると思いますが、1回の書き込みと比べると書き込み完了までにかかる時間が余計にかかってしまいます。 ローカルに必ずデータがあるとどんないいことがあるのか?疑問に思うかと思います。それは読み込み時に威力を発揮します。 図を見てもらえば分かる通り、ローカルにデータがあるため読み込み時には他ノードへアクセスを行わず、自ノード上のデータを読み込むだけで済みます。 自ノード上のデータだけにアクセスすることで、他のノードには影響を与えない。これが重要な点です。 次の章で解説しますが、このアーキテクチャーは「Noisy Neighbor(うるさい隣人)問題」に大きな威力を発揮します。 また、データがローカルにあることでノード間の通信が発生しないため、応答時間についても若干のアドバンテージがあります。Nutanixがデータ転送に使うネットワークである10GbEの場合、1KBのデータを転送するためにかかる時間はおよそ1μ秒(スイッチなどの環境により増減します)程度と非常に小さい時間ですが、塵も積もればなんとやら、Write時と同様に転送するデータ量が多くなれば全体としての応答時間に違いが現れてきます。   3.Noisy Neighbor問題 Noisy Neighborとは何か?まずここから解説します。 仮想環境では一般的に共有ストレージを利用することが多いです。共有ストレージを利用するということは、いろいろなコンポーネントを各仮想マシンが共有で利用するということです。容量効率を高めるために、複数のRAID Arrayを束ねてプール化することがほとんどだと思います。 このプール化された領域が例えば10,000IOPSのパフォーマンスが出せるとしましょう。仮想環境全体で10VMが稼働し各VMが500IOPSを使っている場合、全体で5,000IOPSなので問題なく処理ができます。 しかし、1台のVMが極端に大きな負荷をかけた場合、そのVMが原因で残りの9台のVMのパフォーマンスが低下します。 図の場合では1台が6,000IOPSという負荷をかけて、全体でストレージの処理能力を超える高負荷状態となっています。ストレージの処理能力を超えると、IO要求に安定して応答することができなくなり、応答時間が長くなります。仮に処理能力を超える負荷でなかったとしても、ディスクを共有しているために応答時間が長くなるということが発生します。 被害にあっている(?)9台の仮想マシンは何も悪くないのにパフォーマンスが悪くなる。これが「Noisy Neighbor」と言われる現象です。 前章で解説したNutanixのデータローカリティ機能があれば、この影響範囲を最小限に抑えることができます。 簡単なイメージ図を添付しますが、データがローカルにあるのであれば、負荷はローカルにのみ集中します。そのため、他のノードには影響がありません。 繰り返しになりますが、他社のハイパーコンバージド製品ではデータがローカルにあることが担保されません。ですので、高負荷状態になると全ノードに影響が出てしまいます。 ※画像はイメージです これがNutanixを使うメリットになります。 特にVDIの基盤として利用する場合には、ログイン時の負荷が集中するログインストームやウィルススキャンの負荷など、ディスクIOが高負荷になるきっかけは多々存在します。 パフォーマンスへの影響を局所化することができるNutanixがVDI環境向けの基盤としての採用が多いのは、こういった機能があるから、ということもあるのでしょう。   4.まとめ 可用性について、Nutanixは一般的なRAIDと比べて勝手にデータの冗長性が確保されるということが分かると思います。 過去にディスク障害で徹夜をした経験があるようなお客様には非常に有効なソリューションではないでしょうか。 パフォーマンスについては、高負荷状態になっても影響範囲を最小化できると解説をしました。これはNutanixのデータローカリティが実現し、他社製品にはない機能です。 最後に、Nutanixの動作等に関する情報はバイブルとして公開がされています。是非こちらもご参照ください。 URL:http://nutanixbible.jp/   <関連記事> 今注目の”ハイパー・コンバージド・インフラ”とは ハイパーコンバージド製品のNutanixを解説! ハイパーコンバージド製品のNutanixを解説!vol.2 10分でわかる『Nutanix製品』まとめ ※ MERITひろば 会員サイトにログインが必要 ———- この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp

1 4 5 6 7 8 9
back to top