特集・ブログ

ブログ

2020年03月04日

【やってみた】IBM CloudでAI(機械学習)を体験してみた

こんにちは。 てくさぽ BLOG メンバーの高村です。 いきなりですが、AIと聞いてどのようなイメージをお持ちでしょうか? "人間と同じ様に意識や思考を持ったロボット"や"質問に対して答えてくれる製品”など、様々に思いつかれるのではないでしょうか。 AIの定義は定まっておりませんが、最近は大きく2つに分けることができると言われています。 1つ目は「強いAI 」と言われ、前述に挙げた人間と同じ意識や思考をもつ人工知能です。現在のAI製品はこの「強いAI」に まだ至っていないと言われています。 2つ目は「弱いAI」です。「強いAI」に対して意識や思考を持たず、人間の知能の一部に特化した機能を実現します。視覚による画像処理や質問に対する回答、分類が該当します。昨年11月に掲載された「てくさぽブログ【やってみた】H2O Driverless AIを使ってみた」のH2O Driverless AIは「弱いAI」になります。 今回のブログはこの「弱いAI」に分類される、機械学習(Machine Learning)をIBM Cloud上でデモを体験しましたのでリポートしたいと思います。 機械学習 -Machine Learning- AIの話をしていると"ML"や"DL"という単語を耳にします。"ML"とはMachine Learningの略(以下ML)、”DL"はDeep Learningの略(以下DL)になります。どちらも冒頭で説明した「弱いAI」に分類されますが、簡単に説明します。 MLとは沢山のデータを基にアルゴリズムを使用してパターンや特徴を見つけ予測を行います。図1の様に、分析するデータの状況によってMLは大きく「教師あり学習」「教師なし学習」「強化学習」の3種に分けられます。 図1:機械学習の分類 (出典:クラウドオンライン道場資料 Cloud Online dojo_WatsonStudio_20191209.pdf  P12) 「教師あり学習」「教師なし学習」は統計学に基づいた「統計的機械学習」が一般的です。よって回帰分析、分類分析、クラスター分析など統計の知識が必要になります。一方「強化学習」は入力されたデータから何らか行動し、それに対して報酬(評価)が与えられ試行錯誤し、より良い行動の選択をしていく学習方法になります。(参考資料:総務省 ICTスキル総合習得教材 [コース3]データ分析 3-5:人工知能と機械学習) これから行うMLデモはIBM Cloud Watson Studioの機能の一つ「機械学習用GUI ツール(以下Auto AI)」を使用します。Auto AIは「教師あり学習」になり、「回帰」「分類」をプログラミング無しで実行することができます。 一方DLはMLと別のものと思われがちですが、MLで使用するアルゴリズムの1つを指します。人間の脳神経の仕組みを応用して作られたアルゴリズムにより非構造化データ(画像やスピーチなど)を処理するようコンピューターを訓練します。製品化の例を挙げると、公共施設での顔認証システムなどがDLを応用したシステムとなっています。図2はAI,ML,DLの関係を表したものです。DLはMLの一部であることがわかります。 図2:AI,ML,DLの関係図 IBM CloudでMLデモを体験してみた  1.MLデモの概要 IBM Cloud Watson StudioのAuto AIを使用してデモを行います。Auto AIはデータの前処理、機械学習モデル(以下Auto AIモデル)の選定、特徴量の最適化などを自動的に行うことができます。 今回のデモは図3の流れで行います。まずWatson Studioでプロジェクト、サービスを作成します。次にcsvファイルのデータをアップロードします。サービスを実行するとAuto AIが自動でAuto AIモデルを作成します。最後に作成されたモデルをデプロイし、テストを行います。 図3:MLデモの流れ 2.IBM Cloudのアカウント取得 今回のデモはIBM Cloudのライトアカウント(無料)で行うことができます。まずライトアカウントを取得しましょう。ライトアカウントならクレジットカード不要で、期間無制限でWatson含めた多数のAPIとサービスが無料で使用できます。取得方法はこちらのIBM Cloudのライトアカウントを作成しよう- IBM Developer チャンネル-をご参照ください。 3.デモの実行 3-1.データ準備 デモで使用する架空の電話会社の顧客データ「customer_churn.csv」をURLからダウンロードし、自分の 作業端末 に保存します。このデータは顧客の属性と契約を解約したかしないか(CHURN)があります。このデータから顧客の属性とCHURNを予測するモデルを作成します。 3-2.Watson Studioプロジェクト、サービス作成 それでは、デモをやってみます。 まずIBM Cloudにログインします。「カタログ」から地域をダラスにし、「Watson Studio Lite」を選択します。左上のダッシュボードのサービスからWatson Studioのサービスを選択、「Get Started」をクリックしてWatson Studioを起動します。 次にプロジェクトを作成します。「Create a Project」「Create an empty project」をクリックします。任意のプロジェクト名を入力します。「Select Storage Service」の「Add」をクリックし、Cloud Object Storageの画面に入ります。Liteが選択されていることを確認して「Create」をクリックします。これでプロジェクトが作成できました。 次にサービスを作成します。Settingから「+Add Services」をクリックしてWatsonを選択します。Machine Learningの「Add」をクリックし、Liteが選択されていることを確認、「Create」をクリックします。Confirm画面でダラスが選択されていることを確認して「Confirm」をクリックします。Settingの画面に戻り、追加したサービスのインスタンスが追加されていることを確認します。 3-3.Auto AIモデルの作成 いよいよAuto AIモデルを作成します。「Add to Project」をクリックし、「Auto AI experiment」をクリックします。Asset nameに”Churn Analysis”と入力し、自分のWatson Machine Learning Service Instance がセットされているのを確認して「Create」 をクリックします。 ダウンロードした「customer_churn.csv」をドラッグ&ドロップしてデータをアップロードします。「Select column to predict 」から予測したい項目で「CHURN 」を選択します。「Run experiment 」をクリックして、モデル作成を開始します。 モデルは複数のステップを経て4つのモデルを生成します。「Run Finished」が表示されるまで待ちます。1、2分でしょうか。下にスクロールするとモデルが作成されています。一番上のモデルが最もよいモデルとなっています。 このモデルの評価基準は変更でき画面は”ROC AUC”という基準で「1」に近いほど判別能が高いことを示しています。 一番上のモデル「Pipeline1」を保存します。「Save as model」をクリックし、Model name を "Churn Analysis Model "に変更して、「 Save 」ボタンをクリックします。 3-4.モデルのデプロイとテスト 最後に出来上がったモデルをデプロイして、テストを行います。先ほど保存したChurn Analysis Modelの画面から「Deployments」タブをクリック、「Add Deployment+」をクリックします。Name に”Churn model deployment ”と入力後、「 Save 」ボタンをクリックします。 STATUS が Initializing からready に変わったら「 Churn model deployment 」をクリックします。 「Test」タブをクリックします。今回のテストはJSONで入力します。テキストのマークをクリックして右画面のJSON構文を入力します。この構文は記された属性が契約を解約したかしないかをモデルに判別させます。入力後「Predict」をクリックします。 「Predict」をクリックすると右側に予測結果が表示されます。この場合はF(解約しない)と表示されました。 今回はJSON構文の入力で分析を試みましたがフォーム欄(ID,Genderなどの欄)に直接データを入れても分析できます。JSON構文の経験が無い方でも簡単に操作できますね。 MLデモを体験してみて はじめてIBM CloudでMLを体験してみました。複雑な作業なんだろうな…と思っていたのですが、準備するものは作業端末と分析したいデータ(csvファイル)で難しいインストールや設定作業はありませんでした。任意のファイル名の入力と「Add」や「Start」を押すだけでAuto AIモデルが作れてしまいます。 作業もサクッと進みこんなに簡単でいいのかと思ってしまいましたが、この容易さがIBM Cloudサービスの良いところだと思います。オンプレミス製品ではH2O DriverlessAIやIBM製品のPowerAI Visionなどがありますが環境準備、インストール、設定作業が発生します。もちろんオンプレミス製品の良いところもありますが、作業工数に余裕が無い、技術者が不足しているなどの課題がございましたら是非IBM Cloud Watson Studioをお試しください。 まとめ 今回はIBM Cloud Watson Studioの機能の一つであるAuto AIを体験しました。上述しましたが操作の容易さ、便利さに驚きました。 ところでWatson StudioはAuto AIの他にも多くの機能が提供されています。Auto AIは「データ分析」のフェーズで使用する機能ですが、その前段階の「データベースアクセス、データ蓄積」、「データ加工」のフェーズにおいても複数の機能が提供されています。また「データ分析」の機能ではAuto AIの他、SPSS ModelerやCognos Serviceなどのラインナップがあり、目的にあったツールを使用することができます。 分析プロセスの「データベースアクセス、データ蓄積」「データ加工」「データ分析」は、少し前まではフェーズ毎に使用ツールが分かれ異なる環境で作業しなければいけませんでした。図4の通り、Watson Studioではこの3フェーズを1つの環境上で使用することができ、作業効率の向上が期待できます。 図4:Watson Studio 概念図 (出典:クラウドオンライン道場資料 Cloud Online dojo_WatsonStudio_20191209.pdf P17) 「時間が無い、技術者も不足している」「CloudでAIなんて難しい!」と思っている方がいらっしゃいましたら是非一度IBM CloudでAIを体験してみてください。「思った以上に簡単、便利!これならお客様の要件にマッチするかも」と感じて頂ければ幸いです。   この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp    

2019年11月29日

Cloud Pak for DataのトライアルとCloud Pakシリーズアップデート情報

こんにちわ。 てくさぽ BLOG メンバーの佐野です。 前回の記事ではCloud Pak for Data(ICP4D)の導入について書きました。 いろいろな方々とお話する機会があり、「ICP4Dを使ってみませんか?」ということをお話するのですが「うちにはそんな大きな環境が無いよ」ということをおっしゃる方が結構多く、ICP4Dを試してみることすらできない環境であることが多そうだと感じています。 そこで、IBMが提供している環境を利用してICP4Dを試しに使ってみることができるのでそのご紹介と、Cloud Pakシリーズのアップデート情報を共有します。 1.Cloud Pak Experiences IBMが提供しているトライアル環境としてCloud Pak Experiencesがあります。このサイト上から、ICP4Dや他のCloud Pakシリーズ製品の実際の画面を利用することができます。 ※ICP4D以外はリンクをクリックすると「IBM Demos」というサイトに飛ばされ、ICP4Dとは違う環境・操作方法となります。 Cloud Pak Experiences環境を使うために必要なものは以下になります。 ・Webブラウザ(ChromeやFirefoxでOK) ・IBM ID ※本サイトではIBM IDの新規登録は完了していることを前提とします また、この環境を使う上でいくつか注意が必要です。 ・トライアルの期間は7日間 ※ケースによって延長できるようですが条件が定かではありません ・共有環境であるため、重要なデータを載せない方が良い ・時々繋がらない時がある ※集合研修などで同一環境から複数が同時にアクセスをすると繋がらなくなることがあるようです 繋がらない時には数日おいてアクセスすることをお勧めします。自宅からだったので複数人でアクセスしたわけではないのですが、私も何回か発生しました。 ・11/28時点ではICP4D v2.1の環境 具体的な利用手順を見ていきましょう。 1.ログイン 用意したIBM IDを利用してログインをします 画面左にある「Log in」をクリックします。 IBM IDとパスワードを入力しログインします。 ログイン後の画面。画像では何日か使った後だったのでトライアル期限は残り1日であることが画面左上に表示されています。 2.実際のICP4Dの画面を利用する 実際の製品の画面を利用するために、まずはデータを収集する機能のデモ(トライアル)を行います。 ログイン後の画面の右側を下にスクロールし、「Collect」欄の下側にある「Learn more」をクリックします。 「Launch path」をクリックします しばらく時間がかかりますが、環境のプロビジョニングが行われ、ICP4Dの画面にアクセスできるようになります。 最初の画面は以下になります。 ブラウザの言語設定にあわせて、ICP4Dの画面表示は日本語表示となっています。 英語ですがチュートリアルもついてくるので、チュートリアルに従って操作をすることでどういう使い方ができるのか?を確認しながらICP4Dを使ってみることができます。 チュートリアルで示された操作以外も試してみることができますので、トライアル期間中に他の機能やメニューの操作感や実際の業務でどういう使い方ができるのか?も確認することができます。 いろいろと試すことができるので、本格的な検討を始める前に自社の利用シーンと合うのか?を確認するためには最適な環境かと思います。 2.IBM Cloud Pakシリーズアップデート情報 IBM Cloud Pak for Data 2.5が出荷開始になりました 10月に発表済みでしたが、2019/11/22にCloud Pak for Data 2.5が出荷開始となりました。 2.5からはOpenShiftのみのサポートとなり、2.1で導入したようなICPベースのものは無くなっているため、導入手順が変更となります。 具体的には、前回の記事で書いたようなOSを用意してインストーラを実行することでICP4Dまで導入される、という手順ではなく自分で用意したOpenShift環境上に、ICP4Dのインストールを実施する、という手順になっています。 具体的な手順や準備が必要なものについてはKnowledge Centerをご参照ください。 また、2.1と比べてベースコンポーネントで利用できる機能・製品が変更となっております。詳細は弊社またはお取引のあるIBMパートナー様までご確認下さい。 IBM Cloud Pak for Securityが発表になりました 前回の記事では5つのCloud Pakシリーズというご紹介をしていますが、6つ目になる「Cloud Pak for Security」が発表になりました。 IBMの製品サイトはこちらになりますが、企業内のセキュリティーに対する脅威の迅速な把握と解決を支援するための製品となります。 具体的にはSIEMやアンチウィルスのような企業内のセキュリティを守るための製品ではなく、発生したインシデントを調査するためのフェデレーション検索(Data Explorer)とインシデントレスポンス(Resilient)が主な機能となります。 3.まとめ Cloud Pakシリーズの製品ラインナップも強化され、個々のCloud Pak製品も随時アップデートがかかっています。 現時点ではCloud PakシリーズとしてはOpenShift 3.11のサポートとなっていますが、今後OpenShift 4もサポート予定なので、アップデートが楽しみです。   この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp

2019年11月19日

【やってみた】超簡単データ分析!H2O Driverless AI を使ってみた

こんにちは。 てくさぽ BLOG メンバーの河野です。 突然ですが、「Driverless AI」ってご存知ですか? 近年データ量はますます増加の一途をたどっていますが、このいわゆるビッグデータを AI を利用して分析・予測をするソリューションが、この Driverless AI です。 Driverless AI は、汎用的な AI(強い AI)ではなく、特化型の AI(弱い AI)の位置づけです。つまり、機械学習が欠かせない AI になります。 「機械学習ってすごく大変だ…」と、つい先日まで私もそう思っていました。 しかしこの Driverless AI は、なんと機械学習の自動化ツールが備わっており、高度な知識やスキルを持たずともいとも簡単に扱えるのです! とはいえ、「本当に初心者でもできるのかな?」 ということで、今回実際にその Driverless AI を試してみました!(ちなみに私はデータ分析は未経験です)   H2O社が開発したDriverless AI Driverless AIという製品は米国の AI エリート集団、「 H2O.ai 」が開発したソリューションです。 今までデータ分析や予測といった業務は専門家が行っていましたが、Driverless AI は その専門家に成り代わり、業務の一部を引き受けてくれます。そのため、スキル面での人材確保でもう頭を抱える必要はありません! 専門的な知識がなくても Driverless AI を使ってデータ分析や予測業務等、日々増加するデータを活用することができるため、ますますビジネスチャンスを広げられるでしょう。   Driverless AIを使った不動産売買価格のシミュレーションモデル作成 今回の環境 ノートPC(CPU : i5-8350U 1.7GHz、メモリ : 8GB、HDD:238GB、OS : Windows10) 分析データ(今回はREINS のウェブサイト「REINS Market Information」を検索して入手した不動産売買データ) Driverless AI の導入環境については、H2O.ai 社 Web ページ「Driverless AIのインストールとアップグレード」に記載されています。 Linux X86_64、IBM Power、Mac OS X、Windows10 Pro の環境をサポートしています。 Windows10Pro 版は GPU のサポートがありませんが、今回はすぐに試したかったので、普段業務で使っている自分のノート PC に導入してみました。仕様としては、最小メモリが 16GB 以上となっていますが、使っている PC のメモリは 8GB しかありません。これも「普段使いの自分の PC で動くかどうか」というの1つの実験です。   Driverless AI の導入手順 1. Driverless AIのアプリケーションのダウンロード・導入 H2O.ai 社のホームページを読みますと、Driverless AI の導入パッケージは、それぞれの環境ごとに docker、RPM、DEB 等、複数用意されております。Windows10Pro のガイドを読むと、docker と DEB イメージの2種類用意されていました。 ここに docker イメージ利用は推奨しない、と書かれていますので、素直に DEB イメージで導入することにします。 ただし、DEB インストールをする場合でも、普段使いの Windows10 を若干カスタマイズしないと使えません。それは、Windows に Linux(Ubuntu)を導入してその上で Driverless AI が動くのです。ただその設定は、比較的簡単で、Windows10 の設定画面を呼び出して「Windows Subsystem for Linux(WSL)」を ON して、この環境にUbuntu 18.04 LTS(Microsoft Storeから無償で入手)を導入するだけです。 この導入に関しては、YouTube を参考にすると誰でもセッティングできます。素晴らしい世の中になりました。 Ubuntu を WSL に導入した後は、H2O.ai のホームページから DEB イメージの導入パッケージを自分の PC へダウンロードするだけですが、このサイズが半端ない(3GB以上)ので、ネットワーク環境によっては少々時間がかかります。 ダウンロードが完了した後、DEBイメージからインストールを実施しました。 DEB からの導入については、Linux である Ubuntu のプロンプト画面からコマンドで実施します。詳細は割愛しますが、H2O.ai 社のホームページ通りにコマンドを実行すると Ubuntu に詳しくない人でも知らずに導入ができますので、ぜひお試しください。 さあ、さっそく Driverless AI を使ってみたいところですが、その前に、H2O.ai 社が許可している21日間有効なトライアル・ライセンスを取得しておきます。 このトライアル・ライセンスの取得がとても簡単でした。H2O.ai 社のホームページから Web 申請をすると10分ほどでライセンス・キーがメールで送付されます。 [caption id="attachment_71208" align="alignnone" width="650"] 図1:トライアルキーの申請書画面[/caption] すでに稼働しているDriverless AIですが、使う時はブラウザ(Google Chrome を使いました)からポート番号を呼び出して実行します。これはどのオペレーティングシステムの環境でも同じ手順になります。今回は、自分の PC で動いているので "http://localhost:12345" を指定しました。 [caption id="attachment_71294" align="aligncenter" width="650"] 図2:検索バーでlocalhost:12345 を指定[/caption] [caption id="attachment_71296" align="aligncenter" width="650"] 図3:サインイン画面に遷移[/caption] 図3のサインイン画面に任意のユーザー ID とパスワードを入力して Driverless AI の GUI 画面を立ち上げました。ライセンスを要求してきますので、入手済みのトライアル用ライセンス・キー(かなり長い)をコピペで適用して、すぐに使えるようになりました。 この間サイズが大きいのでダウンロードに時間がかかりましたが、そのほかの設定や導入は至ってシンプルな印象です。慣れていない方には、ややこしいと感じられるかもしれませんが、YouTube などでも説明されていますし、「何とかなる」と感じました。     2.分析モデル作成 今回の検証では、現実にある業務として、不動産の売り出し価格を機械学習させて適切な(売れ残らず、利益もとれる)販売価格の推論モデルを作成しました。 Driverless AI で以下の3つのステップを実行します。 データアップロード: 不動産売買データを Excel で表にし、そのExcelファイルを Driverless AI へドラッグ&ドロップ。 ターゲットを選択: GUI メニューを使って列名をクリック。 Experiment -モデル作成実行-: GUI 画面の赤枠のボタンをクリック。 [caption id="attachment_71210" align="alignnone" width="650"] 図4:不動産価格情報を検索したのち、画面のコピーから作成したファイル[/caption] [caption id="attachment_71169" align="alignnone" width="560"] 図5:Driverless AI実行画面[/caption] 以上の処理はすぐ終わりましたが、検索画面コピーだけで作った図4のデータはテキスト・データだけのため(例えば価格は、150万円という表示であって、1,500,000という数字ではない)、回帰解析は作成されませんでした。 統計解析のプロから見ると当たり前のことなのでしょうけれども、初心者には、ファイルを与えてみて、試して、目で見れた結果が大事なのです。 そこで、最初に使ったデータの ”単価”、”専有面積”、”駅からの徒歩時間”など、数値であるべきものは数値に変換してみました。(図6参照) [caption id="attachment_71211" align="alignnone" width="650"] 図6:価格等を数値データ変換したファイル[/caption] この図6の Excel ファイルを使って再度 Driverless AI の機械学習ステップ1から3を実行したところ、今度はモデルが作成されました。 「本当に初心者でもできたー!」   ただし、GPGPU を持たないWindows10Pro版 のため、Driverless AI のデフォルト値ではなかなか機械学習が終わらず…途中で実行をキャンセルし、パラメーターを操作して低い精度に変更してから(といっても操作はマウスでクリックするだけです)、ステップ3を実行したところ予測モデルが完成しました。 こんなところも GUI オペレーションでやりながら対応していけるのは、ありがたい。   納得のすごさ!Driverless AI 今までのツールでは、学習データを作った後もデータ欠損やどのパターンで推論するのか等のデータ整備作業を行わないと予測モデルが作成できなかったり、データ整備後もどのような分析を行うかをデータ・サイエンティストが試行錯誤する、というプロセスが必要でした。 が、この Driverless AI は、ある程度のデータ欠損には自動対応してくれます!さらに推論パターン(推論モデル)もデータから自動判断して予測モデルを作成してくれるのです! そのため、本当に AI や機械学習の初心者でも推論モデルを作成することができてしまいました! 完成した予測モデルの精度は、実際の販売価格と比較することでわかります。 また、さらに性能アップをしたい場合は、インプットするファイルのデータの数を増やしたり、精度パラメーター (GUI から簡単に増減できます)を上げるなどしてとても簡単に実施できそうです。次は、こうしたチューニングをやってみたいと思います。 ※ノート PC での実行では、データ数を増やすと演算負荷増大に繋がり、相当時間がかかる可能性があります。このような場合は、機械学習計算性能を最大化する GPGPU 演算が可能なサーバー環境(IBM PowerAC922 のように NVIDIA TeslaV100GPU を搭載するサーバー)で実行すれば、推論モデルは、より高速で作成できます。 ※弊社では、AC922 で Driverless AI の実行環境(PoC 環境)の貸出しをしています。是非こちらもご活用ください! 「IBM AIソリューション PoC環境ご利用ガイド」   まとめ ビジネスで利用する AI で重要なことは、ビジネス課題の解決に役立てるということです。 例えば、製品生産計画策定のために統計解析ツールや AI を使った生産予測をすでに行っている企業においてスムーズに業務が遂行されているケースはいいのですが、解析課題が多すぎて現状体制ではこなせなくなっている場合は、なにかしらの対策をしなければなりません。 しかし、通常の統計解析ツールや AI を使いこなすためにはかなりの勉強と経験を必要とするため、すぐに解決できないことが多いようです。育成ではなく外から人材確保するにも、企業間での採用競争が高まっており、なかなか優良な人材を確保できていないのが実情ではないでしょうか。 また、たとえ技術者がいたとしてもその人材が退職してしまうと途端に業務が滞ってしまう、という懸念もあります。 業務の AI 化というのはこれらの課題を補ってくれるツールである一方、使いこなすのもとても大変です。そのような状況において、AI を使った分析業務を簡略化したり既存の業務の補足をしてくれる Driverless AI は、まさに今の時代に待ち望まれていたソリューションだと言えるでしょう!   この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp

2019年09月24日

【やってみた】IBM Cloud Pak for Data 導入してみた

こんにちわ。 てくさぽ BLOG メンバーの佐野です。 2019年7月9日に IBM が RedHat の買収完了を発表しました。 RedHat の買収で IBM が得るものはいくつかありますが、その中でも特に "OpenShift" がハイブリッドクラウドのプラットフォームとして注目を集めています。 IBM は OpenShift を使って、IBM Cloud だけでなく AWS や Azure、GCP 上などのパブリッククラウド上でも簡単に IBM のソリューションを利用できるようにすることを考えています。 それを実現するための製品が "IBM Cloud Paks" シリーズとなっています。 1.IBM Cloud Paks とは? IBM Cloud Paks には2019年9月17日時点で5つの製品が出ています。 IBM Cloud Paks は単に 既存のIBM のソリューションをコンテナ化して提供しているだけでなく、可用性・拡張性が確保された上で企業ユース向けの様々な機能が実装された状態で利用できるようになっています。 そのため、個別に製品を購入し自力で様々なインフラ設計・設定をする必要がありません。 そんな IBM Cloud Paks シリーズの中でも今回は IBM Cloud Pak for Data(以下 ICP4D)の導入をしていきます。 ちなみに、今回の導入は kubernetes 環境としては OpenShift ではなく IBM Cloud Private を利用します。 2.IBM Cloud Pak for Data さて、今回導入する ICP4D はそもそもどういうソリューションなのでしょうか? 一言でいうなら、「データ分析のためのプラットフォーム」となります。 ICP4D を使って、データの収集・整形・カタログを整備して分析ツールにデータを渡し活用することができます。 このソリューションが特に効果を発揮するのはデータを分析ツールに渡すための前処理の効率化です。 データのカタログを作るための自動化支援機能(割り当てる用語の推奨やデータクラスの自動判別)を持っているため、人間がゼロから登録をする必要がありません。 また、本ソリューションに組み込まれている製品だけでなく、Add-on として使いたい製品を追加することができるので、「今は使わないけれど将来的に・・・」という対応も可能です。 「データ分析を個別の部署内だけでなくて対象を広げたい」「データ分析のためにいろいろなツールを使っていて運用負荷が高くなってきた」というようなお客様には最適なソリューションとなります。 3.事前準備 ICP4D 導入前の事前準備としては、 システム要件の確認 OS の設定 が必要になります。 システム要件は IBM の Knowledge Center を確認しましょう。 Installing Cloud Pak for Data 日本語での表示もできますが、最新の情報を確認する場合には英語表示にしてください。 今回は検証環境なので3ノードクラスタ(Master/Worker の機能を3台に導入する)構成とします。 環境は以下の図のようになっています。 今回はオンプレ環境なので ICP4D の画面へアクセスするために割り当てる仮想 IP を2つ用意します。 また、Add-on を追加で導入するため、CPU /メモリは最小要件よりも多く確保しています。 準備する環境について簡単にポイントを整理しておきます。 <CPU> 最新の CPU であればそれほど気にする必要はありませんが、SSE4.2 や AVX/AVX2 をサポートしている必要があります。 また、10ユーザー程度を想定した要件であるため、追加の Add-on やユーザー数が増加する場合には、コア数を多くした方がよいでしょう。 特にデータ仮想化機能を使う時にはインスタンスを作成するときに CPU やメモリを割り当てる必要がありますので、事前にどの機能に対してどれぐらいの割り当てをするのか検討をしておきましょう。 <メモリ> メモリについても CPU 同様に、使う機能やユーザー数に応じてどれぐらいのリソースが必要になるかを検討します。 <ディスク> ディスクについてはシステム要件内にも記載がありますが、root ファイルシステムで最低 100GB、インストールパス (ex. /ibm) で 500GB、データパス (ex. /data) で 500GB が必要になります。 この容量は最小要件なので、追加でインストールする Add-on やデータ容量によって追加のリソースを用意する必要があります。 また、root 容量はインストール前に警告が出てくるので 200GB 程度は割り当てしておいた方がよいでしょう。 ディスクにはパフォーマンス要件もあります。 よっぽど変なディスクでなければ問題ありませんが、Latency テストで 286 KB/s、Throughput テストで 209 MB/s が必要になります。※詳細はこちらの「Disk requirements」パートを参照下さい。 パフォーマンスについてもインストール前にチェックされるため、満たさない場合には警告が出てきます。 ※警告なのでインストールを進めることはできます。 <OS> OS としては Redhat Enterprise Linux 7.5 以上が必須となります。 OS 設定するポイントが多いので簡単ですが以下にまとめます。 ネットワークポートへ静的 IP アドレスの付与 DNS サーバーは必須 タイムゾーン設定 時刻同期設定(chrony) Firewall の無効化 SELinux の設定(permissive) インストールパス/データパスに対してファイルシステムの設定変更(noatime 設定) First Master ノードから他のノードへの SSH 接続設定(パスワード無し接続) (必要に応じて)Docker registry 設定 インストールする環境の準備は以上になります。 事前準備まで完了したら一度バックアップを取得しておきましょう。インストールに失敗した時に、OS を再導入し、1から設定をやり直すのは結構時間がかかりますので。 ※ここは結構重要なポイントです。 4.導入 ICP4D を導入するためのプログラムを Passport Advantage サイトからダウンロードしましょう。 入手方法はこちら インストールの実行には、当然ファイルに対して実行権限をつけないと進まないので、tar ファイルを解凍した後の "installer.x86_64.nnn" に +x 権限を付与することを忘れずに。 ICP4Dのインストール実行する前に、設定ファイルを作る必要があります。 環境に応じてファイルの内容を変える必要がありますので、こちらを参照しながら設定ファイル(wdp.conf)を作成しインストールパスに配置しましょう。 インストール実行前に事前チェックツールをダウンロードし実行します。 入手方法や実行方法はこちらに記載があります。 エラーや警告が出ていれば何か問題が発生していますので、メッセージをよく読んで解消しましょう。 事前チェックツールの実行をクリアすればいよいよインストールの実行です。 インストールの実行方法は設定ファイル(wdp.conf)作成の URL の項番5に記載があります。 が、インストール実行前にちょっと待ってください。 v2.1.0.2 でのインストールには約2.5時間ほどかかります。(環境や設定によって前後することがあります。) インストール開始後にコンソールを切断すると途中経過が分からなくなってしまうので、十分な時間を確保した上で実行するか、screen 上で実行して、切断した後でも途中経過が分かるようにしておくことをお勧めします。 また、インストールのログは以下のディレクトリ下に "wdp ほにゃらら"というファイル名で出力されているので、必要に応じて確認してください。 (インストールパス)/InstallPackage/tmp/ インストールを実行したコンソール上で出ないログも表示されるので、止まっているように見える場合にはこちらも確認した方がよいかもしれません。 ※インストールイメージを他ノードへ転送するところで結構時間がかかる場合が多いです。 インストール完了するまでの間ずっとログを見ていてもよいですが、(上記のような時間がかかる処理で)止まったり、Warning が大量に出るとドキドキヒヤヒヤしますので、「止まったら対処する」ぐらいの気持ちでいた方が精神衛生上よいです。 5.ICP4D 導入後 環境や構成にも依存しますが ICP4D v2.1.0.2 では約2.5-3時間程度で導入が完了するので、その間はひたすら待ちます。 インストールが無事に終わると、以下のようなメッセージが出てきます。 Installation was successful and took 02:55:05 Access the zen web portal using the following URL: https://xxx.xxx.xxx.xxx:31843 このメッセージが表示されれば無事 ICP4D の導入は完了です。記載されている URL にアクセスをして ICP4D の画面にログインしてみましょう。 ログインできて下のような画面が表示されれば OK です。必要に応じて Add-on の導入などを実施ください。 ※画面表示はブラウザの言語設定に依存します。添付画面は日本語設定になっているので日本語で表示されていますが、英語表示になっている場合にはブラウザの言語設定をご確認下さい。 Add-on の導入については Knowledge Center に記載がありますので、導入する Add-on 毎に用意するもの・手順をご確認下さい。該当箇所はこちら。 もし、エラーや Warning がログ上に表示されるようであれば、各ノードに対して設定変更をするなどで問題を解消するように対処して下さい。 6.まとめ ICP4D のインストーラは自動化されており、実行したらインストールが完了するまで人間が何か操作をする必要がありません。(最初に Y や A や Enter を押す必要はありますが。) 半面、途中でインストーラがエラーで止まってしまうと retry で先に進められれば問題は無いのですが、同じ場所で何度も止まってしまい、先に進まない場合にはエラーの原因を取り除くために多大な労力がかかります。 なので、本番導入前に何度もインストールを試してみるといった事前準備をしっかりしておくことが重要です。 OS 設定が漏れている、必要スペックが不足している、などの環境・事前設定以外の要因で止まってしまった場合には、原因究明や対処が難しい場合がほとんどです。 同じ環境・設定であっても OS レベルから再導入することでうまくいくこともあるので、うまくいかない場合には自力での問題解決にはある程度で見切りをつけて OS レベルから再導入することもご検討ください。   この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp

2019年08月23日

【参加してきた】IBM i World 2019

こんにちは。2019年7月4日(水)に大手町プレイスカンファレンス・センタービルで開催された「IBM i World 2019 東京」 に、高橋・河野の2名で参加してきました。 約400人収容の会場は満席、会場参加以外にも LIVE 配信で約200人が聴講との事で、IBM i World への関心度の高さが見受けられます。2019東京のアジェンダは AI にフォーカスしており、IBM i の方向性が示されていると感じました。 アジェンダは、以下の通りです。 I (アイ=わたし=お客様ご自身)、AI、IBM i。基幹業務に AI を実装するための最適解とは。 【お客様講演】検証! AI 認識画像は基幹システムを強化できるのか? 【お客様講演】全社員参加によるデータ分析の実現!更にデータ x AI による DX の実現に向けて! パネルディスカッション『RPG vs .Java』より快適なビジネスアプリ開発言語は?   I (アイ=わたし=お客様ご自身)、AI、IBM i。基幹業務に AI を実装するための最適解とは。 セッション開始時に、毎度のことながら、IBM 久野さんによる IBM i に関する聴講者のイメージ調査があり、「堅牢性」、「継承性」、「信頼性」、「手間いらず」等が上位ワードとして浮かび上がっておりました。従来からの IBM i のイメージ通りですが、最終講演でどのように変わるのか、あるいは変わらないのか、といった点が毎度の楽しみでもあります。 当講演のキーワードは”アジリティ”です。IBM i は、その特長である、HW+OS+DB+Application の垂直統合に加え、リアルタイムで AI /モバイル/ DB / Application の水平連携を通じてシステムをアジャイル開発することで、精度を高めつつスピードアップした対応を実現させます。さらに  Application では既存資産を活かしつつ機能強化を図れるのが、IBM i です。 [caption id="attachment_68350" align="alignnone" width="600"] IBM i での水平統合・垂直統合のイメージ[/caption] [caption id="attachment_68351" align="alignnone" width="600"] IBM i とAIソリューションの水平連携イメージ1[/caption] [caption id="attachment_68352" align="alignnone" width="600"] IBM i と AI ソリューションの水平連携イメージ2[/caption] 【お客様講演】検証! AI 認識画像は基幹システムを強化できるのか? お客様講演の1つ目は、コンビニ向け食品や冷凍総菜等の食品製造の会社です。 コンビニでの商品の入れ替えは年間1000品目以上あり、さらに今後も増え続けていくことは確実で、それに伴った労働力不足の問題がますます深刻化することが懸念されています。また、不良品の発生は経営に多大な影響を及ぼすため、検品・検査の強化が経営課題でもあります。 そこで検品・検査業務への AI 活用を検討しましたが、社内には AI の知識を持った人材がおらず、メンバーとして加入している IBM ユーザー研究会に相談してみましたが、研究会メンバーにも AI に精通した人材がいなかったため、研究会の研究テーマとして取り上げてもらい検討を進める事となりました。 その活動の中で、データサイエンティストなしでディープラーニングが可能であり、学習データの加工、ディープラーニング学習モデルの作成、推論と表示を GUI で誰でも実行できる PowerAI Vision であれば今回のニーズにマッチするのではないかとの推論に基づき、PowerAI Vision を用いての検証を進めることになりました。 「サンドイッチ製造の最終検品作業で画像解析を用い、NG 商品を検出して作業員により最終確認を行う」というのが命題でしたが、NG となるべき状態が検知できずに OK となるケースがあり、改善が必要でした。 そこで、精度を高める施策として「画像判定コンテスト」を実施しました。コンテスト参加者が競い合い試行錯誤した結果、チューニングの勘所として特徴的な NG  画像の学習データ化、一つの画像データを角度を変えて枚数を増やし、学習データを増やす(学習データ数が多いほど、ディープラーニングは精度が高まる)、色を付けずモノクロにする(色の判断要素は、今回のケースでは無駄な要素になるため無くす)等様々なアイデアが生まれ、精度向上に繋がりました。 AI では「100%の精度ではなく、80%を目指して最後は人間が判断する」という完全自動化ではなく、支援システムの位置づけとした事が成功につながった要因とのことでした。 今回得られた知見を参考に、今後は IBM i の基幹システムと AI の連携を深め AI 活用の領域を拡げていく予定とのことです。 講演者も、「AI 活用がどこまで会社全体の生産性向上に寄与できるか」ということを期待されていました。 【お客様講演】全社員参加によるデータ分析の実現!更にデータ x AI による DX の実現に向けて! お客様講演の2つ目は、ポリエチレン製ゴミ袋、食品保存袋、水切り袋、紙製ゴミ袋などの製造・販売の会社です。 本来の分析の目的とは、何が起きているのかを “早く知り”、“早く施策を打つ”事です。そのためには、「何のために分析を行うのか」、「現状の理解」、「目的の確認」、そして何と言っても「施策の実施」が重要であるということを強調されていました。 以前のシステムは基幹システムを IBM i で運用し、データ分析はバッチ処理でした。DWH サーバーは別途構築した専用のシステムで、IBM i のデータと連携していました。その結果、データ準備からバッチ計算で解析するまでの流れで大変時間がかかっていました。 そこで、データ準備から解析開始までのタイムラグによるデータの齟齬を発生させず、かつ、分析プログラム開発のためのスキルをカバーしてくれる Db2 Web Query for i を2010年に採用されました。筆者が素晴らしいと感じたのは、この分析システムに「ウェブQ」という愛称まで作り、社内の誰でも使えるところまでデータ分析業務を全社に展開・浸透されていたことです。そうした「全員参加によるデータ分析の実現」が、より高度なデータ分析業務へ進む原動力になったのであろうと納得いたしました。 次のステージである機械学習によるデータ分析は、ハードルが高かったものの、2019年5月 から1ヶ月間 H2O Driverless AI で検証を行ったことにより、月別販売数予測(時系列データ)で従来の経験者による予測を上回る結果を出せました。 30名の営業がそれぞれ、毎月、数日をかけて計算している予測業務のワークロードを削減し、かつ予測精度も向上するため、営業生産性の大幅な向上が期待されるとのことです。 今後は、2020年2月の本番稼働を目指してデータ整備等の準備を進めていくとともに、デジタル化のステップアップを続けていきたいという意気込みを感じました。 パネルディスカッション『RPG vs .Java』より快適なビジネスアプリ開発言語は? パネルディスカッションは、RPG と Java のプロ同士による高質なデュエットのように味わい深いものでした。一方は、IBM iという閉じた世界の中で60年間使い続けられた RPG であり、一方は、オープン・システムの旗手として、あらゆるデバイスで稼働する命題をもった Java です。 しかし、どちらもアプリケーション開発の生産性向上とシステム安定性を追求し、どちらが優れているという競合ではなく、企業での開発アジリティを高めることに注目しているというディスカッションになっていきました。既存の RPG コードをすべて Java 化するのではなく、変わらない RPG の基幹系ロジック部分などはそのまま生かして利用し、新しい機能やユーザーインターフェース部分は Java 化するのが効率的ではないかとの結論で、双方言語のプロ同士で合意されていました。 これを老舗の温泉旅館のリノベーションに例えて、「古い部分を作り直すのではなく、よい良いところは残しつつ、現代的な空間や機能追加部分を建て増した方がより優れた旅館になるのでは」という説明に、多くの方が頷かれていました。 今後 DX と呼ばれるデジタルトランスフォーメーションが進むと、基幹系業務をクラウドやモバイルにて利用しなければならなくなります。そのようになったとき、「基幹系業務を一から作り直すのではなく、一部を取り込む方が生産性も安定性も高くなるだろう」というディスカッションは、IBM i ユーザーやパートナー企業の方々にとって朗報だったと思われます。 会場の皆さんは、食いつくように壇上の一挙手一投足に反応されていました。   最後に 全過程終了後、再び IBM 久野さんによる IBM i に関する再度のイメージ調査があり、上位キーワードは「アジリティ」や「温泉旅館」に変わっておりました。 IBM i の未来を会場の皆様と共有した、一体感を感じる今年の IBM i World でした。 ご参考サイト ・IBM PowerAI Vision : https://www.ibm.com/jp-ja/marketplace/ibm-powerai-vision ・H2O Driverless AI  : https://www.ibm.com/jp-ja/marketplace/driverless-ai   ※この記事は2019年7月5日時点の情報をもとに作成しております。 この記事に関するご質問は、下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 企画本部 事業企画部 e-Mail:voice_partners@NIandC.co.jp

2019年07月29日

【参加してみた】Power Systems テクニカル・ワークショップ 2019

こんにちは。テクサポ BLOG メンバーの河野です。 今回は2019年6月26日(水)~28日(金)の3日間、日本アイ・ビー・エム株式会社本社にて開催されました「Power Systems テクニカル・ワークショップ 2019」に参加してきました。 このワークショップは年に1度 米国の IBM Power Systems の技術担当者が招聘され、最新情報だけではなく、IBMの今後の戦略と方向性を直接聞けるワークショップになります。今年は IBM ラボサービスから実際にお客様先でデリバリーを実施している技術者によるセッションもありました。複数の OS を統合する Power Systems の特徴などを米国の技術者から直接聞けるため、オーディエンスも多く、非常に盛り上がりました。このあたりからも、参加者の期待が伝わってきたワークショップでした。 3日間の内容は、以下の通りです。 Day 1 26日(水) 【Cognitive/AI, High Availability】 Power Systems Software 最新情報 Power HA for Linux/VMRM HA and DR 情報 AI/Watson Studio Local/Watson Machine Learning Accelerator 情報 IBM Cloud Private/Hortonworks Data Platform 情報 Day 2 27日(木) 【Power Systems, AIX and IBM i】 AIX アップデート・戦略情報 Nutanix Power Systems H/W 最新情報 Hybrid / Multi Cloud 戦略 IBM i 7.4 最新情報 Power HA for IBM i / Db2 Mirror Day 3 28日(金)  【IBM i】 IBM i アップデート・戦略情報 IBM i 開発環境 全体感としては、新製品発表などの目新しい情報はありませんでしたが、最新情報と Power Systems の進む方向性という点でハードウェアというより ソフトウェアを含めたクラウドを意識したメッセージを打ち出しており、今まで以上に クラウドを中心としたソリューションへの関心度を高くする必要があると感じました。また何よりも講師の方の説明に力が入っていたのが記憶に残っています。 以下、特にメッセージの強かった Day 1、 Day 3 のセッションについてお伝えします。 Day 1 Power Systems Software 最新情報では、クラウドへの移行を容易にするツールが増えている点が印象的でした。特に印象に残っているツールとしては、Private Cloud Management での PowerVC(プライベートクラウド向け管理ツール)や CMC(IBM Cloud Management Console)です。 PowerVCについて PowerVC の説明では、サーバーや ストレージ 以外に VMware Cloud も管理可能 (VMware vRealise) なツールであり、ユーザーニーズに応じた Edition を揃えている、とのことでした。以下の1~3の内容からもクラウドの技術がベースになってきていることがわかりますし、今後ますます積極的に取り入れていく方針を打ち出していました。 PowerVCのEditionラインナップ 1 Power VC Standard Edition 数分で VM を Deploy、VM の自動回復など 2 IBM Cloud Power VC Manager Power VC Standard Edition に加え 単一クリックによる展開 3 IBM Cloud Power VC Manager for SDI IBM Cloud VC Manager に加え IBM Spectrum Scale を包含 ※Data Management Edition 5.0 PowerVC バージョン1.4.3 先月にあたる6月21日にはバージョン 1.4.3 がリリースされ、バージョン1.4.3では 次の1~6の機能が提供されるなど、クラウド以外にもマルチベンダー(SW)を意識しています。 全 POWER9 エンタープライズサーバーをサポート 冗長化された HMC の自動フェールオーバーをサポート Dell EMC の PowerMAX のサポート 日立の GAD をサポート VMAX REST のアップグレード OpenStack Stein のサポート 上図のように、PowerVC は Software-Defined Network、Software-Defined Storage、Software-Defined Compute と連携され、機能拡張が可能な次世代のシステム基盤となります。   IBM Cloud Management Console (CMC)について CMC は SaaS ベースの管理ツールであり、複数のシステム、地域、データセンターに跨った環境でも、統合ビューの提供を可能にするツールです。運用管理において クラウド環境の管理を可能にする機能が備わってきています。   その他のトピック さらに POWER9 のリリースから PowerVM Enterprise Edition(Power VM EE) は必須機能となっており、これによりいつでも クラウドへの移行が可能となります。今後ますます多くなるワークロード(多くのワークロードを処理する必要がでてくる)を最適なリソースで対応していく基盤には、POWER9 をベースとしてクラウドや仮想化技術を取り入れる方向であることを打ち出していました。 Power HA for Linux/VMRM HA and DR  では、VMRM (VM Recovery Manager) HA と VMRM DR を PowerHA の廉価版ソリューションとして発表されている点や、 PowerHA for Linux が AIX 版より廉価な点からも、今後のセリングでクラウドを意識した提案が多くなってくると考えます。(PowerHA に GUI のツールが備わっているというのは個人的には大きなニュースでした。) また、データ量が増え続け、計算機能に強いインフラの必要性が増すことが予想されるため、業界の Hadoop デファクトである Hortonworks と IBM インフラ・AI ソリューションのコラボレーションに対する需要が高まるという説明がありました。一連のイメージとしては、まず IBM Cloud Private for Data をベースに、Watson Studio でベースモデルを構築します。次に Watson Machine Learning で、マシンラーニングやディープラーニングのモデルの管理・展開を実現します。最後に Watson OpenScale でモデルの監視・運用を実施する、という流れです。AI のポートフォリオの(リマインドの観点での)説明もあり、この説明でスッキリとソフトウェアの整理ができました。 Day 3 セッションでの注目は「アプリケーションのモダナイゼーション戦略」です。 IBM i のモダナイゼーションが注力しているのは、”アプリケーション”、”データベース”、”基幹データの分析”の3点でした。 ビジネスの迅速な変化に対応するためには、システム基盤の在り方も クラウドやモバイルへの対応を強化する必要があるとメッセージしています。また、 IBM i では多くのアプリケーションやツールをサポートしている点も強調しています。 RPG は IBM i では主力言語であり、パフォーマンスや性能が良くユーザー離れが極めて低いことを強みに昔から根強いファンがいます。一方で新しい技術者の育成という点では、なかなか若い世代を取り込めていないことが懸念されていましたが、RPG は進化してきており、従来のカラム指向が現在ではフリーフォーマットとなっている点など、新しい技術者にも触れ易い環境に進化しているとのことです。 RPG のモダナイゼーション化ツールとして ARCAD (5733-AC1 ARCAD RPG Converter for i) が提供されており、従来の RPG からフリーフォームの RPG への変換を可能にします。 また、 ILE によるモジュールやサービス・プログラムにより、迅速な環境提供だけでなく、機能単位でアプリケーションを切り出した構成であるため保守容易性の観点でも利点が多いとメッセージしています。 データベースに関しては、Db2 for i は多様なインターフェースを提供しています。従来の CL コマンドや API での手法から、簡単な SQL 文で済ませられることが可能となります。アプリケーションと同様に携わり易い環境に進化しており、パフォーマンスにも効果が表れてきていることもメッセージしていました。また基幹データ分析では、Db2 Web Query for i による機能拡張があり、進化していることを伝えています。 まとめ Power Systems の戦略として、システム基盤へのクラウドの取り込みを積極的に推進するなど、ソフトウェアの機能を強化しています。IBM i の開発環境では”モダナイゼーション”というキーワードの元、RPG など従来の開発言語環境(オンプレミス)から、ハイブリッドクラウド環境を意識したサービス指向に向かっています。 数年前と比較して、ハイブリッドクラウドや Hadoop、IBM i のモダナイゼーションがリアル・ビジネスに向けたフェーズに移ってきていることを実感できるワークショップでした。 今後は IBM が打ち出している方向を意識しながら、提案の幅を広げて訴求していこうと考えます。   ※この記事は2019年6月28日時点の情報をもとに作成しています。 この記事に関するご質問は、下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp

2019年05月09日

IBM i からクラウドへのバックアップソリューションのご紹介

こんにちは。 企画推進部の久田です。 新時代のバックアップと言われている IBM Cloud Storage Solution for i (以下、CS4i と記載)についてご紹介したいと思います。CS4i はIBM Cloud や Amazon S3 のクラウド上へ IBM i のデータをバックアップし、簡易な災害対策としても注目されているソリューションです。 IBM i でのバックアップ方法 従来の IBM i  では、多くの場合(バックアップ対象のデータ容量によっては) IBM i 筐体内のディスクへのバックアップや、外部媒体へ保管するケースでも物理テープへのバックアップ(バックアップ後は物理搬送で遠隔地保管)を行っていました。ただし、ここ数年は「生産性向上」や「業務効率化」、「デジタルトランスフォーメーションの推進」により、クラウドファーストへと IT 変革を進める企業が増加しています。 CS4i  も2016年の発表以降、年々導入されるユーザー様は増加の傾向にあります。それはまさに、「生産性向上」、「業務効率化」、「コスト削減」においてユーザー様から評価を得られている証拠です。そこで今回、具体的に CS4i 導入のメリットをご紹介いたします。 従来の主なIBM i でのバックアップ取得とCS4i を利用したクラウド連携のバックアップイメージ CS4i のメリット CS4i を採用することによるメリットをご紹介いたします。 コスト低減  クラウドへのバックアップによりコスト低減 バックアップ先のハードウェアやメディアを準備する必要がないため、初期および運用時のコストを削減できる 圧縮機能によるデータ量削減の結果、クラウド使用料やデータの転送時間短縮が期待できる 新スキルの習得が不要  IBM i からのコマンドラインや GUI からバックアップリストアを実行するため、既存のスキルをそのまま流用することが可能 ※既存スキルの流用が可能 運用の負担軽減 テープ媒体が不要なため、それにまつわる運用コストの低減が期待できる 特にメディアの世代管理のわずらわしさから解放される  オンプレミスの VTL 装置と比較して、クラウドの場合バックアップの容量追加が簡単 ※VTL装置は仮想テープライブラリとして、ハードディスク上に仮想のテープドライブを疑似的に作り、システム(OS)からテープドライブが接続されているかのように見せかける仕組み 以上のメリットによりユーザー様から評価を得られ、採用実績が増えております。 考慮事項 CS4i を導入するうえでは考慮すべき点もあります。 障害対策やDR 対策の観点で、データ容量や帯域などがRPO (Recovery Point Objective:目標復旧時点)やRTO (Recovery Time Objective:目標復旧時間)を満たせる構成になるか、事前にシミュレーションをする必要があります。 ※CS4i はレベル1に該当します。 クラウドへの保管対象であるバックアップデータ容量でのコストシミュレーションが必要です。具体的には、リカバリーポイントまで定めた業務復旧時間内にリストア処理が完了するかのシミュレーションをクラウド使用時のコスト v.s. オンプレミス構成時のコストの観点で必要になります。また、業務復旧時間内に完了しないシミュレーション結果の場合は、回線帯域を増やした場合のコストシミュレーションも状況に応じて必要になります。 クラウドを利用する場合は自社のセキュリティポリシーに抵触しないか確認が必要です。 ご参考情報(CS4i V1.2 の参考価格) CS4i を導入するうえでは、CS4iの費用とCloudの費用が必要になります。また、IBM Cloud Object Storage(ICOS)は、IBM CloudのStorageを示します。 ※以下のCS4i V1.2 価格参考情報ではIBM Cloudでの試算です まとめ CS4i では簡単にクラウド環境へ仮想テープ・イメージをバックアップすることが可能です。操作も OS コマンドと同様なため、実装に際し高度な技術を要しません。クラウドや別拠点へのバックアップを行うことで災害時の対策にもなります。価格も廉価でありますので直ぐに検討に踏み切れるソリューションです。HW の更改時やデータの活用方法を改革される際は、是非、CS4i 導入をご検討下さい。 ※この記事は2019年5月8日時点の情報を基に作成しています。

2019年03月11日

データ爆発の時代の備えとして「高速テープ」と「フラッシュ・ストレージ」を活用したデータ階層管理ソリューションの勧め

こんにちは。 てくさぽBLOGメンバーの河野です。 昨今、データ分析やAIといったキーワードを目にしない日は無いというくらい日常会話で使われてきています。データ分析やAIが重要視されるようになってきた背景には、流行語にもなったビッグデータの出現により、例えば顧客に商品を買ってもらうために有効な広告を検討するための分析をすることで、購入してもらう確率を上げることができるようになります。 このように、大量のデータは企業にとっての価値をもたらす要素であり、戦略を考えるにはとても重要な役割を担っています。 このような”ビッグデータ”を効率的に利用・保管/管理するためのソリューションをご紹介いたします 増大し続けるデータ量 データという観点で一番ホットなトピックは、メディア業界における4K,8Kの商業放送の開始です。4K,8K放送が始まったことで映像コンテンツのデータ容量が爆発的に増えています。 どれぐらいデータが増えるのか?については、具体的には画面サイズが HDから4K に変わることで画素数が4倍となり、4Kから8Kに解像度をあげることでも4倍となります。(図 フルハイビジョン, 4K, 8Kの画素数 参照) 更に1画素あたりのビット数や1秒あたりのフレーム数(コマ数)も増加傾向になりますので、データ量もそれに比例して増加していきます。 図 フルハイビジョン, 4K, 8Kの画素数 どれぐらいのデータ量が必要となるのか?についても計算してみましょう。実際の映像データ自身は圧縮して送信されますが、ここでは計算を簡単にするために非圧縮の場合で計算してみます。 1画素あたりはRGBをそれぞれ8bitでの表現と想定し、8bit×3=24bitとなります。 1分あたりに必要な容量は、「総画素数」×24bit×1秒当たりのコマ数(今回は60fpsを想定)×60秒 で計算できます。 フルHD・4K・8Kのそれぞれで容量を計算し、1年間に必要な容量とともに表にまとめてみました。 1分程度であれば、フルHDの画質でスマートフォンのストレージに入るぐらいですが、8Kともなると保管が難しくなるぐらいの容量であることが分かります。 これを1年分保管するとなると、フルHDでも11.7PBと莫大な容量が必要となってきます。 データ分析の観点では、分析対象となるデータが多いほど精度が高まるため大量のデータを保管・準備することが必要になります。 このような大容量データを保管するために最適なストレージは”テープ”となります。 テープはLTO8で1巻あたり12TB(非圧縮)/30TB(圧縮)の保管が可能で、360MB/s(非圧縮:FHドライブ)/900MB/s(圧縮:FHドライブ)の速度で読み書きが可能です。 また、読み書きしないときには電力を消費しないので、消費電力が少なくてランニングコストも少なく済みます。そのため、長期保管するようなデータを保管する先としては最適なストレージといえます。 高速な分析処理の重要性 データ量の増加とともに着目されるのが、高速な分析処理です。 蓄積され続ける大量データを分析するために翌日にならないと結果が出ないというようなタイムスパンでは、情報が飽和している今の時代では適切なアクションのタイミングを逸してしまいます。 適切なアクションを適切なタイミングで実施するためにデータの収集や分析に費やす時間を短縮して、ビジネスに反映することができる環境を用意することが重要です。 サーバの処理性能はもちろんのことデータを読み書きするストレージも分析処理を高速化する上で重要な検討課題です。 分析処理を高速化するための最も簡単な方法がフラッシュ・ストレージの採用です。理想としてはストレージをすべてフラッシュ・ストレージにするオール・フラッシュ化をすることが望ましいところですが、フラッシュ・ストレージはディスクストレージと比べて高価なため、コスト的な観点から導入を躊躇されるユーザーの方も多数いらっしゃいます。 そこでお勧めしたいのがフラッシュ・ストレージとテープとを組み合わせたソリューションです。 フラッシュ・ストレージとテープ装置を組み合わせたソリューション 「コストと性能」という相反する課題は、既存の複数のソリューションを組合せることで解決ができます。コストはテープによって、性能はフラッシュ・ストレージによって得られます。ここで更に組み合わせるSoftware Defined Storage(以降SDS)ソリューションにより、運用面・管理面でもユーザーに負担をかけずに自動化することができます。 このソリューションであれば、企業の生産性も向上し導入のハードルも下がってくるのではないかと考えます。 この統合ソリューションは、以下3点が特長になります。 (1) フラッシュ・ストレージの性能 (2) 一定期間アクセスの無いするアーカイブ・データはコスト・メリットのあるテープ・ライブラリに自動的に移管 ※フラッシュ・ストレージ上ではアーカイブ・データは削除され、フラッシュ・ストレージの容量に余裕が生まれます (3) テープ・ライブラリのデータは、ユーザーからのアクセスに応じてフラッシュ・ストレージへ簡単にデータ移動および再利用が可能 上記により、ユーザーとシステム運用管理者の双方にメリットをもたらします。 IBM製品で実現するソリューション IBM製品で構成すると以下のようなイメージになります。 データ管理用にフラッシュ・ストレージとテープ・ライブラリーを接続したサーバー および サーバーに導入されたIBM Spectrum ScaleとIBM Spectrum Protect等のSDS製品でこのソリューションが成り立ちます。 IBM Spectrum Scaleは、データ階層管理機能をもち使用頻度の高いデータはフラッシュ・ストレージに配置し、使われなないデータは自動的にテープ・ライブラリーへデータ移管を行います。 IBM Spectrum Protectは、IBM Spectrum Scaleが使われないデータと判断したデータをテープ・ライブラリーへ転送(アーカイブ)させます。テープ・ライブラリー上で管理されているデータであっても、ユーザー自身のディレクトリーやフォルダー上にあるファイルとしてアクセスが可能です。 ユーザーは、ファイルをクリックすることにより、テープ・ライブラリーからフラッシュ・ストレージへデータのアップロードさせることも可能です。その後 一定期間放置すると、フラッシュ・ストレージからテープ・ライブラリーへ自動的に移管されます。この階層管理の仕組みの中にSASやSATAなどのHDDメディアを組み合わせることも可能ですが、ソリューション全体が複雑になりやすいこと、運用設計や運用管理の検討が不可欠であり、高度なノウハウが必要になるため、どういう構成にするのかは状況次第といったところでしょうか。 まとめ 今後、増え続けるデータをいかに安く保管するのかは重要な課題です。また、データ分析やAI利用の高速化のためのフラッシュ・ストレージの検討も重要な要素です。 コストの観点で利用できるフラッシュ・ストレージのリソースが限られることも考えられますので、フラッシュ・ストレージ上に格納したいが消去してはいけないようなデータをテープ・ライブラリーに移管させる機能をSDSを用いて自動化することで、分析業務の高速化と運用コストの低減を同時に図れます。 データ爆発の時代の備えとして”「高速なテープライブラリー」と「フラッシュ・ストレージ」を活用したデータ階層管理ソリューション”を是非ご検討下さい。 ※この記事は2019年2月20日時点の情報を基に作成しています。 この記事に関するご質問は、下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp  

2018年12月12日

業務の効率化に役立つRPAとは? ~IBM RPA with Automation Anywhere編~

こんにちわ。 てくさぽBLOGメンバーの佐野です。 最近世間で業務の効率化ツールとして注目を集めているソリューションであるRPA(Robotic Process Automation)。 第一回は概要編 (業務の効率化に役立つRPAとは?~概要編~)、 第二回はWinActor (業務の効率化に役立つRPAとは? ~WinActor編~) についてでしたが、今回の第三回はIBM社が提供している「IBM RPA with Automation Anywhere」(以下IBM RPA with AA)を紹介します。 IBM RPA with AAとは? IBM RPA with AAは、IBM社の製品ではありますが、RPA部分の中身はAutomation Anywhere社の製品を利用しています。 Automation Anywhereという会社とその製品を日本国内で聞くことはまだ少ないかもしれませんが、Automation Anywhere社の製品は2018年2QのForrester WaveにおいてLeaderポジションと位置付けられています。 日本国内でのシェアは高くありませんが、全世界的に見ると認知度が高く実績も多い製品です。 ※参考:Automation Anywhere社のサイト さて、そのAutomation Anywhere社のRPA製品と組み合わせたIBM RPA with AAですが、他の製品と何が違うのでしょうか? 一番大きな違いは、業務全体を最適化するための支援ツールであるBusiness Automation Workflow製品(旧Business Process Manager)が同梱されていることです。 この製品と組み合わせて利用すると、対象業務の全体像やどこがボトルネックとなっているのかを把握できるようになり、またプロセスのどこが人間でどこをロボットに実施させるのか、を設定ができます。 IBM RPA with AAの製品としては"Platform"と"Platform Express"の2種類が提供されており、PlatformにはBusiness Automation Workflowだけでなく判断ロジックを外部で管理するIBM Operational Decision ManagerとOCR機能であるIBM DataCapも同梱されています。 なので、Platformを購入すればOCRの利用や複雑な判断が入るような処理を実装する時に別の製品を購入する必要がありません。 また、SAP連携やCitrix連携モジュールが製品内に用意されているため、これらの操作を自動化する際には楽にロボットを作成することができます。 IBM RPA with AAの使い方 まず、IBM RPA with AAは"サーバー型"の製品なので、管理サーバー(Control Room)が必須です。 ロボットの実行やステータスは管理サーバーで管理されますので、普段は管理サーバーを確認しておけば済みます。 サーバーでロボットを管理するので、勝手にロボットが増殖し誰も管理できていないという状況を防げるのが強みです。 ロボットを作る時には、一からロボットの動作を定義するのではなく、レコード機能を利用することができます。 オブジェクトを取得する"Smart Recorder"、座標を取得する"Screen Recorder"、HTMLの構造を取得する"Web Recorder"の3つのレコードを搭載しているので、場面に応じた最適な方法を選択することができます。 また、ロボットに実装できるコマンドは約500種類もあるため、大体の操作はAutomation Anywhereの機能で実現できます。 では、実際の操作を見てみましょう。 まずは簡単にメモ帳に"demo"と打ってそれを"demo.txt"ファイルとして保存するということをレコードします。 "Record"ボタンを押すと画面の右下に四角い"Recording"ウィンドウが表示されます。これがレコード中ということを示すもので、レコードが終わったら"Stop"ボタンを押すだけです。 結果は切れてしまっているので次の画面を見てください。 "Actions List"にレコードした結果が自動的に出力されています。 正しく実行できるのか"Run"ボタンを押して確認をすると、先ほどレコードした操作が同じように実行できていることが分かります。 ※ファイル保存処理の部分が目視できないほど高速処理となってしまっています。分かりづらく申し訳ありません。 "Actions List"内の内容がロボットが実行する動作を定義したものですが、一見するとプログラミング言語で記載されているように見えます。 自分でロボットを作る時に全部書かないといけないとするとしんどい、と思うかもしれませんがご安心ください。 コードのように見えますが、ここは直接編集できず、設定はすべてGUIベースとなります。 例えば"If"の動作設定画面は以下のようになります。 画面では設定した特定のフォルダーがある時の動作を定義しています。If文で使う条件と比較する対象を設定するだけなのでコーディングとは全く違うものになります。 画面左側の"If/Else"カテゴリから"Folder Exists"を右側のペインにドラッグ&ドロップし、設定をするだけで1から3行目の動作が自動的に挿入されます。 ですので、簡単にロボットを作ることができるということが理解頂けるかと思います。 まとめ 今回はIBM RPA with Automation Anywhereの導入部分のみのご紹介で全てをご紹介しきれていません。 ロボットの動作を定義する部分の見た目はコーディングしているように見えますが、実際にはGUIで設定をしていること、レコード機能をうまく使えば手作業で動作を設定することが少なく済むことを理解頂ければ今回のブログは成功です。 より詳細なご説明をご希望される場合は、遠慮なくお問合せ下さい。   この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp

2018年09月25日

業務の効率化に役立つRPAとは? ~WinActor編~

こんにちわ。 てくさぽBLOGメンバーの佐野です。 最近世間で業務の効率化ツールとして注目を集めているソリューションであるRPA(Robotic Process Automation)。 第一回記事は概要編でしたが、今回は第二回としてNTT-AT社が製品として出荷している「WinActor®」を紹介します。 1.WinActorってどんな製品? RPA製品全般的にですが、実現できることは「パソコン上の操作の実行」です。 例えば、Webページ上の特定の情報をExcelに転記する、テキストのデータを読み込んでWebサイトに入力する、などがあります。 WinActorはNTT-AT社が開発した製品で、初期の製品出荷開始が2014年と既に4年もの出荷実績があります。 この製品の主な特長としては以下が挙げられます。 ・日本国内でのシェアNo.1(情報元:WinActorサイト) ・国産製品なのでGUIはもちろん日本語 ・フローチャート形式でシナリオを作成 実際のロボット作成画面は以下のようになります。 画面の左下の部分がロボットの動作を定義する画面ですが、フローチャートのようになっていることが分かりますね。 ・WinActorが用意している部品や画像マッチングを利用して様々なアプリケーションの操作が可能 ExcelやWordなどはWinActor自体が用意している部品を使って、例えばExcelのアクティブなセルの移動や値のコピー、書式設定といった操作を実現できます。 それ以外の部品の用意されていないアプリケーションに関しては画像マッチングで対象を特定することで、様々なアプリケーションの操作が可能になります。 簡単な例として、NotesDBに対する新規文書作成操作のデモを画像認識とテキスト入力だけで作ったのでご覧下さい。 デモの中で、黄色の枠が画像認識をした部分の動作になります。例えば最初の画面では「ディスカッション」と書かれた文字の画像を認識してNotesDBを開いています。 ・専用サーバーが不要で、WindowsPC 1台だけでも稼働可能 WinActorはサーバーを用意する必要が無く、PC上にインストール・稼働可能です。 WinActorを利用開始するための初期投資としてはWinActorライセンス費用+シナリオ作成作業費用(+WinActor実行用PC)のみですので、安価にRPAの利用が開始できます。 サーバー不要でPC上のみで完結できる製品をデスクトップ型の製品と呼びますが、対して専用サーバーでロボットの実行・管理をする製品もあります。こちらはサーバー型の製品となります。 それぞれの違いについては次章で解説をします。   2.デスクトップ型とサーバー型 今回紹介しているWinActorは「デスクトップ型」の製品ですが、世の中の他のRPA製品には「サーバー型」のものもあります。 何が違うのでしょうか? ポイントは「ロボットの管理」です。 デスクトップ型 デスクトップ型はRPAのソフトウェアをPC上に導入し、そこでロボットを稼働させます。 全て1台の端末上で完結するため、個人の端末上でも、部門共有PCでも導入することができ、現場での取り回しが容易な形式です。 デスクトップ型の利用イメージとしては以下のようになります。 1つ注意が必要な点としては、デスクトップ型の製品ではロボットが処理を実行している時にはPCを占有するため、個人のPCに入れるというよりも専用PCを用意することを推奨しています。 デスクトップ型製品では、簡単にロボットを作成・稼働できるのがよい点ですが、反面、全社で統一管理をしたいという要望がある場合には不向きです。 WinActorの場合、統合管理するソリューションを追加できるよう準備していますので、このような要望にも対応できるように機能拡張をしています。 サーバー型 デスクトップ型はデスクトップ上でロボットを動かす。それに対してサーバー型は「サーバー上でロボットを動かす」から「サーバー型」なんじゃないか?と推測するかもしれません。 サーバー型は「ロボットをサーバー上で管理する」のでサーバー型と呼ばれます。 当然管理するためのサーバーを別途用意する必要がありますので、その分費用も高くなりがちですが、ロボットの実行環境を増やしたい場合には一元管理するメリットが活きるので比較的大きな環境向けといえるでしょう。 また、製品にもよりますが、PC上でもサーバー上でもどちらでもロボットを実行可能です。 ロボットの実行は管理サーバー上で管理されますので、管理者が管理サーバー上でスケジュール実行や実行トリガーの設定をすることによって実行できます。(手動実行もできます) 構成のイメージは以下のようになります。   3.まとめ WinActorの画面イメージや簡単なデモ動画をご紹介しましたが、どのような製品かイメージがついたでしょうか。 WinActorはロボットを作る操作がさほど難しくなく、RPAで実現する生産性向上の第一歩として使い始める製品としては非常に有用です。 まずは身近な業務で複数の人が同じような業務を行っているのであれば、そこからRPA化を着手してみるのもいいのではないでしょうか。   ※WinActor®はNTTアドバンステクノロジ株式会社の登録商標です。 この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp

1 2 3 4 5 6 10
back to top