2019年11月

19

【てくさぽBLOG】超簡単データ分析!H2O Driverless AIを使ってみた

こんにちは。
てくさぽBLOGメンバーの河野です。

突然ですが、「Driverless AI」ってご存知ですか?

近年データ量はますます増加の一途をたどっていますが、このいわゆるビッグデータを AI を利用して分析・予測をするソリューションが、この Driverless AI です。
Driverless AI は、汎用的な AI(強いAI)ではなく、特化型の AI(弱いAI)の位置づけです。つまり、機械学習が欠かせない AI になります。

「機械学習ってすごく大変だ…」と、つい先日まで私もそう思っていました。

しかしこの Driverless AI は、なんと機械学習の自動化ツールが備わっており、高度な知識やスキルを持たずともいとも簡単に扱えるのです!

とはいえ、「本当に初心者でもできるのかな?」
ということで、今回実際にその Driverless AI を試してみました!(ちなみに私はデータ分析は未経験です)

 

H2O社が開発したDriverless AI

Driverless AIという製品は米国の AI エリート集団、「 H2O.ai 」が開発したソリューションです。

今までデータ分析や予測といった業務は専門家が行っていましたが、Driverless AI は その専門家に成り代わり、業務の一部を引き受けてくれます。そのため、スキル面での人材確保でもう頭を抱える必要はありません!

専門的な知識がなくても Driverless AI を使ってデータ分析や予測業務等、日々増加するデータを活用することができるため、ますますビジネスチャンスを広げられるでしょう。

 

Driverless AIを使った不動産売買価格のシミュレーションモデル作成

今回の環境

  • ノートPC(CPU : i5-8350U 1.7GHz、メモリ : 8GB、HDD:238GB、OS : Windows10)
  • 分析データ(今回はREINS のウェブサイト「REINS Market Information」を検索して入手した不動産売買データ)

Driverless AI の導入環境については、H2O.ai 社 Web ページ「Driverless AIのインストールとアップグレード」に記載されています。

Linux X86_64、IBM Power、Mac OS X、Windows10 Pro の環境をサポートしています。
Windows10Pro 版は GPU のサポートがありませんが、今回はすぐに試したかったので、普段業務で使っている自分のノート PC に導入してみました。仕様としては、最小メモリが 16GB 以上となっていますが、使っている PC のメモリは 8GB しかありません。これも「普段使いの自分の PC で動くかどうか」というの1つの実験です。

 

Driverless AI の導入手順

1. Driverless AIのアプリケーションのダウンロード・導入

H2O.ai 社のホームページを読みますと、Driverless AI の導入パッケージは、それぞれの環境ごとに docker、RPM、DEB 等、複数用意されております。Windows10Pro のガイドを読むと、docker と DEB イメージの2種類用意されていました。
ここに docker イメージ利用は推奨しない、と書かれていますので、素直に DEB イメージで導入することにします。

ただし、DEB インストールをする場合でも、普段使いの Windows10 を若干カスタマイズしないと使えません。それは、Windows に Linux(Ubuntu)を導入してその上で Driverless AI が動くのです。ただその設定は、比較的簡単で、Windows10 の設定画面を呼び出して「Windows Subsystem for Linux(WSL)」を ON して、この環境にUbuntu 18.04 LTS(Microsoft Storeから無償で入手)を導入するだけです。

この導入に関しては、YouTube を参考にすると誰でもセッティングできます。素晴らしい世の中になりました。

Ubuntu を WSL に導入した後は、H2O.ai のホームページから DEB イメージの導入パッケージを自分の PC へダウンロードするだけですが、このサイズが半端ない(3GB以上)ので、ネットワーク環境によっては少々時間がかかります。

ダウンロードが完了した後、DEBイメージからインストールを実施しました。
DEB からの導入については、Linux である Ubuntu のプロンプト画面からコマンドで実施します。詳細は割愛しますが、H2O.ai 社のホームページ通りにコマンドを実行すると Ubuntu に詳しくない人でも知らずに導入ができますので、ぜひお試しください。

さあ、さっそく Driverless AI を使ってみたいところですが、その前に、H2O.ai 社が許可している21日間有効なトライアル・ライセンスを取得しておきます。
このトライアル・ライセンスの取得がとても簡単でした。H2O.ai 社のホームページから Web 申請をすると10分ほどでライセンス・キーがメールで送付されます。

図1:トライアルキーの申請書画面

すでに稼働しているDriverless AIですが、使う時はブラウザ(Google Chrome を使いました)からポート番号を呼び出して実行します。これはどのオペレーティングシステムの環境でも同じ手順になります。今回は、自分の PC で動いているので “http://localhost:12345” を指定しました。

図2:検索バーでlocalhost:12345 を指定

図3:サインイン画面に遷移

図3のサインイン画面に任意のユーザー ID とパスワードを入力して Driverless AI の GUI 画面を立ち上げました。ライセンスを要求してきますので、入手済みのトライアル用ライセンス・キー(かなり長い)をコピペで適用して、すぐに使えるようになりました。

この間サイズが大きいのでダウンロードに時間がかかりましたが、そのほかの設定や導入は至ってシンプルな印象です。慣れていない方には、ややこしいと感じられるかもしれませんが、YouTube などでも説明されていますし、「何とかなる」と感じました。

 

 

2.分析モデル作成

今回の検証では、現実にある業務として、不動産の売り出し価格を機械学習させて適切な(売れ残らず、利益もとれる)販売価格の推論モデルを作成しました。

Driverless AI で以下の3つのステップを実行します。

  1. データアップロード:
    不動産売買データを Excel で表にし、そのExcelファイルを Driverless AI へドラッグ&ドロップ。
  2. ターゲットを選択:
    GUI メニューを使って列名をクリック。
  3. Experiment -モデル作成実行-:
    GUI 画面の赤枠のボタンをクリック。

図4:不動産価格情報を検索したのち、画面のコピーから作成したファイル

図5:Driverless AI実行画面

以上の処理はすぐ終わりましたが、検索画面コピーだけで作った図4のデータはテキスト・データだけのため(例えば価格は、150万円という表示であって、1,500,000という数字ではない)、回帰解析は作成されませんでした。

統計解析のプロから見ると当たり前のことなのでしょうけれども、初心者には、ファイルを与えてみて、試して、目で見れた結果が大事なのです。

そこで、最初に使ったデータの ”単価”、”専有面積”、”駅からの徒歩時間”など、数値であるべきものは数値に変換してみました。(図6参照)

図6:価格等を数値データ変換したファイル

この図6の Excel ファイルを使って再度 Driverless AI の機械学習ステップ1から3を実行したところ、今度はモデルが作成されました。

「本当に初心者でもできたー!」

 

ただし、GPGPU を持たないWindows10Pro版 のため、Driverless AI のデフォルト値ではなかなか機械学習が終わらず…途中で実行をキャンセルし、パラメーターを操作して低い精度に変更してから(といっても操作はマウスでクリックするだけです)、ステップ3を実行したところ予測モデルが完成しました。

こんなところも GUI オペレーションでやりながら対応していけるのは、ありがたい。

 

納得のすごさ!Driverless AI

今までのツールでは、学習データを作った後もデータ欠損やどのパターンで推論するのか等のデータ整備作業を行わないと予測モデルが作成できなかったり、データ整備後もどのような分析を行うかをデータ・サイエンティストが試行錯誤する、というプロセスが必要でした。

が、この Driverless AI は、ある程度のデータ欠損には自動対応してくれます!さらに推論パターン(推論モデル)もデータから自動判断して予測モデルを作成してくれるのです!
そのため、本当に AI や機械学習の初心者でも推論モデルを作成することができてしまいました!

完成した予測モデルの精度は、実際の販売価格と比較することでわかります。
また、さらに性能アップをしたい場合は、インプットするファイルのデータの数を増やしたり、精度パラメーター (GUI から簡単に増減できます)を上げるなどしてとても簡単に実施できそうです。次は、こうしたチューニングをやってみたいと思います。

※ノート PC での実行では、データ数を増やすと演算負荷増大に繋がり、相当時間がかかる可能性があります。このような場合は、機械学習計算性能を最大化する GPGPU 演算が可能なサーバー環境(IBM PowerAC922 のように NVIDIA TeslaV100GPU を搭載するサーバー)で実行すれば、推論モデルは、より高速で作成できます。

※弊社では、AC922 で Driverless AI の実行環境(PoC 環境)の貸出しをしています。是非こちらもご活用ください!
IBM AIソリューション PoC環境ご利用ガイド

 

まとめ

ビジネスで利用する AI で重要なことは、ビジネス課題の解決に役立てるということです。

例えば、製品生産計画策定のために統計解析ツールや AI を使った生産予測をすでに行っている企業においてスムーズに業務が遂行されているケースはいいのですが、解析課題が多すぎて現状体制ではこなせなくなっている場合は、なにかしらの対策をしなければなりません。

しかし、通常の統計解析ツールや AI を使いこなすためにはかなりの勉強と経験を必要とするため、すぐに解決できないことが多いようです。育成ではなく外から人材確保するにも、企業間での採用競争が高まっており、なかなか優良な人材を確保できていないのが実情ではないでしょうか。

また、たとえ技術者がいたとしてもその人材が退職してしまうと途端に業務が滞ってしまう、という懸念もあります。

業務の AI 化というのはこれらの課題を補ってくれるツールである一方、使いこなすのもとても大変です。そのような状況において、AI を使った分析業務を簡略化したり既存の業務の補足をしてくれる Driverless AI は、まさに今の時代に待ち望まれていたソリューションだと言えるでしょう!

 


この記事に関する、ご質問は下記までご連絡ください。

エヌアイシー・パートナーズ株式会社

技術支援本部

E-Mailnicp_support@NIandC.co.jp

その他の記事

2024年05月13日

AIでランサムウェアの脅威に立ち向かう ~IBM Storage DefenderとFlashSystemの連携でシームレスにセキュリティを強化~

ランサムウェア攻撃は収束するどころか、ますます戦いは苛烈を極める状況になっています。凶悪化する一方のこの脅威に対抗するため、IBM はストレージ領域のソリューションに AI を活用した新機能を次々と発表しています。 それが、IBM Storage FlashSystem における「第4世代FlashCore Module(以下 FCM4)」であり、IBM Storage Defender です。 被害を拡大させないためには早期検知が何よりのカギといえます。本記事では新機能の概要とともに、関連ソリューションの相互活用により脅威検知とデータ復旧がどのように迅速化できるかをご紹介します。 目次 すべての企業が“自分ごと”として考えるべきランサムウェア攻撃 IBMはランサムウェア対策のためAI活用をハード/ソフトで推進 一層の早期検知が可能になった脅威検知フロー お客様環境や予算に応じて柔軟に構成可能なIBM Storage Defender 「無償セキュリティー・リスクWEB診断」でお客様に気づきを お問い合わせ 関連情報 すべての企業が“自分ごと”として考えるべきランサムウェア攻撃 ランサムウェア攻撃との戦いは、まだまだ収束には至っていないようです。独立行政法人 情報処理推進機構(IPA)の「情報セキュリティ10大脅威 2024」の組織編において1位となったのは「ランサムウェアによる被害」でした。 2016年にランキングに登場して以降10大脅威に入り続け、今年で9年連続になると言います。もはや "運の悪い企業がたまたま遭う災難" という次元ではなく、ランサムウェア攻撃のリスクはすべての企業が自分ごととして考えなければならないところまで来ています。 ひとたび被害に遭うと、大幅なシステム侵害に見舞われます。事業停止に追いこまれたり、全面システム復旧に数週間から半年もかかってしまうということが過去の事例からわかっています。 現代の企業には、ランサムウェア攻撃を受けないよう予防するだけでなく、万が一攻撃を受けたとしてもそこから迅速にシステム復旧を遂げ、もとの企業活動に戻るという能力、レジリエンスが求められるようになっています。 IBMはランサムウェア対策のためAI活用をハード/ソフトで推進 脅威者が人質に取ろうと狙うのはデータです。そのデータが格納されているストレージは、彼らにとって格好の標的のひとつです。 IBM では凶悪化する一方のランサムウェア攻撃に対抗するため、ハードウェアとソフトウェアの両面からストレージ領域でこの課題によりよく対処できるよう、支援を強化しています。 まずはハードウェアです。 先日、IBM Storage FlashSystem に新しい FlashCore Moduleテクノロジーが導入されました。これは FCM4 と呼ばれ、IBM Storage FlashSystem と共に新たなランサムウェア検知に貢献する AI機能(機械学習モデル)を実装しています。 すべての I/Oデータに関する統計情報(エントロピー、圧縮率、暗号化レベル、アクセスパターンなど)を FCM4 が継続的に監視しており、取得したデータをサマライズし、IBM Storage FlashSystem上の AI機能により1分未満でランサムウェアの脅威を検知できるようにします。 昨年から提供している IBM Storage FlashSystem でのソフトウェアによる書き込みデータの監視やエントロピーなどの統計情報の収集および処理機能と IBM Storage Insights Pro での脅威の検知を組み合わせた方法と比較すると、より正確かつ早期に検知することが可能になります。 また、この新しいランサムウェア検知機能ではボリューム単位で脅威を検知できるため、疑わしい箇所をピンポイントで特定し、より早くデータ復旧にむけたアクションに入れます。 ランサムウェア対策において、被害を最小限に抑える早期検知は大きな進歩となります。 続いて、データ・レジリエンスのためのソフトウェアソリューション IBM Storage Defender での進化について説明します。 こちらには、IBM Defenderセンサーという新機能が加わりました。これは、ランサムウェアの脅威を高い精度で迅速に検出するよう設計された、IBMリサーチ開発の AI搭載センサーです。ストレージのリソースを消費しないライトウェイト設計のエージェントを使用し、ファイルのメタデータや I/O への攻撃パターンを分析、数秒から数分で異常を検出します。 IBM Storage Defender にはすでに、IBM Storage FlashSystem のセーフガード・コピー機能で作成された改変不可なスナップショットをアプリケーションデータとして不整合な点はないか検証できる IBM Storage Sentinel というラインナップソフトウェアがあります。IBM Defenderセンサーが加わったことで、さらに精度高く脅威を検知できるようになります。 一層の早期検知が可能になった脅威検知フロー それでは、上記のような新機能を包含するとランサムウェアの脅威検知はどのような流れになるでしょうか。 まず動きだすのは IBM Storage FlashSystem上の FCM4 です。これが I/Oデータを常にモニターし、ランサムウェア検知に必要なデータを IBM Storage Virtualize に送ります。IBM Storage Virtualize ではボリュームごとに情報を集約し、自身が持つ推論エンジンで脅威検出を行います。 ランサムウェアの脅威を検知するとその情報を IBM Storage Insights Pro へ通知し、IBM Storage Defender などと連携し次のアクションへ繋げます。(図1) 図1. FlashSystem:FCM4を使ったランサムウェア検知 これによってランサムウェア攻撃を受けた日時を絞りこめるため、データ復旧に用いるべきセーフガード・コピーのバックアップ世代にただちに当たりをつけることができます。 そこで Copy Service Manager などからリカバリー指示を出し、当該世代をボリュームグループ単位でリカバリー・ボリュームに移します。ここでマウントを行うことで、IBM Storage Sentinel でただデータとしてクリーンであるというだけでなく、アプリケーションデータとしても不整合がないことを検証します。 晴れて良好な結果が出れば、安心してデータをシステムに戻せるというわけです。(図2) 図2. セーフガード・コピーのワークフロー お客様環境や予算に応じて柔軟に構成可能なIBM Storage Defender IBM Storage Defenderソリューションのおもしろいところは、さまざまな機能を持つソフトウェアを1つの Defenderライセンスの下で利用できる点です。まるでツール・ボックスから道具を選ぶように、必要に応じて必要なものを柔軟に利用することができます。 ここが、ライセンスにすべてのコンポーネントが含まれるパッケージとは大きく異なります。 ランサムウェア対策をご検討中のお客様の中には、予算や既存システムの活用を優先するなどの理由で対策の優先度があるかと思いますが、 "すでに実装されているデータコピーの健全性を素早く特定する検知に取り掛かるため、今期は Sentinel への投資をする""来期は Flash の更改時期のため、SGC機能込みのモデルの Flash と共に CSM にも投資する" など、シチュエーションに合わせた対応が可能です。 IBM には「IBM Sales Configurator」(IBMサイト/要IBMid)という構成見積りツールが用意されています。これを使って、お客様環境における IBM Storage Defender の構成をざっくりシミュレーションすることができます。 「無償セキュリティー・リスクWEB診断」でお客様に気づきを いかがでしょうか。 ランサムウェア攻撃が日常になった今日、この攻撃に焦点を合わせて着々と機能強化を図っている IBM Storage FlashSystem、IBM Storage Defender は、一度じっくり検討してみる価値があります。 すでにこのストレージをお持ちのお客様にも、これから堅牢なストレージを求めたいというお客様にも、ぜひお勧めください。 中には、「何も起きていないからうちは大丈夫」と、最初からセキュリティに関心の薄いお客様もおられるかもしれません。そのときは、IBM が新しく用意した「無償セキュリティー・リスクWEB診断診断」(IBMサイト)を紹介して試していただきましょう。 上記の診断では、(重要データの)「特定」「防御」「検知」「対応」「復旧」という5つのプロセスからなる22の質問があり、解答者は「はい」「どちらかと言えばはい」「部分的に」「どちらかと言えばいいえ」「いいえ」のいずれかにチェックをつけていきます。(図3) 図3. 無償セキュリティー・リスクWEB診断 正式な診断結果を確認するには連絡先情報を入力する必要がありますが、回答していくだけでも現在実現しているセキュリティレベルに対する "気づき" が得られます。 エヌアイシー・パートナーズでは、IBM Storage FlashSystem や IBM Storage Defender に関して潜在ニーズを含めたシステム構成の検討支援から、お客様システム全体に対する提案支援や構成作成支援を提供しています。お客様の課題を解決するための方法をリセラーの皆様とともに、お客様の視点、リセラーの視点を大事にしながら一緒に検討していきます。 お気軽に、なんなりとご相談ください。 お問い合わせ この記事に関するお問い合せは以下のボタンよりお願いいたします。お問い合わせ 関連情報 NI+C Pサイト情報 データを守り抜く鍵は「IBM Storage Defender」にあり(コラム)- IBM Storage Defender の構成要素や、それぞれの構成要素を企業がどう採り入れていくことで堅牢な守りを形にできるのか、を見ていきます。   .highlighter { background: linear-gradient(transparent 50%, #ffff52 90% 90%, transparent 90%); } .anchor{ display: block; margin-top:-20px; padding-top:40px; } .btn_A{ height:30px; } .btn_A a{ display:block; width:100%; height:100%; text-decoration: none; background:#eb6100; text-align:center; border:1px solid #FFFFFF; color:#FFFFFF; font-size:16px; border-radius:50px; -webkit-border-radius:50px; -moz-border-radius:50px; box-shadow:0px 0px 0px 4px #eb6100; transition: all 0.5s ease; } .btn_A a:hover{ background:#f56500; color:#999999; margin-left:0px; margin-top:0px; box-shadow:0px 0px 0px 4px #f56500; } .bigger { font-size: larger; }

2024年04月08日

【てくさぽBLOG】watsonx Assistant + Watson Discovery + watsonx.aiを連携してみた

こんにちは。てくさぽBLOGメンバーの高村です。 ビジネスへの生成AI の取り込みに注目が集まっている今日、watsonx.ai をどう活用すればいいのか、多くのお客様からお問い合わせ頂いています。そこで前回の「【てくさぽBLOG】IBM watsonx.aiを使ってみた(Part2)」では、watsonx.ai のユースケースとして Retrieval-Augmented Generation(以下 RAG)をご紹介しました。 今回は、RAG の仕組みを利用し AIチャットボットを提供する「watsonx Assistant(以下 Assistant)」と検索エンジン機能を提供する「Watson Discovery(以下 Discovery)」、「watsonx.ai」を組み合わせた連携ソリューションをご紹介します。 目次 AssistantとDiscoveryの連携 watsonx.aiを取り入れた連携 Assistant + Discovery + watsonx.aiを連携してみた さいごに お問い合わせ AssistantとDiscoveryの連携 本来なら各製品を一つのブログで詳しくご説明したいところですが、今回は連携した結果についてのご紹介となりますので、Assistant と Discovery については今後のブログであらためてご紹介したいと思います。 Assistant は watsonx の大規模言語モデルが搭載され、自然言語の問い合わせを理解し、適切な回答を返すことができるチャットボット機能を提供する製品です。一方 Discovery はドキュメントから適切な情報を検索する検索エンジン機能、パターンや傾向を読み取る分析エンジンとしての機能を備えた製品です。 Assistant と Discovery を組合わせたユースケースでは Assistant にあらかじめ回答を用意してルールベースで回答させ、答えることが難しい問い合わせに対しては Discovery の検索結果を利用して回答します。 watsonx.aiを取り入れた連携 上記の連携では Discovery の検索結果がユーザーに表示される仕組みとなっていますが、watsonx.ai を介して回答を提供することでDiscovery が得た検索結果をさらに整理し、より理解しやすい形での返答が実現できます。 Assistant + Discovery + watsonx.aiを連携してみた Assistant、Discovery、watsonx.ai を連携してみます。 事前準備 利用環境 今回は IBM Cloud で提供される SaaS を利用して検証します。なお、Assistant と Discovery の Plusプランは30日間無償期間が付属されていますので、是非ご活用ください。 watsonx Assistant:Plusプラン(30日間無償期間あり、以降は有償) Watson Discovery:Plusプラン(30日間無償期間あり、以降は有償) watsonx.ai:Essentialプラン(有償) 検証の目的 検証では構築手順の他、以下の点を確認します。 「Assistant + Discovery + watsonx.ai」と「Assistant + Discovery」の連携による回答の違いを比較 言語モデルを変えて問い合わせを行い、回答の違いの比較 実施手順 以下の流れで検証を実施します。 Assistantのプロビジョニング Discoveryのプロビジョニング、検索対象とするデータの取り込み※取り込むデータは「IBM Power S1014 データシート」のS1014のPDF watsonx.aiのプロビジョニング Assistantの初期設定 Assistantのカスタム拡張機能からDiscoveryを繋げる Assistantのカスタム拡張機能からwatsonx.aiを繋げる Assistantアクションの作成、問い合わせの検証 言語モデルを変えて問い合わせの検証 検証実施 1. Assistantのプロビジョニング はじめに Assistant のプロビジョニングを行います。 IBM Cloud にログインし、カタログ画面から "Assistant" を選択します。 ロケーションとプランを選択し「作成」をクリックします。 しばらくすると以下の画面の様に、Assistant がプロビジョニングされます。 2. Discoveryのプロビジョニング 次に Discovery をプロビジョニングします。 カタログ画面から "Discovery" を選択します。 ロケーションとプランを選択し「作成」をクリックします。 しばらくすると以下の画面の様に、Discovery がプロビジョニングされます。※ここで、資格情報内にある「API鍵」と「URL」をメモに控えます 「Watson Discoveryの起動」をクリックし「New Project +」をクリックします。 Project name に任意の名前を入力、Project type では「Conversational Serch」を選択し「Next」をクリックします。 作成されたプロジェクトをクリックします。 「Integration Deploy」をクリックします。 「API Information」タブをクリックし「Project ID」をメモに控えます。 次に検索対象の PDF を Discovery に取り込みます。 「Manage collections」から「New collection +」をクリックし、「Collection name」に任意の名前を入力、「Select language」を「Japanese」に設定します。 Upload files の領域に PDF をドラッグアンドドロップして「Finish」をクリックします。 アップロードが完了しました。次に、Smart Document Understanding機能(以下 SDU)を利用して PDF内のヘッダーやテキストなどのフィールドを定義します。 SDU は、PDFをはじめとする非構造化データの文書構造を理解して検索や分析の精度を向上させる機能です。例えばタイトルと定義した箇所を検索キーとしたり、検索対象をテキストと定義した箇所のみとするなど可能になります。 「Identify Field」タブをクリックします。 取り込んだ PDF が表示されるので右側の Field labels からヘッダー箇所やタイトル箇所などをドラッグアンドドロップして指定していきます。 ページの定義が終わったら「Submit page」をクリックして次の頁を定義していきます。 SDU では数ページ指定すると自動的にヘッダー箇所やテキスト箇所を認識してくれるので、何ページもあるドキュメントには便利な機能です。 今回は SDU を使って PDF の文書構造を定義しました。SDU以外の Discovery の機能については、また別の機会にご紹介したいと思います。 3. watsonx.aiのプロビジョニング ※watsonx.ai のプロビジョニング方法は「【てくさぽBLOG】IBM watsonx.aiを使ってみた(Part1)」をご参照ください。 4. Assistantの初期設定 Assistant の初期設定を行います。 Assistant を起動します。 起動後、以下の項目を入力します。 Assistant name:任意の名前を入力 Assistant Language:「English」を選択※日本語を選択することが可能ですが、Assistant のスターターキットは英語での利用を想定しているため今回はEinglishを選択します Assistant の公開先を「web」に設定します。※"Tell us about your self" 以降はご自身の情報を入力ください 入力後「Next」をクリックします。 デフォルトのチャットUI を利用するため「Next」をクリックします。 プレビュー画面が表示されるので「Create」をクリックします。(以下の画面は「Create」が隠れてしまっています) 「Congratulations!」と表示されたら初期設定は完了です。 5. Assistantのカスタム拡張機能からDiscoveryを繋げる 「Githubのassistant-toolkit」から "watson-discovery-query-openapi.jsonファイル" をダウンロードします。 Assistant のメニューから「Integration」をクリックします。 下にスクロールし「Build custom extension」をクリックします。 以下の画面が表示されるので「Next」をクリックします。 「Extension name」に任意の名前を入力し「Next」をクリックします。 先程ダウンロードした watson-discovery-query-openapi.jsonファイルをドラッグアンドドロップでアップロードします。 以下の画面が表示されるので「Finish」をクリックします。 追加した Extension の「Add +」をクリックします。 以下の画面が表示されるので「Next」をクリックします。 以下の画面が表示されるので、選択および入力します。 Authentication type:「Basic auth」を選択 Username:「apikey」と入力 Password:メモに控えたWatson DiscoveryのAPI鍵 discovery_url:メモに控えたWatson DiscoveryのURLから"http://"を除いた値 ※以下の画面ショットは discovery_url入力箇所が切れてしまっていますが、実際は「Servers」の下に discovery_url の項目があります 以下の画面が表示されるので「Finish」をクリックします。 Extension が「Open」となっていることを確認します。 これで watsonx Assistant と Watson Discovery が連携できました。 6. Assistantのカスタム拡張機能からwatsonx.aiを繋げる 次に、Assistant のカスタム拡張機能から watsonx.ai を利用できるように設定します。 設定には IBM Cloud の APIキーと watsonx.ai のプロジェクトID が必要です。取得方法は「【てくさぽBLOG】IBM watsonx.aiを使ってみた(Part2)」をご参照ください。なお、今回は東京リージョンで watsonx.ai をプロビジョニングします。 Github の「assistant-toolkit」から "watsonx-openapi.json" をダウンロードします。 Visual Studio Code などで東京リージョンの URL に編集し保存します。 Discovery の連携と同様に、Assistant のメニューから「Integration」「Build custom extension」をクリックします。 以下の画面が表示されるので、任意の Extension name を入力して「Next」をクリックします。 編集した watson-discovery-query-openapi.jsonファイルをドラッグアンドドロップでアップロードして「Next」をクリックします。 以下の画面が表示されるので「Finish」をクリックします。 追加した Extension の「Add +」をクリックします。 以下の画面が表示されるので、選択および入力します。 Authentication type:「Oauth 2.0」を選択 Grant type:「Custom apikey」を入力 apikey:取得済みのIBM CloudのAPIキー Client authentication:「Send as Body」を選択 Header prefix:Bearer(デフォルト) Servers:https://jp-tok.ml.cloud.ibm.com(自動入力) 以下の画面が表示されるので「Finish」をクリックします。 Extension が「Open」となっていることを確認します。 これで Assistant と watsonx.ai が連携できました。 7. Assistantアクションの作成、問い合わせの検証 Github の「assistant-toolkit」から "discovery-watsonx-actions.json" をダウンロードします。 Assistant の「Actions」から「Global Setting」をクリックします。 「Upload/Download」タブをクリックし、Uploadスペースに discovery-watsonx-actions.json をドラッグアンドドロップしてアップロードします。 以下の画面が表示されるので「Upload and replace」をクリックします。 以下の画面の通り、3つのアクションが作成されます。 メニューから「Variables」「Created by you」をクリックします。 「discovery_project_id」の値をメモに控えていた Discovery のプロジェクトID を入力し「Save」をクリックします。 「watsonx_project_id」の値をメモに控えて置いた watsonx.ai のプロジェクトID を入力し「Save」をクリックします。 「model_id」の値で watsonx.ai で使用する言語モデルを指定します。2024年2月29日に GA された日本語で訓練された Granite-japaneseモデルを使用するため、「ibm/granite-8b-japanese」を入力し「Save」をクリックします。(その他変数はデフォルト値とします) 「Actions」から「Generate Answer」を選択し、「model_input」の値を以下の例の様に日本語に変更します。 例: ("<s>[INST] <<SYS>>\nあなたは親切で、礼儀正しく、誠実なアシスタントです。常に安全を保ちながら、できるだけ役立つように答えてください。答えは簡潔に日本語で回答してください。回答には、有害、非倫理的、人種差別的、性差別的、有毒、危険、または違法なコンテンツを含めてはいけません。回答が社会的に偏見がなく、本質的に前向きであることを確認してください。\n\n質問が意味をなさない場合、または事実に一貫性がない場合は、正しくないことに答えるのではなく、その理由を説明してください。質問の答えがわからない場合は、誤った情報を共有しないでください。\n<</SYS>>\n\n質問に答えることで、次のエージェントの応答を生成します。タイトルが付いたいくつかの文書が提供されます。答えが異なる文書から得られた場合は、あらゆる可能性について言及し、文書のタイトルを使用してトピックまたは領域を区切ってください。与えられた文書に基づいて回答できない場合は、回答がない旨を記載してください。\n\n").concat(passages).concat("\n\n[question]: ").concat(query_text).concat("[/INST]") 以上で設定は完了です。 さっそく Assistant から問い合わせをしてみます。 右下の「Preview」をクリックします。 チャットから S1014 の特徴について問い合わせしてみます。約18秒後に以下の回答が返ってきました。 「Inspect」をクリックすると、Discovery の検索結果が以下の通り watsonx.ai に渡されていることがわかります。 <s>[INST] <<SYS>> あなたは親切で、礼儀正しく、誠実なアシスタントです。常に安全を保ちながら、できるだけ役立つように答えてください。答えは簡潔に日本語で回答してください。回答には、有害、非倫理的、人種差別的、性差別的、有毒、危険、または違法なコンテンツを含めてはいけません。回答が社会的に偏見がなく、本質的に前向きであることを確認してください。 質問が意味をなさない場合、または事実に一貫性がない場合は、正しくないことに答えるのではなく、その理由を説明してください。質問の答えがわからない場合は、誤った情報を共有しないでください。 <</SYS>> 質問に答えることで、次のエージェントの応答を生成します。タイトルが付いたいくつかの文書が提供されます。答えが異なる文書から得られた場合は、あらゆる可能性について言及し、文書のタイトルを使用してトピックまたは領域を区切ってください。与えられた文書に基づいて回答できない場合は、回答がない旨を記載してください。[title]: IBM Power S1014 柔軟かつセキュアなハイブリッドクラウド・インフ ラストラクチャーで俊敏性を実現[document]: 1 コ ア 当 た り 4 つ の M a t r i x Math Acceleratorによる迅速 なAI推論のために洞察と自動 化を合理化 業界標準のDIMMより2倍優 れたメモリーの信頼性と可用 性を提供 IBM® Power® S1014 は、1ソケット、4U Power10プロセッサーをベースにしたサー バーで、IBM AIX®、IBM iまたは Linux®上のビジネス・クリティカルなワークロード 向けに設計されています。Power S1014を使用することで、ワークロードはより 少数のサーバーに統合され、ソフトウェア・ライセンスの数、電力と冷却のコスト を削減します。Power S1014サーバーは、プロセッサー上でのメモリー暗号化を 使用してエンドツーエンドからデータを安全に保護し、ラック型またはタワーフォー ム・ファクターで購入できます。 プロセッサー・レベルでのメモリー暗号化と、POWER9 と比較してすべてのコア で4倍の暗号化エンジンによりコアからクラウドまでのデータを保護 ますます高度に分散した環境に存在するデータには、もはや境界線を設定すること は不可能です。 [question]: S1014の特徴は?[/INST] Assistant と Discovery のみの連携で検索した結果は以下の通りです。watsonx.ai を使用した方がより簡潔で分かりやすい回答を得られることが分かります。 8. 言語モデルを変えて問い合わせの検証 言語モデルを "llama-2-70b" にして同様の問い合わせをしたところ、約24秒後に回答が返ってきました。箇条書きで丁寧な印象です。 言語モデルを "elyza-japanese" にした際は10秒ほどで回答がありました。主語として「S1014の特徴は」とあることで、問いに対する回答が分かりやすくなっています。 言語モデルを変えて試した結果、llama-2-70B は箇条書きで回答し丁寧な印象を受けましたが、回答が得られるまでに24秒かかりました。一方 Granite-japanese や elyza-japanese はシンプルな回答を生成し、Granite-japanese は18秒、elyza-japanese は10秒というより短い時間で回答を得られました。 Watson Discovery の検索結果に基づき watsonx.ai で回答を生成するので、ある程度時間がかかると予想していましたが、elyza-japanese は速い回答で主語を添えてわかりやすく回答してくれました。 また、llama-2-70B は汎用的で使いやすいモデルですが、プロントで「日本語で回答して」と指示をしても問い合わせ内容によっては英語で回答することがありました。日本語の回答精度を求める場合は、Granite-japanese や elyza-japanese を使用した方が精度の高い回答を得ることができます。 モデルを変えて問い合わせてみると、モデルごとに得意なタスクが異なることがわかりました。数百億のパラメータで訓練された大規模言語モデルを一概に選択するのではなく、言語やタスクの特性に合わせて最適なモデルを選定することが重要になりそうですね。 さいごに いかがでしたでしょうか。Github から提供されているスターターキットを使って Assistant、Discovery、watsonx.ai を繋げてみましたが、ほどんど躓くことなく UI から簡単に設定することができました。 接続自体に高度な難しさは感じませんでしたが、問い合わせに対して正確な情報を得るためには Assistant の検索設定を調整する必要があります。今回は1つの PDFファイルの検索を行いましたが、複数の PDFファイルから情報を引き出す際には Assistant で query を設定することで特定の PDFファイルからの検索が可能です。 このように PDF などの非構造化データを検索対象として精度の高い回答を得るには、Discovery において文書の構造を明確に定義し、Assistant の検索設定を調整することが必要です。 実際にヘルプデスクなどの Webチャットで利用する場合は、Assistant にあらかじめ用意した回答をルールベースで回答させ、それでも解決できない問い合わせについては Discovery を通じて検索を行い、watsonx.ai を用いて回答を生成するという流れが効果的です。 ただし、生成AI によって生成される回答は常に”100%正確な回答”ではないので、より高い精度の回答を追求するためにはプロンプトの調整などチューニングを施すことが必要です。その結果、より使いやすい Webチャットの実現が期待できます。 お問い合わせ エヌアイシー・パートナーズ株式会社E-Mail:nicp_support@NIandC.co.jp   .highlighter { background: linear-gradient(transparent 50%, #ffff52 90% 90%, transparent 90%); } .anchor{ display: block; margin-top:-20px; padding-top:40px; } .btn_A{ height:30px; } .btn_A a{ display:block; width:100%; height:100%; text-decoration: none; background:#eb6100; text-align:center; border:1px solid #FFFFFF; color:#FFFFFF; font-size:16px; border-radius:50px; -webkit-border-radius:50px; -moz-border-radius:50px; box-shadow:0px 0px 0px 4px #eb6100; transition: all 0.5s ease; } .btn_A a:hover{ background:#f56500; color:#999999; margin-left:0px; margin-top:0px; box-shadow:0px 0px 0px 4px #f56500; } .bigger { font-size: larger; }

back to top