特集・ブログ

ブログ

2024年09月04日

特集一覧 (ブログ、コラム 他) [2024年度]

コーポレートサイトに掲載している2024年度のブログやコラムの一覧です。 ハードウェアやソフトウェア製品に関するコラムやソリューション情報、それらの製品を使った弊社エンジニアのブログやホワイトペーパーなど皆様のビジネスにお役立てください。 (さらに…)

2024年09月04日

【早わかり】RDS for Db2のご紹介

こんにちは。てくさぽBLOGメンバーの高村です。 2023年11月の AWS re:Invent 2023 にて、Amazon Relational Database Service for Db2(以下、RDS for Db2)が発表されました。マネージドサービスである Amazon RDS上で Db2 が利用できるようになったとのことで、クラウド移行を検討されているお客様や運用負荷を削減したいお客様にとって最適なサービスではないかと思います。 今回は「RDS for Db2」の概要について、さくっとご紹介したいと思います。 目次 お客様が抱える課題 RDS for Db2とは? まとめ お問い合わせ お客様が抱える課題 IBM Db2 は、ミッションクリティカルなワークロード向けに構築された Relational Database Management Service(RDBMS)です。昨年30周年を迎え、最新の Db2 には AI機能が実装がされるなど、進化し続けている製品です。 今もなお多くのお客様にご利用いただいている製品ですが、ご利用に関して以下の様な課題を抱えているお客様もいらっしゃるのではないでしょうか? 異なる物理的な場所で高可用性構成を組み、災害時のリスクを軽減したい。 社内標準でAWSを利用する方針でDb2の移行を検討しているが、構築および運用にあてる要員が不足している。 このような課題を、RDS for Db2 が解決します! RDS for Db2とは? RDS for Db2 とは、フルマネージド・リレーショナルデータベースサービスである AWS RDS にて Db2 をご利用できるサービスです。 以下に RDS for Db2 の特徴をご紹介します。 フルマネージド環境 AWS EC2 に Db2 を導入する場合、OS導入以降はお客様にて構築・運用管理が必要ですが、RDS for Db2 は OSパッチ適用から高可用性まで AWS による管理となり、お客様の運用負荷が軽減されるメリットがあります。 高可用性の構成 オンプレミスの場合、同一データセンター内の隣同士のラックで高可用性構成をとることがあるかと思います。RDS for Db2 では、AWSリージョン内の1つ以上のデータセンターで構成されるアベイラビリティゾーン(AZ)間で高可用性を構成することができます。 2つのアベイラビリティゾーンにまたがった構成で、データは別の AZ にあるインスタンスへ同期される仕様です。プライマリインスタンスに障害が発生した際には、自動または手動でスタンバイインスタンスにフェイルオーバーします。 バックアップ方法 RDS for Db2 では、自動バックアップ/手動バックアップを利用する方法があります。 自動バックアップは保持期間が最大35日ですが、トランザクションログを用いてポイントタイムリカバリを行うことができます。また、共通の注意事項として既存の DBインスタンスにはリストアできず、新規インスタンスにリストアとなります。 自動バックアップ 手動バックアップ バックアップ対象データ DBインスタンスのスナップショット トランザクションログ DBインスタンスのスナップショット 保持期間 最大35日 無制限 ポイントタイムリカバリ 〇(最短で5分前) ✖ 別リージョンへのスナップショットコピー 〇 〇 リストア時の注意事項 新規のDBインスタンスにリストア。既存のDBインスタンスにリストアは不可。エンドポイントを変えたくない場合は、元のインスタンス識別子を新規インスタンス作成時に指定。 移行方法 移行方法の選択は、既存Db2 の OSの種類やダウンタイムの要件によりいくつかの方法から選択できます。 以下は、「Amazon RDS for Db2 へのデータマイグレーション戦略」(AWSサイト)に記載の移行方法の意思決定ツリーを日本語化したものです。Db2 のデータを Amazon RDS for Db2 に移行するための OSSツール「Db2 Migration Tool(Db2MT)」を利用した方法や IBM Data Replication(別途ライセンス必要)の Qレプリケーションを利用した方法など、要件にあった移行方法を選択可能です。 費用について IBM Db2ライセンスは、IBM パスポート・アドバンテージ製品のご契約をしていただき、ライセンス持ち込み(BYOL)で利用します。(後述に記載) ※AWSインフラは別途AWSサービスのご契約が必要です AWSインフラ AWS RDS のコンピューティングリソースは従量課金制で、多様なスペックから選択できます。 vCPU は最小2vCPU~最大128vCPU、メモリは最小2GB~最大512GB、データベースのストレージは最小100GiB~最大64TiBを選択でき、汎用SSD/プロビジョンドIOPS(SSD)(高パフォーマンス、低レイテンシー、高スループットを必要とするワークロード向け)のストレージを選択できます。 以下に、東京リージョンでマルチ AZ配置(1つのスタンバイ)とした費用感を記載しました。 ※記載の費用感は2024年8月時点の「Amazon RDS for Db2 の料金」(AWSサイト)から引用した金額であり、正確な金額は都度AWSサイトにてご確認ください タイプ 費用 インスタンス db.m6i.xlarge4vCPU, 16GiBメモリ 時間あたりUSD 0.988 ストレージ 汎用SSD(gp3)-ストレージ1TB 毎月1GBあたりUSD 0.276 月額(1ヶ月744時間、1$=150円とした場合):約15万円~ IBM Db2ライセンス 2024年8月時点の RDS for Db2 で BYOL が可能な Db2ライセンスは以下です。 ※Non-producitionライセンス、旧エディションのBYOLは適用不可となりますのでご注意ください(今後変更となる可能性あり) 適用可能エディション Standard Edition Advanced Edition 課金体系 VPC 契約形態 Perpetual License Subscription License Monthly License 補足 Perpectual Licenseは有効なSS&Sが必要 ライセンス管理について IBM Db2 の AWS RDS への BYOL については「Eligible Public Cloud BYOSL Policy」(IBMサイト)に記載されている通り、AWS が提供するサービスである AWS License Manager(AWSサイト)を使用してライセンス管理を行います。 まとめ 今回は RDS for Db2 の概要についてご紹介しました。AWS の AZ間で高可用性構成を簡単に実現したい、構築・運用の要員が不足しているためバックアップやパッチ適用を自動化したい、といった課題がある場合は、RDS for Db2 を是非ご検討いただければと思います。 一方で、バージョンアップやパッチの適用に関して、事前に検証した上でリリースを行いたいというお話を時折お聞きします。 RDS for Db2 においてはエンジンのアップグレードは手動で行うことができますが、AWS が緊急性が高いと判断したソフトウェアパッチについては適用が自動的にスケジュールされる場合もあります。このようにスケジュールされてしまうのが困る場合には、OS以上をお客様自身で管理する AWS EC2 に IBM Db2 を導入する方法をお勧めします。AWS EC2 のプロビジョニングや OS以上の運用、IBM Db2 の導入・運用、および高可用性構成はお客様の責任となりますが、お客様の任意のタイミングでソフトウェアパッチ適用を行うことが可能です。 お問い合わせ この記事に関するご質問は以下の宛先までご連絡ください。 エヌアイシー・パートナーズ株式会社E-Mail:nicp_support@NIandC.co.jp   .highlighter { background: linear-gradient(transparent 50%, #ffff52 90% 90%, transparent 90%); } .anchor{ display: block; margin-top:-20px; padding-top:40px; } .btn_A{ height:30px; } .btn_A a{ display:block; width:100%; height:100%; text-decoration: none; background:#eb6100; text-align:center; border:1px solid #FFFFFF; color:#FFFFFF; font-size:16px; border-radius:50px; -webkit-border-radius:50px; -moz-border-radius:50px; box-shadow:0px 0px 0px 4px #eb6100; transition: all 0.5s ease; } .btn_A a:hover{ background:#f56500; color:#999999; margin-left:0px; margin-top:0px; box-shadow:0px 0px 0px 4px #f56500; } .bigger { font-size: larger; }

2024年08月09日

【参加レポート】Interop Tokyo 2024

こんにちは。ソリューション推進部 宮里です。 「Interop Tokyo 2024」へ行ってきました。 今回は "Smarter AI for all" というビジョンのもと、PC からサーバやハイパフォーマンスコンピューティング等の展示がされていました。 展示ブースを訪れ体感したことや情報収集したことをお伝えしますので、ぜひご覧ください。 (さらに…)

2024年07月02日

【参加レポート】Domino Hub 2024

こんにちは。ソリューション企画部 松田です。 2024年6月13日・14日と2日間に渡って開催された「Domino Hub 2024」に参加しました。これは HCL Ambassador有志が企画・実行する Dominoコミュニティイベントです。好評だった一昨年に続き、2回目の開催となります。 参加者総数は約250名。さらに、残念ながら当日参加できなかった多くの方も、アーカイブでセッション動画をご覧になっているそうです。 以下にそのレポートをお届けします。 目次 イベント概要 セッション内容 - HCLSoftware 日本カントリーマネージャーからのキーメッセージ -『HCL Notes/Domino V14 へのバージョンアップで広がる世界のご紹介』 -『HCL Dominoアプリ モダナイゼーションの実践方法』 - ノーツコンソーシアムがNomad Web評価環境を提供 セッションリプレイと大阪開催 最後に お問い合わせ イベント概要 Domino Hub は、Domino の利用者、開発者、ソリューションベンダーが一堂に会するコミュニティイベントです。初日はオンライン、2日目はオンラインとオンサイトのハイブリッド形式で進行されました。2日間ノンストップで Domino の話ばかり聞き続けたのですが、まさに圧巻でした。飽きる瞬間が一切なく、どのセッションも興味深いお話ばかりでした。 (写真提供:Domino Hub 2024 事務局) 今回のイベントには日本の HCL Ambassador 2024 の10名全員が集結しました。これは日本はもちろん、世界でも初めてのことではないでしょうか。 (写真提供:HCLSoftware Japan) セッション内容 2日間で全23セッションが行われ、HCL Ambassador の皆様や Dominoソリューションのベンダー、開発者、エンドユーザーから数多くのトピックのセッションが提供されました。様々なツールの紹介、自社の事例、Domino の裏技、そして Domino の最新機能のデモを交えた詳しい紹介など非常に多岐に渡る内容でした。それぞれが Domino のユニークさ、強力さを物語っており、スピーカーの皆様の Domino への強い思いを感じ、すべてにおいて目が離せないものでした。一つ一つ取り上げていきたいところですが、今回はHCLからのセッションに焦点を当ててご紹介します。 HCLSoftware 日本カントリーマネージャーからのキーメッセージ まず HCLSoftware の日本カントリーマネージャーである大野洋一氏のキーメッセージが印象的でした。 ・「DominoはHCLにとってもっとも重要なソリューションである」・「DominoはHCLビジネスの中核であり常に製品投資を行っている」 Domino が IBM から HCL に移管された2019年以後の Domino の進化を改めて考えると、大変うなづけるお言葉ですね。 『HCL Notes/Domino V14へのバージョンアップで広がる世界のご紹介』 そして1日目の HCLSoftware Technical Advisor 松尾邦夫氏の当セッションは、「HCL Notes/Dominoではなく、HCL Dominoと表現する。クライアントを選ばないアプリケーションサーバーであるDominoが核である」という宣言から始まりました。 Notesクライアントも Webブラウザもスマホも Progpressive Web Apps(PWA)も、すべてがクライアントである現在の Domino ならではです。さらに、昔からは考えられないほどに簡単になったバージョンアップ、コードチェッカー V14、様々なテンプレートが入手できる Dominoマーケットプレイス、そしてロードマップの紹介がありました。 次バージョン Rio Grande は2025年中ごろリリース予定、それに先立ち2024年8-9月から Early Access を開始します。Domino はまだまだ進化を続けています。 『HCL Dominoアプリ モダナイゼーションの実践方法』 2日目の HCLSoftware Technical Sales 臼井 修氏によるセッションは、30分で Domino V14 の注目すべき特長的な機能のすべてが分かる内容でした。Nomad Mobile、Nomad Web、Nomad Designer、Domino Restyle、Domino REST API、そして Volt MX Go。この短さで駆け足でもおなか一杯でもなく、逆に足りなくもない、という完璧な内容。割愛する部分も的確です。デモムービーもふだんに利用されていて非常に分かりやすい内容でした。ぜひセッションリプレイをご覧ください。 ノーツコンソーシアムがNomad Web評価環境を提供 Domino のユーザー団体である「ノーツコンソーシアム」のセッションにも触れたいと思います。これまでのアプリケーションチェッカーのみならず、Nomad Web の AWS上での評価環境を提供されているという情報がありました。自社の Dominoデータベースを Nomad Web で利用するとどうなるのか? についても、どこからでも簡単に評価できそうです。Domino Web Designer も利用できます。 ノーツコンソーシアムでは研究会も活発に行われているので、まだご加入でないお客様やパートナー様もぜひご検討ください。AWSマーケットプレイスにも Domino が展開されています(AWSからそれに関するセッションもありました)。 セッションリプレイと大阪開催 各セッションのリプレイは「DominoHub 2024 参加申し込みフォーム」から登録して "DominoHub イベントポータル" にログインしていただくことで、今からでも視聴可能です。セッションによっては資料のダウンロードも可能です。こちらは7月半ばにクローズ予定とのことですので、ぜひお早めにご活用ください。 そして Domino Hub は、2024年9月19日に大阪でのオンサイト開催が決定いたしました。詳細およびお申し込みについては「こちら」からご確認ください。 最後に HCL主導ではなく、ユーザー、開発者、ソリューションベンダーが主体となってこれだけのイベントを開催できる。そして、その中身の充実度。これが今の Domino の勢いと元気、さらには将来展望を如実に表しているのではないでしょうか。 このようなイベントが実現する背景には、活発なコミュニティ活動と、ユーザーや開発者たちが自発的に集まり、知識や経験を共有し合う文化が根付いていることが挙げられます。最新の Dominoバージョンの新機能に関するディスカッションや、導入事例の共有、様々なワークショップなど、多岐にわたる内容が提供されており、参加者はそれぞれの立場で有益な情報を得ることができます。 今後もこうしたコミュニティ主導の取り組みが続くことで、HCL Domino はさらに多くのユーザーに支持され、ますます成長していくでしょう。だからこそ、まだまだ HCL Domino から目が離せません。 お問い合わせ エヌアイシー・パートナーズ株式会社E-mail:voice_partners@niandc.co.jp   .highlighter { background: linear-gradient(transparent 50%, #ffff52 90% 90%, transparent 90%); } .anchor{ display: block; margin-top:-20px; padding-top:40px; } .btn_A{ height:30px; } .btn_A a{ display:block; width:100%; height:100%; text-decoration: none; background:#eb6100; text-align:center; border:1px solid #FFFFFF; color:#FFFFFF; font-size:16px; border-radius:50px; -webkit-border-radius:50px; -moz-border-radius:50px; box-shadow:0px 0px 0px 4px #eb6100; transition: all 0.5s ease; } .btn_A a:hover{ background:#f56500; color:#999999; margin-left:0px; margin-top:0px; box-shadow:0px 0px 0px 4px #f56500; } .bigger { font-size: larger; }

2024年06月24日

【イベント開催レポート】IBM Cloudハンズオンセミナー -PowerVS実践入門-

こんにちは。技術企画本部です。 2024年5月29日に、弊社として2回目のハンズオンセミナー『IBM Cloudハンズオンセミナー -PowerVS実践入門-』を開催しました。 今回のハンズオンセミナーは、以下の3つのことを目的として行いました。 IBM Cloudの操作を体験していただき、その機能と応用の幅広さを理解していただくこと IBM CloudおよびIBM Power Virtual Serverの最新情報をお伝えすることで、知識の拡充とスキル向上に繋げていただくこと パートナー様同士の交流機会をご提供することで情報交換や意見共有を通じて新たな協業の機会を見出し、お互いのビジネス成長を促進いただくこと 第1回のハンズオンセミナー開催ブログ にも記載しましたが、私たちはご紹介商材を「実際に触ってみること」を重要視しています。私たちのリアルな経験を交えながら製品のご説明をすることで、お客様の具体的な課題発掘や案件創出に繋がると考えているためです。ハンズオンを通して、パートナー様のさらなるビジネス展開へのお役に立てれば幸いです。 それでは、開催したセミナーについて簡単にご紹介いたします。 目次 開催レポート IBM Cloudアカウントの説明 ハンズオン Part.1:Power Systems Virtual Server ハンズオン Part.2:IBM Cloud Monitoring IBM Cloudサブスクリプション契約フローや課金の説明 最新情報紹介(日本アイ・ビー・エム 安田様) さいごに お問い合わせ 開催レポート 1. IBM Cloudアカウントの説明 本セクションでは、IBM Cloud の利便性と機能、また、実際に業務に応用するための情報を、20分程度の講義形式でお届けしました。 まず、Power Systems Virtual Server のハンズオンを開始いただくにあたって、IBM Cloud とは何か、その基本構成や提供されるサービスについてご紹介しました。(IBM Cloud はオープンテクノロジーを基本に構成され、170以上のサービスがネットワーク経由で利用可能なビジネス向けクラウドであり、マルチアーキテクチャーをサポートしています)また、IBM Cloud の歴史やインフラ概要、データセンターの拠点情報などもお伝えしました。 その後、IBM Cloudアカウントの概要についてご説明しました。アカウント管理の全体像、ユーザーの種類、アクセスポリシー、IAM(Identity and Access Management)の設定方法についてざっくりとご理解いただけたのではないかと思います。 2. ハンズオン Part.1:Power Systems Virtual Server 本セクションでは、まず Power Systems Virtual Server(以下 PowerVS)の概要と、3月に東京・大阪リージョンで GA された Power Edge Router などの最新のアップデート情報をご紹介し、その後ハンズオンを実施していただきました。 ハンズオン環境はアクセスの集中を防ぐため、東京・大阪・ダラスの3拠点で行いました。手順書は AIX と IBM i を準備し、参加者様には OS を選択して進めていただきました。 ハンズオンでは、参加者様に PowerVS と事前に作成した VSI(CentOS)を Transit Gateway を経由して疎通確認を行っていただき、構築時間や構築の難易度を体感いただきました。限られた時間でのハンズオンのため最後まで終えられなかった方も一部いらっしゃいましたが、多くの参加者にオンプレミスと同様に利用できることを体感していただけたのではないかと考えます。 ハンズオン終了後には、オンプレミスからの接続方法や IBM Cloud Object Storage への接続に関するご質問をいただきました。(個別にご回答させていただいています) ハンズオンのSTEPについて 3. ハンズオン Part.2:IBM Cloud Monitoring 本セッションでは、IBM Cloud Monitoring による PowerVS の監視についてご紹介しました。 PowerVS はエージェントの導入なしに監視が可能で、メトリクス取得を有効化するだけで開始できるサービスです。 ハンズオンでは、IBM Cloud Monitoring から作成した PowerVS の CPU、メモリ、ディスク、ネットワークの使用状況をご確認いただきました。ネットワークの送受信状況など OS では取得できないメトリクスもあり、導入メリットのあるサービスではないかと思います。 また、IBM Cloud Monitoring は閾値を設定して Eメールアドレスなどのチャネルに通知することが可能ですが、通知内容をよりわかりやすいものとする案として、watsonx.ai で要約して通知するユースケースをご紹介しました。実際に watsonx.ai で要約した場合のアウトプットをご覧いただき、その通知内容のイメージをご確認いただきました。 今後は、PowerVS・IBM Cloud と watsonx(生成AI)の活用についてもご紹介できればと考えています。 4. IBM Cloudサブスクリプション契約フローや課金の説明 本セッションでは、以下の2点についてご説明いたしました。 - IBM Cloudのサブスクリプション契約の開始方法や開始フロー - IBM Cloudの課金の考え方や課金の確認方法 上記は多くのパートナー様からご質問をお受けするテーマです。実際の業務で、特に営業部門が直面する疑問を少しでも解消いただきたく、このテーマについてご説明する場を設けました。 サブスクリプション契約は一見複雑に感じてしまいますが、一連のフローを理解し処理を進めることで容易に契約が締結でき、IBM Cloud の利用をスムーズに開始することができます。また、サブスクリプションの消費方法も合わせてご理解することで、為替変動にも柔軟に対応することが可能です。 弊社は、これまで数多くの IBM Cloud の見積を実施し、多様な案件をご提案してきた経験があります。そのため、お客様特有の状況に合わせ、見積もり段階からアドバイスをさせていただくことが可能です。ご契約前のサポートはぜひ弊社にお任せください! 5. 最新情報紹介(日本アイ・ビー・エム 安田様) 日本アイ・ビー・エム株式会社 Cloud Platform テクニカルチーム 安田様より、「AI プラットフォーム『watsonx』とクラウドでのAI 開発 最前線!」と題した講義を実施いただきました。 昨年 IBM から発表された watsonx は「ビジネスに特化した企業向けの生成AI」として「信頼性」を重視しており、IBM Cloud は watsonx の信頼性を支える稼働環境(インフラ)として利用されています。 講義では、AI の処理に最適化された AI専用のインフラストラクチャーである、 - トレーニング実行用:Vela - 推論実行用:AIU System(AI Accelerator System)をご紹介いただきました。 AI を利用する上で「基盤モデル(foundation models)」は欠かせないものですが、基盤モデルの作成段階によって必要なコンピューターのパワーは異なります。例えば、一番多くのパワーを必要する「トレーニングや検証」の段階では Vela を利用し、レイテンシやコストの観点が重要視される「データの準備やチューニング、推論」の段階では AIU System を利用する、といった使い分けができるそうです。 我々は用途によって適材適所であらゆる AI を使い分けています。「ビジネスのためのAI」としてお客様が watsonx を選択いただくために、生成AI をどう使っていきたいのかお客様のイメージを確認しながら、インフラのみではなくアプリケーションなど広い枠で情報収集をしていこう、と改めて考えさせられる講義でした。 日本アイ・ビー・エム 安田様 講義 さいごに ハンズオンセミナー後には、パートナー様およびご支援いただいた IBM様との情報共有会を開催いたしました。4時間程におよぶ長時間のセミナーの後でお疲れだったと思いますが、8割のパートナー様にご参加いただきました。 情報共有会では、IBM様や弊社営業・SE との対話のみならず、パートナー様同士のコミュニケーションも進めていただくことができ、和やかながら活気のある会となりました。 ハンズオンセミナーは商材を限定して開催しますが、弊社は IBM Cloud のみではなく、その他の IBM製品に対しても専門スキルを持った SE が所属しており、パートナー様の取り扱い商材拡大のご支援をいたします。いつでもお気軽にご相談ください。 では、次回のハンズオンセミナーでお会いしましょう! 日本アイ・ビー・エム Powerテクニカルチームの皆様 お問い合わせ エヌアイシー・パートナーズ株式会社E-Mail:nicp_support@NIandC.co.jp   .highlighter { background: linear-gradient(transparent 50%, #ffff52 90% 90%, transparent 90%); } .anchor{ display: block; margin-top:-20px; padding-top:40px; } .btn_A{ height:30px; } .btn_A a{ display:block; width:100%; height:100%; text-decoration: none; background:#eb6100; text-align:center; border:1px solid #FFFFFF; color:#FFFFFF; font-size:16px; border-radius:50px; -webkit-border-radius:50px; -moz-border-radius:50px; box-shadow:0px 0px 0px 4px #eb6100; transition: all 0.5s ease; } .btn_A a:hover{ background:#f56500; color:#999999; margin-left:0px; margin-top:0px; box-shadow:0px 0px 0px 4px #f56500; } .bigger { font-size: larger; }

2024年06月12日

【参加レポート】「Think 2024」に参加した ~AIとハイブリッドクラウドの未来を解き明かす~

こんにちは、ソリューション企画部の西村です。 今回私は、ビジネスイノベーションとテクノロジーの先端を切り開く IBM Global の年次イベント「Think 2024」に参加しました。このブログを通して、イベントで得た印象深いハイライトや知見を皆さんと共有できればと思います。 (さらに…)

2024年04月08日

【てくさぽBLOG】watsonx Assistant + Watson Discovery + watsonx.aiを連携してみた

こんにちは。てくさぽBLOGメンバーの高村です。 ビジネスへの生成AI の取り込みに注目が集まっている今日、watsonx.ai をどう活用すればいいのか、多くのお客様からお問い合わせ頂いています。そこで前回の「【てくさぽBLOG】IBM watsonx.aiを使ってみた(Part2)」では、watsonx.ai のユースケースとして Retrieval-Augmented Generation(以下 RAG)をご紹介しました。 今回は、RAG の仕組みを利用し AIチャットボットを提供する「watsonx Assistant(以下 Assistant)」と検索エンジン機能を提供する「Watson Discovery(以下 Discovery)」、「watsonx.ai」を組み合わせた連携ソリューションをご紹介します。 目次 AssistantとDiscoveryの連携 watsonx.aiを取り入れた連携 Assistant + Discovery + watsonx.aiを連携してみた さいごに お問い合わせ AssistantとDiscoveryの連携 本来なら各製品を一つのブログで詳しくご説明したいところですが、今回は連携した結果についてのご紹介となりますので、Assistant と Discovery については今後のブログであらためてご紹介したいと思います。 Assistant は watsonx の大規模言語モデルが搭載され、自然言語の問い合わせを理解し、適切な回答を返すことができるチャットボット機能を提供する製品です。一方 Discovery はドキュメントから適切な情報を検索する検索エンジン機能、パターンや傾向を読み取る分析エンジンとしての機能を備えた製品です。 Assistant と Discovery を組合わせたユースケースでは Assistant にあらかじめ回答を用意してルールベースで回答させ、答えることが難しい問い合わせに対しては Discovery の検索結果を利用して回答します。 watsonx.aiを取り入れた連携 上記の連携では Discovery の検索結果がユーザーに表示される仕組みとなっていますが、watsonx.ai を介して回答を提供することでDiscovery が得た検索結果をさらに整理し、より理解しやすい形での返答が実現できます。 Assistant + Discovery + watsonx.aiを連携してみた Assistant、Discovery、watsonx.ai を連携してみます。 事前準備 利用環境 今回は IBM Cloud で提供される SaaS を利用して検証します。なお、Assistant と Discovery の Plusプランは30日間無償期間が付属されていますので、是非ご活用ください。 watsonx Assistant:Plusプラン(30日間無償期間あり、以降は有償) Watson Discovery:Plusプラン(30日間無償期間あり、以降は有償) watsonx.ai:Essentialプラン(有償) 検証の目的 検証では構築手順の他、以下の点を確認します。 「Assistant + Discovery + watsonx.ai」と「Assistant + Discovery」の連携による回答の違いを比較 言語モデルを変えて問い合わせを行い、回答の違いの比較 実施手順 以下の流れで検証を実施します。 Assistantのプロビジョニング Discoveryのプロビジョニング、検索対象とするデータの取り込み※取り込むデータは「IBM Power S1014 データシート」のS1014のPDF watsonx.aiのプロビジョニング Assistantの初期設定 Assistantのカスタム拡張機能からDiscoveryを繋げる Assistantのカスタム拡張機能からwatsonx.aiを繋げる Assistantアクションの作成、問い合わせの検証 言語モデルを変えて問い合わせの検証 検証実施 1. Assistantのプロビジョニング はじめに Assistant のプロビジョニングを行います。 IBM Cloud にログインし、カタログ画面から "Assistant" を選択します。 ロケーションとプランを選択し「作成」をクリックします。 しばらくすると以下の画面の様に、Assistant がプロビジョニングされます。 2. Discoveryのプロビジョニング 次に Discovery をプロビジョニングします。 カタログ画面から "Discovery" を選択します。 ロケーションとプランを選択し「作成」をクリックします。 しばらくすると以下の画面の様に、Discovery がプロビジョニングされます。※ここで、資格情報内にある「API鍵」と「URL」をメモに控えます 「Watson Discoveryの起動」をクリックし「New Project +」をクリックします。 Project name に任意の名前を入力、Project type では「Conversational Serch」を選択し「Next」をクリックします。 作成されたプロジェクトをクリックします。 「Integration Deploy」をクリックします。 「API Information」タブをクリックし「Project ID」をメモに控えます。 次に検索対象の PDF を Discovery に取り込みます。 「Manage collections」から「New collection +」をクリックし、「Collection name」に任意の名前を入力、「Select language」を「Japanese」に設定します。 Upload files の領域に PDF をドラッグアンドドロップして「Finish」をクリックします。 アップロードが完了しました。次に、Smart Document Understanding機能(以下 SDU)を利用して PDF内のヘッダーやテキストなどのフィールドを定義します。 SDU は、PDFをはじめとする非構造化データの文書構造を理解して検索や分析の精度を向上させる機能です。例えばタイトルと定義した箇所を検索キーとしたり、検索対象をテキストと定義した箇所のみとするなど可能になります。 「Identify Field」タブをクリックします。 取り込んだ PDF が表示されるので右側の Field labels からヘッダー箇所やタイトル箇所などをドラッグアンドドロップして指定していきます。 ページの定義が終わったら「Submit page」をクリックして次の頁を定義していきます。 SDU では数ページ指定すると自動的にヘッダー箇所やテキスト箇所を認識してくれるので、何ページもあるドキュメントには便利な機能です。 今回は SDU を使って PDF の文書構造を定義しました。SDU以外の Discovery の機能については、また別の機会にご紹介したいと思います。 3. watsonx.aiのプロビジョニング ※watsonx.ai のプロビジョニング方法は「【てくさぽBLOG】IBM watsonx.aiを使ってみた(Part1)」をご参照ください。 4. Assistantの初期設定 Assistant の初期設定を行います。 Assistant を起動します。 起動後、以下の項目を入力します。 Assistant name:任意の名前を入力 Assistant Language:「English」を選択※日本語を選択することが可能ですが、Assistant のスターターキットは英語での利用を想定しているため今回はEinglishを選択します Assistant の公開先を「web」に設定します。※"Tell us about your self" 以降はご自身の情報を入力ください 入力後「Next」をクリックします。 デフォルトのチャットUI を利用するため「Next」をクリックします。 プレビュー画面が表示されるので「Create」をクリックします。(以下の画面は「Create」が隠れてしまっています) 「Congratulations!」と表示されたら初期設定は完了です。 5. Assistantのカスタム拡張機能からDiscoveryを繋げる 「Githubのassistant-toolkit」から "watson-discovery-query-openapi.jsonファイル" をダウンロードします。 Assistant のメニューから「Integration」をクリックします。 下にスクロールし「Build custom extension」をクリックします。 以下の画面が表示されるので「Next」をクリックします。 「Extension name」に任意の名前を入力し「Next」をクリックします。 先程ダウンロードした watson-discovery-query-openapi.jsonファイルをドラッグアンドドロップでアップロードします。 以下の画面が表示されるので「Finish」をクリックします。 追加した Extension の「Add +」をクリックします。 以下の画面が表示されるので「Next」をクリックします。 以下の画面が表示されるので、選択および入力します。 Authentication type:「Basic auth」を選択 Username:「apikey」と入力 Password:メモに控えたWatson DiscoveryのAPI鍵 discovery_url:メモに控えたWatson DiscoveryのURLから"http://"を除いた値 ※以下の画面ショットは discovery_url入力箇所が切れてしまっていますが、実際は「Servers」の下に discovery_url の項目があります 以下の画面が表示されるので「Finish」をクリックします。 Extension が「Open」となっていることを確認します。 これで watsonx Assistant と Watson Discovery が連携できました。 6. Assistantのカスタム拡張機能からwatsonx.aiを繋げる 次に、Assistant のカスタム拡張機能から watsonx.ai を利用できるように設定します。 設定には IBM Cloud の APIキーと watsonx.ai のプロジェクトID が必要です。取得方法は「【てくさぽBLOG】IBM watsonx.aiを使ってみた(Part2)」をご参照ください。なお、今回は東京リージョンで watsonx.ai をプロビジョニングします。 Github の「assistant-toolkit」から "watsonx-openapi.json" をダウンロードします。 Visual Studio Code などで東京リージョンの URL に編集し保存します。 Discovery の連携と同様に、Assistant のメニューから「Integration」「Build custom extension」をクリックします。 以下の画面が表示されるので、任意の Extension name を入力して「Next」をクリックします。 編集した watson-discovery-query-openapi.jsonファイルをドラッグアンドドロップでアップロードして「Next」をクリックします。 以下の画面が表示されるので「Finish」をクリックします。 追加した Extension の「Add +」をクリックします。 以下の画面が表示されるので、選択および入力します。 Authentication type:「Oauth 2.0」を選択 Grant type:「Custom apikey」を入力 apikey:取得済みのIBM CloudのAPIキー Client authentication:「Send as Body」を選択 Header prefix:Bearer(デフォルト) Servers:https://jp-tok.ml.cloud.ibm.com(自動入力) 以下の画面が表示されるので「Finish」をクリックします。 Extension が「Open」となっていることを確認します。 これで Assistant と watsonx.ai が連携できました。 7. Assistantアクションの作成、問い合わせの検証 Github の「assistant-toolkit」から "discovery-watsonx-actions.json" をダウンロードします。 Assistant の「Actions」から「Global Setting」をクリックします。 「Upload/Download」タブをクリックし、Uploadスペースに discovery-watsonx-actions.json をドラッグアンドドロップしてアップロードします。 以下の画面が表示されるので「Upload and replace」をクリックします。 以下の画面の通り、3つのアクションが作成されます。 メニューから「Variables」「Created by you」をクリックします。 「discovery_project_id」の値をメモに控えていた Discovery のプロジェクトID を入力し「Save」をクリックします。 「watsonx_project_id」の値をメモに控えて置いた watsonx.ai のプロジェクトID を入力し「Save」をクリックします。 「model_id」の値で watsonx.ai で使用する言語モデルを指定します。2024年2月29日に GA された日本語で訓練された Granite-japaneseモデルを使用するため、「ibm/granite-8b-japanese」を入力し「Save」をクリックします。(その他変数はデフォルト値とします) 「Actions」から「Generate Answer」を選択し、「model_input」の値を以下の例の様に日本語に変更します。 例: ("<s>[INST] <<SYS>>\nあなたは親切で、礼儀正しく、誠実なアシスタントです。常に安全を保ちながら、できるだけ役立つように答えてください。答えは簡潔に日本語で回答してください。回答には、有害、非倫理的、人種差別的、性差別的、有毒、危険、または違法なコンテンツを含めてはいけません。回答が社会的に偏見がなく、本質的に前向きであることを確認してください。\n\n質問が意味をなさない場合、または事実に一貫性がない場合は、正しくないことに答えるのではなく、その理由を説明してください。質問の答えがわからない場合は、誤った情報を共有しないでください。\n<</SYS>>\n\n質問に答えることで、次のエージェントの応答を生成します。タイトルが付いたいくつかの文書が提供されます。答えが異なる文書から得られた場合は、あらゆる可能性について言及し、文書のタイトルを使用してトピックまたは領域を区切ってください。与えられた文書に基づいて回答できない場合は、回答がない旨を記載してください。\n\n").concat(passages).concat("\n\n[question]: ").concat(query_text).concat("[/INST]") 以上で設定は完了です。 さっそく Assistant から問い合わせをしてみます。 右下の「Preview」をクリックします。 チャットから S1014 の特徴について問い合わせしてみます。約18秒後に以下の回答が返ってきました。 「Inspect」をクリックすると、Discovery の検索結果が以下の通り watsonx.ai に渡されていることがわかります。 <s>[INST] <<SYS>> あなたは親切で、礼儀正しく、誠実なアシスタントです。常に安全を保ちながら、できるだけ役立つように答えてください。答えは簡潔に日本語で回答してください。回答には、有害、非倫理的、人種差別的、性差別的、有毒、危険、または違法なコンテンツを含めてはいけません。回答が社会的に偏見がなく、本質的に前向きであることを確認してください。 質問が意味をなさない場合、または事実に一貫性がない場合は、正しくないことに答えるのではなく、その理由を説明してください。質問の答えがわからない場合は、誤った情報を共有しないでください。 <</SYS>> 質問に答えることで、次のエージェントの応答を生成します。タイトルが付いたいくつかの文書が提供されます。答えが異なる文書から得られた場合は、あらゆる可能性について言及し、文書のタイトルを使用してトピックまたは領域を区切ってください。与えられた文書に基づいて回答できない場合は、回答がない旨を記載してください。[title]: IBM Power S1014 柔軟かつセキュアなハイブリッドクラウド・インフ ラストラクチャーで俊敏性を実現[document]: 1 コ ア 当 た り 4 つ の M a t r i x Math Acceleratorによる迅速 なAI推論のために洞察と自動 化を合理化 業界標準のDIMMより2倍優 れたメモリーの信頼性と可用 性を提供 IBM® Power® S1014 は、1ソケット、4U Power10プロセッサーをベースにしたサー バーで、IBM AIX®、IBM iまたは Linux®上のビジネス・クリティカルなワークロード 向けに設計されています。Power S1014を使用することで、ワークロードはより 少数のサーバーに統合され、ソフトウェア・ライセンスの数、電力と冷却のコスト を削減します。Power S1014サーバーは、プロセッサー上でのメモリー暗号化を 使用してエンドツーエンドからデータを安全に保護し、ラック型またはタワーフォー ム・ファクターで購入できます。 プロセッサー・レベルでのメモリー暗号化と、POWER9 と比較してすべてのコア で4倍の暗号化エンジンによりコアからクラウドまでのデータを保護 ますます高度に分散した環境に存在するデータには、もはや境界線を設定すること は不可能です。 [question]: S1014の特徴は?[/INST] Assistant と Discovery のみの連携で検索した結果は以下の通りです。watsonx.ai を使用した方がより簡潔で分かりやすい回答を得られることが分かります。 8. 言語モデルを変えて問い合わせの検証 言語モデルを "llama-2-70b" にして同様の問い合わせをしたところ、約24秒後に回答が返ってきました。箇条書きで丁寧な印象です。 言語モデルを "elyza-japanese" にした際は10秒ほどで回答がありました。主語として「S1014の特徴は」とあることで、問いに対する回答が分かりやすくなっています。 言語モデルを変えて試した結果、llama-2-70B は箇条書きで回答し丁寧な印象を受けましたが、回答が得られるまでに24秒かかりました。一方 Granite-japanese や elyza-japanese はシンプルな回答を生成し、Granite-japanese は18秒、elyza-japanese は10秒というより短い時間で回答を得られました。 Watson Discovery の検索結果に基づき watsonx.ai で回答を生成するので、ある程度時間がかかると予想していましたが、elyza-japanese は速い回答で主語を添えてわかりやすく回答してくれました。 また、llama-2-70B は汎用的で使いやすいモデルですが、プロントで「日本語で回答して」と指示をしても問い合わせ内容によっては英語で回答することがありました。日本語の回答精度を求める場合は、Granite-japanese や elyza-japanese を使用した方が精度の高い回答を得ることができます。 モデルを変えて問い合わせてみると、モデルごとに得意なタスクが異なることがわかりました。数百億のパラメータで訓練された大規模言語モデルを一概に選択するのではなく、言語やタスクの特性に合わせて最適なモデルを選定することが重要になりそうですね。 さいごに いかがでしたでしょうか。Github から提供されているスターターキットを使って Assistant、Discovery、watsonx.ai を繋げてみましたが、ほどんど躓くことなく UI から簡単に設定することができました。 接続自体に高度な難しさは感じませんでしたが、問い合わせに対して正確な情報を得るためには Assistant の検索設定を調整する必要があります。今回は1つの PDFファイルの検索を行いましたが、複数の PDFファイルから情報を引き出す際には Assistant で query を設定することで特定の PDFファイルからの検索が可能です。 このように PDF などの非構造化データを検索対象として精度の高い回答を得るには、Discovery において文書の構造を明確に定義し、Assistant の検索設定を調整することが必要です。 実際にヘルプデスクなどの Webチャットで利用する場合は、Assistant にあらかじめ用意した回答をルールベースで回答させ、それでも解決できない問い合わせについては Discovery を通じて検索を行い、watsonx.ai を用いて回答を生成するという流れが効果的です。 ただし、生成AI によって生成される回答は常に”100%正確な回答”ではないので、より高い精度の回答を追求するためにはプロンプトの調整などチューニングを施すことが必要です。その結果、より使いやすい Webチャットの実現が期待できます。 お問い合わせ エヌアイシー・パートナーズ株式会社E-Mail:nicp_support@NIandC.co.jp   .highlighter { background: linear-gradient(transparent 50%, #ffff52 90% 90%, transparent 90%); } .anchor{ display: block; margin-top:-20px; padding-top:40px; } .btn_A{ height:30px; } .btn_A a{ display:block; width:100%; height:100%; text-decoration: none; background:#eb6100; text-align:center; border:1px solid #FFFFFF; color:#FFFFFF; font-size:16px; border-radius:50px; -webkit-border-radius:50px; -moz-border-radius:50px; box-shadow:0px 0px 0px 4px #eb6100; transition: all 0.5s ease; } .btn_A a:hover{ background:#f56500; color:#999999; margin-left:0px; margin-top:0px; box-shadow:0px 0px 0px 4px #f56500; } .bigger { font-size: larger; }

2024年01月16日

特集一覧 (ブログ、コラム 他) [2023年度]

コーポレートサイトに掲載している2023年度のブログやコラムの一覧です。 (さらに…)

2024年01月16日

【イベント開催レポート】IBM watsonx.ai ハンズオンセミナー

こんにちは。ソリューション推進部です。 2023年12月12日に、エヌアイシー・パートナーズ株式会社として初めてのハンズオンセミナー『「IBM watsonx.ai 」を利用したRAGのハンズオンセミナー』を開催しました。 今回のハンズオンセミナーは、以下の2つのことを目的として行いました。 パートナー様に製品の紹介とハンズオンを合わせて体験いただくことで、製品をより深く知っていただくこと 製品を活用したビジネスの新たな応用の可能性を見つけ出していただくこと 私たちのチームでは、パートナー様にご紹介・ご説明する製品を「実際に触ってみること」を大切にしています。これは私たち自身の技術力の向上という目的もありますが、パートナー様に私たちのリアルな経験を交えながら製品のご説明をすることが、お客様の具体的な課題発掘や案件創出に繋がっていると考えているためです。 今回のハンズオンを通して、パートナー様ご自身が製品の価値を体感しご理解いただくことで、新しいビジネス展開のイメージを創出するお役に立ちたいと考えました。 それでは、今回実施したセミナーの内容について簡単にご紹介いたします。 目次 レポート watsonx.ai紹介講義 ハンズオン実施 IBMさまによる最新情報紹介・講義 さいごに お問い合わせ レポート 1. watsonx.ai紹介講義 ハンズオンを実施する前に、watsonx.ai と RAG についての講義を行いました。 国内では生成AIビジネスが加速し、競争力やセキュリティなどの課題が増えています。これらの課題を解決する製品として、IBM watsonx をご紹介しました。 watsonx は「watsonx.ai」「watsonx.governance」「watsonx.data」という3つの製品から成り立っています。watsonx.ai は、基盤モデルをベースとした AI開発スタジオです。 ここでは、IBM が信頼できるデータを用いて事前に学習した基盤モデルや Hugging Face, Inc.* と連携したオープンソースの基盤モデルが利用可能で、ビジネスの状況や要件に応じて最適な基盤モデルを選択することが可能です。 また、RAG についての概念や利点、活用が期待されるシーンもご説明しました。RAG を用いた具体的なユースケースとしては、IBM Watson Speech to Text や Watson Discovery、watsonx.ai を活用したコールセンター業務の事例や、watsonx Assistant や Watson Discovery、watsonx.ai を活用した ECサイトの問い合わせの事例を取り上げました。 時間の制約からこれら2つの事例しかご紹介できませんでしたが、今後、watsonx.ai を活用した多様な事例を私たち自身も理解し、パートナーさまと共に議論を深めていきたいと思います。 *Hugging Face, Inc.:機械学習 アプリケーションを作成するためのツールを開発しているアメリカの企業。 2. ハンズオン実施 ハンズオンでは、受講者の方々に「RAG」を活用した watsonx.ai の Foundation Model(LLM)への問い合わせを体験していただきました。 RAG とは「Retrieval-Augmented Generation」の略で、LLM への問い合わせをする際に、事前に用意したベクターストアへデータ(今回はPDF)を取り込んでおき、問い合わせプロンプトをもとにベクターストアを検索し、その結果を付与して LLM へ問い合わせを行う、というテクノロジーです。 RAG を使うことで、一般公開されていない社内情報を活用して LLM を利用することが可能となるため、自社での利用やお客様の課題を解決するための方法として有効であると考えています。 ハンズオンの環境につきましては、準備に時間をかけずスムーズに始められるよう、事前に弊社にて PC や RAG を利用するための Jupyter Notebook を用意いたしました。 また、watsonx.ai では複数の Foundation Model を利用できるため、複数のモデルを使って挙動の違いを確認してみたり、取り込む PDFファイルを追加することで回答がどう変わるのか、など、ご自身で自由に検証をする時間を多く設けました。皆さまそれぞれに前提スキルは異なっていたかもしれませんが、「体験の時間が足りない…」ということはなかったかと思います。 今回ベクターストアへ取り込むのは PDF のみとしましたが、テキストファイルや PowerPoint なども取り込むことができるので、応用できる使い方が非常に広いということを理解いただけたのではないかと感じています。 3. IBMさまによる最新情報紹介・講義 日本アイ・ビー・エム データ・AI・オートメーション事業部 四元さまに「watsonx」に関して、最新事例と製品アップデート情報の2本立てで講義をしていただきました。 事例においては、IBM社内の watsonx活用事例(AskIT)は特筆すべきと言えるでしょう。 AskIT は、IBMの自然言語処理(NLP)能力を活かし、30万件を超えるサポートチケットから抽出された知見をもとに、重要なサポートトピックに迅速に対処する AIアシスタントとして開発されたそうです。このツールは4ヶ月で133,000人の IBM社員に利用され、問い合わせの75%以上が AI によるチャットで解決されるなど、非常に大きな成果を上げています。 製品アップデート情報のメインは、12月に発表された「watsonx.governance」でした。 AI を組織として採用するためには倫理感のある意思決定が必須であり、watsonx.governance は AIガバナンスとして以下の3つの機能を提供する製品である、というご説明をいただきました。 AIライフサイクルを通してAIモデルの実態を把握するための「モデル・インベントリ」 AIの性能や課題の管理などを行う「評価・モニタリング」 総合監視画面を提供しリスクを可視化する「モデル・リスクガバナンス」 モデル・インベントリでは、他社の AI商品である「Amazon SageMaker」「Azure Machine Learning」などの AIモデルも合わせて管理・監視できることが非常に興味深いです。 watsonx は、AIワークフローを一貫してサポートすることで倫理的かつ透明性の高い AI利用を可能にしています。これらの技術革新は私たちが直面している数多くの課題に対する解決策を見出し、先進的なビジネス環境を促進していく上での重要なステップと言えるでしょう。 日本アイ・ビー・エム株式会社 データ・AI・オートメーション事業部 四元 さま さいごに セミナー後には、参加いただいたパートナーさまとご支援いただいた IBMさまとの懇親会を開催いたしました。 当懇親会を通してパートナー様の生成AI に対する取り組みや課題を直に伺うことができ、大変有意義な場となりました。 2023年12月18日に弊社は10周年を迎えました。10年間で培った経験を糧にし、今後さらに新しい取り組みにチャレンジしていきたいと考えております。 本年も、ブログを通してパートナーの皆さまへ様々な情報をお届けさせていただきます!今後ともどうぞよろしくお願いいたします。 懇親会会場 お問い合わせ エヌアイシー・パートナーズ株式会社E-Mail:nicp_support@NIandC.co.jp   .highlighter { background: linear-gradient(transparent 50%, #ffff52 90% 90%, transparent 90%); } .anchor{ display: block; margin-top:-20px; padding-top:40px; } .btn_A{ height:30px; } .btn_A a{ display:block; width:100%; height:100%; text-decoration: none; background:#eb6100; text-align:center; border:1px solid #FFFFFF; color:#FFFFFF; font-size:16px; border-radius:50px; -webkit-border-radius:50px; -moz-border-radius:50px; box-shadow:0px 0px 0px 4px #eb6100; transition: all 0.5s ease; } .btn_A a:hover{ background:#f56500; color:#999999; margin-left:0px; margin-top:0px; box-shadow:0px 0px 0px 4px #f56500; } .bigger { font-size: larger; }

2023年12月27日

【イベント参加レポート】「Lenovo Tech World 2023」に参加してきた

レノボグループ最大の年次イベント「Lenovo Tech World Japan 2023」が2023年12月5日に東京で開催され、足を運んできました。 今年は「AI for ALL インテリジェントな変革に向けて」をメインテーマに、AI活用によるインテリジェントな変革を企業や個人に届けるためのレノボの取り組みが、多数のセッションや展示を通じて紹介されていました。 レノボグループは PC事業/サーバー事業ともに IBM より引き継いでおりいずれも現在は世界の市場において確固たる地位を占めていますが、ハードウェア製品が中心というイメージがあるレノボにおいて AIビジネスへの対応としてどのような取り組みを行っているか、という点に興味がありました。 いくつかのセッションに参加してみて、レノボの AI分野における取組みとしては大きく以下の2分野が中心かな、と感じました。 レノボ = ハードウェア製品のリーダー:利用者が便利にAIを活用するための(裏方としての)ITインフラの継続的な革新を実施 ターンキーソリューションの推進:ISVパートナーエコシステム「Lenovo AI Innovators」を通じて、利用者のAI活用を支援 レノボとしてはこうした AI領域のビジネスに対し10億米ドルの投資を計画しており、単なるハードウェア・ベンダーとしての位置づけを超え AIビジネスに対する取り組みへの「本気度合」が伝わりました。 当レポートでは、参加したいくつかのセッションについてご紹介します。 レポート目次 生成AIとレノボインフラストラクチャー・ソリューション レノボとエヌビディアが目指すスマートで高速化した未来、デジタルツイン カーボンニュートラルからカーボンネガティブへ 未来を創造するレノボのOPEN AIソリューション レポート 生成AIとレノボインフラストラクチャー・ソリューション まず、レノボの AI関連インフラストラクチャー投資戦略の紹介では "3年で10億米ドル" という非常に大きな規模の投資が計画されており、レノボの AI に対する注力度の高さを感じました。 また、レノボと ISV が組んだ AI対応の取り組みである AI Innovatorsプログラムは、すでに世界で150以上のソリューションが提供されているとのことです。お客様や ISV への検証環境やノウハウを支援する当プログラムは、お客様の AI活用の促進に有効であると感じました。 さらに、AI を利用して手話をリアルタイムで文字に変換するというソリューションも紹介されており、聴覚の弱い方でもコミュニケーションの幅が広げられる有効なソリューションであることを感じると同時に、AI活用領域の幅広さを改めて実感しました。 興味深かったのが、レノボと NVIDIA のハイブリッドAIソリューションの発表です。データセンター向けの新GPU の生成AI の提案として、L40S が紹介されていました。その AI処理性能の高さは、各企業が AI をより効率的に活用するための大きな武器となると確信できる内容でした。 「NVIDIA = GPU」というイメージでしたが、製品開発投資の60%以上がソフトウェア製品に向いているというのが意外でした。OSSベースが多い AIソリューションをお客様が安心して使えるようにするためのソフトウェア・スタックの開発が中心で、OSS のままではなく認定・サポートすることでのリスク低減を行っていくとのことです。 ストレージについても新しい発表がありました。Weka という NVMe に最適化されたストレージや ddnアプライアンスの OEM取り扱いに関する情報は、AIインフラに必要となるストレージとして注目したい内容でした。 ハードウェアメーカーの印象が強かったレノボグループですが、ハードウェアの枠を超えお客様の AI活用に向けてさまざまな取り組みを実践していることが感じられました。 レノボとエヌビディアが目指すスマートで高速化した未来、デジタルツイン このセッションでは、レノボとエヌビディアが連携して提供するデジタルツインを実現するためのアプリケーション「OMNIVERSE」について詳しく説明されました。 デジタルツインが実現すれば、物理的な世界の出来事をデジタルで再現・分析することが可能になります。 このテクノロジーの一部として、エヌビディアの仮想工場を作り出すデジタルツインのユースケースが紹介されました。これらの技術は自動車や建築業界などを始め、多くの分野でデジタル化を後押しする強力なエンジンとなると強く感じました。 レノボの最新ワークステーション「ThinkStation PX」はこの OMNIVERSE を活用して開発されており、こうした最新のテクノロジーが構想段階ではなくすでに実用化の領域に入っていることが実感できます。 また、大規模なデジタルツインを実現するために設計されたコンピューティング・システムである NVIDIA OVXシステムに対応した GPUラック・サーバー「SR675V3」の紹介もありました。 全体的に非常に先進的で興味深い内容でした。デジタルツインの活用はこの先、さらに様々な業界で重要性を増していくでしょう。 今回のセッションで得た知識を生かしてデジタルツインについてより理解を深め、ビジネスに繋げていきたいと思います。 カーボンニュートラルからカーボンネガティブへ 「AIの普及 > GPUの高性能化 > 消費電力抑制との闘い」という流れは、AI の普及に伴い避けては通れない課題です。 業界に先駆けて実施されているレノボの「カーボンオフセットサービス」は、企業単位で地球温暖化に貢献できる具体的なソリューションとして、改めて有効性を感じました。 また、レノボは HPC分野において最も多くのスーパーコンピューターを提供しているベンダーですが、一方で電力あたりの処理能力のベンチマークである「Green500」においても最もクリーンなベンダーであることが実証されています。 既に製品化されている水冷技術「Lenovo Neptune」は排熱の98%以上の削減を実現しており、レノボがこの分野において大きく業界をリードしていることを再認識しました。 未来を創造するレノボのOPEN AIソリューション 今回のセッションタイトルを Chat GPT が作成したということからも、OPEN AI は確実かつ急速に普及していることが分ります。しかしその一方で、約72%の日本企業では業務での Chat GPT の使用を禁止している、という調査結果があるのも現状です。 利便性よりも "情報漏洩" や "誤情報の拡散リスク" を重視するという企業は多いですが、使い方によっては十分に業務利用に耐え、かつ大幅な業務効率の向上が期待できます。 レノボではワークショップ形式でお客様の安全な利用をサポートしていくとのことで、効率性や安全性に悩んでいるお客様に対する支援策として有効性を感じました。   以上が簡単ではありますが、Lenovo Tech World Japan 2023 への参加レポートとなります。最後までお読みいただき、ありがとうございました。 お問い合わせ エヌアイシー・パートナーズ株式会社E-Mail:nicp_support@NIandC.co.jp   .highlighter { background: linear-gradient(transparent 50%, #ffff52 90% 90%, transparent 90%); } .anchor{ display: block; margin-top:-20px; padding-top:40px; } .btn_A{ height:30px; } .btn_A a{ display:block; width:100%; height:100%; text-decoration: none; background:#eb6100; text-align:center; border:1px solid #FFFFFF; color:#FFFFFF; font-size:16px; border-radius:50px; -webkit-border-radius:50px; -moz-border-radius:50px; box-shadow:0px 0px 0px 4px #eb6100; transition: all 0.5s ease; } .btn_A a:hover{ background:#f56500; color:#999999; margin-left:0px; margin-top:0px; box-shadow:0px 0px 0px 4px #f56500; } .bigger { font-size: larger; }

1 2 3 14
back to top