2020年10月

26

システム連携とは?代表的な方法や課題について解説

ERP、SFAツール、顧客管理システム、POSシステム…

今日では、様々なシステムを活用してビジネスを展開することが当たり前となりました。
さらにそれぞれのシステムを必要に応じて連携して利用することによって、組織全体として、システムやデータをより有効に活用していくことができます。

そこで本コラムでは、システム連携の代表的な手法や課題などを解説していきます。

 

システム連携とは?

かつて、システムは一部の大企業だけのものであり、大型のメインフレームの導入が主流でした。
しかし、1990年代以降にダウンサイジングの波が押し寄せ、今日では大企業だけではなく、幅広い規模・業種の企業が業務別・目的別に最適化された多種多様なシステムを導入しています。

こうした中で、すでに多くの企業が取り組み始めているのがシステム連携です。システム連携とは、異なるシステム間でデータを相互に共有・処理できるようにすることを言います。

システム連携を行うことで、システム間で分断されていたデータを連携して活用することが可能となり、私たちはより深い洞察を得たり、オペレーションミスを減らしたりといった効果を得ることができます。

例えば、SFA(Sales Force Automation/営業支援)ツールと MA(Marketing Automation)ツールを連携することで、営業担当者やマーケティング担当者は、見込み客の獲得から最終的な受注に至るプロセスを俯瞰的に把握できるようになります。
その結果、マーケティング担当者はウェブサイトの流入数や見込み客の獲得数だけではなく、アポイントメント獲得数や最終的な受注数といった営業側の指標も見ながら、マーケティング施策の検証や効果改善に向けて精度の高い施策検討を行うことができます。

また、勤怠管理システムと給与計算システムを連携すれば、勤務時間に応じた毎月の給与計算を自動化することができるため、Excel での集計など人による作業工数の削減に加え、勤務時間管理や給与計算でありがちな入力ミスや計算ミスといったオペレーションミスの防止につながります。

次項でシステム連携を実現するための具体的な方法を解説していきます。

 

システム連携の代表的な方法

現在よく使われているシステム連携の代表的な方法は、以下の3つです。

  1. ファイル転送
  2. メッセージキュー
  3. API

それぞれについて解説します。

 

1. ファイル転送

ファイル転送は、ファイル単位で1対1でのシステム連携を実現する方法です。長年にわたってシステム連携の代表的な手段として利用されてきました。

ファイル転送は、FTP(File Transfer Protocol)、SMB(Server Message Block)、CIFS(Common Internet File System)といったプロトコルを用いて実現します。
このうち、FTP はファイル転送で利用される代表的なプロトコルの1つです。後述する方法に比べ、大容量データを高速でやり取りすることができるという利点があります。
データ連携は通信プロトコルである FTP を通じて行うので、連携するシステムそのもののプログラムに手を加える必要がありません。そのため、一方のシステムで障害が発生しても、もう一方のシステムに及ぶ影響範囲を限定することができます。

一方で、ファイル転送でシステム連携を実現する際にはファイルの静止点(※1)が必要になります。
ファイル転送はデータを一括して転送するバッチ処理によって行われるので、全データの処理が完了しなければ結果がわからず、途中経過を把握することができません。そのため、リアルタイム処理に近い形でスピーディに結果を知りたいという場合には、1回のデータ量を減らして転送時間を短くする、といった工夫が必要になります。

※1:ファイル内のデータが更新されていない状態のこと

 

2.メッセージキュー

メッセージキュー(Message Queue)は、メッセージ単位で N対1、または N対N でのシステム連携を実現する方法です。
送信側が送信したメッセージは、受信側が取り出すまでキューと呼ばれるデータ領域に保管されます。キューは、メッセージ指向ミドルウェア(MOM:Message Oriented Middleware)やメッセージブローカー(Message Broker)で管理するのが一般的です。

送信側の処理は、キューにメッセージを送信することで完了します。
直接受信側にデータが送信されるわけではないので、受信側のシステムの負荷やリソースなどを意識する必要はありません。受信側でシステムダウンが発生していたりリソースが逼迫していたりしても、送信側は処理の完了を待つ必要がないのです。そのため、送信側が意図したメッセージの順序を維持することができる、というメリットがあります。
このような特性から、メッセージキューは非同期処理が必要なシステム連携に向いています。

 

3.API

API(Application Programming Interface)は、HTTP あるいは HTTPS 形式で実装されることが多い N対1 でのシステム連携を実現する方法です。

API は、システムの外部仕様を定義して各機能を利用するためのインターフェースを提供するものです。
そのため、多くの場合 API は、システムを構築する言語と同じ言語のライブラリと通信プロトコルで提供されます。

API を使用すると、そのシステムの実装方法を知らなくても他のシステムと連携させることができます。Webアプリケーションの特定の機能のみ API として実装して公開することで、社外の一般ユーザーが利用できるようにするといったことが可能になります。
例えば、下図のように社外の一般ユーザー向けに自社の Webサーバー上にある Webアプリケーションを提供した上で、ゲートウェイ上でアクセス制御を行うことで、セキュリティを担保することができます。

 

幅広いシステム連携方法に対応するのはコストがかさみ、
手間も増える…

前項で紹介したように、一口にシステム連携といっても様々な方法が存在します。そして、連携するシステムの仕様、やり取りするデータ量、データ形式などによって、採用するべきシステム連携の方法は異なります。

例えば、CADデータをやり取りするといったようにシステム間で大容量データを送受信する場合には、FTP によるファイル転送が適しています。
一方で、SaaS型ソリューションの多くが API を公開しているように、顧客や取引先といった外部のユーザーが任意に特定のシステムと連携するための方法を提供したい、という場合には API が適しています。従来のように個別にシステム連携のプログラムを開発することなく、ユーザー側で連携作業を完了できるからです。

しかし、用途に合わせて複数のシステム連携の方法に対応するとなると、複数のソリューションを導入しなければなりません。それでは、製品毎のライセンス・導入コストがかさんでしまいます。
また、利用するソリューションが多くなると個別に管理・運用をする必要があるため、運用管理の手間も煩雑化してしまいがちです。実情として、用途に応じてシステム連携の方法を使い分けるのはハードルが高いと言えます。

一方、最近では様々なシステム連携の方法を統合的に運用管理できるプラットフォームが登場しています。

 

用途・目的に合ったシステム連携の方法を選べる
統合プラットフォーム「IBM Cloud Pak for Integration」

「IBM Cloud Pak for Integration」は、IBM が提供している MQ(メッセージキュー)、App Connect(アプリケーション連携)、API Connect/DataPower(API連携)、Aspera(ファイル転送)といったシステム連携を実現する様々なソリューションを統合したプラットフォームで、システム連携をワンストップで実現することが可能です。

また「IBM Cloud Pak for Integration」 は、実績のある Red Hat OpenShift Container Platformで稼働し、コンテナ技術に最適化しているので、オンプレ、IBM Cloud、他社クラウドなど様々な環境にデプロイできます。

システム連携に課題を感じているという方は、ぜひ、「IBM Cloud Pak for Integration」についてお問い合わせください。

 

 

この記事に関するお問合せ

エヌアイシー・パートナーズ株式会社
企画本部 事業企画部

この記事に関するお問い合せは、「こちら」からお願いします。

 

参考情報

その他の記事

2021年01月13日

ハイブリッドクラウド、最大の課題となる「運用」をクリアする 「IBM Spectrum Virtualize for Public Cloud」の実力

社内システムのクラウド移行が着実に進むなか、全システムをクラウド移行するのではなく、オンプレミスと適材適所で使い分ける「ハイブリッドクラウド」を選択する企業が増えています。 オンプレミスとクラウド、それぞれのメリットを享受できる一方、データ連携や管理の効率化が課題になっています。 これらの課題を解決し、ハイブリッドクラウド運用の最適解としてお勧めなのが「IBM Spectrum Virtualize for Public Cloud」です。 クラウドへの移行からオンプレミスとのデータ連携、クラウド・ストレージの効率化などを実現し、様々なシーンで大きな効果を期待できます。 具体的に何ができるのか?その特長や活用法を紹介します。   クラウド移行と同時にオンプレミス回帰のトレンドも。 現実解は「ハイブリッドクラウド」 総務省の令和2年版情報通信白書によると、クラウドサービスを利用している企業は 64.7%(全社的に利用。一部の事業所、または部門で利用を含む)にのぼり、前年から 6.0ポイント上昇と、企業におけるクラウド利用が進んでいることが分かります。 AWS などに代表される IaaS の利用も増えていますが、IaaS では、用途によって得られる効果に大きな差が出ることも。 例えば、特定の期間だけ負荷が高まるシステムなどはコスト削減の効果が出やすいものの、常に一定のパフォーマンスで稼働し続けるシステムは割高になりがちです。 こういったことから、最近ではオンプレミス回帰の動きも多く見られるほか、「全システムをクラウドに移行するのは、無理がある」というケースも少なくなく、オンプレミスとクラウドを適材適所で使い分ける「ハイブリッドクラウド」が現実解として注目されています。   ストレージ管理機能に加えクラウド連携に対応する 「IBM Spectrum Virtualize for Public Cloud」 ハイブリッドクラウド環境の運用をサポートする「IBM Spectrum Virtualize for Public Cloud」ですが、具体的に、何ができるのでしょうか? そもそも「IBM Spectrum Virtualize」は、IBM のオールフラッシュストレージ「IBM FlashSystem」に搭載されているソフトウェアであり、リアルタイム圧縮や重複排除、シンプロビジョニングからデータのブロックレベル自動階層化など、ストレージの運用・管理に必要な機能を提供します。 さらに特長的なのが、ストレージ外部仮想化機能。これにより、IBM FlashSystem に接続した他社ベンダーのストレージまで含めた一元管理を可能にします。 そして、この IBM Spectrum Virtualize をパブリッククラウド上で利用できるようソフトウェア単体で提供しているのが、IBM Spectrum Virtualize for Public Cloud です。 IBM Spectrum Virtualize の機能に加えて、クラウド連携機能を搭載。オンプレミス環境の IBM FlashSystem と連携することで、オンプレミス・クラウド間で自由にデータを移動できるほか、複数クラウド間での連携も可能です(現在は、IBM Cloud、AWSに対応)。 オンプレミスからクラウドへの移行に関してはクラウド事業者などが様々なサービスやツールを提供していますが、クラウドからオンプレミスへの移行には対応していないケースがほとんど。 IBM Spectrum Virtualize for Public Cloud では双方向でのデータ移動が可能なため、状況やニーズにあわせて自由にデータを行き来させることができます。 また、ハイブリッドクラウド環境ではオンプレミスとクラウドをそれぞれ別のツールで管理しなければならず、管理負荷の増加が懸念されますが、IBM Spectrum Virtualize for Public Cloud と IBM FlashSystem であればクラウド環境もオンプレミス環境も同じ UI で管理可能。 複数の管理ツールの操作を覚える必要がなく、負担を最小限にハイブリッドクラウド環境を運用できるのです。   ハイブリッドクラウドでのDR対策からAWS環境のコスト削減まで、様々なシーンで有効 ハイブリッドクラウド・マルチクラウド環境において IBM Spectrum Virtualize for Public Cloud を活用することで、例えば以下のことが可能になります。 用途や状況にあわせた、オンプレミスとクラウドの使い分け(ワークロード最適化) DR対策、マルウェア対策としてのバックアップ環境としての利用 クラウド障害対策としてのマルチクラウド構成 データをクラウドにコピーし、開発や分析などに活用 このほか、AWS のクラウド環境単体で活用するケースでもコスト削減効果を期待できます。 IBM Spectrum Virtualize for Public Cloud は、AWS で稼働するシステム・アプリケーションで一般的に利用されるストレージサービス「Amazon EBS」の統合管理が可能。データ圧縮や重複排除により課金対象となるデータ容量を削減でき、コスト削減に。 さらに、複数の EBSボリュームをプール化して管理することで、システムやアプリケーションを停止させることなく拡張できます。事前に余裕をもった容量を確保する必要がなくなり、さらなるコスト削減が可能です。 そのほか、自動階層化や差分バックアップといった機能もコストの最適化に貢献します。   ハイブリッドクラウド・マルチクラウド環境の効率的な管理に クラウド移行のトレンドは今後も継続していくでしょう。 しかし「クラウドに移行すれば、すべて OK」というわけではなく、オンプレミスに戻す可能性や、ハイブリッドクラウド構成も視野に入れて検討する必要があります。 さらに、特定のクラウド基盤に依存することのリスクを避けるため、またクラウド基盤ごとの特性やメリットにあわせた使い分けなどから、マルチクラウド化も進むと考えられます。 こういった環境を効率的に管理するには、データ圧縮や重複排除といったストレージ管理の基本的な機能からデータレプリケーション、バックアップ、さらにクラウド連携までそろっている IBM Spectrum Virtualize for Public Cloud は、有力な選択肢と言えるでしょう。     この記事に関するお問合せ エヌアイシー・パートナーズ株式会社 企画本部 事業企画部 この記事に関するお問い合せは、「こちら」からお願いします。   参考情報 (製品情報) IBM Spectrum Virtualize for Public Cloud (製品情報) IBM ストレージ製品 (コラム)「壊れにくく、処理速度が落ちない」IBM FlashSystem の特長とラインナップを徹底解説 (ブログ) ハイブリッド/マルチクラウド時代だからこそIBMのストレージ  

2020年12月28日

Cisco UCSってなんだ?【2020年12月更新版】

皆さま、こんにちは。てくさぽBLOG メンバーの 岡田です。 エヌアイシー・パートナーズでは2016年からCisco Unified Computing System(以下、UCS)の取り扱いを始めています。 UCSが発表されてから既に10年以上経っておりますが、再びUCSが注目を浴びています。今回は、これからUCSを検討しようとお考えの皆さんに向けて、その特徴やメリットをお伝えします。   1. Cisco UCS とは ずばり、Cisco社製のIA(Intel Architecture)サーバです。 Intel製CPUが搭載されているので、Windows Server/Linux/VMware ESXiなどの、Intel CPU用のサーバOSがUCS上でも稼働します。 では、なぜネットワーク機器のベンダーであるCiscoがIAサーバを出したのでしょうか。 仮想化が一般化した現在のデータセンターでは、サーバ、ネットワーク、ストレージ、アプリケーションといった各構成要素を個別に構築、デザイン、最適化するサイロ型になっています。その結果として、各コンポーネント個別の管理となり、管理者間の連携の煩雑さや環境変更時の検討項目・調整・検証期間工数の増大が大きな課題となっています。 これらの問題を解決するために、UCS は、仮想環境やクラウド環境で利用されることを念頭に置き、すべてのコンポーネントを全体最適化されたアーキテクチャの下に統合することで、複雑さをなくし、リソース管理を容易にし、最適な仮想環境を実現しています。つまり、サーバやネットワークを大きな1つのリソースとして一元管理することにより、管理・運用がしやすくなるということです。 (UCSの全体最適化されたアーキテクチャ)   2.他社IAサーバとの違い では、UCSは他社IAサーバと比べて、どんなところが違うのでしょうか。UCSが他社IAサーバと異なるところは主に以下の3点になります。   ①ファブリックインターコネクト ユニファイドポートという1Gbまたは10Gbのイーサネットポート、またはファイバーチャネルポートのどちらにも設定できるスイッチポートを搭載したスイッチです。一般的なIAサーバでは、ネットワークスイッチとファイバーチャネルスイッチそれぞれに接続しますが、UCSサーバは基本的にこのファブリックインターコネクトとのみ接続します。   ②UCS Manager ファブリックインターコネクトに搭載された統合管理コンソールです。接続されたBladeサーバ、ラックサーバを一元管理します。   ③サービスプロファイル UCSでは、サーバのハードウェア各種設定情報をサービスプロファイルとして保持し、これを実際のハードウェアに関連付けることでサーバやネットワークの設定を行います。   ④Intersight Intersightはオンプレミスにある複数のCisco UCSやHCI製品のHyperFlexを統合的に管理するためのSaaSサービスです。地理的に離れた環境にある複数システムを一元管理できます。SaaSサービスなので管理サーバーを用意する必要がなく、管理者はどこからでも管理ダッシュボード画面にアクセスできます。 このような違いを持つUCSを選択すると、どのようなメリットがあるのでしょうか。   3.UCSのメリット シンプルな構成 UCSサーバはファブリックインターコネクトとのみ10Gbイーサネットケーブルで接続します。この10Gbイーサネットケーブルの中に、イーサネットとファイバーチャネルの両方のプロトコルが流れます。 これにより、ラック背面のケーブル本数が激減し、より適切なエアフローと低い消費電力を実現します。この結果として、データセンターのファシリティコスト、配線コスト、配線トラブルを削減できます。   管理ポイントの削減 UCSでは、サーバやBladeシャーシ毎に管理モジュールを持たず、ファブリックインターコネクト上にあるUCS Managerで一元管理されます。これにより、台数が増えても管理ポイントはUCS Manger1箇所のみのままですので、管理対象が増えません。これにより、個々の機器毎に管理する必要がなくなり、管理工数を削減できます。   シンプルな運用 サービスプロファイルを利用することで、構築時や障害発生における機器交換時において時間がかかっていたハードウェア設定作業を大幅に削減することが可能になります。他社IAサーバでは、サーバ導入時にさまざまな設定を個々に実施する必要がありますが、サービスプロファイルを利用するとハードウェアにプロファイルを割り当てるだけでハードウェア設定が完了します。また、機器が届く前にMAC アドレスなどの予約や、BIOS の設定を先にやっておくといったことも可能になります。   ラックマウントサーバの統合 ファブリックインターコネクト配下に接続することで、UCS Managerによる統合管理機能を、サーバ形状を問わずに一元管理可能になります。   このような特徴を持つUCSですが、エヌアイシー・パートナーズでは日本IBM社が取り扱う、IBM保守のUCSをお勧めしています。   4.IBM保守 UCSの特徴 IBM技術員によりオンサイト保守を実施します。 スペシャリストによりリモート問題判別支援をおこないます。 保守時間帯の選択が可能です。 UCSの運用を支援するオプション(交換したハードディスクのお渡しサービスと部品2時間配送サービス)を追加できます。   5.まとめ いかがでしたでしょうか。UCSはサーバメーカーとしては後発であることのメリットを活かして、これまでのIAサーバが抱えていた課題を解決できるソリューションを備えています。これにIBM保守を加えることで、ネットワーク機器からサーバまで保守をまとめてIBM社に一元化することができます。現在のデータセンター運用に課題を抱えたお客様にはぜひUCSをご検討ください。 また、エヌアイシー・パートナーズではUCSとIBMストレージ、ネットワークスイッチ等の複雑な組み合わせでの構成でも対応可能です。ご相談からお見積り依頼まで、遠慮無くお申し付けください。 最後に、弊社サイトのUCSページにてラインナップや支援内容などを記載していますので、こちらももぜひ御覧ください。 https://www.nicpartners.co.jp/products/72456/?from_category=category_all     【変更履歴】 2020/12 Intersight説明を追加。弊社サイトのUCSページへのリンクを修正。   この記事に関する、ご質問は下記までご連絡ください。 エヌアイシー・パートナーズ株式会社 技術支援本部 E-Mail:nicp_support@NIandC.co.jp 商標帰属 ・すべての名称ならびに商標は、それぞれの企業の商標または登録商標です。

2020年12月28日

AutoML(自動機械学習)の先駆者として ~第3次AIブームを牽引するH2O Driverless AI~

20世紀後半から2度のブームを経て、21世紀に入り、現在第3次ブームのなかにあるとされる AI(人工知能)。技術的には、ビッグデータを用いた機械学習にはじまり、特徴量をみずから習得するディープラーニングが登場し、現在に至ります。 こうしたなか、AI活用のハードルを下げ、データサイエンティストがいない企業にも道を開くものとして期待されているのが "AutoML" 機能を搭載した最新の AIソリューションです。 AutoML は、時間と手間のかかる機械学習のモデル作成・調整・最適化などを自動化するプロセスです。AutoML を利用することで劇的な業務効率化が期待できます。そして、AIソリューションの代表であり、先駆的存在として知られる H2O Driverless AI(以下 DAI)は、グローバルでの知名度はもとより、最近は国内でも注目されつつあります。 そこで本記事では、DAI を取り扱う国内 AIソリューションベンダーの1つである、日本アイ・ビー・エム株式会社 ハイブリッドクラウド&AIシステムズセンターの河井 裕 氏に、DAI を用いた AutoML への取り組みについてお聞きしました。   機械学習からのアーリーアダプターと DXで動き出したフォロワーが混在 近年、拡大成長傾向にある国内 AIシステム市場は、コロナ禍の影響が懸念される2020年以降も引き続き大幅な高成長が続くと予想されています。 こうしたなか、河井氏によると、AI導入についての問い合わせや相談をしてくる企業は大きく2パターンに分かれると言います。 1つは「AI活用の効率化を求めるアーリーアダプター」で、以前から機械学習に取り組んでいて社内に知見を有する人材もおり、AutoML による効率化メリットも理解している企業。もう1つは、「新規でAI活用を検討するフォロワー」で、DX を進めたいと焦るなかで AI活用に興味を持つが、知見を有する人材が少ない企業。 やりたいことと予算のギャップが大きく、導入にいたらないケースも多いとのことです。AutoML を搭載した AIソリューションの登場は、こうしたフォロワー企業にも AI活用の道を開くため、AIシステム市場の高成長を実現する上でもカギとなる存在と言えそうです。   OSSの先端AIソリューションであることが決め手 IBMコーポレートと DAI を提供する H2O.ai との間でパートナーシップが締結されたのは2017年7月。それを受け2018年7月からグローバルで DAI の販売を開始。日本国内でもはじめてとなります。 その後も日本アイ・ビー・エムからのリクエストが H2O.ai に採用され、日本語版の開発や Webマニュアルの日本語化など、同社が DAI の国内販売に大きく貢献しています。 ちなみに IBM の AIソリューションといえば「IBM Watson」が有名ですが、主としてオンプレミス環境で利用される DAI に対しこちらは主にクラウド型で提供されます。特に国内企業の "情報セキュリティの観点から、手元で機械学習をおこないたい" というニーズに応えるにはオンプレミスの方が向いており、顧客企業に多様な選択肢を提供する上でも、DAI の取り扱いは自然な流れだったと言えそうです。 数ある AIソリューションのなかから DAI が選ばれたのには、以下の4つの理由がありました。 知名度・実績 AutoML を搭載する AIソリューションの先駆けである DAI は、グローバルで圧倒的な知名度を誇ります。 データサイエンティストのスキルを必要とするモデル作成を自動化し、AI予測分析の効率を劇的に改善することから、FORTUNE 500 に名を連ねる企業222社を含む1万4000社以上が利用するなど、導入実績もトップクラスです。 オープンソースソフトウエア(以下OSS)として最先端を維持 DAI は OSS の機械学習エンジンを搭載し、そのソースはもちろん公開されています。 このため世界有数のデータサイエンティスト・コミュニティ「kaggle」との関係も深く、世界中のトップクラスのデータサイエンティストが開発に参加する形で日々ブラッシュアップされ、常に最先端を走りつづけています。 GPUを用いた高速性 AutoML で多数のモデルを効率よく作成する上で、ハードウェアの処理能力は高いにこしたことはありません。 DAI は他社の AIソリューションに先駆け、GPU の能力を最大限に引き出すことで処理を高速化することに成功。ビジネスのスピードアップを求める企業にとって最適なソリューションを提供します。 説明性・納得性 特徴量加工やパラメータチューニングの自動化によるモデル開発の効率化とならぶ提供価値と言えるのが、生成されたモデルについての優れた説明性です。 その部分がブラックボックスとなってしまう AIソリューションも多いなか、学習結果をきちんと説明している DAI の場合、モデルの意味を理解してスキルアップを図っていくことが可能です。   導入効果を最大化するハードウェアなど、多彩なオプションをフルスタックで取り揃え DAI を取り扱うベンダとして日本アイ・ビー・エムならではの強みと言えるのが、ユーザー企業の多様なニーズに応える製品やサービスのポートフォリオです。 ハードウェアについては、高速 GPU に加え、NVLink 対応の Power CPU を搭載する「IBM Power Systems AC922(以下AC922)」を提供。トライアンドエラーをスピード重視で繰り返す必要がある DAI環境として抜群の相性の良さを発揮し、AI活用の効率の最大化を実現します。 これらは、ソフトウェア・ハードウェアからクラウド基盤、さらにはサポートを含むソリューションまで、フルスタックで取り揃える IBM ならではの強みと言えます。加えて、環境構築はもちろん、活用フェーズにおいて個別企業のニーズにあわせた QAサービスを一定期間提供するなど、AI活用を確実に成功へと導く充実サポートについても提案しています。   <コラム:DAI on AC922を体験できる!セキュアなPoC環境をご用意> AC922 は、NVIDIA の高速 GPU「Tesla V100」を最大6枚搭載可能なほか、世界で唯一 NVLink2.0 のインターフェースを搭載する CPU Power9 を2基搭載。さらに、CAPI2.0+PCIe Gen4 などにより、圧倒的なパフォーマンスを実現しています。 実際に AC922 上で DAI を利用してそのパフォーマンスを試してみたい……という企業にぜひお勧めしたいのが、エヌアイシー・パートナーズの PoCサービスです。 下図スペックの環境を、インターネットVPN 経由でセキュアに利用できることから、製薬会社、製造業、通信会社など大手企業を中心に人気を集めています。AIツールとして、ここで紹介した DAI に加え、IBM Maximo Visual Inspection (旧 IBM Visual Insights)も搭載。数値データ分析だけでなく、画像データ分析のトライアルも可能です。 ハイスペック環境を無料で2週間お試しできるので、大量のデータを保有していて AI分析のための環境を検討中の企業は、お気軽にエヌアイシー・パートナーズに相談してみてはいかがでしょう。     この記事に関するお問合せ エヌアイシー・パートナーズ株式会社 企画本部 事業企画部 この記事に関するお問い合せは、「こちら」からお願いします。   参考情報 (ブログ)【やってみた】H2O DriverlessAIをIBM Power System AC922で動かして競馬予想する (その1) (コラム) AIによる需要予測は、どこまで使えるのか?成功と失敗の分岐点を解説 (コラム) 普及が進む、機械学習による異常検知。導入の課題はここまで解決している (製品資料) Driverless AI ご紹介資料 (事例) IBM AI ソリューションの事例ご紹介(IBM PowerAI Vison、Driverless AI) (IBMサイト)High Performance Computing (HPC) performance proof-points ※IBM Power System AC922 delivers 2.9X reduction in execution time of tested x86 systems  

2020年12月28日

データを守るということについて

IBM の岡田です。 いよいよシリーズ物、最後のテーマまでやってきました。 ここまでの内容はいかがでしたでしょうか?もう少しで完結しますので、最後までお付き合いいただければと思います。 さて、今回のテーマは「データを守ることについて」ということで、様々な脅威からどうやってデータを守るか、という内容でお届けします。   データを脅かす脅威とは 一昔前までは、データの脅威といえば人為的オペミス、装置の故障・障害、災害などが挙げられてました。しかし、最近はこれに加えサイバー攻撃といったものも加わってきております。 今まではサイバー攻撃というと、ネットワークあるいはサーバーにて対処すべきもの、という考え方が主流だったかと思います。これらはサイバーセキュリティという範疇の対策であり、今までも多くの製品やサービスによって培われてきた技術です。 しかし、昨今のサイバー攻撃はマルウェアが主流となっており、特にランサムウェアと呼ばれる攻撃が世間的にも目立ち始めてます。企業のデータを強制的に暗号化し解除するための身代金を要求するというものです。 確か最近ニュースで、日本での被害のとんでもない状況を目にした覚えがあります。調査対象の半数以上の企業は攻撃を受けた経験を持ち、実際に身代金を払った会社も調査対象の約3分の1あったということ、また、本当に支払われた身代金も平均が億を優に超える金額だったことに筆者も驚きました。 ということで、今回はストレージ技術にできるデータの保全について、従来の物理的な脅威から守ること、今日のサイバー攻撃から守ることの2つに分けてお話していきます。   物理的な脅威からデータを守る 止まらないシステムを構築するために、IT の世界では様々な対策が体系化し今日に至ってます。 全ての ITインフラを成す要素を冗長化するといったものはごく当たり前で、IT技術者なら必ず取っている対策ですね。機器自体も各パーツが冗長化されいつでもホットスワップでパーツ交換できるような仕組みになっているのが現在の IT機器です。 このように、シングルポイントになり得る構成をできる限り排除することで物理的な機器の障害や故障からシステムを守る、というのが今時当たり前のシステム設計なのはご存知の通りです。 データについてはどうでしょう。 システム構成の一部としてデータの通り道も冗長化されているのが昨今の設計ですが、データを貯める場所、つまりストレージについては過去より多くの技術が使われてきております。 パーツとしての HDD 等に用いられる磁気ディスクの盤面に書き込む際のフォーマットについては、ECC(Error Check and Correction)と呼ばれる技術、すなわちデータをビット化けや傷・汚れなどによるディスク上の脱落から計算により正しいデータを導くテクノロジーが用いられております。 さらに上のレイヤーでは、HDD や SSD などデイバイスの故障に対応するために、RAID といった技術が使われていることも多くの IT技術者はご存知でしょう。 最近は大容量下での再構成の長時間化などを改善するため、各社独自の RAID技術を駆使していたり、イレージャーコーディングといった、今まではディスク盤面などミクロな世界で行われていたような ECC をベースとした考え方を、装置・筐体といったレベルまで広げた技術などが使われ始めています。 最近のストレージ装置はユーザーに開放している論理ボリュームに対して、そのコピーを複数個筐体内に取って世代管理することもありますし、筐体間レプリケーションで別の安全な場所にコピーを取るということもできます。 そして、昔からあるオーソドックスな方法としては、ある時点のデータを静的に固めて安全な媒体に書き出して取っておく、所謂、バックアップが一番一般的ではないでしょうか? しかし、実はバックアップ技術も1990年代のような、ただテープ媒体などに静的データを単純にとれば良いという時代はとっくに終わっており、今やバックアップ先データ容量を極限まで抑える技術であったり、転送を効率的に行う技術であったり、いろいろな技術が併用されております。 少し簡単に紹介しましょう。以下にご紹介するのは IBM Spectrum Protect と呼ばれるバックアップソフトで使われている技術です。   1. 永久増分バックアップ 初回バックアップのみフルバックアップを取り、その後のバックアップは増分(差分)のみ。 こうすることでバックアップ先データに必要な容量を格段に節約することができますし、このデータを遠隔にレプリケーションする際もデータ量が少ないため、ネットワークに余計な負担をかけずに済みます。 図1. 永久増分バックアップ   2. 重複排除・圧縮技術 すでに枯れた技術で、ストレージ装置にも使われているものですが、特に重複排除については過去のバックアップデータとの重複もあるので、さらに効果が見込まれます。 また、VM などの仮想環境でも似たディスクイメージを扱うことで、重複排除率は格段に上がります。 図2. 重複排除   3. FASP技術 バックアップデータを DR 目的で遠隔に飛ばす際には、ネットワーク帯域を通常の TCP/IP より効率的に使用できる FASP(Fast Adaptive Secure Protocol)により、高速転送が可能となります。 図3. FASP転送   4. 今時のバックアップ先ストレージ バックアップのとり先といえば、昔はテープ、そしてディスクの時代があり、最近はまたテープが見直されてきています。 理由はもちろんビット単価であったり可搬性であったりが主ですが、後述するサイバー攻撃対策としても最近は注目されています。 最新技術活用という点では、クラウドのオブジェクトストレージにバックアップするというのも出てきています。その基本的な3形態を示したのが次の図です。 図4. バックアップ3形態   悪意のあるサイバー攻撃からデータを守る ここまでは、レガシーな考え方、つまり物理的な脅威への対策としての最新のバックアップ技術です。 ところが昨今はこう言った脅威のみならず、意図的なデータ破壊や改竄への脅威、つまりサイバー攻撃への対策というものが必要になってきています。 そもそも色々な技術の蓄積で現在のサイバーセキュリティ成り立っていますが、攻撃者とのいたちごっこであることは否めません。したがって、突破された際の対策というものも必要になります。 最近のデータによると、実際にハッカーあるいはマルウェア等に侵入されたことが発覚するまでの日数は数百日とも言われており、わかった時にはすでに多くのデータの破壊・改竄・漏洩がなされた後、ということになりかねません。 このうち、破壊・改竄はデータが失われる訳で、データを使った企業活動ができなくなるという致命的な結果になり得ます。ゆえに、破壊・改竄(ランサムウェアによる強制的暗号化も含む)への対策が必要となるわけです。 図5. サイバー攻撃の際、データが役に立たなくなる 多くの場合、ネットワーク越しにサイバー攻撃が行われます。つまり、バックアップがあるから大丈夫と思っていても同じネットワーク内にあれば同様に犯された使えないバックアップデータとなる可能性が出てきます。 そこで、覚えていただきたいキーワードがあります「エアギャップ」と「イミュータブル」。 サイバーレジリエンシーの基本的な考え方です。 図6. エアギャップ・イミュータブル 前者は、ネットワーク的なつながりのない場所・物・仕組みを指し、後者は、改竄できない場所・物・仕組みをさしています。 つまり、バックアップなどの最後の砦となりうるデータは、こういったエアギャップ対応、あるいはイミュータブル対応のなされたメディア・機器・場所・仕組みなどに置くことで、初めてサイバー攻撃からデータを守るということができるわけです。 もちろん RPO がゼロになるわけではないので失うものも若干ありますが、億単位の身代金を支払うことからは救われます。 RPO をゼロに近くするためには当然、検知能力を上げる他ありません。 サイバーセキュリティで 100%検知できればこのような不幸は起こりませんが、万一気づかずネットワーク内に攻撃が入ってしまった場合も、データ側の仕組みで検知することもできるかもしれません。以下に二つの検知技術を紹介します。 図7. IBM Spectrum Protect の検知機能 こちらは、定常状態と大きなデータの変化のあった状態との差からサイバー攻撃の可能性の有無をチェックする機構です。 データが暗号化されたり破壊されたりすると、直前のバックアップデータとは大きく異なるデータとなるため、当然の事ながら重複排除率は極端に低くなります。さらに、圧縮率やファイルの増加数など、定常時とは異なる変化が現れるでしょう。 そういった変化を検知することで、データに何か大きな変化があったこと、すなわち破壊・改竄の可能性をいち早く検知することができるわけです。 次に、例えば IBM の Spectrum Scale には File Audit Logging という機能があります。 これをサイバーセキュリティの仕組みで検知系に繋げてあげれば、いち早くおかしなデータから本番データを守ることができるわけです。 図8. IBM Spectrum ScaleとQradar によるサイバー攻撃の検知   サーバー攻撃と対策のいたちごっこは、これからも続いていくでしょう。 しかし、アンチウィルス系の対策のようにウィルス自体のシグネーチャーやパターンに頼った対策は、必ず後手となります。そういう意味で、定常状態との変化で検知する方法は非常に有効な手段かと思われます。 ぜひ有効な対策を打って、備えを万全にしていきましょう!   約半年にわたってブログを書かせていただきましたが、少しでも IT を担う皆様にお役に立つことができると幸いです。 ありがとうございました!     この記事に関するお問合せ エヌアイシー・パートナーズ株式会社 企画本部 事業企画部 この記事に関するお問い合せは、「こちら」からお願いします。   参考ページ IBMストレージ製品 全包囲網。。。最新 IBMストレージ 概要 OpenShiftに代表されるコンテナ環境へのIBMストレージの対応 ハイブリッド/マルチクラウド時代だからこそIBMのストレージ AI導入はどこまで現実的? 5大ハードルとその解決策を解説 普及が進む、機械学習による異常検知。導入の課題はここまで解決している (IBMサイト) データ・ファーストのハイブリッドクラウド基盤を実現するIBMストレージ (IBMサイト) ハイブリッドクラウドにおけるデータ連携の鍵を握るもの  

back to top