エッジAIとは何か:エッジへの人工知能の導入

エッジAIは、エッジ コンピューティング環境への人工知能アルゴリズムやモデルの導入を表したもので、エッジ サイトとクラウド間の連続的な通信ストリームを一部軽減するために、意思決定が行われる場所の近くに計算処理能力とインテリジェンスを配置します。エッジAIによって、ネットワークの周辺部にあるデバイスはデータをローカルに処理でき、処理をインターネット接続や一元的なクラウド サーバに依存することなく、リアルタイムの意思決定が可能になり、計算処理速度が向上し、データのプライバシーとセキュリティが強化されます。

エッジAIの概要

エッジAIは、人工知能、モノのインターネット(IoT)、エッジ コンピューティング、組み込みシステムなどの複数のテクノロジの集合体であり、ネットワークのエッジでインテリジェントな処理と意思決定を可能にする上でそれぞれが重要な役割を果たします。エッジAIは、組み込みのアルゴリズムを使用してリモート システムの活動を監視するだけでなく、非構造化データ(温度、言語、顔、動き、画像、近接性、その他のアナログ入力情報)のセンサーやその他のトラッカーといったデバイスが収集したデータを処理します。

これらのリモート システムには、センサー、スマートフォン、IoTデバイス、ドローン、カメラ、さらには車両やスマート家電など、さまざまな形態があります。こうしたシステムから収集されたデータは、エッジAIアルゴリズムの入力データとして使用され、システムやその環境の状態に関する有用な情報を提供します。エッジAIシステムはこの情報を使用して変化や異常に速やかに対応し、それらの運用環境を認識します。これらのエッジAIアプリケーションを中央管理型のクラウド環境や企業データ センタ環境で運用することは、コスト、遅延、帯域幅、セキュリティ、プライバシーに関連する問題から非現実的であり、不可能でしょう。

エッジAIには、以下のような広範なユース ケースがあります。

  • 自律走行車。エッジAIによって、車両はクラウド接続を常時利用することなく、センサー データをリアルタイムで分析して、物体検出、車線追跡、衝突回避などのタスクで瞬時に判断を下すことができます。
  • スマート シティ。市街地に設置されたセンサーやカメラから送られてくるデータを、交通規制、治安監視、廃棄物管理、エネルギー最適化などのさまざまなスマート シティ アプリケーションに活用できます。
  • 農業環境モニタリング。エッジAIは、センサーやドローン、衛星画像のデータを分析して作物の健康状態の監視、灌漑の最適化、害虫発生の検出、環境条件のリアルタイム分析などを行うことで、精密農業をサポートします。
  • インダストリアルIoT。製造装置やセンサーにAIアルゴリズムを直接導入することで、中央のサーバを利用しなくても、エッジ デバイスが機械の稼働状態を監視して欠陥を検出し、生産プロセスを最適化できます。
  • 医療モニタリング。エッジAIは、ウェアラブル デバイス、医療センサー、画像処理装置から送られてくるデータを分析して医療データのリアルタイム分析を行い、潜在的な疾患を医療提供者に警告して、遠隔患者モニタリングや個別化医療をサポートします。

エッジAIとクラウドAIの違い

AIアルゴリズムやモデルの主な導入手法には、エッジとクラウドの2つがあります。クラウドとエッジ サイトにまたがるシステムを統合する手法は「クラウドイン」または「エッジアウト」と呼ばれ、いずれもパフォーマンス、セキュリティ、運用に影響を及ぼします。

エッジAIでは、リモート デバイスにAIを展開してネットワーク エッジや分散環境でのリアルタイム処理と意思決定を可能にします。これらのシステムではネットワーク接続を使用したりデータを中央のサーバに送信したりすることなく、ローカルでデータを大規模に分析することができるため、遅延と応答時間が短縮されます。また、エッジAIシステムでは機密データがローカルに保存されるため、クラウドにデータを送信することに伴うプライバシー侵害やセキュリティのリスクが軽減されます。

エッジAIの例としては、ローカルに展開されたAIを使用してセンサー データを分析し、リアルタイムで運転を判断する自律走行車や、エッジAIを使用して音声コマンドを処理したり敷地内への侵入者を監視したりするスマート ホーム デバイスなどがあります。

一方、クラウドAIは、AIアルゴリズムやモデルを中央のクラウド サーバに展開して大規模なデータ処理や、学習、推論を行うことを特徴としています。大半のコンピューティング機能はクラウド リソースから提供され、膨大な計算処理能力が必要なディープ ラーニング学習やビッグ データ解析などの複雑なAIタスクを行います。クラウドAIソリューションは、大量のデータやユーザーに合わせて簡単にスケーリングでき、高いスループットが必要な用途やリソースを大量に消費する用途に適しています。

広範なユーザー データに基づいて新製品や代替製品の選択肢を消費者に提供するためにAmazonやNetflixで使用されているレコメンド エンジンは、機能を最適化するために大量の計算リソースを必要とする大規模クラウドAIシステムの一例です。

他に、特定の顧客ニーズを満たすためにエッジAIとクラウドAIの両方を利用するAIユース ケースもあります。実際の例として、シンガポールを拠点とするAI・データ プラットフォーム プロバイダSentient.ioがあります。同社は、企業がAIを既存のワークフローに簡単に統合できる、革新的AIサービスのハブSentient Marketplaceを開発しました。このマーケットプレースは急速な成功を収めましたが、同社はオンプレミス、パブリック クラウド、プライベート クラウド、エッジなど、分散した環境でAIサービスを運用して展開することの難しさも含め、いくつかの複雑な課題に直面しました。

顧客サイトで複数のプロバイダにわたってクラウドプロバイダ ソリューションを運用する場合、それぞれのソリューションが独自のKubernetesディストリビューションを提供することがあり、これがプラットフォームを各クラウド環境で使用する組織にとって大きな問題となりました。また、SentientのAIモデルを顧客サイトに展開するプロセスも煩雑で、エッジ サイトごとにオンプレミスのKubernetes環境を設定し、新しいモデルの更新と同期を手動で行う必要がありました。そのため、運用は複雑化し、ワークフローのオーケストレーションやセキュリティ ポリシーの一貫性が損なわれました。

そこでSentient.ioはF5と連携し、オンプレミス、クラウド、エッジの各拠点への導入を簡素化する、エンタープライズ対応のKubernetesプラットフォーム、F5 Distributed Cloud App Stackを使用して、すぐに使えるエンタープライズグレードのAIを「アズ ア サービス」ソリューションとしてさまざまな業種の顧客に提供しました。このソリューションは、Sentientの運用を合理化し、遅延を短縮してエッジでのリアルタイムAI処理を可能にしました。エッジで推論を提供することで、地理的な場所に起因するネットワークと帯域幅の制約が解消され、リアルタイムでただちにアプリケーションに推論が提供されます。このモデル導入の転換により、Sentient.ioは価値実現までの時間を短縮しながら、顧客に高いパフォーマンスのAIアプリケーションを提供し、リソースの割り当てを最適化して、運用コスト全体を引き下げ、アプリケーションとAPIセキュリティをネイティブに統合することができました。

またこの連携により、複数のクラウド プラットフォームを手動で管理していた従来のプロセスに比べて、コストを大幅に削減できました。従来のプロセスには専任チームが必要で、かなりのリソース コストがかかっていたのです。F5 Distributed Cloud ServicesによってSentientは運用を簡素化することができ、リソースを最適化してアプリケーション管理を簡素化することでコスト削減に成功し、他の戦略的イニシアティブを強化するためのリソースを確保することができました。

エッジAIへのアクセス

エッジAIへのアクセスでは、デバイス、テクノロジ、インフラストラクチャ コンポーネント、統合を組み合わせて導入し、ネットワーク エッジにあるAI機能に効率よくアクセスして利用できるようにする必要があります。これには以下が含まれます。

  • エッジ デバイス。センサーとマイクロコントローラが組み込まれたエッジ デバイスは、物理的環境からデータを収集し、ローカル処理のためのエッジAIモデルをホストすることができます。IoTデバイスの例として、スマート サーモスタット、監視カメラ、土壌水分モニター、産業用センサーなどがあります。またエッジ デバイスには、スマートフォンやタブレット コンピュータなどが含まれ、周囲の環境を検知するだけでなく、その処理能力と接続性を利用してエッジAIタスクを実行できます。
  • テクノロジ。ネットワーク エッジでAIシステムを運用するには、多くの特殊なテクノロジが必要です。これには、リソースに制約のあるデバイスに導入できるよう最適化された学習済みアルゴリズムやAIモデルなどがあります。システム開発や導入を簡素化するためのツールやライブラリを提供する、エッジAIフレームワークやプラットフォームも利用できます。
  • インフラストラクチャ。エッジAIデバイスが必要に応じて互いに、そして中央のサーバと通信するには、有線であれ無線であれ、信頼性の高いネットワーク接続が必要であり、こうしたデバイスにはエッジ サーバ、ゲートウェイ、ルーターといったハードウェア コンポーネントが含まれます。さらにAPIはAIアーキテクチャの要であり、APIによってさまざまなコンポーネントとサービスが互いに通信したりデータや命令を交換したりすることができます。
  • 統合。エッジAIシステムは、データへのアクセスを可能にし、拡張性やシステムの他のコンポーネントとの互換性を確保し、管理の複雑さを緩和するために、既存のネットワークやインフラストラクチャに統合できなくてはなりません。

また、エッジAIを導入し、これにアクセスする上で、以下の課題と制約があることも考慮してください。

  • 計算処理能力と接続性の制約。ほとんどのエッジ デバイスは、処理能力、メモリ、ストレージが限られるため、エッジで運用できるAIモデルの複雑さとサイズが制限されます。また、エッジ デバイスは、ネットワーク接続の選択肢が限られた環境で運用されることが多く、エッジAIシステムの応答性、パフォーマンス、信頼性にも影響を与えます。
  • コストと可用性。多くのAIモデルは、グラフィック プロセッシング ユニット(GPU)やデータ プロセッシング ユニット(DPU)などのワークロード アクセラレータによる高速処理を活用しますが、特にGPUはコストが高く、小型化されたフォーム ファクタで使用するにはサイズが大きすぎるという物理的制約もあります。そのため、エッジ デバイスに導入できるAIアルゴリズムのタイプは限られ、これに代わる最適化技術が必要になる場合があります。
  • データ プライバシー。一部のエッジAIシステムでは機密データや保護対象データをローカルで生成して処理するため、データ プライバシーや、HIPAA、GDPRといった規制へのコンプライアンスに関する懸念が生じます。データ プライバシーや法的要件へのコンプライアンスを確保するには、適切なデータ匿名化、暗号化、アクセス制御手段を導入する必要があります。
  • デバイス管理。地理的に分散した拠点にエッジAIシステムを導入、監視、更新、維持することは難しい場合があり、効率的な管理ツールとプラットフォームが必要です。

 

エッジAIのセキュリティ対策

エッジAIの導入でデータを保護し、セキュリティ リスクを緩和するには、セキュリティへの多層的手法を重視した総合的なアプローチが必要です。エッジAIは、データから学習し、経験に基づいて行動を進化させる能力など、重要な点で従来のコンピューティング ワークロードとは異なりますが、セキュリティ要件という点では従来のIoTシステムと多くの共通点があり、次のような多くのリスクを共有しています。

  • マルウェアとサイバー攻撃。エッジAIデバイスは、適切な対策を講じない限り、マルウェア感染、サイバー攻撃、遠隔操作による悪用などの影響を受けやすく、ウイルス対策ソフトウェアや侵入検知システムの導入、定期的なソフトウェア更新はあらゆるエッジAIセキュリティ戦略に不可欠です。
  • ネットワーク セキュリティ。エッジAIデバイスは通常、デバイス同士で、または中央のサーバとネットワークを介して通信するため、ネットワーク攻撃の標的となる可能性があります。暗号化、認証、アクセス制御などのメカニズムを使用してネットワーク通信を保護することで、送信中のデータを守り、ネットワーク リソースへの不正アクセスを防ぐことができます。
  • データの整合性。AIモデルや意思決定プロセスの精度と信頼性を維持するには、エッジAIデバイスが処理するデータの整合性を守らなければなりません。データの改ざん、操作、破損を検知して緩和するには、データ検証、チェックサム、整合性チェックを導入してデータ入力の信頼性と一貫性を検証する必要があります。
  • 物理的セキュリティ。エッジAIデバイスはリモートの過酷な環境に配置されることが多く、損傷、物理的改ざん、盗難、破壊行為などを受けやすくなります。耐タンパー性を備えた筐体や監視カメラなどの物理的な対策が、損傷や操作、不正アクセスからデバイスを保護するのに役立ちます。
  • APIセキュリティ。プラグインなどのAIエコシステムは、APIを介して円滑に利用できますが、APIは、脆弱性や設定ミスを突かれたり、悪用されたり、認証・認可制御が不十分であると回避して攻撃されたりする可能性があります。
  • 大規模言語モデル(LLM)のセキュリティ。LLMと、生成AIアプリケーションの意思決定に関連する学習・推論プロセスには、プロンプト インジェクション、データ ポイズニング、ハルシネーション、バイアスといった多くのリスクがあります。

エッジAIアプリケーションなど、LLMをベースとしたAIシステムの導入と管理に伴うセキュリティ リスクの詳細な検討については、「大規模言語モデル アプリケーションのOWASP Top 10」をご覧ください。こちらは、脆弱性に対する意識を高め、修復方法を提案し、LLMアプリケーションのセキュリティ体制を改善することを目的としています。

エッジAIの最適化戦略

ネットワーク エッジなどの遠隔地に配置されるという性質上、パフォーマンス、リソース利用率、セキュリティ、その他を考慮しながらエッジAIインフラストラクチャを最適化することが重要になります。ただし、リソースに制約のあるデバイスの効率とパフォーマンスを最適化することは、難しい場合があります。これは、計算処理能力やメモリ、エネルギーなどの要件を最小限に抑えることと、満足できるパフォーマンスを維持することが、多くの場合、トレードオフの関係にあるためです。

エッジAIにおけるパフォーマンスの向上

エネルギー消費を抑えながらエッジの計算処理性能を最適化する方法はいくつかあります。低電力モード、スリープ状態、動的電源電圧周波数制御(DVFS)などの省エネ技術を導入することで、エネルギー消費を抑えることができます。GPUやDPUなどのハードウェア アクセラレータは、CPUから計算処理負荷の高いタスクをオフロードして、推論速度を引き上げます。動的バッチング、適応推論、スパース モデリングなどの技術を活用して、パフォーマンスを維持しながらリソース利用率を最適化します。負荷の低いタスクはCPUが処理する可能性があり、分散性の高いアーキテクチャではリソース プーリングの重要性が浮き彫りなります。

エッジ コンピューティングの適応モデル

エッジAIデバイスでは計算リソースが限られていることが多く、エッジ デバイスに最適化された軽量AIモデルを導入する必要があります。つまり、デバイス リソースやアプリケーション要件に最適なモデルを選ぶ際に、モデルの複雑さ、精度、推論速度の間でバランスをとらなければなりません。モデルの量子化、プルーニング、知識蒸留といった技術は、パフォーマンスを大きく低下させることなくAIモデルのサイズを小さくするのに役立ちます。

エッジに最適化されたセキュリティ

「境界の消失(Dissolving Perimeter)」とは、モバイル デバイスやクラウド、エッジ コンピューティングなどの要素によって従来のネットワーク境界が曖昧になりつつあることを指します。エッジAIにおいて、境界の消失とは、リモート環境や動的ネットワーク環境のネットワーク エッジに通常配置されているエッジAIデバイスが、データ センタやクラウド環境の外側で、そして従来の境界ベースのセキュリティ対策(ファイアウォール、侵入検知システムなど)の外側で運用されることを意味します。その結果、エッジAIセキュリティは、特殊な要件を持つようになり、セキュリティ管理と可視性の確保が難しい、隔離された場所や複雑な分散環境で、不正アクセスといった脅威から保護できるよう最適化しなければなりません。

また、APIは、AIアプリケーションのさまざまな部分にデータや命令を交換するための結合組織を提供します。このAPI接続とこれを通過するデータの保護は、AI対応アプリケーションを導入する企業が必ず直面する重要なセキュリティ課題であり、エンドポイントを動的に検知してさまざまなリスクから自動的に保護する、WebアプリケーションとAPIの保護サービスの導入が不可欠です。

大規模言語モデルのセキュリティ

LMMは、膨大な文字データをベースとした人工知能モデルであり、学習することで、自然言語を理解し、人間のように流暢で一貫した、優れた自然言語を生成します。生成AIアプリケーションの中核であるLLMは通常、インターネットから体系的に収集された入力データやコンテンツ(オンライン書籍や投稿、Webサイト、記事など)を学習します。しかし、この入力データが攻撃者の攻撃にさらされます。攻撃者は入力データを意図的に操作して、生成AIモデルを誤った方向に導いたり、パフォーマンスを侵害したりすることで、脆弱性、バイアス、生成される情報の信頼性の低下、プライバシー侵害、不正コードの実行などを引き起こします。

LLMで上位に挙げられるセキュリティ リスクは次のとおりです。

  • プロンプト インジェクション。攻撃者は、LMM入力プロンプトを操作して生成される出力に影響を与え、偏った内容や攻撃的な内容、不正確な内容を生成させて、LLMが生成した出力の信頼性と確実性を損ないます。
  • モデル ポイズニング。この攻撃は、LLMの動作を操ったり、パフォーマンスを低下させたりするために、LLMの学習段階で悪意あるデータを注入します。攻撃者は汚染されたデータ サンプルを学習データセットに紛れ込ませることで、学習したLLMモデルにバイアスや脆弱性、バックドアを組み込みます。
  • モデル サービス拒否(DoS)。この攻撃は、LLMの可用性とパフォーマンスを標的とし、リクエストのトークン化やLLMコンテキストのウィンドウしきい値を超える、悪意あるリクエストや入力情報を大量に送り付けて、速度低下、混乱、サービス停止を引き起こします。このリソース枯渇攻撃は、パフォーマンス低下やシステムの不安定化を招き、AIシステムの可用性と信頼性に悪影響を与え、モデルの学習能力とユーザー プロンプトへの応答性を損ないます。

こうしたセキュリティ上の課題に対処するには、悪意をもって細工された入力でモデルが操作されないよう、プロンプト インジェクションを防止し、プロンプトのサニタイズ、入力検証、プロンプト フィルタリングなどの手法を組み込んだ、多面的なアプローチが必要です。DoS攻撃に対抗するには、レート制限、異常検知、行動分析を含む多層的な防御戦略を立てて、疑わしい、悪意あるネットワーク活動を検知して特定します。これらのリスクを効果的に管理するために、業界は進化し続けており、アプリケーション スタックにおけるLLMプロキシ、ファイアウォール、ゲートウェイ、安全なミドルウェアの開発が急速に進められています。

エッジAIの未来

エッジAIは、急速に進化するネットワーク エッジのテクノロジの一部であり、インテリジェントで応答性に優れ、より高効率のコンピューティング環境の新時代を切り拓こうとしています。プロセッサ、ネットワーク、ソフトウェア、セキュリティの進化の接点にあるこうしたテクノロジは、あらゆる業界にわたりイノベーションと変革の新たな可能性を引き出しています。これらのエッジ コンピューティングのユース ケースでは、ネットワーク エッジにおけるリアルタイム分析と意思決定が活用され、組織は、データをそのソースに近い場所で処理して分析し、遅延の影響を受けやすいアプリケーションの応答時間を短縮して、リアルタイムでコンテンツを確実に提供しています。

また、ネットワーク エッジにコンピューティング リソースを分散することで、変化するワークロード ニーズに迅速に対応してリソースの利用率を最適化し、システムのパフォーマンスと効率全体を改善することもできます。こうした可能性に貢献しているのが、エッジ コンピューティング インフラストラクチャの専用コンポーネントの進化であり、その例として、エッジ サーバ、エッジ コンピューティング プラットフォームとライブラリ、そして、エッジAIアプリケーションをサポートするために必要な計算処理能力、ストレージ、ネットワーク リソースを提供するAIオンチップ プロセッサがあります。

エッジAIは、ネットワーク エッジにおけるインフラストラクチャの再興を推進する上で重要な役割を担い、AIとIoTの統合はエッジにおけるインテリジェントな意思決定を牽引し続け、医療、産業オートメーション、ロボット工学、スマート インフラストラクチャなどの革新的な用途を推し進めています。

TinyMLは、マイクロコントローラやエッジAIデバイスなど、リソースに制約のあるエッジ デバイスへの導入に向けて最適化された、軽量ソフトウェアMLモデルとアルゴリズムの構築に照準を合わせたML・AI技術へのアプローチです。TinyMLベースのアルゴリズムは、エネルギー効率に優れ、クラウド リソースを利用しなくても推論タスクをローカルで実行できるよう設計されています。

さらに、DPUなどのコンパクトで強力なプロセッサは、CPUからデータ処理タスクをオフロードして加速するよう設計された特殊なハードウェア コンポーネントであり、パフォーマンスと拡張性を高めるために大量のデータを効率的に処理することが不可欠であるエッジ コンピューティングやAI/MLのワークロードで使用されることが増えています。エネルギーを大量に消費するGPUソリューションの使用が電力面の制約によって制限されかねないエッジ コンピューティング環境では、この効率性が特に価値を発揮します。

エッジからクラウド、そしてデータ センタへと連続した環境でこれらのイノベーションをつなげることが、ハイブリッド、マルチクラウド、エッジ コンピューティングのリソースを含む分散アーキテクチャ全体でシームレスなデータ処理、分析、可観測性を可能にする新世代のネットワーク ソリューションです。こうしたネットワークは、エッジ コンピューティング プラットフォームの重要なコンポーネントであるAPIへの依存度をますます高めるでしょう。それは、APIが通信、統合、自動化を容易にし、分散コンピューティング環境内でシームレスなデータ交換と同期を可能にするためです。またAPIは、標準化されたインターフェイスを提供して、多様なエッジ デバイス、システム、サービス間の相互運用性を実現することで、エッジのリソースやサービスの動的なプロビジョニング、管理、制御も可能にします。

これらの多岐にわたる分散アーキテクチャでは、データ ソースの近くにあるエッジ デバイスから、データ センタにある中央または分散クラウド サーバまで、この連続した環境の複数のポイントでデータを安全に処理して分析することができます。このエッジからあらゆる場所まで連続した環境により、組織は複数のコンピューティング環境が持つ強みを安全に活用し、従来のワークロードとAIワークロードを統合して、最新のアプリケーションの多様な要件を満たすことができます。

F5がお手伝いできること

F5は、ネットワーク エッジのAPIアプリケーションを含む、連続的な分散環境内のどの場所でも、あらゆるアプリケーションとAPIを保護し、提供して、最適化する唯一のソリューション プロバイダです。AIベースのアプリケーションはモダン アプリケーションの中でも最先端のものであり、LLMリスクや分散推論など、GenAIを採用したシステムに特有の考慮事項があると同時に、遅延、サービス拒否攻撃、ソフトウェア脆弱性、ボットや悪意ある自動化を使用した攻撃者による悪用などの標的でもあります。

AI主導の新しいデジタル エクスペリエンスは高度に分散され、データ ソース、モデル、サービスがオンプレミス、クラウド、エッジ環境全体に混在し、これらすべてが拡大し続けるAPIネットワークで接続されているため、深刻なセキュリティの課題を生み出しています。これらのAPI接続とそれを通過するデータの保護は、企業がAI対応サービスをさらに導入する際に直面する重大なセキュリティ課題です。

F5 Distributed Cloud Servicesは、業界で最も包括的なAI対応APIセキュリティ ソリューションであり、AIを利用した巧妙な脅威に対抗するためのAPIコード テスト機能とテレメトリ分析機能を備え、マルチクラウドとエッジのアプリケーション環境の保護と管理を容易にします。F5のマルチクラウド ネットワーキング ソリューションは、トラフィックの最適化を伴うSaaSベースのネットワーキングと、パブリック クラウド、プライベート クラウド、エッジへの導入が可能なセキュリティ サービスを1つのコンソールで提供し、クラウド依存サービスや複数のサードパーティ ベンダーの管理負担を軽減します。F5のネットワーク ソリューションなら、AI導入を加速させ、エンドツーエンドでポリシーを管理し、完全自動化対応で信頼性の高いインフラストラクチャの可観測性を確保できます。

また、新たに登場したF5 AI Data Fabricは、顧客がより多くの情報に基づいて意思決定を行い、迅速にアクションを行うのに役立つ革新的なソリューションを構築するための基盤です。Distributed Cloud Services、BIG-IP、NGINXのテレメトリを組み合わせることで、比類のないインサイトを提供し、リアルタイムでレポートを生成し、アクションを自動化して、AIエージェントを強化することができます。

またF5がリリースするAIアシスタントにより、顧客が自然言語インターフェイスでF5ソリューションと対話して管理する方法が変わります。F5 AI Data Fabricを搭載したAIアシスタントは、データを可視化して異常を検知し、ポリシー設定を照会して生成し、修復手順を適用します。また、AIアシスタントは、組み込みの顧客サポート マネージャーとしても機能し、顧客が質問すると、製品のナレッジベース全体を学習したモデルに基づいた提案が返されます。

データ センタからエッジまで、AIベースのアプリケーションを強化し、保護することにより、F5ソリューションは、予測どおりのパフォーマンスとセキュリティを発揮する強力なツールを提供し、お客様はAI投資から最大限の価値を得ることができます。