F5 2025 テクノロジー展望

執筆者

ロリ・マクヴィッティ、優秀エンジニア
ローラン・ケレル、優秀エンジニア
オスカー・スペンサー、主任エンジニア

ケン・アローラ、優秀エンジニア
クナル・アナンド、最高イノベーション責任者
ジェームズ・ヘンダーガート・シニア 監督 テクノロジー研究

生成 AI は確かに 2024 年に企業に最も大きな影響を与えるものの 1 つですが、大きな波を起こすトレンドやテクノロジーはそれだけではありません。 コストと複雑さの渦により、特にストレージとデータを中心に、パブリック クラウドからのワークロードの回帰が進んでいます。 この動きは、エンタープライズ データ ハウスに AI の可能性を活用させる必要性によっても推進されていることは間違いありません。

これにより、企業はパブリック クラウド、オンプレミス、エッジ コンピューティングにまたがるハイブリッド IT 資産を抱えることになります。 パブリック クラウドからオンプレミスへのワークロードの大幅な移行は予想されますが、企業が特定の場所に「全面的に」移行するとは考えていません。 彼らはこれまで通り、頑固にハイブリッドなままです。

これにより、企業は異なる環境間でセキュリティ、配信、運用を標準化するという大きな課題に直面します。 混乱を招く API とツールの配列は、デジタル ビジネスの安定性と規模に対する脅威として依然として存在しています。

これは、F5 がテクノロジーとそれが企業にどのような影響を与えるか、そしてその結果としてapplicationの配信とセキュリティにどのような影響を与えるかを調査している背景です。 その結果は、私たちの計画、戦略、そして新興技術のさらなる探求に影響を与えます。 このような観点から、F5 の厳選された技術専門家グループが、2025 年に企業、ひいてはapplication配信に最も大きな影響を与えると考えられる 5 つの主要技術に関する見解を提供します。

2025 年のテクノロジー #1: ウェブアセンブリ

この現実が、2025 年に注目すべき最初のテクノロジーである WebAssembly (Wasm) を推進しています。 Wasm は、ハイブリッド マルチクラウド環境全体にわたる移植性へのパスを提供し、Wasm ランタイムが動作できる場所であればどこでもapplicationsをデプロイして実行できるようにします。 しかし、Wasm はコードの相互移植性を実現するという約束を単に実現したものではありません。 パフォーマンスとセキュリティ関連の利点を提供すると同時に、ブラウザベースのapplicationsの機能を強化するための新たな可能性を切り開きます。

主任エンジニアのオスカー・スペンサー氏は次のように説明しています。

ブラウザの WebAssembly は、2025 年を通じて大幅な変更が行われる予定はありません。 最も重要なアップデートは、すでに Chrome に統合されている WebAssembly ガベージ コレクション (GC) の継続的なサポートです。 これは、GC に大きく依存し、ブラウザ環境での存在感を拡大しようとしている Dart や Kotlin などの言語に役立ちます。 ブラウザ内での Python の使用が改善される可能性もありますが、その影響全体を予測するのはまだ早い段階です。

しかし、より大きな進展は、WASI (WebAssembly System Interface) Preview 3 のリリースにより、ブラウザー外で起こっています。 このアップデートでは、非同期とストリームが導入され、プロキシなどのさまざまなコンテキストでのストリーミング データに関する大きな問題が解決されます。 WASI プレビュー 3 は、Wasm モジュール内外へのデータの移動を処理するための効率的な方法を提供し、リクエスト本体全体を処理せずにヘッダーを変更するなど、データ処理を細かく制御できるようにします。 さらに、async の導入により言語間の構成性が向上し、async コードと sync コード間のシームレスなやり取りが可能になり、特に Wasm ネイティブ言語にメリットをもたらします。 WASI 標準が安定するにつれて、Wasm の採用が大幅に増加し、開発者にこれらの進歩に基づいて構築するための堅牢なツールと信頼性の高いプラットフォームが提供されると予想されます。

Wasm が以前のテクノロジーに固有の移植性の問題の一部を解決できると仮定すると、現在 95% の組織が苦労している移植性の問題が、運用などの IT テクノロジー スタックの他の重要なレイヤーに移行することになります。

その課題に挑むのが生成的 AI であり、AIOps というますます現実的な未来です。 フルスタックの可観測性に基づく AI ベースの分析によって変更やポリシーが実行されるという、この幻想的な運用観は、生成 AI の驚異的な進化速度のおかげで、日々現実に近づいています。

2025 年のテクノロジー #2: エージェント AI

1年も経たないうちに、AIの機能に代わるエージェントが登場しました。 「エージェント AI」と呼ばれるこの機能は、業務を再構築するだけでなく、エンタープライズ ソフトウェア市場全体を置き換える可能性を秘めています。 この機能がどれほど破壊的であるかを知るには、ほぼ 20 年間 SaaS が主流であったワークフローを自動化するために AI が使用されていることに注目するだけで十分です。

著名なエンジニアであるローラン・ケレル氏は次のように説明しています。

自律コーディングエージェントは、コード生成、テスト、最適化などの主要なタスクを自動化することで、ソフトウェア開発に革命をもたらす準備ができています。 これらのエージェントにより、開発プロセスが大幅に合理化され、手作業の労力が削減され、プロジェクトのタイムラインが短縮されます。 一方、大規模マルチモーダルエージェント (LMA) の出現により、AI の機能はテキストベースの検索を超えて、より複雑なインタラクションにまで拡張されます。 これらのエージェントは Web ページと対話し、テキスト、画像、ビデオなどのさまざまな形式から情報を抽出して、オンライン コンテンツにアクセスして処理する方法を強化します。

AI エージェントがインターネットを再構築するにつれ、ウェブサイトとの安全かつ効率的なやり取りを促進するように設計されたエージェント固有のブラウジング インフラストラクチャが開発されるでしょう。 この変化は、複雑な Web タスクを自動化し、よりパーソナライズされたインタラクティブなオンライン エクスペリエンスを実現することで、e コマースなどの業界に混乱をもたらす可能性があります。 しかし、これらのエージェントが日常生活にさらに統合されるようになると、AI 認証、データのプライバシー、および潜在的な悪用に関連する懸念を管理するために、新しいセキュリティ プロトコルと規制が不可欠になります。 2028 年までに、エンタープライズ ソフトウェアの大部分に AI エージェントが組み込まれ、作業プロセスが変革され、反復ワークフローでのトークン生成が高速化されてリアルタイムの意思決定が可能になると予想されます。 この進化は、エージェント駆動型 Web 開発のための新しいツールとプラットフォームの作成にもつながり、デジタル環境における重要なマイルストーンとなるでしょう。

しかし、実際には、AI の利点を最大限に活用するには、大量のデータが必要です。 ほぼ半数 (47%) の組織が AI に関するデータ戦略を導入していないことを認めていることを考えると、これは大きな課題です。 それは簡単な挑戦ではありません。 組織が保有するデータ(構造化データ、非構造化データ、リアルタイム メトリック)の量は、驚くほど膨大です。 そのデータをカタログ化するだけでも、多大な投資が必要になります。

2025 年のテクノロジー #3: データ分類

攻撃対象領域の劇的な増加によるセキュリティ上の懸念、データのプライバシーとコンプライアンスに関する新しい規制、新しいデータ ソースと脅威ベクトルの導入が加わると、堅牢なリアルタイム データ分類テクノロジの台頭に向けた完璧な嵐が起こります。 つまり、生成 AI モデルは、企業データの検出と分類において、従来のルールベースのシステムを上回ることが期待されています。

ジェームズ・ヘンダーガート・シニア 監督 Technology Research は次のように説明しています。

2024 年には、いくつかの傾向が収束したことにより、データ分類の重要性が急上昇しました。 データ、デバイス、applicationsの爆発的な増加と進行中のデジタル トランスフォーメーションにより、サイバー脅威の攻撃対象領域が劇的に増加しました。 こうした脆弱性の増加と、継続的なデータ侵害が相まって、堅牢なデータ保護の必要性が強調されました。 同時に、データプライバシーの保護とコンプライアンスの確保を目的とした規制の拡大により、分類がプライバシーの出発点となるため、組織はデータ分類を優先するようになりました。 さらに、生成 AI の台頭により、新しいデータ ソースと攻撃ベクトルが導入され、データ セキュリティの課題がさらに複雑化しました。

企業データのおよそ 80% は非構造化データです。 今後、生成 AI モデルは、95% を超える精度を実現し、非構造化エンタープライズ データを検出および分類するための推奨方法となるでしょう。 これらのモデルは時間の経過とともに効率化され、必要な計算能力が少なくなり、推論時間が短縮されます。 データ セキュリティポスチャ管理 (DSPM)、データ損失防止 (DLP)、データ アクセス ガバナンスなどのソリューションは、さまざまなセキュリティ サービスを提供するための基盤として、機密データの検出と分類にますます依存するようになります。 ネットワークとデータ配信サービスが融合するにつれて、プラットフォームの統合によりベンダーは提供内容を強化し、進化する企業のニーズを満たす包括的でコスト効率が高く、使いやすいプラットフォームを提供することで市場シェアを獲得することを目指すようになります。

組織が AI 機能を導入し始めると、生産性からワークフローの自動化、コンテンツ作成まで、あらゆることに生成 AI を活用したいという組織全体の共通の願望が、新しいapplicationアーキテクチャ パターンの導入につながっています。 このパターンは、従来の 3 つの焦点層 (クライアント、サーバー、データ) を拡張し、推論が展開される新しい AI 層を組み込みます。

2025 年のテクノロジー #4: AIゲートウェイ

この新しい層は、注目すべき 4 番目のテクノロジーであるAI ゲートウェイの定義を推進するのに役立ちます。 AI ゲートウェイは単なる API ゲートウェイや Web ゲートウェイではありません。 基本機能は API ゲートウェイと似ていますが、双方向の構造化されていないトラフィックの特別なアーキテクチャ上のニーズと、「良い」ボットのユーザーベースの増加により、新しい機能が必要になります。

著名なエンジニアである Ken Arora 氏は次のように説明しています。

AI ゲートウェイは、API ゲートウェイの自然な進化として登場しており、特に AIapplicationsのニーズに対応するように調整されています。 クラウド アクセス セキュリティ ブローカー (CASB) がエンタープライズ SaaS アプリのセキュリティ保護に特化しているのと同様に、AI ゲートウェイは、望ましくないデータ開示につながることが多い幻覚、偏見、ジェイルブレイクなどの固有の課題に焦点を当てます。 AIapplicationsの自律性が高まるにつれて、ゲートウェイは強力な可視性、ガバナンス、サプライ チェーン セキュリティも提供し、潜在的な攻撃ベクトルとなっているトレーニング データセットとサードパーティ モデルの整合性を確保する必要が出てきます。 さらに、AI アプリが成長するにつれて、従来のアプリケーションと比較して AIapplicationsの運用コストが高いことを考えると、分散型サービス拒否 (DDoS) 攻撃やコスト管理などの問題が重要になります。 さらに、要約やパターン分析などのタスクのために AI アプリとのデータ共有が増加すると、より高度なデータ漏洩防止が必要になります。

将来的には、AI ゲートウェイはリバース プロキシとフォワード プロキシの両方をサポートする必要があり、AI の消費が AI の生産を上回るため、短期的にはフォワード プロキシが重要な役割を果たすことになります。 中間プロキシは、ベクトル データベースと大規模言語モデル (LLM) 間など、AIapplications内のコンポーネント間のやり取りを管理する上でも不可欠です。 脅威の性質が変化すると、セキュリティへの取り組み方も変化する必要があります。 多くのクライアントが人間に代わって動作する自動エージェントになるにつれて、現在のボット保護モデルは、正当なボットと悪意のあるボットを区別するように進化します。 AI ゲートウェイには、ゼロ トラストの原則を参考にして、委任認証、動作分析、最小権限の適用などの高度なポリシーを組み込む必要があります。 これには、リスクを考慮したポリシーと強化された可視性が含まれ、堅牢なガバナンスを維持しながら AI によるセキュリティ侵害を効果的に封じ込めることができます。

最も差し迫った課題は、データに関する従来のセキュリティ上の懸念(流出、漏洩)だけでなく、幻覚や偏見に関する倫理的問題にも対処できることです。 この問題に関するほぼすべての調査で後者が重大なリスクとしてランク付けされているのを見て驚く人はいないだろう。

2025 年のテクノロジー #5: 小さな言語モデル

幻覚や偏見の問題を考慮すると、検索拡張生成 (RAG) と小規模言語モデル (SLM) の使用の増加を無視することは考えられません。 RAG は、特に大規模な言語モデルによって生成される情報の特異性と正確性を高める能力により、生成 AI の基本的なアーキテクチャ パターンとして急速に普及しました。 RAG は、検索システムの長所と生成モデルを組み合わせることで、AI における主要な課題の 1 つである幻覚や、不正確な情報や誤解を招く情報の生成に対するソリューションを提供します。

RAG を AI 戦略にまだ統合していない組織は、特にリアルタイムの情報検索とコンテキスト応答を必要とするタスクにおいて、データの精度と関連性の大幅な向上を逃しています。 しかし、生成 AI の使用事例が広がるにつれて、RAG だけでは一部の問題を解決できないことに組織は気づき始めています。

著名なエンジニアであるロリ・マクヴィッティ氏は次のように説明しています。

LLM の限界が拡大し、特にドメイン固有または組織固有の知識を扱う際の精度の欠如により、小規模言語モデルの採用が加速しています。 LLM は一般知識のapplicationsにおいては非常に強力ですが、専門分野の正確で微妙な情報を提供するという課題になると、しばしば力を発揮できません。 このギャップこそが SLM が優れている点です。SLM は特定の知識領域に合わせて調整されており、より信頼性が高く焦点を絞った出力を提供できます。 さらに、SLM は電力とコンピューティング サイクルの点で必要なリソースが大幅に少なくなるため、あらゆるユース ケースで LLM の膨大な機能を必要としない企業にとって、よりコスト効率の高いソリューションとなります。

現在、SLM は業界特化型である傾向があり、医療や法律などの分野でトレーニングを受けている場合が多いです。 これらのモデルは狭いドメインに限定されていますが、コストと複雑さの両面で、LLM よりもトレーニングと展開がはるかに容易です。 より多くの組織が、専門的なデータ ニーズにより適合するソリューションを求めるようになるにつれて、検索強化型生成方法だけでは幻覚を完全に軽減できない状況では、SLM が LLM に取って代わることが期待されます。 時間の経過とともに、高精度と効率性が何よりも重要となるユースケースでは SLM がますます主流となり、LLM よりも正確でリソース効率の高い代替手段が組織に提供されるようになると予想されます。

今後の展望: トランスフォーマーを超えて

膨大な計算リソースを必要とせずに、現代のapplicationsの増大する複雑性に対処できる、より効率的な AI モデルの必要性が急速に高まっています。 Transformer モデルは強力ですが、特に AI モデルのサイズが大きくなるにつれて、スケーラビリティ、メモリ使用量、パフォーマンスに制限が生じます。 その結果、計算オーバーヘッドを削減しながら高い精度を維持するアーキテクチャの開発が強く求められています。 さらに、AI を民主化し、さまざまなデバイスやユースケースでアクセスできるようにするという需要により、ハードウェア要件を最小限に抑えながら精度を最適化するように設計された 1 ビット大規模言語モデルなどのイノベーションの導入がさらに加速します。

こうしたニーズが、AI をトランスフォーマーの域を超えて進化させる原動力となっています。

最高イノベーション責任者のクナル・アナンド氏は次のように説明しています。

新しいパラダイムが出現しています。それは、さまざまなapplicationsやデバイスにわたる AI 展開の民主化を約束する革新的な最適化技術と新しいニューラル ネットワーク アーキテクチャを統合することです。

AI コミュニティはすでに、ニューラル ネットワーク設計におけるトランスフォーマー以降の革新の初期兆候を目撃しています。 これらの新しいアーキテクチャは、コンテンツの理解と生成における優れた機能を維持または向上させながら、変流器モデルの基本的な制限に対処することを目的としています。 最も有望な開発としては、高度に最適化されたモデル、特に 1 ビットの大規模言語モデルの出現が挙げられます。 これらの革新は、モデル効率へのアプローチ方法の根本的な変化を表しており、精度が低下してもモデルのパフォーマンスを維持しながら、メモリ要件と計算オーバーヘッドを大幅に削減します。

こうした進展の影響は、AI エコシステム全体に複数の波として波及するでしょう。 主な効果は、AI 導入に必要なリソースの削減にすぐに現れます。 かつては大量の計算リソースとメモリを必要としていたモデルが、大幅に低いオーバーヘッドで効率的に動作するようになります。 この最適化によりコンピューティング アーキテクチャの変化が引き起こされ、GPU はトレーニングと微調整タスクに特化されるようになり、CPU は新たな機能で推論ワークロードを処理するようになります。

これらの変化は、民主化と持続可能性を中心とした第二の波のきっかけとなるでしょう。 リソース要件が減少するにつれて、AI の展開はさまざまなapplicationsやデバイスで利用できるようになります。 インフラストラクチャのコストが大幅に下がり、これまでは実現不可能だったエッジ コンピューティング機能が可能になります。 同時に、計算負荷の軽減により、エネルギー消費量の削減と二酸化炭素排出量の削減による環境面のメリットがもたらされ、AI 運用の持続可能性が向上します。

これらの開発により、エッジ デバイスでの前例のない機能、リアルタイム処理の改善、業界全体にわたるコスト効率の高い AI 統合が可能になります。 コンピューティング環境は、特定のワークロードに最適化されたさまざまな処理アーキテクチャを組み合わせたハイブリッド ソリューションへと進化し、より効率的で多用途な AI インフラストラクチャが生まれます。

こうした進歩の影響は、技術的な改善をはるかに超えています。 これらは、パフォーマンスを維持しながら、AI の導入がより多用途で環境に配慮したものになる未来を示唆しています。 2025 年に向けて、これらの変化により、日常的なapplicationsへの AI の統合が加速し、業界全体でイノベーションと効率化の新たな機会が生まれると考えられます。

今唯一変わらないのは変化だ

昨年は、テクノロジーの面で大きな変化、進化、そして驚きが起こった一年でした。 来年も同様のことが起こるだろうと考えるのが妥当だろう。 結局のところ、生成 AI の潜在能力はまだ十分に探求されておらず、この刺激的なテクノロジーのさらなる破壊的な使用例が出現する可能性が高いことを意味します。

組織がまだ生成 AI を実験していない場合は、実験してみる必要があります。 サービスの使用は、チャットボットや推奨エンジンなどの基本的なユースケースの良い出発点となることは確かですが、生成 AI の可能性は会話や新しい猫の動画の生成をはるかに超えています。

AI がテクノロジーの基盤そのものを再構築し続けるにつれて、さらなる変化が起こり、AI を活用する新しい方法が次々と登場することが予想されます。