Akamaiの新たな挑戦
オンラインビジネスを支えるAkamai Technologies(NASDAQ:AKAM)は、AIの研究開発を大きく前進させる新たな発表を行いました。それは、数千基ものNVIDIA Blackwell GPUを導入し、世界最大級の分散型AIプラットフォームを構築するというものです。この取り組みは、AIファインチューニングやトレーニングの後の最適化を一体化し、AI推論のサービスをより効率的かつ迅速に提供するためのものです。
AIの未来とレイテンシーの課題
過去のAI技術は、中央集約的なサーバーでのトレーニングに焦点を当てていましたが、現在は推論の重要性が増しています。「MITテクノロジーレビュー」の最近の報告では、AIの導入が進まない最大の要因として56%の組織がレイテンシーを指摘しています。Akamaiは、世界を単一の低レイテンシー基盤として扱い、この課題を克服し、AIをビジネスの現場に届ける新しいインフラを提供します。
Akamaiの目指す分散型アーキテクチャ
AkamaiのCloud Technology Groupを率いるAdam Karon氏は、「Akamaiは推論時代に特化したニーズに応えるべく取り組んでいます。AIファクトリーは依然として重要ですが、モデルを大規模に活用するには分散型のインフラが不可欠です。これにより、AIを研究室から実際の現場へと移行させるための基盤を整備しています」と述べています。この言葉には、データが実際に存在する場所へAIを届ける必要があるという強い意志が感じられます。
新たな技術の実現
Blackwell GPUの採用によって、Akamaiは「グローバル分散型AIコンピューティンググリッド」のビジョンをさらに進化させます。これにより、自動配送やスマートグリッド、手術支援ロボット、高度な不正検知など、様々な物理システムにおいてAIを活用できるようになります。かつての地理的な制約やコストの問題を打破し、AIが新しい可能性を広げるのです。
主な利点
当社がこの新しいプラットフォームに期待する主な利点は以下の通りです。
- - 高性能な推論:専用のGPUクラスターを用いてAIのワークロードを処理し、迅速なレスポンスを実現。
- - 地域に特化したファインチューニング:データのプライバシーを守りつつ、大規模言語モデルを最適化。
- - モデルの後最適化:独自データに基づいて基盤モデルを調整し、タスクに対する精度を向上。
Akamaiの今後の展望
今回の発表は、AI推論や汎用コンピューティング機能の拡張に向けたAkamaiの取り組みの一環であり、2025年10月にはAkamai Inference Cloudを発表しました。このプラットフォームは、ユーザーの近くでAI推論を行い、ビジネスの利用方法を再定義します。
Akamaiは、開発者がAIアプリケーションやデータ集約型ワークロードを構築し、実行するためのツールを提供しています。これにより、AI推論の実行にかかるコストを最大86%削減し、レイテンシーを最大2.5倍低減しています。
結論
Akamaiは、NVIDIA RTX PRO 6000 Blackwell Server Edition GPUを全面的に導入し、今後もその容量を増強していく計画です。これによって、AI技術の進化が促進され、より多くのビジネスがこの新しいプラットフォームを活用していくことが期待されます。Akamaiは、オンラインビジネスを勝たせ、守るための強力なインフラを提供し続けます。