AkamaiがAI業界での競争力を高める新サービスを発表
オンラインビジネスを支え、サイバーセキュリティおよびクラウドコンピューティング企業のAkamai Technologies(NASDAQ:AKAM)が新たに提供する「Akamai Cloud Inference」により、AI分野での競争力が強化されます。このサービスの目的は、実世界での大規模言語モデル(LLM)の実用化を支援し、組織がイノベーションを迅速かつ効果的に推進できるようにすることです。
Akamai Cloud Inferenceは、Akamai Cloud上で実行される仕組みで、分散型プラットフォームの利点を最大限に活用し、クラウドの制約に対応します。AkamaiのCloud Technology GroupのCOO兼General ManagerのAdam Karon氏は、「AIデータをユーザーやデバイスに近づけることは困難であり、従来のクラウドではこの課題が顕著に現れます」と述べています。このように、Akamaiが25年以上にわたって構築してきたエッジコンピューティング技術が、その競争力を引き上げているのです。
AI推論技術の革新
Akamaiの新サービスは、プラットフォームエンジニアや開発者に対して、AIアプリケーションやデータ集約型のワークロードをエンドユーザーに近い場所で構築・実行するためのツールを提供します。これにより、スループットが3倍向上し、レイテンシーが最大60%削減されることで、処理速度が実質的に2.5倍に高速化されます。Akamaiのソリューションを活用することで、従来のハイパースケールインフラに比べて、AI推論およびエージェント型AIのワークロードを最大86%削減可能です。
Akamai Cloud Inferenceには以下のような機能が含まれています。
コンピューティング機能
Akamai Cloudは、従来のCPUによる推論からGPU、高速コンピューティング専用のASIC VPUに至るまで、多様なコンピューティングリソースを提供します。特に、NVIDIAのAIエンタープライズエコシステムとの統合により、GPUを使用したAI推論のパフォーマンスが最適化され、処理速度が大幅に向上します。
データ管理の効率化
Akamaiは、最新のAIワークロードに特化したデータファブリックを構築し、リアルタイムデータへのアクセスを向上させることで、AI推論のパフォーマンスを最大限に引き出します。VAST Dataとの提携により、推論関連のタスクの迅速化を可能にし、エンドユーザーにより関連性の高い情報を提供します。
コンテナ化とオートスケーリング
AIワークロードのコンテナ化により、パフォーマンスとコストの最適化が図られます。Kubernetesを活用し、エンタープライズ向けのワークロード向けに設計されたLinode Kubernetes Engine(LKE)Enterpriseを利用することで、需要に応じたオートスケールが実現されます。
エッジコンピューティングの強化
Akamai AI推論にはWebAssembly(Wasm)機能が含まれ、開発者がサーバーレスアプリケーションで直接LLM向けの推論を実行できるよう支援します。この機能により、軽量なコードがエッジで実行され、レイテンシーの影響を受けにくいアプリケーションの構築が可能になります。
トレーニングから推論中心のアプローチへの転換
AIの導入が進む中、LLMに対する期待が高まる一方で、具体的なビジネス課題を解決するための実践的なAIソリューションへの需要も増しています。多くの企業は、従来のデータセンターや計算能力の課題を抱えた結果、迅速な意思決定が求められる中で柔軟で軽量なAIモデルへの投資を増やしています。
Karon氏は、「AI推論は、GPSを利用するようなもので、構築された知識をリアルタイムに活かして変化に応じた迅速な意思決定を実現します。今後のAIの中心的な領域は推論である」と説いています。
Akamaiのビジョン
Akamaiは、オンラインビジネスのパワーとサイバーセキュリティを同時に提供する企業です。世界中の多数のクライアントに対し、ビジネスの成長に必要な信頼性と専門知識をもって、AI技術を活用した新たなビジネスの可能性を拓いています。詳細は、公式ウェブサイトやブログ、SNSを通じて確認できます。
Akamaiが進めるAIイノベーションは、企業が持続的に競争力を高めるための鍵となるでしょう。