ClouderaがNVIDIA NIMを活用したAI推論サービスを発表、生成AIの進化が加速する

Clouderaが新たなAI推論サービスを発表



データ分析とAIの活用において、企業は常に新しい技術を導入し、競争優位を確立する必要があります。そんな中、Cloudera株式会社が2023年10月10日にニューヨークで開催された年次カンファレンス「EVOLVE24」にて、最新のAI推論サービス「Cloudera AI Inference」の発表を行いました。このサービスは、NVIDIAが提供するNIMマイクロサービスを活用することで、企業が生成AIの導入を加速させることを目指しています。

Cloudera AI Inferenceの特徴


Cloudera AI Inferenceは、業界初のNIMマイクロサービス機能を取り入れたAI推論サービスです。このサービスは、企業が大規模AIモデルを効率的にデプロイし、管理するためのプロセスを簡素化します。これにより、パイロットフェーズから本番環境への移行がスムーズになり、真のデータ価値を引き出すことが可能となります。最新データによれば、多くの企業が生成AI導入における障壁としてコンプライアンスリスクやガバナンスへの懸念を挙げていますが、Clouderaはこれらの懸念を軽減すべく、企業がプライベートでAIモデルを運用できる安全ですよりスケーラブルなソリューションを提供しています。

生成AIのパフォーマンス向上


具体的には、Cloudera AI Inferenceを活用することで、開発者はNVIDIAのTensor Core GPUsを用いて、大規模言語モデル(LLM)のパフォーマンスを最大36倍向上させることが可能です。CPUと比較すると約4倍のスループットの向上が期待でき、エンタープライズグレードのAIアプリケーションを迅速に構築できます。さらに、このサービスはUIとAPIを直接NIMマイクロサービスコンテナに統合できるため、従来のCLIやモニタリングシステムを必要とせず、シームレスなユーザーエクスペリエンスを提供します。

セキュリティとガバナンスの強化


ClouderaのAI Model Registryサービスと統合することで、モデルのアクセス制御や管理が一元化され、セキュリティとガバナンスの強化が図られます。これにより、すべてのモデルが単一のプラットフォームで統合管理され、企業内での効率的なデータ運用が実現します。

今後の機能展開


Clouderaが発表した新機能には、オープンAPIとCI/CD統合、高度なAI機能の最適化、データセキュリティ強化などが含まれています。さらに、ハイブリッドクラウド環境に対応した管理ツールや、新しいデータレイクハウスアプローチも計画されており、これにより企業はより柔軟で堅牢なデータ管理が可能になる見込みです。

Clouderaのビジョン


Clouderaのソリューションズエンジニアリングマネージャー、吉田栄信氏は「NVIDIAとの連携により、Cloudera AI Inferenceを発表できることを嬉しく思います。これにより、企業は強力なAIアプリを構築し、データを最大限に活用して新たなビジネス機会を得ることができます」と述べています。

現代のビジネスにおいて、AIの活用はすでに不可欠な要素となっています。Clouderaの新しいAI推論サービスは、まさにその流れにいち早く対応するものです。これからのAIとデータ分析の未来に、今後も注目していきたいと思います。

会社情報

会社名
Cloudera株式会社
住所
東京都中央区京橋2-2-1京橋エドグラン 26階 TEC (The Executive Centre)
電話番号
03-6748-1506

トピックス(IT)

【記事の利用について】

タイトルと記事文章は、記事のあるページにリンクを張っていただければ、無料で利用できます。
※画像は、利用できませんのでご注意ください。

【リンクついて】

リンクフリーです。