マイクロンのHBM技術がAMDの新AIプラットフォームを強化

マイクロンのHBM3E技術がAMDの新たなAIプラットフォームに採用



2025年6月12日、米国アイダホ州ボイシに本社を構えるMicron Technology, Inc.は、自社の先進的な12層積層HBM3E 36GB製品がAMDの次世代AIプラットフォーム「AMD Instinct™ MI350」シリーズに採用されたことを発表しました。この連携により、大規模なAIモデルの学習に必要な性能と電力効率が大幅に向上することが期待されます。

高性能なAIモデル処理を実現



マイクロンのHBM3E技術は、AMDの先進的なCDNA 4アーキテクチャベースのGPUプラットフォームで活用され、高いスループットと低消費電力を実現します。AMD Instinct MI350シリーズは、288GBのHBM3Eメモリを搭載し、最大で8TB/sの帯域幅を提供します。これにより、単一のGPUで最大5,200億パラメータを処理する能力を持つことができ、効率的なAIモデル運用を可能にします。さらに、フルプラットフォーム構成では、最大2.3TBのHBM3Eメモリを搭載し、FP4精度で最大161PFLOPSという理論的なピーク性能を達成します。

このように、マイクロンの高度な技術とAMDの革新的なGPUアーキテクチャが結びつくことで、特に高密度AIワークロードに対して優れた電力効率と拡張性が提供されるのです。

マイクロンの業界リーダーシップ



マイクロンのクラウドメモリ製品部門のバイスプレジデント、プラヴィーン・ヴァイディアナタン氏は、「AMDとの密接な連携により、マイクロンのHBM3E製品がInstinct MI350シリーズとの高い互換性を持つようになりました。この技術革新は、AIシステム向けの高性能を提供すると同時に、顧客の総保有コストを削減する効果も期待できます」とコメントしています。

また、AMDのInstinct製品エンジニアリング部門のコーポレートバイスプレジデント、ジョシュ・フリードリッヒ氏も、「マイクロンのHBM3E 36GB製品は、楽しみなAIモデルの学習処理や高速推論、複雑な高性能計算のワークロードにおいて重要な役割を果たしています。低消費電力と高帯域幅のメモリは、確実に進化し続けていくでしょう」と述べています。

AIプラットフォームの未来を開く



マイクロンの12層積層HBM3E 36GB製品は、複数の主要なAIプラットフォームで認証を受けており、既に市場においてその性能が証明されています。これにより、AIソリューションの市場投入が迅速化し、データセンターは計算性能を最大限に生かしつつ、高度なデータ処理を実現できるようになることでしょう。

このように、マイクロンとAMDの提携は、AI技術の進化において新たなマイルストーンとなり、今後の発展がますます期待されます。

会社情報

会社名
マイクロンメモリジャパン株式会社
住所
東京都港区港南1-2-70品川シーズンテラス8階
電話番号

関連リンク

サードペディア百科事典: マイクロン AMD Instinct HBM3E

Wiki3: マイクロン AMD Instinct HBM3E

トピックス(IT)

【記事の利用について】

タイトルと記事文章は、記事のあるページにリンクを張っていただければ、無料で利用できます。
※画像は、利用できませんのでご注意ください。

【リンクついて】

リンクフリーです。