AMDがInstinct MI350アクセラレータと高性能AIロードマップを発表


-1
2025-06-13T13:14:21+02:00

最終更新: 13/06/2025
  • AMD の新しい Instinct MI350 アクセラレータは、最大 35 倍高速な推論パフォーマンスを提供し、電力効率を大幅に向上させます。
  • MI350 および EPYC プロセッサを搭載したラックスケール AI インフラストラクチャは、Oracle Cloud Infrastructure などのハイパースケール クラウドにすでに導入されています。
  • ソフトウェアのブレークスルー: ROCm 7 は AI 開発を最適化し、グローバル AMD Developer Cloud プラットフォームとともに利用できるようになりました。
  • Meta、OpenAI、Microsoft などの大手企業とのコラボレーションにより、オープン AI エコシステムにおける AMD のリーダーシップが強化されます。
AMD Instinct MI350-2アクセラレータ

AMDは新しいInstinct MI350アクセラレータを発表しました。 生成型人工知能と高度なコンピューティングの分野における画期的な新技術の創出を目指しています。同社は、 AI推進2025イベント中は、最も要求の厳しいAIアプリケーションにおけるパフォーマンス、効率性、拡張性においてベンチマークとしての地位を確立するという目標を明確にしました。オープンな技術と標準に基づくこの戦略は、 また、さまざまな業界のリーダーとの連携を通じて、ハードウェアとソフトウェアの統合を促進することを目指しています。.

これらのリリースにより、 AMDはオープンで堅牢なAIエコシステムの構築において重要な役割を担うことを目指している次世代の言語モデルとアルゴリズムの急激な成長に対応できる能力を備えています。課題は、高水準のアクセラレータ、強力なプロセッサ、そして最適化されたソフトウェアスタックを組み合わせることです。 人工知能ソリューションの民主化の促進 大企業と独立系開発者の両方にとって。

Instinct MI350登場:パフォーマンスと効率が飛躍的に向上

新しいInstinct MI350シリーズは、 GPU MI350XおよびMI355X、 人工知能タスクにおける計算能力は、前世代と比較して35倍に向上すると約束されています。AI推論に関しては、その飛躍はさらに顕著で、前世代の性能の最大355倍に達します。MIXNUMXXモデルは、品質と価格の比率においても際立っており、最大 投資額40ドルごとにXNUMX%増のトークン 競合他社と比較して。

最も複雑なワークロードのニーズを満たすために、 インスティンクトMI350は288 GB HBM3Eメモリ (マイクロン社とサムスン社提供) 最大8 TB/秒の帯域幅を提供します空冷と液冷の両方のオプションが用意されており、従来のラックに最大64基のGPUを搭載可能。直接液冷構成ではそのXNUMX倍のGPUを搭載可能。パフォーマンスは最大 FP2,6/FP4演算で6エクサフロップス.

包括的なインフラストラクチャとスケーラビリティ:「Helios」提案

主な焦点の一つは オープンラックスケールインフラストラクチャ、 Oracle Cloud Infrastructureなどの大規模クラウドで既に稼働しています。2025年後半に提供開始予定のこのソリューションは、Instinct MI350アクセラレータと、第XNUMX世代AMD EPYCプロセッサ、そしてPensando Pollaraネットワークカードを組み合わせています。

AMDは、Instinct MI400 GPU、Zen 6アーキテクチャのEPYC「Venice」プロセッサ、Pensando「Vulcan」ネットワークカードを統合する次世代AIラック「Helios」をプレビューしました。AIモデル実行時のパフォーマンスは、 専門家の混合 現在の世代の最大10倍になる可能性があります。

そしてソフトウェア部門では、 AMDがROCm 7を発売 生成AIと高性能コンピューティングの課題に対処するために設計された改良版。このアップデートには、以下の改善が含まれています。 標準フレームワーク、新しいAPI、ドライバー、ツールのサポート、 開発者の選択肢が広がります。

さらに、プラットフォームは、 AMD 開発者クラウド世界中で利用可能になりましたアジャイル AI プロジェクト開発のための管理された環境と高度なリソースへのアクセスを提供します。

エネルギー効率と持続可能性の向上

AMDが強調している点の一つは、 エネルギーの最適化。 MI350アクセラレータは社内目標をはるかに上回り、38年間で最大2030倍のエネルギー効率向上を達成しました。同社はまた、ラックスケールのエネルギー効率を20年までに2024年比でXNUMX倍に向上させることを目指しており、これにより、現在数百ラックを必要とするAIモデルのトレーニングをXNUMXラックで容易に行うことができるようになります。 電力消費量を95%削減.

戦略的提携はAMDにとって柱であり、例えば Meta、OpenAI、Microsoft、Oracle、Cohere、Red Hat、HUMAIN、Astera Labs、Marvell、xAI 彼らの技術に大きな自信を示しています。Meta社は既にLlama 300や3といった推論モデルにMI4Xシリーズを採用しており、OpenAI社はAMD社と緊密に連携してハードウェアとソフトウェアをAIインフラに統合しています。また、Microsoft社は既にInstinctプラットフォームを活用し、Azure上で実稼働モデルを稼働させています。

オラクル、その間、 最大展開予定131.072 個の MI355X GPUゼタスケールクラスターをスケールするAI ソリューションの導入と開発を推進するパートナー エコシステムを強化します。

AMD のビジョンは、速度とパワーだけでなく、持続可能性、技術のオープン性、そして人工知能の進歩を世界的に加速するための強力なパートナーシップの構築にも重点を置いています。