- CoreWeave は、Nvidia Vera CPU をスタンドアロン サービスとして提供する最初のクラウド プロバイダーになります。
- Nvidia は、2030 年までに 5 GW の AI 工場を増強するため、CoreWeave に 2.000 億ドルを追加投入します。
- Vera は、88 個のコア、176 個のスレッド、最大 1,5 TB のメモリを備えた、オリンパス独自の ARM アーキテクチャをベースとしています。
- この契約により、ヨーロッパおよび世界のその他の地域の企業や組織に影響を与えるクラウドベースの AI エコシステムが統合されます。
同盟 NvidiaとCoreWeave これは、アクセラレーテッドコンピューティング分野において最も話題となった動きの一つです。金額の多さだけでなく、 これは、人工知能クラウド内のスタンドアロン製品として新しい Vera CPU がデビューしたことを意味します。これにより、世界規模でデータセンターの勢力バランスが変化する可能性があります。
レースの文脈では AIのための計算能力この事業により、NVIDIA は GPU プロバイダーとしてだけでなく、サーバー スタックの完全なプレーヤーとしての地位も強化されます。 AIワークロードに特化した「ネオクラウド」プロバイダーCoreWeaveは、 専用CPUオプションとしてVeraを初めて生産開始これにより、従来の x86 ベースのソリューションに代わるものを探しているヨーロッパおよび世界のその他の地域の企業に、新しいインフラストラクチャ構成への扉が開かれます。
AI工場の加速に2.000億ドルを投入
NvidiaはCoreWeaveとの提携を強化することを決定した。 2.000億ドルの追加投資、以上の建設を加速することを目的として AI工場の5ギガワットの生産能力 2030年までに、この計画は、生成モデルから高度なデータ分析アプリケーションまで、産業規模の人工知能サービスに対する高まる需要を満たすのに十分なインフラストラクチャを備えることを目指しています。
この事業は、 CoreWeaveクラスA普通株式は1株あたり87,20ドルこれにより、NVIDIAの同社株式保有率は、今回の買収以前から既に6%を超えていたが、さらに増加する。この資本注入により、CoreWeaveはCoreWeaveの買収を進めることができる。 土地、エネルギー、物理的構造 AIに特化した新しいデータセンターを展開する必要があり、その一部は、大陸の規制やデータ主権の要件に合わせたクラウド容量を求める欧州の顧客にサービスを提供することに重点が置かれる予定です。
この投資は、 サービス購入に関する事前合意NVIDIAは、 6.000億ドルのクラウドコンピューティング容量 CoreWeaveから2032年まで。直接資金調達とサービス消費契約の組み合わせにより、クラウドプロバイダーがインフラストラクチャを拡張するための流動性を獲得し、Nvidiaが世界中のAIパートナーと顧客にリソースへの優先的なアクセスを保証するサイクルが生まれます。
国際メディアや欧州メディアが引用した業界筋によると、ハードウェアメーカーがクラウドプロバイダーに投資し、そのプロバイダーが自社の製品を購入するというこの種の契約は、 メーカーとインフラ間の非常に密接なエコシステム一部の アナリストはこれらの評価にバブルリスクがあると見ている両社は、AIコンピューティングの需要が急速に高まっているため、今後数年間に十分な設備容量を確保することが優先事項であると主張している。
スペインと欧州連合の企業や研究センターの観点から見ると、Nvidiaの技術によるCoreWeaveの拡張は、 新しいクラウドAIサービスプロバイダー 従来のハイパースケーラーを補完する能力を備えています。これにより、強力で柔軟なインフラストラクチャを必要とする医療、産業、金融、行政などのプロジェクト向けに、専門的なコンピューティングを契約するための選択肢が広がります。
Vera CPUへの優先アクセスを備えた最初のネオクラウド、CoreWeave
この合意の重要な要素の一つは、 CoreWeaveは、Vera CPUをスタンドアロン製品として導入する最初の顧客となる。 これまで、NVIDIAのデータセンタープロセッサは主に GPU+CPUを組み合わせたソリューション スーパーチップ型の構成や完全なシステムでは、CPU だけでは主導的な役割を果たしていませんでした。
ブルームバーグとのインタビューで、NVIDIAのCEOであるジェンスン・フアンは、同社が初めて、 Vera CPUを「スタンドアロン」コンポーネントとしてつまり、サーバーインフラストラクチャ内の個別のコンポーネントとして機能します。これにより、お客様はCPUのみのワークロードとGPUとCPUの混合環境の両方をサーバー上で実行できるようになります。 Nvidiaが全面的に設計したシリコン他のメーカーのプロセッサに頼る必要はありません。
ビジネスユーザーとクラウドサービスプロバイダーにとって、この決定は、 Vera CPUのみに基づく契約インスタンスあるいは、アプリケーションの性質に応じて、さまざまな割合でNvidia GPUと組み合わせることもできます。例えば、ロジック集約型のプロセス、データベース、マイクロサービスはVeraで実行し、AIモデルのトレーニングと推論は引き続き専用のGPUに依存し、これらはすべて同じロジックインフラストラクチャ内で実行できます。
黄氏は、これは AIサーバーのCPUボトルネックを軽減この問題は、高性能GPUの需要が急増するにつれて、より顕著になっています。同社は、「エージェントAI」(より自律的かつ協調的に動作するシステム)と呼ばれる次世代のAIアプリケーションにおいては、これらのワークロードをオーケストレーションおよび管理するために最適化されたCPUが、強力なグラフィックアクセラレータと同様に重要になると考えています。
CoreWeaveの場合、このVeraへの優先的なアクセスは、以下の分野での競争上の優位性につながります。 AIに焦点を当てた「ネオクラウド」顧客に提供することで Nvidiaテクノロジーに基づく均質コンピューティングプラットフォームこれにより、このプロバイダーと連携する欧州企業にとって、Nvidia エコシステムの使い慣れたツール、ドライバー、ライブラリの統合が容易になり、大規模な AI プロジェクトを展開する際の複雑さが軽減されます。
オリンパス・アーキテクチャー:Veraを支える技術設計
Vera CPUは 次世代カスタムARMアーキテクチャ、コードネームはOlympusこれは、高性能データセンターと人工知能ワークロードの要件に合わせて特別に設計されており、これまでサーバー CPU 市場で Nvidia が主に注力してきた Grace ファミリからの大きな飛躍を表しています。
仕様面では、Veraは 88コア、176スレッド独自の技術を活用し、 Nvidia 空間マルチスレッド これにより、各コアは2つのスレッドを同時に処理することができ、従来の時間ベースのマルチスレッド技術を使用する代わりに、パーティション間でリソースを分散させることができます。このプラットフォームは、命令セットに基づいています。 ARM v9.2-Aデータセンターのパフォーマンスとエネルギー効率を最大化するように適応されています。
ヴェラの最も印象的な特徴の一つは メモリサブシステム各CPUは最大 1,5 TBのシステムメモリグレース世代の3倍であり、 1,2 TB/秒の帯域幅 この構成は、SOCAMM LPDDR5X メモリを使用することで、大規模な言語モデルや高度な分析システムなど、大量のリアルタイム データを必要とするワークロードに対応するように設計されています。
これらすべてのリソースを接続するために、Veraは コヒーレントNVLink-C2C相互接続 最大提供可能 1,8 TB/秒の帯域幅このインフラストラクチャにより、ラック型構成内で CPU を GPU や高速ストレージ システムなどの Nvidia エコシステムの他のコンポーネントと統合することができ、メモリの一貫性を維持し、レイテンシを削減できます。
全体的に、ヴェラのデザインは次のようなシナリオを示唆している。 機密ラックスケールコンピューティングこのような状況において、ワークロードの分離と保護は不可欠であり、欧州市民や企業の機密データを扱うAIプロジェクトにおいて、この要件の重要性が高まっています。このアプローチは、プライバシー、セキュリティ、データガバナンスに関するEUの規制要件と一致しており、このプラットフォームを基盤とするインフラを欧州地域内で導入する上で、更なる論拠となる可能性があります。
スペインとヨーロッパのAIエコシステムへの影響
NvidiaとCoreWeaveの契約拡大は、 欧州連合におけるAI戦略欧州委員会と加盟国は共にデジタル化とスーパーコンピューティングプログラムを推進しています。発表は米国から行われましたが、これらのAIファクトリーが提供する追加のコンピューティング能力は、 欧州のクラウドサービス市場多くのテクノロジー企業が世界規模で事業を展開し、さまざまな地域に作業負荷を分散しているためです。
スペインやヨーロッパの組織にとって、サプライヤーが統合することで Vera、Rubin、BlueFieldなどの最先端技術 産業、自動車、エネルギー、行政など、様々な分野におけるAIプロジェクトの加速を可能にします。CPUとGPUを同一メーカーから提供することで、最適化されたコンピューティングリソースを契約できるため、インフラ管理が簡素化され、新しいソリューションの導入にかかる時間を短縮できます。
同時に、技術力が世界的に少数の主体に集中することで、 戦略的依存に関する議論欧州は半導体とクラウドサービスにおける自立性を強化する取り組みを推進しており、NVIDIAとCoreWeaveの間の契約のような合意は、最先端技術にアクセスする機会であると同時に、欧州大陸で独自の能力を開発する必要性を思い出させるものでもあると捉えることができる。
実際には、多くの欧州企業はすでに クラウド上の公共インフラ データ保護規制や業界要件に準拠するために、プライベートまたはハイブリッドソリューションを提供します。CPU Veraが商用プラットフォームに搭載されることで、例えば、大規模なAIモデルのテスト環境を構築したり、ハードウェアを物理的に管理することなくリアルタイム分析システムを導入したりしたいと考えている企業にとって、選択肢が広がるはずです。
さらに、NVIDIAの高性能ARM CPUへの取り組みは、次世代プラットフォームのアーキテクチャを複数検討している欧州のサーバーメーカーやクラウドサービスプロバイダーの意思決定に影響を与える可能性がある。データセンターにおけるARMの存在感が増すと、 欧州インフラのエネルギー効率これは、エネルギー価格の変動と野心的な持続可能性目標の状況において特に重要です。
サーバーを超えて:AI搭載PCへの道筋
ヴェラ家は明らかに データセンターとAI工場Nvidia自身もすでに存在していることを示唆している CPUにおける「設計の勝利」これは市場では、消費者セグメント向けに同じ哲学に基づいた将来の製品に関するヒントだと解釈されている。具体的には、 ARM N1 および N1X SoC 高度な AI 機能を備えた個人用デバイスを対象としています。
これらの開発が実現すれば、今後数年間で Nvidiaが設計したCPUを搭載したPCとワークステーションこれらのシステムには、人工知能(AI)用の専用コンピューティングユニットが付属しています。スペインおよびヨーロッパの専門ユーザーにとって、これはクラウドに大きく依存することなく、より複雑なモデルを実行できるローカル機器を利用できることを意味します。これは、機密性が最優先される医療、司法、行政などの分野にとって特に興味深いものです。
今のところ、同社の優先事項は、 クラウド環境における VeraCoreWeaveを主要パートナーとして迎え、これらのアーキテクチャが大規模データセンターで定着するにつれて、一部の技術をエンドデバイス向けのフォーマットや、欧州の企業や研究センターに設置可能なよりコンパクトなサーバーへと移行することが容易になります。
いずれにせよ、NVIDIAの戦略は、同社のロードマップがもはやGPU市場の支配だけに焦点を合わせているのではなく、 コンピューティングスタック全体の中心的な位置を占めるCPU やメモリからネットワークや高速ストレージに至るまで、この統合ビジョンにより、同社はクラウド プロバイダー、インテグレーター、エンド カスタマーに完全なプラットフォームを提供できるようになり、今後 10 年間のヨーロッパにおけるデジタル インフラストラクチャ投資の計画に間違いなく影響を与えるでしょう。
CoreWeaveへの取り組みとVera CPUのスタンドアロン製品としての発売により、NVIDIAは市場に明確なメッセージを送っています。それは、 AI工場は世界中で建設されているスペインと EU の企業、行政機関、研究センターにとって、この動きは新しい高性能コンピューティング オプションの登場を意味しますが、今後数年間の技術主権、規制遵守、エネルギー効率に関する戦略にこれらのインフラストラクチャがどのように適合するかを評価する必要性も生じます。