CoreWeaveがMLPerf Inference v6.0で市場をリード
CoreWeave, Inc.(Nasdaq: CRWV)は、MLPerf Inference v6.0ベンチマークにおいて卓越した結果を達成しました。2026年4月1日に発表されたこの結果は、CoreWeaveがNVIDIAの最新AIインフラであるNVIDIA GB200 NVL72およびGB300 NVL72を使用し、データセンタークローズド部門での性能を倍増させたことを示しています。この取り組みにより、CoreWeaveはAIの推論を実行する上でのベストパフォーマンスを実現し、他の競合他社を凌ぐリーダーシップを発揮しました。
プラチナ評価を獲得する独自のAIクラウド戦略
CoreWeaveのMLPerf v6.0の結果は、AIクラウドの性能、効率性、信頼性を評価するためのSemiAnalysis ClusterMAX™ 1.0と2.0において、唯一プラチナ評価を取得したことでも特筆されます。これは、運用において最も要求の厳しい最先端の推論モデルをスケールに応じて最適化するためのフルスタックのインフラストラクチャ戦略に依存していることを示しています。CoreWeaveの共同設立者兼CTOであるピーター・サランキ氏は、「推論はAIにおける決定的なレイヤーです。理論的な性能が実際の生産環境でどのように機能するかを測定するには、MLPerfのようなベンチマークが役立ちます」と述べました。
CoreWeaveのAIクラウドが提供する実世界の価値
CoreWeaveが提供するAIクラウドは、特定のAIワークロードを、開発、テスト、展開において一貫してスムーズに処理する能力を証明しています。このような高性能なインフラストラクチャは、顧客が生産におけるAIワークロードを立ち上げ、スケールし、運用する上で信頼性のある選択となっており、実世界での価値創造で最も重要とされています。この結果、CoreWeaveは市場における確固たる地位を築いています。




