share_log

CoreWeave First to Market With NVIDIA H200 Tensor Core GPUs, Ushering in a New Era of AI Infrastructure Performance

CoreWeaveは、エヌビディアのH200 Tensor Core GPUsを使ったAIインフラストラクチャの性能の新時代を切り開くことで、市場の先陣を切っています。

PR Newswire ·  08/28 11:00

CoreWeaveの革新的なMission Controlプラットフォームは、高いシステムの信頼性と耐久性を備えたパフォーマンスの高いAIインフラストラクチャを提供し、お客様がNVIDIA H200 GPUを大規模に使用して生成型AIアプリケーションの開発を加速することを可能にします。

ROSELAND、N.J.、2024年8月28日/ PRNewswire/ -- CoreWeave、AIハイパースケーラーは、市場に初めてNVIDIA H200 Tensor Core GPUを導入した最初のクラウドプロバイダーであることを発表しました。CoreWeaveは、大規模なAIインフラストラクチャで市場に最初に参入し、大規模なNVIDIA H100 Tensor Core GPUクラスタとの連携を最初に提供した一社です。 NVIDIA H200 Tensor Core GPU に市場を提供しました。 NVIDIA H100 Tensor Core GPUクラスターを提供しました。 エヌビディア クアンタム-2 インフィニバンド ネットワーキング、これにより2023年6月にMLPerfトレーニング記録を破りました。CoreWeaveのインフラサービスは、Cohere、Mistral、NovelAIを含む顧客の最大かつ最も野心的なモデルのいくつかをトレーニングするために使用されています。

NVIDIA H200 Tensor Core GPUは、4.8 TB/sのメモリバンド幅と141 GbのGPUメモリ容量を提供し、H100 GPUよりも最大1.9倍高い推論性能を提供することによって、生成型AIの限界に挑戦するために設計されています。CoreWeaveのH200インスタンスは、NVIDIA H200 GPUとインテルの第5世代Xeon CPU(エメラルドラピッズ)と3200GbpsのNVIDIA Quantum-2 InfiniBandネットワーキングを組み合わせており、最大42,000個のGPUと高速ストレージソリューションをデプロイして、強力なパフォーマンスを提供し、顧客がGenAIモデルのトレーニング時間とコストを劇的に削減できるようにしています。

「CoreWeaveはAI開発の限界に挑戦することに専念しており、NVIDIAとの長年の協力を通じて、NVIDIA H200 GPUを搭載した高性能でスケーラブルで信頼性の高いインフラを市場に先駆けて提供しています」と、CoreWeaveのCEO兼共同創設者であるMichael Intratorは述べています。「H200 GPUと当社のテクノロジーの組み合わせにより、顧客は前例のない効率で複雑なAIモデルに取り組むことができ、パフォーマンスを新たなレベルに高めることができます。」

CoreWeaveのMission Controlプラットフォームは、ソフトウェアの自動化によるAIインフラの展開とアップタイムの複雑さを管理することで、顧客に比類のない信頼性と強健さを提供しています。このプラットフォームは、高度なシステム検証プロセス、予防的なフリートの健康チェック、豊富なモニタリング機能を利用して、顧客がより迅速かつ効率的にモデルをトレーニングできるように支援します。CoreWeaveの豊富なオブザーバビリティツールとサービスは、システムのすべての重要なコンポーネントにわたる透明性を提供し、チームが中断のないAI開発パイプラインを維持できるように支援します。これにより、システムのダウンタイムが減り、ソリューションまでの時間が短縮され、総所有コストが低減されます。

「CoreWeaveは、NVIDIAのテクノロジーを迅速かつ効率的に展開することで、顧客が最新の先端テクノロジーを利用してジェネラティブAIのための大規模な言語モデルを訓練および実行できることを保証しています。」と、NVIDIAのHyperscaleおよびHPC担当バイスプレジデントのIan Buckは述べています。「NVLinkとNVSwitch、増加したメモリ能力と共に、H200は最も要求の厳しいAIタスクの高速化を目的として設計されています。CoreWeaveのMission ControlによってパワードされたCoreWeaveプラットフォームと組み合わせることで、H200は業界全体の革新のバックボーンとなる高度なAIインフラストラクチャを顧客に提供します。」

最新のNVIDIAのGPUを市場に投入し、クラウドサービスのポートフォリオを進化させるだけでなく、CoreWeaveは業界をリードするインフラストラクチャサービスへの需要に追いつくためにデータセンターの運営を急速に拡大しています。CoreWeaveは2024年の初めから9つの新しいデータセンターの建設を完了し、さらに11つのデータセンターを建設中です。同社は28のデータセンターをグローバルに展開し、2025年にはさらに10の新しいデータセンターの計画をしています。

CoreWeaveは、カスタマイズされた解決策を使って、最も複雑なワークロードをパワーするように設計されたGPUクラウドプロバイダです。同社は、機械学習とAI、グラフィックスとレンダリング、ライフサイエンス、リアルタイムストリーミングなどの能力を提供する、最先端の技術ポートフォリオを有しています。
AIハイパースケーラーであるCoreWeaveは、次世代のAIを支える先端ソフトウェアのクラウドプラットフォームを提供しています。同社のテクノロジーは、企業や先進的なAI研究所に、高性能かつ効率的なクラウドソリューションを提供し、高速な計算を実現しています。2017年以来、CoreWeaveは米国全土およびヨーロッパ全域をカバーするデータセンターの展開を行っています。CoreWeaveは、TIME100の最も影響力のある企業の1つに選ばれ、2024年のForbes Cloud 100ランキングにも掲載されました。詳細については、 .

ソースコアウィーブ

これらの内容は、情報提供及び投資家教育のためのものであり、いかなる個別株や投資方法を推奨するものではありません。 更に詳しい情報
    コメントする