したがって、GoogleはNvidiaと同じくらい「エージェントAI」の波に備えている可能性が高いと推測されます。ブロードコム(および付随するソフトウェアサービス)と協力して、この機会を利用するのに適した方法でシリコンを設計していたでしょう。
しかし、実際には、NvidiaはエージェントAIのニーズに応えるためのより良い立場にありました。実際、前回のNvidiaの決算説明会で、CFOのColette Kressは、NIMとNeMOを活用した他の企業と、すでにソフトウェアの収益をどのように増加させているかをリストアップしました。
NVIDIA NeMo と NIM マイクロサービスを含む NVIDIA AI Enterprise は、エージェント AI の運用プラットフォームです。業界のリーダーは、NVIDIA AIを使用して、Co-Pilotsとエージェントを構築しています。NVIDIA、Cadence、Cloudera、Cohesity、NetApp、Nutanix、Salesforce、SAP、ServiceNowと協力して、今後数年間で数十億のエージェントが展開される可能性があるこれらのアプリケーションの開発を加速するために競争しています。
...
1,000 社近くが NVIDIA NIM を使用しており、その取り込みのスピードは NVIDIA AI Enterprise の収益化で明らかです。NVIDIA AI Enterprise の年間収益は昨年より 2 倍以上増加し、パイプラインは構築され続けると予想しています。
さらに、オープンソースのAIモデルは、より安価で透明性があるという事実を考えると、企業全体で人気が高まっています。CEOのマーク・ザッカーバーグが2024年第3四半期のMeta Platforms決算説明会で指摘したように、NvidiaはMetaのLlamaシリーズなどのオープンソースAIモデルを実行するためにテクノロジーを最適化しています。
...私たちが見ているのは、Llamaがより採用されるにつれて、NVIDIAやAMDのような人々がLlamaを特にうまく実行するためにチップをより最適化しているのを見ているということです。
テクノロジーの持続的な優位性を考えると、Nvidiaのプラットフォームソリューションは、チップ設計、スーパーコンピューティングアーキテクチャ、およびオーバーレイソフトウェアエコシステムにおける同社の幅広いリードのおかげで、主要なCSPのクラウド顧客の間で高い需要が続く可能性があります。
この戦略は、顧客がますますオープンソースモデルを選択し、NvidiaのGPUがこれらのLLMの実行に実際により効果的であることが証明された場合、カスタムチップとシステムを設計するCSPの努力に対抗するのに役立ちます。
さらに、CSPは現在Nvidiaのデータセンター収益の大部分を占めていますが、NVDAベアは、Dell Technologies(DELL)やHewlett Packard Enterprises(HPE)などのパートナーを通じて企業にテクノロジーを販売するという同社の追加収益源を見落としている可能性があります。さらに、特定のデータ保護やその他の業界固有の要件により、世界中のすべての企業がクラウドに移行する意思があるわけではありません。その結果、これらの企業はオンプレミスで業務を維持します。第1四半期の2025年度決算説明会で、CFOのColette Kressは、進行中のオンプレミスプロジェクトの数を発表しました。
第 1 四半期には、100 人以上の顧客と協力して、数百から数万の GPU の規模の AI ファクトリーを構築し、100,000 GPU に達するものもあります。
したがって、CSPが独自のチップとシステムを設計している間、Nvidiaは、多くの企業がクラウドへの移行に消極的であることを利用して、オンプレミスのAIソリューションを提供しています。