マルチコンポーネント ソリューションの VMware Private AI Foundation with NVIDIA を使用すると、NVIDIA のアクセラレーション コンピューティングと VMware Cloud Foundation の仮想インフラストラクチャ管理およびクラウド管理を使用して、生成 AI ワークロードを実行できます。
VMware Private AI Foundation with NVIDIA は、NVIDIA GPU を搭載した ESXi ホストで AI ワークロードをプロビジョニングするためのプラットフォームを提供します。さらに、NVIDIA GPU Cloud (NGC) コンテナに基づく AI ワークロードの実行は、VMware によって特に検証されています。
VMware Private AI Foundation with NVIDIA では、次の 2 つのユースケースがサポートされています。
- 開発のユースケース
- クラウド管理者と DevOps エンジニアは、ディープ ラーニング仮想マシンの形式で、Retrieval-Augmented Generation (RAG) などの AI ワークロードをプロビジョニングできます。データ サイエンティストおよび AI アプリケーション開発者は、これらのディープ ラーニング仮想マシンを AI 開発に使用できます。 VMware Private AI Foundation with NVIDIA のディープ ラーニング仮想マシン イメージについてを参照してください。
- 本番環境のユースケース
- クラウド管理者は、DevOps エンジニアに、 vSphere IaaS control plane 上の Tanzu Kubernetes Grid (TKG) クラスタで本番環境対応の AI ワークロードをプロビジョニングするための VMware Private AI Foundation with NVIDIA 環境を提供できます。
VMware Private AI Foundation with NVIDIA ソリューションの一部であるコンポーネントと、VMware Cloud Foundation 上のアーキテクチャの詳細については、「VMware Private AI Foundation with NVIDIA のシステム アーキテクチャ」を参照してください。