VMware Private AI Foundation with NVIDIA のディープ ラーニング仮想マシン テンプレートをデータ サイエンティストがすばやくテストできるようにするには、クラウド管理者が vSphere Client を使用してディープ ラーニング仮想マシンを vSphere クラスタに直接展開できます。
NVIDIA RAG を備えたディープ ラーニング仮想マシンを展開するには、ベクター データベースが必要です。VMware Data Services Manager では、pgvector を備えた PostgreSQL データベースを使用できます。このようなデータベースを展開し、ディープ ラーニング仮想マシンに統合する方法については、「RAG ワークロードでディープ ラーニング仮想マシンを展開する」を参照してください。
前提条件
VMware Private AI Foundation with NVIDIA がデプロイされ、構成されていることを確認します。プライベート AI ワークロード展開のための VMware Cloud Foundation の準備を参照してください。
手順
結果
ディープ ラーニング仮想マシンを初めて起動すると、vGPU ゲスト ドライバと指定されたディープ ラーニング ワークロードがインストールされます。
ログを調べたり、一部のイメージに付属している JupyterLab インスタンスを開いたりできます。アクセスの詳細を組織内のデータ サイエンティストと共有できます。VMware Private AI Foundation with NVIDIA のディープ ラーニング ワークロードを参照してください。
次のタスク
- SSH 経由でディープ ラーニング仮想マシンに接続し、すべてのコンポーネントがインストールされ、期待どおりに実行されていることを確認します。
- アクセスの詳細をデータ サイエンティストに送信します。