データ サイエンティストである場合は、セルフサービス Automation Service Broker カタログから VMware Data Services Manager (DSM) によって管理される pgvector PostgreSQL データベースを使用する、ディープ ラーニング対応の Tanzu Kubernetes Grid クラスタを展開できます。既存のデータベース インスタンスを使用することも、新しいインスタンスを作成することもできます。
カタログで [AI Kubernetes RAG Cluster with DSM] を要求する場合は、既存のデータベース インスタンスを使用するか、新しいデータベース インスタンスを作成することができます。展開時に、ディープ ラーニング仮想マシンと接続先のデータベース仮想マシンの両方がプロビジョニングされます。データベースは、RAG 展開の外部にプロビジョニングされます。
- [既存のデータベース] オプションを選択する場合は、事前に展開されたデータベースを使用します。このデータベースは、外部データベース、または別の [AI RAG Workstation with DSM] 展開によってプロビジョニングされたデータベースであることができます。展開時に、新しいデータベース インスタンスはプロビジョニングされません。
- 使用できる既存のデータベースがない場合、または特定の使用事例に独自のプライベート データベースが必要な場合は、[新しいデータベース] オプションを選択します。
手順
- Automation Service Broker の [カタログ] ページで、[AI Kubernetes RAG Cluster with DSM] カードを見つけて、[要求] をクリックします。
- プロジェクトを選択します。
- 展開の名前と説明を入力します。
- 制御ペイン ノードの数を選択します。
設定 サンプル値 ノード数 1 仮想マシン クラス best-effort-large クラスの選択により、仮想マシン内で使用可能なリソースが定義されます。
1 つのワーカー ノードの場合は、ワーカー ノードごとに 1 つの vGPU または 2 つの vGPU を使用できます。2 つのワーカー ノードの場合は、ノードごとに 1 つの vGPU を選択します。
- データベースを構成します。
設定 サンプル値 データベース インスタンス 既存のデータベース 接続文字列 DSM 展開の概要から DSM 接続文字列を指定します。 - ソフトウェア カスタマイズをインストールします。
- NVIDIA AI エンタープライズ API キーを指定します。
- NIM モデル プロファイルを選択します。
NIM モデル プロファイルは、NIM が使用できるモデル エンジン NIM と、それらのエンジンを選択するための基準を定義します。
- Docker Hub 認証情報を入力します。
- [送信] をクリックします。