データ サイエンティストである場合は、セルフサービス Automation Service Broker カタログから VMware Data Services Manager (DSM) によって管理される pgvector PostgreSQL データベースを使用する、ディープ ラーニング対応の Tanzu Kubernetes Grid クラスタを展開できます。既存のデータベース インスタンスを使用することも、新しいインスタンスを作成することもできます。

カタログで [AI Kubernetes RAG Cluster with DSM] を要求する場合は、既存のデータベース インスタンスを使用するか、新しいデータベース インスタンスを作成することができます。展開時に、ディープ ラーニング仮想マシンと接続先のデータベース仮想マシンの両方がプロビジョニングされます。データベースは、RAG 展開の外部にプロビジョニングされます。

  • [既存のデータベース] オプションを選択する場合は、事前に展開されたデータベースを使用します。このデータベースは、外部データベース、または別の [AI RAG Workstation with DSM] 展開によってプロビジョニングされたデータベースであることができます。展開時に、新しいデータベース インスタンスはプロビジョニングされません。
  • 使用できる既存のデータベースがない場合、または特定の使用事例に独自のプライベート データベースが必要な場合は、[新しいデータベース] オプションを選択します。

手順

  1. Automation Service Broker[カタログ] ページで、[AI Kubernetes RAG Cluster with DSM] カードを見つけて、[要求] をクリックします。
  2. プロジェクトを選択します。
  3. 展開の名前と説明を入力します。
  4. 制御ペイン ノードの数を選択します。
    設定 サンプル値
    ノード数 1
    仮想マシン クラス best-effort-large

    クラスの選択により、仮想マシン内で使用可能なリソースが定義されます。

    1 つのワーカー ノードの場合は、ワーカー ノードごとに 1 つの vGPU または 2 つの vGPU を使用できます。2 つのワーカー ノードの場合は、ノードごとに 1 つの vGPU を選択します。

  5. データベースを構成します。
    設定 サンプル値
    データベース インスタンス 既存のデータベース
    接続文字列 DSM 展開の概要から DSM 接続文字列を指定します。
  6. ソフトウェア カスタマイズをインストールします。
    1. NVIDIA AI エンタープライズ API キーを指定します。
    2. NIM モデル プロファイルを選択します。
      NIM モデル プロファイルは、NIM が使用できるモデル エンジン NIM と、それらのエンジンを選択するための基準を定義します。
    3. Docker Hub 認証情報を入力します。
  7. [送信] をクリックします。