Das CNI(Container Network Interface)-Plug-In, Open vSwitch (OVS) und das NCP-Docker-Image müssen auf den OpenShift-Knoten installiert sein. Die Installation erfolgt durch die Ansible Playbook-Ausführung.

Hinweis:

Dieser Schritt ist nicht erforderlich, wenn Sie NCP und OpenShift mit einem einzelnen Playbook installieren. Siehe Installieren von NCP und OpenShift mit einem einzelnen Playbook.

Das Playbook enthält Anweisungen zum Konfigurieren von NSX-T-Ressourcen für die Knoten. Sie können die NSX-T Data Center-Ressourcen auch manuell konfigurieren, wie unter Einrichten von NSX-T-Ressourcen beschrieben. Der Parameter perform_nsx_config gibt an, ob die Ressourcen bei der Playbook-Ausführung konfigurieren werden oder nicht.

Prozedur

  1. Aktualisieren Sie die Parameterwerte in roles/ncp_prep/default/main.yaml und roles/nsx_config/default/main.yaml, einschließlich der URLs, unter denen das CNI-Plug-In RPM, OVS und das entsprechende Kernelmodul RPM heruntergeladen werden können. Darüber hinaus ist uplink_port der Name der virtuellen Netzwerkkarte des Uplink-Ports auf dem VM-Knoten. Die verbleibenden Variablen beziehen sich auf die Konfiguration der NSX-T Data Center-Managementebene.

    Parameter, die angegeben werden müssen:

    • perform_nsx_config: gibt an, ob die Ressourcenkonfiguration durchgeführt wird. Legen Sie die Einstellung auf „false“ fest, wenn die Konfiguration manuell vorgenommen und das Skript nsx_config nicht ausgeführt wird.

    • nsx_manager_ip: IP-Adresse des NSX Manager

    • nsx_edge_cluster_name: Name des Edge-Clusters für die Verwendung durch den Tier-0-Router

    • nsx_transport_zone_name: Name der Overlay-Transportzone

    • os_node_name_list: kommagetrennte Liste der Knotennamen

      Zum Beispiel node1,node2,node3

    • subnet_cidr: CIDR-Adresse für IP-Administrator, die „br-int“ auf dem Knoten zugewiesen wird

    • vc_host: IP-Adresse von vCenter Server

    • vc_user: Benutzername des vCenter Server-Administrators

    • vc_password: Kennwort des vCenter Server-Administrators

    • vms: kommagetrennte Liste der VM-Namen. Die Reihenfolge muss mit os_node_name_list übereinstimmen.

    Die folgenden Parameter weisen Standardwerte auf. Sie können diese je nach Bedarf ändern.

    • nsx_t0_router_name: Name des logischen Tier-0-Routers für den Cluster. Standard: t0

    • pod_ipblock_name: Name des IP-Blocks für Pods. Standard: podIPBlock

    • pod_ipblock_cidr: CIDR-Adresse für diesen IP-Block. Standard: 172.20.0.0/16

    • snat_ippool_name: Name des IP-Blocks für SNAT. Standard: externalIP.

    • snat_ippool_cidr: CIDR-Adresse für diesen IP-Block. Standard: 172.30.0.0/16

    • start_range: die für diesen IP-Pool angegebene IP-Startadresse von CIDR. Standard: 172.30.0.1

    • end_range: die für diesen IP-Pool angegebene IP-Endadresse von CIDR. Standard: 172.30.255.254

    • os_cluster_name: Name des OpenShift-Clusters. Standard: occl-one

    • nsx_node_ls_name: Name des logischen Switches, der mit den Knoten verbunden ist. Standard: node_ls

    • nsx_node_lr_name: Name des logischen Routers für den Switch node_ls. Standard: node_lr

    Das nsx-config-Playbook unterstützt nur die Erstellung jeweils eines IP-Pools und eines IP-Blocks. Wenn Sie weitere Pools und Blöcke benötigen, müssen Sie diese manuell erstellen.

  2. Wechseln Sie zum Verzeichnis openshift-ansible-nsx, und führen Sie die Rolle ncp_prep aus.
        ansible-playbook -i /PATH/TO/HOSTS/hosts ncp_prep.yaml

Ergebnisse

Das Playbook enthält Anweisungen zum Ausführen der folgenden Aktionen:

  • Laden Sie die Installationsdatei für das CNI-Plug-In herunter.

    Der Dateiname lautet nsx-cni-1.0.0.0.0.xxxxxxx-1.x86_64.rpm, wobei xxxxxxx die Build-Nummer ist.

  • Installieren Sie die Installationsdatei für das CNI-Plug-In.

    Das Plugin wird unter /opt/cni/bin installiert. Die CNI-Konfigurationsdatei „10.net.conf“ wird nach /etc/cni/net.d kopiert. RPM installiert auch die Konfigurationsdatei /etc/cni/net.d/99-loopback.conf für das Loopback-Plugin.

  • Laden Sie die OVS-Installationsdateien herunter, und installieren Sie sie.

    Die Dateien lauten openvswitch-2.9.1.xxxxxxx-1.x86_64.rpm und openvswitch-kmod-2.9.1.xxxxxxx-1.el7.x86_64.rpm, wobei xxxxxxx die Build-Nummer ist.

  • Erstellen Sie die br-int-Instanz, sofern dies noch nicht erfolgt ist.

        # ovs-vsctl add-br br-int

  • Fügen Sie die Netzwerkschnittstelle (node-if) hinzu, die mit dem logischen Switch des Knotens für br-int verbunden ist.

  • Stellen Sie sicher, dass br-int und node-if link einen aktiven Status aufweisen.

        # ip link set br-int up
        # ip link set <node-if> up

  • Aktualisieren Sie die Netzwerkkonfigurationsdatei, um sicherzustellen, dass die Netzwerkschnittstelle nach einem Neustart aktiv ist.

  • Laden Sie die TAR-Datei für NCP herunter und laden Sie das Docker-Image aus der TAR-Datei.

  • Laden Sie die YAML-Datei ncp-rbac herunter und ändern Sie apiVersion in v1.

  • Erstellen Sie eine logische Topologie und zugehörige Ressourcen in NSX-T Data Center und erstellen Sie Tags auf diesen, damit sie von NCP erkannt werden.

  • Aktualisieren Sie ncp.ini mit Informationen zur NSX-T Data Center-Ressource.

Nächste Maßnahme

Installieren Sie OpenShift Container Platform. Siehe Installieren von OpenShift Container Platform.