Les appels d'API à certaines des commandes NSX-T Data Center et vSphere Distributed Switch sont mis à jour pour prendre en charge la mise en réseau de NSX-T Data Center sur vSphere Distributed Switch.

Modifications de l'API pour vSphere Distributed Switch

Pour obtenir des informations détaillées relatives aux appels d'API, reportez-vous à Guide de l'API de NSX-T Data Center.

Note : La configuration effectuée à l'aide des commandes d'API est également possible à partir de l'interface utilisateur de vCenter Server. Pour plus d'informations sur la création d'un nœud de transport NSX-T Data Center à l'aide de vSphere Distributed Switch en tant que commutateur d'hôte, reportez-vous à la rubrique Configurer un nœud de transport hôte géré dans le Guide d'installation de NSX-T Data Center.
API / Commutateur virtuel distribué NSX-T (N-VDS) NSX-T sur vSphere Distributed Switch (N-VDS) Modifications des commandes API pour NSX-T sur vSphere Distributed Switch
Créer un nœud de transport pour un nœud découvert.

/api/v1/fabric/discovered-nodes/<external-id/discovered-node-id>?action=create_transport_node

{
 "node_id":
 "d7ef478b-752c-400a-b5f0-207c04567e5d",
 "host_switch_spec": {
 "host_switches": [
 {
 "host_switch_name": "nvds-1",
 "host_switch_id": 
"50 2b 92 54 e0 80 d8 d1-ee ab 8d a6 7b fd f9 4b",
 "host_switch_type": "NVDS",
 "host_switch_mode": "STANDARD",
 "host_switch_profile_ids": [
 {
 "key": "UplinkHostSwitchProfile",
 "value": "159353ae-c572-4aca-9469-9582480a7467"
 }
 ],
 "pnics": [],
 "uplinks": [
 {
 "vds_uplink_name": "Uplink 2",
 "uplink_name": "nsxuplink1"
 } ],
 "is_migrate_pnics": false,
 "ip_assignment_spec": {
 "resource_type": "AssignedByDhcp"
 },
 "cpu_config": [],
 "transport_zone_endpoints": [
 {
 "transport_zone_id":
 "06ba5326-67ac-4f2c-9953-a8c5d326b51e",
 "transport_zone_profile_ids": [
 {
 "resource_type": "BfdHealthMonitoringProfile",
 "profile_id": 
"52035bb3-ab02-4a08-9884-18631312e50a" } ] } ],
 "vmk_install_migration": [],
 "pnics_uninstall_migration": [],
 "vmk_uninstall_migration": [],
 "not_ready": false
 }
 ],
 "resource_type": "StandardHostSwitchSpec"
 },
 "transport_zone_endpoints": [],
 "maintenance_mode": "DISABLED",
 "is_overridden": false,
 "resource_type": "TransportNode",
 "id": "d7ef478b-752c-400a-b5f0-207c04567e5d",
 "display_name": "TestTN",
}
/api/v1/fabric/discovered-nodes/<external-id/discovered-node-id>?action=create_transport_node
{
"node_id":
 "d7ef478b-752c-400a-b5f0-207c04567e5d", "host_switch_spec": {
 "host_switches": [
 {
 "host_switch_name": "vds-1",
 "host_switch_id":
 "50 2b 92 54 e0 80 d8 d1-ee ab 8d a6 7b fd f9 4b",
 "host_switch_type": "VDS",
 "host_switch_mode": "STANDARD",
 "host_switch_profile_ids": [
 {
 "key": "UplinkHostSwitchProfile",
 "value":
 "159353ae-c572-4aca-9469-9582480a7467"
 } ],
 "pnics": [],
 "uplinks": [
 {
 "vds_uplink_name": "Uplink 2",
 "uplink_name": "nsxuplink1"
 } ],
 "is_migrate_pnics": false,
 "ip_assignment_spec": {
 "resource_type": "AssignedByDhcp"
 },
 "cpu_config": [],
 "transport_zone_endpoints": [
 {
 "transport_zone_id":
 "06ba5326-67ac-4f2c-9953-a8c5d326b51e",
 "transport_zone_profile_ids": [
 {
 "resource_type": "BfdHealthMonitoringProfile",
 "profile_id": 
"52035bb3-ab02-4a08-9884-18631312e50a"
 } ] } ],
 "vmk_install_migration": [],
 "pnics_uninstall_migration": [],
 "vmk_uninstall_migration": [],
 "not_ready": false
 } 
 ],
 "resource_type": "StandardHostSwitchSpec"
 },
 "transport_zone_endpoints": [],
 "maintenance_mode": "DISABLED",
 "is_overridden": false,
 "resource_type": "TransportNode",
 "display_name": "TestTN",
}
  • "host_switch_name": "vds-1" : n'est pas un nom de commutateur entré par l'administrateur. Le champ Nom du commutateur hôte est sélectionné dans la liste remplie de vSphere Distributed Switches créés dans vSphere.
  • "host_switch_id" : est l'UUID de l'objet vSphere Distributed Switch. L'API correspondante dans vSphere est vim.DistributedVirtualSwitch.config.uuid .

  • "vds_uplink_name" : une liaison montante créée dans vSphere Distributed Switch, mappant les liaisons montantes aux cartes réseau physiques.
  • "uplink_name" : une liaison montante créée dans NSX-T qui mappe les liaisons montantes sur N-VDS aux liaisons montantes définies dans vds_uplink_name.
  • "is_migrate_pnics": false : par défaut, la migration des cartes réseau physiques lorsque vous utilisez vSphere Distributed Switch n'est pas prise en charge.
  • "transport_zone_endpoints" : non pris en charge lorsque le type de commutateur hôte est vSphere Distributed Switch. Ce champ est obligatoire lorsque le type de commutateur d'hôte est N-VDS. L'ID de point de terminaison de la zone de transport correspond au commutateur hôte auquel il est associé.

    Pour plus d'informations sur /api/v1/fabric/discovered-nodes/<external-id/discovered-node-id>?action=create_transport_node, consultez Guide de l'API de NSX-T Data Center.

Configuration de machine virtuelle vim.vm.device.VirtualEthernetCard.OpaqueNetworkBackingInfo vim.vm.device.VirtualEthernetCard.DistributedVirtualPortBackingInfo
  • vSphere Distributed Switch : en tant qu'administrateur vSphere, assurez-vous que le paramètre BackingType est défini sur NSX.
Note : VNIC BackingType est défini par défaut sur DistributedVirtualPortBackingInfo lorsque BackingType est défini sur OpaqueNetworkBackingInfo.
NIC VMkernel vim.host.VirtualNic.OpaqueNetworkSpec vim.dvs.DistributedVirtualPort
  • N-VDS : en tant qu'administrateur NSX-T, définissez les valeurs sur ces paramètres :
    • OpaqueNetworkId
    • OpaqueNetworkType
  • NSX-T sur vSphere Distributed Switch : en tant qu'administrateur vSphere, définissez les valeurs sur ces paramètres :
    • SwitchUUID et portgroupKey
    • BackingType du DVPG doit être NSX.
Mappage de la carte réseau physique à la liaison montante

/api/v1/transport-node-profiles

/api/v1/transport-nodes

API : vim.host.NetworkSystem:networkSystem.updateNetworkConfig

Propriété : vim.host.NetworkConfig.proxySwitch

  • Pour mapper des cartes réseau physiques à des liaisons montantes pour vSphere Distributed Switch en appelant la commande API, définissez la propriété maxMtu.
MTU /api/v1/host-switch-profiles

API : vim.dvs.VmwareDistributedVirtualSwitch.reconfigure

Propriété : VmwareDistributedVirtualSwitch.ConfigSpec.maxMtu

  • Pour configurer une valeur MTU pour vSphere Distributed Switch en appelant la commande API, définissez la propriété maxMtu.
    Note : La valeur MTU définie dans les profils de liaison montante dans NSX-T ne s'applique pas au commutateur hôte.

LAG

/api/v1/host-switch-profiles

API : vim.dvs.VmwareDistributedVirtualSwitch.updateLacpGroupConfig

Propriété : vim.dvs.VmwareDistributedVirtualSwitch.LacpGroupSpec

  • Pour configurer un profil LAG pour vSphere Distributed Switch en appelant la commande API, définissez la propriété LacpGroupSpec.
NIOC /api/v1/transport-node-profiles

/api/v1/transport-nodes

API : vim.dvs.VmwareDistributedVirtualSwitch.reconfigure

Propriété : vim.dvs.VmwareDistributedVirtualSwitch.ConfigSpec.infrastructureTrafficResourceConfig

  • Pour configurer un profil NIOC pour vSphere Distributed Switch en appelant la commande API, définissez la propriété infrastructureTrafficResourceConfig.
LLDP

/api/v1/transport-node-profiles

/api/v1/transport-nodes

API : vim.dvs.VmwareDistributedVirtualSwitch.reconfigure

Propriété : vim.dvs.VmwareDistributedVirtualSwitch.ConfigSpec.linkDiscoveryProtocolConfig

  • Pour configurer le profil LLDP pour vSphere Distributed Switch en appelant la commande API, définissez la propriété linkDiscoveryProtocolConfig.