Dell QLogic Family of Adapters Guía del usuario

Tipo
Guía del usuario
Información de terceros que se le
ofrece por cortesía de Dell.
Marvell. Avanzando más rápidamente
AH0054602-09 M
16 de octubre de 2019
Cubierta
Guía del usuario
Adaptadores de red convergente
Serie 41xxx
Si desea obtener más información, visite nuestra página web en: http://www.marvell.com
Aviso:
ESTE DOCUMENTO Y LA INFORMCIÓN PROVISTA EN ESTE DOCUMENTO SE SUMINISTRAN "TAL CUAL" SIN NINGUNA GARANTÍA. MARVELL RENUNCIA
EXPRESAMENTE Y NO DA GARANTÍAS NI GARANTIZA EN RELACIÓN CON EL PRODUCTO, YA SEA EXPLÍCITA, ORAL, IMPLÍCITA, ESTATURARIA, QUE SURJA
CONFORME A LA LEY, O COMO RESULTADO DEL USO COMERCIAL, DURANTE LA NEGOCIACIÓN, O EL TRANSCURSO DE LA EJECUCIÓN, INCLUIDAS LAS
GARANTÍAS IMPLÍCITAS DE COMERCIABILIDAD E IDONEIDAD PARA UN FIN PARTICULAR Y LA NO INFRACCIÓN DE DERECHOS.
Se considera que la información provista es precisa y fiable. Sin embargo, Marvell no asume ninguna responsabilidad por las consecuencias de la utilización de dicha
información o por infracciones de patentes u otros derechos de terceras partes que se puedan derivar de su utilización. Mediante este documento no se otorga ninguna
licencia, explícita o implícita, a derechos de propiedad intelectual de Marvell. Los productos Marvell no están autorizados para su uso como componentes críticos en
dispositivos médicos, sistemas militares, dispositivos de apoyo vital o crítico, o sistemas relacionados. Marvell se reserva el derecho a realizar cambios en este documento,
en cualquier momento y sin previo aviso.
Control de las exportaciones
El usuario o destinatario de este documento admite que la información incluida en este documento puede estar sujeta a leyes, incluidas, aunque sin limitación, a las leyes
de control de las exportaciones de EE. UU. y a las normativas relativas a la exportación, la reexportación, la transferencia, el desvío o la publicación de dicha información.
El usuario o destinatario debe cumplir con todas las leyes y normativas aplicables en todo momento. Estas leyes y normativas incluyen restricciones en destinos, usuarios
y usos finales prohibidos.
Patentes/Marcas registradas
Los productos identificados en este documento pueden estar cubiertos por una o más patentes de Marvell y/o solicitudes de patente. No puede utilizar ni facilitar el uso de
este documento en relación con infracciones de derechos u otro análisis jurídico relacionado con los productos expuestos en el presente documento. Marvell y el logotipo
de Marvell son marcas registradas de Marvell o sus filiales. Visite www.marvell.com para obtener una lista completa de las marcas registradas de Marvell y las directrices
sobre el uso de tales marcas registradas. Otros nombres y marcas se pueden considerar propiedad de terceros.
Copyright
Copyright © 2017–2019. Marvell International Ltd. Todos los derechos reservados.
Guía del usuario
Adaptadores de red convergente
ii AH0054602-09 M
iii AH0054602-09 M
Tabla de contenido
Prefacio
Productos compatibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xviii
Público previsto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xix
Contenido de esta guía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xx
Convenciones de la documentación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xxi
Descarga de actualizaciones y documentación . . . . . . . . . . . . . . . . . xxiv
Avisos legales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xxv
Seguridad del láser, Aviso FDA. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xxv
Certificación por agencia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xxv
Requisitos de EMI y EMC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xxv
KCC: Clase A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xxvi
VCCI: Clase A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xxvii
Cumplimiento de seguridad del producto . . . . . . . . . . . . . . . . . . . . . . xxvii
1 Visión general del producto
Descripción funcional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Características . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Especificaciones del adaptador. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Características físicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Especificaciones de estándares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2 Instalación del hardware
Requisitos del sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Precauciones de seguridad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Lista de verificación de preinstalación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
Instalación del adaptador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3 Instalación del controlador
Instalación del software del controlador para Linux . . . . . . . . . . . . . . . . . . . 9
Instalación de los controladores para Linux sin RDMA . . . . . . . . . . . . 11
Cómo eliminar los controladores para Linux . . . . . . . . . . . . . . . 12
Instalación de controladores para Linux mediante el paquete
RPM src . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
iv AH0054602-09 M
Guía del usuario—Adaptadores de red convergente
Serie 41xxx
Instalación de controladores para Linux mediante el paquete
RPM kmp/kmod . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
Instalación de controladores para Linux mediante el archivo
TAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
Instalación de los controladores para Linux con RDMA . . . . . . . . . . . 16
Parámetros opcionales de los controladores para Linux. . . . . . . . . . . 17
Valores predeterminados de los parámetros de los controladores
para Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
Mensajes de controladores para Linux . . . . . . . . . . . . . . . . . . . . . . . . 18
Estadísticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
Importación de una clave pública para inicio seguro. . . . . . . . . . . . . . 18
Instalación del software del controlador de Windows . . . . . . . . . . . . . . . . . 20
Instalación de controladores de Windows . . . . . . . . . . . . . . . . . . . . . . 20
Ejecución del DUP en la GUI . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Opciones de instalación del DUP . . . . . . . . . . . . . . . . . . . . . . . . 26
Ejemplos de instalación del DUP . . . . . . . . . . . . . . . . . . . . . . . . 27
Cómo eliminar los controladores de Windows . . . . . . . . . . . . . . . . . . 27
Administración de las propiedades del adaptador. . . . . . . . . . . . . . . . 27
Configuración de las opciones de administración de energía. . . . . . . 29
Configuración del protocolo de comunicación a utilizar con QCCla
GUIQCC PowerKity QCS CLI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
Configuración del enlace en Windows . . . . . . . . . . . . . . . . . . . . . . . . 30
Modo Link Control (Control del enlace) . . . . . . . . . . . . . . . . . . . 31
Velocidad y dúplex del enlace . . . . . . . . . . . . . . . . . . . . . . . . . . 32
Modo FEC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
Instalación del software del controlador de VMware . . . . . . . . . . . . . . . . . . 34
Controladores y paquetes de controladores de VMware . . . . . . . . . . 34
Instalación de controladores de VMware . . . . . . . . . . . . . . . . . . . . . . 35
Parámetros opcionales del controlador NIC de VMware. . . . . . . . . . . 37
Valores predeterminados de los parámetros de los controladores de
VMware. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
Cómo eliminar los controladores de VMware . . . . . . . . . . . . . . . . . . . 39
Compatibilidad con FCoE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
Compatibilidad con iSCSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4 Actualización del firmware
Ejecución del DUP haciendo doble clic . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
Ejecución de DUP desde la línea de comando . . . . . . . . . . . . . . . . . . . . . . 44
Ejecución del DUP mediante el archivo .bin . . . . . . . . . . . . . . . . . . . . . . . . 45
v AH0054602-09 M
Guía del usuario—Adaptadores de red convergente
Serie 41xxx
5 Configuración de inicio previo del adaptador
Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
Visualización de las propiedades de imagen de firmware . . . . . . . . . . . . . . 52
Configuración de parámetros del dispositivo . . . . . . . . . . . . . . . . . . . . . . . . 53
Configuración de parámetros de NIC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
Configuración del puente del centro de datos . . . . . . . . . . . . . . . . . . . . . . . 59
Configuración de inicio FCoE. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
Configuración del inicio iSCSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
Configuración de las particiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
Particionamiento para VMware ESXi 6.5 y ESXi 6.7. . . . . . . . . . . . . . 73
6 Configuración del inicio desde SAN
Inicio iSCSI desde SAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Asistencia integrada y lista para usar iSCSI . . . . . . . . . . . . . . . . . . . . 76
Configuración de preinicio iSCSI. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
Establecer el modo de inicio de BIOS en UEFI . . . . . . . . . . . . . 77
Activación de NPAR y del iSCSI HBA . . . . . . . . . . . . . . . . . . . . 79
Configuración del destino de almacenamiento. . . . . . . . . . . . . . 80
Selección del protocolo de inicio iSCSI UEFI. . . . . . . . . . . . . . . 80
Configuración de las opciones de inicio iSCSI . . . . . . . . . . . . . . 82
Configuración del servidor DHCP para que admita el inicio
iSCSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
Configuración del inicio iSCSI desde SAN en Windows . . . . . . . . . . . 99
Antes de empezar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
Selección del modo de inicio iSCSI preferido. . . . . . . . . . . . . . . 100
Configuración de los parámetros generales iSCSI. . . . . . . . . . . 100
Configuración del iniciador iSCSI . . . . . . . . . . . . . . . . . . . . . . . . 101
Configuración de los destinos iSCSI . . . . . . . . . . . . . . . . . . . . . 102
Detección del LUN de iSCSI e inyección de controladores
Marvell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
Configuración del inicio iSCSI desde SAN en Linux . . . . . . . . . . . . . . 105
Configuración del inicio iSCSI desde SAN para RHEL 7.5 y
posterior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
Configuración del inicio iSCSI desde SAN para SLES 12 SP3
y posterior. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
Configuración del inicio iSCSI desde SAN para otras
distribuciones de Linux. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
Configuración del inicio iSCSI desde SAN en VMware. . . . . . . . . . . . 120
Establecimiento de la configuración principal de UEFI. . . . . . . . 120
Configuración del BIOS del sistema para inicio iSCSI (L2) . . . . 123
vi AH0054602-09 M
Guía del usuario—Adaptadores de red convergente
Serie 41xxx
Asignación del CD o DVD para la instalación del sistema
operativo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
Inicio FCoE desde SAN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
Asistencia integrada y lista para usar FCoE . . . . . . . . . . . . . . . . . . . . 128
Configuración de preinicio FCoE. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
Especificación del protocolo de inicio del BIOS . . . . . . . . . . . . . 129
Configuración del modo de inicio del adaptador UEFI . . . . . . . . 129
Configuración del inicio FCoE desde SAN en Windows . . . . . . . . . . . 134
Instalación de inicio FCoE para Windows Server 2012 R2 y
2016 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
Configuración de FCoE en Windows . . . . . . . . . . . . . . . . . . . . . 135
Volcado para caída del sistema FCoE en Windows . . . . . . . . . 136
Inyección (Integración de la solución) de los controladores del
adaptador en los archivos de imagen de Windows . . . . . . . . . 136
Configuración del inicio FCoE desde SAN en Linux . . . . . . . . . . . . . . 136
Requisitos previos para el inicio FCoE desde SAN de Linux . . . 137
Configuración de inicio FCoE desde SAN de Linux . . . . . . . . . . 137
Configuración del inicio FCoE desde SAN en VMware. . . . . . . . . . . . 138
Inyección (integración de la solución) de los controladores del
adaptador ESXi en archivos de imagen. . . . . . . . . . . . . . . . . . 138
Instalación del ISO ESXi personalizado . . . . . . . . . . . . . . . . . . . 139
7 Configuración de RoCE
Sistemas operativos admitidos y OFED. . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
Planificación para RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
Prepación de un adaptador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
Preparación del conmutador Ethernet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
Configuración del conmutador Ethernet Cisco Nexus 6000 . . . . . . . . 145
Configuración del conmutador Ethernet Dell Z9100 para RoCE. . . . . 146
Configuración de RoCE en el adaptador para Windows Server . . . . . . . . . 149
Visualización de Contadores RDMA . . . . . . . . . . . . . . . . . . . . . . . . . . 152
Configuración de RoCE para dispositivos VF SR-IOV (VF RDMA)
. . . 158
Instrucciones de configuración . . . . . . . . . . . . . . . . . . . . . . . . . . 158
Limitaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
Configuración de RoCE en el adaptador para Linux . . . . . . . . . . . . . . . . . . 167
Configuración de RoCE para RHEL . . . . . . . . . . . . . . . . . . . . . . . . . . 167
Configuración de RoCE para SLES . . . . . . . . . . . . . . . . . . . . . . . . . . 168
Comprobación de la configuración de RoCE en Linux . . . . . . . . . . . . 169
Interfaces de vLAN y valores de índice de GID. . . . . . . . . . . . . . . . . . 171
Configuración de RoCE v2 para Linux . . . . . . . . . . . . . . . . . . . . . . . . 172
vii AH0054602-09 M
Guía del usuario—Adaptadores de red convergente
Serie 41xxx
Identificación del índice GID de RoCE v2 o la dirección . . . . . . 172
Comprobación del índice GID de RoCE v1 o v2, y de la
dirección desde los parámetros sys y class . . . . . . . . . . . . . . . 173
Comprobación de la función de RoCE v1 o RoCE v2 a través
de aplicaciones perftest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
Configuración de RoCE para dispositivos VF SR-IOV (VF RDMA)
. . . 177
Enumeración de VF para L2 y RDMA . . . . . . . . . . . . . . . . . . . . 178
Número de VF compatibles con RDMA . . . . . . . . . . . . . . . . . . . 180
Limitaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
Configuración de RoCE en el adaptador para VMware ESX . . . . . . . . . . . . 181
Configuración de interfaces RDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
Configuración de MTU. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
Modo RoCE y estadísticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
Configuración de un dispositivo RDMA paravirtual (PVRDMA) . . . . . 185
Configuración de DCQCN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
Terminología de DCQCN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
Descripción general de DCQCN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
Parámetros relacionados con DCB . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
Configuración global en el tráfico RDMA. . . . . . . . . . . . . . . . . . . . . . . 191
Establecer la prioridad de vLAN en el tráfico RDMA . . . . . . . . . 191
Establecer ECN en el tráfico RDMA . . . . . . . . . . . . . . . . . . . . . . 191
Establecer DSCP en el tráfico RDMA. . . . . . . . . . . . . . . . . . . . . 192
Configuración de DSCP-PFC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
Activación de DCQCN. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
Configuración de CNP. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
Parámetros de algoritmo de DCQCN . . . . . . . . . . . . . . . . . . . . . . . . . 192
Estadísticas de MAC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
Ejemplo de script. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
Limitaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
8 Configuración de iWARP
Preparación del adaptador para iWARP . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
Configuración de iWARP en Windows . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
Configuración de iWARP en Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
Instalación del controlador. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
Configuración de iWARP y RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
Detección del dispositivo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
Aplicaciones iWARP admitidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
Ejecución de Perftest para iWARP . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
Configuración de NFS-RDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
viii AH0054602-09 M
Guía del usuario—Adaptadores de red convergente
Serie 41xxx
9 Configuración de iSER
Antes de empezar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
Configuración de iSER para RHEL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
Configuración de iSER para SLES 12 y posterior . . . . . . . . . . . . . . . . . . . . 210
Uso de iSER con iWARP en RHEL y SLES. . . . . . . . . . . . . . . . . . . . . . . . . 211
Optimización del rendimiento de Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
Configuración de las CPU en modo de rendimiento máximo . . . . . . . 213
Configuración de los parámetros sysctl de kernel. . . . . . . . . . . . . . . . 213
Configuración de los parámetros de afinidad de IRQ . . . . . . . . . . . . . 214
Configuración de la puesta en escena de dispositivo en bloques. . . . 214
Configuración de iSER para ESXi 6.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
Antes de empezar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
Configuración de iSER para ESXi 6.7. . . . . . . . . . . . . . . . . . . . . . . . . 215
10 Configuración iSCSI
Inicio iSCSI. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
Descarga de iSCSI en Windows Server. . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
Instalación de controladores Marvell . . . . . . . . . . . . . . . . . . . . . . . . . . 219
Instalación del iniciador iSCSI de Microsoft . . . . . . . . . . . . . . . . . . . . 219
Configuración de Microsoft Initiator para utilizar la descarga iSCSI
de Marvell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
Preguntas más frecuentes sobre la descarga iSCSI. . . . . . . . . . . . . . 227
Instalación de inicio iSCSI para Windows 2012 R2, 2016 y 2019. . . . 228
Volcado para caída del sistema iSCSI . . . . . . . . . . . . . . . . . . . . . . . . 229
Descarga de iSCSI en entornos Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
Diferencias con bnx2i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
Configuración de qedi.ko. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
Comprobación de interfaces iSCSI en Linux. . . . . . . . . . . . . . . . . . . . 230
11 Configuración FCoE
Configuración de la descarga FCoE de Linux . . . . . . . . . . . . . . . . . . . . . . . 233
Diferencias entre qedf y bnx2fc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
Configuración de qedf.ko. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
Comprobación de dispositivos FCoE en Linux . . . . . . . . . . . . . . . . . . 235
12 Configuración de SR-IOV
Configuración de SR-IOV en Windows . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
Configuración de SR-IOV en Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
Activación de IOMMU para SR-IOV en instalaciones del sistema
operativo Linux basadas en UEFI. . . . . . . . . . . . . . . . . . . . . . . . . . . 251
Configuración de SR-IOV en VMware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
ix AH0054602-09 M
Guía del usuario—Adaptadores de red convergente
Serie 41xxx
13 Configuración de NVMe-oF con RDMA
Instalación de los controladores de dispositivo en los dos servidores . . . . . 259
Configuración del servidor de destino . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
Configuración del servidor iniciador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
Preacondicionamiento del servidor de destino. . . . . . . . . . . . . . . . . . . . . . . 264
Prueba de los dispositivos NVMe-oF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
Optimización del rendimiento. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
Afinidad de IRQ (multi_rss-affin.sh). . . . . . . . . . . . . . . . . . . . . . . . . . . 267
Frecuencia de la CPU (cpufreq.sh) . . . . . . . . . . . . . . . . . . . . . . . . . . . 268
14 Configuración de VXLAN
Configuración de VXLAN en Linux. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269
Configuración de VXLAN en VMware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
Configuración de VXLAN en Windows Server 2016 . . . . . . . . . . . . . . . . . . 272
Activación de la descarga VXLAN en el adaptador. . . . . . . . . . . . . . . 272
Implementación de una red definida por software. . . . . . . . . . . . . . . . 273
15 Windows Server 2016
Configuración de interfaces RoCE con Hyper-V . . . . . . . . . . . . . . . . . . . . . 274
Creación de un conmutador virtual Hyper-V con un NIC virtual
RDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
Cómo agregar un Id. de vLAN al NIC virtual del host . . . . . . . . . . . . . 277
Comprobación de que RoCE está activado . . . . . . . . . . . . . . . . . . . . 277
Cómo agregar NIC virtuales de host (puertos virtuales) . . . . . . . . . . . 278
Asignación de una unidad SMB y ejecución del tráfico de RoCE . . . . 278
RoCE sobre Switch Embedded Teaming (SET). . . . . . . . . . . . . . . . . . . . . . 280
Creación de un conmutador virtual Hyper-V con NIC virtuales
SET y RDMA. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
Activación de RDMA en SET. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
Asignación de un Id. de vLAN en SET . . . . . . . . . . . . . . . . . . . . . . . . 281
Ejecución de tráfico RDMA en SET. . . . . . . . . . . . . . . . . . . . . . . . . . . 281
Configuración de QoS para RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
Configuración de QoS desactivando DCBX en el adaptador . . . . . . . 282
Configuración de QoS activando DCBX en el adaptador . . . . . . . . . . 287
Configuración de VMMQ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290
Activación de VMMQ en el adaptador . . . . . . . . . . . . . . . . . . . . . . . . . 291
Creación de un conmutador de máquina virtual con o sin SR-IOV. . . 291
Activación de VMMQ en el conmutador de máquina virtual . . . . . . . . 293
Cómo obtener la capacidad del conmutador de máquina virtual . . . . 293
x AH0054602-09 M
Guía del usuario—Adaptadores de red convergente
Serie 41xxx
Creación de una máquina virtual y activación de VMMQ en
VMNetworkAdapters en la máquina virtual. . . . . . . . . . . . . . . . . . . . 294
Activación y desactivación de VMMQ en un NIC de
administración. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
Supervisión de las estadísticas de tráfico . . . . . . . . . . . . . . . . . . . . . . 295
Configuración de Storage Spaces Direct . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
Configuración del hardware. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
Implementación de un sistema hiperconvergente . . . . . . . . . . . . . . . . 296
Implementación del sistema operativo . . . . . . . . . . . . . . . . . . . . 297
Configuración de la red . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297
Configuración de Storage Spaces Direct . . . . . . . . . . . . . . . . . . 299
16 Windows Server 2019
RSSv2 para Hyper-V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
Descripción de RSSv2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
Errores de registro de eventos conocidos. . . . . . . . . . . . . . . . . . . . . . 304
Comportamientos de Windows Server 2019 . . . . . . . . . . . . . . . . . . . . . . . . 304
VMMQ está activado de forma predeterminada . . . . . . . . . . . . . . . . . 304
Inbox Driver Network Direct (RDMA) está desactivado de forma
predeterminada. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305
Nuevas propiedades del adaptador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305
Max Queue Pairs (L2) Per VPort (Pares de colas máx. [L2] por
VPort) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305
Network Direct Technology (Tecnología directa de red) . . . . . . . . . . . 306
Recursos de virtualización. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306
Aceleraciones predeterminadas de VMQ y VMMQ. . . . . . . . . . . . . . . 307
Agrupación de VPort única . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
17 Solución de problemas
Lista de comprobación de solución de problemas . . . . . . . . . . . . . . . . . . . . 309
Cómo asegurarse de que los controladores actuales estén cargados . . . . 310
Comprobar controladores en Windows . . . . . . . . . . . . . . . . . . . . . . . . 310
Comprobar controladores en Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
Comprobar controladores en VMware. . . . . . . . . . . . . . . . . . . . . . . . . 311
Prueba de conectividad de red. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311
Cómo probar la conectividad de red en Windows. . . . . . . . . . . . . . . . 311
Cómo probar la conectividad de red en Linux. . . . . . . . . . . . . . . . . . . 312
Microsoft Virtualization con Hyper-V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
Problemas específicos de Linux. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
Problemas varios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
Recopilación de datos de depuración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
xi AH0054602-09 M
Guía del usuario—Adaptadores de red convergente
Serie 41xxx
A LED del adaptador
B Módulos ópticos y cables
Especificaciones compatibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315
Módulos ópticos y cables probados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316
Conmutadores probados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320
C Configuración del conmutador Dell Z9100
D Limitaciones de las características
E Historial de revisiones
Glosario
xii AH0054602-09 M
Guía del usuario—Adaptadores de red convergente
Serie 41xxx
Lista de ilustraciones
Ilustración Página
3-1 Ventana Dell Update Package (Paquete de actualización de Dell) . . . . . . . . . . . . . 21
3-2 Asistente QLogic InstallShield: Ventana de bienvenida. . . . . . . . . . . . . . . . . . . . . . 21
3-3 Asistente QLogic InstallShield: Ventana License Agreement (Contrato de
licencia) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3-4 Asistente InstallShield: Ventana Setup Type (Tipo de configuración) . . . . . . . . . . . 23
3-5 Asistente InstallShield: Ventana Custom Setup (Configuración personalizada) . . . 24
3-6 Asistente InstallShield: Ventana Ready to Install the Program (Listo para instalar
el programa). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3-7 Asistente InstallShield: Ventana Completed (Completada) . . . . . . . . . . . . . . . . . . . 25
3-8 Ventana Dell Update Package (Paquete de actualización de Dell) . . . . . . . . . . . . . 26
3-9 Configuración de Advanced Adapter Properties (Propiedades avanzadas del
adaptador) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3-10 Opciones de Power Management (Administración de energía). . . . . . . . . . . . . . . . 29
3-11 Establecer el modo Driver Controlled (Controlador controlado) . . . . . . . . . . . . . . . 31
3-12 Establecimiento de la propiedad Speed and Duplex (Velocidad y dúplex) del
enlace. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3-13 Establecer la propiedad FEC Mode (Modo FEC). . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4-1 Dell Update Package (Paquete de actualización Dell): Ventana de
presentación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4-2 Dell Update Package (Paquete de actualización Dell): Cargando nuevo
firmware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4-3 Dell Update Package (Paquete de actualización Dell): Resultados de la
instalación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4-4 Dell Update Package (Paquete de actualización Dell): Finalizar instalación. . . . . . 44
4-5 Opciones de línea de comando del DUP: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5-1 System Setup (Configuración del sistema) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5-2 System Setup: Device Settings (Configuración del sistema: Configuración del
dispositivo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5-3 Main Configuration Page (Página de configuración principal) . . . . . . . . . . . . . . . . . 49
5-4 Main Configuration Page, Setting Partitioning Mode to NPAR (Página de
configuración principal, establecer el modo de particionamiento en NPAR) . . . . . . 50
5-5 Firmware Image Properties (Propiedades de imagen de firmware). . . . . . . . . . . . . 53
5-6 Device Level Configuration (Configuración de nivel de dispositivo) . . . . . . . . . . . . 54
5-7 NIC Configuration (Configuración NIC) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5-8 System Setup: Data Center Bridging (DCB) Settings (Configura
ción del sistema:
Configuración del puente del centro de datos [DCB]) . . . . . . . . . . . . . . . . . . . . . . . 59
5-9 FCoE General Parameters (Parámetros generales FCoE) . . . . . . . . . . . . . . . . . . . 61
5-10 FCoE Target Configuration (Configuración de destino FCoE) . . . . . . . . . . . . . . . . . 61
5-11 iSCSI General Parameters (Parámetros generales iSCSI) . . . . . . . . . . . . . . . . . . . 64
5-12 iSCSI Initiator Configuration Parameters (Parámetros de configuración del
iniciador iSCSI) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5-13 iSCSI First Target Parameters (Parámetros de destino primario iSCSI) . . . . . . . . . 66
5-14 iSCSI Second Target Parameters (Parámetros de destino secundario iSCSI) . . . . 67
xiii AH0054602-09 M
Guía del usuario—Adaptadores de red convergente
Serie 41xxx
5-15 NIC Partitioning Configuration, Global Bandwidth Allocation (Configuración del
particionamiento NIC, Asignación global de ancho de banda) . . . . . . . . . . . . . . . . 68
5-16 Página Global Bandwidth Allocation (Asignación del ancho de banda global) . . . . 69
5-17 Partition 1 Configuration (Configuración de la partición 1). . . . . . . . . . . . . . . . . . . . 70
5-18 Partition 2 Configuration: FCoE Offload (Configuración de la partición 2:
Descarga FCOE) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5-19 Partition 3 Configuration: iSCSI Offload (Configuración de la partición 3: iSCSI
Offload: Descarga iSCSI). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5-20 Partition 4 Configuration (Configuración de la partición 4). . . . . . . . . . . . . . . . . . . . 73
6-1 System Setup: Boot Settings (Configuración del sistema: Configuración de
inicio) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
6-2 System Setup: Device Settings (Configuración del sistema: Configuración del
dispositivo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
6-3 System Setup: NIC Configuration (Configuración del sistema: Configuración
NIC) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
6-4 System Setup: NIC Configuration, Boot Protocol (Configuracn NIC, Protocolo
de inicio). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
6-5 System Setup: iSCSI Configuration (Configuración del sistema: Configuración
iSCSI). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6-6 System Setup: Selecting General Parameters (Configuración del sistema:
Selección de parámetros generales) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
6-7 System Setup: iSCSI General Parameters (Configuración del sistema:
Parámetros generales iSCSI) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
6-8 System Setup: Selecting iSCSI Initiator Parameters (Configuración del sistema:
Selección de los parámetros del iniciador iSCSI) . . . . . . . . . . . . . . . . . . . . . . . . . . 87
6-9 System Setup: iSCSI Initiator Parameters (Configuración del sistema:
Parámetros del iniciador iSCSI). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
6-10 System Setup: Selecting iSCSI First Target Parameters (Configuración del
sistema: Selección de Parámetros de destino primario iSCSI) . . . . . . . . . . . . . . . . 89
6-11 System Setup: iSCSI First Target Parameters (Parámetros de destino primario
iSCSI). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
6-12 System Setup: iSCSI Second Target Parameters (Configuración del sistema:
Parámetros de destino secundario iSCSI). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
6-13 System Setup: Saving iSCSI Changes (Configuración del sistema: Guardar
cambios de iSCSI) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
92
6-14 System Setup: iSCSI General Parameters (Configuración del sistema:
Parámetros generales iSCSI) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
6-15 System Setup: iSCSI General Parameters, VLAN ID (Configuración del sistema:
Parámetros generales iSCSI, Id. de VLAN). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
6-16 Detección del LUN de iSCSI mediante el shell de UEFI (versión 2) . . . . . . . . . . . . 103
6-17 Configuración de Windows: Selección de destino de instalación . . . . . . . . . . . . . . 104
6-18 Configuración de Windows: Selección del controlador que instalar . . . . . . . . . . . . 104
6-19 NIC integrado: Configuración de nivel de dispositivo para VMware . . . . . . . . . . . . 121
6-20 NIC integrado: Configuración de la partición 2 para VMware . . . . . . . . . . . . . . . . . 122
6-21 NIC integrado: BIOS del sistema, Configuración de inicio para VMware . . . . . . . . 123
xiv AH0054602-09 M
Guía del usuario—Adaptadores de red convergente
Serie 41xxx
6-22 NIC integrado: BIOS del sistema, Configuración de conexión 1 para VMware . . . . 124
6-23 NIC integrado: BIOS del sistema, Configuración de conexión 1 (destino) para
VMware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
6-24 VMware iSCSI BFS: Selección de un disco que instalar . . . . . . . . . . . . . . . . . . . . . 126
6-25 Inicio iSCSI de WMware desde SAN correcto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
6-26 System Setup: Selecting Device Settings (Configuración del sistema: Selección
de la configuración del dispositivo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
6-27 System Setup: Device Settings, Port Selection (Configuración del sistema:
Configuración del dispositivo, Selección del puerto) . . . . . . . . . . . . . . . . . . . . . . . . 130
6-28 System Setup: NIC Configuration (Configuración del sistema: Configuración
NIC) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
6-29 System Setup: FCoE Mode Enabled (Configuración del sistema: Modo FCoE
activado). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
6-30 System Setup: FCoE General Parameters (Configuración del sistema:
Parámetros generales FCoE) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
6-31 System Setup: FCoE General Parameters (Configuración del sistema:
Parámetros generales FCoE) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
6-32 Cuadro de diálogo ESXi-Customizer (Personalizador ESXi) . . . . . . . . . . . . . . . . . . 139
6-33 Seleccione un disco de VMware que instalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
6-34 Opciones de inicio USB para VMware. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
7-1 Configuración de las propiedades de RoCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
7-2 Cuadro de diálogo Add Counters (Agregar contadores) . . . . . . . . . . . . . . . . . . . . . 152
7-3 Monitorización de rendimiento: Contadores FastLinQ de Marvell . . . . . . . . . . . . . . 154
7-4 Establecer un nuevo conmutador de red virtual externo . . . . . . . . . . . . . . . . . . . . . 159
7-5 Establecer SR-IOV para nuevo conmutador virtual . . . . . . . . . . . . . . . . . . . . . . . . . 160
7-6 Configuración de VM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
7-7 Activación de VLAN en el adaptador de red . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
7-8 Activación de SR-IOV para el adaptador de red . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
7-9 Actualización de controladores en VM. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
7-10 Activación de RDMA en VMNIC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
7-11 Tráfico de RDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
7-12 Configuración del conmutador, Servidor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
7-13 Configuración del conmutador, Cliente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
7-14 Configuración de aplicaciones RDMA_CM: Servidor. . . . . .
. . . . . . . . . . . . . . . . . . 177
7-15 Configuración de aplicaciones RDMA_CM: Cliente. . . . . . . . . . . . . . . . . . . . . . . . . 177
7-16 Configuring a New Distributed Switch (Configurar un nuevo conmutador
distribuido) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
7-17 Asignación de un vmknic en PVRDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
7-18 Cómo establecer las reglas del Firewall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
8-1 Comando Windows PowerShell: Get-NetAdapterRdma . . . . . . . . . . . . . . . . . . . . . 197
8-2 Comando Windows PowerShell: Get-NetOffloadGlobalSetting . . . . . . . . . . . . . . . . 197
8-3 Perfmon: Add Counters (Agregar contadores). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
8-4 Perfmon: Comprobación del tráfico iWARP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
9-1 Ping RDMA correcto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
9-2 Instancias del portal iSER . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
xv AH0054602-09 M
Guía del usuario—Adaptadores de red convergente
Serie 41xxx
9-3 Iface Transport Confirmado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
9-4 Comprobación de nuevo dispositivo iSCSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
9-5 Configuración de destino LIO. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
10-1 iSCSI Initiator Properties (Propiedades del iniciador iSCSI), página Configuration
(Configuración). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
10-2 Cambio del nombre del nodo del iniciador iSCSI. . . . . . . . . . . . . . . . . . . . . . . . . . . 221
10-3 Iniciador iSCSI: Detección del portal de destino . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
10-4 Dirección IP del portal de destino . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
10-5 Selección de la dirección IP del iniciador. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
10-6 Conexión al destino iSCSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
10-7 Cuadro de diálogo Connect To Target (Conectar al destino) . . . . . . . . . . . . . . . . . . 226
12-1 System Setup for SR-IOV: Integrated Devices (Configuración del sistema para
SR-IOV: Dispositivos integrados). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
12-2 System Setup for SR-IOV: Device Level Configuration (Configuración del
sistema para SR-IOV: Configuración de nivel de dispositivo) . . . . . . . . . . . . . . . . . 238
12-3 Propiedades del adaptador, Advanced (Avanzado): Activar SR-IOV . . . . . . . . . . . 239
12-4 Administrador de conmutadores virtuales: Activar SR-IOV . . . . . . . . . . . . . . . . . . . 241
12-5 Configuración de VM: Activar SR-IOV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
12-6 Administrador de dispositivos: Máquina virtual con adaptador QLogic . . . . . . . . . . 244
12-7 Comando Windows PowerShell: Get-NetadapterSriovVf . . . . . . . . . . . . . . . . . . . . 244
12-8 System Setup: processor Settings for SR-IOV (Configuración del sistema:
Configuración del procesador para SR-IOV) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
12-9 System Setup for SR-IOV: Integrated Devices (Configuración del sistema para
SR-IOV: Dispositivos integrados). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
12-10 Edición del archivo grub.conf para SR-IOV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
12-11 Salida de comando de sriov_numvfs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
12-12 Salida de comando del comando ip link show . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
12-13 RHEL68 Virtual Machine (Máquina virtual RHELs68) . . . . . . . . . . . . . . . . . . . . . . . 250
12-14 Add New Virtual Hardware (Agregar nuevo hardware virtual) . . . . . . . . . . . . . . . . . 251
12-15 VMware Host Edit Settings (Edición de la configuración de host VMware). . . . . . . 255
13-1 Red NVMe-oF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
13-2 NQN del subsistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
13-3 Confirmación de la conexión de NVMe-oF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
13-4 Instalación de la utilidad FIO . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
14-1 Propiedades avanzadas: Activación de VXLAN . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
15-1 Activación de RDMA en NIC virtual de host. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
15-2 Hyper-V Virtual Ethernet Adapter Properties (Propiedades del adaptador
Ethernet Virtual de Hyper-V) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276
15-3 Comando Windows PowerShell: Get-VMNetworkAdapter. . . . . . . . . . . . . . . . . . . . 277
15-4 Comando Windows PowerShell: Get-NetAdapterRdma . . . . . . . . . . . . . . . . . . . . . 278
15-5 Cuadro de diálogo Add Counters (Agregar contadores) . . . . . . . . . . . . . . . . . . . . . 279
15-6 El monitor de rendimiento muestra el tráfico RoCE. . . . . . . . . . . . . . . . . . . . . . . . . 279
15-7 Comando Windows PowerShell: New-VMSwitch . . . . . . . . . . . . . . . . . . . . . . . . . . 280
15-8 Comando Windows PowerShell: Get-NetAdapter . . . . . . . . . . . . . . . . . . . . . . . . . . 281
15-9 Propiedades avanzadas: Activación de la QoS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
xvi AH0054602-09 M
Guía del usuario—Adaptadores de red convergente
Serie 41xxx
15-10 Propiedades avanzadas: Configuración del Id. de VLAN . . . . . . . . . . . . . . . . . . . . 284
15-11 Propiedades avanzadas: Activación de QoS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288
15-12 Propiedades avanzadas: Configuración del Id. de VLAN . . . . . . . . . . . . . . . . . . . . 289
15-13 Propiedades avanzadas: Activación de RSS del conmutador virtual . . . . . . . . . . . 291
15-14 Administrador de conmutadores virtuales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292
15-15 Comando Windows PowerShell: Get-VMSwitch . . . . . . . . . . . . . . . . . . . . . . . . . . . 293
15-16 Ejemplo de configuración de hardware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
16-1 Error del registro de eventos de RSSv2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304
xvii AH0054602-09 M
Guía del usuario—Adaptadores de red convergente
Serie 41xxx
Lista de tablas
Tabla Página
2-1 Requisitos del hardware del host. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2-2 Requisitos mínimos del sistema operativo del host . . . . . . . . . . . . . . . . . . . . . . . . . 6
3-1
Controladores Linux de los Adaptadores de la serie 41xxx FastLinQ de Marvell
. . . 10
3-2 Parámetros opcionales de los controladores de qede. . . . . . . . . . . . . . . . . . . . . . . 17
3-3 Valores predeterminados de funcionamiento de los controladores para Linux . . . . 17
3-4 Controladores de VMware . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3-5 Parámetros opcionales del controlador NIC de VMware . . . . . . . . . . . . . . . . . . . . . 37
3-6 Valores predeterminados de los parámetros de los controladores de VMware. . . . 38
5-1 Propiedades del adaptador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
6-1 Asistencia de inicio desde SAN integrada y lista para usar iSCSI. . . . . . . . . . . . . . 76
6-2 iSCSI General Parameters (Parámetros generales iSCSI) . . . . . . . . . . . . . . . . . . . 85
6-3 Definiciones de los parámetros de la Opción 17 de DHCP . . . . . . . . . . . . . . . . . . . 96
6-4 Definiciones de las subopciones de la Opción 43 de DHCP . . . . . . . . . . . . . . . . . . 97
6-5 Definiciones de las subopciones de la Opción 17 de DHCP . . . . . . . . . . . . . . . . . . 98
6-6 Asistencia de inicio desde SAN integrada y lista para usar FCoE. . . . . . . . . . . . . . 128
7-1 Compatibilidad del SO con RoCE v1, RoCE v2, iWARP, iSER y OFED . . . . . . . . . 142
7-2 Propiedades avanzadas de RoCE. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
7-3 Contadores de errores RDMA de FastLinQ de Marvell . . . . . . . . . . . . . . . . . . . . . . 154
7-4 SO de Linux compatible para VF RDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
7-5 Parámetros de algoritmo de DCQCN. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
13-1 Parámetros de destino. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
16-1 Recursos de virtualización de Windows 2019 para adaptadores de la serie 41xxx
de Dell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306
16-2 Aceleraciones de Windows 2019 VMQ y VMMQ. . . . . . . . . . . . . . . . . . . . . . . . . . . 307
17-1 Comandos de recopilación de datos de depuración . . . . . . . . . . . . . . . . . . . . . . . . 313
A-1 LED de actividad y enlace del puerto del adaptador . . . . . . . . . . . . . . . . . . . . . . . . 314
B-1 Módulos ópticos y cables probados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316
B-2 Conmutadores sometidos a pruebas de interoperabilidad. . . . . . . . . . . . . . . . . . . . 320
xviii AH0054602-09 M
Prefacio
En este prefacio se enumeran los productos compatibles, se especifica el público
previsto, se explican las convenciones tipográficas utilizadas en esta guía y se
describen los avisos legales.
Productos compatibles
Esta guía del usuario describe los siguientes productos de Marvell:
Adaptador de red convergente de 10 Gb QL41112HFCU-DE, soporte de
altura completa
Adaptador de red convergente de 10 Gb QL41112HLCU-DE, soporte de
perfil bajo
Adaptador NIC de 10 Gb QL41132HFRJ-DE, soporte de altura completa
Adaptador NIC de 10 Gb QL41132HLRJ-DE, soporte de perfil bajo
Adaptador NIC de 10 Gb QL41132HQCU-DE
Adaptador NIC de 10 Gb QL41132HQRJ-DE
Adaptador de red convergente de 10 Gb QL41154HQRJ-DE
Adaptador de red convergente de 10 Gb QL41154HQCU-DE
NOTA
La GUI QConvergeConsole
®
(QCC) es la única herramienta de
administración de la GUI en todos los adaptadores de FastLinQ
®
Marvell
®
.
La GUI de QLogic Control Suite
(QCS) ya no es compatible con los
adaptadores FastLinQ serie 45000 y los adaptadores basados en
controladores 57xx/57xxx, y se ha sustituido por la herramienta de
administración de GUI de QCC. La GUI de QCC ofrece administración GUI
de único panel de cristal para todos los adaptadores Marvell.
En entornos Windows
®
, cuando ejecuta la CLI de QCS y el Instalador de
agentes de administración, desinstalará la GUI de QCS (si está instalada en
el sistema) y cualquier componente relacionado del sistema. Para obtener
la nueva GUI, descargue la GUI de QCC de su adaptador en el sitio web de
Marvell (consulte “Descarga de actualizaciones y documentación” en la
página xxiv).
Prefacio
Público previsto
xix AH0054602-09 M
Adaptador de red convergente de 10 Gb QL41162HFRJ-DE, soporte de
altura completa
Adaptador de red convergente de 10 Gb QL41162HLRJ-DE, soporte de
perfil bajo
Adaptador de red convergente de 10 Gb QL41162HMRJ-DE
Adaptador de red convergente de 10 Gb QL41164HMCU-DE
Adaptador de red convergente de 10 Gb QL41164HMRJ-DE
Adaptador de red convergente de 10 Gb QL41164HFRJ-DE, soporte de
altura completa
Adaptador de red convergente de 10 Gb QL41164HFRJ-DE, soporte de
perfil bajo
Adaptador de red convergente de 10 Gb QL41164HFCU-DE, soporte de
altura completa
Adaptador NIC de 10/25 Gb QL41232HFCU-DE, soporte de altura completa
Adaptador NIC de 10/25 Gb QL41232HLCU-DE, soporte de perfil bajo
Adaptador NIC de 10/25 Gb QL41232HMKR-DE
Adaptador NIC de 10/25 QL41232HQCU-DE
Adaptador de red convergente de 10/25 Gb QL41262HFCU-DE, soporte de
altura completa
Adaptador de red convergente de 10/25 Gb QL41262HLCU-DE, soporte de
perfil bajo
Red convergente de 10/25 Gb QL41262HMCU-DE
Adaptador de red convergente de 10/25 Gb QL41262HMKR-DE
Adaptador de red convergente de 10/25 Gb QL41264HMCU-DE
Público previsto
Esta guía está pensada para administradores del sistema y demás miembros del
personal técnico responsables de configurar y administrar adaptadores instalados
en servidores Dell
®
PowerEdge
®
en entornos Windows
®
, Linux
®
o VMware
®
.
Prefacio
Contenido de esta guía
xx AH0054602-09 M
Contenido de esta guía
Después del prefacio, el resto de la guía se organiza en los siguientes capítulos y
apéndices:
Capítulo 1 Visión general del producto proporciona una descripción
funcional del producto, una lista de características y las especificaciones del
adaptador.
Capítulo 2 Instalación del hardware describe cómo instalar el adaptador e
incluye la lista de requisitos del sistema y una lista de verificación de
preinstalación.
Capítulo 3 Instalación del controlador describe la instalación de los
controladores del adaptador en Windows, Linux y VMware.
Capítulo 4 Actualización del firmware describe cómo utilizar el Dell Update
Package (DUP, Paquete de actualización Dell) para actualizar el firmware
del adaptador.
Capítulo 5 Configuración de inicio previo del adaptador describe las tareas
de configuración de del adaptador de inicio previo mediante la aplicación
Human Infrastructure Interface (Interfaz de infraestructura humana - HII).
Capítulo 6 Configuración del inicio desde SAN cubre la configuración del
inicio desde SAN para iSCSI y FCoE.
Capítulo 7 Configuración de RoCE describe cómo configurar el adaptador,
el conmutador Ethernet y el host para utilizar RDMA a través de Ethernet
convergente (RoCE).
Capítulo 8 Configuración de iWARP proporciona procedimientos para
configurar el protocolo RDMA de área amplia de Internet (iWARP) en los
sistemas Windows, Linux y VMware ESXi 6.7.
Capítulo 9 Configuración de iSER describe cómo configurar extensiones de
iSCSI para RDMA (iSER) para Linux RHEL, SLES, Ubuntu y ESXi 6.7.
Capítulo 10 Configuración iSCSI describe el inicio iSCSI y la descarga
iSCSI para Windows y Linux.
Capítulo 11 Configuración FCoE cubre la configuración de la descarga
FCoE de Linux.
Capítulo 12 Configuración de SR-IOV proporciona procedimientos para
configurar la virtualización de entrada/salida de raíz única (SR-IOV) en los
sistemas Windows, Linux y VMware.
Capítulo 13 Configuración de NVMe-oF con RDMA indica cómo configurar
NVMe-oF en una red simple para Adaptadores de la serie 41xxx.
Capítulo 14 Configuración de VXLAN describe cómo configurar VXLAN
para Linux, VMware y Windows Server 2016.
Prefacio
Convenciones de la documentación
xxi AH0054602-09 M
Capítulo 15 Windows Server 2016 describe las características de Windows
Server 2016.
Capítulo 16 Windows Server 2019 describe las características de Windows
Server 2019.
Capítulo 17 Solución de problemas describe una amplia variedad de
métodos y recursos de solución de problemas.
Apéndice A LED del adaptador enumera los LED del adaptador y su
importancia.
Apéndice B Módulos ópticos y cables enumera los cables, módulos ópticos
y los conmutadores que son compatibles con los Adaptadores de la serie
41xxx.
Apéndice C Configuración del conmutador Dell Z9100 describe cómo
configurar el puerto del conmutador Dell Z9100 para 25 Gbps.
Apéndice D Limitaciones de las características ofrece información sobre las
limitaciones de las características implementadas en esta versión.
Apéndice E Historial de revisiones describe los cambios realizados en esta
revisión de la guía.
Al final de esta guía hay un glosario de términos.
Convenciones de la documentación
Esta guía utiliza las siguientes convenciones de la documentación:
ofrece información adicional.
sin un símbolo de alerta indica la presencia de un peligro
que podría causar daños en el equipo o pérdida de datos.
con un símbolo de alerta indica la presencia de un
peligro que podría causar daños pequeños o moderados.
indica la presencia de un peligro que podría causar
daños graves o la muerte.
El texto en letra azul indica un hiperenlace (salto) a una ilustración, tabla o
sección de esta guía; los enlaces a los sitios web aparecen en
azul subrayado
. Por ejemplo:
La
Tabla 9-2
muestra problemas relacionados con la interfaz de usuario y
el agente remoto.
NOTA
PRECAUCIÓN
PRECAUCIÓN
!
!
ADVERTENCIA
Prefacio
Convenciones de la documentación
xxii AH0054602-09 M
Consulte la “Lista de comprobación de la instalación” en la página 6.
Para obtener más información, visite www.marvell.com
.
El texto en negrita indica elementos de la interfaz de usuario como, por
ejemplo, elementos de menú, botones, casillas de verificación o
encabezados de columna. Por ejemplo:
Haga clic en el botón Inicio, señale Programas, señale Accesorios y,
a continuación, haga clic en Símbolo del sistema.
En Opciones de notificación, seleccione la casilla de verificación
Alarmas de advertencia.
El texto en el tipo de letra
Courier indica un nombre de archivo, una ruta
de acceso de directorio o un texto de la línea de comando. Por ejemplo:
Para volver al directorio raíz desde cualquier lugar de la estructura de
archivos:
Escriba
cd/ root y pulse INTRO.
Emita el siguiente comando:
sh ./install.bin.
Los nombres de tecla y las combinaciones de tecla se indican en
MAYÚSCULA:
Pulse CTRL+P.
Pulse la tecla de FLECHA HACIA ARRIBA.
El texto en cursiva indica términos, énfasis, variables o títulos de
documentos. Por ejemplo:
¿Qué son las teclas de método abreviado?
Para especificar el tipo de fecha mm/dd/aaaa (donde mm es el mes,
dd es el día y aaaa es el año).
Los títulos de tema entre comillas identifican temas relacionados de este
manual o de la ayuda en línea, que también se denomina sistema de ayuda
a lo largo de este documento.
Prefacio
Convenciones de la documentación
xxiii AH0054602-09 M
Estas son algunas de las convenciones de sintaxis de la interfaz de línea de
comando (CLI):
El texto sin formato indica elementos que debe escribir tal como se
muestran. Por ejemplo:
qaucli -pr nic -ei
<> (paréntesis angulares) indican una variable cuyo valor debe
especificar. Por ejemplo:
<serial_number>
[] (corchetes) indican un parámetro opcional. Por ejemplo:
[<file_name>] significa que se especifique un nombre de
archivo, o que se omita para seleccionar el nombre de archivo
predeterminado.
| (barra vertical) indica opciones que se excluyen mutuamente;
seleccione solo una opción. Por ejemplo:
on|off
1|2|3|4
... (puntos suspensivos) indica que el elemento precedente puede
repetirse. Por ejemplo:
x... significa una o más instancias de x.
[x...] significa cero o más instancias de x.
(las elipsis verticales) dentro del resultado del ejemplo de comando
indican dónde se han omitido de forma intencional parte de los datos
de salida repetidos.
() (paréntesis) y { } (llaves) se utilizan para evitar la ambigüedad
lógica. Por ejemplo:
a|b c es ambiguo
{(a|b) c} significa a o b, seguido de c
{a|(b c)}
significa a, o bien b c
NOTA
Solo para comandos de CLI, los nombres de variable se indican
siempre con paréntesis angulares en lugar de con cursiva.
Prefacio
Convenciones de la documentación
xxiv AH0054602-09 M
Descarga de actualizaciones y documentación
El sitio web de Marvell ofrece actualizaciones periódicas a firmware, software, y
documentación de los productos.
Para descargar el firmware, el software y la documentación de Marvell:
1. Vaya a www.marvell.com
.
2. Señale a Support (Soporte) y, a continuación, en Driver Downloads
(Descargas de controladores), haga clic en Marvell QLogic/FastLinQ
Drivers (Controladores QLogic/FastinQ).
3. En la página Controladores y Documentación, haga clic en Adapters
(Adaptadores).
4. Haga clic en el botón correspondiente para buscar by Model (por Modelo) o
by Operating System (por Sistema operativo).
5. Para definir una búsqueda, haga clic en un elemento de cada columna de
selección y, a continuación, haga clic en Go (Ir).
6. Localice el firmware, software o documento que necesite y, a continuación,
haga clic en el nombre o el icono del elemento para descargarlo o abrirlo.
Prefacio
Avisos legales
xxv AH0054602-09 M
Avisos legales
Los avisos legales que se mencionan en esta sección incluyen seguridad del
láser (aviso de la FDA), la certificación por agencia y el cumplimiento de
seguridad del producto.
Seguridad del láser, Aviso FDA
El producto cumple con las reglas DHHS 21 CFR Capítulo 1, Subcapítulo J. Este
producto se ha diseñado y fabricado según el IEC60825-1 en la etiqueta de
seguridad del producto láser.
Certificación por agencia
En las siguientes secciones se resumen las especificaciones de la prueba EMC y
EMI realizada en los Adaptadores de la serie 41xxx para cumplir los estándares
de emisión, inmunidad y seguridad del producto.
Requisitos de EMI y EMC
Sección 15 de las normas FCC: Clase A
Declaración de información en cumplimiento con la FCC: Este dispositivo
cumple con la Sección 15 de las Normas de la FCC. El funcionamiento depende
de las dos condiciones siguientes: (1) que este dispositivo no cause interferencias
peligrosas, y (2) que este dispositivo pueda aceptar cualquier interferencia
recibida, incluida aquella que pueda ocasionar funcionamiento no deseado.
Cumplimiento con ICES-003: Clase A
Este aparato digital de Clase A cumple con la ICES-003 canadiense. Cet appareil
numériqué de la classe A est conformé à la norme NMB-003 du Canada.
Clase 1
Producto láser
Precaución: radiación láser clase 1 cuando está abierto
No ver directamente con instrumentos ópticos
Appareil laser
de classe 1
Attention—Radiation laser de classe 1
Ne pas regarder directement avec des instruments optiques
Produkt der
Laser Klasse 1
Vorsicht—Laserstrahlung der Klasse 1 bei geöffneter Abdeckung
Direktes Ansehen mit optischen Instrumenten vermeiden
Luokan 1 Laserlaite Varoitus—Luokan 1 lasersäteilyä, kun laite on auki
Älä katso suoraan laitteeseen käyttämällä optisia instrumenttej
PRODUCTO LÁSER DE CLASE I
Prefacio
Avisos legales
xxvi AH0054602-09 M
Cumplimiento con la Directiva EMC 2014/30/EU, 2014/35/EU Marca CE:
EN55032:2012/ CISPR 32:2015 Clase A
EN55024: 2010
EN61000-3-2: Emisión de corriente armónica
EN61000-3-3: Fluctuación de voltaje y parpadeo
Estándares de inmunidad
EN61000-4-2: ESD
EN61000-4-3: Campo electromagnético RF
EN61000-4-4: Prorrumpir/Transitorio Rápido
EN61000-4-5: Sobretensión Rápida Común/Diferencial
EN61000-4-6: Susceptibilidad Conducida RF
EN61000-4-8: Campo magnético de frecuencia de potencia
EN61000-4-11: Caídas e Interrupción de Voltaje
VCCI: 04-2015; Clase A
AS/NZS; CISPR 32: 2015 Clase A
CNS 13438: 2006 Clase A
KCC: Clase A
Certificado para Corea RRA Clase A
Formato de idioma coreano: Clase A
Modelo/Nombre de producto: Adaptadores de red
convergente y Adaptadores Ethernet inteligentes
Propietario de la certificación: QLogic Corporation
Fecha de fabricación: Haga referencia al código de fecha
que aparece en el producto
Fabricante/País de origen: QLogic Corporation/EE. UU.
Equipo de clase A
(Equipo de
telecomunicaciones/
info para uso
empresarial)
Siguiendo las pautas de inscripción EMC que este producto
ha llevado a cabo por motivos empresariales, se pide al
vendedor y/o comprador que tenga presente este punto en
caso de producirse una venta o compra indebida; si así
fuese, se debería hacer el cambio oportuno para adoptar
uso doméstico.
Prefacio
Avisos legales
xxvii AH0054602-09 M
VCCI: Clase A
Es un producto de Clase A basado en la normativa del Voluntary Control Council
for Interference (Consejo de Control Voluntario de las Interferencias - VCCI). Este
equipo se utiliza en un entorno doméstico, en caso de producirse interferencias
de radio, el usuario podría necesitar tomar acciones correctivas.
Cumplimiento de seguridad del producto
Seguridad del producto cUL, UL:
UL 60950-1 (Segunda edición) A1 + A2 2014-10-14
CSA C22.2 Nº.60950-1-07 (Segunda edición) A1 +A2 2014-10
Utilizar solo con ITE en lista o equivalente.
Cumple con las normativas 21 CFR 1040.10 y 1040.11, 2014/30/EU, 2014/35/EU.
Directiva “Baja tensión” 2006/95/EC:
Edición TUV EN60950-1:2006+A11+A1+A12+A2 2nd
TUV IEC 60950-1: 2005 Segunda edición Am1: 2009 + Am2: 2013 CB
Con certificación CB para IEC 60950-1 2ª edición
1 AH0054602-09 M
1 Visión general del producto
Este capítulo ofrece la siguiente información sobre los Adaptadores de la serie
41xxx:
Descripción funcional
Características
“Especificaciones del adaptador” en la página 3
Descripción funcional
Los adaptadores de la serie 41000 FastLinQ de Marvell incluyen adaptadores de
red convergente de 10 y 25 Gb y adaptadores Ethernet inteligentes que están
diseñados para realizar la conexión acelerada en red de datos para sistemas de
servidor. Los adaptadores de la serie 41000 incluyen un MAC Ethernet de
10/25 Gb con capacidad dúplex completo.
Si utiliza la función de equipos del sistema operativo, puede dividir la red en redes
LAN virtuales (vLAN) y agrupar múltiples adaptadores de red en equipos para
obtener equilibrio de carga y tolerancia a fallos de la red. Para obtener más
información sobre la función de equipos, consulte la documentación del sistema
operativo.
Características
Los Adaptadores de la serie 41xxx ofrecen las siguientes características: Es
posible que algunas características no estén disponibles en todos los
adaptadores:
Particionamiento NIC (NPAR)
Solución de chip único:
MAC de 10/25 Gb
Interfaz SerDes para conexión de transceptor de cobre de conexión
directa (DAC)
PCI Express
®
(PCIe
®
) 3.0 x8
Hardware con capacidad para zero copy
1–Visión general del producto
Características
2 AH0054602-09 M
Características de rendimiento:
Descargas de la suma de comprobación de TCP, IP, UDP
Descarga de segmentación TCP (TSO)
Descarga de segmentos grandes (LSO)
Descarga de segmentos genéricos (GSO)
Descarga de recepción grande (LRO)
Aleación de segmentos de recepción (RSC)
Cola de máquina virtual (VMQ) dinámica de Microsoft
®
y multicola
Linux
Interrupciones adaptativas:
Ajuste de escala en lado de trasmisión/recepción (TSS/RSS)
Descargas sin estado para virtualización de red mediante tráfico de
túnel y LAN virtual (VxLAN) L2/L3 GRE y Generic Routing
Encapsulation (Encapsulación de enrutamiento genérico - NVGRE).
1
Capacidad de administración:
Controladora de bus de administración del sistema (SMB)
Conformidad con la Interfaz avanzada de configuración y energía
(ACPI) 1.1a (múltiples modos de energía)
Compatibilidad con interfaz de banda lateral-controladora de red
(NC-SI)
Características avanzadas de red:
Tramas gigantes (hasta 9.600 bytes). El sistema operativo y el socio
de enlace deben ser compatibles con las tramas gigantes.
Redes LAN virtuales (VLAN)
Control de flujo (Norma IEEE 802.3x)
Control de enlace lógico (Norma IEEE 802.2)
Procesador de equipo con conjunto de instrucciones reducido (RISC) en
chip de alta velocidad
Memoria de búfer de trama integrada de 96 Kb (no se aplica a todos los
modelos)
1.024 filtros de clasificación (no se aplica a todos los modelos)
Compatible con direcciones de multidifusión a través de la función del
hardware de cálculo de direccionamiento de 128 bits
1
Esta característica requiere soporte para que Hypervisor o el SO utilice las descargas.
1–Visión general del producto
Especificaciones del adaptador
3 AH0054602-09 M
Compatibilidad para E/S de VMDirectPath
Compatibilidad para E/S de VMDirectPath para Adaptadores de la serie
41xxx FastLinQ en entornos Linux y ESX. La E/S de VMDirectPath no es
compatible en entornos de Windows.
Se pueden asignar los Adaptadores de la serie 41xxx FastLinQ a máquinas
virtuales para la operación de paso a través de PCI. Sin embargo, debido a
las dependencias del nivel de función, todas las funciones PCIe asociadas a
un adaptador deben asignarse a la misma máquina virtual. No es compatible
compartir funciones PCIe en el hipervisor y/o una o más máquinas virtuales.
Memoria flash serial NVRAM
Interfaz de administración de energía de PCI (v1.1)
Compatible con registro de dirección base (BAR) de 64 bits
Compatible con procesador EM64T
Compatible con inicio iSCSI y FCoE
2
Especificaciones del adaptador
Las especificaciones de Adaptador de la serie 41xxx incluyen las características
físicas del adaptador y las referencias de cumplimiento de los estándares.
Características físicas
Los Adaptadores de la serie 41xxx son tarjetas PCIe estándar y se envían con un
soporte de perfil bajo o de altura completa para utilizarse en una ranura de PCIe
estándar.
Especificaciones de estándares
Estas son algunas de las especificaciones de estándares admitidas:
Especificación base de PCI Express, rev. 3.1
Especificación electromecánica de la tarjeta PCI Express, rev. 3.0
Especificación de la interfaz de administración de energía de bus PCI,
rev. 1.2
Especificaciones IEEE:
802.1ad (QinQ)
802.1AX (Agregación de enlaces)
802.1p (Codificación de prioridades)
2
El límite de funciones virtuales (VF) de SR-IOV que admite el hardware es variable. El límite
puede ser más bajo en algunos entornos de sistema operativo; consulte la sección correspondiente
para su sistema operativo.
1–Visión general del producto
Especificaciones del adaptador
4 AH0054602-09 M
802.1q (VLAN)
802.3-2015 IEEE Standard for Ethernet (Estándar Ethernet IEEE
802.3-2015) (control de flujo)
802.3-2015 Cláusula 78 Ethernet eficiente en energía (EEE)
1588-2002 PTPv1 (Precision Time Protocol [Protocolo de tiempo de
precisión])
1588-2008 PTPv2
IPv4 (RFQ 791)
IPv6 (RFC 2460)
5 AH0054602-09 M
2 Instalación del hardware
Este capítulo ofrece la siguiente información sobre la instalación de software:
Requisitos del sistema
“Precauciones de seguridad” en la página 6
“Lista de verificación de preinstalación” en la página 7
“Instalación del adaptador” en la página 7
Requisitos del sistema
Antes de instalar un Adaptador de la serie 41xxx de Marvell, compruebe si su
sistema cumple con los requisitos del hardware y del sistema operativo que se
muestran en la Tabla 2-1 y la Tabla 2-2. Si desea obtener una lista completa de
los sistemas operativos admitidos, visite el sitio web de Marvell.
Tabla 2-1. Requisitos del hardware del host
Hardware Requisito
Arquitectura IA-32 o EMT64 que cumple los requisitos del sistema operativo
PCIe
PCIe Gen 2 x8 (2x10G NIC)
PCIe Gen 3 x8 (2x25G NIC)
Compatibilidad con ancho de banda de 25 Gb de dos puertos
completos en PCIe Gen 3 x8 o ranuras más rápidas.
Memoria 8GB RAM (mínimo)
Módulos ópticos y
cables
Los Adaptadores de la serie 41xxx se han sometido a pruebas de
interoperabilidad con una variedad de módulos ópticos y cables
de 1 G, 10 G y 25 G. Consulte “Módulos ópticos y cables
probados” en la página 316.
2–Instalación del hardware
Precauciones de seguridad
6 AH0054602-09 M
Precauciones de seguridad
Tabla 2-2. Requisitos mínimos del sistema operativo del host
Sistema
operativo
Requisito
Windows Server 2012 R2, 2019
Linux
RHEL
®
7.6, 7.7, 8.0, 8.1
SLES
®
12 SP4, SLES 15, SLES 15 SP1
CentOS 7.6
VMware
vSphere
®
ESXi 6.5 U3 y vSphere ESXi 6.7 U3
XenServer Citrix Hypervisor 8.0
7.0, 7.1
NOTA
En la Tabla 2-2 se indican los requisitos mínimos del sistema operativo del
host. Si desea obtener una lista completa de los sistemas operativos
admitidos, visite el sitio web de Marvell.
! ADVERTENCIA
La instalación del adaptador se realiza en un sistema que funciona con
tensiones que pueden ser letales. Antes de abrir la tapa de su sistema, debe
cumplir con las siguientes precauciones para protegerse contra lesiones y
evitar daños a los componentes del sistema.
Quítese cualquier objeto metálico o joya de las manos y muñecas.
Asegúrese de utilizar solo herramientas aisladas o no conductoras.
Compruebe que el sistema esté apagado y desenchufado antes de tocar
los componentes internos.
Instale o elimine los adaptadores en un entorno sin electricidad estática.
Se recomienda el uso de una muñequera antiestática conectada
correctamente a tierra u otros dispositivos personales antiestáticos,
además de una alfombra antiestática.
2–Instalación del hardware
Lista de verificación de preinstalación
7 AH0054602-09 M
Lista de verificación de preinstalación
Antes de instalar el adaptador, realice los siguientes pasos:
1. Asegúrese de que el sistema cumpla los requisitos de hardware y software
enumerados en “Requisitos del sistema” en la página 5.
2. Asegúrese de que el sistema utilice el BIOS más reciente.
3. Si el sistema está activo, ciérrelo.
4. Una vez completado el cierre del sistema, apáguelo y desenchufe el cable
de alimentación.
5. Extraiga el adaptador de la caja y colóquelo sobre una superficie
antiestática.
6. Compruebe que no haya signos de daños visibles en el adaptador,
particularmente en el conector del borde. Nunca trate de instalar un
adaptador dañado.
Instalación del adaptador
Las siguientes instrucciones se aplican a la instalación de los Adaptadores de la
serie 41xxx de Marvellen la mayoría de los sistemas. Para obtener detalles sobre
cómo realizar estas tareas, consulte los manuales que enviados con el sistema.
Para instalar el adaptador:
1. Revise “Precauciones de seguridad” en la página 6 y “Lista de verificación
de preinstalación” en la página 7. Antes de instalar el adaptador, asegúrese
de que la alimentación de su sistema se encuentre APAGADA, el cable de
alimentación se encuentre desenchufado y cumpla con los siguientes
procedimientos de conexión a tierra.
2. Abra la carcasa del sistema y seleccione la ranura que coincida con el
tamaño del adaptador, que puede ser PCIe Gen2 x8 o PCIe Gen3 x8. Un
adaptador de menor ancho puede colocarse en una ranura de mayor ancho
(x8 en x16), aunque un adaptador de mayor ancho no puede colocarse en
una ranura de menor ancho (x8 en x4). Si no sabe cómo identificar una
ranura PCIe, remítase a la documentación de su sistema.
3. Retire la cubierta ciega de la ranura que ha seleccionado.
NOTA
Si ha adquirido el software del adaptador del sitio web de Marvell,
compruebe la ruta de acceso a los archivos del controlador del
adaptador.
2–Instalación del hardware
Instalación del adaptador
8 AH0054602-09 M
4. Alinee el borde del conector del adaptador con la ranura del conector PCIe
en el sistema.
5. Aplicando presión pareja en ambos extremos de la tarjeta, empuje la tarjeta
del adaptador hasta que quede correctamente asentada. Cuando el
adaptador esté correctamente colocado, los conectores del puerto del
adaptador se alinean con la apertura de la ranura y la placa frontal del
adaptador se desliza contra el chasis del sistema.
6. Asegure el adaptador con el gancho o el tornillo para el adaptador.
7. Cierre la carcasa del sistema y desconecte todos los dispositivos
personales antiestáticos.
PRECAUCIÓN
No ejerza demasiada fuerza para encajar la tarjeta, porque se puede
dañar el sistema o el adaptador. Si tiene dificultades al encajar el
adaptador, extráigalo, vuelva a alinearlo e inténtelo nuevamente.
9 AH0054602-09 M
3 Instalación del controlador
Este capítulo proporciona la siguiente información sobre la instalación del
controlador:
Instalación del software del controlador para Linux
“Instalación del software del controlador de Windows” en la página 20
“Instalación del software del controlador de VMware” en la página 34
Instalación del software del controlador para
Linux
Esta sección describe cómo instalar los controladores para Linux con o sin
acceso directo a memoria remota (RDMA). También describe los parámetros
opcionales, los valores predeterminados, los mensajes, las estadísticas y la clave
pública para el inicio seguro.
Instalación de los controladores para Linux sin RDMA
Instalación de los controladores para Linux con RDMA
Parámetros opcionales de los controladores para Linux
Valores predeterminados de los parámetros de los controladores para Linux
Mensajes de controladores para Linux
Estadísticas
Importación de una clave pública para inicio seguro
Los controladores para Linux para el Adaptador de la serie 41xxx y la
documentación complementaria están disponibles en la página Dell Support:
dell.support.com
3–Instalación del controlador
Instalación del software del controlador para Linux
10 AH0054602-09 M
En la Tabla 3-1 se describen los controladores para Linux del Adaptador de la
serie 41xxx.
Instale los controladores para Linux mediante un paquete de Red Hat
®
Package
Manager (Administrador de paquetes - RPM) o un paquete RPM kmod. Los
paquetes RHEL RPM son los siguientes:
qlgc-fastlinq-<version>.<OS>.src.rpm
qlgc-fastlinq-kmp-default-<version>.<arch>.rpm
Los paquetes de origen SLES y RPM kmp son los siguientes:
qlgc-fastlinq-<version>.<OS>.src.rpm
qlgc-fastlinq-kmp-default-<version>.<OS>.<arch>.rpm
Tabla 3-1. Controladores Linux de los Adaptadores de la serie 41xxx FastLinQ de
Marvell
Controlador
Linux:
Descripción
qed El módulo de controlador principal qed controla directamente el firmware, maneja las
interrupciones y proporciona la API de bajo nivel para el conjunto de controladores
específicos del protocolo. Las interfaces qed con los controladores qede, qedr, qedi, y
qedf. El módulo principal Linux administra todos los recursos de dispositivos PCI
(registradores, colas de interfaz host, etc.). El módulo principal qed requiere la versión
de núcleo de Linux 2.6.32 o posterior. Las pruebas se concentraron en la arquitectura
x86_64.
qede Controlador Ethernet de Linux para el Adaptador de la serie 41xxx. Este controlador
controla directamente el hardware y es responsable de enviar y recibir los paquetes
Ethernet en nombre de la pila de red del host de Linux. Este controlador también recibe
y procesa interrupciones de los dispositivos en su propio nombre (para funciones de red
L2). El controlador qede requiere la versión de núcleo de Linux 2.6.32 o posterior. Las
pruebas se concentraron en la arquitectura x86_64.
qedr El controlador Linux RoCE que funciona en el entorno OFED™ (Open Fabric Enterprise
Distributions) en conjunto con el módulo de núcleo de qed y el controlador Ethernet de
qede. Las aplicaciones de espacio de usuario RDMA requieren también que la
biblioteca de usuario libqedr se instale en el servidor.
qedi Controlador de descarga iSCSI de Linux para los Adaptadores de la serie 41xxx. Este
controlador funciona con la biblioteca Open iSCSI.
qedf Controlador de descarga FCoE de Linux para los Adaptadores de la serie 41xxx. Este
controlador funciona con la biblioteca Open FCoE.
3–Instalación del controlador
Instalación del software del controlador para Linux
11 AH0054602-09 M
El siguiente módulo de kernel RPM (kmod) instala los controladores para Linux en
los hosts SLES que ejecutan el hipervisor Xen:
qlgc-fastlinq-kmp-xen-<version>.<OS>.<arch>.rpm
El siguiente RMP de origen instala el código de biblioteca RDMA en los hosts
RHEL y SLES:
qlgc-libqedr-<version>.<OS>.<arch>.src.rpm
El siguiente archivo comprimido TAR BZip2 (BZ2) de código fuente instala
controladores para Linux en los hosts RHEL y SLES:
fastlinq-<version>.tar.bz2
Instalación de los controladores para Linux sin RDMA
Para instalar los controladores para Linux sin RDMA:
1. Descargue los controladores para Linux del Adaptador de la serie 41xxx
desde Dell:
dell.support.com
2. Elimine los controladores para Linux existentes, tal como se describe en
“Cómo eliminar los controladores para Linux” en la página 12.
3. Instale los nuevos controladores para Linux utilizando uno de los métodos
siguientes:
Instalación de controladores para Linux mediante el paquete RPM src
Instalación de controladores para Linux mediante el paquete RPM
kmp/kmod
Instalación de controladores para Linux mediante el archivo TAR
NOTA
Para las instalaciones de red a través de NFS, FTP o HTTP (utilizando un
disco de inicio de red o PXE), es posible que necesite un disco de
controlador que contenga el controlador qede. Compile los controladores de
inicio para Linux modificando makefile y el entorno de creación.
3–Instalación del controlador
Instalación del software del controlador para Linux
12 AH0054602-09 M
Cómo eliminar los controladores para Linux
Existen dos procedimientos para eliminar controladores para Linux: uno para un
entorno que no sea RDMA y otro para un entorno RDMA. Seleccione el
procedimiento que coincida con su entorno.
Para eliminar controladores para Linux de un entorno que no sea RDMA,
descargue y elimine los controladores:
Siga el procedimiento correspondiente al sistema operativo y al método de
instalación original.
Si los controladores para Linux se instalaron con un paquete RPM, emita los
siguientes comandos:
rmmod qede
rmmod qed
depmod -a
rpm -e qlgc-fastlinq-kmp-default-<version>.<arch>
Si los controladores para Linux se instalaron con un archivo TAR, emita los
siguientes comandos:
rmmod qede
rmmod qed
depmod -a
Para RHEL:
cd /lib/modules/<version>/extra/qlgc-fastlinq
rm -rf qed.ko qede.ko qedr.ko
Para SLES:
cd /lib/modules/<version>/updates/qlgc-fastlinq
rm -rf qed.ko qede.ko qedr.ko
Para eliminar controladores para Linux de un entorno que no sea RDMA:
1. Para obtener la ruta de acceso a los controladores actualmente instalados,
emita el siguiente comando:
modinfo <driver name>
2. Descargue y elimine los controladores para Linux.
Si los controladores para Linux se instalaron con un paquete RPM,
emita los siguientes comandos:
modprobe -r qede
depmod -a
rpm -e qlgc-fastlinq-kmp-default-<version>.<arch>
3–Instalación del controlador
Instalación del software del controlador para Linux
13 AH0054602-09 M
Si los controladores para Linux se instalaron con un archivo TAR,
emita los siguientes comandos:
modprobe -r qede
depmod -a
3. Elimine los archivos qed.ko, qede.ko y qedr.ko del directorio en el que
residen. Por ejemplo, en SLES, emita los siguientes comandos:
cd /lib/modules/<version>/updates/qlgc-fastlinq
rm -rf qed.ko
rm -rf qede.ko
rm -rf qedr.ko
depmod -a
Para eliminar controladores para Linux de un entorno RDMA:
1. Para obtener la ruta de acceso a los controladores instalados, emita el
siguiente comando:
modinfo <driver name>
2. Descargue y elimine los controladores para Linux.
modprobe -r qedr
modprobe -r qede
modprobe -r qed
depmod -a
3. Elimine los archivos de módulo de controlador:
Si los controladores para Linux se instalaron con un paquete RPM,
emita el siguiente comando:
rpm -e qlgc-fastlinq-kmp-default-<version>.<arch>
Si los controladores para Linux se instalaron con un archivo TAR,
emita los siguientes comandos para su sistema operativo:
Para RHEL:
cd /lib/modules/<version>/extra/qlgc-fastlinq
rm -rf qed.ko qede.ko qedr.ko
Si está presente qedr, emita en su lugar el comando modprobe
-r qedr
.
3–Instalación del controlador
Instalación del software del controlador para Linux
14 AH0054602-09 M
Para SLES:
cd /lib/modules/<version>/updates/qlgc-fastlinq
rm -rf qed.ko qede.ko qedr.ko
Instalación de controladores para Linux mediante el paquete RPM src
Para instalar controladores para Linux mediante el paquete RPM src:
1. Escriba lo siguiente en el indicador de comandos:
rpm -ivh RPMS/<arch>/qlgc-fastlinq-<version>.src.rpm
2. Cambie el directorio a la ruta de acceso del RPM y cree el RPM binario para
el núcleo.
Para RHEL:
cd /root/rpmbuild
rpmbuild -bb SPECS/fastlinq-<version>.spec
Para SLES:
cd /usr/src/packages
rpmbuild -bb SPECS/fastlinq-<version>.spec
3. Instale el RPM recién compilado:
rpm -ivh RPMS/<arch>/qlgc-fastlinq-<version>.<arch>.rpm
Los controladores se instalarán en las siguientes rutas.
Para SLES:
/lib/modules/<version>/updates/qlgc-fastlinq
Para RHEL:
/lib/modules/<version>/extra/qlgc-fastlinq
NOTA
Para RHEL 8, instale los paquetes kernel-rpm-nacros y
kernel-abi-whitelists antes de crear el paquete RPM binario.
NOTA
La opción --force puede ser necesaria en algunas distribuciones de
Linux si se generan conflictos.
3–Instalación del controlador
Instalación del software del controlador para Linux
15 AH0054602-09 M
4. Active todas las interfaces ethX como sigue:
ifconfig <ethX> up
5. Para SLES, utilice YaST para configurar las interfaces Ethernet de modo
que se inicien automáticamente durante el inicio, configurando una
dirección IP estática o activando DHCP en la interfaz.
Instalación de controladores para Linux mediante el paquete RPM kmp/kmod
Para instalar el paquete RPM kmod:
1. Escriba el siguiente comando en el indicador de comandos:
rpm -ivh qlgc-fastlinq-<version>.<arch>.rpm
2. Vuelva a cargar el controlador:
modprobe -r qede
modprobe qede
Instalación de controladores para Linux mediante el archivo TAR
Para instalar controladores para Linux mediante el archivo TAR:
1. Cree un directorio y extraiga los archivos TAR en ese directorio:
tar xjvf fastlinq-<version>.tar.bz2
2. Pase al directorio creado recientemente y, a continuación, instale los
controladores:
cd fastlinq-<version>
make clean; make install
Los controladores qed y qede se instalarán en las siguientes rutas.
Para SLES:
/lib/modules/<version>/updates/qlgc-fastlinq
Para RHEL:
/lib/modules/<version>/extra/qlgc-fastlinq
3. Pruebe los controladores cargándolos (descargue primero los controladores
existentes, si fuera necesario):
rmmod qede
rmmod qed
modprobe qed
modprobe qede
3–Instalación del controlador
Instalación del software del controlador para Linux
16 AH0054602-09 M
Instalación de los controladores para Linux con RDMA
Para obtener más información sobre iWARP, consulte el Capítulo 8 Configuración
de iWARP.
Para instalar los controladores para Linux en un entorno con OFED
integrada:
1. Descargue los controladores para Linux del Adaptador de la serie 41xxx
desde Dell:
dell.support.com
2. Configure RoCE en el adaptador, tal como se describe en “Configuración de
RoCE en el adaptador para Linux” en la página 167.
3. Elimine los controladores para Linux existentes, tal como se describe en
“Cómo eliminar los controladores para Linux” en la página 12.
4. Instale los nuevos controladores para Linux utilizando uno de los métodos
siguientes:
Instalación de controladores para Linux mediante el paquete RPM
kmp/kmod
Instalación de controladores para Linux mediante el archivo TAR
5. Instale las bibliotecas libqedr para trabajar con aplicaciones de espacio de
usuario RDMA. El RPM de libqedr está disponible solo para OFED
integrada. Debe seleccionar qué RDMA (RoCE, RoCE v2 o iWARP) se
utiliza en UEFI hasta que se admita la capacidad simultánea de
RoCE+iWARP en el firmware. No hay activado ninguno por defecto. Emita
el siguiente comando:
rpm –ivh qlgc-libqedr-<version>.<arch>.rpm
6. Para crear e instalar la biblioteca de espacio de usuario libqedr, ejecute el
siguiente comando:
'make libqedr_install'
7. Pruebe los controladores cargándolos como se indica a continuación:
modprobe qedr
make install_libeqdr
3–Instalación del controlador
Instalación del software del controlador para Linux
17 AH0054602-09 M
Parámetros opcionales de los controladores para Linux
La Tabla 3-2 describe los parámetros opcionales de los controladores qede.
Valores predeterminados de los parámetros de los
controladores para Linux
La Tabla 3-3 muestra los valores predeterminados de funcionamiento del
controlador para Linux qed y qede.
Tabla 3-2. Parámetros opcionales de los controladores de qede
Parámetro Descripción
debug Controla que el nivel de detalle del controlador sea igual que ethtool
-s <dev> msglvl.
int_mode Controla que el modo de interrupción sea distinto a MSI-X.
gro_enable Activa o desactiva la característica de descarga de recepción genérica
(GRO) del hardware. Esta función es similar a la GRO del software del
kernel pero solo la lleva a cabo el hardware del dispositivo.
err_flags_override Un mapa de bits para desactivar o forzar las acciones adoptadas en caso
de error de hardware:
bit n.º 31 - Un bit de activación para esta máscara de bits.
bit n.º 0 - Impedir que las atenciones de hardware se recuperen.
bit n.º 1 - Recopilar datos de depuración.
bit n.º 2 - Desencadenar un proceso de recuperación.
bit n.º 3 - Llamar a WARN para obtener un rastreo de llamadas del flujo
que ha llevado al error.
Tabla 3-3. Valores predeterminados de funcionamiento de los controladores
para Linux
Funcionamiento
Valor predeterminado del
controlador qed
Valor predeterminado del
controlador qede
Speed
(Velocidad)
Negociación automática con
velocidad anunciada
Negociación automática con
velocidad anunciada
MSI/MSI-X Activado Activado
Flow Control
(Control de flujo)
Negociación automática con los
RX y TX anunciados
MTU 1500 (el intervalo es de 46-9600)
3–Instalación del controlador
Instalación del software del controlador para Linux
18 AH0054602-09 M
Mensajes de controladores para Linux
Para establecer el nivel de detalle del mensaje del controlador para Linux, emita
uno de los siguientes comandos:
ethtool -s <interface> msglvl <value>
modprobe qede debug=<value>
Donde
<value> representa los bits 0–15, que son valores de funciones de
red Linux estándar, y los bits 16 y superiores son específicos del
controlador.
Estadísticas
Para ver información de configuración y estadísticas detallada puede utilizar la
utilidad ethtool. Consulte la página ethtool del manual para obtener más
información.
Importación de una clave pública para inicio seguro
Los controladores para Linux requieren que importe e inscriba la clave pública de
QLogic para cargar los controladores en un entorno de inicio seguro. Antes de
comenzar, asegúrese de que el servidor admite inicio seguro. Esta sección
proporciona dos métodos para importar e inscribir la clave pública.
Para importar e inscribir la clave pública de QLogic:
1. Descargue la clave pública en la siguiente página web:
http://ldriver.qlogic.com/Module-public-key/
Rx Ring Size
(Tamaño del anillo Rx)
1000
Tx Ring Size
(Tamaño del anillo Tx)
4078 (el intervalo es de 128-8191)
Coalesce Rx Microseconds
(Aleación Rx microsegundos)
24 (el intervalo es de 0-255)
Coalesce Tx Microseconds
(Aleación TX microsegundos)
—48
TSO Activado
Tabla 3-3. Valores predeterminados de funcionamiento de los controladores
para Linux (Continuación)
Funcionamiento
Valor predeterminado del
controlador qed
Valor predeterminado del
controlador qede
3–Instalación del controlador
Instalación del software del controlador para Linux
19 AH0054602-09 M
2. Para instalar la clave pública, emita el siguiente comando:
# mokutil --root-pw --import cert.der
Donde la opción --root-pw permite el uso directo del usuario raíz.
3. Reinicie el sistema.
4. Revise la lista de certificados que están preparados para su inscripción:
# mokutil --list-new
5. Reinicie de nuevo el sistema.
6. Si el shim inicia MokManager, introduzca la contraseña raíz para confirmar
la importación de certificado en la lista Clave de propiedad de máquina
(Machine Owner Key, MOK).
7. Para determinar si se ha inscrito la clave recién importada:
# mokutil --list-enrolled
Para iniciar MOK manualmente e inscribir la clave pública de QLogic:
1. Emita el siguiente comando:
# reboot
2. En el menú GRUB 2, pulse la tecla C.
3. Emita los siguientes comandos:
chainloader $efibootdir/MokManager.efi
- boot
4. Seleccione Enroll key from disk (Inscribir clave desde disco).
5. Navegue al archivo
cert.der y, a continuación, pulse INTRO.
6. Siga las instrucciones para inscribir la clave. Normalmente esto incluye
pulsar la tecla0 (cero) y, a continuación, pulsar la tecla Y para confirmar.
Para obtener más información sobre inicio seguro, consulte la siguiente página
web:
https://www.suse.com/documentation/sled-12/book_sle_admin/data/sec_uefi_
secboot.html
NOTA
El menú del firmware puede ofrecer más métodos para agregar una clave
nueva a la base de datos de firmas.
3–Instalación del controlador
Instalación del software del controlador de Windows
20 AH0054602-09 M
Instalación del software del controlador de
Windows
Para obtener más información sobre iWARP, consulte el Capítulo 8 Configuración
de iWARP.
Instalación de controladores de Windows
Cómo eliminar los controladores de Windows
Administración de las propiedades del adaptador
Configuración de las opciones de administración de energía
Configuración del enlace en Windows
Instalación de controladores de Windows
Instale el software del controlador de Windows con el Dell Update Package
(Paquete de actualización Dell -DUP):
Ejecución del DUP en la GUI
Opciones de instalación del DUP
Ejemplos de instalación del DUP
Ejecución del DUP en la GUI
Para ejecutar el DUP en la GUI:
1. Haga doble clic en el icono que representa el archivo del Dell Update
Package (Paquete de actualización Dell -DUP).
NOTA
El nombre real del archivo de Dell Update Package (Paquete de
actualización Dell -DUP) varía.
3–Instalación del controlador
Instalación del software del controlador de Windows
21 AH0054602-09 M
2. En la ventana Dell Update Package (Paquete de actualización de Dell)
(Ilustración 3-1), haga clic en Install (Instalar).
Ilustración 3-1. Ventana Dell Update Package (Paquete de actualización de Dell)
3. En la ventana de bienvenida del superinstalador de QLogic: Asistente
InstallShield
®
(Ilustración 3-2), haga clic en Next (Siguiente).
Ilustración 3-2. Asistente QLogic InstallShield: Ventana de bienvenida
3–Instalación del controlador
Instalación del software del controlador de Windows
22 AH0054602-09 M
4. Realice lo siguiente en la ventana de Contrato de licencia del asistente
(Ilustración 3-3):
a. Lea el contrato de licencia de software del usuario final.
b. Para continuar, seleccione I accept the terms in the license
agreement (Acepto los términos del contrato de licencia).
c. Haga clic en Next (Siguiente).
Ilustración 3-3. Asistente QLogic InstallShield: Ventana License Agreement
(Contrato de licencia)
5. Complete la ventana del tipo de configuración del asistente (Ilustración 3-4)
de la siguiente forma:
a. Seleccione uno de los siguientes tipos de configuración:
Haga clic en Complete (Completa) para instalar todas las
características del programa.
Haga clic en Custom (Personalizada) para seleccionar las
funciones que vaya a instalar.
b. Para continuar, haga clic en Next (Siguiente).
Si ha hecho clic en Complete (Completa), continúe directamente con el
paso 6b.
3–Instalación del controlador
Instalación del software del controlador de Windows
23 AH0054602-09 M
Ilustración 3-4. Asistente InstallShield: Ventana Setup Type (Tipo de
configuración)
6. Si ha seleccionado Custom (Personalizada) en el paso 5, complete la
ventana Custom Setup (Configuración personalizada) (Ilustración 3-5) de la
siguiente forma:
a. Seleccione las características que vaya a instalar. De forma
predeterminada, todas las funciones están seleccionadas. Para
cambiar la configuración de instalación de una función, haga clic en el
icono situado junto a ella y, a continuación, seleccione una de las
siguientes opciones:
This feature will be installed on the local hard drive (Esta
función será instalada en el disco duro local): indica que la
instalación de esta función no afectará a las funciones
secundarias.
This feature, and all subfeatures, will be installed on the
local hard drive (Esta función y todas las funciones secundarias
serán instaladas en el disco duro local): indica que la función y
todas las funciones secundarias serán instaladas.
This feature will not be available (Esta función no estará
disponible): impide que se instale la función.
b. Haga clic en Next (Siguiente) para continuar.
3–Instalación del controlador
Instalación del software del controlador de Windows
24 AH0054602-09 M
Ilustración 3-5. Asistente InstallShield: Ventana Custom Setup (Configuración
personalizada)
7. En la ventana Ready To Install (Listo para instalar) del asistente InstallShield
(Ilustración 3-6), haga clic en Install (Instalar). El Asistente InstallShield
instala los controladores del adaptador de QLogic y el instalador de software
de administración.
Ilustración 3-6. Asistente InstallShield: Ventana Ready to Install the Program
(Listo para instalar el programa)
3–Instalación del controlador
Instalación del software del controlador de Windows
25 AH0054602-09 M
8. Cuando finalice la instalación, aparecerá la ventana InstallShield Wizard
Completed (Asistente InstallShield completado) (Ilustración 3-7). Haga clic
en Finish (Finalizar) para retirar el instalador.
Ilustración 3-7. Asistente InstallShield: Ventana Completed (Completada)
9. En la ventana Dell Update Package (Paquete de actualización de Dell)
(Ilustración 3-8), el mensaje “Update installer operation was successful” (La
operación de actualización del instalador se ha realizado correctamente)
indica que proceso ha acabado.
(Opcional) Para abrir el archivo de registro, haga clic en View
Installation Log (Ver registro de instalación). El archivo de registro
muestra el progreso de la instalación del DUP, versiones anteriores
instaladas, mensajes de error que pueda haber y demás información
sobre la instalación.
Para cerrar la ventana del paquete de actualización, haga clic en
CLOSE (CERRAR).
3–Instalación del controlador
Instalación del software del controlador de Windows
26 AH0054602-09 M
Ilustración 3-8. Ventana Dell Update Package (Paquete de actualización de Dell)
Opciones de instalación del DUP
Para personalizar el comportamiento de instalación del DUP, utilice las siguientes
opciones de línea de comando.
Para extraer solamente los componentes del controlador a un directorio:
/drivers=<path>
Para instalar o actualizar solo los componentes del controlador:
/driveronly
(Advanced [Avanzado]) Utilice la opción /passthrough para enviar todo el
texto seguido de la opción
/passthrough directamente al software de
instalación de QLogic del DPU. Este modo elimina cualquier GUI
proporcionada pero no necesariamente aquellas del software QLogic.
/passthrough
(Advanced [Avanzado]) Para devolver una descripción codificada de las
funciones admitidas del DUP:
/capabilities
NOTA
Este comando requiere la opción /s.
NOTA
Este comando requiere la opción /s.
3–Instalación del controlador
Instalación del software del controlador de Windows
27 AH0054602-09 M
Ejemplos de instalación del DUP
En los siguientes ejemplos se muestra cómo funcionan las opciones de
instalación.
Para actualizar el sistema en modo silencioso:
<DUP_file_name>.exe /s
Para extraer el contenido de la actualización en el directorio C:\mydir\:
<DUP_file_name>.exe /s /e=C:\mydir
Para extraer los componentes del controlador en el directorio C:\mydir\:
<DUP_file_name>.exe /s /drivers=C:\mydir
Para instalar solamente los componentes del controlador:
<DUP_file_name>.exe /s /driveronly
Para cambiar la ubicación predeterminada del registro a C:\my path with
spaces\log.txt:
<DUP_file_name>.exe /l="C:\my path with spaces\log.txt"
Cómo eliminar los controladores de Windows
Para eliminar los controladores de Windows:
1. En el Panel de control, haga clic en Programas y, a continuación, haga clic
en Programas y características.
2. En la lista de programas, seleccione QLogic FastLinQ Driver Installer y, a
continuación, haga clic en Desinstalar.
3. Siga las instrucciones para eliminar los controladores.
Administración de las propiedades del adaptador
Para ver o cambiar las propiedades del Adaptador de la serie 41xxx:
1. En el Panel de control, haga clic en Administrador de dispositivos.
2. En las propiedades del adaptador seleccionado, haga clic en la pestaña
Advanced (Avanzado).
NOTA
Este comando requiere la opción /s.
3–Instalación del controlador
Instalación del software del controlador de Windows
28 AH0054602-09 M
3. En la página Advanced (Avanzado) (Ilustración 3-9), seleccione un
elemento en Property (Propiedad) y, a continuación, cambie el Value
(Valor) de dicho elemento según sea necesario.
Ilustración 3-9. Configuración de Advanced Adapter Properties (Propiedades
avanzadas del adaptador)
3–Instalación del controlador
Instalación del software del controlador de Windows
29 AH0054602-09 M
Configuración de las opciones de administración de energía
Podrá configurar las opciones de administración de energía para permitir que el
sistema operativo apague la controladora para ahorrar energía o para que la
controladora active el equipo. Si el dispositivo está ocupado (por ejemplo,
atendiendo una llamada), el sistema operativo no apagará el dispositivo. El
sistema operativo trata de apagar todos los dispositivos posibles únicamente
cuando el equipo trata de entrar en hibernación. Para que la controladora
permanezca activa en todo momento, no seleccione la casilla de verificación
Allow the computer to turn off the device to save power (Permitir que el
equipo apague el dispositivo para ahorrar energía) (Ilustración 3-10).
Ilustración 3-10. Opciones de Power Management (Administración de energía)
NOTA
La página Power Management (Administración de alimentación) solo
está disponible para los servidores que admiten administración de
energía.
No seleccione la casilla Allow the computer to turn off the device to
save power (Permitir que el equipo apague este dispositivo para
ahorrar energía) para ningún adaptador que forme parte de un equipo.
3–Instalación del controlador
Instalación del software del controlador de Windows
30 AH0054602-09 M
Configuración del protocolo de comunicación a utilizar con
QCCla GUIQCC PowerKity QCS CLI
Las aplicaciones de administración de la GUI de QCC, el QCC PowerKit y la CLI
de QCS tienen dos componentes principales: el agente RPC y el software cliente.
Se ha instalado un agente RPC en un servidor o “host administrado” que contiene
uno o más adaptadores de red convergente. El agente RPC recopila información
sobre los adaptadores de red convergente y la pone a disposición para
recuperarla desde un PC de administración donde esté instalado el software
cliente. El software cliente permite ver información del agente RPC y configurar
los adaptadores de red convergente. El software de administración incluye una
GUI de QCC y una CLI de QCS.
Un protocolo de comunicaciones permite la comunicación entre el agente RPC y
el software cliente. Dependiendo de la mezcla de sistemas operativos (Linux,
Windows o ambos) en los clientes y hosts administrados de la red, puede elegir
usar una utilidad adecuada.
Para obtener las instrucciones de instalación de estas aplicaciones de
administración, consulte los siguientes documentos en el sitio web de Marvell:
User’s Guide, QLogic Control Suite CLI (part number BC0054511-00) (Guía
del usuario de la CLI de QLogic Control Suite ([número de pieza
BC0054511-00])
User’s Guide, PowerShell (part number BC0054518-00) (Guía del usuario
de PowerShell [número de pieza SN0054518-00])
Installation Guide, QConvergeConsole GUI (part number SN0051105-00)
(Guía de instalación de la GUI de QConvergeConsole [(número de pieza
SN0051105-00])
Configuración del enlace en Windows
La configuración del enlace se puede hacer en el sistema operativo Windows con
tres parámetros diferentes, que están disponibles para configuración en la
pestaña Advanced (Avanzado) de la página Device Manager (Administrador de
dispositivos).
3–Instalación del controlador
Instalación del software del controlador de Windows
31 AH0054602-09 M
Modo Link Control (Control del enlace)
Existen dos modos para controlar la configuración del enlace:
Preboot Controlled (Preinicio controlado) es el modo predeterminado. En
este modo, el controlador utiliza la configuración del enlace del dispositivo,
que es configurable desde componentes de preinicio. Este modo ignora los
parámetros de enlace de la pestaña Advanced (Avanzado).
El modo Driver Controlled (Controlador controlado) debe establecerse si
desea realizar la configuración del enlace en la pestaña Advanced
(Avanzado) del Device Manager (Administrador de dispositivos) (tal como
se muestra en la Ilustración 3-11).
Ilustración 3-11. Establecer el modo Driver Controlled (Controlador controlado)
3–Instalación del controlador
Instalación del software del controlador de Windows
32 AH0054602-09 M
Velocidad y dúplex del enlace
La propiedad Speed & Duplex (Velocidad y dúplex) (en la pestaña Advanced
[Avanzado] del Administrador de dispositivos) se puede configurar en cualquier
selección del menú Value (Valor) (consulte la Ilustración 3-12).
Ilustración 3-12. Establecimiento de la propiedad Speed and Duplex (Velocidad y
dúplex) del enlace
Esta configuración es efectiva solo si la propiedad de control de enlace está
establecida en Driver controlled (Controlador controlado) (consulte la
Ilustración 3-11).
Modo FEC
La configuración del modo FEC en el nivel de SO implica tres propiedades
avanzadas de controlador.
Para establecer el modo FEC:
1. Establezca Link Control (Control del enlace). En la pestaña Advanced
(Avanzado) del Administrador de dispositivos:
a. En el menú Property (Propiedad), seleccione Link control (Control de
enlace).
b. En el menú Value (Valor), seleccione Driver controlled (Controlador
controlado).
Consulte la Ilustración 3-11 para obtener un ejemplo.
3–Instalación del controlador
Instalación del software del controlador de Windows
33 AH0054602-09 M
2. Establezca Speed & Duplex (Velocidad y Dúplex). En la pestaña Advanced
(Avanzado) del Administrador de dispositivos:
a. En el menú Property (Propiedad), seleccione Speed & Duplex
(Velocidad y dúplex).
b. En el menú Value (Valor), seleccione una velocidad fija.
La configuración del modo FEC está activa solo si Speed & Duplex
(Velocidad y dúplex) se ha establecido en una velocidad fija. Al establecer
esta propiedad en Auto Negotiation (Negociación automática) se desactiva
la configuración de FEC.
3. Establezca el modo FEC. En la pestaña Advanced (Avanzado) del
Administrador de dispositivos:
a. En el menú Property (Propiedad), seleccione FEC Mode (Modo FEC).
b. En el menú Value (Valor), seleccione un valor válido (consulte la
Ilustración 3-13).
Ilustración 3-13. Establecer la propiedad FEC Mode (Modo FEC)
Esta propiedad está en vigor solo cuando se han realizado el paso 1 y el
paso 2.
Todos los modos FEC no son válidos para cada soporte; debe conocer los
modos válidos para su soporte específico. Si se establece el valor de modo
FEC erróneo, el enlace se desactivará.
3–Instalación del controlador
Instalación del software del controlador de VMware
34 AH0054602-09 M
Instalación del software del controlador de
VMware
Esta sección describe el controlador qedentv de VMware ESXi para los
Adaptadores de la serie 41xxx:
Controladores y paquetes de controladores de VMware
Instalación de controladores de VMware
Parámetros opcionales del controlador NIC de VMware
Valores predeterminados de los parámetros de los controladores de
VMware
Cómo eliminar los controladores de VMware
Compatibilidad con FCoE
Compatibilidad con iSCSI
Controladores y paquetes de controladores de VMware
La Tabla 3-4 muestra los controladores VMware ESXi para los protocolos.
Tabla 3-4. Controladores de VMware
Controlador de
VMware
Descripción
qedentv Controlador de red nativo
qedrntv
Controlador de Descarga RDMA (RoCEv1 y RoCEv2) nativo
a
a
Para los controladores ESXi 6.5, los controladores NIC y RoCE se han presentado en el mismo
paquete y pueden instalarse como un solo paquete zip sin conexión que utiliza los comandos
de instalación estándar ESXi. La secuencia de instalación recomendada es el paquete de
controladores NIC/RoCE, seguida de los paquetes de controladores FCoE e iSCSI (según
corresponda).
qedf Nativo controlador de descarga FCoE
qedil Heredado controlador de descarga iSCSI
qedi
Controlador de descarga iSCSI nativo (ESXi 6.7 y posterior)
b
b
Para ESXi 6.7, los controladores NIC, RoCE e iSCSI se han presentado en el mismo paquete
y pueden instalarse como un solo paquete sin conexión que utiliza los comandos de instalación
estándar ESXi. La secuencia de instalación recomendada es el paquete de controladores
NIC/RoCE/iSCSI, seguida de los paquetes de controladores FCoE (según corresponda).
3–Instalación del controlador
Instalación del software del controlador de VMware
35 AH0054602-09 M
Los controladores ESXi se incluyen como paquetes de controladores individuales
y no están empaquetados juntos, excepto los indicados.
Los controladores de VMware están disponibles para descarga solo en el sitio
web de VMware:
https://www.vmware.com/resources/compatibility/search.php?deviceCategory=io
&details=1&keyword=QL41&page=1&display_interval=10&sortColumn=Partner&
sortOrder=Asc
Instale los controladores individuales de alguna de las siguientes formas:
Utilizando los comandos de instalación estándar del paquete ESXi (consulte
Instalación de controladores de VMware).
Siguiendo los procedimientos que se explican en el archivo readme
(Léame) de los controladores.
Siguiendo los procedimientos que se indican en el siguiente artículo de la
base de conocimientos de VMware:
https://kb.vmware.com/selfservice/microsites/search.do?language=en_US&
cmd=displayKC&externalId=2137853
Instale en primer lugar el controlador NIC y, a continuación, los controladores de
almacenamiento.
Instalación de controladores de VMware
Puede utilizar el archivo ZIP del controlador para instalar un nuevo controlador o
actualizar uno existente. Asegúrese de instalar todo el conjunto de controladores
desde el mismo archivo ZIP del controlador. Si mezcla controladores de distintos
archivos ZIP, se producirán problemas.
Para instalar el controlador de VMware:
1. Descargue el controlador de VMware para el Adaptador de la serie 41xxx
desde la página de soporte de VMware:
www.vmware.com/support.html
2. Encienda el host ESX e inicie sesión en una cuenta con autoridad de
administrador.
3. Utilice la utilidad scp de Linux para copiar el paquete de controladores del
sistema local en el directorio
/tmp de un servidor ESX con dirección IP
10.10.10.10. Por ejemplo, emita el siguiente comando:
# scp qedentv-bundle-2.0.3.zip [email protected]:/tmp
Puede colocar el archivo en cualquier sitio que sea accesible para el shell
de la consola de ESX.
3–Instalación del controlador
Instalación del software del controlador de VMware
36 AH0054602-09 M
4. Ponga el host en modo de mantenimiento emitiendo el siguiente comando:
# esxcli --maintenance-mode
5. Seleccione una de las siguientes opciones de instalación:
Opción 1: Instale el paquete de controladores (que instalará todos los
VIB de controlador a la vez) emitiendo el siguiente comando:
# esxcli software vib install -d /tmp/qedentv-2.0.3.zip
Opción 2: Instale .vib directamente en un servidor ESX mediante la
CLI o el VMware Update Manager (VUM). Para hacerlo, descomprima
el archivo ZIP del controlador y, a continuación, extraiga el archivo
.vib
.
Para instalar el archivo
.vib mediante el CLI, emita el siguiente
comando. Asegúrese de especificar la ruta de acceso completa
del archivo
.vib:
# esxcli software vib install -v /tmp/qedentv-1.0.3.11-1OEM.550.0.0.1331820.x86_64.vib
Para instalar el archivo .vib mediante el VUM, consulte este
artículo de knowledge base:
Updating an ESXi/ESX host using VMware vCenter Update
Manager 4.x and 5.x (1019545) [Actualización de un host
ESXi/ESX mediante VMware vCenter Update Manager 4.x y 5.x
(1019545)].
Para actualizar el paquete de controladores existente:
Emita el siguiente comando:
# esxcli software vib update -d /tmp/qedentv-bundle-2.0.3.zip
Para actualizar un controlador individual:
Siga los pasos para una nueva instalación (consulte Para instalar el controlador
de VMware), aunque reemplace el comando de la opción 1 por lo siguiente:
# esxcli software vib update -v /tmp/qedentv-1.0.3.11-1OEM.550.0.0.1331820.x86_64.vib
NOTA
El número máximo de interfaces Ethernet de qedentv admitidas en un
host ESXi es 32 porque el vmkernel permite solo que se registren 32
interfaces para la devolución de llamada de administración.
3–Instalación del controlador
Instalación del software del controlador de VMware
37 AH0054602-09 M
Parámetros opcionales del controlador NIC de VMware
La Tabla 3-5 describe los parámetros opcionales que se pueden proporcionar
como argumentos de línea de comando al comando
esxcfg-module.
Tabla 3-5. Parámetros opcionales del controlador NIC de VMware
Parámetro Descripción
hw_vlan Activa globalmente (1) o desactiva (0) la inserción y eliminación de la vLAN
del hardware. Desactive este parámetro si la capa superior necesita enviar
o recibir paquetes totalmente formados. El valor predeterminado es
hw_vlan=1.
num_queues Especifica el número de pares de cola Tx/Rx. num_queues puede ser
1–11 o uno de los siguientes:
–1 permite al controlador determinar el número óptimo de pares de cola
(valor predeterminado)
0 utiliza la cola predeterminada.
Puede especificar varios valores delimitados por comas para
configuraciones multipuerto o multifunción.
multi_rx_filters Especifica el número de filtros Rx por cola Rx, excluyendo la cola
predeterminada. multi_rx_filters puede ser 1–4 o uno de los
siguientes valores:
–1 utiliza el número predeterminado de filtros Rx por cola.
0 desactiva los filtros Rx.
disable_tpa Activa (0) o desactiva (1) la característica TPA (LRO). El valor
predeterminado es disable_tpa=0.
max_vfs Especifica el número de funciones virtuales (VF) por funciónsica (PF).
max_vfs puede ser 0 (desactivado) o 64 VF en un único puerto
(activado). El límite máximo de 64 VF admitidos para ESXi es una limitación
de asignación de recursos del sistema operativo.
RSS Especifica el número de colas de ajuste de escala en lado de recepción
utilizado por el tráfico de túnel del host o LAN extensible virtual (VxLAN)
para una PF. RSS puede ser 2, 3, 4, o uno de los siguientes valores:
–1 utiliza el número predeterminado de colas.
0 o 1 desactiva las colas RSS.
Puede especificar varios valores delimitados por comas para
configuraciones multipuerto o multifunción.
3–Instalación del controlador
Instalación del software del controlador de VMware
38 AH0054602-09 M
Valores predeterminados de los parámetros de los
controladores de VMware
La Tabla 3-6 muestra los valores predeterminados de los parámetros de los
controladores de VMware.
debug Especifica el nivel de datos que el controlador registra en el archivo de
registro vmkernel. debug puede tener los siguientes valores, mostrados
en cantidades en aumento de los datos:
0x80000000 indica el nivel de aviso.
0x40000000 indica el nivel de información (incluye el nivel de aviso).
0x3FFFFFFF indica el nivel de detalle para todos los submodelos de
controlador (incluye los niveles de información y aviso)
auto_fw_reset Activa (1) o desactiva (0) la capacidad de recuperación automática del
firmware del controlador. Cuando este parámetro está activado, el
controlador intenta recuperarse de eventos como expiraciones de tiempo de
transmisión, aserciones de firmware y errores de paridad del adaptador. El
valor predeterminado es auto_fw_reset=1.
vxlan_filter_en Activa (1) o desactiva (0) el filtrado de VXLAN basado en la MAC externa, la
MAC interna y la red VXLAN (VNI), haciendo coincidir directamente el
tráfico con una cola específica. El valor predeterminado es
vxlan_filter_en=1. Puede especificar varios valores delimitados por
comas para configuraciones multipuerto o multifunción.
enable_vxlan_offld Activa (1) o desactiva (0) la capacidad de descarga de suma de
comprobación del tráfico de túnel de VXLAN y de descarga de
segmentación de TCP (TSO). El valor predeterminado es
enable_vxlan_offld=1. Puede especificar varios valores delimitados
por comas para configuraciones multipuerto o multifunción.
Tabla 3-6. Valores predeterminados de los parámetros de los
controladores de VMware
Parámetro Predeterminado
Speed
(Velocidad)
Autonegociación con todas las velocidades
anunciadas. El parámetro de velocidad debe ser el
mismo en todos los puertos. Si autonegociación está
activado en el dispositivo, todos los puertos del
dispositivo utilizarán la autonegociación.
Tabla 3-5. Parámetros opcionales del controlador NIC de VMware (Continuación)
Parámetro Descripción
3–Instalación del controlador
Instalación del software del controlador de VMware
39 AH0054602-09 M
Cómo eliminar los controladores de VMware
Para eliminar el archivo .vib (qedentv), emita el siguiente comando:
# esxcli software vib remove --vibname qedentv
Para eliminar el controlador, emita el siguiente comando:
# vmkload_mod -u qedentv
Flow Control
(Control de flujo)
Autonegociación con los RX y TX anunciados
MTU 1,500 (el rango es 46–9,600)
Rx Ring Size
(Tamaño del anillo Rx)
8,192 (el rango es 128-8,192)
Tx Ring Size
(Tamaño del anillo Tx)
8,192 (el rango es 128-8,192)
MSI-X Enabled (Activado)
Transmit Send Offload
(Descarga de envío de
transmisión, TSO)
Enabled (Activado)
Large Receive Offload
(Descarga de recepción
grande, LRO)
Enabled (Activado)
RSS Enabled (Activado) (cuatro colas RX)
HW VLAN Enabled (Activado)
Number of Queues
(Número de colas)
Enabled (Activado) (ocho pares de colas RX/TX)
Wake on LAN (WoL)
(Encendido en LAN [WoL])
Disabled (Desactivado)
Tabla 3-6. Valores predeterminados de los parámetros de los
controladores de VMware (Continuación)
Parámetro Predeterminado
3–Instalación del controlador
Instalación del software del controlador de VMware
40 AH0054602-09 M
Compatibilidad con FCoE
El controlador qedf FCoE de VMware Marvell incluido en el paquete de software
de VMware admite los controladores de interfaz de red convergente (C-NIC)
FCoE de Marvell FastLinQ. El controlador es un controlador de modo kernel que
proporciona una capa de traducción entre la pila SCSI de VMware y el firmware y
hardware de FCoE de Marvell. La característica FCoE y DCB establecida es
compatible con VMware ESXi 5.0 y posteriores.
Para habilitar el modo de descarga de FCoE, consulte Application Note, Enabling
Storage Offloads on Dell and Marvell FastLinQ 41000 Series Adapters en
https://www.marvell.com/documents/5aa5otcbkr0im3ynera3/
.
Compatibilidad con iSCSI
El controlador del adaptador de bus de host (HBA) de qedil iSCSI de VMware
Marvell, similar a qedf, es un controlador de modo kernel que proporciona una
capa de traducción entre la pila SCSI de VMware y el firmware y hardware iSCSI
de Marvell. El controlador qedil aprovecha los servicios suministrados por la
infraestructura iscsid de VMware para la administración de sesiones y los
servicios IP.
Para habilitar el modo de descarga de iSCSI, consulte Application Note, Enabling
Storage Offloads on Dell and Marvell FastLinQ 41000 Series Adapters en
https://www.marvell.com/documents/5aa5otcbkr0im3ynera3/
.
NOTA
La interfaz iSCSI compatible con adaptadores QL41xxx es una interfaz de
hardware dependiente de los servicios de red, la configuración iSCSIy las
interfaces de administración suministradas por VMware. La interfaz iSCSI
incluye dos componentes: un adaptador de red y un motor iSCSI en la
misma interfaz. El motor iSCSI aparece en la lista de adaptadores de
almacenamiento como adaptador iSCSI (vmhba). Para servicios como, por
ejemplo, ARP y DHCP que necesita iSCSI, el vmhba iSCSI utiliza los
servicios del dispositivo vmnic creado por el controlador qedil. vmnic es una
implementación ficticia fina pensada para ofrecer funcionalidad L2 para que
funcione iSCSI. No configure, asigne un conmutador virtual o utilice vmnic
de ninguna forma para llevar tráfico de red normal. Las interfaces NIC
reales del adaptador serán reclamadas por el controlador qedentv, que es
un controlador NIC totalmente funcional.
41 AH0054602-09 M
4 Actualización del firmware
Este capítulo proporciona información sobre cómo actualizar el firmware con Dell
Update Package (Paquete de actualización Dell [DUP]).
El DUP del firmware es solo una utilidad de actualización de la memoria Flash; no
se utiliza para la configuración del adaptador. Puede ejecutar el DUP del firmware
haciendo doble clic en el archivo ejecutable. También puede ejecutar el DUP del
firmware desde la línea de comando, que admite varias opciones de línea de
comando.
Ejecución del DUP haciendo doble clic
“Ejecución de DUP desde la línea de comando” en la página 44
“Ejecución del DUP mediante el archivo .bin” en la página 45 (solo Linux)
Ejecución del DUP haciendo doble clic
Para ejecutar el DUP del firmware haga doble clic en el archivo ejecutable:
1. Haga doble clic en el icono que representa el archivo Dell Update Package
(Paquete de actualización) del firmware.
4–Actualización del firmware
Ejecución del DUP haciendo doble clic
42 AH0054602-09 M
2. Aparece la pantalla de presentación Dell Update Package (Paquete de
actualización Dell), como se muestra en la Ilustración 4-1. Haga clic en
Install (Instalar) para continuar.
Ilustración 4-1. Dell Update Package (Paquete de actualización Dell): Ventana de
presentación
3. Siga las instrucciones que aparecen en la pantalla. En el cuadro de diálogo
de advertencia, haga clic en Yes (Sí) para continuar con la instalación.
4–Actualización del firmware
Ejecución del DUP haciendo doble clic
43 AH0054602-09 M
El instalador indica que está cargando el nuevo firmware, según se muestra
en la Ilustración 4-2.
Ilustración 4-2. Dell Update Package (Paquete de actualización Dell): Cargando
nuevo firmware
Cuando haya terminado, el instalador indica el resultado de la instalación,
según se muestra en la Ilustración 4-3.
Ilustración 4-3. Dell Update Package (Paquete de actualización Dell): Resultados
de la instalación
4–Actualización del firmware
Ejecución de DUP desde la línea de comando
44 AH0054602-09 M
4. Haga clic en Yes (Sí) para reiniciar el sistema.
5. Haga clic en Finish (Finalizar) para completar la instalación, según se
muestra en la Ilustración 4-4.
Ilustración 4-4. Dell Update Package (Paquete de actualización Dell): Finalizar
instalación
Ejecución de DUP desde la línea de comando
La ejecución del DUP del firmware desde la línea de comando, sin especificar
opciones, tiene el mismo resultado que hacer doble clic en el icono del DUP.
Tenga en cuenta que el nombre del archivo del DUP variará.
Para ejecutar el DUP del firmware desde la línea de comando:
Emita el siguiente comando:
C:\> Network_Firmware_2T12N_WN32_<version>_X16.EXE
4–Actualización del firmware
Ejecución del DUP mediante el archivo .bin
45 AH0054602-09 M
La Ilustración 4-5 muestra las opciones que puede utilizar para personalizar la
instalación del Dell Update Package (Paquete de actualización Dell).
Ilustración 4-5. Opciones de línea de comando del DUP:
Ejecución del DUP mediante el archivo .bin
El siguiente procedimiento solo es admitido por el sistema operativo Linux.
Para ejecutar el DUP mediante el archivo .bin:
1. Copie el archivo
Network_Firmware_NJCX1_LN_X.Y.Z.BIN en el sistema
o el servidor.
2. Cambie el tipo de archivo para que sea un archivo ejecutable, como se
indica a continuación:
chmod 777 Network_Firmware_NJCX1_LN_X.Y.Z.BIN
3. Para iniciar el proceso de actualización, emita el siguiente comando:
./Network_Firmware_NJCX1_LN_X.Y.Z.BIN
4. Una vez que el firmware esté actualizado, reinicie el sistema.
4–Actualización del firmware
Ejecución del DUP mediante el archivo .bin
46 AH0054602-09 M
Ejemplo de salida de SUT durante la actualización del DUP:
./Network_Firmware_NJCX1_LN_08.07.26.BIN
Collecting inventory...
Running validation...
BCM57810 10 Gigabit Ethernet rev 10 (p2p1)
The version of this Update Package is the same as the currently installed
version.
Software application name: BCM57810 10 Gigabit Ethernet rev 10 (p2p1)
Package version: 08.07.26
Installed version: 08.07.26
BCM57810 10 Gigabit Ethernet rev 10 (p2p2)
The version of this Update Package is the same as the currently installed
version.
Software application name: BCM57810 10 Gigabit Ethernet rev 10 (p2p2)
Package version: 08.07.26
Installed version: 08.07.26
Continue? Y/N:Y
Y entered; update was forced by user
Executing update...
WARNING: DO NOT STOP THIS PROCESS OR INSTALL OTHER DELL PRODUCTS WHILE UPDATE
IS IN PROGRESS.
THESE ACTIONS MAY CAUSE YOUR SYSTEM TO BECOME UNSTABLE!
...........................................................................
Device: BCM57810 10 Gigabit Ethernet rev 10 (p2p1)
Application: BCM57810 10 Gigabit Ethernet rev 10 (p2p1)
Update success.
Device: BCM57810 10 Gigabit Ethernet rev 10 (p2p2)
Application: BCM57810 10 Gigabit Ethernet rev 10 (p2p2)
Update success.
Would you like to reboot your system now?
Continue? Y/N:Y
47 AH0054602-09 M
5 Configuración de inicio
previo del adaptador
Durante el proceso de inicio del host, tiene la oportunidad de hacer una pausa y
realizar las tareas de administración del adaptador utilizando la aplicación de
Interfaz de infraestructura humana (HI). Estas tareas son las siguientes:
“Introducción” en la página 48
“Visualización de las propiedades de imagen de firmware” en la página 52
“Configuración de parámetros del dispositivo” en la página 53
“Configuración de parámetros de NIC” en la página 55
“Configuración del puente del centro de datos” en la página 59
“Configuración de inicio FCoE” en la página 60
“Configuración del inicio iSCSI” en la página 62
“Configuración de las particiones” en la página 68
NOTA
Las captura de pantalla de HII de este capítulo son representativas y
pueden no coincidir con las pantallas que ve en su sistema.
5–Configuración de inicio previo del adaptador
Introducción
48 AH0054602-09 M
Introducción
Para iniciar la aplicación HII:
1. Abra la ventana de configuración del sistema de su plataforma. Para
obtener información sobre cómo iniciar la configuración del sistema,
consulte la guía del usuario de su sistema.
2. En la ventana de configuración del sistema (Ilustración 5-1), seleccione
Device Settings (Configuración del dispositivo) y, a continuación, pulse
INTRO.
Ilustración 5-1. System Setup (Configuración del sistema)
3. En la ventana Device Settings (Configuración del dispositivo)
(Ilustración 5-2), seleccione el puerto del Adaptador de la serie 41xxx que
desea configurar y, a continuación, pulse INTRO.
Ilustración 5-2. System Setup: Device Settings (Configuración del sistema:
Configuración del dispositivo)
5–Configuración de inicio previo del adaptador
Introducción
49 AH0054602-09 M
En la Main Configuration Page (Página de configuración principal)
(Ilustración 5-3) aparecen las opciones de administración del adaptador
mediante las cuales puede definir el modo de particionamiento.
Ilustración 5-3. Main Configuration Page (Página de configuración principal)
4. En Device Level Configuration (Configuración de nivel del dispositivo),
establezca el Partitioning Mode (Modo de particionamiento) en NPAR,
para agregar la opción NIC Partitioning Configuration (Configuración del
particionamiento NIC) a la Main Configuration Page (Página de
configuración principal), tal y como se ve en la Ilustración 5-4.
5–Configuración de inicio previo del adaptador
Introducción
50 AH0054602-09 M
Ilustración 5-4. Main Configuration Page, Setting Partitioning Mode to NPAR
(Página de configuración principal, establecer el modo de particionamiento en
NPAR)
En la Ilustración 5-3 y la Ilustración 5-4, la Main Configuration Page (Página de
configuración principal) muestra lo siguiente:
Firmware Image Properties (Propiedades del firmware) (consulte
“Visualización de las propiedades de imagen de firmware” en la página 52)
Device Level Configuration (Configuración de nivel del dispositivo)
(consulte “Configuración de parámetros del dispositivo” en la página 53)
NIC Configuration (Configuración NIC) (consulte “Configuración de
parámetros de NIC” en la página 55)
iSCSI Configuration (Configuación de iSCSI) (si se ha permitido el inicio
remoto de iSCSI mediante la activación de la descarga iSCSI en modo
NPAR en la tercera partición del puerto) (consulte “Configuración del inicio
iSCSI” en la página 62)
FCoE Configuration (Configuración de FCoE) (si se ha permitido el inicio
de FCoE desde SAN mediante la activación de la descarga FCoE en modo
NPAR en la segunda partición del puerto) (consulte “Configuración de inicio
FCoE” en la página 60)
Data Center Bridging (DCB) Settings (Configuración del puente del centro
de datos [DCB]) (consulte “Configuración del puente del centro de datos” en
la página 59)
NOTA
NPAR no está disponible en los puertos con una velocidad máxima
de 1G.
5–Configuración de inicio previo del adaptador
Introducción
51 AH0054602-09 M
NIC Partitioning Configuration (Configuración del particionamiento NIC)
(si se selecciona NPAR en la página de configuración de nivel del
dispositivo) (consulte “Configuración de las particiones” en la página 68)
Además, la Main Configuration Page (Página de configuración principal) ofrece
las propiedades del adaptador mostradas en la Tabla 5-1.
Tabla 5-1. Propiedades del adaptador
Propiedad del
adaptador
Descripción
Device Name
(Nombre de dispositivo)
Nombre del dispositivo asignado por el fabricante
Chip Type
(Tipo de chip)
Versión ASIC
PCI Device ID
(Id. del dispositivo PCI)
Id. del dispositivo PCI específico del proveedor exclusivo
PCI Address
(Dirección PCI)
Dirección del dispositivo PCI en formato de función de
bus-dispositivo
Blink LEDs
(Luces LED de
parpadeo)
Recuento de parpadeos definidos por el usuario para el LED
de puerto
Link Status
(Estado de enlace)
Estado de enlace externo
MAC Address
(Dirección MAC)
Dirección MAC de dispositivo permanente asignada por el
fabricante
Virtual MAC Address
(Dirección MAC virtual)
Dirección MAC del dispositivo definida por el usuario
iSCSI MAC Address
(Dirección MAC iSCSI)
a
Dirección MAC iSCSI Offload (Descarga iSCSI) del
dispositivo permanente asignada por el fabricante
iSCSI Virtual MAC
Address
(Dirección MAC virtual
iSCSI)
a
Dirección MAC iSCSI Offload (Descarga iSCSI) del
dispositivo definida por el usuario
FCoE MAC Address
(Dirección MAC FCoE)
b
Dirección MAC FCoE Offload (Descarga FCoE) del
dispositivo permanente asignada por el fabricante
FCoE Virtual MAC
Address (Dirección MAC
virtual FCoE)
b
Dirección MAC FCoE Offload (Descarga FCoE) del
dispositivo definida por el usuario
5–Configuración de inicio previo del adaptador
Visualización de las propiedades de imagen de firmware
52 AH0054602-09 M
Visualización de las propiedades de imagen de
firmware
Para ver las propiedades de imagen de firmware, seleccione Firmware Image
Properties (Propiedades de imagen de firmware) en la Main Configuration Page
(Página de configuración principal) y, a continuación, pulse INTRO. En la página
de Firmware Image Properties (Propiedades de imagen de firmware)
(Ilustración 5-5) se muestran los siguientes datos en modo de solo vista:
Family Firmware Version (Versión de firmware de familia) es la versión de
imagen de inicio múltiple, que se compone de varias imágenes del
componente del firmware.
MBI Version (Versión MBI) es la versión imagen de conjunto de Marvell
FastLinQ activa en el dispositivo.
Controller BIOS Version (Versión BIOS de la controladora) es la versión
del firmware de administración.
FCoE WWPN
(WWPN FCoE)
b
WWPN (nombre mundial del puerto) FCoE Offload
(Descarga FCoE) del dispositivo permanente asignado por
el fabricante
FCoE Virtual WWPN
(WWPN virtual FCoE)
b
WWPN FCoE Offload (Descarga FCoE) del dispositivo
definido por el usuario
FCoE WWNN
(WWNN FCoE)
b
WWNN (nombre mundial del nodo) FCoE Offload (Descarga
FCoE) del dispositivo permanente asignado por el fabricante
FCoE Virtual WWNN
(WWNN virtual FCoE)
b
WWNN FCoE Offload (Descarga FCoE) del dispositivo
definido por el usuario
a
Esta propiedad solo es visible si iSCSI Offload (Descarga iSCSI) se ha activado en la página NIC
Partitioning Configuration (Configuración del particionamiento NIC).
b
Esta propiedad solo es visible si FCoE Offload (Descarga FCoE) se ha activado en la página NIC
Partitioning Configuration (Configuración del particionamiento NIC).
Tabla 5-1. Propiedades del adaptador (Continuación)
Propiedad del
adaptador
Descripción
5–Configuración de inicio previo del adaptador
Configuración de parámetros del dispositivo
53 AH0054602-09 M
EFI Driver Version (Versión del controlador EFI) es la versión del
controlador de la interfaz del firmware extensible (EFI).
L2B Firmware Version (Versión de firmware L2B) es la versión de firmware
de descarga NIC para el inicio.
Ilustración 5-5. Firmware Image Properties (Propiedades de imagen de firmware)
Configuración de parámetros del dispositivo
La configuración del dispositivo incluye los siguientes parámetros:
Modo de virtualización
Modo NPAREP
Para configurar los parámetros del dispositivo:
1. En la Main Configuration Page (Página de configuración principal),
seleccione Device Level Configuration (Configuración de nivel de
dispositivo) (consulte la Ilustración 5-3 en la página 49) y, a continuación,
pulse INTRO.
NOTA
Las funciones físicas (PF) de iSCSI aparecen solo cuando la función iSCSI
Offload (Descarga iSCSI) está activada en modo NPAR. Las PF de FCoE
aparecen solo cuando la función FCoE Offload (Descarga FCoE) está
activada en modo NPAR. No todos los modelos del adaptador admiten la
descarga iSCSI y FCoE. Solo se puede activar una descarga por puerto, y
solo en modo NPAR.
5–Configuración de inicio previo del adaptador
Configuración de parámetros del dispositivo
54 AH0054602-09 M
2. En la página Device Level Configuration (Configuración de nivel de
dispositivo), seleccione valores para los parámetros del dispositivo, tal como
se muestra en la Ilustración 5-6.
Ilustración 5-6. Device Level Configuration (Configuración de nivel de dispositivo)
3. Para Virtualization Mode (Modo de virtualización), seleccione uno de los
modos siguientes para aplicarlo a todos los puertos del adaptador:
None (Ninguno) (valor predeterminado) especifica que no se ha
activado ningún modo de virtualización.
NPAR establece el adaptador en modo de particionamiento NIC
independiente del conmutador.
SR-IOV establece el adaptador en modo SR-IOV.
NPar + SR-IOV establece el adaptador en modo SR-IOV sobre el
modo NPAR.
4. NParEP Mode (Modo NParEP) configura la cantidad máxima de particiones
por adaptador. Este parámetro es visible cuando se selecciona NPAR o
NPar + SR-IOV como Virtualization Mode (Modo de virtualización) en el
paso 2.
Enabled (Activado) permite configurar hasta 16 particiones por
adaptador.
Disabled (Desactivado) permite configurar hasta 8 particiones por
adaptador.
5. Haga clic en Back (Atrás).
6. Si se le pregunta, haga clic en Yes (Sí) para guardar los cambios. Los
cambios surten efecto tras restablecer el sistema.
NOTA
Los adaptadores QL41264HMCU-DE (número de pieza 5V6Y4) y
QL41264HMRJ-DE (número de pieza 0D1WT) han demostrado
compatibilidad con NPAR, SR-IOV y NPAR-EP en la configuración de
nivel de dispositivo, aunque esas funciones no se admiten en los
puertos 3 y 4 a 1 Gbps.
5–Configuración de inicio previo del adaptador
Configuración de parámetros de NIC
55 AH0054602-09 M
Configuración de parámetros de NIC
La configuración NIC incluye los parámetros siguientes:
Velocidad de enlace
NIC + Modo RDMA
Compatibilidad con el protocolo RDMA
Modo de inicio
Modo FEC
Ethernet eficiente en energía
Modo LAN virtual
Id. de LAN virtual
Para configurar los parámetros de NIC:
1. En la Main Configuration Page (Página de configuración principal),
seleccione NIC Configuration (Configuración NIC) (Ilustración 5-3 en la
página 49) y, a continuación, haga clic en Finish (Finalizar).
La Ilustración 5-7 muestra la página de configuración NIC.
Ilustración 5-7. NIC Configuration (Configuración NIC)
2. Seleccione una de las siguientes opciones de Link Speed (Velocidad del
enlace) para el puerto seleccionado. No todas las selecciones de velocidad
están disponibles en todos los adaptadores.
Auto Negotiated (Negociado automáticamente) activa el modo Auto
Negotiation (Negociación automática) en el puerto. La selección del
modo FEC no está disponible para este modo de velocidad.
1 Gbps activa un modo de velocidad fija de 1GbE en el puerto. Este
modo va dirigido a interfaces de 1GbE y no debería configurarse para
interfaces de adaptador que operan a otras velocidades. La selección
del modo FEC no está disponible para este modo de velocidad. Este
modo no está disponible en todos los adaptadores.
10 Gbps activa un modo de velocidad fija de 10GbE en el puerto. Este
modo no está disponible en todos los adaptadores.
5–Configuración de inicio previo del adaptador
Configuración de parámetros de NIC
56 AH0054602-09 M
25 Gbps activa un modo de velocidad fija de 25GbE en el puerto. Este
modo no está disponible en todos los adaptadores.
SmartAN (valor predeterminado) activa un modo de velocidad de
enlace de FastLinQ SmartAN
en el puerto. No está disponible la
selección de ningún modo FEC para este modo de velocidad. La
configuración de SmartAN recorre todos los valores posibles de
velocidades de enlace y modos FEC hasta que se establece un
vínculo. Este modo está pensado para utilizarse solo con interfaces
25G. Este modo no está disponible en todos los adaptadores.
3. Para NIC + RDMA Mode (NIC + Modo RDMA), seleccione Enabled
(Activado) o Disabled (Desactivado) para el RDMA del puerto. Esta
configuración se aplica a todas las particiones del puerto si está en modo
NPAR.
4. El FEC Mode (Modo FEC) es visible cuando el modo de velocidad fijo de 25
Gbps se selecciona como Link Speed (Velocidad del enlace) en el paso 2.
Para el FEC Mode (Modo FEC), seleccione una de las opciones siguientes.
No todos los modos FEC están disponibles en todos los adaptadores.
None (Ninguno) desactiva todos los modos FEC.
Fire Code (Código de disparo) activa el modo FEC Fire Code
(BASE-R).
Reed Solomon activa el modo FEC Reed Solomon.
Auto (Automático) permite que el puerto recorra los modos FEC None
(Ninguno), Fire Code (Código de disparo) y Reed Solomon (a esa
velocidad de enlace) en rotación, hasta que se establece un enlace.
5. La configuración RDMA Protocol Support (Compatibilidad con el protocolo
RDMA) se aplica a todas las particiones del puerto, si están en modo NPAR.
Esta configuración se muestra si se ha establecido NIC + RDMA Mode
(Modo NIC + RDMA) en Enabled (Activado) en el paso 3. Las opciones de
RDMA Protocol Support (Compatibilidad con el protocolo RDMA) incluyen
las siguientes:
RoCE activa el modo RoCE en este puerto.
iWARP activa el modo iWARP en este puerto.
iWARP + RoCE activa los modos iWARP y RoCE en este puerto. Este
es el valor predeterminado. Se requiere configuración adicional de
esta opción para Linux, conforme a lo que se describe en
“Configuración de iWARP y RoCE” en la página 200.
5–Configuración de inicio previo del adaptador
Configuración de parámetros de NIC
57 AH0054602-09 M
6. Para el Boot Mode (Modo de inicio), seleccione uno de los valores
siguientes:
PXE activa el inicio PXE.
FCoE activa el inicio FCoE desde SAN a través de la vía de descarga
del hardware. El modo FCoE solo está disponible si se ha activado
FCoE Offload (Descarga FCoE) en la segunda partición en modo
NPAR (consulte “Configuración de las particiones” en la página 68).
iSCSI activa el inicio remoto de iSCSI en la vía de descarga del
hardware. El modo iSCSI solo está disponible si se ha activado iSCSI
Offload (Descarga iSCSI) en la tercera partición en modo NPAR
(consulte “Configuración de las particiones” en la página 68).
Disabled (Desactivado) impide que el puerto se utilice como fuente de
inicio remoto.
7. El parámetro Energy Efficient Ethernet (Ethernet eficiente en energía -
EEE) solo es visible en adaptadores con interfaz RJ45 100BASE-T o
10GBASE-T. Seleccione entre las opciones de EEE:
Disabled (Desactivado) desactiva EEE en este puerto.
Optimal Power and Performance (Alimentación y rendimiento
óptimos) activa EEE en un modo de alimentación y rendimiento
óptimos en este puerto.
Maximum Power Savings (Máximo ahorro de alimentación) activa
EEE en modo de máximo ahorro de alimentación en este puerto.
Maximum Performance (Rendimiento máximo) activa EEE en modo
de máximo rendimiento en este puerto.
8. El parámetro Virtual LAN Mode (Modo LAN virtual) se aplica a todo el
puerto cuando está en modo de instalación remota de PXE. No persiste una
vez que finaliza la instalación remota de PXE. Seleccione entre las opciones
de vLAN:
Enabled (Activado) activa el modo vLAN en el puerto para el modo de
instalación remota de PXE.
Disabled (Desactivado) desactiva el modo vLAN del puerto.
9. El parámetro Virtual LAN ID (Id. de LAN virtual) especifica qué Id. de
etiqueta de vLAN debe utilizarse en este puerto para el modo de instalación
remota de PXE. La configuración solo se aplica si se ha activado el Virtual
LAN Mode (Modo LAN virtual) en el paso anterior.
10. Haga clic en Back (Atrás).
5–Configuración de inicio previo del adaptador
Configuración de parámetros de NIC
58 AH0054602-09 M
11. Si se le pregunta, haga clic en Yes (Sí) para guardar los cambios. Los
cambios surten efecto tras restablecer el sistema.
Para configurar el puerto para que utilice RDMA:
1. Establezca NIC + RDMA Mode (NIC + Modo RDMA) en Enabled
(Activado).
2. Haga clic en Back (Atrás).
3. Si se le pregunta, haga clic en Yes (Sí) para guardar los cambios. Los
cambios surten efecto tras restablecer el sistema.
Para configurar el modo de inicio del puerto:
1. Para la instalación remota de PXE UEFI, seleccione PXE como Boot Mode
(Modo de inicio).
2. Haga clic en Back (Atrás).
3. Si se le pregunta, haga clic en Yes (Sí) para guardar los cambios. Los
cambios surten efecto tras restablecer el sistema.
Para configurar que la instalación remota de PXE del puerto utilice una vLAN:
1. Establezca Virtual LAN Mode (Modo de LAN Virtual) en Enabled
(Activado).
2. En el cuadro Virtual LAN ID (Id. de LAN virtual), escriba el número que
debe utilizarse.
3. Haga clic en Back (Atrás).
4. Si se le pregunta, haga clic en Yes (Sí) para guardar los cambios. Los
cambios surten efecto tras restablecer el sistema.
NOTA
Siga estos pasos para activar el RDMA en todas las particiones del puerto
de modo de un NPAR.
NOTA
La vLAN no persiste una vez que finaliza la instalación remota de PXE.
5–Configuración de inicio previo del adaptador
Configuración del puente del centro de datos
59 AH0054602-09 M
Configuración del puente del centro de datos
La configuración del Puente de centros de datos (DCB) incluye el protocolo
DCBX y la prioridad RoCE.
Para configurar los valores de DCB:
1. En la Main Configuration Page (Página de configuración principal)
(Ilustración 5-3 en la página 49) seleccione Data Center Bridging (DCB)
Settings (Configuración del puente del centro de datos [DCB]) y, a
continuación, haga clic en Finish (Finalizar).
2. En la ventana Data Center Bridging (DCB) Settings (Configuración del
puente del centro de datos [DCB]) (Ilustración 5-8), selecciones la opción
DCBX Protocol (Protocolo DCBX) adecuada:
Disabled (Desactivado) desactiva el modo DCBX del puerto.
CEE activa el modo DCBX del protocolo Ethernet mejorada
convergente (CEE) del puerto.
IEEE activa el protocolo DCBX de IEEE del puerto.
Dynamic (Dinámico) activa la aplicación dinámica de los protocolos
CEE o IEEE para que coincidan con el enlace adjunto
correspondiente.
3. En la página Data Center Bridging (DCB) Settings (Configuración del puente
del centro de datos [DCB]), escriba RoCE v1 Priority (Prioridad de
RoCE v1) con un valor de 0-7. Este valor indica el número de prioridad de
clase de tráfico de DCB que se utiliza para el tráfico RoCE y debería
coincidir con el número que utiliza la red de conmutado con DCB activado
para el tráfico RoCE. Normalmente, se define 0 para la clase de tráfico que
tiene pérdidas predeterminadas, 3 para la clase de tráfico FCoE y 4 para la
clase de tráfico iSCSI-TLV a través de DCB sin pérdidas.
Ilustración 5-8. System Setup: Data Center Bridging (DCB) Settings
(Configuración del sistema: Configuración del puente del centro de datos [DCB])
4. Haga clic en Back (Atrás).
5–Configuración de inicio previo del adaptador
Configuración de inicio FCoE
60 AH0054602-09 M
5. Si se le pregunta, haga clic en Yes (Sí) para guardar los cambios. Los
cambios surten efecto tras restablecer el sistema.
Configuración de inicio FCoE
Para configurar los parámetros de configuración de inicio FCoE:
1. En la Main Configuration Page (Página de configuración principal),
seleccione FCoE Configuration (Configuración FCoE) y, a continuación,
seleccione una de las opciones siguientes según sea necesario:
FCoE General Parameters (Parámetros generales FCoE)
(Ilustración 5-9)
FCoE Target Configuration (Configuración de destino FCoE)
(Ilustración 5-10)
2. Pulse INTRO.
NOTA
Cuando se activa DCBX, el adaptador envía periódicamente paquetes de
Protocolo de detección de nivel de vínculo (LLDP) con una dirección unicast
dedicada que sirve como dirección MAC de origen. La dirección MAC LLDP
es distinta de la dirección MAC del adaptador Ethernet asignada en fábrica.
Si consulta la tabla de direcciones MAC para obtener el puerto del
conmutador que se conecta al adaptador, verá dos direcciones MAC: una
para paquetes LLDP y otra para la interfaz del adaptador Ethernet.
NOTA
El menú FCoE Boot Configuration (Configuración de inicio de FCoE) solo es
visible si FCoE Offload Mode (Modo Descarga FCoE) se ha activado en la
segunda partición en modo NPAR (consulte la Ilustración 5-18 en la
página 72). No es visible en un modo que no sea NPAR.
Para habilitar el modo de descarga de FCoE, consulte Application Note,
Enabling Storage Offloads on Dell and Marvell FastLinQ 41000 Series
Adapters en https://www.marvell.com/documents/5aa5otcbkr0im3ynera3/
.
5–Configuración de inicio previo del adaptador
Configuración de inicio FCoE
61 AH0054602-09 M
3. Elija los valores de los parámetros FCoE General (Parámetros generales
FCoE) o FCoE Target Configuration (Configuración de destino FCoE).
Ilustración 5-9. FCoE General Parameters (Parámetros generales FCoE)
Ilustración 5-10. FCoE Target Configuration (Configuración de destino FCoE)
4. Haga clic en Back (Atrás).
5. Si se le pregunta, haga clic en Yes (Sí) para guardar los cambios. Los
cambios surten efecto tras restablecer el sistema.
5–Configuración de inicio previo del adaptador
Configuración del inicio iSCSI
62 AH0054602-09 M
Configuración del inicio iSCSI
Para configurar los parámetros de configuración de inicio iSCSI:
1. En la Main Configuration Page (Página de configuración principal),
seleccione iSCSI Boot Configuration Menu (Menú de configuración de
inicio iSCSI) y, a continuación, seleccione una de las siguientes opciones:
iSCSI General Configuration (Configuración general iSCSI)
iSCSI Initiator Configuration (Configuración del iniciador iSCSI)
iSCSI First Target Configuration (Configuración de destino primario
iSCSI)
iSCSI Second Target Configuration (Configuración de destino
secundario iSCSI)
2. Pulse INTRO.
3. Elija los valores de los parámetros de configuración iSCSI
correspondientes:
Parámetros generales de iSCSI (Ilustración 5-11 en la página 64)
TCP/IP Parameters Via DHCP (Parámetros TCP/IP mediante
DHCP)
iSCSI Parameters Via DHCP (Parámetros iSCSI mediante DHCP)
CHAP Authentication
CHAP Mutual Authentication (Autenticación CHAP mutua)
IP Version
ARP Redirect (Redirección de ARP)
DHCP Request Timeout
Target Login Timeout
DHCP Vendor ID
Parámetros del iniciador iSCSI (Ilustración 5-12 en la página 65)
IPv4 Address (Dirección IPv4)
IPv4 Subnet Mask (Máscara de subred IPv4)
IPv4 Default Gateway (Puerta de acceso predeterminada IPv4)
NOTA
El menú iSCSI Boot Configuration (Configuración de inicio de iSCSI) solo es
visible si iSCSI Offload Mode (Modo Descarga iSCSI) se ha activado en la
tercera partición en modo NPAR (consulte la Ilustración 5-19 en la
página 72). No es visible en un modo que no sea NPAR.
Para habilitar el modo de descarga de FCoE, consulte Application Note,
Enabling Storage Offloads on Dell and Marvell FastLinQ 41000 Series
Adapters en https://www.marvell.com/documents/5aa5otcbkr0im3ynera3/
.
5–Configuración de inicio previo del adaptador
Configuración del inicio iSCSI
63 AH0054602-09 M
IPv4 Primary DNS (DNS primario de IPv4)
IPv4 Secondary DNS (DNS secundario de IPv4)
VLAN ID (Id. de VLAN)
iSCSI Name (Nombre de iSCSI)
CHAP ID (Id. de CHAP)
CHAP Secret (Secreto CHAP)
Parámetros de destino primario iSCSI (Ilustración 5-13 en la
página 66)
Connect (Conectar)
IPv4 Address (Dirección IPv4)
TCP Port (Puerto TCP)
Boot LUN (LUN de inicio)
iSCSI Name (Nombre de iSCSI)
CHAP ID (Id. de CHAP)
CHAP Secret (Secreto CHAP)
Parámetros de destino secundario iSCSI (Ilustración 5-14 en la
página 67)
Connect (Conectar)
IPv4 Address (Dirección IPv4)
TCP Port (Puerto TCP)
Boot LUN (LUN de inicio)
iSCSI Name (Nombre de iSCSI)
CHAP ID (Id. de CHAP)
CHAP Secret (Secreto CHAP)
4. Haga clic en Back (Atrás).
5. Si se le pregunta, haga clic en Yes (Sí) para guardar los cambios. Los
cambios surten efecto tras restablecer el sistema.
5–Configuración de inicio previo del adaptador
Configuración del inicio iSCSI
64 AH0054602-09 M
Ilustración 5-11. iSCSI General Parameters (Parámetros generales iSCSI)
5–Configuración de inicio previo del adaptador
Configuración del inicio iSCSI
65 AH0054602-09 M
Ilustración 5-12. iSCSI Initiator Configuration Parameters (Parámetros de
configuración del iniciador iSCSI)
5–Configuración de inicio previo del adaptador
Configuración del inicio iSCSI
66 AH0054602-09 M
Ilustración 5-13. iSCSI First Target Parameters (Parámetros de destino primario
iSCSI)
5–Configuración de inicio previo del adaptador
Configuración del inicio iSCSI
67 AH0054602-09 M
Ilustración 5-14. iSCSI Second Target Parameters (Parámetros de destino
secundario iSCSI)
5–Configuración de inicio previo del adaptador
Configuración de las particiones
68 AH0054602-09 M
Configuración de las particiones
Puede configurar los rangos de ancho de banda para cada partición del
adaptador. Para obtener información específica sobre la configuración de la
partición en VMware ESXi 6.5, consulte Particionamiento para VMware ESXi 6.5
y ESXi 6.7.
Para configurar las asignaciones de ancho de banda máximo y mínimo:
1. En la página Main Configuration (Configuración principal), seleccione NIC
Partitioning Configuration (Configuración de la partición de NIC) y, a
continuación, pulse INTRO.
2. En la página Partitions Configuration (Configuración de las particiones)
(Ilustración 5-15), seleccione Global Bandwidth Allocation (Asignación de
ancho de banda global).
Ilustración 5-15. NIC Partitioning Configuration, Global Bandwidth Allocation
(Configuración del particionamiento NIC, Asignación global de ancho de banda)
5–Configuración de inicio previo del adaptador
Configuración de las particiones
69 AH0054602-09 M
3. En la página Global Bandwidth Allocation (Asignación de ancho de banda
global) (Ilustración 5-16), haga clic en el campo de ancho de banda TX
mínimo y máximo de cada partición para la que desee asignar ancho de
banda. En modo de dos puertos hay ocho particiones por puerto.
Ilustración 5-16. Página Global Bandwidth Allocation (Asignación del ancho de
banda global)
Partition n Minimum TX Bandwidth (Ancho de banda TX mínimo de
partición N) es el ancho de banda de transmisión mínimo de la
partición seleccionada expresado como porcentaje de la velocidad de
enlace de puerto físico máxima. Los valores pueden ser
0100.
Cuando el modo ETS de DCBX está activado, el valor de ancho de
banda mínimo de ETS de DCBX de clase por tráfico se utiliza
simultáneamente con el valor de ancho de banda TX mínimo por
partición. El total de valores de ancho de banda TX mínimos de todas
las particiones en un único puerto debe ser igual a 100 o ser todos
ceros.
Establecer el ancho de banda TX mínimo con todo ceros es similar a
dividir equitativamente el ancho de banda disponible en cada partición
activa; sin embargo, el ancho de banda se asigna de forma dinámica
por todas las particiones que envían de forma activa. Un valor cero
(cuando uno o más de los otros valores se establecen en un valor que
no sea cero) asigna como mínimo un uno por ciento a una partición
concreta cuando la congestión (de todas las particiones) restringe el
ancho de banda TX.
5–Configuración de inicio previo del adaptador
Configuración de las particiones
70 AH0054602-09 M
Partition n Maximum TX Bandwidth (Ancho de banda TX máximo de
partición N) es el ancho de banda de transmisión máximo de la
partición seleccionada expresado como porcentaje de la velocidad de
enlace de puerto físico máxima. Los valores pueden ser
1100. El
valor de ancho de banda TX máximo por partición se aplica con
independencia de a configuración de modo ETS de DCBX.
Escriba un valor en cada campo seleccionado y, a continuación, haga clic
en Back (Atrás).
4. Si se le pregunta, haga clic en Yes (Sí) para guardar los cambios. Los
cambios surten efecto tras restablecer el sistema.
Para configurar particiones:
1. Para ver cuál es la configuración de una partición concreta, en la página de
configuración del particionamiento NIC (Ilustración 5-15 en la página 68),
seleccione Partition n Configuration (Configuración de la partición N). Si
NParEP no está activado, solo hay cuatro particiones por puerto.
2. Para configurar la primera partición, seleccione Partition 1 Configuration
(Configuración de la partición 1) para abrir la página de configuración de la
partición 1 (Ilustración 5-17), que muestra los parámetros siguientes:
NIC Mode (Modo NIC) (siempre activado)
PCI Device ID (Id. del dispositivo PCI)
PCI (bus) Address (Dirección PCI (bus))
MAC Address (Dirección MAC)
Virtual MAC Address (Dirección MAC virtual)
Si NParEP no está activado, solo hay disponibles cuatro particiones por
puerto. En adaptadores que no tienen capacidad de descarga, no se indican
las opciones ni la información de FCoE Mode (Modo FCoE) e iSCSI Mode
(Modo iSCSI).
Ilustración 5-17. Partition 1 Configuration (Configuración de la partición 1)
5–Configuración de inicio previo del adaptador
Configuración de las particiones
71 AH0054602-09 M
3. Para configurar la segunda partición, seleccione Partition 2 Configuration
(Configuración de la partición 2) para abrir la página de configuración de la
partición 2. Si hay Descarga FCoE, la configuración de la partición 2
(Ilustración 5-18) muestra los parámetros siguientes:
NIC Mode (Modo NIC) activa o desactiva la personalidad NIC de la
Ethernet L2 de las particiones 2 o mayores. Para desactivar cualquiera
de las particiones restantes, establezca el NIC Mode (Modo NIC) en
Disabled (Desactivado). Para desactivar las particiones con
capacidad de descarga, desactive el NIC Mode (Modo NIC) y el
correspondiente modo de descarga.
FCoE Mode (Modo FCoE) activa o desactiva la personalidad
FCoE-Offload (Descarga FCOE) en la segunda partición. Si habilita
este modo en la segunda partición, debe deshabilitar NIC Mode
(Modo NIC). Dado que solo está disponible una descarga por puerto,
si FCoE-Offload (Descarga FCoE) se ha activado en la segunda
partición del puerto, iSCSI-Offload (Descarga iSCSI) no se puede
activar en la tercera partición de ese mismo puerto en modo NPAR. No
todos los adaptadores admiten FCoE Mode (Modo FCoE).
iSCSI Mode (Modo iSCSI) activa o desactiva la personalidad
iSCSI-Offload (Descarga iSCSI) en la tercera partición. Si activa este
modo en la tercera partición, debe desactivar NIC Mode (Modo NIC).
Dado que solo está disponible una descarga por puerto, si
iSCSI-Offload (Descarga iSCSI) se ha activado en la tercera partición
del puerto, FCoE-Offload (Descarga FCoE) no se puede activar en la
segunda partición de ese mismo puerto en modo NPAR. No todos los
adaptadores admiten iSCSI Mode (Modo iSCSI).
FIP MAC Address (Dirección MAC FIP)
1
Virtual FIP MAC Address (Dirección MAC FIP virtual)
1
World Wide Port Name (Nombre mundial del puerto)
1
Virtual World Wide Port Name (Nombre mundial virtual del puerto)
1
World Wide Node Name (Nombre mundial del nodo)
1
Virtual World Wide Node Name (Nombre mundial virtual del nodo)
1
PCI Device ID (Id. del dispositivo PCI)
PCI (bus) Address (Dirección PCI (bus))
1
Este parámetro solo está presente en la segunda partición de un puerto en modo NPAR de
adaptadores que no tienen capacidad de descarga FCoE.
5–Configuración de inicio previo del adaptador
Configuración de las particiones
72 AH0054602-09 M
Ilustración 5-18. Partition 2 Configuration: FCoE Offload (Configuración de la
partición 2: Descarga FCOE)
4. Para configurar la tercera partición, seleccione Partition 3 Configuration
(Configuración de la partición 3) para abrir la página de configuración de la
partición 3 (Ilustración 5-19). Si hay iSCSI Offload (Descarga iSCSI), la
configuración de la partición 3 muestra los parámetros siguientes:
NIC Mode (Disabled) (Modo NIC desactivado)
iSCSI Offload Mode (Enabled) (Modo de descarga iSCSI
desactivado)
iSCSI Offload MAC Address (Dirección MAC de descarga iSCSI)
2
Virtual iSCSI Offload MAC Address (Dirección MAC de descarga
iSCSI virtual)
2
PCI Device ID (Id. del dispositivo PCI)
PCI Address (Dirección PCI)
Ilustración 5-19. Partition 3 Configuration: iSCSI Offload (Configuración de la
partición 3: iSCSI Offload: Descarga iSCSI)
2
Este parámetro solo está presente en la tercera partición de un puerto en modo NPAR de
adaptadores que no tienen capacidad de descarga iSCSI.
5–Configuración de inicio previo del adaptador
Configuración de las particiones
73 AH0054602-09 M
5. Para configurar las particiones Ethernet restantes, incluidas las anteriores
(si no se han activado para descarga), abra la página para una partición 2 o
para una partición mayor (consulte Ilustración 5-20).
NIC Mode (Enabled o Disabled) (Modo NIC, activado o desactivado).
Cuando está desactivado, la partición se oculta de modo que no se
muestra en el sistema operativo si se detecta un número inferior a la
máxima cantidad de particiones (o funciones físicas de PCI).
PCI Device ID (Id. del dispositivo PCI)
PCI Address (Dirección PCI)
MAC Address (Dirección MAC)
Virtual MAC Address (Dirección MAC virtual)
Ilustración 5-20. Partition 4 Configuration (Configuración de la partición 4)
Particionamiento para VMware ESXi 6.5 y ESXi 6.7
Si existen las condiciones siguientes en un sistema que ejecuta VMware ESXi 6.5
o ESXi 6.7, debe desinstalar y volver a instalar los controladores:
El adaptador se ha configurado para activar NPAR con todas las particiones
NIC.
El adaptador está en el modo Single Function (Una sola función).
La configuración se guarda y el sistema se reinicia.
Las particiones de almacenamiento están activadas (mediante la
conversión de una de las particiones NIC como almacenamiento), mientras
que los controladores ya están instalados en el sistema.
La partición 2 se ha cambiado a FCoE.
La configuración se guarda y el sistema se vuelve a reiniciar.
5–Configuración de inicio previo del adaptador
Configuración de las particiones
74 AH0054602-09 M
Se requiere volver a instalar el controlador porque las funciones de
almacenamiento pueden mantener la enumeración
vmnicX en lugar de vmhbaX,
como se muestra cuando se emite el comando siguiente en el sistema:
# esxcfg-scsidevs -a
vmnic4 qedf link-up fc.2000000e1ed6fa2a:2001000e1ed6fa2a
(0000:19:00.2) QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE
Controller (FCoE)
vmhba0 lsi_mr3 link-n/a sas.51866da071fa9100
(0000:18:00.0) Avago (LSI) PERC H330 Mini
vmnic10 qedf link-up fc.2000000e1ef249f8:2001000e1ef249f8
(0000:d8:00.2) QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE
Controller (FCoE)
vmhba1 vmw_ahci link-n/a sata.vmhba1
(0000:00:11.5) Intel Corporation Lewisburg SSATA Controller [AHCI mode]
vmhba2 vmw_ahci link-n/a sata.vmhba2
(0000:00:17.0) Intel Corporation Lewisburg SATA Controller [AHCI mode]
vmhba32 qedil online iscsi.vmhba32 QLogic
FastLinQ QL41xxx Series 10/25 GbE Controller (iSCSI)
vmhba33 qedil online iscsi.vmhba33 QLogic
FastLinQ QL41xxx Series 10/25 GbE Controller (iSCSI)
En la salida del comando precedente, observe que vmnic4 y vmnic10
realmente son puertos del adaptador de almacenamiento. Para evitar esta
conducta, active las funciones de almacenamiento al mismo tiempo que configura
el adaptador para el modo NPAR.
Por ejemplo, presuponiendo que el adaptador está en el modo Single Function
(Una sola función) de manera predeterminada, deberá:
1. Activar el modo NPAR.
2. Cambiar la Partición 2 a FCoE.
3. Guardar y reiniciar.
75 AH0054602-09 M
6 Configuración del inicio
desde SAN
El inicio de SAN permite el despliegue de servidores sin disco en un entorno en el
que el disco de inicio se encuentre en almacenamiento conectado a SAN. El
servidor (iniciador) se comunica con el dispositivo de almacenamiento (destino) a
través de SAN mediante el adaptador de bus de host (HBA) del adaptador de red
convergente (CNA) de Marvell.
Para habilitar el modo de descarga de FCoE, consulte Application Note, Enabling
Storage Offloads on Dell and Marvell FastLinQ 41000 Series Adapters en
https://www.marvell.com/documents/5aa5otcbkr0im3ynera3/
.
Este capítulo cubre la configuración del inicio desde SAN para iSCSI y FCoE:
Inicio iSCSI desde SAN
“Inicio FCoE desde SAN” en la página 127
Inicio iSCSI desde SAN
Los adaptadores Gigabit Ethernet (GbE) de la serie 41xxx de Marvell admiten el
inicio iSCSI, lo que permite iniciar redes de sistemas operativos en sistemas sin
disco. El inicio iSCSI permite que un sistema operativo Windows, Linux o VMware
se inicie desde una máquina de destino iSCSI ubicada en un sitio remoto por una
red IP estándar.
Esta sección ofrece la siguiente información de configuración sobre el inicio iSCSI
desde SAN:
Asistencia integrada y lista para usar iSCSI
Configuración de preinicio iSCSI
Configuración del inicio iSCSI desde SAN en Windows
Configuración del inicio iSCSI desde SAN en Linux
Configuración del inicio iSCSI desde SAN en VMware
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
76 AH0054602-09 M
Asistencia integrada y lista para usar iSCSI
La Tabla 6-1 muestra la asistencia integrada y lista para usar de los sistemas
operativos para el inicio iSCSI desde SAN (BFS).
Configuración de preinicio iSCSI
En los sistemas operativos Windows y Linux, configure el inicio iSCSI con UEFI
iSCSI HBA (ruta de descarga con el controlador iSCSI de descarga de Marvell).
Establezca esta opción utilizando Boot Protocol (Protocolo de inicio) en Port
Level Configuration (Configuración de nivel de puerto). Para la compatibilidad
con el inicio iSCSI, active primero el iSCSI HBA en UEFI HII y, a continuación,
establezca el protocolo de inicio según corresponda.
Tabla 6-1. Asistencia de inicio desde SAN integrada y lista para usar iSCSI
Lista para usar Incluido
Versión del SO
Asistencia
BFS iSCSI SW
Asistencia
BFS iSCSI de
descarga de
hardware
Asistencia
BFS iSCSI SW
Asistencia
BFS iSCSI de
descarga de
hardware
Windows 2012
a
a
Windows Server 2012 y 2012 R2 no admiten el controlador iSCSI integrado para SW o descarga de hardware.
No No
Windows 2012 R2
a
No No
Windows 2016
b
b
Windows Server 2016 no admite el controlador iSCSI integrado para descarga de hardware.
No
Windows 2019
RHEL 7.5
RHEL 7.6 SíSíSíSí
RHEL 8.0
SLES 12 SP3
SLES 15/15 SP1
vSphere ESXi 6.5 U3
c
c
ESXi listo para usar e integrado no admite inicio iSCSI de descarga de hardware nativo. El sistema realizará un inicio
y conexión de SW y a continuación, pasará a la descarga de hardware.
No No
vSphere ESXi 6.7 U2
c
No No
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
77 AH0054602-09 M
Para los sistemas operativos Windows y Linux, el inicio iSCSI puede configurarse
con dos métodos específicos:
iSCSI SW (también conocida como ruta de acceso de no descarga con el
iniciador de Microsoft/Open-iSCSI)
Siga la guía Dell BIOS para la instalación de software iSCSI.
iSCSI HW (ruta de acceso de descarga con el controlador iSCSI de
descarga de Marvell FastLinQ). Esta opción se puede establecer mediante
Boot Mode (Modo de inicio).
Las instrucciones de instalación del hardware iSCSI comienzan en
“Activación de NPAR y del iSCSI HBA” en la página 79.
Para sistemas operativos VMware ESXi, solo se admite el método iSCSI SW.
La información de preinicio de iSCSI en esta sección incluye:
Establecer el modo de inicio de BIOS en UEFI
Activación de NPAR y del iSCSI HBA
Selección del protocolo de inicio iSCSI UEFI
Configuración del destino de almacenamiento
Configuración de las opciones de inicio iSCSI
Configuración del servidor DHCP para que admita el inicio iSCSI
Establecer el modo de inicio de BIOS en UEFI
Para configurar el modo de inicio:
1. Reinicie el sistema.
2. Acceda al menú BIOS del sistema.
3. Para el valor Boot Mode (Modo de inicio), seleccione UEFI (consulte la
Ilustración 6-1).
NOTA
El inicio desde SAN solo se admite en el entorno UEFI. Compruebe
que la opción de inicio del sistema es UEFI y no la heredada.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
78 AH0054602-09 M
Ilustración 6-1. System Setup: Boot Settings (Configuración del sistema:
Configuración de inicio)
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
79 AH0054602-09 M
Activación de NPAR y del iSCSI HBA
Para activar NPAR y el iSCSI HBA:
1. En System Setup (Configuración del sistema), en Device Settings
(Configuración del dispositivo), seleccione el dispositivo QLogic
(Ilustración 6-2). Consulte la guía del usuario de OEM para saber cómo se
accede al menú de configuración del dispositivo PCI.
Ilustración 6-2. System Setup: Device Settings (Configuración del sistema:
Configuración del dispositivo)
2. Active NPAR.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
80 AH0054602-09 M
Configuración del destino de almacenamiento
La configuración del destino de almacenamiento varía según los proveedores de
destino. Para obtener más información sobre la configuración del destino de
almacenamiento, consulte la documentación proporcionada por el proveedor.
Para configurar el destino de almacenamiento:
1. Elegir el procedimiento correspondiente basándose en su destino de
almacenamiento, ya sea:
Cree un destino de almacenamiento utilizando software como el
destino de SANBlaze
®
o Linux-IO (LIO
).
Crear un vdisk o volumen mediante una matriz de destino como, por
ejemplo, EqualLogic
®
o EMC
®
.
2. Crear un disco virtual.
Selección del protocolo de inicio iSCSI UEFI
Antes de seleccionar el modo de inicio preferido, asegúrese de que el valor del
menú Device Level Configuration (Configuración de nivel de dispositivo) sea
Enable NPAR (Activar NPAR) y que el valor del menú NIC Partitioning
Configuration (Configuración de particionamiento NIC) sea Enable iSCSI HBA
(Activar iSCSI HBA).
La opción Boot Mode (Modo de inicio) aparece en NIC Configuration
(Configuración NIC) (Ilustración 6-3) del adaptador y el parámetro es específico
del puerto. Consulte el manual del usuario del fabricante de OEM para saber
cómo se accede al menú de configuración del dispositivo en UEFI HII.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
81 AH0054602-09 M
Ilustración 6-3. System Setup: NIC Configuration (Configuración del sistema:
Configuración NIC)
NOTA
El inicio desde SAN solo se admite en el modo NPAR y se configura en
UEFI y no en el BIOS heredado.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
82 AH0054602-09 M
1. En la página NIC Configuration (Configuración de NIC) (Ilustración 6-4),
para la opción Boot Protocol (Protocolo de inicio), seleccione UEFI iSCSI
HBA (requiere el modo NPAR).
Ilustración 6-4. System Setup: NIC Configuration, Boot Protocol (Configuración
NIC, Protocolo de inicio)
Configuración de las opciones de inicio iSCSI
Estas son algunas de las opciones de configuración del inicio iSCSI:
Configuración estática de inicio iSCSI
Configuración dinámica de inicio iSCSI
Activación de la autenticación de CHAP
NOTA
Utilice las opciones Virtual LAN Mode (Modo LAN virtual) y Virtual LAN ID
(Id. de LAN virtual) en esta página solo para el inicio PXE. Si es necesaria
una vLAN para el modo de inicio UEFI iSCSI HBA, consulte el paso 3 de
Configuración estática de inicio iSCSI.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
83 AH0054602-09 M
Configuración estática de inicio iSCSI
En una configuración estática, debe introducir los datos correspondientes a:
Dirección IP del iniciador
IQN de iniciador
Los parámetros de destino (obtenidos en “Configuración del destino de
almacenamiento” en la página 80)
Para obtener más información sobre las opciones de configuración, consulte la
Tabla 6-2 en la página 85.
Para configurar los parámetros de inicio iSCSI mediante la configuración
estática:
1. En la Main Configuration Page (Página de configuración principal) de la
HII del dispositivo, seleccione iSCSI Configuration (Configuración iSCSI)
(Ilustración 6-5) y, a continuación, pulse INTRO.
Ilustración 6-5. System Setup: iSCSI Configuration (Configuración del sistema:
Configuración iSCSI)
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
84 AH0054602-09 M
2. En la página iSCSI Configuration (Configuración iSCSI), seleccione iSCSI
General Parameters (Parámetros generales iSCSI) (Ilustración 6-6) y, a
continuación, pulse INTRO.
Ilustración 6-6. System Setup: Selecting General Parameters (Configuración del
sistema: Selección de parámetros generales)
3. En la página iSCSI General Parameters (Parámetros generales de iSCSI)
(Ilustración 6-7), pulse la tecla de FLECHA HACIA ABAJO para seleccionar
un parámetro y, a continuación, pulse la tecla INTRO para introducir los
siguientes valores (la Tabla 6-2 en la página 85 suministra descripciones de
estos parámetros):
TCP/IP Parameters Via DHCP (Parámetros TCP/IP mediante DHCP):
Disabled (Desactivado)
iSCSI Parameters via DHCP (Parámetros iSCSI mediante DHCP):
Disabled (Desactivado)
CHAP Authentication (Autenticación CHAP): Lo que corresponda
IP Version (Versión IP): Lo que corresponda (IPv4 o IPv6)
CHAP Mutual Authentication (Autenticación mutua de CHAP): Lo
que corresponda
DHCP Vendor ID (Id. de proveedor de DHCP): No aplicable en
configuración estática
HBA Boot Mode (Modo de inicio de HBA): Lo que corresponda
Virtual LAN ID (Id. de LAN virtual): Valor predeterminado o lo que
corresponda
Virtual LAN Mode (Modo LAN virtual): Lo que corresponda
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
85 AH0054602-09 M
Ilustración 6-7. System Setup: iSCSI General Parameters (Configuración del
sistema: Parámetros generales iSCSI)
Tabla 6-2. iSCSI General Parameters (Parámetros generales iSCSI)
Opción Descripción
TCP/IP Parameters via DHCP
(Parámetros TCP/IP mediante
DHCP)
Esta opción es específica para IPv4. Controla si el software del
host de inicio iSCSI adquiere la información sobre la dirección IP
a través de DHCP (Enabled) (Activado) o mediante una
configuración de IP estática (Disabled) (Desactivado).
iSCSI Parameters via DHCP
(Parámetros iSCSI mediante DHCP)
Controla si el software del host de inicio iSCSI adquiere los
parámetros de destino iSCSI a través de DHCP (Enabled)
(Activado) o mediante una configuración estática (Disabled)
(Desactivado). La información estática se escribe en la página
iSCSI Initiator Parameters Configuration (Configuración de
parámetros del iniciador iSCSI).
CHAP Authentication
(Autenticación CHAP)
Controla si el software del host de inicio iSCSI utiliza la
autenticación de CHAP cuando se conecta al destino iSCSI. Si
la CHAP Authentication está activada, configure la Id. y el
secreto de CHAP en la página iSCSI Initiator Parameters
Configuration (Configuración de parámetros de iniciador iSCSI).
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
86 AH0054602-09 M
4. Vuelva a la página iSCSI Configuration (Configuración iSCSI) y pulse la
tecla ESC.
IP Version
(Versión IP)
Esta opción es específica para IPv6. Alterna entre IPv4 e
IPv6. Todos los valores IP se pierden si pasa de una versión de
protocolo a la otra.
CHAP Mutual Authentication
(Autenticación CHAP mutua)
Controla si el software del host de inicio iSCSI adquiere los
parámetros de destino iSCSI a través de DHCP (Enabled)
(Activado) o mediante una configuración estática (Disabled)
(Desactivado). La información estática se escribe en la página
iSCSI Initiator Parameters Configuration (Configuración de
parámetros del iniciador iSCSI).
DHCP Vendor ID
(Id. de proveedor DHCP)
Controla si el software del host de inicio iSCSI interpreta el
campo Vendor Class ID (Id. de la clase de proveedor)
utilizado durante el DHCP. Si el campo Vendor Class ID (Id.
de la clase de proveedor) que aparece en el paquete de oferta
del DHCP coincide con el valor indicado en el campo, el
software del host de inicio iSCSI busca en el campo Option 43
(Opción 43) de DHCP las extensiones de inicio iSCSI
requeridas. Si DHCP está desactivado, no es necesario definir
este valor.
HBA Boot Mode
(Modo de inicio HBA)
Controla si SW o Offload (Descarga) está activado o
desactivado. Para Offload (Descarga), esta opción no está
disponible (desactivada). Para obtener información sobre SW
(sin descarga), consulte la configuración del BIOS de Dell.
Virtual LAN ID
(Id. de LAN virtual)
El rango de Id. de vLAN es 1-4094.
Virtual LAN Mode
(Modo LAN virtual)
Activa o desactiva vLAN.
Tabla 6-2. iSCSI General Parameters (Parámetros generales iSCSI) (Continuación)
Opción Descripción
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
87 AH0054602-09 M
5. Seleccione iSCSI Initiator Parameters (Parámetros del iniciador iSCSI)
(Ilustración 6-8) y, a continuación, pulse INTRO.
Ilustración 6-8. System Setup: Selecting iSCSI Initiator Parameters (Configuración
del sistema: Selección de los parámetros del iniciador iSCSI)
6. En la página iSCSI Initiator Parameters (Parámetros del iniciador iSCSI)
(Ilustración 6-9), seleccione los siguientes parámetros y escriba un valor
para cada uno de ellos:
IPv4* Address (Dirección IPv4)
Subnet Mask (Máscara de subred)
IPv4* Default Gateway (Puerta de acceso predeterminada IPv4)
IPv4* Primary DNS (DNS primario de IPv4)
IPv4* Secondary DNS (DNS secundario de IPv4)
iSCSI Name (Nombre de iSCSI). Se corresponde con el nombre del
iniciador iSCSI que utilizará el sistema del cliente.
CHAP ID (Id. de CHAP)
CHAP Secret (Secreto CHAP)
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
88 AH0054602-09 M
Ilustración 6-9. System Setup: iSCSI Initiator Parameters (Configuración del
sistema: Parámetros del iniciador iSCSI)
7. Vuelva a la página iSCSI Configuration (Configuración iSCSI) y pulse ESC.
NOTA
Para los elementos precedentes con asteriscos (*), tenga en cuenta lo
siguiente:
La etiqueta cambiará a IPv6 o IPv4 (predeterminado) según la
versión IP que se haya definido en la página iSCSI General
Parameters (Parámetros generales iSCSI) (Ilustración 6-7 en la
página 85).
Introduzca con cuidado la dirección IP. No se realiza ninguna
comprobación de errores contra la dirección IP para comprobar si
existen duplicados o asignación de segmento o red incorrectos.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
89 AH0054602-09 M
8. Seleccione iSCSI First Target Parameters (Parámetros de destino
primario iSCSI) (Ilustración 6-10) y, a continuación, pulse INTRO.
Ilustración 6-10. System Setup: Selecting iSCSI First Target Parameters
(Configuración del sistema: Selección de Parámetros de destino primario iSCSI)
9. En la página iSCSI First Target Parameters (Parámetros de destino primario
iSCSI), establezca la opción Connect (Conectar) en Enabled (Activado)
para el destino iSCSI.
10. Escriba los valores para los siguientes parámetros del destino iSCSI y, a
continuación, pulse INTRO:
IPv4* Address (Dirección IPv4)
TCP Port (Puerto TCP)
Boot LUN (LUN de inicio)
iSCSI Name (Nombre de iSCSI)
CHAP ID (Id. de CHAP)
CHAP Secret (Secreto CHAP)
NOTA
En los parámetros arriba enumerados que tienen un asterisco (*), la
etiqueta cambiará a IPv6 o IPv4 (predeterminado) según la versión IP
que se haya definido en la página iSCSI General Parameters
(Parámetros generales iSCSI), tal como se muestra en la
Ilustración 6-11.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
90 AH0054602-09 M
Ilustración 6-11. System Setup: iSCSI First Target Parameters (Parámetros de
destino primario iSCSI)
11. Vuelva a la página iSCSI Boot Configuration (Configuración de inicio de
iSCSI) y pulse ESC.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
91 AH0054602-09 M
12. Si quiere configurar un segundo dispositivo de destino iSCSI, seleccione
iSCSI Second Target Parameters (Parámetros de destino secundario
iSCSI) (Ilustración 6-12) e introduzca los valores del parámetro como hizo
en el paso 10. Este segundo destino se utiliza si no se puede conectar con
el primer destino. De lo contrario, continúe con el paso 13.
Ilustración 6-12. System Setup: iSCSI Second Target Parameters (Configuración
del sistema: Parámetros de destino secundario iSCSI)
13. Pulse ESC una vez y después otra vez para salir.
14. Haga clic en Yes (Sí) para guardar los cambios, o siga las directrices de
OEM para guardar la configuración del dispositivo. Por ejemplo, haga clic en
Yes (Sí) para confirmar los cambios realizados en la configuración
(Ilustración 6-13).
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
92 AH0054602-09 M
Ilustración 6-13. System Setup: Saving iSCSI Changes (Configuración del sistema:
Guardar cambios de iSCSI)
15. Una vez que se hayan realizado todos los cambios, reinicie el sistema para
aplicarlos a la configuración en ejecución del adaptador.
Configuración dinámica de inicio iSCSI
En una configuración dinámica, asegúrese de que la información sobre la
dirección IP y el destino (o el iniciador) del sistema es proporcionada por un
servidor DHCP (consulte las configuraciones de IPv4 e IPv6 en “Configuración
del servidor DHCP para que admita el inicio iSCSI” en la página 95).
Toda configuración de los siguientes parámetros será ignorada y no será
necesario borrarla (exceptuando el initator iSCSI name [nombre iSCSI del
iniciador] para IPv4, y el CHAP ID [Id. de CHAP] y el CHAP secret [Secreto
CHAP] para IPv6):
Parámetros del iniciador
Parámetros de destino primario o parámetros de destino secundario
Para obtener más información sobre las opciones de configuración, consulte la
Tabla 6-2 en la página 85.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
93 AH0054602-09 M
Si se utiliza la opción 17 de DHCP, la información sobre el destino es
proporcionada por el servidor DHCP y el nombre iSCSI del iniciador se recupera
a partir del valor programado en la ventana Initiator Parameters (Parámetros de
iniciador). Si no se seleccionó ningún valor, la controladora empleará el siguiente
nombre predeterminado:
iqn.1995-05.com.qlogic.<11.22.33.44.55.66>.iscsiboot
La cadena 11.22.33.44.55.66 se corresponde con la dirección MAC de la
controladora. Si se utiliza la opción 43 del DHCP (IPv4 solamente), toda
configuración que aparezca en las siguientes ventanas será ignorada y no será
necesario borrarla:
Parámetros del iniciador
Parámetros de destino primario o parámetros de destino secundario
Para configurar los parámetros de inicio iSCSI mediante la configuración
dinámica:
En la página iSCSI General Parameters (Parámetros generales iSCSI),
establezca las siguientes opciones, tal como se muestra en la
Ilustración 6-14:
TCP/IP Parameters Via DHCP (Parámetros TCP/IP mediante DHCP):
Enabled (Activado)
iSCSI Parameters via DHCP (Parámetros iSCSI mediante DHCP):
Enabled (Activado)
CHAP Authentication (Autenticación CHAP): Lo que corresponda
IP Version (Versión IP): Lo que corresponda (IPv4 o IPv6)
CHAP Mutual Authentication (Autenticación mutua de CHAP): Lo
que corresponda
NOTA
Al utilizar un servidor DHCP, los valores proporcionados por este servidor
sobrescriben las entradas del servidor DNS. Esta anulación sucede incluso
cuando los valores proporcionados localmente son válidos y el servidor
DHCP no proporciona información sobre el servidor DNS. Cuando el
servidor DHCP no proporciona información sobre el servidor DNS, tanto los
valores primarios como los secundarios del servidor DNS están
configurados en
0.0.0.0. Cuando se activa el sistema operativo Windows,
el iniciador iSCSI de Microsoft recupera los parámetros del iniciador iSCSI y
configura estáticamente los registros adecuados. Sobrescribirá todo lo que
esté configurado. Como el daemon de DHCP se ejecuta en el entorno de
Windows como un proceso del usuario, todos los parámetros TCP/IP deben
estar configurados estáticamente antes de que se active la pila en el
entorno de inicio iSCSI.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
94 AH0054602-09 M
DHCP Vendor ID (Id. de proveedor de DHCP): Lo que corresponda
HBA Boot Mode (Modo de inicio de HBA): Lo que corresponda
Virtual LAN ID (Id. de LAN virtual): Lo que corresponda
Virtual LAN Mode (Modo LAN virtual): Lo que corresponda
1
Ilustración 6-14. System Setup: iSCSI General Parameters (Configuración del
sistema: Parámetros generales iSCSI)
Activación de la autenticación de CHAP
Asegúrese de que la autenticación CHAP esté activada en el destino.
Para activar la opción de autenticación CHAP:
1. Vaya a la página iSCSI General Parameters (Parámetros generales iSCSI).
2. Establezca CHAP Authentication (Autenticación CHAP) en Enabled
(Activado).
3. En la ventana Initiator Parameters (Parámetros de iniciador), escriba
valores para los siguientes campos:
CHAP ID (Id. de CHAP) (hasta 255 caracteres)
CHAP Secret (Secreto CHAP) (si se requiere la autenticación, debe
tener entre 12 y 16 caracteres de longitud)
1
Virtual LAN Mode (Modo LAN virtual) no es necesariamente necesario si se utiliza una
configuración dinámica (suministrada externamente) desde el servidor DHCP.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
95 AH0054602-09 M
4. Pulse ESC para volver a la página iSCSI Boot Configuration (Configuración
de inicio de iSCSI).
5. En iSCSI Boot Configuration Menu (Menú de configuración de iSCSI),
seleccione iSCSI First Target Parameters (Parámetros de destino primario
iSCSI).
6. En la ventana iSCSI First Target Parameters (Parámetros de destino
primario iSCSI), escriba los valores que utilizó al configurar el destino iSCSI:
CHAP ID (Id. de CHAP) (opcional si el CHAP es de dos vías)
CHAP Secret (Secreto CHAP) (opcional si el CHAP es de dos vías,
debe tener entre 12 y 16 caracteres de longitud o más)
7. Pulse ESC para volver al menú iSCSI Boot configuration (Configuración de
inicio de iSCSI).
8. Pulse ESC y, a continuación,confirme los cambios pulsando Save
Configuration (Guardar configuración).
Configuración del servidor DHCP para que admita el inicio iSCSI
El servidor DHCP es un componente opcional y solo es necesario si va a realizar
una configuración dinámica de inicio iSCSI (consulte “Configuración dinámica de
inicio iSCSI” en la página 92).
La configuración del servidor DHCP para que admita el inicio iSCSI es distinta
para IPv4 y IPv6:
Configuraciones de inicio iSCSI en DHCP para IPv4
Configuración del servidor DHCP
Configuración de inicio iSCSI en DHCP para IPv6
Configuración de vLAN para el inicio iSCSI
Configuraciones de inicio iSCSI en DHCP para IPv4
DHCP incluye varias opciones que ofrecen al cliente de DHCP información
relacionada con la configuración. En el caso del inicio iSCSI, los adaptadores de
Marvell FastLinQ admiten las siguientes configuraciones de DHCP:
Opción 17 de DHCP, Ruta de raíz
Opción 43 de DHCP, Información específica del proveedor
Opción 17 de DHCP, Ruta de raíz
La Opción 17 se utiliza para pasar la información sobre el destino iSCSI al cliente
de iSCSI.
El formato de la ruta de acceso de raíz, según se define en IETC RFC 4173, es:
"iscsi:"<servername>":"<protocol>":"<port>":"<LUN>":"<targetname>"
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
96 AH0054602-09 M
En la Tabla 6-3 se muestran los parámetros de la Opción 17 de DHCP.
Opción 43 de DHCP, Información específica del proveedor
La Opción 43 de DHCP (información específica del proveedor) ofrece más
opciones de configuración al cliente iSCSI que la Opción 17 de DHCP. En esta
configuración, se proporcionan tres subopciones más que asignan el IQN del
iniciador al cliente de inicio iSCSI y dos IQN de destino iSCSI que pueden
utilizarse para iniciar el sistema. El formato del IQN del destino iSCSI es el mismo
que el de la Opción 17 de DHCP, mientras que el IQN del iniciador iSCSI es
simplemente el IQN del iniciador.
Tabla 6-3. Definiciones de los parámetros de la Opción 17 de DHCP
Parámetro Definición
"iscsi:" Una cadena literal
<servername> Dirección IP o el nombre de dominio completo (FQDN) de iSCSI
destino
":" Separador
<protocol> Protocolo IP utilizado para acceder al destino iSCSI. Como
actualmente solo se admite TCP, el protocolo es 6.
<port> Número de puerto asociado con el protocolo. El número de puerto
estándar para iSCSI es 3260.
<LUN> Número de unidad lógica que se utilizará en el destino iSCSI.
El valor del LUN debe estar representado en formato
hexadecimal. Un LUN con Id. de 64 debe configurarse como 40
dentro del parámetro de la opción 17 del servidor DHCP.
<targetname> Nombre del destino en formato IQN o EUI. Para obtener más
información sobre los formatos IQN y EUI, consulte RFC 3720.
Un ejemplo de nombre IQN es
iqn.1995-05.com.QLogic:iscsi-target.
NOTA
La Opción 43 de DHCP es compatible con IPv4 solamente.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
97 AH0054602-09 M
En la Tabla 6-4 se muestran las subopciones de la opción 43 de DHCP.
El uso de la Opción 43 de DHCP requiere mayor configuración que la Opción 17,
pero ofrece un entorno más rico y más opciones de configuración. Debe utilizar la
Opción 43 de DHCP para llevar a cabo la configuración dinámica de inicio iSCSI.
Configuración del servidor DHCP
Configure el servidor DHCP para que admita alguna de las siguientes Opciones:
16, 17 o 43.
Configuración de inicio iSCSI en DHCP para IPv6
El servidor DHCPv6 puede ofrecer varias opciones, incluyendo configuración de
IP con o sin estado, así como información para el cliente de DHCPv6. En el caso
del inicio iSCSI, los adaptadores de Marvell FastLinQ admiten las siguientes
configuraciones de DHCP:
Opción 16 de DHCPv6, opción de clase de proveedor
Opción 17 de DHCPv6, información específica del proveedor
Tabla 6-4. Definiciones de las subopciones de la Opción 43 de DHCP
Subopción Definición
201 Información sobre el destino iSCSI primario en el formato estándar de ruta de acceso
de raíz:
"iscsi:"<servername>":"<protocol>":"<port>":"<LUN>":
"<targetname>"
202 Información sobre el destino iSCSI secundario en el formato estándar de ruta de
acceso de raíz:
"iscsi:”<servername>":"<protocol>":"<port>":"<LUN>":
"<targetname>"
203 iSCSI, iniciador IQN
NOTA
El formato de la Opción 16 y la Opción 17 de DHCPv6 están completamente
definidos en RFC 3315.
Si utiliza la Opción 43, también deberá configurar la Opción 60. El valor de
la Opción 60 debe coincidir con el valor de DHCP Vendor ID (Id. de
proveedor de DHCP), que es QLGC ISAN, según se indica en iSCSI
General Parameters (Parámetros generales iSCSI) de la página iSCSI
Boot Configuration (Configuración de inicio iSCSI).
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
98 AH0054602-09 M
Opción 16 de DHCPv6, opción de clase de proveedor
La Opción 16 de DHCPv6 (opción de clase de proveedor) debe estar presente y
debe contener una cadena que coincida con su parámetro DHCP Vendor ID (Id.
de proveedor de DHCP) configurado. El valor de DHCP Vendor ID (Id. de
proveedor de DHCP) es QLGC ISAN, según se indica en General Parameters
(Parámetros generales) del menú iSCSI Boot Configuration (Configuración de
inicio iSCSI).
El contenido de la Opción 16 debe ser
<2-byte length> <DHCP Vendor ID>.
Opción 17 de DHCPv6, información específica del proveedor
La Opción 17 de DHCPv6 (información específica del proveedor) ofrece más
opciones de configuración al cliente de iSCSI. En esta configuración, se
proporcionan tres subopciones más que asignan el IQN del iniciador al cliente de
inicio iSCSI y dos IQN de destino iSCSI que pueden utilizarse para iniciar el
sistema.
En la Tabla 6-5 se muestran las subopciones de la opción 17 de DHCP.
El formato de la opción 17 debe ser:
<2-byte Option Number 201|202|203> <2-byte length> <data>
NOTA
La opción DHCPv6 standard Root Path (Ruta de raíz estándar de DHCPv6)
aún no está disponible. Marvell sugiere que se utilice la Opción 16 o la
Opción 17 para el inicio dinámico de iSCSI IPv6.
Tabla 6-5. Definiciones de las subopciones de la Opción 17 de DHCP
Subopción Definición
201 Información sobre el destino iSCSI primario en el formato estándar de ruta de acceso
de raíz:
"iscsi:"[<servername>]":"<protocol>":"<port>":"<LUN> ":
"<targetname>"
202 Información sobre el destino iSCSI secundario en el formato estándar de ruta de
acceso de raíz:
"iscsi:"[<servername>]":"<protocol>":"<port>":"<LUN> ":
"<targetname>"
203 iSCSI, iniciador IQN
En las direcciones IPv6, se requieren corchetes [ ].
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
99 AH0054602-09 M
Configuración de vLAN para el inicio iSCSI
El tráfico iSCSI en la red se puede aislar en una red vLAN Capa 2 para separarlo
del tráfico general. Si es el caso, haga que la interfaz iSCSI del adaptador sea
miembro de dicha red vLAN.
Para configurar vLAN para el inicio iSCSI:
1. Vaya a la página iSCSI Configuration (Configuración de iSCSI) del puerto.
2. Seleccione iSCSI General Parameters (Parámetros generales iSCSI).
3. Seleccione VLAN ID (Id. de VLAN) o introduzca y establezca el valor de
vLAN, como se muestra en la Ilustración 6-15.
Ilustración 6-15. System Setup: iSCSI General Parameters, VLAN ID
(Configuración del sistema: Parámetros generales iSCSI, Id. de VLAN)
Configuración del inicio iSCSI desde SAN en Windows
Los adaptadores admiten el inicio iSCSI, lo que permite iniciar redes de sistemas
operativos en sistemas sin disco. El inicio iSCSI permite que un sistema operativo
Windows se inicie desde una máquina de destino iSCSI ubicada en un sitio
remoto por una red IP estándar. Puede establecer la opción iSCSI L4 (ruta de
acceso de descarga con controlador iSCSI de descarga Marvell) abriendo el
menú NIC Configuration (Configuración NIC) y el parámetro Boot Protocol
(Protocolo de inicio) en UEFI iSCSI.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
100 AH0054602-09 M
La información del inicio iSCSI desde SAN para Windows incluye lo siguiente:
Antes de empezar
Selección del modo de inicio iSCSI preferido
Configuración de los parámetros generales iSCSI
Configuración del iniciador iSCSI
Configuración de los destinos iSCSI
Detección del LUN de iSCSI e inyección de controladores Marvell
Antes de empezar
Antes de iniciar la configuración del inicio iSCSI desde SAN en una máquina
Windows, tenga en cuenta lo siguiente:
El inicio iSCSI solo es compatible para NPAR con NParEP Mode (Modo
NParEP). Antes de configurar el inicio iSCSI:
1. Acceda a la página de configuración de nivel de dispositivo.
2. Establezca Virtualization Mode (Modo de virtualización) en Npar
(NPAR).
3. Establezca NParEP Mode (Modo NParEP) en Enabled (Habilitado).
El modo de inicio del servidor debe ser UEFI.
El inicio iSCSI en Adaptadores de la serie 41xxx no es compatible con el
BIOS heredado.
Marvell recomienda que deshabilite la controladora RAID integrada.
Selección del modo de inicio iSCSI preferido
Para seleccionar el modo de inicio iSCSI en Windows:
1. En la página NIC Partitioning Configuration (Configuración de
particionamiento NIC) para una partición seleccionada, establezca la opción
iSCSI Offload Mode (Modo de descarga iSCSI) en Enabled (Activado).
2. En la página NIC Configuration (Configuración de NIC), establezca la
opción Boot Protocol (Protocolo de inicio) en UEFI iSCSI HBA.
Configuración de los parámetros generales iSCSI
Configure el software de inicio iSCSI de Marvell para una configuración estática o
dinámica. Para obtener las opciones de configuración disponibles a través de la
ventana General Parameters (Parámetros generales), consulte la Tabla 6-2 en la
página 85, en la que se muestran los parámetros para IPv4 e IPv6.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
101 AH0054602-09 M
Para establecer los parámetros generales iSCSI en Windows:
1. En la página Main Configuration (Configuración principal), seleccione iSCSI
Configuration (Configuración iSCSI) y, a continuación, seleccione iSCSI
General Parameters (Parámetros generales de iSCSI).
2. En la página iSCSI General Parameters (Parámetros generales de iSCSI)
(consulte la Ilustración 6-7 en la página 85), pulse la tecla de FLECHA
HACIA ABAJO para seleccionar un parámetro y, a continuación, pulse la
tecla INTRO para introducir los siguientes valores (la Tabla 6-2 en la
página 85 suministra descripciones de estos parámetros):
TCP/IP Parameters Via DHCP (Parámetros TCP/IP mediante DHCP):
Disabled (Desactivado) (para inicio iSCSI estático), o Enabled
(Activado) (para inicio iSCSI dinámico)
iSCSI Parameters via DHCP (Parámetros iSCSI mediante DHCP):
Disabled (Desactivado)
CHAP Authentication (Autenticación CHAP): Lo que corresponda
IP Version (Versión IP): Lo que corresponda (IPv4 o IPv6)
Virtual LAN ID (Id. de LAN virtual): (Opcional) Puede aislar el tráfico
iSCSI en la red en una vLAN de capa 2 para segregarlo del tráfico
general. Para segregar el tráfico, convierta la interfaz iSCSI del
adaptador en miembro de la vLAN de capa 2 estableciendo este valor.
Configuración del iniciador iSCSI
Para establecer los parámetros del iniciador iSCSI en Windows:
1. En la página Main Configuration (Configuración principal), seleccione iSCSI
Configuration (Configuración iSCSI) y, a continuación, seleccione iSCSI
Iniciator Parameters (Parámetros del iniciador iSCSI).
2. En la página iSCSI Initiator Parameters (Parámetros del iniciador iSCSI)
(consulte la Ilustración 6-9 en la página 88), seleccione los siguientes
parámetros y escriba un valor para cada uno de ellos:
IPv4* Address (Dirección IPv4)
Subnet Mask (Máscara de subred)
IPv4* Default Gateway (Puerta de acceso predeterminada IPv4)
IPv4* Primary DNS (DNS primario de IPv4)
IPv4* Secondary DNS (DNS secundario de IPv4)
Virtual LAN ID (Id. de LAN virtual): (Opcional) Puede aislar el tráfico
iSCSI en la red en una vLAN de capa 2 para segregarlo del tráfico
general. Para segregar el tráfico, convierta la interfaz iSCSI del
adaptador en miembro de la vLAN de capa 2 estableciendo este valor.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
102 AH0054602-09 M
iSCSI Name (Nombre de iSCSI). Se corresponde con el nombre del
iniciador iSCSI que utilizará el sistema del cliente.
CHAP ID (Id. de CHAP)
CHAP Secret (Secreto CHAP)
3. Seleccione iSCSI First Target Parameters (Parámetros de destino
primario iSCSI) (Ilustración 6-10 en la página 89) y, a continuación, pulse
INTRO.
Configuración de los destinos iSCSI
Puede configurar el primer destino iSCS, el segundo destino, o ambos a la vez.
Para establecer los parámetros del destino iSCSI en Windows:
1. En la página Main Configuration (Configuración principal), seleccione iSCSI
Configuration (Configuración iSCSI) y, a continuación, seleccione iSCSI
First Target Parameters (Parámetros del primer destino iSCSI).
2. En la página iSCSI First Target Parameters (Parámetros de destino primario
iSCSI), establezca la opción Connect (Conectar) en Enabled (Activado)
para el destino iSCSI.
3. Escriba los valores para los siguientes parámetros del destino iSCSI y, a
continuación, pulse INTRO:
IPv4* Address (Dirección IPv4)
TCP Port (Puerto TCP)
Boot LUN (LUN de inicio)
iSCSI Name (Nombre de iSCSI)
CHAP ID (Id. de CHAP)
CHAP Secret (Secreto CHAP)
NOTA
Para los elementos precedentes con asteriscos (*), tenga en cuenta lo
siguiente:
La etiqueta cambiará a IPv6 o IPv4 (predeterminado) según la
versión IP que se haya definido en la página iSCSI General
Parameters (Parámetros generales iSCSI) (consulte la
Ilustración 6-7 en la página 85).
Introduzca con cuidado la dirección IP. No se realiza ninguna
comprobación de errores contra la dirección IP para comprobar si
existen duplicados o asignación de segmento o red incorrectos.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
103 AH0054602-09 M
4. Si quiere configurar un segundo dispositivo de destino iSCSI, seleccione
iSCSI Second Target Parameters (Parámetros de destino secundario
iSCSI) (Ilustración 6-12 en la página 91) e introduzca los valores del
parámetro como hizo en el paso 3. Este segundo destino se utiliza si no se
puede conectar con el primer destino. De lo contrario, continúe con el
paso 5.
5. En el cuadro de diálogo de advertencia, haga clic en Yes (Sí) para guardar
los cambios, o siga las directrices de OEM para guardar la configuración de
nivel de dispositivo.
Detección del LUN de iSCSI e inyección de controladores Marvell
1. Reinicie el sistema, acceda a HII, y determine si se ha detectado el LUN de
iSCSI. Emita el siguiente comando de script del shell de UEFI (versión 2):
map -r -b
La salida del comando precedente mostrado en la Ilustración 6-16 indica
que el LUN de iSCSI se detectó correctamente en el nivel de preinicio.
Ilustración 6-16. Detección del LUN de iSCSI mediante el shell de UEFI (versión 2)
2. En el LUN de iSCSI recién detectado, seleccione un origen de instalación
como, por ejemplo, utilizar un servidor WDS, montando el
.ISO con una
controladora de acceso remoto de Dell (iDRAC), o con un CD/DVD.
NOTA
En los parámetros arriba enumerados que tienen un asterisco (*), la
etiqueta cambiará a IPv6 o IPv4 (predeterminado) según la versión IP
que se haya definido en la página iSCSI General Parameters
(Parámetros generales iSCSI), tal como se muestra en la
Ilustración 6-7 en la página 85.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
104 AH0054602-09 M
3. En la ventana de configuración de Windows (Ilustración 6-17), seleccione el
nombre de la unidad en el que instalar el controlador.
Ilustración 6-17. Configuración de Windows: Selección de destino de instalación
4. Inyecte los últimos controladores Marvell montando controladores en los
soportes virtuales:
a. Haga clic en Load driver (Controlador de carga) y, a continuación,
haga clic en Browse (Examinar) (consulte la Ilustración 6-18).
Ilustración 6-18. Configuración de Windows: Selección del controlador que
instalar
b. Navegue hasta la ubicación del controlador y seleccione el controlador
qevbd.
c. Seleccione el adaptador en el que instalar el controlador y, a
continuación, haga clic en Next (Siguiente) para continuar.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
105 AH0054602-09 M
5. Repita el paso 4 para cargar el controlador qeios (controlador iSCSI L4 de
Marvell).
6. Después de inyectar los controladores qevbd y qeios, haga clic en Next
(Siguiente) para iniciar la instalación en el LUN de iSCSI. A continuación,
siga las instrucciones que aparecen en la pantalla.
El servidor se reiniciará varias veces como parte del proceso de instalación
y, a continuación, arrancará desde el LUN del inicio iSCSI desde SAN.
7. Si no se inicia automáticamente, acceda al Boot Menu (Menú de inicio) y
seleccione la entrada de inicio de puerto específica para iniciar desde el
LUN de iSCSI.
Configuración del inicio iSCSI desde SAN en Linux
Esta sección proporciona procedimientos de inicio iSCSI desde SAN para las
siguientes distribuciones de Linux:
Configuración del inicio iSCSI desde SAN para RHEL 7.5 y posterior
Configuración del inicio iSCSI desde SAN para SLES 12 SP3 y posterior
Configuración del inicio iSCSI desde SAN para otras distribuciones de Linux
Configuración del inicio iSCSI desde SAN para RHEL 7.5 y posterior
Para instalar RHEL 7.5 y posteriores:
1. Inicie desde los soportes de instalación de RHEL 7.x con el destino iSCSI ya
conectado en UEFI.
Install Red Hat Enterprise Linux 7.x
Test this media & install Red Hat Enterprise 7.x
Troubleshooting -->
Use the UP and DOWN keys to change the selection
Press 'e' to edit the selected item or 'c' for a command
prompt
2. Para instalar un controlador listo para usar, pulse la tecla E. Si no es el caso,
continúe en el
paso 6
.
3. Seleccione la línea del kernel y, a continuación, pulse la tecla E.
4. Emita el siguiente comando y, a continuación, pulse INTRO.
inst.dd modprobe.blacklist=qed,qede,qedr,qedi,qedf
El proceso de instalación le solicitará que instale el controlador listo para
usar.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
106 AH0054602-09 M
5. Si es necesario para su configuración, cargue el disco de actualización del
controlador FastLinQ cuando se solicite para discos de controlador
adicionales. En caso contrario, si no tiene otros discos de actualización de
controlador que instalar, pulse la tecla C.
6. Continúe con la instalación. Puede omitir la prueba de los soportes. Haga
clic en Next (Siguiente) para continuar con la instalación.
7. En la ventana Configuration (Configuración), seleccione el idioma que se
utilizará durante el proceso de instalación y, a continuación, haga clic en
Continue (Continuar).
8. En la ventana Installation Summary (Resumen de instalación), haga clic en
Installation Destination (Destino de instalación). La etiqueta del disco es
sda, que indica una instalación de ruta única. Si ha configurado múltiples
rutas, el disco tiene una etiqueta de asignador de dispositivo.
9. En la sección Specialized & Network Disks (Discos de red y
especializados), seleccione el LUN de iSCSI.
10. Escriba la contraseña raíz del usuario y, a continuación, haga clic en Next
(Siguiente) para finalizar la instalación.
11. Reinicie el servidor y agregue los parámetros siguientes en la línea de
comando:
rd.iscsi.firmware
rd.driver.pre=qed,qedi (para cargar todos los controladores
pre=qed,qedi,qede,qedf)
selinux=0
12. Cuando el sistema se haya iniciado correctamente, edite el archivo
/etc/modprobe.d/anaconda-blacklist.conf
para eliminar la entrada de
lista negra del controlador seleccionado.
13. Edite el archivo
/etc/default/grub de la siguiente forma:
a. Localice la cadena entre comillas dobles tal como aparece en el
siguiente ejemplo. La línea de comandos es una referencia específica
para ayudar a encontrar la cadena.
GRUB_CMDLINE_LINUX="iscsi_firmware"
b. La línea de comandos puede contener otros parámetros que pueden
permanecer. Cambie únicamente la cadena
iscsi_firmware de la
siguiente forma:
GRUB_CMDLINE_LINUX="rd.iscsi.firmware selinux=0"
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
107 AH0054602-09 M
14. Cree un nuevo archivo grub.cfg emitiendo el siguiente comando:
# grub2-mkconfig -o /boot/efi/EFI/redhat/grub.cfg
15. Vuelva a generar ramdisk emitiendo el comando dracut -f y reinicie.
Configuración del inicio iSCSI desde SAN para SLES 12 SP3 y posterior
Para instalar SLES 12 SP3 y versiones posteriores:
1. Inicie desde los soportes de instalación de SLES 12 SP3 con el destino
iSCSI preconfigurado y conectado en UEFI.
2. Actualice el último paquete de controladores agregando el parámetro
dud=1
al parámetro del comando del instalador. El disco de actualización
de controladores es necesario porque los controladores iSCSI necesarios
no están incluidos.
NOTA
Cuando se instale BFS iSCSI en Linux con una configuración de E/S
de múltiples rutas (MPIO) y una ruta única activa, utilice los siguientes
valores en el archivo multipath.conf:
defaults {
find_multipaths yes
user_friendly_names yes
polling_interval 5
fast_io_fail_tmo 5
dev_loss_tmo 10
checker_timeout 15
no_path_retry queue
}
Estos valores sugeridos son optimizables y se proporcionan como
guía para que BFS iSCSI sea operativo.
Para obtener más información, póngase en contacto con el proveedor
del SO adecuado.
NOTA
Solo para SLES 12 SP3: Si el servidor está configurado para el modo
de multifunción (NPAR), debe suministrar los siguientes parámetros
adicionales como parte de este paso:
dud=1 brokenmodules=qed,qedi,qedf,qede withiscsi=1
[BOOT_IMAGE=/boot/x86_64/loader/linux dud=1
brokenmodules=qed,qedi,qedf,qede withiscsi=1]
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
108 AH0054602-09 M
3. Complete los pasos de instalación especificados por el sistema operativo
SLES 12 SP3.
Problema conocido en la configuración DHCP
En la configuración DHCP para SLES 12 SP3 y posteriores, el primer inicio tras la
instalación del SO puede fallar si la dirección IP del iniciador adquirida del
servidor DHCP está en un rango diferente a la dirección IP de destino. Para
resolver este problema, inicie el SO mediante configuración estática, actualice el
último RPM listo para usar iscsiuio, vuelva a generar el initrd y, a continuación,
reinicie el sistema operativo mediante la configuración de DHCP. El sistema
operativo (SO) debería ahora iniciarse correctamente.
Configuración del inicio iSCSI desde SAN para otras distribuciones de Linux
Para distribuciones como, por ejemplo, RHEL 6.9/6.10/7.2/7.3, SLES 11 SP4 y
SLES 12 SP1/2, la utilidad de espacio del usuario iSCSI integrada (herramientas
Open-iSCSI) no admite el transporte qedi iSCSI y no puede utilizar la
funcionalidad de inicio en el espacio del usuario iSCSI. Durante la instalación con
inicio desde la SAN, puede actualizar el controlador qedi utilizando un disco de
actualización del controlador (DUD). Sin embargo, no existe ninguna interfaz o
proceso para actualizar las utilidades integradas de espacio del usuario, lo que
hace que el inicio de sesión en el destino iSCSI y la instalación con inicio desde la
SAN no se realicen correctamente.
Para superar esta limitación, realice el inicio inicial desde SAN con la interfaz L2
(no utilice iSCSI descargados de hardware) utilizando el siguiente procedimiento
durante el inicio desde SAN.
La descarga iSCSI para otras distribuciones de Linux incluye la siguiente
información:
Inicio desde SAN con un iniciador de software
Migración de la instalación iSCSI de software para iSCSI de descarga
Consideraciones sobre múltiples rutas de Linux
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
109 AH0054602-09 M
Inicio desde SAN con un iniciador de software
Para iniciar desde SAN utilizando un iniciador de software con Dell OEM
Solutions:
1. Acceda a la configuración del BIOS del sistema EMC de Dell.
2. Configure el iniciador y las entradas de destino. Para obtener información,
consulte la guía del usuario del BIOS de Dell.
3. Al principio de la instalación, emita el siguiente parámetro de inicio con la
opción DUD:
Para RHEL 6.x, 7.x y versiones anteriores:
rd.iscsi.ibft dd
No es necesario definir otras opciones para distribuciones anteriores
de RHEL.
Para SLES 11 SP4 y SLES 12 SP1/SP2:
ip=ibft dud=1
Para el paquete DUD FastLinQ (por ejemplo, en RHEL 7):
fastlinq-8.18.10.0-dd-rhel7u3-3.10.0_514.el7-x86_64.iso
Donde el parámetro DUD es dd para RHEL 7.x y dud=1 para
SLES 12.x.
4. Instale el sistema operativo en el LUN de destino.
Migración de la instalación iSCSI de software para iSCSI de descarga
Migre de una interfaz de no descarga a una interfaz de descarga siguiendo las
instrucciones para su sistema operativo.
Migración a iSCSI de descarga para RHEL 6.9/6.10
Migración a iSCSI de descarga para SLES 11 SP4
Migración a iSCSI de descarga para SLES 12 SP1/SP2
NOTA
El paso anterior es necesario porque los DUD contienen qedi, que
enlaza con la PF de iSCSI. Una vez que está enlazada, la
infraestructura Open-iSCSI da error debido a que el controlador de
transporte es desconocido.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
110 AH0054602-09 M
Migración a iSCSI de descarga para RHEL 6.9/6.10
Para migrar de una instalación iSCSI de software a iSCSI de descarga para
RHEL 6.9 o 6.10:
1. Inicie en el sistema operativo iSCSI de no descarga/inicio desde SAN L2.
Emita los comandos siguientes para instalar los RPM iscsiuio y Open-iSCSI:
# rpm -ivh --force qlgc-open-iscsi-2.0_873.111-1.x86_64.rpm
# rpm -ivh --force iscsiuio-2.11.5.2-1.rhel6u9.x86_64.rpm
2. Edite el archivo /etc/init.d/iscsid, agregue el comando siguiente y a
continuación guarde el archivo:
modprobe -q qedi
Por ejemplo:
echo -n $"Starting $prog: "
modprobe -q iscsi_tcp
modprobe -q ib_iser
modprobe -q cxgb3i
modprobe -q cxgb4i
modprobe -q bnx2i
modprobe -q be2iscsi
modprobe -q qedi
daemon iscsiuio
3. Abra el archivo /boot/efi/EFI/redhat/grub.conf, realice los cambios
siguientes y guarde el archivo:
Elimine
ifname=eth5:14:02:ec:ce:dc:6d
Elimine ip=ibft
Agregue selinux=0
Por ejemplo:
kernel /vmlinuz-2.6.32-696.el6.x86_64 ro
root=/dev/mapper/vg_prebooteit-lv_root rd_NO_LUKS
iscsi_firmware LANG=en_US.UTF-8 ifname=eth5:14:02:ec:ce:dc:6d
rd_NO_MD SYSFONT=latarcyrheb-sun16 crashkernel=auto rd_NO_DM
rd_LVM_LV=vg_prebooteit/lv_swap ip=ibft
KEYBOARDTYPE=pc
KEYTABLE=us rd_LVM_LV=vg_prebooteit/lv_root rhgb quiet
NOTA
Para conservar el contenido original del RPM integrado durante la
instalación, debe utilizar la opción
-ivh (en lugar de la opción -Uvh),
seguida de la opción
--force.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
111 AH0054602-09 M
initrd /initramfs-2.6.32-696.el6.x86_64.img
kernel /vmlinuz-2.6.32-696.el6.x86_64 ro
root=/dev/mapper/vg_prebooteit-lv_root rd_NO_LUKS
iscsi_firmware LANG=en_US.UTF-8 rd_NO_MD
SYSFONT=latarcyrheb-sun16 crashkernel=auto rd_NO_DM
rd_LVM_LV=vg_prebooteit/lv_swap KEYBOARDTYPE=pc KEYTABLE=us
rd_LVM_LV=vg_prebooteit/lv_root selinux=0
initrd /initramfs-2.6.32-696.el6.x86_64.img
4. Compile el archivo initramfs emitiendo el siguiente comando:
# dracut -f
5. Reinicie el servidor y, a continuación, abra UEFI HII.
6. En HII, desactive el inicio iSCSI desde BIOS y, a continuación, active iSCSI
HBA o el inicio para los adaptadores de la siguiente forma:
a. Seleccione el puerto del adaptador y, a continuación, seleccione
Device Level Configuration (Configuración de nivel de dispositivo).
b. En la página Device Level Configuration (Configuración de nivel de
dispositivo), para el Virtualization Mode (Modo de virtualización),
seleccione NPAR.
c. Abra la página NIC Partitioning Configuration (Configuración de
particionamiento NIC) y establezca la opción iSCSI Offload Mode
(Modo de descarga iSCSI) en Enabled (Activado). (La compatibilidad
con iSCSI HBA está en la partición 3 de un adaptador de dos puertos y
en la partición 2 de un adaptador de cuatro puertos).
d. Abra el menú NIC Configuration (Configuración NIC) y establezca
Boot Protocol (Protocolo de inicio) en UEFI iSCSI.
e. Abra la página de configuración iSCSI y configure los valores de
iSCSI.
7. Guarde la configuración y reinicie el servidor.
Ahora ya es posible iniciar el sistema operativo a través de la interfaz de
descarga.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
112 AH0054602-09 M
Migración a iSCSI de descarga para SLES 11 SP4
Para migrar de una instalación iSCSI de software a iSCSI de descarga para
SLES 11 SP4:
1. Actualice las herramientas Open-iSCSI e iscsiuio a las versiones más
recientes disponibles emitiendo los comandos siguientes:
# rpm -ivh qlgc-open-iscsi-2.0_873.111.sles11sp4-3.x86_64.rpm --force
# rpm -ivh iscsiuio-2.11.5.3-2.sles11sp4.x86_64.rpm --force
2. Edite el archivo /etc/elilo.conf, realice los siguientes cambios y guarde
el archivo:
Elimine el parámetro
ip=ibft (en caso de que exista)
Agregue
iscsi_firmware
3. Edite el archivo /etc/sysconfig/kernel de la siguiente forma:
a. Localice la línea que empieza con
INITRD_MODULES. Esta línea tiene
un aspecto parecido al siguiente pero puede contener diferentes
parámetros:
INITRD_MODULES="ata_piix ata_generic"
o
INITRD_MODULES="ahci"
b. Edite la línea agregando qedi al final de la línea existente (entre
comillas). Por ejemplo:
INITRD_MODULES="ata_piix ata_generic qedi"
o
INITRD_MODULES="ahci qedi"
c. Guarde el archivo.
4. Edite el archivo
/etc/modprobe.d/unsupported-modules, cambie el valor
de
allow_unsupported_modules a 1 y, a continuación, guarde el archivo:
allow_unsupported_modules 1
NOTA
Para conservar el contenido original del RPM integrado durante la
instalación, debe utilizar la opción
-ivh (en lugar de la opción -Uvh),
seguida de la opción
--force.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
113 AH0054602-09 M
5. Ubique y elimine los archivos siguientes:
/etc/init.d/boot.d/K01boot.open-iscsi
/etc/init.d/boot.open-iscsi
6. Cree una copia de seguridad de initrd y genere un nuevo initrd emitiendo los
comandos siguientes.
# cd /boot/
# mkinitrd
7. Reinicie el servidor y, a continuación, abra UEFI HII.
8. En UEFI HII, desactive el inicio iSCSI desde BIOS y, a continuación, active
iSCSI HBA o el inicio para los adaptadores de la siguiente forma:
a. Seleccione el puerto del adaptador y, a continuación, seleccione
Device Level Configuration (Configuración de nivel de dispositivo).
b. En la página Device Level Configuration (Configuración de nivel de
dispositivo), para el Virtualization Mode (Modo de virtualización),
seleccione NPAR.
c. Abra la página NIC Partitioning Configuration (Configuración de
particionamiento NIC) y establezca la opción iSCSI Offload Mode
(Modo de descarga iSCSI) en Enabled (Activado). (La compatibilidad
con iSCSI HBA está en la partición 3 de un adaptador de dos puertos y
en la partición 2 de un adaptador de cuatro puertos).
d. Abra el menú NIC Configuration (Configuración NIC) y establezca
Boot Protocol (Protocolo de inicio) en UEFI iSCSI.
e. Abra la página de configuración iSCSI y configure los valores de
iSCSI.
9. Guarde la configuración y reinicie el servidor.
Ahora ya es posible iniciar el sistema operativo a través de la interfaz de
descarga.
Migración a iSCSI de descarga para SLES 12 SP1/SP2
Para migrar de una instalación iSCSI de software a iSCSI de descarga para
SLES 12 SP1/SP2:
1. Inicie en el sistema operativo iSCSI de no descarga/inicio desde SAN L2.
Emita los comandos siguientes para instalar los RPM iscsiuio y Open-iSCSI:
# rpm -ivh qlgc-open-iscsi-2.0_873.111.sles12p2-3.x86_64.rpm --force
# rpm -ivh iscsiuio-2.11.5.3-2.sles12sp2.x86_64.rpm --force
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
114 AH0054602-09 M
2. Recargue todos los servicios de daemon emitiendo el siguiente comando:
# systemctl daemon-reload
3. Active los servicios iscsid e iscsiuio (si no están activados) emitiendo los
comandos siguientes:
# systemctl enable iscsid
# systemctl enable iscsiuio
4. Emita el siguiente comando:
cat /proc/cmdline
5. Compruebe si el sistema operativo ha conservado alguna opción de inicio,
como
ip=ibft o rd.iscsi.ibft.
Si se han conservado opciones de inicio, siga en el paso 6.
Si no se han conservado opciones de inicio, vaya directamente al
paso 6 c.
6. Modifique el archivo
/etc/default/grub y cambie el valor
GRUB_CMDLINE_LINUX
:
a. Elimine
rd.iscsi.ibft (en caso de que exista).
b. Elimine cualquier opción de inicio
ip=<value> (en caso de que
exista).
c. Agregue
rd.iscsi.firmware. Para otras distribuciones, agregue
iscsi_firmware.
7. Cree una copia de seguridad del archivo
grub.cfg original. El archivo se
encuentra en las ubicaciones siguientes:
Inicio heredado:
/boot/grub2/grub.cfg
Inicio de UEFI: /boot/efi/EFI/sles/grub.cfg para SLES
8. Cree un nuevo archivo
grub.cfg emitiendo el siguiente comando:
# grub2-mkconfig -o <new file name>
9. Compare el archivo grub.cfg antiguo con el archivo grub.cfg nuevo
para comprobar los cambios.
NOTA
Para conservar el contenido original del RPM integrado durante la
instalación, debe utilizar la opción
-ivh (en lugar de la opción -Uvh),
seguida de la opción
--force.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
115 AH0054602-09 M
10. Reemplace el archivo original grub.cfg por el nuevo archivo grub.cfg.
11. Compile el archivo
initramfs emitiendo el siguiente comando:
# dracut -f
12. Reinicie el servidor y, a continuación, abra UEFI HII.
13. En UEFI HII, desactive el inicio iSCSI desde BIOS y, a continuación, active
iSCSI HBA o el inicio para los adaptadores de la siguiente forma:
a. Seleccione el puerto del adaptador y, a continuación, seleccione
Device Level Configuration (Configuración de nivel de dispositivo).
b. En la página Device Level Configuration (Configuración de nivel de
dispositivo), para el Virtualization Mode (Modo de virtualización),
seleccione NPAR.
c. Abra la página NIC Partitioning Configuration (Configuración de
particionamiento NIC) y establezca la opción iSCSI Offload Mode
(Modo de descarga iSCSI) en Enabled (Activado). (La compatibilidad
con iSCSI HBA está en la partición 3 de un adaptador de dos puertos y
en la partición 2 de un adaptador de cuatro puertos).
d. Abra el menú NIC Configuration (Configuración NIC) y establezca
Boot Protocol (Protocolo de inicio) en UEFI iSCSI.
e. Abra la página de configuración iSCSI y configure los valores de
iSCSI.
14. Guarde la configuración y reinicie el servidor.
Ahora ya es posible iniciar el sistema operativo a través de la interfaz de descarga.
Consideraciones sobre múltiples rutas de Linux
Las instalaciones de inicio iSCSI desde SAN en sistemas operativos Linux son
actualmente solo compatibles con una configuración de ruta única. Para activar
configuraciones de múltiples rutas, realice la instalación en una ruta única
utilizando una ruta L2 o L4. Después de que el servidor se inicie en el sistema
operativo instalado, realice las configuraciones necesarias para activar la E/S de
múltiples rutas (MPIO).
Consulte el procedimiento correspondiente en esta sección para migrar de L2 a
L4 y configurar MPIO para su sistema operativo:
Migración y configuración de MPIO a la interfaz descargada para
RHEL 6.9/6.10
Migración y configuración de MPIO a la interfaz descargada para
SLES 11 SP4
Migración y configuración de MPIO a la interfaz descargada para
SLES 12 SP1/SP2
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
116 AH0054602-09 M
Migración y configuración de MPIO a la interfaz descargada para
RHEL 6.9/6.10
Para migrar de L2 a L4 y configurar MPIO para iniciar el sistema operativo a
través de la interfaz descargada para RHEL 6.9/6.10:
1. Configure la configuración de inicio iSCSI para BFS L2 en ambos puertos
del adaptador. El inicio iniciará sesión a través únicamente de un puerto,
pero creará una interfaz de Tabla de firmware de inicio iSCSI (iBFT) para
ambos puertos.
2. Al iniciar en el CD, asegúrese de especificar los parámetros de kernel
siguientes:
ip=ibft
linux dd
3. Proporcione el DUD y complete la instalación.
4. Inicie en el sistema operativo con L2.
5. Actualice las herramientas Open-iSCSI e iscsiuio emitiendo los comandos
siguientes:
# rpm -ivh qlgc-open-iscsi-2.0_873.111.rhel6u9-3.x86_64.rpm --force
# rpm -ivh iscsiuio-2.11.5.5-6.rhel6u9.x86_64.rpm --force
6. Edite el archivo /boot/efi/EFI/redhat/grub.conf, realice los cambios
siguientes y, a continuación, guarde el archivo:
a. Elimine
ifname=eth5:14:02:ec:ce:dc:6d.
b. Elimine
ip=ibft.
c. Agregue
selinux=0.
7. Compile el archivo
initramfs emitiendo el siguiente comando:
# dracut –f
8. Reinicie y cambie la configuración de inicio del adaptador para que utilice L4
o iSCSI (HW) para ambos puertos y para iniciar a través de L4.
9. Después de iniciar en el SO, configure el daemon de múltiples rutas
multipathd.conf
:
# mpathconf --enable --with_multipathd y
# mpathconf –enable
10. Inicie el servicio multipathd:
# service multipathd start
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
117 AH0054602-09 M
11. Vuelva a generar initramfs con soporte de múltiples rutas.
# dracut --force --add multipath --include /etc/multipath
12. Reinicie el servidor e inicie en SO con múltiples rutas.
Migración y configuración de MPIO a la interfaz descargada para
SLES 11 SP4
Para migrar de L2 a L4 y configurar los parámetros de MPIO para iniciar el
sistema operativo a través de la interfaz descargada para SLES 11 SP4:
1. Siga los pasos necesarios para migrar una interfaz de no descarga (L2) a
una interfaz de descarga (L4), a través de una única ruta. Consulte
Migración a iSCSI de descarga para SLES 11 SP4.
2. Después de iniciar en el sistema operativo mediante la interfaz L4, prepare
las rutas múltiples de la siguiente forma:
a. Reinicie el servidor y abra HII yendo a System Setup/Utilities
(Configuración del sistema/Utilidades).
b. En HII, seleccione System Configuration (Configuración del sistema)
y seleccione el segundo puerto del adaptador para que se utilice para
múltiples rutas.
c. En la página de configuración principal, en Port Level Configuration
(Configuración de nivel de puerto), establezca Boot Mode (Modo de
inicio) en iSCSI (HW) y active iSCSI Offload (Descarga iSCSI).
d. En la página de configuración principal, en iSCSI Configuration
(Configuración de iSCSI), realice las configuraciones de iSCSI
necesarias.
e. Reinicie el servidor e inicie en SO.
3. Establezca los servicios MPIO para que permanezcan persistentes en el
preinicio de la siguiente forma:
# chkconfig multipathd on
# chkconfig boot.multipath on
# chkconfig boot.udev on
NOTA
\
Para que surtan efecto los cambios adicionales en el archivo
/etc/multipath.conf
, debe volver a generar la imagen initrd y reiniciar el
servidor.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
118 AH0054602-09 M
4. Inicie los servicios de múltiples rutas de la siguiente forma:
# /etc/init.d/boot.multipath start
# /etc/init.d/multipathd start
5. Ejecute multipath –v2 –d para mostrar la configuración de múltiples
rutas con un simulacro.
6. Localice el archivo
multipath.conf en /etc/multipath.conf.
7. Edite
multipath.conf para activar la sección predeterminada.
8. Vuelva a generar la imagen initrd para que incluya la compatibilidad con
MPIO:
# mkinitrd –f multipath
9. Reinicie el servidor e inicie en SO con compatibilidad para múltiples rutas.
Migración y configuración de MPIO a la interfaz descargada para
SLES 12 SP1/SP2
Para migrar de L2 a L4 y configurar los parámetros de MPIO para iniciar el
sistema operativo a través de la interfaz descargada para SLES 12 SP1/SP2:
1. Configure la configuración de inicio iSCSI para BFS L2 en ambos puertos
del adaptador. El inicio iniciará sesión a través únicamente de un puerto,
pero creará una interfaz de Tabla de firmware de inicio iSCSI (iBFT) para
ambos puertos.
2. Al iniciar en el CD, asegúrese de especificar los parámetros de kernel
siguientes:
dud=1
rd.iscsi.ibft
3. Proporcione el DUD y complete la instalación.
NOTA
\
Si el archivo no está presente, copie multipath.conf de la carpeta
/usr/share/doc/packages/multipath-tools:
cp /usr/share/doc/packages/multipath-tools/multipath.
conf.defaults /etc/multipath.conf
NOTA
\
Para que surtan efecto los cambios adicionales en el archivo
/etc/multipath.conf
, debe volver a generar la imagen initrd y reiniciar el
servidor.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
119 AH0054602-09 M
4. Inicie en el sistema operativo con L2.
5. Actualice las herramientas Open-iSCSI emitiendo los comandos siguientes:
# rpm -ivh qlgc-open-iscsi-2.0_873.111.sles12sp1-3.x86_64.rpm --force
# rpm -ivh iscsiuio-2.11.5.5-6.sles12sp1.x86_64.rpm --force
6. Edite el archivo /etc/default/grub cambiando el parámetro
rd.iscsi.ibft
a rd.iscsi.firmware y, a continuación, guarde el
archivo.
7. Emita el siguiente comando:
# grub2-mkconfig -o /boot/efi/EFI/suse/grub.cfg
8. Para cargar el módulo de múltiples rutas, emita el siguiente comando:
# modprobe dm_multipath
9. Para activar el daemon de múltiples rutas, emita los comandos siguientes:
# systemctl start multipathd.service
# systemctl enable multipathd.service
# systemctl start multipathd.socket
10. Para ejecutar la utilidad de múltiples rutas, emita los comandos siguientes:
# multipath (pueden no mostrarse los dispositivos de múltiples rutas porque se
ha iniciado con una ruta única en L2)
# multipath -ll
11. Para inyectar el módulo de múltiples rutas en initrd, emita el comando
siguiente:
# dracut --force --add multipath --include /etc/multipath
12. Reinicie el servidor y pulse la tecla F9 durante el menú POST para introducir
los parámetros de configuración del sistema.
13. Cambie la configuración de UEFI para utilizar el inicio iSCSI L4:
a. Abra System Configuration (Configuración del sistema), seleccione el
puerto del adaptador y, a continuación, seleccione Port Level
Configuration (Configuración de nivel de puerto).
b. En la página Port Level Configuration (Configuración de nivel de
puerto), establezca Boot Mode (Modo de inicio) en iSCSI (HW) y
establezca iSCSI Offload (Descarga iSCSI) en Enabled (Activada).
c. Guarde la configuración y salga del menú de configuración del
sistema.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
120 AH0054602-09 M
14. Reinicie el sistema. Ahora el sistema operativo se iniciará a través de la
interfaz de descarga.
Configuración del inicio iSCSI desde SAN en VMware
Como VMware no admite nativamente el inicio iSCSI de la descarga de SAN,
debe configurar BFS a través del software en preinicio y, a continuación, pasar a
la descarga una vez se cargue el controlador del sistema operativo. Para obtener
más información, consulte “Activación de NPAR y del iSCSI HBA” en la
página 79.
En VMware ESXi, los procedimientos de configuración de iSCSI BFS incluyen:
Establecimiento de la configuración principal de UEFI
Configuración del BIOS del sistema para inicio iSCSI (L2)
Asignación del CD o DVD para la instalación del sistema operativo
Establecimiento de la configuración principal de UEFI
Para configurar el inicio iSCSI desde SAN en VMware:
1. Conecte el Adaptador de la serie 41xxx al servidor de 14 G de Dell. Por
ejemplo, conecte un PCIE y LOM (cuatro puertos o dos puertos) a un
servidor R740.
2. En HII, vaya a System Setup (Configuración del sistema), seleccione
Device Settings (Configuración del dispositivo) y, a continuación,
seleccione un puerto NIC integrado que configurar. Haga clic en Finish
(Finalizar).
3. En la Main Configuration Page (Página de configuración principal),
seleccione NIC Configuration (Configuración NIC) y, a continuación, haga
clic en Finish (Finalizar).
4. En la Main Configuration Page (Página de configuración principal),
seleccione Firmware Image Properties (Propiedades de imagen de
firmware), vea la información no configurable y, a continuación, haga clic en
Finish (Finalizar).
5. En Main Configuration Page (Página de configuración principal),
seleccione Device Level Configuration (Configuración de nivel de
dispositivo).
NOTA
\
Para que surtan efecto los cambios adicionales en el archivo
/etc/multipath.conf
, debe volver a generar la imagen initrd y reiniciar el
servidor.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
121 AH0054602-09 M
6. Complete la página Device Level Configuration (Configuración de nivel de
dispositivo) (consulte la Ilustración 6-19) de la siguiente forma:
a. Para Virtualization Mode (Modo de virtualización), seleccione None
(Ninguno), NPar o NPar_EP para la instalación de IBFT a través de la
interfaz NIC.
b. Para NParEP Mode (Modo NParEP), seleccione Disabled
(Desactivado).
c. Para UEFI Driver Debug Level (Nivel de depuración de controlador
UEFI), seleccione 10.
Ilustración 6-19. NIC integrado: Configuración de nivel de dispositivo para VMware
7. Vaya a la Main Configuration Page (Página de configuración principal) y
seleccione NIC Partitioning Configuration (Configuración de
particionamiento NIC).
8. En la página NIC Partitioning Configuration (Configuración de
particionamiento NIC), seleccione Partition 1 Configuration (Configuración
de la partición 1).
9. Complete la página de configuración de la partición 1 de la siguiente forma:
a. Para Link Speed (Velocidad del enlace), seleccione Auto Neg (Neg.
automática), 10 Gbps o 1 Gbps.
b. Asegúrese de que el enlace esté activo.
c. Para Boot Protocol (Protocolo de inicio), seleccione None (Ninguno).
d. Para Virtual LAN Mode (Modo LAN virtual), seleccione Disabled
(Desactivado).
10. En la página NIC Partitioning Configuration (Configuración de
particionamiento NIC), seleccione Partition 2 Configuration (Configuración
de la partición 2).
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
122 AH0054602-09 M
11. Complete la página de configuración de la partición 2 (consulte la
Ilustración 6-20) de la siguiente forma:
a. Para FCoE Mode (Modo FCoE), seleccione Disabled (Desactivado).
b. Para iSCSI Offload Mode (Modo de descarga iSCSI), seleccione
Disabled (Desactivado).
Ilustración 6-20. NIC integrado: Configuración de la partición 2 para VMware
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
123 AH0054602-09 M
Configuración del BIOS del sistema para inicio iSCSI (L2)
Para configurar el BIOS del sistema en VMware:
1. En la página System BIOS Settings (Configuración del BIOS del sistema),
seleccione Boot Settings (Configuración del BIOS).
2. Complete la página Boot Settings (Configuración de inicio) según aparecen
en la Ilustración 6-21.
Ilustración 6-21. NIC integrado: BIOS del sistema, Configuración de inicio para
VMware
3. En la página System BIOS Settings (Configuración del BIOS del sistema),
haga clic en Network Settings (Configuración de red).
4. En la página Network Settings (Configuración de red), en UEFI iSCSI
Settings (Configuración de UEFI iSCSI):
a. Para iSCSI Device1 (Dispositivo iSCSI 1), seleccione Enabled
(Activado).
b. Seleccione UEFI Boot Settings (Configuración de inicio UEFI).
5. En la página iSCSI Device1 Settings (Configuración del dispositivo iSCSI 1):
a. Para Connection 1 (Conexión 1), seleccione Enabled (Activado).
b. Seleccione Connection 1 Settings (Configuración de conexión 1).
6. En la página Connection 1 Settings (Configuración de conexión 1) (consulte
la Ilustración 6-22):
a. Para Interface (Interfaz), seleccione el puerto del adaptador en el que
probar el inicio de la tabla de firmware de inicio iSCSI (IBFT) desde
SAN.
b. Para Protocol (Protocolo), seleccione IPv4 o IPv6.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
124 AH0054602-09 M
c. Para VLAN, seleccione Disabled (Desactivado) (el valor
predeterminado) o Enabled (Activado) (si desea probar IBFT con una
vLAN).
d. Para DHCP, seleccione Enabled (Activado) (si la dirección IP es del
servidor DHCP) o Disabled (Desactivado) (para usar la configuración
IP estática).
e. Para Target info via DHCP (Información de destino a través de
DHCP), seleccione Disabled (Desactivado).
Ilustración 6-22. NIC integrado: BIOS del sistema, Configuración de conexión 1
para VMware
7. Complete los detalles del destino y para Authentication Type (Tipo de
autenticación), seleccione CHAP (para establecer los detalles de CHAP) o
None (Ninguno) (el valor predeterminado). La Ilustración 6-23 muestra un
ejemplo.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
125 AH0054602-09 M
Ilustración 6-23. NIC integrado: BIOS del sistema, Configuración de conexión 1
(destino) para VMware
8. Guarde todos los cambios de configuración y reinicie el servidor.
9. Durante el arranque del sistema, pulse la tecla F11 para iniciar el
Administrador de arranque.
10. En el Administrador de arranque, en Boot Menu (Menú de inicio), Select
UEFI Boot Option (Seleccionar opción de inicio UEFI), seleccione la
Embedded SATA Port AHCI Controller (Controladora AHCI de puerto
SATA integrada).
Asignación del CD o DVD para la instalación del sistema operativo
Para asignar el CD o DVD:
1. Cree una imagen ISO personalizada mediante el personalizador ESXi e
inyecte el último paquete o VIB.
2. Asigne el ISO al soporte virtual de la consola virtual del servidor.
3. En la unidad óptica virtual, cargue el archivo ISO.
4. Después de que el ISO se haya cargado correctamente, pulse la tecla F11.
6–Configuración del inicio desde SAN
Inicio iSCSI desde SAN
126 AH0054602-09 M
5. En la ventana Select a Disk To Install Or Upgrade (Seleccionar un disco
para instalar o actualizar), en Storage Device (Dispositivo de
almacenamiento), seleccione el disco 3PARdata W y, a continuación, pulse
la tecla INTRO. La Ilustración 6-24 muestra un ejemplo.
Ilustración 6-24. VMware iSCSI BFS: Selección de un disco que instalar
6. Inicie la instalación del sistema operativo ESXi OS en el LUN de iSCSI
remoto.
6–Configuración del inicio desde SAN
Inicio FCoE desde SAN
127 AH0054602-09 M
7. Una vez finalizada correctamente la instalación del sistema operativo ESXi,
el sistema se reinicia en el sistema operativo, tal como se muestra en la
Ilustración 6-25.
Ilustración 6-25. Inicio iSCSI de WMware desde SAN correcto
Inicio FCoE desde SAN
Marvell Adaptadores de la serie 41xxx admiten el inicio FCoE, lo que permite el
arranque de redes de sistemas operativos en sistemas sin disco. El inicio FCoE
permite que un sistema operativo Windows, Linux o VMware se inicie desde una
máquina de destino Fibre Channel o FCoE ubicada en un sitio remoto a través de
una red que admita FCoE. Puede establecer la opción FCoE (ruta de descarga
con controlador FCoE de descarga Marvell) abriendo el menú NIC Configuration
(Configuración NIC) y estableciendo la opción Boot Protocol (Protocolo de
inicio) en FCoE.
Esta sección ofrece la siguiente información sobre el inicio FCoE desde SAN:
Asistencia integrada y lista para usar FCoE
Configuración de preinicio FCoE
Configuración del inicio FCoE desde SAN en Windows
Configuración del inicio FCoE desde SAN en Linux
Configuración del inicio FCoE desde SAN en VMware
6–Configuración del inicio desde SAN
Inicio FCoE desde SAN
128 AH0054602-09 M
Asistencia integrada y lista para usar FCoE
La Tabla 6-6 muestra la asistencia integrada y lista para usar de los sistemas
operativos para el inicio FCoE desde SAN (BFS).
Configuración de preinicio FCoE
Esta sección describe los procedimientos de instalación e inicio para los sistemas
operativos Windows, Linux y ESXi. Para preparar el BIOS del sistema, modifique
el orden de inicio del sistema y especifique el protocolo de inicio del BIOS, si es
necesario.
Tabla 6-6. Asistencia de inicio desde SAN integrada y lista para usar
FCoE
Lista para usar
Incluido
Versión del SO
Asistencia BFS FCoE
de descarga de
hardware
Asistencia BFS FCoE
de descarga de
hardware
Windows 2012 No
Windows 2012 R2 No
Windows 2016 No
Windows 2019
RHEL 7.5
RHEL 7.6
RHEL 8.0
SLES 15/15 SP1
vSphere ESXi 6.5 U3 No
VMware ESXi 6.7 U2 No
NOTA
El inicio FCoE desde SAN es compatible en ESXi 5.5 y versiones
posteriores. Hay algunas versiones del adaptador que no admiten FCoE ni
el inicio FCoE desde SAN.
6–Configuración del inicio desde SAN
Inicio FCoE desde SAN
129 AH0054602-09 M
Especificación del protocolo de inicio del BIOS
El inicio FCoE desde SAN solo se admite en modo UEFI. Establezca la
plataforma en modo de inicio (protocolo) utilizando la configuración BIOS del
sistema en UEFI.
Configuración del modo de inicio del adaptador UEFI
Para configurar el modo de inicio en FCOE:
1. Reinicie el sistema.
2. Pulse la tecla de activación del OEM para entrar en la configuración del
sistema (Ilustración 6-26). Esto también se denomina UEFI HII.
Ilustración 6-26. System Setup: Selecting Device Settings (Configuración del
sistema: Selección de la configuración del dispositivo)
NOTA
FCoE BFS no se admite en modo BIOS heredado.
NOTA
El inicio desde SAN solo se admite en el entorno UEFI. Compruebe
que la opción de inicio del sistema es UEFI y no la heredada.
6–Configuración del inicio desde SAN
Inicio FCoE desde SAN
130 AH0054602-09 M
3. En la página Device Settings (Configuración del dispositivo), seleccione el
adaptador FastLinQ de Marvell (Ilustración 6-27).
Ilustración 6-27. System Setup: Device Settings, Port Selection (Configuración del
sistema: Configuración del dispositivo, Selección del puerto)
6–Configuración del inicio desde SAN
Inicio FCoE desde SAN
131 AH0054602-09 M
4. En la Main Configuration Page (Página de configuración principal),
seleccione NIC Configuration (Configuración NIC) (Ilustración 6-28) y, a
continuación, pulse INTRO.
Ilustración 6-28. System Setup: NIC Configuration (Configuración del sistema:
Configuración NIC)
5. En la página NIC Configuration (Configuración NIC), seleccione Boot Mode
(Modo de inicio) y, a continuación, pulse INTRO para seleccionar FCoE
como modo de inicio preferido.
NOTA
FCoE no aparece como opción de inicio si la característica FCoE Mode
(Modo FCoE) está desactivada en el nivel de puerto. Si el Boot Mode
(Modo de inicio) preferido es FCoE, asegúrese de que la característica
FCoE Mode (Modo FCoE) esté activada tal como se muestra en la
Ilustración 6-29. Hay algunas versiones del adaptador que no admiten
FCoE.
6–Configuración del inicio desde SAN
Inicio FCoE desde SAN
132 AH0054602-09 M
Ilustración 6-29. System Setup: FCoE Mode Enabled (Configuración del sistema:
Modo FCoE activado)
Para configurar los parámetros de inicio FCoE:
1. En la Device UEFI HII Main Configuration Page (Página de configuración
principal de la HII del dispositivo), seleccione FCoE Configuration
(Configuración FCoE) y, a continuación, pulse INTRO.
2. En la página FCoE Configuration (Configuración FCoE), seleccione FCoE
General Parameters (Parámetros generales FCoE) y, a continuación, pulse
INTRO.
3. En la página FCoE General Parameters (Parámetros generales FCoE)
(Ilustración 6-30), pulse las teclas de flecha ARRIBA y flecha ABAJO para
seleccionar un parámetro y, a continuación, pulse INTRO para seleccionar e
introducir los siguiente valores:
Fabric Discovery Retry Count (Recuento de reintentos de detección
de estructura): Valor predeterminado o lo que corresponda
LUN Busy Retry Count (Recuento de reintentos de LUN ocupado):
Valor predeterminado o lo que corresponda
6–Configuración del inicio desde SAN
Inicio FCoE desde SAN
133 AH0054602-09 M
Ilustración 6-30. System Setup: FCoE General Parameters (Configuración del
sistema: Parámetros generales FCoE)
4. Vuelva a la página FCoE Configuration (configuración FCoE).
5. Pulse ESC y, a continuación,seleccione FCoE Target Parameters
(Parámetros de destino FCoE).
6. Pulse INTRO.
7. En el FCoE General Parameters Menu (Menú Parámetros generales
FCoE), active Connect (Conectar) en el destino FCoE preferido.
8. Escriba los valores para los siguientes parámetros (Ilustración 6-31) del
destino FCoE y, a continuación, pulse INTRO:
World Wide Port Name Target (Destino del nombre del puerto
mundial) n
Boot LUN (LUN de inicio) n
Donde el valor de n es un número entre 1 y 8, lo que le permite configurar 8
destinos FCoE.
6–Configuración del inicio desde SAN
Inicio FCoE desde SAN
134 AH0054602-09 M
Ilustración 6-31. System Setup: FCoE General Parameters (Configuración del
sistema: Parámetros generales FCoE)
Configuración del inicio FCoE desde SAN en Windows
La información relativa a Windows sobre el inicio FCoE desde SAN incluye:
Instalación de inicio FCoE para Windows Server 2012 R2 y 2016
Configuración de FCoE en Windows
Volcado para caída del sistema FCoE en Windows
Inyección (Integración de la solución) de los controladores del adaptador en
los archivos de imagen de Windows
Instalación de inicio FCoE para Windows Server 2012 R2 y 2016
Para la instalación de inicio desde SAN de Windows Server 2012R2/2016,
Marvell requiere que se utilice un DVD de “integración de solución” o una imagen
ISO que tenga inyectados los controladores de Marvell más recientes. Consulte
“Inyección (Integración de la solución) de los controladores del adaptador en los
archivos de imagen de Windows” en la página 136.
El siguiente procedimiento prepara la imagen para la instalación e inicio en modo
FCoE.
6–Configuración del inicio desde SAN
Inicio FCoE desde SAN
135 AH0054602-09 M
Para configurar el inicio FCoE en Windows Server 2012 R2/2016:
1. Retire los discos duros locales en el sistema que se iniciará (sistema
remoto).
2. Prepare el soporte de instalación del sistema operativo Windows siguiendo
los pasos de integración de la solución que se describen en “Inyección
(Integración de la solución) de los controladores del adaptador en los
archivos de imagen de Windows” en la página 136.
3. Cargue las imágenes de inicio FCoE de Marvell más recientes en la
NVRAM del adaptador.
4. Configure el destino FCoE para permitir una conexión desde el dispositivo
remoto. Asegúrese de que el destino tenga suficiente espacio en el disco
para almacenar la instalación del nuevo sistema operativo.
5. Configure UEFI HII para establecer el tipo de inicio FCoE en el puerto del
adaptador que se requiera, el iniciador correcto y los parámetros de destino
para el inicio FCoE.
6. Guarde la configuración y reinicie el sistema. El sistema remoto debe
conectarse al destino FCoE y, a continuación, iniciarse desde el dispositivo
DVD-ROM.
7. Inicie el DVDy comience la instalación.
8. Siga las instrucciones que aparecen en la pantalla.
En la ventana que muestra la lista de discos disponibles para la instalación,
debería aparecer el disco de destino FCoE. Este destino es un disco
conectado a través del protocolo de inicio FCoE, ubicado en el destino
FCoE remoto.
9. Para realizar la instalación de Windows Server 2012R2/2016, seleccione
Next (Siguiente), y siga las instrucciones en pantalla. El servidor se
reiniciará varias veces como parte del proceso de instalación.
10. Después de que el servidor se inicie en el sistema operativo, se recomienda
ejecutar el instalador del controlador para completar la instalación de la
aplicación y los controladores Marvell.
Configuración de FCoE en Windows
De manera predeterminada, DCB está habilitado en C-NIC compatibles con
Marvell FastLinQ 41xxx FCoE y DCB. 41xxx Marvell FCoE requiere una interfaz
activada con DCB. Para sistemas operativos Windows, utilice la GUI de
QConvergeConsole o una utilidad de línea de comando para configurar los
parámetros DCB.
6–Configuración del inicio desde SAN
Inicio FCoE desde SAN
136 AH0054602-09 M
Volcado para caída del sistema FCoE en Windows
Actualmente, la función de volcado de memoria solo está admitida para el inicio
FCoE con los Adaptadores de la serie 41xxx FastLinQ.
No es necesario configurar nada más para configurar la generación del volcado
de memoria FCoE cuando se utiliza el modo de inicio FCoE.
Inyección (Integración de la solución) de los controladores del adaptador en los
archivos de imagen de Windows
Para inyectar controladores del adaptador en archivos de imagen de
Windows:
1. Obtenga el último paquete del controlador para la versión de Windows
Server correspondiente (2012, 2012 R2, 2016 o 2019).
2. Extraiga los paquetes del controlador en un directorio de trabajo:
a. Abra una sesión de línea de comando y navegue hasta la carpeta que
contiene el paquete del controlador.
b. Para extraer el controlador Dell Update Package (DUP), emita el
siguiente comando:
start /wait NameOfDup.exe /s /drivers=<folder path>
3. Descargue la versión 10 de Windows Assessment and Deployment Kit
(ADK) de Microsoft:
https://developer.microsoft.com/en-us/windows/hardware/
windows-assessment-deployment-kit
4. Siga «Agregar y eliminar controladores en un artículo de Windows Image
sin conexión» e inyecte el controlador OOB extraído en el paso 2, parte b.
Consulte
https://docs.microsoft.com/en-us/windows-hardware/manufacture/desktop/a
dd-and-remove-drivers-to-an-offline-windows-image
Configuración del inicio FCoE desde SAN en Linux
La configuración del inicio FCoE desde SAN para Linux cubre lo siguiente:
Requisitos previos para el inicio FCoE desde SAN de Linux
Configuración de inicio FCoE desde SAN de Linux
6–Configuración del inicio desde SAN
Inicio FCoE desde SAN
137 AH0054602-09 M
Requisitos previos para el inicio FCoE desde SAN de Linux
Lo siguiente es necesario para que el inicio FCoE desde SAN de Linux funcione
correctamente con la controladora 41xxx Marvell FastLinQ de 10/25GbE.
General
Ya no es necesario utilizar las pestañas de disco FCoE en los instaladores Red
Hat y SUSE porque las interfaces FCoE no se exponen desde la interfaz de red y
se activan automáticamente con el controlador qedf.
SLES 12 y SLES 15
El disco de actualización de controladores se recomienda para SLES 12
SP 3 y posteriores.
El parámetro del instalador
dud=1 es necesario para garantizar que el
instalador solicite el disco de actualización de controladores.
No utilice el parámetro del instalador
withfcoe=1 porque el FCoE del
software entrará en conflicto con la descarga de hardware si se exponen las
interfaces de red desde qede.
Configuración de inicio FCoE desde SAN de Linux
Esta sección proporciona procedimientos de inicio FCoE desde SAN para las
siguientes distribuciones de Linux:
Configuración del inicio FCoE desde SAN para SLES 12 SP3 y posteriores
Uso de un dispositivo de inicio FCoE como destino de kdump
Configuración del inicio FCoE desde SAN para SLES 12 SP3 y
posteriores
No son necesarios más pasos, aparte de inyectar el DUD para el controlador listo
para usar, para realizar las instalaciones de inicio desde SAN al utilizar SLES 12
SP3.
Uso de un dispositivo de inicio FCoE como destino de kdump
Cuando se utiliza un dispositivo expuesto mediante un controlador qedf como
destino de kdump para volcados para caídas del sistema, Marvell recomienda
que especifique que el parámetro de memoria kdump
crashkernel en la línea
de comandos del kernel sea como mínimo de 512 MB. En caso contrario, el
volcado de caída del sistema del kernel podría no ser correcto.
Para obtener detalles sobre cómo establecer el tamaño del
crashkernel de
kdump, consulte su documentación de distribución de Linux.
6–Configuración del inicio desde SAN
Inicio FCoE desde SAN
138 AH0054602-09 M
Configuración del inicio FCoE desde SAN en VMware
Para la instalación del inicio desde SAN de VMware ESXi 6.5/6.7, Marvell
requiere que se utilice una imagen ISO ESXi personalizada que se crea con el
último paquete del adaptador de red convergente Marvell inyectado. Esta sección
cubre los siguientes procedimientos de inicio FCoE desde SAN de VMware.
Inyección (integración de la solución) de los controladores del adaptador
ESXi en archivos de imagen
Instalación del ISO ESXi personalizado
Inyección (integración de la solución) de los controladores del adaptador ESXi en
archivos de imagen
Este procedimiento utiliza la herramienta Personalizador ESXi versión 2.7.2 como
ejemplo, pero puede utilizar cualquier personalizador ESXi.
Para inyectar controladores del adaptador en un archivo de imagen ESXi:
1. Descargue Personalizador ESXi versión 2.7.2 o posterior.
2. Vaya al directorio
ESXi customizer.
3. Emita el comando ESXi-Customizer.cmd.
4. En el cuadro de diálogo ESXi-Customizer (Personalizador ESXi), haga clic
en Browse (Examinar) para llevar a cabo lo siguiente.
a. Seleccione el archivo ISO ESXi de VMware original.
b. Seleccione el archivo VIB del controlador FCoE de Marvell o el archivo
ZIP del paquete qedentv sin conexión de Marvell.
c. Para el directorio de trabajo, seleccione la carpeta en la que el ISO
personalizado deba crearse.
d. Haga clic en Run (Ejecutar).
6–Configuración del inicio desde SAN
Inicio FCoE desde SAN
139 AH0054602-09 M
La Ilustración 6-32 muestra un ejemplo.
Ilustración 6-32. Cuadro de diálogo ESXi-Customizer (Personalizador ESXi)
5. Grabe un DVD que contenga el archivo de imagen ISO personalizado
ubicado en el directorio de trabajo especificado en el paso 4c.
6. Utilice un nuevo DVD para instalar el sistema operativo ESXi.
Instalación del ISO ESXi personalizado
1. Cargue las imágenes de inicio FCoE de Marvell más recientes en NVRAM
del adaptador.
2. Configure el destino FCoE para permitir una conexión válida con la máquina
remota. Asegúrese de que el destino tenga suficiente espacio en el disco
libre para almacenar la instalación del nuevo sistema operativo.
3. Configure UEFI HII para establecer el tipo de inicio FCoE en el puerto del
adaptador que se requiera, el iniciador correcto y los parámetros de destino
para el inicio FCoE.
4. Guarde la configuración y reinicie el sistema.
El iniciador debe conectarse al destino FCoE y, a continuación, iniciar el
sistema desde el dispositivo DVD-ROM.
5. Inicie el DVDy comience la instalación.
6. Siga las instrucciones que aparecen en la pantalla.
6–Configuración del inicio desde SAN
Inicio FCoE desde SAN
140 AH0054602-09 M
En la ventana que muestra la lista de discos disponibles para la instalación,
el disco de destino FCOE debería estar visible porque el paquete del
adaptador de red convergente inyectado está dentro del ISO ESXi
personalizado. La Ilustración 6-33 muestra un ejemplo.
Ilustración 6-33. Seleccione un disco de VMware que instalar
7. Seleccione el LUN en el que ESXi puede instalarse y, a continuación, pulse
INTRO.
8. En la siguiente ventana, haga clic en Next (Siguiente) y, a continuación,
siga las instrucciones en pantalla.
9. Cuando finalice la instalación, reinicie el servidor y eyecte el DVD.
10. Durante el inicio del servidor, pulse la tecla F9 para acceder al One-Time
Boot Menu (Menú de inicio puntual) y, a continuación, seleccione Boot
media to QLogic adapter port (Soporte de inicio al puerto del adaptador
QLogic).
11. En Boot Menu (Menú de inicio), seleccione el ESXi recién instalado para
cargar a través del inicio desde SAN.
6–Configuración del inicio desde SAN
Inicio FCoE desde SAN
141 AH0054602-09 M
La Ilustración 6-34 ofrece dos ejemplos.
Ilustración 6-34. Opciones de inicio USB para VMware
142 AH0054602-09 M
7 Configuración de RoCE
En este capítulo se describe la configuración de RDMA sobre Ethernet
convergente (RoCE v1 y v2) en el Adaptador de la serie 41xxx, el conmutador
Ethernet y el host de Windows, Linux o VMware, lo que incluye:
Sistemas operativos admitidos y OFED
“Planificación para RoCE” en la página 143
“Prepación de un adaptador” en la página 144
“Preparación del conmutador Ethernet” en la página 144
“Configuración de RoCE en el adaptador para Windows Server” en la
página 149
“Configuración de RoCE en el adaptador para Linux” en la página 167
“Configuración de RoCE en el adaptador para VMware ESX” en la
página 181
“Configuración de DCQCN” en la página 189
Sistemas operativos admitidos y OFED
La Tabla 7-1 muestra la compatibilidad del sistema operativo para RoCE v1,
RoCE v2, iWARP y OpenFabrics Enterprise Distribution (OFED). OFED no es
compatible con Windows ni con VMware ESXi.
NOTA
Es posible que algunas características de RoCE no se puedan activar
completamente en esta versión.
Tabla 7-1. Compatibilidad del SO con RoCE v1, RoCE v2, iWARP, iSER
y OFED
Sistema operativo Incluido OFED-4.17-1 GA
Windows Server 2012 N/A N/A
Windows Server 2012 R2 No N/A
7–Configuración de RoCE
Planificación para RoCE
143 AH0054602-09 M
Planificación para RoCE
Mientras se prepara para implementar RoCE, tenga en cuenta las siguientes
limitaciones:
Si utiliza OFED integrada, el sistema operativo debería ser el mismo en los
sistemas cliente y servidor. Algunas de las aplicaciones pueden funcionar
entre distintos sistemas operativos, pero no existe ninguna garantía. Se
trata de una limitación de OFED.
Para aplicaciones de OFED (con mayor frecuencia aplicaciones perftest),
las aplicaciones servidor y cliente deberían utilizar las mismas opciones y
los mismos valores. Pueden surgir problemas si el sistema operativo y la
aplicación perftest tienen distintas versiones. Para confirmar la versión de
perftest, emita el siguiente comando:
# ib_send_bw --version
Para compilar libqedr en OFED integrada es necesario instalar ibibverbs-devel.
Para ejecutar aplicaciones de espacio de usuario en OFED integrada es
necesario instalar el grupo InfiniBand
®
Support mediante yum groupinstall
“InfiniBand Support” que contiene libibcm y libibverbs entre otros.
Windows Server 2016 No N/A
Windows Server 2019 RoCE v1, RoCE v2, iWARP N/A
RHEL 7.6 RoCE v1, RoCE v2, iWARP, iSER RoCE v1, RoCE v2, iWARP
RHEL 7.7 RoCE v1, RoCE v2, iWARP, iSER No
RHEL 8.0 RoCE v1, RoCE v2, iWARP, iSER No
RHEL 8.1 RoCE v1, RoCE v2, iWARP, iSER No
SLES 12 SP4 RoCE v1, RoCE v2, iWARP, iSER RoCE v1, RoCE v2, iWARP
SLES 15 SP0 RoCE v1, RoCE v2, iWARP, iSER RoCE v1, RoCE v2, iWARP
SLES 15 SP1 RoCE v1, RoCE v2, iWARP, iSER No
CentOS 7.6 RoCE v1, RoCE v2, iWARP, iSER RoCE v1, RoCE v2, iWARP
VMware ESXi 6.5 U3 RoCE v1, RoCE v2 N/A
VMware ESXi 6.7 U2 RoCE v1, RoCE v2 N/A
Tabla 7-1. Compatibilidad del SO con RoCE v1, RoCE v2, iWARP, iSER
y OFED (Continuación)
Sistema operativo Incluido OFED-4.17-1 GA
7–Configuración de RoCE
Prepación de un adaptador
144 AH0054602-09 M
Las aplicaciones OFED y RDMA que dependan de libibverbs, también
requieren la biblioteca de espacio de usuario RDMA de Marvell, libqedr.
Instale libqedr mediante libqedr RPM o paquetes de origen.
RoCE solo admite little endian.
Prepación de un adaptador
Siga los siguientes pasos para activar DCBX y especificar la prioridad de RoCE
mediante la aplicación de administración HII. Para obtener más información sobre
la aplicación HII, consulte el Capítulo 5 Configuración de inicio previo del
adaptador.
Para preparar el adaptador:
1. En la Main Configuration Page (Página de configuración principal),
seleccione Data Center Bridging (DCB) Settings (Configuración del
puente del centro de datos [DCB]) y, a continuación, haga clic en Finish
(Finalizar).
2. En la ventana Data Center Bridging (DCB) Settings (Configuración del
puente del centro de datos [DCB]), haga clic en la opción DCBX Protocol
(Protocolo DCBX). El Adaptador de la serie 41xxx admite protocolos CEE e
IEEE. Este valor debería coincidir con el valor correspondiente del
conmutador DCB. En este ejemplo, seleccione CEE o Dynamic (Dinámica).
3. En RoCE Priority (Prioridad de RoCE) escriba un valor de prioridad. Este
valor debería coincidir con el valor correspondiente del conmutador DCB.
En este ejemplo, escriba 5. Normalmente, se define 0 para la clase de
tráfico que tiene pérdidas predeterminadas, 3 para la clase de tráfico FCoE
y 4 para la clase de tráfico iSCSI-TLV a través de DCB sin pérdidas.
4. Haga clic en Back (Atrás).
5. Si se le pregunta, haga clic en Yes (Sí) para guardar los cambios. Los
cambios surtirán efecto tras restablecer el sistema.
Para Windows, puede configurar DCBX mediante HII o e método QoS. La
configuración mostrada en esta sección es a través de HII. Para obtener
más información sobre QoS, consulte “Configuración de QoS para RoCE”
en la página 281
Preparación del conmutador Ethernet
En esta sección se describe cómo configurar un conmutador Ethernet Cisco
®
Nexus
®
6000 y un conmutador Ethernet Dell Z9100 para RoCE.
Configuración del conmutador Ethernet Cisco Nexus 6000
Configuración del conmutador Ethernet Dell Z9100 para RoCE
7–Configuración de RoCE
Preparación del conmutador Ethernet
145 AH0054602-09 M
Configuración del conmutador Ethernet Cisco Nexus 6000
Los pasos para la configuración del conmutador Ethernet Cisco Nexus 6000 para
RoCE incluyen la configuración de mapas de clase, la configuración de mapas de
políticas, la aplicación de la política, y la asignación de un Id. de vLAN al puerto
de conmutador.
Para configurar el conmutador Cisco:
1. Abra una sesión del terminal de configuración de la siguiente manera:
Switch# config terminal
switch(config)#
2. Configure los mapas de clase de calidad de servicio (QoS) y establezca la
prioridad de RoCE (
cos) para que coincida con el adaptador (5) de la
siguiente manera:
switch(config)# class-map type qos class-roce
switch(config)# match cos 5
3. Configure los mapas de clase de colas de la siguiente manera:
switch(config)# class-map type queuing class-roce
switch(config)# match qos-group 3
4. Configure los mapas de clase de QoS de red de la siguiente manera:
switch(config)# class-map type network-qos class-roce
switch(config)# match qos-group 3
5. Configure los mapas de políticas de QoS de la siguiente manera:
switch(config)# policy-map type qos roce
switch(config)# class type qos class-roce
switch(config)# set qos-group 3
6. Configure los mapas de política de colas para asignar ancho de banda de
red. En este ejemplo, utilice un valor del 50 por ciento:
switch(config)# policy-map type queuing roce
switch(config)# class type queuing class-roce
switch(config)# bandwidth percent 50
7. Configure mapas de política de QoS de red para establecer el control de
flujo de prioridades para la clase de tráfico no de entrega de la siguiente
manera:
switch(config)# policy-map type network-qos roce
switch(config)# class type network-qos class-roce
switch(config)# pause no-drop
7–Configuración de RoCE
Preparación del conmutador Ethernet
146 AH0054602-09 M
8. Aplique la nueva política en el nivel del sistema de la siguiente manera:
switch(config)# system qos
switch(config)# service-policy type qos input roce
switch(config)# service-policy type queuing output roce
switch(config)# service-policy type queuing input roce
switch(config)# service-policy type network-qos roce
9. Asigne un Id. de VLAN al puerto de conmutador para que coincida con el Id.
de vLAN asignado al adaptador (5).
switch(config)# interface ethernet x/x
switch(config)# switchport mode trunk
switch(config)# switchport trunk allowed vlan 1,5
Configuración del conmutador Ethernet Dell Z9100 para RoCE
La configuración del conmutador Ethernet Dell Z9100 para RoCE incluye la configuración
de un mapa DCB para RoCE, la configuración de control de flujo basado en prioridades
(PFC) y la selección de transmisión mejorada (ETS), la comprobación del mapa DCB, la
aplicación del mapa DCB al puerto, la comprobación de PFC y ETS en el puerto, la
especificación del protocolo DCB, y la asignación de una Id. de VLAN al puerto del
conmutador.
Para configurar el conmutador Dell:
1. Cree un mapa DCB.
Dell# configure
Dell(conf)# dcb-map roce
Dell(conf-dcbmap-roce)#
2. Configure dos clases de tráfico ETS en el mapa DCB con 50 por ciento de
ancho de banda asignado para RoCE (grupo 1).
Dell(conf-dcbmap-roce)# priority-group 0 bandwidth 50 pfc off
Dell(conf-dcbmap-roce)# priority-group 1 bandwidth 50 pfc on
NOTA
Para obtener instrucciones sobre la configuración de un puerto de
conmutador Dell Z9100 para que se conecte al adaptador Serie 41xxx
a 25 Gbps, consulte “Configuración del conmutador Dell Z9100” en la
página 321.
7–Configuración de RoCE
Preparación del conmutador Ethernet
147 AH0054602-09 M
3. Configure la prioridad de PFC para que coincida con el número de prioridad
de clase de tráfico del adaptador (5).
Dell(conf-dcbmap-roce)# priority-pgid 0 0 0 0 0 1 0 0
4. Compruebe el grupo de prioridad de configuración de mapa DCB.
Dell(conf-dcbmap-roce)# do show qos dcb-map roce
-----------------------
State :Complete
PfcMode :ON
--------------------
PG:0 TSA:ETS BW:40 PFC:OFF
Priorities:0 1 2 3 4 6 7
PG:1 TSA:ETS BW:60 PFC:ON
Priorities:5
5. Aplique el mapa DCB al puerto.
Dell(conf)# interface twentyFiveGigE 1/8/1
Dell(conf-if-tf-1/8/1)# dcb-map roce
6. Compruebe la configuración de ETS y PFC en el puerto. Los siguientes
ejemplos muestran información de interfaz resumida para ETS e
información de interfaz detallada para PFC.
Dell(conf-if-tf-1/8/1)# do show interfaces twentyFiveGigE 1/8/1 ets summary
Interface twentyFiveGigE 1/8/1
Max Supported TC is 4
Number of Traffic Classes is 8
Admin mode is on
Admin Parameters :
------------------
Admin is enabled
PG-grp Priority# BW-% BW-COMMITTED BW-PEAK TSA
% Rate(Mbps) Burst(KB) Rate(Mbps) Burst(KB)
------------------------------------------------------------------------
0 0,1,2,3,4,6,7 40 - - - - ETS
1 5 60 - - - - ETS
2 - - - - - -
3 - - - - - -
Dell(Conf)# do show interfaces twentyFiveGigE 1/8/1 pfc detail
7–Configuración de RoCE
Preparación del conmutador Ethernet
148 AH0054602-09 M
Interface twentyFiveGigE 1/8/1
Admin mode is on
Admin is enabled, Priority list is 5
Remote is enabled, Priority list is 5
Remote Willing Status is enabled
Local is enabled, Priority list is 5
Oper status is init
PFC DCBX Oper status is Up
State Machine Type is Feature
TLV Tx Status is enabled
PFC Link Delay 65535 pause quntams
Application Priority TLV Parameters :
--------------------------------------
FCOE TLV Tx Status is disabled
ISCSI TLV Tx Status is enabled
Local FCOE PriorityMap is 0x0
Local ISCSI PriorityMap is 0x20
Remote ISCSI PriorityMap is 0x200
66 Input TLV pkts, 99 Output TLV pkts, 0 Error pkts, 0 Pause Tx pkts, 0 Pause
Rx pkts
66 Input Appln Priority TLV pkts, 99 Output Appln Priority TLV pkts, 0 Error
Appln Priority TLV Pkts
7. Configure el protocolo DCBX (CEE en este ejemplo).
Dell(conf)# interface twentyFiveGigE 1/8/1
Dell(conf-if-tf-1/8/1)# protocol lldp
Dell(conf-if-tf-1/8/1-lldp)# dcbx version cee
8. Asigne un Id. de VLAN al puerto de conmutador para que coincida con el Id.
de VLAN asignado al adaptador (5).
Dell(conf)# interface vlan 5
Dell(conf-if-vl-5)# tagged twentyFiveGigE 1/8/1
NOTA
La Id. de VLAN no tiene que ser la misma que el número de prioridad
de clase de tráfico RoCE. Sin embargo, utilizar el mismo número hace
que la configuración sea más fácil de entender.
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Windows Server
149 AH0054602-09 M
Configuración de RoCE en el adaptador para
Windows Server
La configuración de RoCE en el adaptador para el host de Windows Server
incluye la activación de RoCE en el adaptador y la comprobación del tamaño de
MTU directa de red.
Para configurar RoCE en un host de Windows Server:
1. Active RoCE en el adaptador.
a. Abra el Administrador de dispositivos de Windows y, a continuación,
abra las propiedades de minipuerto NDIS de los Adaptadores de la
serie 41xxx.
b. En FastLinQ Adapter Properties de QLogic (Propiedades del
adaptador FastLinQ de QLogic), haga clic en la pestaña Advanced
(Avanzado).
c. En la página Advanced (Avanzado), configure las propiedades que se
muestran en la Tabla 7-2 seleccionando cada uno de los elementos
que hay en Property (Propiedad) y eligiendo un Value (Valor) para
ellos. A continuación haga clic en OK (Aceptar).
Tabla 7-2. Propiedades avanzadas de RoCE
Propiedad Valor o descripción
NetworkDirect
Functionality
(Funcionalidad NetworkDirect)
Activado
Network Direct Mtu Size
(Tamaño de MTU directa de red)
El tamaño de la MTU directa de red debe ser inferior
al tamaño de paquete gigante.
Quality of Service
(Calidad de servicio)
Para RoCE v1/v2, seleccione siempre Enabled
(Activado) para permitir que el servicio Windows
DCB-QoS controle y supervise DCB. Para obtener
más información, consulte “Configuración de QoS
desactivando DCBX en el adaptador” en la
página 282 y “Configuración de QoS activando
DCBX en el adaptador” en la página 287.
NetworkDirect Technology
(Tecnología directa de red)
RoCE o RoCE v2.
VLAN ID
(Id. de VLAN)
Asigne cualquier Id. de vLAN a la interfaz. El valor
ha de ser el mismo que se asigna al conmutador.
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Windows Server
150 AH0054602-09 M
La Ilustración 7-1 muestra un ejemplo de cómo configurar un valor de
propiedad.
Ilustración 7-1. Configuración de las propiedades de RoCE
2. Al utilizar Windows PowerShell, compruebe si RDMA está activado en el
adaptador. El comando
Get-NetAdapterRdma muestra los adaptadores
que admiten RDMA: ambos puertos están activados.
PS C:\Users\Administrator> Get-NetAdapterRdma
Name InterfaceDescription Enabled
----- -------------------- -------
SLOT 4 3 Port 1 QLogic FastLinQ QL41262... True
SLOT 4 3 Port 2 QLogic FastLinQ QL41262... True
NOTA
Si está configurando RoCE sobre Hiper-V, no asigne un Id. de vLAN a
la interfaz física.
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Windows Server
151 AH0054602-09 M
3. Al utilizar Windows PowerShell, compruebe si NetworkDirect está
activado en el sistema operativo host. El comando
Get-NetOffloadGlobalSetting
muestra que NetworkDirect está
activado.
PS C:\Users\Administrators> Get-NetOffloadGlobalSetting
ReceiveSideScaling : Activado
ReceiveSegmentCoalescing : Activado
Chimney : Desactivado
TaskOffload : Activado
NetworkDirect : Activado
NetworkDirectAcrossIPSubnets : Blocked
PacketCoalescingFilter : Desactivado
4. Conecte una unidad de bloque de mensajes del servidor (SMB), ejecute el
tráfico de RoCE y compruebe los resultados.
Para saber cómo configurar y conectarse a un controlador SMB, consulte la
información de Microsoft disponible en línea:
https://technet.microsoft.com/en-us/library/hh831795(v=ws.11).aspx
5. De forma predeterminada, SMB Direct de Microsoft establece dos
conexiones de RDMA por puerto, lo que proporciona buen rendimiento,
incluida una velocidad de línea a un tamaño de bloque superior (por
ejemplo, 64 KB). Para optimizar el rendimiento, puede cambiar la cantidad
de conexiones de RDMA por interfaz RDMA a cuatro (o más).
Para aumentar la cantidad de conexiones de RDMA a cuatro (o más), emita
el siguiente comando en Windows PowerShell:
PS C:\Users\Administrator> Set-ItemProperty -Path
"HKLM:\SYSTEM\CurrentControlSet\Services\LanmanWorkstation\
Parameters" ConnectionCountPerRdmaNetworkInterface -Type
DWORD -Value 4 –Force
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Windows Server
152 AH0054602-09 M
Visualización de Contadores RDMA
El procedimiento siguiente también se aplica a iWARP.
Para visualizar contadores RDMA para RoCE:
1. Inicie el Supervisor de rendimiento.
2. Abra el cuadro de diálogo Add Counters (Agregar contadores). La
Ilustración 7-2 muestra un ejemplo.
Ilustración 7-2. Cuadro de diálogo Add Counters (Agregar contadores)
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Windows Server
153 AH0054602-09 M
3. Seleccione uno de los siguientes tipos de contadores:
Cavium FastLinQ Congestion Control (Control de congestión
FastLinQ de Cavium):
Incrementa cuando hay congestión en la red y ECN esté
habilitado en el conmutador.
Describa los Paquetes marcados de RoCE v2 ECN y los
Paquetes de notificación de congestión (CNP) que se hayan
enviado y recibido correctamente.
Se aplican solo a RoCE v2.
Cavium FastLinQ Port Counters (Contadores de puerto FastLinQ de
Cavium):
Incrementan cuando hay congestión en la red.
Pausan el incremento de los contadores cuando el control del
flujo o la pausa global estén configurados y haya una congestión
en la red.
Los contadores PFC incrementan cuando el control del flujo de
prioridad está configurado y hay una congestión en la red.
Cavium FastLinQ RDMA Error Counters (Contadores de errores
RDMA FastLinQ de Cavium):
Incrementan si se produce algún error en las operaciones de
transporte.
Para obtener detalles, ver Tabla 7-3.
4. En Instances of selected object (Instancias del objeto seleccionado),
seleccione Total, y a continuación haga clic en Add (Agregar).
NOTA
Si los contadores RDMA de Marvell no aparecen en el cuadro de
diálogo del Monitor de rendimiento de Agregar contadores, agréguelos
manualmente emitiendo el siguiente comando desde la ubicación del
controlador:
Lodctr /M:qend.man
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Windows Server
154 AH0054602-09 M
La Ilustración 7-3 muestra tres ejemplos del resultado de supervisión del
contador.
Ilustración 7-3. Monitorización de rendimiento: Contadores FastLinQ de Marvell
La Tabla 7-3 proporciona información acerca de los contadores de errores.
Tabla 7-3. Contadores de errores RDMA de FastLinQ de Marvell
Contadores de
errores RDMA
Descripción
¿Se
aplica
a
RoCE?
¿Se
aplica a
iWARP?
Solución de problemas
CQ overflow
(Desbordamiento
CQ)
Una cola de finalización en la
que se ha publicado una
solicitud de una tarea RDMA.
Este contador especifica la
cantidad de instancias en las
que había una finalización de
una solicitud de trabajo en la
cola de envío o recepción,
pero sin espacio en la cola
de finalización asociada.
Indica un problema de diseño
del software que provoca un
tamaño de cola de finalización
insuficiente.
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Windows Server
155 AH0054602-09 M
Requestor Bad
response
(Respuesta
errónea del
solicitante)
El respondedor ha devuelto
una respuesta mal
formulada.
Requestor
CQEs flushed
with error
(CQE del
solicitante
vaciadas con
error)
Las solicitudes de trabajo
publicadas deben vaciarse
enviando finalizaciones con
estado vaciado a la CQ (sin
completar la ejecución de la
solicitud de trabajo real) si el
QP pasa a un estado de error
por cualquier motivo y
existen solicitudes de trabajo
pendientes. Si se haya
completado una solicitud de
trabajo con estado de error,
se realizará un vaciado del
resto de las solicitudes de
trabajo pendientes para
ese QP.
Se produce cuando la
conexión de RDMA no está
operativa.
Requestor
Local length
(Longitud local
del solicitante)
El mensaje de respuesta
Read del RDMA contenía
demasiados o muy pocos
datos de carga.
Normalmente indica un
problema con los
componentes del software del
host.
Requestor
local
protection
(Protección local
del solicitante)
El segmento de datos de la
solicitud de trabajo publicado
localmente no hace
referencia a una Región de la
memoria válida para la
operación solicitada.
Normalmente indica un
problema con los
componentes del software del
host.
Requestor
local QP
operation
(Operación QP
local del
solicitante)
Se ha detectado un error de
coherencia de QP interno
mientras se procesaba esta
solicitud de trabajo.
Tabla 7-3. Contadores de errores RDMA de FastLinQ de Marvell (Continuación)
Contadores de
errores RDMA
Descripción
¿Se
aplica
a
RoCE?
¿Se
aplica a
iWARP?
Solución de problemas
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Windows Server
156 AH0054602-09 M
Requestor
Remote access
(Acceso remoto
del solicitante)
Se ha producido un error de
protección en un búfer de
datos remotos que se leen
mediante una lectura de
RDMA, se escriben mediante
una escritura de RDMA, o se
acceden mediante una
operación atómica.
Requestor
Remote
Invalid
request
(Solicitud remota
del solicitante no
válida)
El lado remoto ha recibido un
mensaje no válido en el
canal. La solicitud no válida
podría haber sido una
solicitud RDMA o Enviar
mensaje.
Entre las posibles causas se
incluye que la operación no
sea compatible con esta cola
de recepción, que el
almacenamiento en búfer
para recibir una nueva
solicitud RDMA o de
Operación atómica sea
insuficiente, o que la longitud
especificada en la solicitud
RDMA sea superior a
231 bytes.
Requestor
remote
operation
(Operación
remota del
solicitante)
El lado remoto no ha podido
completar la operación
solicitada a causa de un
problema local.
Un problema de software en
el lado remoto (por ejemplo,
que haya provocado un error
de QP o una WQE mal
formada en la RQ) ha evitado
que finalice la operación.
Requestor
retry
exceeded
(Se han excedido
los reintentos del
solicitante)
El número de intentos de
transporte ha excedido el
límite máximo.
Es posible que el equipo
remoto haya dejado de
responder o que un error de
red esté impidiendo la
confirmación de mensajes.
Requestor RNR
Retries
exceeded
(Se han excedido
los reintentos
RNR del
solicitante)
Los reintentos por RNR NAK
recibidos se han realizado el
número máximo de veces sin
éxito.
No Es posible que el equipo
remoto haya dejado de
responder o que un error de
red esté impidiendo la
confirmación de mensajes.
Tabla 7-3. Contadores de errores RDMA de FastLinQ de Marvell (Continuación)
Contadores de
errores RDMA
Descripción
¿Se
aplica
a
RoCE?
¿Se
aplica a
iWARP?
Solución de problemas
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Windows Server
157 AH0054602-09 M
Responder CQE
flushed
(Vaciado de CQE
del respondedor)
Las solicitudes del trabajo
publicado (búferes de
recepción en RQ) podrían
vaciarse al enviar
finalizaciones con un estado
de vaciado a CQ si QP pasa
a un estado de error por
cualquier razón y existen
búferes de recepción
pendientes en RQ. Si se
haya completado una
solicitud de trabajo con un
estado de error, se realizará
un vaciado del resto de las
solicitudes de trabajo
pendientes para ese QP.
Responder
local length
(Longitud local
del respondedor)
Longitud no válida en los
mensajes entrantes.
Comportamiento erróneo del
equipo remoto. Por ejemplo,
los mensajes de envío
entrantes tienen longitudes
superiores al tamaño del búfer
de recepción.
Responder
local
protection
(Protección local
del respondedor)
El segmento de datos de la
solicitud de trabajo publicado
localmente no hace
referencia a una Región de la
memoria válida para la
operación solicitada.
Indica un problema del
software con la administración
de la memoria.
Responder
Local QP
Operation
error
(Error de
operación QP
local del
respondedor)
Se ha detectado un error de
coherencia de QP interno
mientras se procesaba esta
solicitud de trabajo.
Indica un problema del
software.
Tabla 7-3. Contadores de errores RDMA de FastLinQ de Marvell (Continuación)
Contadores de
errores RDMA
Descripción
¿Se
aplica
a
RoCE?
¿Se
aplica a
iWARP?
Solución de problemas
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Windows Server
158 AH0054602-09 M
Configuración de RoCE para dispositivos VF SR-IOV
(VF RDMA)
Las siguientes secciones describen cómo configurar RoCE para dispositivos VF
SR-IOV (también denominados VF RDMA). También se ofrecen información y
limitaciones asociadas.
Instrucciones de configuración
Para configurar RDMA VF:
1. Instale los componentes con capacidad RDMA VF (controladores, firmware,
imagen de inicio múltiple (MBI)).
2. Configure QoS para VF RDMA.
La configuración de QoS es necesaria para configurar el control de flujo de
prioridad (PFC) para RDMA. Configure QoS en el host tal como se
documenta en “Configuración de QoS para RoCE” en la página 281.
(La configuración de QoS debe hacerse en el host, no en la máquina
virtual [VM]).
Responder
remote
invalid
request
(Solicitud remota
del respondedor
no válida)
El respondedor ha detectado
un mensaje entrante no
válido en el canal.
Indica un posible
comportamiento incorrecto de
un equipo remoto. Entre las
posibles causas se incluye
que la operación no sea
compatible con esta cola de
recepción, que el
almacenamiento en búfer
para recibir una nueva
solicitud RDMA sea
insuficiente, o que la longitud
especificada en la solicitud
RDMA sea superior a 2
31
bytes.
Tabla 7-3. Contadores de errores RDMA de FastLinQ de Marvell (Continuación)
Contadores de
errores RDMA
Descripción
¿Se
aplica
a
RoCE?
¿Se
aplica a
iWARP?
Solución de problemas
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Windows Server
159 AH0054602-09 M
3. Configure Windows Hyper-V para VF RDMA:
a. Active SR-IOV en HII y en la pestaña Advanced (Avanzado) del
Administrador de dispositivos de Windows.
b. Abra el Windows Hyper-V Manager (Administrador de Hyper-V de
Windows) en el host.
c. Abra el Virtual Switch Manager (Administrador de conmutadores
virtuales) en el panel derecho.
d. Seleccione New Virtual Network switch (Conmutador de red virtual
nuevo) con tipo External (Externo).
La Ilustración 7-4 muestra un ejemplo.
Ilustración 7-4. Establecer un nuevo conmutador de red virtual externo
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Windows Server
160 AH0054602-09 M
e. Haga clic en el botón External network (Red externa) y, a
continuación, seleccione el adaptador adecuado. Haga clic en Enable
single-root I/O virtualization (SR-IOV) (Activar virtualización de E/S
de raíz única [SR-IOV]).
La Ilustración 7-5 muestra un ejemplo.
Ilustración 7-5. Establecer SR-IOV para nuevo conmutador virtual
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Windows Server
161 AH0054602-09 M
f. Cree una VM y abra la configuración de VM.
La Ilustración 7-6 muestra un ejemplo.
Ilustración 7-6. Configuración de VM
g. Seleccione Add Hardware (Agregar hardware) y, a continuación,
seleccione Network Adapter (Adaptador de red) para asignar los
adaptadores de red virtual (VMNIC) a la VM.
h. Seleccione el conmutador virtual recién creado.
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Windows Server
162 AH0054602-09 M
i. Active VLAN en el adaptador de red.
La Ilustración 7-7 muestra un ejemplo.
Ilustración 7-7. Activación de VLAN en el adaptador de red
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Windows Server
163 AH0054602-09 M
j. Expanda la configuración del adaptador de red. En Single-root I/O
Virtualization (Virtualización de E/S de raíz única), seleccione Enable
SR-IOV (Activar SR-IOV) para activar las capacidades SR-IOV para
VMNIC.
La Ilustración 7-8 muestra un ejemplo.
Ilustración 7-8. Activación de SR-IOV para el adaptador de red
4. Emita el siguiente comando de PowerShell en el host para activar las
capacidades de RDMA para VMNIC (VF SR-IOV).
Set-VMNetworkAdapterRdma -VMName <VM_NAME>
-VMNetworkAdapterName <VM_NIC_NAME> -RdmaWeight 100
NOTA
La VM debe estar apagada antes de emitir el comando de
PowerShell.
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Windows Server
164 AH0054602-09 M
5. Actualice los controladores de Marvell en la VM iniciando la VM e instalando
los últimos controladores que utiliza el superinstalador de Windows en el CD
de Marvell.
La Ilustración 7-9 muestra un ejemplo.
Ilustración 7-9. Actualización de controladores en VM
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Windows Server
165 AH0054602-09 M
6. Active RMDA en el dispositivo de red de Microsoft asociado con VF dentro
de la VM.
La Ilustración 7-10 muestra un ejemplo.
Ilustración 7-10. Activación de RDMA en VMNIC
7. Inicie el tráfico RMDA de VM.
a. Conecte una unidad de bloque de mensajes del servidor (SMB),
ejecute el tráfico de RoCE y compruebe los resultados.
b. Abra el supervisor de rendimiento en la VM y, a continuación, agregue
RDMA Activity counter (Contador de actividad de RDMA).
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Windows Server
166 AH0054602-09 M
c. Compruebe que el tráfico RDMA se esté ejecutando.
La Ilustración 7-11 ofrece un ejemplo.
Ilustración 7-11. Tráfico de RDMA
Limitaciones
La RDMA de VF tiene las siguientes limitaciones:
VF RDMA solo es compatible con dispositivos basados en 41xxx.
En el momento de la publicación, solo RoCEv2 es compatible con VF
RDMA. La misma tecnología directa de red debe configurarse en las
funciones físicas tanto del host como de las VF SR-IOV de la VM.
VF RDMA admite un máximo de 16 VF por PF. Para adaptadores de cuatro
puertos, el máximo es 8 VF por PF.
VF RDMA solo es compatible con Windows Server 2019 (tanto para el host
como para los sistemas operativos de VM).
VF RDMA no es compatible con VM de Linux en el hipervisor de Windows.
VF RDMA no es compatible en modo NPAR.
Se admite un máximo de 128 pares de colas (QP)/conexiones por VF.
Se admite el tráfico de RDMA entre PF y sus VF, y entre VF del mismo PF.
Este patrón de tráfico se denomina tráfico de bucle invertido.
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Linux
167 AH0054602-09 M
En algunas plataformas de servidor más antiguas, los dispositivos VF
podrían no estar enumerados para una de las funciones PCI de NIC (PF).
Esta limitación se debe al aumento de los requisitos del registro de dirección
base (BAR) de PCI para admitir VF RDMA, lo que implica que el SO/BIOS
no puede asignar el BAR necesario para cada VF.
Para admitir el número máximo de QP en una VM, debe disponerse de
aproximadamente 8 GB de RAM, asumiendo que solo una VF se asigna a la
VM. Si se asigna menos de 8 GB de RAM a la VM, puede que se produzca
una caída repentina del número de conexiones activas debido a memoria
insuficiente y a errores de asignación de memoria.
Configuración de RoCE en el adaptador para
Linux
Esta sección describe el procedimiento de configuración de RoCE para RHEL y
SLES. También describe cómo comprobar la configuración de RoCE y ofrece
algunas instrucciones sobre cómo utilizar los Id. de grupo (GID) con interfaces vLAN.
Configuración de RoCE para RHEL
Configuración de RoCE para SLES
Comprobación de la configuración de RoCE en Linux
Interfaces de vLAN y valores de índice de GID
Configuración de RoCE v2 para Linux
Configuración de RoCE para dispositivos VF SR-IOV (VF RDMA)
Configuración de RoCE para RHEL
Para configurar RoCE en el adaptador, la OFED (Open Fabrics Enterprise
Distribution) debe estar instalada y configurada en el host de RHEL.
Para preparar OFED integrada para RHEL:
1. Al instalar o actualizar el sistema operativo, seleccione los paquetes de
compatibilidad de OFED e InfiniBand.
2. Instale los siguientes RPM desde la imagen ISO de RHEL:
libibverbs-devel-x.x.x.x86_64.rpm
(necesario para la biblioteca libqedr)
perftest-x.x.x.x86_64.rpm
(necesario para aplicaciones de latencia y ancho de banda InfiniBand)
o bien, utilizando Yum, instale la OFED integrada:
yum groupinstall "Infiniband Support"
yum install perftest
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Linux
168 AH0054602-09 M
yum install tcl tcl-devel tk zlib-devel libibverbs
libibverbs-devel
3. Instale los controladores para Linux nuevos tal como se describe en
“Instalación de los controladores para Linux con RDMA” en la página 16.
Configuración de RoCE para SLES
Para configurar RoCE en el adaptador para un host de SLES, OFED debe estar
instalado y configurado en el host de SLES.
Para instalar OFED integrada para SLES:
1. Al instalar o actualizar el sistema operativo, seleccione los paquetes de
compatibilidad de InfiniBand.
2. (SLES 12.x) Instale los siguientes RPM desde la imagen del kit SDK de
SLES correspondiente:
libibverbs-devel-x.x.x.x86_64.rpm
(necesario para la instalación de libqedr)
perftest-x.x.x.x86_64.rpm
(necesario para aplicaciones de latencia y ancho de banda)
3. (SLES 15/15 SP1) Instale los siguientes RPM.
Después de la instalación, puede que falten los RPM rdma-core*,
libibverbs*, libibumad*, libibmad*, librdmacm*, y perftest
(todos son necesarios para RDMA). Instale estos paquetes utilizando uno
de los métodos siguientes:
Cargue el DVD del paquete e instale los RPM que faltan.
Utilice el comando zypper para instalar los RPM que faltan. Por
ejemplo:
#zypper install rdma*
#zypper install libib*
#zypper install librdma*
#zypper install perftest
4. Instale los controladores para Linux, tal como se describe en “Instalación de
los controladores para Linux con RDMA” en la página 16.
NOTA
Durante la instalación, si ya ha seleccionado los paquetes
previamente mencionados, no necesitará volver a instalarlos. La
OFED integrada y los paquetes de compatibilidad pueden variar en
función de la versión del sistema operativo.
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Linux
169 AH0054602-09 M
Comprobación de la configuración de RoCE en Linux
Después de instalar OFED, instalar el controlador para Linux y cargar los
controladores de RoCE, compruebe que los dispositivos RoCE hayan sido
detectados en todos los sistemas operativos Linux.
Para comprobar la configuración de RoCE en Linux:
1. Detenga las tablas de firewall mediante los comandos
service/systemctl
.
2. Solo para RHEL: Si está instalado el servicio de RDMA (
yum install
rdma
), compruebe que se haya iniciado el servicio RDMA.
En RHEL o CentOS: Utilice el comando de estado
service rdma para
iniciar el servicio:
Si RDMA no se ha iniciado, emita el siguiente comando:
# service rdma start
Si RDMA no se inicia, emita uno de los siguientes comandos
alternativos:
# /etc/init.d/rdma start
o
# systemctl start rdma.service
3. Compruebe que los dispositivos RoCE se hayan detectado examinando los
registros dmesg.
# dmesg|grep qedr
[87910.988411] qedr: discovered and registered 2 RoCE funcs
4. Compruebe que todos los módulos se hayan cargado. Por ejemplo:
# lsmod|grep qedr
qedr 89871 0
qede 96670 1 qedr
qed 2075255 2 qede,qedr
ib_core 88311 16 qedr, rdma_cm, ib_cm,
ib_sa,iw_cm,xprtrdma,ib_mad,ib_srp,
ib_ucm,ib_iser,ib_srpt,ib_umad,
ib_uverbs,rdma_ucm,ib_ipoib,ib_isert
NOTA
En el caso de RHEL 7.x y SLES 12 SPx y versiones posteriores, el
servicio RDMA se inicia automáticamente después de reiniciar.
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Linux
170 AH0054602-09 M
5. Configure la dirección IP y active el puerto mediante un método de
configuración como, por ejemplo, ifconfig. Por ejemplo:
# ifconfig ethX 192.168.10.10/24 up
6. Emita el comando ibv_devinfo. Por cada función PCI, debería ver un
hca_id
independiente, como se muestra en el siguiente ejemplo:
root@captain:~# ibv_devinfo
hca_id: qedr0
transport: InfiniBand (0)
fw_ver: 8.3.9.0
node_guid: 020e:1eff:fe50:c7c0
sys_image_guid: 020e:1eff:fe50:c7c0
vendor_id: 0x1077
vendor_part_id: 5684
hw_ver: 0x0
phys_port_cnt: 1
port: 1
state: PORT_ACTIVE (1)
max_mtu: 4096 (5)
active_mtu: 1024 (3)
sm_lid: 0
port_lid: 0
port_lmc: 0x00
link_layer: Ethernet
7. Compruebe la conectividad de L2 y RoCE entre todos los servidores: un
servidor actúa como servidor, otro actúa como cliente.
Compruebe la conexión de L2 mediante un comando
ping simple.
Compruebe la conexión de RoCE realizando un ping RDMA en el
servidor o el cliente:
En el servidor, emita el siguiente comando:
ibv_rc_pingpong -d <ib-dev> -g 0
En el cliente, emita el siguiente comando:
ibv_rc_pingpong -d <ib-dev> -g 0 <server L2 IP address>
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Linux
171 AH0054602-09 M
A continuación se muestran ejemplos de pruebas de ping pong correctas en el
servidor y el cliente.
Ping del servidor:
root@captain:~# ibv_rc_pingpong -d qedr0 -g 0
local address: LID 0x0000, QPN 0xff0000, PSN 0xb3e07e, GID
fe80::20e:1eff:fe50:c7c0
remote address: LID 0x0000, QPN 0xff0000, PSN 0x934d28, GID
fe80::20e:1eff:fe50:c570
8192000 bytes in 0.05 seconds = 1436.97 Mbit/sec
1000 iters in 0.05 seconds = 45.61 usec/iter
Ping del cliente:
root@lambodar:~# ibv_rc_pingpong -d qedr0 -g 0 192.168.10.165
local address: LID 0x0000, QPN 0xff0000, PSN 0x934d28, GID
fe80::20e:1eff:fe50:c570
remote address: LID 0x0000, QPN 0xff0000, PSN 0xb3e07e, GID
fe80::20e:1eff:fe50:c7c0
8192000 bytes in 0.02 seconds = 4211.28 Mbit/sec
1000 iters in 0.02 seconds = 15.56 usec/iter
Para ver las estadísticas de RoCE, emita los siguientes comandos, donde
X es el número de dispositivo:
> mount -t debugfs nodev /sys/kernel/debug
> cat /sys/kernel/debug/qedr/qedrX/stats
Interfaces de vLAN y valores de índice de GID
Si utiliza interfaces de vLAN en el servidor y el cliente, también debe configurar el
mismo Id. de vLAN en el conmutador. Si ejecuta tráfico a través de un
conmutador, las aplicaciones InfiniBand deben utilizar el valor de GID correcto,
que se basa en el Id. de vLAN y la dirección IP de vLAN.
En función de los siguientes resultados, el valor de GID (-x 4 / -x 5) debería
utilizarse para cualquier aplicación perftest.
# ibv_devinfo -d qedr0 -v|grep GID
GID[ 0]: fe80:0000:0000:0000:020e:1eff:fe50:c5b0
GID[ 1]: 0000:0000:0000:0000:0000:ffff:c0a8:0103
GID[ 2]: 2001:0db1:0000:0000:020e:1eff:fe50:c5b0
GID[ 3]: 2001:0db2:0000:0000:020e:1eff:fe50:c5b0
GID[ 4]: 0000:0000:0000:0000:0000:ffff:c0a8:0b03 Dirección IP para la interfaz
de vLAN
GID[ 5]: fe80:0000:0000:0000:020e:1e00:0350:c5b0 Id. de vLAN 3
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Linux
172 AH0054602-09 M
Configuración de RoCE v2 para Linux
Para comprobar la funcionalidad de RoCE v2, debe utilizar kernels compatibles
con RoCE v2.
Para configurar RoCE v2 para Linux:
1. Asegúrese de que está utilizando uno de los siguientes kernels compatibles:
SLES 15/15 SP1
SLES 12 SP4 y posteriores
RHEL 7.6, 7.7 y 8.0
2. Configure RoCE v2 de la siguiente manera:
a. Identifique el índice GID para RoCE v2.
b. Configure la dirección de enrutamiento para el servidor y el cliente.
c. Active el enrutamiento L3 en el conmutador.
Identificación del índice GID de RoCE v2 o la dirección
Para buscar GID específicos de RoCE v1 y RoCE v2, utilice los parámetros sys o
class, o ejecute los scripts de RoCE del paquete de origen FastLinQ de 41xxx.
Para comprobar el RoCE GID Index (Índice GID de RoCE) predeterminado y la
dirección, emita el comando
ibv_devinfo y compárelo con los parámetros sys o
class. Por ejemplo:
#ibv_devinfo -d qedr0 -v|grep GID
GID[ 0]: fe80:0000:0000:0000:020e:1eff:fec4:1b20
NOTA
El valor de GID predeterminado es cero (0) para la configuración fondo con
fondo o de pausa. Para configuraciones de servidor y conmutador, debe
identificar el valor de GID correcto. Si utiliza un conmutador, consulte los
documentos de configuración del conmutador correspondiente para obtener
la configuración correcta.
NOTA
Puede configurar RoCE v1 y RoCE v2 mediante los kernels
compatibles con RoCE v2. Estos kernels le permiten ejecutar tráfico
RoCE a través de la misma subred, así como de diferentes subredes
como RoCE v2, y cualquier entorno direccionable. Solo algunos
parámetros son necesarios para RoCE v2, y todos los demás
parámetros de conmutador y adaptador son comunes para RoCE v1 y
RoCE v2.
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Linux
173 AH0054602-09 M
GID[ 1]: fe80:0000:0000:0000:020e:1eff:fec4:1b20
GID[ 2]: 0000:0000:0000:0000:0000:ffff:1e01:010a
GID[ 3]: 0000:0000:0000:0000:0000:ffff:1e01:010a
GID[ 4]: 3ffe:ffff:0000:0f21:0000:0000:0000:0004
GID[ 5]: 3ffe:ffff:0000:0f21:0000:0000:0000:0004
GID[ 6]: 0000:0000:0000:0000:0000:ffff:c0a8:6403
GID[ 7]: 0000:0000:0000:0000:0000:ffff:c0a8:6403
Comprobación del índice GID de RoCE v1 o v2, y de la dirección
desde los parámetros sys y class
Utilice una de las siguientes opciones para comprobar el Índice de GID de RoCE
v1 o RoCE v2 y la dirección desde los parámetros sys y class:
Opción 1:
# cat /sys/class/infiniband/qedr0/ports/1/gid_attrs/types/0
IB/RoCE v1
# cat /sys/class/infiniband/qedr0/ports/1/gid_attrs/types/1
RoCE v2
# cat /sys/class/infiniband/qedr0/ports/1/gids/0
fe80:0000:0000:0000:020e:1eff:fec4:1b20
# cat /sys/class/infiniband/qedr0/ports/1/gids/1
fe80:0000:0000:0000:020e:1eff:fec4:1b20
Opción 2:
Utilice los scripts del paquete de origen FastLinQ.
#/../fastlinq-8.x.x.x/add-ons/roce/show_gids.sh
DEV PORT INDEX GID IPv4 VER DEV
--- ---- ----- --- ------------ --- ---
qedr0 1 0 fe80:0000:0000:0000:020e:1eff:fec4:1b20 v1 p4p1
qedr0 1 1 fe80:0000:0000:0000:020e:1eff:fec4:1b20 v2 p4p1
qedr0 1 2 0000:0000:0000:0000:0000:ffff:1e01:010a 30.1.1.10 v1 p4p1
qedr0 1 3 0000:0000:0000:0000:0000:ffff:1e01:010a 30.1.1.10 v2 p4p1
qedr0 1 4 3ffe:ffff:0000:0f21:0000:0000:0000:0004 v1 p4p1
qedr0 1 5 3ffe:ffff:0000:0f21:0000:0000:0000:0004 v2 p4p1
qedr0 1 6 0000:0000:0000:0000:0000:ffff:c0a8:6403 192.168.100.3 v1 p4p1.100
qedr0 1 7 0000:0000:0000:0000:0000:ffff:c0a8:6403 192.168.100.3 v2 p4p1.100
qedr1 1 0 fe80:0000:0000:0000:020e:1eff:fec4:1b21 v1 p4p2
qedr1 1 1 fe80:0000:0000:0000:020e:1eff:fec4:1b21 v2 p4p2
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Linux
174 AH0054602-09 M
Comprobación de la función de RoCE v1 o RoCE v2 a través de aplicaciones
perftest
Esta sección muestra cómo comprobar la función de RoCE v1 o RoCE v2 a
través de las aplicaciones perftest. En este ejemplo, se utilizarán las siguientes IP
de cliente e IP de servidor:
IP de servidor: 192.168.100.3
IP de cliente: 192.168.100.4
Comprobación de RoCE v1
Ejecútelo en la misma subred y utilice el índice GID de RoCE v1.
Server# ib_send_bw -d qedr0 -F -x 0
Client# ib_send_bw -d qedr0 -F -x 0 192.168.100.3
Comprobación de RoCE v2
Ejecútelo en la misma subred y utilice el índice GID de RoCE v2.
Server# ib_send_bw -d qedr0 -F -x 1
Client# ib_send_bw -d qedr0 -F -x 1 192.168.100.3
Comprobación de RoCE v2 a través de diferentes subredes
NOTA
Debe especificar los valores de índice GID para RoCE v1 o RoCE v2
en función de la configuración del servidor o el conmutador
(Pause/PFC). Utilice el índice GID para la dirección local IPv6 de
enlace, direcciones IPv4, o IPv6 Para utilizar tramas etiquetadas vLAN
para el tráfico RoCE, debe especificar los valores de índice GID
derivados de la dirección IPv4 o IPv6 de vLAN.
NOTA
Si realiza la ejecución a través de una configuración PFC del conmutador,
utilice los GID de vLAN para RoCE v1 o v2 a través de la misma subred.
NOTA
Primero debe configurar los parámetros de ruta para el conmutador y los
servidores. En el adaptador, establezca la prioridad RoCE y el modo DCBX
mediante HII, la interfaz del usuario UEFI o una de las utilidades de
administración de Marvell.
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Linux
175 AH0054602-09 M
Para comprobar RoCE v2 a través de diferentes subredes:
1. Establezca la configuración de ruta para el servidor y el cliente mediante la
configuración de DCBX-PFC.
Parámetros del sistema:
Server VLAN IP (IP de VLAN del servidor): 192.168.100.3 y Gateway
(Puerta de acceso): 192.168.100.1
Client VLAN IP (IP de VLAN de cliente): 192.168.101.3 y Gateway
(Puerta de acceso): 192.168.101.1
Configuración del servidor:
#/sbin/ip link add link p4p1 name p4p1.100 type vlan id 100
#ifconfig p4p1.100 192.168.100.3/24 up
#ip route add 192.168.101.0/24 via 192.168.100.1 dev p4p1.100
Configuración del cliente:
#/sbin/ip link add link p4p1 name p4p1.101 type vlan id 101
#ifconfig p4p1.101 192.168.101.3/24 up
#ip route add 192.168.100.0/24 via 192.168.101.1 dev p4p1.101
2. Establezca la configuración del conmutador mediante el siguiente
procedimiento:
Utilice cualquier método de control de flujo (Pause, DCBX-CEE o
DCBX-IEEE), y active el enrutamiento IP para RoCE v2. Consulte
“Preparación del conmutador Ethernet” en la página 144 para la
configuración de RoCE v2, o consulte los documentos del conmutador
del proveedor.
Si utiliza configuración PFC y enrutamiento L3, ejecute el tráfico de
RoCE v2 a través de vLAN con una subred diferente, y utilice el índice
GID de la vLAN de RoCE v2.
Server# ib_send_bw -d qedr0 -F -x 5
Client# ib_send_bw -d qedr0 -F -x 5 192.168.100.3
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Linux
176 AH0054602-09 M
Configuración del conmutador del servidor:
Ilustración 7-12. Configuración del conmutador, Servidor
Configuración del conmutador del cliente:
Ilustración 7-13. Configuración del conmutador, Cliente
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Linux
177 AH0054602-09 M
Configuración de los parámetros de RoCE v1 o RoCE v2 para las
aplicaciones RDMA_CM
Para configurar RoCE, utilice los siguientes scripts del paquete de origen
FastLinQ.
# ./show_rdma_cm_roce_ver.sh
qedr0 is configured to IB/RoCE v1
qedr1 is configured to IB/RoCE v1
# ./config_rdma_cm_roce_ver.sh v2
configured rdma_cm for qedr0 to RoCE v2
configured rdma_cm for qedr1 to RoCE v2
Configuración del servidor:
Ilustración 7-14. Configuración de aplicaciones RDMA_CM: Servidor
Configuración del cliente:
Ilustración 7-15. Configuración de aplicaciones RDMA_CM: Cliente
Configuración de RoCE para dispositivos VF SR-IOV
(VF RDMA)
Las siguientes secciones describen cómo configurar RoCE para dispositivos VF
SR-IOV (también denominados VFRDMA) en Linux. También se ofrecen
información y limitaciones asociadas.
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Linux
178 AH0054602-09 M
La Tabla 7-4 enumera las combinaciones SO de Linux compatibles.
Si está usando la bandeja de entrada OFED, utilice la misma distribución OFED
entre el SO host hipervisor y el SO invitado (VM). Consulte las notas de
publicación de la distribución OFED listo para usar para la matriz de distribución
del SO, SO a VM de host compatible específico.
Enumeración de VF para L2 y RDMA
Existen dos formas de enumerar VF:
Asignación VF MAC definida por el usuario
Asignación VF MAC dinámica o aleatoria
Asignación VF MAC definida por el usuario
Cuando se define la asignación VF MAC no hay cambios en el método de
enumeración VF predeterminado. Después de crear el número de VF, asigne la
dirección MAC estática.
Para crear una asignación VF MAC definida por el usuario:
1. Enumere el VF predeterminado.
# modprobe -v qede
# echo 2 > /sys/class/net/p6p1/device/sriov_numvfs
# ip link show
14: p6p1: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc mq state DOWN
mode DEFAULT group default qlen 1000
link/ether 14:02:ec:ce:d0:e4 brd ff:ff:ff:ff:ff:ff
vf 0 MAC 00:00:00:00:00:00, spoof checking off, link-state auto
Tabla 7-4. SO de Linux compatible para VF RDMA
SO invitado
Hipervisor
RHEL
7.6
RHEL
7.7
RHEL
8.0
SLES12
SP4
SLES15
SP0
SLES15
SP1
RHEL 7.7
RHEL 8.0
SLES12 SP4
SLES15 SP0
SLES15 SP1
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Linux
179 AH0054602-09 M
vf 1 MAC 00:00:00:00:00:00, spoof checking off, link-state auto
2. Asignar la dirección MAC estática:
# ip link set dev p6p1 vf 0 mac 3c:33:44:55:66:77
# ip link set dev p6p1 vf 1 mac 3c:33:44:55:66:89
#ip link show
14: p6p1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP mode DEFAULT group default
qlen 1000
link/ether 14:02:ec:ce:d0:e4 brd ff:ff:ff:ff:ff:ff
vf 0 MAC 3c:33:44:55:66:77, tx rate 25000 (Mbps), max_tx_rate 25000Mbps, spoof checking off,
link-state auto
vf 1 MAC 3c:33:44:55:66:89, tx rate 25000 (Mbps), max_tx_rate 25000Mbps, spoof checking off,
link-state auto
3. Para que se refleje para RDMA, cargue/descargue el controlador qedr si
ya se ha cargado
#rmmod qedr
#modprobe qedr
#ibv_devices
device node GUID
------ ----------------
qedr0 1602ecfffeced0e4
qedr1 1602ecfffeced0e5
qedr_vf0 3e3344fffe556677
qedr_vf1 3e3344fffe556689
Asignación VF MAC dinámica o aleatoria
Para asignar VF MAC de forma dinámica
# modprobe -r qedr
# modprobe -v qed vf_mac_origin=3 [Utilice este parámetro de módulo para la
asignación de MAC dinámica]
# modprobe -v qede
# echo 2 > /sys/class/net/p6p1/device/sriov_numvfs
# modprobe qedr (This is an optional, mostly qedr driver loads
itself)
# ip link show|grep vf
vf 0 MAC ba:1a:ad:08:89:00, tx rate 25000 (Mbps), max_tx_rate
25000Mbps, spoof checking off, link-state auto
vf 1 MAC 96:40:61:49:cd:68, tx rate 25000 (Mbps), max_tx_rate
25000Mbps, spoof checking off, link-state auto
# lsmod |grep qedr
7–Configuración de RoCE
Configuración de RoCE en el adaptador para Linux
180 AH0054602-09 M
# ibv_devices
device node GUID
------ ----------------
qedr0 1602ecfffececfa0
qedr1 1602ecfffececfa1
qedr_vf0 b81aadfffe088900
qedr_vf1 944061fffe49cd68
Número de VF compatibles con RDMA
Para Adaptadores de la serie 41xxx, se comparte el número de VF para L2 y
RDMA según la disponibilidad de recursos.
Adaptadores de puerto doble
Cada puerto PF admite un máximo de 40 VF para RDMA. Si el número de VF
supera 56, se sustraerá del total de números de VF (96).
En el siguiente ejemplo, PF0 es
/sys/class/net/<PF-interface>/device/sriov_numvfs
Echo 40 > PF0 (VF para L2+RDMA=40+40 (se pueden usar 40 VF para L2 y RDMA))
Echo 56 > PF0 (VF para L2+RDMA=56+40)
Después de pasar 56 VF, este número se sustrae del número total de VF. Por
ejemplo:
echo 57 > PF0 then 96-57=39 VFs for RDMA (57 VF para L2 + 39VF para RDMA)
echo 96 > PF0 then 96-96=0 VFs for RDMA (Todos los 96 VF se pueden usar solo para L2)
Para ver los VF disponibles para L2 y RDMA:
L2 : # ip link show
RDMA: # ibv_devices
Adaptadores de puerto cuádruple
Cada puerto PF admite un máximo de 20 VF para RDMA; Hasta 48 VF hay 20 VF
por RDMA. Cuando se exceden los 28 VF, dicho número se sustrae del total de
VF (48).
Por ejemplo, en 4x10G:
Echo 20 > PF0 (VF para L2+RDMA=20+20)
Echo 28 > PF0 (VF para L2+RDMA=28+20)
Después de pasar 28 VF, este número se sustrae del número total de VF. Por
ejemplo:
echo 29 > PF0
(48–29=19VF para RDMA; 29 VF para L2 + 19 VF para RDMA)
echo 48 > PF0
(48-48=19VF para RDMA; todos los 48 VF se pueden usar solo para L2)
7–Configuración de RoCE
Configuración de RoCE en el adaptador para VMware ESX
181 AH0054602-09 M
Limitaciones
La RDMA de VF tiene las siguientes limitaciones:
No hay compatibilidad iWARP
No hay compatibilidad NPAR
El SO Cross no es compatible; por ejemplo, un hipervisor Linux no puede
usar un SO invitado de Windows (VM)
La prueba de latencia Perftest en las interfaces VF solo se puede ejecutar
con la opción
-I 0 alineada talla cero. No funciona ni la predeterminada ni
más de una talla alineada.
Para permitir que las aplicaciones RDMA_CM se ejecuten en diferentes
tallas MTU (512-9000) además de la predeterminada (1500), siga estos
pasos:
1. Descargue el controlador
qedr:
#rmmod qedr
2. Configure MTU en la interfaz VF:
#ifconfig <VF interface> mtu 9000
3. Cargue el controlador qedr:
#modprobe qedr
Rdma_server/rdma_xserver no es compatible con la interfaz VF.
No hay compatibilidad de enlace RDMA en VF.
Configuración de RoCE en el adaptador para
VMware ESX
Esta sección muestra los siguientes procedimientos y la información para la
configuración RoCE:
Configuración de interfaces RDMA
Configuración de MTU
Modo RoCE y estadísticas
Configuración de un dispositivo RDMA paravirtual (PVRDMA)
7–Configuración de RoCE
Configuración de RoCE en el adaptador para VMware ESX
182 AH0054602-09 M
Configuración de interfaces RDMA
Para configurar las interfaces RDMA:
1. Instale los controladores NIC y RoCE de Marvell.
2. Al utilizar el parámetro del módulo, active la función RoCE desde el
controlador NIC mediante el siguiente comando:
esxcfg-module -s 'enable_roce=1' qedentv
Para aplicar el cambio, vuelve a cargar el controlador del NIC o reinicie el
sistema.
3. Para ver una lista de interfaces NIC, emita el comando
esxcfg-nics -l.
Por ejemplo:
esxcfg-nics -l
Name PCI Driver Link Speed Duplex MAC Address MTU Description
Vmnic0 0000:01:00.2 qedentv Up 25000Mbps Full a4:5d:36:2b:6c:92 1500 QLogic Corp.
QLogic FastLinQ QL41xxx 1/10/25 GbE Ethernet Adapter
Vmnic1 0000:01:00.3 qedentv Up 25000Mbps Full a4:5d:36:2b:6c:93 1500 QLogic Corp.
QLogic FastLinQ QL41xxx 1/10/25 GbE Ethernet Adapter
4. Para ver una lista de dispositivos RDMA, emita el comando esxcli rdma
device list
. Por ejemplo:
esxcli rdma device list
Name Driver State MTU Speed Paired Uplink Description
------- ------- ------ ---- ------- ------------- -------------------------------
vmrdma0 qedrntv Active 1024 25 Gbps vmnic0 QLogic FastLinQ QL45xxx RDMA Interface
vmrdma1 qedrntv Active 1024 25 Gbps vmnic1 QLogic FastLinQ QL45xxx RDMA Interface
5. Para crear un nuevo conmutador virtual, emita el siguiente comando:
esxcli network vswitch standard add -v <new vswitch name>
NOTA
Asignar velocidades de Ethernet a velocidades de RDMA no es siempre
correcto, porque los valores que se pueden especificar mediante el
controlador RoCE están alineados con Infiniband
®
.
Por ejemplo, si RoCE está configurado en una interfaz Ethernet que
funciona a 1 Gbps, la velocidad de RDMA se muestra como 2,5 Gbps. No
existen otros valores adecuados disponibles en los archivos de cabecera
suministrados por ESXi que el controlador RoCE pueda utilizar para indicar
la velocidad de 1 Gbps.
7–Configuración de RoCE
Configuración de RoCE en el adaptador para VMware ESX
183 AH0054602-09 M
Por ejemplo:
# esxcli network vswitch standard add -v roce_vs
Esto crea un nuevo conmutador virtual llamado roce_vs.
6. Para asociar el puerto NIC de Marvell a vSwitch, emita el siguiente
comando:
# esxcli network vswitch standard uplink add -u <uplink
device> -v <roce vswitch>
Por ejemplo:
# esxcli network vswitch standard uplink add -u vmnic0 -v
roce_vs
7. Para crear un nuevo grupo de puertos en este conmutador virtual, emita el
siguiente comando:
# esxcli network vswitch standard portgroup add -p roce_pg -v
roce_vs
Por ejemplo:
# esxcli network vswitch standard portgroup add -p roce_pg -v
roce_vs
8. Para crear una interfaz a vmknic en este grupo de puertos y configurar la IP,
emita el siguiente comando:
# esxcfg-vmknic -a -i <IP address> -n <subnet mask> <roce port
group name>
Por ejemplo:
# esxcfg-vmknic -a -i 192.168.10.20 -n 255.255.255.0 roce_pg
9. Para configurar el Id. de vLAN, emita el siguiente comando:
# esxcfg-vswitch -v <VLAN ID> -p roce_pg
Para ejecutar el tráfico RoCE con un Id. de vLAN, configure el Id. de vLAN
en el puerto VMkernel correspondiente.
Configuración de MTU
Para cambiar la MTU para una interfaz de RoCE, cambie MTU del conmutador
virtual correspondiente. Establezca el tamaño de MTU de la interfaz RDMA
basado en la MTU del conmutador virtual mediante el siguiente comando:
# esxcfg-vswitch -m <new MTU> <RoCE vswitch name>
7–Configuración de RoCE
Configuración de RoCE en el adaptador para VMware ESX
184 AH0054602-09 M
Por ejemplo:
# esxcfg-vswitch -m 4000 roce_vs
# esxcli rdma device list
Name Driver State MTU Speed Paired Uplink Description
------- ------- ------ ---- ------- ------------- -------------------------------
vmrdma0 qedrntv Active 2048 25 Gbps vmnic0 QLogic FastLinQ QL45xxx RDMA Interface
vmrdma1 qedrntv Active 1024 25 Gbps vmnic1 QLogic FastLinQ QL45xxx RDMA Interface
Modo RoCE y estadísticas
Para el modo RoCE, ESXi requiere una compatibilidad paralela de RoCE v1 y v2.
La decisión en relación con el modo RoCE de utilizar se realiza durante la
creación de pares de colas. El controlador ESXi detecta ambos modos durante el
registro y la inicialización. Para ver las estadísticas de RoCE, emita el siguiente
comando:
# esxcli rdma device stats get -d vmrdma0
Packets received: 0
Packets sent: 0
Bytes received: 0
Bytes sent: 0
Error packets received: 0
Error packets sent: 0
Error length packets received: 0
Unicast packets received: 0
Multicast packets received: 0
Unicast bytes received: 0
Multicast bytes received: 0
Unicast packets sent: 0
Multicast packets sent: 0
Unicast bytes sent: 0
Multicast bytes sent: 0
Queue pairs allocated: 0
Queue pairs in RESET state: 0
Queue pairs in INIT state: 0
Queue pairs in RTR state: 0
Queue pairs in RTS state: 0
Queue pairs in SQD state: 0
Queue pairs in SQE state: 0
Queue pairs in ERR state: 0
Queue pair events: 0
7–Configuración de RoCE
Configuración de RoCE en el adaptador para VMware ESX
185 AH0054602-09 M
Completion queues allocated: 1
Completion queue events: 0
Shared receive queues allocated: 0
Shared receive queue events: 0
Protection domains allocated: 1
Memory regions allocated: 3
Address handles allocated: 0
Memory windows allocated: 0
Configuración de un dispositivo RDMA paravirtual (PVRDMA)
Consulte la documentación de VMware (por ejemplo,
https://kb.vmware.com/articleview?docid=2147694
) para obtener detalles sobre
cómo configurar PVRDMA mediante una interfaz vCenter. Las siguientes
instrucciones son solo para referencia.
Para configurar PVRDMA utilizando una interfaz vCenter:
1. Crear y configurar un nuevo conmutador virtual distribuido como sigue:
a. En el cliente VMware vSphere
®
Web Client, haga clic con el botón
derecho en el nodo RoCE en el panel izquierdo de la ventana del
navegador.
b. En el menú de acciones, señale Distributed Switch (Conmutador
distribuido) y, a continuación, haga clic en New Distributed Switch
(Nuevo conmutador distribuído).
c. Seleccione la versión 6.5.0.
d. En New Distributed Switch (Nuevo conmutador distribuido), haga clic
en Edit settings (Editar parámetros), y después configure lo siguiente:
Number of uplinks (Número de enlaces ascendentes).
Seleccione un valor adecuado.
Network I/O Control (Control de E/S de red). Seleccionar
Disabled (Desactivado).
Grupo de puerto predeterminado. Seleccione la casilla Create
a default port group (Crear un grupo de puertos
predeterminado).
Port group name (Nombre de grupo de puertos). Escriba un
nombre para el grupo de puertos.
7–Configuración de RoCE
Configuración de RoCE en el adaptador para VMware ESX
186 AH0054602-09 M
La Ilustración 7-16 muestra un ejemplo.
Ilustración 7-16. Configuring a New Distributed Switch (Configurar un nuevo
conmutador distribuido)
2. Configurar un nuevo conmutador virtual distribuido como sigue:
a. En el cliente VMware vSphere Web Client, expanda el nodo RoCE en
el panel izquierdo de la ventana del navegador.
b. Haga clic con el botón derecho en RoCE-VDS, y después en Add and
Manage Hosts (Agregar y administrar hosts).
c. En Add and Manage Hosts (Agregar y administrar hosts), configure
lo siguiente:
Assign uplinks (Asignar enlaces ascendentes). Seleccione
desde la lista de enlaces ascendentes disponibles.
Manage VMkernel network adapters (Administrar adaptadores
de red VMkernel). Acepte el valor predeterminado, y después
haga clic en Next (Siguiente).
Migrate VM networking (Migrar el sistema de red VM). Asignar
el grupo de puertos creado en el paso 1.
3. Asignar un vmknic para PVRDMA para utilizar los hosts ESX:
a. Haga clic con el botón derecho en un host, y después haga clic en
Settings (Configuración).
b. En la página de Configuración, expanda el nodo de System (Sistema),
y después haga clic en Advanced System Settings (Configuración
avanzada del sistema).
c. La página de Configuración avanzada del sistema, muestra el par
clave/valor y su resumen. Haga clic en Edit (Editar).
d. En la página Editar configuración avanzada del sistema, filtre por
PVRDMA para acotar los parámetros a solo Net.PVRDMAVmknic.
e. Establezca el valor Net.PVRDMAVmknic en vmknic; por ejemplo,
vmk1.
7–Configuración de RoCE
Configuración de RoCE en el adaptador para VMware ESX
187 AH0054602-09 M
La Ilustración 7-17 muestra un ejemplo.
Ilustración 7-17. Asignación de un vmknic en PVRDMA
4. Establezca la regla del firewall para el PVRDMA:
a. Haga clic con el botón derecho en un host, y después haga clic en
Settings (Configuración).
b. En la página de Configuración, expanda el nodo de System (Sistema),
y después haga clic en Security Profile (Perfil de seguridad).
c. En la página Firewall Summary (Resumen del firewall), haga clic en
Edit (Editar).
d. En el cuadro de diálogo de Edit Security Profile (Editar perfil de
seguridad) bajo Name (Nombre), desplácese hacia abajo, seleccione
el cuadro de diálogo pvrdma, y seleccione el cuadro de diálogo Set
Firewall (Establecer Firewall).
7–Configuración de RoCE
Configuración de RoCE en el adaptador para VMware ESX
188 AH0054602-09 M
La Ilustración 7-18 muestra un ejemplo.
Ilustración 7-18. Cómo establecer las reglas del Firewall
5. Configure la VM para PVRDMA como sigue:
a. Instale los siguientes sistemas operativos invitados compatibles:
RHEL 7.5, 7.6 y 8.0
b. Instale OFED4.17-1.
c. Compile e instale la biblioteca y el controlador invitado de PVRDMA.
d. Agregue un nuevo adaptador de red PVRDMA a la VM como sigue:
Editar los parámetrosVM.
Agregar un nuevo adaptador de red.
Seleccionar un grupo de puertos recientemente agregado como
Network (Red).
Seleccionar PVRDMA como el tipo de adaptador.
e. Después de haber iniciado el VM, compruebe si está cargado el
controlador invitado de PVRDMA.
7–Configuración de RoCE
Configuración de DCQCN
189 AH0054602-09 M
Configuración de DCQCN
Data Center Quantized Congestion Notification (DCQCN) es una característica
que determina cómo el receptor RoCE notifica a un transmisor que un
conmutador entre ellos ha proporcionado una notificación de congestión explícita
(punto de notificación) y cómo un transmisor reacciona a dicha notificación (punto
de reacción).
Esta sección ofrece la siguiente información sobre la configuración de DCQCN:
Terminología de DCQCN
Descripción general de DCQCN
Parámetros relacionados con DCB
Configuración global en el tráfico RDMA
Configuración de DSCP-PFC
Activación de DCQCN
Configuración de CNP
Parámetros de algoritmo de DCQCN
Estadísticas de MAC
Ejemplo de script
Limitaciones
Terminología de DCQCN
Los siguientes términos describen la configuración de DCQCN:
ToS (tipo de servicio) es un único byte en el campo cabecera de IPv4. ToS
se compone de dos bits menos significantes (LSB) de ECN y seis bits más
significantes (MSB) de Punto de código de servicios diferenciados (DSCP).
Para IPv6, la clase de tráfico es el equivalente del ToS IPv4.
ECN (notificación explícita de congestión) es un mecanismo en el que un
conmutador agrega al tráfico entrante una indicación de que la congestión
es inminente.
CNP (paquete de notificación de congestión) es un paquete que utiliza el
punto de notificación para indicar que ECN ha vuelto a llegar desde el
conmutador hasta el punto de reacción. CNP se define en el suplemento a
InfiniBand Architecture Specification Volume 1 Release 1.2.1
(Especificación de arquitectura InfiniBand volumen 1 versión 1.2.1), ubicado
aquí:
https://cw.infinibandta.org/document/dl/7781
7–Configuración de RoCE
Configuración de DCQCN
190 AH0054602-09 M
VLAN Priority (Prioridad de vLAN) es un campo en la cabecera de vLAN
L2. El campo son los tres MSB de la etiqueta de vLAN.
PFC (control de flujo basado en la prioridad) es un mecanismo de control de
flujo que se aplica al tráfico que lleva una prioridad de vLAN específica.
DSCP-PFC es una característica que permite a un receptor interpretar la
prioridad de un paquete entrante para fines de PFC, en lugar de según la
prioridad de vLAN o el campo DSCP de la cabecera de IPv4. Puede utilizar
una tabla de indirección para indicar un valor de DSCP especificado en un
valor de prioridad de vLAN. DSCP-PFC puede funcionar en redes L2
porque es una característica de L3 (IPv4).
Clases de tráfico, también conocidas como grupos de prioridad, son
grupos de prioridades de vLAN (o valores de DSCP si se utiliza DSCP-PFC)
que pueden tener propiedades como, por ejemplo, con pérdidas o sin
pérdidas. Normalmente, se utiliza 0 para el grupo de tráfico habitual que
tiene pérdidas predeterminado, 3 para el grupo de tráfico FCoE y 4 para el
grupo de tráfico iSCSI-TLV. Puede encontrase con problemas de
coincidencia de DCB si intenta volver a utilizar estos números en redes que
también admitan tráfico FCoE o iSCSI-TLV. Marvell recomienda utilizar los
números 1–2 o 5–7 para grupos de tráfico relacionados con RoCE.
ETS (servicios de transición mejorados) es una asignación de ancho de
banda máximo por clase de tráfico.
Descripción general de DCQCN
Algunos protocolos de conexión de red (RoCE, por ejemplo) requiere falta de
entrega. PFC es un mecanismo para lograr falta de entrega en una red L2
network, y DSCP-PFC es un mecanismo para lograrlo en redes L2 distintas. No
obstante, PFC es deficiente en los siguientes aspectos:
Cuando se activa, PFC detiene completamente el tráfico de la prioridad
especificada en el puerto, en lugar de reducir la velocidad de transmisión.
Todo el tráfico de la prioridad especificada se ve afectado, incluso si hay un
subconjunto de conexiones específicas que causan la congestión.
PFC es un mecanismo de un solo salto. Es decir, si un receptor experimenta
congestión e indica la congestión a través de un paquete PFC, solo
reaccionará el vecino más próximo. Cuando el vecino experimenta
congestión (probablemente porque ya no puede transmitir), también genera
su propio PFC. Esta generación se conoce como propagación de pausa. La
propagación de pausa puede causar una utilización de la ruta inferior,
porque todos los búferes deben congestionarse antes de que el transmisor
sea consciente del problema.
7–Configuración de RoCE
Configuración de DCQCN
191 AH0054602-09 M
DCQCN soluciona todos estos inconvenientes. La ECN ofrece indicación de
congestión al punto de reacción. El punto de reacción envía un paquete CNP al
transmisor, que reacciona reduciendo su velocidad de transmisión y evitando la
congestión. DCQCN también especifica cómo el transmisor intenta aumentar su
velocidad de transmisión y utilizar el ancho de banda de forma eficaz después de
que se detenga la congestión. DCQCN se describe en el documento 2015
SIGCOMM, Congestion Control for Large-Scale RDMA Deployments (Control de
la congestión para despliegues de RDMA a gran escala), que se encuentra aquí:
http://conferences.sigcomm.org/sigcomm/2015/pdf/papers/p523.pdf
Parámetros relacionados con DCB
Utilice DCB para asignar prioridades a clases de tráfico (grupos de prioridades).
DCB también controla qué grupos de prioridad están sujetos a PFC (tráfico sin
pérdida), y la asignación de ancho de banda relacionada (ETS).
Configuración global en el tráfico RDMA
La configuración global en el tráfico RDMA incluye la configuración de la la
prioridad de vLAN, ECN y DSCP.
Establecer la prioridad de vLAN en el tráfico RDMA
Utilice una aplicación para establecer la prioridad de vLAN usada por un par de
colas (QP) RDMA especificado al crear un QP. Por ejemplo, el banco de pruebas
ib_write_bw controla la prioridad con el parámetro -sl. Cuando está
presente RDMA-CM (RDMA Communication Manager [Administrador de
comunicaciones RDMA]), quizás no pueda establecer la prioridad.
Otro método para controlar la prioridad de vLAN es utilizar el nodo
rdma_glob_vlan_pri. Este método afecta a los QP que se crean después de
establecer el valor. Por ejemplo, para establecer el número de prioridad de vLAN
en 5 para QP posteriormente creados, emita el siguiente comando:
./debugfs.sh -n eth0 -t rdma_glob_vlan_pri 5
Establecer ECN en el tráfico RDMA
Utilice el nodo rdma_glob_ecn para activar ECN para una prioridad RoCE
especificada. Por ejemplo, para habilitar ECN en el tráfico RoCE con prioridad 5,
emita el siguiente comando:
./debugfs.sh -n eth0 -t rdma_glob_ecn 1
Este comando es necesario normalmente si está activado DCQCN.
7–Configuración de RoCE
Configuración de DCQCN
192 AH0054602-09 M
Establecer DSCP en el tráfico RDMA
Utilice el nodo rdma_glob_dscp para controlar DSCP. Por ejemplo, para
establecer DSCP en el tráfico RoCE con prioridad 5, emita el siguiente comando:
./debugfs.sh -n eth0 -t rdma_glob_dscp 6
Este comando es necesario normalmente si está activado DCQCN.
Configuración de DSCP-PFC
Utilice los nodos dscp_pfc para configurar la asociación dscp->priority
para PFC. Debe activar la característica antes de agregar entradas al mapa. Por
ejemplo, para asignar el valor de DSCP 6 a la prioridad 5, emita los siguientes
comandos:
./debugfs.sh -n eth0 -t dscp_pfc_enable 1
./debugfs.sh -n eth0 -t dscp_pfc_set 6 5
Activación de DCQCN
Para activar DCQCN para tráfico RoCE, sondee el controlador qed con el
parámetro del módulo dcqcn_enable. DCQCN requiere indicaciones de ECN
activadas (consulte “Establecer ECN en el tráfico RDMA” en la página 191).
Configuración de CNP
Los paquetes de notificación de congestión (CNP) pueden tener una
configuración independiente de la prioridad de vLAN y DSCP. Controle estos
paquetes usando los parámetros de módulo dcqcn_cnp_dscp y
dcqcn_cnp_vlan_priority. Por ejemplo:
modprobe qed dcqcn_cnp_dscp=10 dcqcn_cnp_vlan_priority=6
Parámetros de algoritmo de DCQCN
La Tabla 7-5 muestra los parámetros de algoritmo para DCQCN.
Tabla 7-5. Parámetros de algoritmo de DCQCN
Parámetro Descripción y valores
dcqcn_cnp_send_timeout Diferencia mínimo de tiempo de envío entre CNP.
Las unidades son en microsegundos. El rango de
valores está entre 50..500000.
dcqcn_cnp_dscp Valor de DSCP que se utilizará en CNP. El rango de
valores está entre 0..63.
7–Configuración de RoCE
Configuración de DCQCN
193 AH0054602-09 M
Estadísticas de MAC
Para ver estadísticas de MAC, incluidas las estadísticas de PFC por prioridad,
emita el comando phy_mac_stats. Por ejemplo, para ver las estadísticas en el
puerto 1, emita los siguientes comandos:
./debugfs.sh -n eth0 -d phy_mac_stat -P 1
Ejemplo de script
El siguiente ejemplo se puede utilizar como script:
# probe the driver with both reaction point and notification point enabled
# with cnp dscp set to 10 and cnp vlan priority set to 6
modprobe qed dcqcn_enable=1 dcqcn_notification_point=1 dcqcn_reaction_point=1
dcqcn_cnp_dscp=10 dcqcn_cnp_vlan_priority=6
modprobe qede
# dscp-pfc configuration (associating dscp values to priorities)
dcqcn_cnp_vlan_priority Prioridad de vLAN que se utilizará en CNP. El
rango de valores está entre 0..7. La descarga
FCoE utiliza 3 y la TLV de descarga iSCSI
normalmente utiliza 4. Marvell recomienda
especificar un número de 1–2 o
5-7. Utilice el mismo valor en toda la red.
dcqcn_notification_point 0 – Desactivar punto de notificación de DCQCN.
1 – Activar punto de notificación de DCQCN.
dcqcn_reaction_point 0 – Desactivar punto de reacción de DCQCN.
1 – Activar punto de reacción de DCQCN.
dcqcn_rl_bc_rate Límite de contador de bytes
dcqcn_rl_max_rate Velocidad máxima en Mbps
dcqcn_rl_r_ai Velocidad de aumento activa en Mbps
dcqcn_rl_r_hai Velocidad de aumento hiperactiva en Mbps.
dcqcn_gd Denominador de aumento de actualización alfa. Se
establece en 32 para 1/32, etc.
dcqcn_k_us Intervalo de actualización alfa
dcqcn_timeout_us Tiempo de espera de DCQCN
Tabla 7-5. Parámetros de algoritmo de DCQCN (Continuación)
Parámetro Descripción y valores
7–Configuración de RoCE
Configuración de DCQCN
194 AH0054602-09 M
# This example is using two DCBX traffic class priorities to better demonstrate
DCQCN in operation
debugfs.sh -n ens6f0 -t dscp_pfc_enable 1
debugfs.sh -n ens6f0 -t dscp_pfc_set 20 5
debugfs.sh -n ens6f0 -t dscp_pfc_set 22 6
# static DCB configurations. 0x10 is static mode. Mark priorities 5 and 6 as
# subject to pfc
debugfs.sh -n ens6f0 -t dcbx_set_mode 0x10
debugfs.sh -n ens6f0 -t dcbx_set_pfc 5 1
debugfs.sh -n ens6f0 -t dcbx_set_pfc 6 1
# set roce global overrides for qp params. enable exn and open QPs with dscp 20
debugfs.sh -n ens6f0 -t rdma_glob_ecn 1
debugfs.sh -n ens6f0 -t rdma_glob_dscp 20
# open some QPs (DSCP 20)
ib_write_bw -d qedr0 -q 16 -F -x 1 --run_infinitely
# change global dscp qp params
debugfs.sh -n ens6f0 -t rdma_glob_dscp 22
# open some more QPs (DSCP 22)
ib_write_bw -d qedr0 -q 16 -F -x 1 -p 8000 --run_infinitely
# observe PFCs being generated on multiple priorities
debugfs.sh -n ens6f0 -d phy_mac_stat -P 0 | grep "Class Based Flow Control"
Limitaciones
DCQCN tiene las siguientes limitaciones:
El modo DCQCN actualmente solo admite hasta 64 QP.
Los adaptadores Marvell pueden determinar la prioridad de vLAN para fines
de PFC a partir de la prioridad de vLAN o a partir de los bits de DSCP en el
campo ToS. No obstante, en presencia de ambos, vLAN tiene prioridad.
195 AH0054602-09 M
8 Configuración de iWARP
El protocolo RDMA de área amplia de Internet (iWARP) es un protocolo para
redes de equipos que implementa RDMA para transferir datos de forma eficiente
a través de redes IP. El iWARP está diseñado para diversos entornos, incluidas
redes LAN, redes de almacenamiento, redes de centros de datos y redes de
áreas amplias (WAN).
En este capítulo se proporcionan instrucciones para:
Preparación del adaptador para iWARP
“Configuración de iWARP en Windows” en la página 196
“Configuración de iWARP en Linux” en la página 200
Preparación del adaptador para iWARP
Esta sección proporciona instrucciones para la configuración iWARP del
adaptador de inicio previo mediante HII. Para obtener más información sobre la
configuración del adaptador de inicio previo, consulte Capítulo 5 Configuración de
inicio previo del adaptador.
Para configurar iWARP mediante HII en modo predeterminado:
1. Acceda a BIOS System Setup (Configuración del sistema BIOS) del
servidor y haga clic en Device Settings (Configuración del dispositivo).
2. En la página Device Settings (Configuración del dispositivo), seleccione un
puerto para el Adaptador de la serie 41xxx de 25 G.
3. En la Main Configuration Page (Página de configuración principal) del
adaptador seleccionado, haga clic en NIC Configuration (Configuración
NIC).
NOTA
Es posible que algunas características de iWARP no se puedan activar
completamente en esta versión. Para obtener información detallada,
consulte Apéndice D Limitaciones de las características.
8–Configuración de iWARP
Configuración de iWARP en Windows
196 AH0054602-09 M
4. En la página NIC Configuration (Configuración NIC):
a. Establezca NIC + RDMA Mode (NIC + Modo RDMA) en Enabled
(Activado).
b. Establezca RDMA Protocol Support (Compatibilidad de protocolo
RDMA) RoCE/iWARP o iWARP.
c. Haga clic en Back (Atrás).
5. En la Main Configuration Page (Página de configuración principal), haga clic
en Finish (Finalizar).
6. En el cuadro de mensaje Warning - Saving Changes (Advertencia - Guardar
cambios) haga clic en Yes (Sí) para guardar la configuración.
7. En el cuadro de mensaje Success - Saving Changes (Correcto - Guardar
cambios) haga clic en OK (Aceptar).
8. Repita desde el paso 2 hasta el paso 7 para configurar NIC e iWARP en los
otros puertos.
9. Para realizar la preparación del adaptador en ambos puertos:
a. En la página Device Settings (Configuración del dispositivo), haga clic
en Finish (Finalizar).
b. En el menú principal, haga clic en Finish (Finalizar).
c. Salga para reiniciar el sistema.
Continúe en “Configuración de iWARP en Windows” en la página 196 o en
“Configuración de iWARP en Linux” en la página 200.
Configuración de iWARP en Windows
En esta sección se proporcionan procedimientos para activar iWARP, comprobar
RDMA y comprobar el tráfico iWARP en Windows. Para obtener una lista de los
sistemas operativos que admiten iWARP, consulte la Tabla 7-1 en la página 142.
Para activar iWARP en el host de Windows y comprobar RDMA:
1. Active iWARP en el host de Windows.
a. Abra el Administrador de dispositivos de Windows y, a continuación,
abra las propiedades de minipuerto NDIS de los Adaptador de la serie
41xxx.
b. En FastLinQ Adapter Properties (Propiedades del adaptador
FastLinQ), haga clic en la pestaña Advanced (Avanzado).
c. En la página Advanced Properties (Propiedades avanzadas) en
Property (Propiedad), haga lo siguiente:
8–Configuración de iWARP
Configuración de iWARP en Windows
197 AH0054602-09 M
Seleccione Network Direct Functionality (Funcionalidad
directa de red) y, a continuación, seleccione Enabled (Activado)
en el Value (Valor).
Seleccione NetworkDirect Technology (Tecnología
NetworkDirect) y, a continuación, seleccione iWARP para Value
(Valor).
d. Haga clic en OK (Aceptar) para guardar los cambios y cerrar las
propiedades del adaptador.
2. Al utilizar Windows PowerShell, compruebe si RDMA está activado. La
salida del comando
Get-NetAdapterRdma (Ilustración 8-1) muestra los
adaptadores que admiten RDMA.
Ilustración 8-1. Comando Windows PowerShell: Get-NetAdapterRdma
3. Al utilizar Windows PowerShell, compruebe que NetworkDirect está
activado. La salida del comando
Get-NetOffloadGlobalSetting
(Ilustración 8-2) muestra NetworkDirect como Enabled (Activado).
Ilustración 8-2. Comando Windows PowerShell: Get-NetOffloadGlobalSetting
Para comprobar el tráfico iWARP:
1. Asigne unidades SMB y ejecute el tráfico iWARP.
2. Inicie el Supervisor de rendimiento (Perfmon).
3. En el cuadro de diálogo Add Counters (Agregar contadores), haga clic en
RDMA Activity (Actividad RDMA) y, a continuación, seleccione las
instancias del adaptador.
8–Configuración de iWARP
Configuración de iWARP en Windows
198 AH0054602-09 M
La Ilustración 8-3 muestra un ejemplo.
Ilustración 8-3. Perfmon: Add Counters (Agregar contadores)
8–Configuración de iWARP
Configuración de iWARP en Windows
199 AH0054602-09 M
Si se está ejecutando el tráfico iWARP, los contadores tendrán el aspecto
que se muestra en el ejemplo de la Ilustración 8-4.
Ilustración 8-4. Perfmon: Comprobación del tráfico iWARP
4. Para comprobar la conexión de SMB:
a. En el indicador de comandos, emita el comando
net use como se
muestra a continuación:
C:\Users\Administrator> net use
New connections will be remembered.
Status Local Remote Network
---------------------------------------------------------
OK F: \\192.168.10.10\Share1 Microsoft Windows Network
The command completed successfully.
b. Emita el comando netstat -xan como se muestra a continuación,
donde
Share1 está asignado como objeto compartido de SMB:
C:\Users\Administrator> netstat -xan
Active NetworkDirect Connections, Listeners, ShareEndpoints
Mode IfIndex Type Local Address Foreign Address PID
Kernel 56 Connection 192.168.11.20:16159 192.168.11.10:445 0
NOTA
.
Para obtener más información sobre cómo visualizar los contadores
del RDMA de Marvell en Windows, consulte “Visualización de
Contadores RDMA” en la página 152.
8–Configuración de iWARP
Configuración de iWARP en Linux
200 AH0054602-09 M
Kernel 56 Connection 192.168.11.20:15903 192.168.11.10:445 0
Kernel 56 Connection 192.168.11.20:16159 192.168.11.10:445 0
Kernel 56 Connection 192.168.11.20:15903 192.168.11.10:445 0
Kernel 60 Listener [fe80::e11d:9ab5:a47d:4f0a%56]:445 NA 0
Kernel 60 Listener 192.168.11.20:445 NA 0
Kernel 60 Listener [fe80::71ea:bdd2:ae41:b95f%60]:445 NA 0
Kernel 60 Listener 192.168.11.20:16159 192.168.11.10:445 0
Configuración de iWARP en Linux
Marvell Adaptadores de la serie 41xxx compatibles con iWARP en las Open
Fabrics Enterprise Distributions (OFED) de Linux que se enumeran en la
Tabla 7-1 en la página 142.
La configuración de iWARP en un sistema Linux incluye lo siguiente:
Instalación del controlador
Configuración de iWARP y RoCE
Detección del dispositivo
Aplicaciones iWARP admitidas
Ejecución de Perftest para iWARP
Configuración de NFS-RDMA
Instalación del controlador
Instale los controladores RDMA como se muestra en el Capítulo 3 Instalación del
controlador.
Configuración de iWARP y RoCE
Para activar iWARP y RoCE:
1. Descargue todos los controladores FastlinQ de la siguiente forma:
# modprobe -r qedr or modprobe -r qede
NOTA
Este procedimiento solo se aplica si previamente se ha seleccionado
iWARP+RoCE como el valor para el parámetro RDMA Protocol Support
(Compatibilidad con el protocolo RDMA) durante la configuración del inicio
previo mediante HII (consulte Configuración de parámetros de NIC, paso 5
en la página 56).
8–Configuración de iWARP
Configuración de iWARP en Linux
201 AH0054602-09 M
2. Utilice la sintaxis de comandos siguiente para cambiar el protocolo RDMA
mediante la carga del controlador
qed con una Id. PCI de interfaz de puerto
(
xx:xx.x) y un valor de protocolo RDMA (p).
# modprobe -v qed rdma_protocol_map=<xx:xx.x-p>
Los valores (p) del protocolo RDMA son los siguientes:
0—Aceptar el valor predeterminado (RoCE)
1—Sin RDMA
2—RoCE
3—iWARP
Por ejemplo, para cambiar la interfaz en el puerto dado por 04:00,0 de
RoCE a iWARP, emita el comando siguiente:
# modprobe -v qed rdma_protocol_map=04:00.0-3
3. Para cargar el controlador RDMA, emita el comando siguiente:
# modprobe -v qedr
En el ejemplo siguiente se muestran las entradas del comando para cambiar el
protocolo RDMA a iWARP en múltiples interfaces NPAR:
# modprobe qed rdma_protocol_map=04:00.1-3,04:00.3-3,04:00.5-3,
04:00.7-3,04:01.1-3,04:01.3-3,04:01.5-3,04:01.7-3
# modprobe -v qedr
# ibv_devinfo |grep iWARP
transport: iWARP (1)
transport: iWARP (1)
transport: iWARP (1)
transport: iWARP (1)
transport: iWARP (1)
transport: iWARP (1)
transport: iWARP (1)
transport: iWARP (1)
Detección del dispositivo
Para detectar el dispositivo:
1. Para comprobar si los dispositivos RDMA se han detectado, consulte los
registros
dmesg:
# dmesg |grep qedr
[10500.191047] qedr 0000:04:00.0: registered qedr0
[10500.221726] qedr 0000:04:00.1: registered qedr1
8–Configuración de iWARP
Configuración de iWARP en Linux
202 AH0054602-09 M
2. Emita el comando ibv_devinfo y, a continuación, compruebe el tipo de
transporte.
Si el comando se realiza correctamente, cada función PCI mostrará un
hca_id distinto. Por ejemplo (si comprueba el segundo puerto del
adaptador de dos puertos anterior):
[root@localhost ~]# ibv_devinfo -d qedr1
hca_id: qedr1
transport: iWARP (1)
fw_ver: 8.14.7.0
node_guid: 020e:1eff:fec4:c06e
sys_image_guid: 020e:1eff:fec4:c06e
vendor_id: 0x1077
vendor_part_id: 5718
hw_ver: 0x0
phys_port_cnt: 1
port: 1
state: PORT_ACTIVE (4)
max_mtu: 4096 (5)
active_mtu: 1024 (3)
sm_lid: 0
port_lid: 0
port_lmc: 0x00
link_layer: Ethernet
Aplicaciones iWARP admitidas
Estas son algunas de las aplicaciones RDMA admitidas por Linux:
ibv_devinfo, ib_devices
ib_send_bw/lat, ib_write_bw/lat, ib_read_bw/lat, ib_atomic_bw/lat
Para iWARP, todas las aplicaciones deben utilizar el administrador de
comunicaciones RDMA (rdma_cm) con la opción
-R.
rdma_server, rdma_client
rdma_xserver, rdma_xclient
rping
NFS a través de RDMA (NFSoRDMA)
iSER (para obtener más información, consulte el Capítulo 9 Configuración
de iSER)
8–Configuración de iWARP
Configuración de iWARP en Linux
203 AH0054602-09 M
NVMe-oF (para obtener más información, consulte el Capítulo 13
Configuración de NVMe-oF con RDMA)
Ejecución de Perftest para iWARP
Todas las herramientas perftest se admiten en el tipo de transporte iWARP. Debe
ejecutar las herramientas utilizando el administrador de conexiones RDMA (con la
opción
-R).
Ejemplo:
1. En un servidor, emita el comando siguiente (en este ejemplo, se utiliza el
segundo puerto):
# ib_send_bw -d qedr1 -F -R
2. En un cliente, emita el comando siguiente (en este ejemplo, se utiliza el
segundo puerto):
[root@localhost ~]# ib_send_bw -d qedr1 -F -R 192.168.11.3
----------------------------------------------------------------------------
Send BW Test
Dual-port : OFF Device : qedr1
Number of qps : 1 Transport type : IW
Connection type : RC Using SRQ : OFF
TX depth : 128
CQ Moderation : 100
Mtu : 1024[B]
Link type : Ethernet
GID index : 0
Max inline data : 0[B]
rdma_cm QPs : ON
Data ex. method : rdma_cm
----------------------------------------------------------------------------
local address: LID 0000 QPN 0x0192 PSN 0xcde932
GID: 00:14:30:196:192:110:00:00:00:00:00:00:00:00:00:00
remote address: LID 0000 QPN 0x0098 PSN 0x46fffc
GID: 00:14:30:196:195:62:00:00:00:00:00:00:00:00:00:00
----------------------------------------------------------------------------
#bytes #iterations BW peak[MB/sec] BW average[MB/sec] MsgRate[Mpps]
65536 1000 2250.38 2250.36 0.036006
----------------------------------------------------------------------------
8–Configuración de iWARP
Configuración de iWARP en Linux
204 AH0054602-09 M
Configuración de NFS-RDMA
NFS-RDMA para iWARP incluye pasos de configuración tanto para el servidor
como para el cliente.
Para configurar el servidor NFS:
1. Cree un directorio nfs-server y otorgue permiso emitiendo los
siguientes comandos:
# mkdir /tmp/nfs-server
# chmod 777 /tmp/nfs-server
2. En el archivo /etc/exports de los directorios que debe exportar utilizando
NFS-RDMA en el servidor, haga la siguiente entrada:
/tmp/nfs-server *(rw,fsid=0,async,insecure,no_root_squash)
Asegúrese de que utiliza una identificación de sistema de archivos (FSID)
distinta para cada directorio que exporte.
3. Cargue el módulo svcrdma del siguiente modo:
# modprobe svcrdma
4. Cargue el servicio como se indica a continuación:
Para SLES, active e inicie el alias de servidor NFS:
# systemctl enable|start|status nfsserver
Para RHEL, active e inicie el servidor NFS y los servicios:
# systemctl enable|start|status nfs
5. Incluya el puerto RDMA 20049 predeterminado en este archivo del siguiente
modo:
# echo rdma 20049 > /proc/fs/nfsd/portlist
6. Para que los directorios locales estén disponibles para el montaje de
clientes NFS, emita el comando
exportfs del siguiente modo:
# exportfs -v
NOTA
Para aplicaciones de latencia (enviar/escribir), si la versión de perftest es la
última (por ejemplo,
perftest-3.0-0.21.g21dc344.x86_64.rpm), utilice
el valor de tamaño de línea admitido:
0-128.
8–Configuración de iWARP
Configuración de iWARP en Linux
205 AH0054602-09 M
Para configurar el cliente NFS:
1. Cree un directorio nfs-client y otorgue permiso emitiendo los
siguientes comandos:
# mkdir /tmp/nfs-client
# chmod 777 /tmp/nfs-client
2. Cargue el módulo xprtrdma del siguiente modo:
# modprobe xprtrdma
3. Monte el sistema de archivos NFS del modo que sea adecuado para su
versión:
Para la versión 3 de NFS:
# mount -o rdma,port=20049 192.168.2.4:/tmp/nfs-server
/tmp/nfs-client
Para la versión 4 de NFS:
# mount -t nfs4 -o rdma,port=20049 192.168.2.4:/tmp/nfs-server
/tmp/nfs-client
4. Compruebe que el sistema de archivos está montado emitiendo el comando
mount
. Asegúrese de que el puerto RDMA y las versiones del sistema de
archivos sean correctos.
# mount |grep rdma
NOTA
Este procedimiento para la configuración del cliente NFS también se aplica
a RoCE.
NOTA
El puerto predeterminado para NFSoRDMA es 20049. No obstante,
también funcionará con cualquier otro puerto que esté alineado con el
cliente NFS.
206 AH0054602-09 M
9 Configuración de iSER
En este capítulo se describen los procedimientos para configurar extensiones de
iSCSI para RDMA (iSER) para Linux (RHEL y SLES) y VMware ESXi 6.7, lo que
incluye:
Antes de empezar
“Configuración de iSER para RHEL” en la página 207
“Configuración de iSER para SLES 12 y posterior” en la página 210
“Uso de iSER con iWARP en RHEL y SLES” en la página 211
“Optimización del rendimiento de Linux” en la página 213
“Configuración de iSER para ESXi 6.7” en la página 214
Antes de empezar
Mientras se prepara para configurar iSER, tenga en cuenta lo siguiente:
iSER solo es compatible en OFED integrada para los siguientes sistemas
operativos:
RHEL 8.x
RHEL 7.6 y posteriores
SLES 12 SP4 y posteriores
SLES 15 SP0 y posteriores
VMware ESXi 6.7 U1
Después de registrarse en los destinos o mientras ejecuta el tráfico de E/S,
descargar el controlador qedr de Linux RoCE puede bloquear el sistema.
Mientras se ejecuta E/S, realizar pruebas de activación/desactivación de la
interfaz o realizar pruebas de tracción de cables puede causar errores del
controlador o el módulo iSER que pueden bloquear el sistema. Si ocurriese
esto, reinicie el sistema.
9–Configuración de iSER
Configuración de iSER para RHEL
207 AH0054602-09 M
Configuración de iSER para RHEL
Para configurar iSER para RHEL:
1. Instale OFED integrada tal como se explica en “Configuración de RoCE
para RHEL” en la página 167.
2. Descargue los controladores FastLinQ existentes tal como se describe en
“Cómo eliminar los controladores para Linux” en la página 12.
3. Instale el controlador FastLinQ más reciente y los paquetes de libqedr tal
como se describe en la “Instalación de los controladores para Linux con
RDMA” en la página 16.
4. Cargue los servicios RDMA como sigue:
systemctl start rdma
modprobe qedr
modprobe ib_iser
modprobe ib_isert
5. Compruebe todos los módulos de RDMA e iSER cargados en los
dispositivos iniciador y destino emitiendo los comandos
lsmod | grep qed
y lsmod | grep iser.
6. Compruebe que hay instancias
hca_id independientes emitiendo el
comando
ibv_devinfo, tal como se describe en el paso 6 en la página 170.
7. Compruebe la conexión de RDMA en el dispositivo iniciador y el dispositivo
destino.
a. En el dispositivo iniciador, emita el siguiente comando:
rping -s -C 10 -v
b. En el dispositivo destino, emita el siguiente comando:
rping -c -a 192.168.100.99 -C 10 -v
NOTA
Las OFED listas para utilizar no son compatibles con iSER porque el
módulo ib_isert no está disponible en las versiones de OFED 3.18-2
GA/3.18-3 GA lista para utilizar. El módulo ib_isert todo en uno no
funciona con ninguna de las versiones de OFED lista para utilizar.
9–Configuración de iSER
Configuración de iSER para RHEL
208 AH0054602-09 M
La Ilustración 9-1 muestra un ejemplo de un ping RDMA correcto.
Ilustración 9-1. Ping RDMA correcto
8. Puede utilizar un destino TCM-LIO de Linux para probar iSER. La
configuración es la misma para cualquier destino iSCSI, salvo que emita el
comando
enable_iser Boolean=true en los portales correspondientes.
Las instancias del portal se identifican como iser en la Ilustración 9-2.
Ilustración 9-2. Instancias del portal iSER
9. Instale las utilidades del iniciador iSCSI de Linux mediante los comandos
yum install iscsi-initiator-utils
.
a. Para detectar el destino iSER, emita el comando
iscsiadm. Por
ejemplo:
iscsiadm -m discovery -t st -p 192.168.100.99:3260
9–Configuración de iSER
Configuración de iSER para RHEL
209 AH0054602-09 M
b. Para cambiar el modo de transporte a iSER, emita el comando
iscsiadm
. Por ejemplo:
iscsiadm -m node -T iqn.2015-06.test.target1 -o update -n
iface.transport_name -v iser
c. Para iniciar sesión o conectar con el destino iSER, emita el comando
iscsiadm
. Por ejemplo:
iscsiadm -m node -l -p 192.168.100.99:3260 -T
iqn.2015-06.test.target1
d. Confirme si el Iface Transport es iser en la conexión de
destino, tal como se muestra en la Ilustración 9-3. Emita el comando
iscsiadm
; por ejemplo:
iscsiadm -m session -P2
Ilustración 9-3. Iface Transport Confirmado
e. Para comprobar si hay un nuevo dispositivo iSCSI, tal como se
muestra en la Ilustración 9-4, emita el comando
lsscsi.
9–Configuración de iSER
Configuración de iSER para SLES 12 y posterior
210 AH0054602-09 M
Ilustración 9-4. Comprobación de nuevo dispositivo iSCSI
Configuración de iSER para SLES 12 y posterior
Puesto que targetcli no está integrado en SLES 12 y posterior, que debe seguir el
siguiente procedimiento.
Para configurar iSER para SLES 12 y posterior:
1. Instale targetcli.
Para SLES 12:
Localice, copie e instale los siguientes RPM desde la imagen ISO (x86_64 y
ubicación de noarch):
lio-utils-4.1-14.6.x86_64.rpm
python-configobj-4.7.2-18.10.noarch.rpm
python-PrettyTable-0.7.2-8.5.noarch.rpm
python-configshell-1.5-1.44.noarch.rpm
python-pyparsing-2.0.1-4.10.noarch.rpm
python-netifaces-0.8-6.55.x86_64.rpm
python-rtslib-2.2-6.6.noarch.rpm
python-urwid-1.1.1-6.144.x86_64.rpm
targetcli-2.1-3.8.x86_64.rpm
Para SLES 15 y SLES 15 SP1:
Cargue el DVD del paquete SLES e instale targetcli emitiendo el siguiente
comando de Zypper, que instala todos los paquetes de dependencia:
# zypper install python3-targetcli-fb
2. Antes de iniciar targetcli, cargue todos los controladores de dispositivo
RoCE y los módulos iSER como se indica a continuación:
# modprobe qed
# modprobe qede
# modprobe qedr
# modprobe ib_iser (iniciador)
# modprobe ib_isert (destino)
9–Configuración de iSER
Uso de iSER con iWARP en RHEL y SLES
211 AH0054602-09 M
3. Antes de configurar los destinos de iSER, configure las interfaces NIC y
ejecute el tráfico de L2 y RoCE tal como se describe en el paso 7 de la
página 170.
4. Para SLES 15 y SLES 15 SP1, inserte el DVD del paquete SLES e instale la
utilidad targetcli. Este comando también instala todos los paquetes de
dependencia.
# zypper install python3-targetcli-fb
5. Inicie la utilidad targetcli y configure sus destinos en el sistema de destino
iSER.
Uso de iSER con iWARP en RHEL y SLES
Configure el iniciador iSER y el destino igual que RoCE para trabajar con iWARP.
Es posible crear un destino Linux-IO (LIO
) de distintas formas; en esta sección
se describe una de ellas. Es posible que encuentre algunas diferencias en la
configuración targetcli de SLES 12 y RHEL 7.x debido a la versión.
Para configurar un destino para LIO:
1. Cree un destino LIO mediante la utilidad targetcli. Emita el siguiente comando:
# targetcli
targetcli shell version 2.1.fb41
Copyright 2011-2013 by Datera, Inc and others.
For help on commands, type 'help'.
2. Emita los siguientes comandos:
/> /backstores/ramdisk create Ramdisk1-1 1g nullio=true
/> /iscsi create iqn.2017-04.com.org.iserport1.target1
/> /iscsi/iqn.2017-04.com.org.iserport1.target1/tpg1/luns create /backstores/ramdisk/Ramdisk1-1
/> /iscsi/iqn.2017-04.com.org.iserport1.target1/tpg1/portals/ create 192.168.21.4 ip_port=3261
/> /iscsi/iqn.2017-04.com.org.iserport1.target1/tpg1/portals/192.168.21.4:3261 enable_iser
boolean=true
/> /iscsi/iqn.2017-04.com.org.iserport1.target1/tpg1 set attribute authentication=0
demo_mode_write_protect=0 generate_node_acls=1 cache_dynamic_acls=1
/> saveconfig
NOTA
Las versiones de targetcli son diferentes en RHEL y SLES. Asegúrese
de utilizar los backstores adecuados para configurar sus destinos:
RHEL utiliza ramdisk
SLES utiliza rd_mcp
9–Configuración de iSER
Uso de iSER con iWARP en RHEL y SLES
212 AH0054602-09 M
La Ilustración 9-5 muestra la configuración de destino para LIO.
Ilustración 9-5. Configuración de destino LIO
Para configurar un iniciador para iWARP:
1. Para detectar el destino LIO de iSER utilizando el puerto 3261, emita el
comando
iscsiadm como se muestra a continuación:
# iscsiadm -m discovery -t st -p 192.168.21.4:3261 -I iser
192.168.21.4:3261,1 iqn.2017-04.com.org.iserport1.target1
2. Cambie el modo de transporte a iser del siguiente modo:
# iscsiadm -m node -o update -T iqn.2017-04.com.org.iserport1.target1 -n
iface.transport_name -v iser
3. Inicie sesión en el destino mediante el puerto 3261:
# iscsiadm -m node -l -p 192.168.21.4:3261 -T
iqn.2017-04.com.org.iserport1.target1
Logging in to [iface: iser, target: iqn.2017-04.com.org.iserport1.target1,
portal: 192.168.21.4,3261] (multiple)
Login to [iface: iser, target: iqn.2017-04.com.org.iserport1.target1, portal:
192.168.21.4,3261] successful.
4. Asegúrese de que esos LUN sean visibles emitiendo el siguiente comando:
# lsscsi
[1:0:0:0] storage HP P440ar 3.56 -
[1:1:0:0] disk HP LOGICAL VOLUME 3.56 /dev/sda
[6:0:0:0] cd/dvd hp DVD-ROM DUD0N UMD0 /dev/sr0
[7:0:0:0] disk LIO-ORG Ramdisk1-1 4.0 /dev/sdb
9–Configuración de iSER
Optimización del rendimiento de Linux
213 AH0054602-09 M
Optimización del rendimiento de Linux
Tenga en cuenta las siguientes mejoras en la configuración del rendimiento de
Linux descritas en esta sección.
Configuración de las CPU en modo de rendimiento máximo
Configuración de los parámetros sysctl de kernel
Configuración de los parámetros de afinidad de IRQ
Configuración de la puesta en escena de dispositivo en bloques
Configuración de las CPU en modo de rendimiento máximo
Configure el gobernador de escalada de CPU en rendimiento mediante el
siguiente script para establecer todas las CPU en el modo de rendimiento
máximo:
for CPUFREQ in
/sys/devices/system/cpu/cpu*/cpufreq/scaling_governor; do [ -f
$CPUFREQ ] || continue; echo -n performance > $CPUFREQ; done
Compruebe que todos los núcleos de CPU se han establecido en el modo de
rendimiento máximo emitiendo el siguiente comando:
cat /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor
Configuración de los parámetros sysctl de kernel
Establezca la configuración de sysctl de kernel de la siguiente forma:
sysctl -w net.ipv4.tcp_mem="4194304 4194304 4194304"
sysctl -w net.ipv4.tcp_wmem="4096 65536 4194304"
sysctl -w net.ipv4.tcp_rmem="4096 87380 4194304"
sysctl -w net.core.wmem_max=4194304
sysctl -w net.core.rmem_max=4194304
sysctl -w net.core.wmem_default=4194304
sysctl -w net.core.rmem_default=4194304
sysctl -w net.core.netdev_max_backlog=250000
sysctl -w net.ipv4.tcp_timestamps=0
sysctl -w net.ipv4.tcp_sack=1
sysctl -w net.ipv4.tcp_low_latency=1
sysctl -w net.ipv4.tcp_adv_win_scale=1
echo 0 > /proc/sys/vm/nr_hugepages
9–Configuración de iSER
Configuración de iSER para ESXi 6.7
214 AH0054602-09 M
Configuración de los parámetros de afinidad de IRQ
En el siguiente ejemplo se establecen los núcleos de CPU 0, 1, 2 y 3 para
interrumpir la solicitud (IRQ) XX, YY, ZZ y XYZ respectivamente. Realice estos
pasos para cada IRQ asignada a un puerto (el valor predeterminado es ocho
colas por puerto)
systemctl disable irqbalance
systemctl stop irqbalance
cat /proc/interrupts | grep qedr
Muestra la IRQ asignada a cada cola de puerto
echo 1 > /proc/irq/XX/smp_affinity_list
echo 2 > /proc/irq/YY/smp_affinity_list
echo 4 > /proc/irq/ZZ/smp_affinity_list
echo 8 > /proc/irq/XYZ/smp_affinity_list
Configuración de la puesta en escena de dispositivo en
bloques
Establezca la configuración de puesta en escena de dispositivo en bloques para
cada dispositivo o destino iSCSI como se indica a continuación:
echo noop > /sys/block/sdd/queue/scheduler
echo 2 > /sys/block/sdd/queue/nomerges
echo 0 > /sys/block/sdd/queue/add_random
echo 1 > /sys/block/sdd/queue/rq_affinity
Configuración de iSER para ESXi 6.7
Esta sección proporciona información para configurar iSER para VMware
ESXi 6.7.
Antes de empezar
Antes de configurar iSER para ESXi 6.7, asegúrese de que se cumple lo
siguiente:
El paquete CNA con los controladores RoCE y NIC está instalado en el
sistema ESXi 6.7 y los dispositivos aparecen en la lista. Para ver los
dispositivos RDMA, emita el siguiente comando:
esxcli rdma device list
Name Driver State MTU Speed Paired Uplink Description
------- ------- ------ ---- ------- ------------- --------------------------------------
vmrdma0 qedrntv Active 1024 40 Gbps vmnic4 QLogic FastLinQ QL45xxx RDMA Interface
vmrdma1 qedrntv Active 1024 40 Gbps vmnic5 QLogic FastLinQ QL45xxx RDMA Interface
[root@localhost:~] esxcfg-vmknic -l
9–Configuración de iSER
Configuración de iSER para ESXi 6.7
215 AH0054602-09 M
Interface Port Group/DVPort/Opaque Network IP Family IP Address
Netmask Broadcast MAC Address MTU TSO MSS Enabled Type
NetStack
vmk0 Management Network IPv4 172.28.12.94
255.255.240.0 172.28.15.255 e0:db:55:0c:5f:94 1500 65535 true DHCP
defaultTcpipStack
vmk0 Management Network IPv6 fe80::e2db:55ff:fe0c:5f94
64 e0:db:55:0c:5f:94 1500 65535 true STATIC, PREFERRED
defaultTcpipStack
El destino iSER está configurado para comunicarse con el iniciador iSER.
Configuración de iSER para ESXi 6.7
Para configurar iSER para ESXi 6.7:
1. Agregue dispositivos de iSER emitiendo los siguientes comandos:
esxcli rdma iser add
esxcli iscsi adapter list
Adapter Driver State UID Description
------- ------ ------- ------------- -------------------------------------
vmhba64 iser unbound iscsi.vmhba64 VMware iSCSI over RDMA (iSER) Adapter
vmhba65 iser unbound iscsi.vmhba65 VMware iSCSI over RDMA (iSER) Adapter
2. Desactive el firewall como se indica a continuación.
esxcli network firewall set --enabled=false
esxcli network firewall unload
vsish -e set /system/modules/iscsi_trans/loglevels/iscsitrans 0
vsish -e set /system/modules/iser/loglevels/debug 4
3. Cree un grupo de puertos vSwitch VMkernel estándar y asigne la IP:
esxcli network vswitch standard add -v vSwitch_iser1
esxcfg-nics -l
Name PCI Driver Link Speed Duplex MAC Address MTU Description
vmnic0 0000:01:00.0 ntg3 Up 1000Mbps Full e0:db:55:0c:5f:94 1500 Broadcom
Corporation NetXtreme BCM5720 Gigabit Ethernet
vmnic1 0000:01:00.1 ntg3 Down 0Mbps Half e0:db:55:0c:5f:95 1500 Broadcom
Corporation NetXtreme BCM5720 Gigabit Ethernet
vmnic2 0000:02:00.0 ntg3 Down 0Mbps Half e0:db:55:0c:5f:96 1500 Broadcom
Corporation NetXtreme BCM5720 Gigabit Ethernet
vmnic3 0000:02:00.1 ntg3 Down 0Mbps Half e0:db:55:0c:5f:97 1500 Broadcom
Corporation NetXtreme BCM5720 Gigabit Ethernet
vmnic4 0000:42:00.0 qedentv Up 40000Mbps Full 00:0e:1e:d5:f6:a2 1500 QLogic Corp.
QLogic FastLinQ QL41xxx 10/25/40/50/100 GbE Ethernet Adapter
vmnic5 0000:42:00.1 qedentv Up 40000Mbps Full 00:0e:1e:d5:f6:a3 1500 QLogic Corp.
QLogic FastLinQ QL41xxx 10/25/40/50/100 GbE Ethernet Adapter
9–Configuración de iSER
Configuración de iSER para ESXi 6.7
216 AH0054602-09 M
esxcli network vswitch standard uplink add -u vmnic5 -v vSwitch_iser1
esxcli network vswitch standard portgroup add -p "rdma_group1" -v vSwitch_iser1
esxcli network ip interface add -i vmk1 -p "rdma_group1"
esxcli network ip interface ipv4 set -i vmk1 -I 192.168.10.100 -N 255.255.255.0 -t static
esxcfg-vswitch -p "rdma_group1" -v 4095 vSwitch_iser1
esxcli iscsi networkportal add -A vmhba67 -n vmk1
esxcli iscsi networkportal list
esxcli iscsi adapter get -A vmhba65
vmhba65
Name: iqn.1998-01.com.vmware:localhost.punelab.qlogic.com qlogic.org qlogic.com
mv.qlogic.com:1846573170:65
Alias: iser-vmnic5
Vendor: VMware
Model: VMware iSCSI over RDMA (iSER) Adapter
Description: VMware iSCSI over RDMA (iSER) Adapter
Serial Number: vmnic5
Hardware Version:
Asic Version:
Firmware Version:
Option Rom Version:
Driver Name: iser-vmnic5
Driver Version:
TCP Protocol Supported: false
Bidirectional Transfers Supported: false
Maximum Cdb Length: 64
Can Be NIC: true
Is NIC: true
Is Initiator: true
Is Target: false
Using TCP Offload Engine: true
Using ISCSI Offload Engine: true
4. Agregue el destino al iniciador de iSER del siguiente modo:
esxcli iscsi adapter target list
esxcli iscsi adapter discovery sendtarget add -A vmhba65 -a 192.168.10.11
esxcli iscsi adapter target list
Adapter Target Alias Discovery Method Last Error
------- ------------------------ ----- ---------------- ----------
vmhba65 iqn.2015-06.test.target1 SENDTARGETS No Error
esxcli storage core adapter rescan --adapter vmhba65
9–Configuración de iSER
Configuración de iSER para ESXi 6.7
217 AH0054602-09 M
5. Indique el destino adjunto del siguiente modo:
esxcfg-scsidevs -l
mpx.vmhba0:C0:T4:L0
Device Type: CD-ROM
Size: 0 MB
Display Name: Local TSSTcorp CD-ROM (mpx.vmhba0:C0:T4:L0)
Multipath Plugin: NMP
Console Device: /vmfs/devices/cdrom/mpx.vmhba0:C0:T4:L0
Devfs Path: /vmfs/devices/cdrom/mpx.vmhba0:C0:T4:L0
Vendor: TSSTcorp Model: DVD-ROM SN-108BB Revis: D150
SCSI Level: 5 Is Pseudo: false Status: on
Is RDM Capable: false Is Removable: true
Is Local: true Is SSD: false
Other Names:
vml.0005000000766d686261303a343a30
VAAI Status: unsupported
naa.6001405e81ae36b771c418b89c85dae0
Device Type: Direct-Access
Size: 512 MB
Display Name: LIO-ORG iSCSI Disk (naa.6001405e81ae36b771c418b89c85dae0)
Multipath Plugin: NMP
Console Device: /vmfs/devices/disks/naa.6001405e81ae36b771c418b89c85dae0
Devfs Path: /vmfs/devices/disks/naa.6001405e81ae36b771c418b89c85dae0
Vendor: LIO-ORG Model: ram1 Revis: 4.0
SCSI Level: 5 Is Pseudo: false Status: degraded
Is RDM Capable: true Is Removable: false
Is Local: false Is SSD: false
Other Names:
vml.02000000006001405e81ae36b771c418b89c85dae072616d312020
VAAI Status: supported
naa.690b11c0159d050018255e2d1d59b612
218 AH0054602-09 M
10 Configuración iSCSI
Este capítulo ofrece la siguiente información sobre la configuración iSCSI:
Inicio iSCSI
“Descarga de iSCSI en Windows Server” en la página 219
“Descarga de iSCSI en entornos Linux” en la página 229
Inicio iSCSI
Los adaptadores Gigabit Ethernet (GbE) de la serie 4xxxx de Marvell admiten el
inicio iSCSI, lo que permite iniciar redes de sistemas operativos en sistemas sin
disco. El inicio iSCSI permite que un sistema operativo Windows, Linux o VMware
se inicie desde una máquina de destino iSCSI ubicada en un sitio remoto por una
red IP estándar.
Las tramas gigantes con inicio iSCSI solo son compatibles con SO Windows
cuando se utiliza el adaptador como dispositivo de descarga NDIS o HBA.
Para la información de inicio iSCSI desde SAN, consulte Capítulo 6 Configuración
del inicio desde SAN.
NOTA
Es posible que algunas características de iSCSI no se puedan activar
completamente en esta versión. Para obtener información detallada,
consulte Apéndice D Limitaciones de las características.
Para habilitar el modo de descarga de iSCSI, consulte Application Note,
Enabling Storage Offloads on Dell and Marvell FastLinQ 41000 Series
Adapters en https://www.marvell.com/documents/5aa5otcbkr0im3ynera3/
.
10–Configuración iSCSI
Descarga de iSCSI en Windows Server
219 AH0054602-09 M
Descarga de iSCSI en Windows Server
La descarga iSCSI es una tecnología que permite descargar la sobrecarga de
procesamiento del protocolo iSCSI de los procesadores host al iSCSI HBA. La
descarga iSCSI aumenta el rendimiento de la red ayudando a optimizar la
utilización del procesador del servidor. En esta sección se explica cómo
configurar la característica de descarga iSCSI de Windows para los Adaptadores
de la serie 41xxx de Marvell.
Con la licencia de descarga iSCSI adecuada, puede configurar su Adaptador de
la serie 41xxx con capacidades de iSCSI para descargar el procesamiento de
iSCSI desde el procesador host. En las siguientes secciones se explica cómo
habilitar el sistema para aprovechar la característica de descarga iSCSI de
Marvell:
Instalación de controladores Marvell
Instalación del iniciador iSCSI de Microsoft
Configuración de Microsoft Initiator para utilizar la descarga iSCSI de
Marvell
Preguntas más frecuentes sobre la descarga iSCSI
Instalación de inicio iSCSI para Windows 2012 R2, 2016 y 2019
Volcado para caída del sistema iSCSI
Instalación de controladores Marvell
Instale los controladores de Windows, tal como se describe en “Instalación del
software del controlador de Windows” en la página 20.
Instalación del iniciador iSCSI de Microsoft
Lance la subaplicación del iniciador iSCSI de Microsoft. La primera vez que se
lanza, el sistema avisa del inicio del servicio automático. Confirme la selección
para que se lance la subaplicación.
10–Configuración iSCSI
Descarga de iSCSI en Windows Server
220 AH0054602-09 M
Configuración de Microsoft Initiator para utilizar la descarga
iSCSI de Marvell
Una vez que haya configurado la dirección IP para el adaptador iSCSI, debe
utilizar Microsoft Initiator para configurar y agregar una conexión al destino iSCSI
utilizando el adaptador iSCSI de Marvell FastLinQ. Para obtener más detalles
sobre Microsoft Initiator, consulte la guía del usuario de Microsoft.
Para configurar Microsoft Initiator:
1. Abra Microsoft Initiator.
2. Para configurar el nombre IQN del iniciador de acuerdo con su
configuración, siga los siguientes pasos:
a. En iSCSI Initiator Properties (Propiedades del iniciador iSCSI), haga
clic en la pestaña Configuration (Configuración).
b. En la página Configuration (Configuración) (Ilustración 10-1), haga clic
en Change (Cambiar) junto a To modify the initiator name (Para
modificar el nombre del iniciador).
Ilustración 10-1. iSCSI Initiator Properties (Propiedades del iniciador iSCSI),
página Configuration (Configuración)
10–Configuración iSCSI
Descarga de iSCSI en Windows Server
221 AH0054602-09 M
c. En el cuadro de diálogo iSCSI Initiator Name (Nombre del iniciador
iSCSI) escriba el nuevo nombre IQN del iniciador y, a continuación,
haga clic en OK (Aceptar). (Ilustración 10-2)
Ilustración 10-2. Cambio del nombre del nodo del iniciador iSCSI
3. En iSCSI Initiator Properties (Propiedades del iniciador iSCSI), haga clic en
la pestaña Discovery (Detección).
10–Configuración iSCSI
Descarga de iSCSI en Windows Server
222 AH0054602-09 M
4. En la página Discovery (Detección) (Ilustración 10-3), en Target portals
(Portales de destino), haga clic en Discover Portal (Portal de detección).
Ilustración 10-3. Iniciador iSCSI: Detección del portal de destino
5. En el cuadro de diálogo Discover Target Portal (Detectar portal de destino)
(Ilustración 10-4):
a. En el cuadro IP address or DNS name (Dirección IP o nombre del
DNS), escriba la dirección IP del destino.
b. Haga clic en Advanced (Avanzado).
10–Configuración iSCSI
Descarga de iSCSI en Windows Server
223 AH0054602-09 M
Ilustración 10-4. Dirección IP del portal de destino
6. En el cuadro de diálogo Advanced Settings (Configuración avanzada)
(Ilustración 10-5), complete los siguientes valores en Connect using
(Conectar mediante):
a. En Local adapter (Adaptador local), seleccione QLogic <name or
model> Adapter (Adaptador <nombre o modelo> QLogic.
b. En Initiator IP (IP del iniciador), seleccione la dirección IP del
adaptador.
c. Haga clic en OK (Aceptar).
10–Configuración iSCSI
Descarga de iSCSI en Windows Server
224 AH0054602-09 M
Ilustración 10-5. Selección de la dirección IP del iniciador
7. En la página iSCSI Initiator Properties, Discovery (Propiedades del iniciador
iSCSI, Detectar), haga clic en OK (Aceptar).
10–Configuración iSCSI
Descarga de iSCSI en Windows Server
225 AH0054602-09 M
8. Haga clic en la pestaña Targets (Destinos) y, a continuación, en la página
Targets (Destinos) (Ilustración 10-6), haga clic en Connect (Conectar).
Ilustración 10-6. Conexión al destino iSCSI
10–Configuración iSCSI
Descarga de iSCSI en Windows Server
226 AH0054602-09 M
9. En el cuadro de diálogo Connect To Target (Conectar al destino)
(Ilustración 10-7), haga clic en Advanced (Avanzado).
Ilustración 10-7. Cuadro de diálogo Connect To Target (Conectar al destino)
10. En el cuadro de diálogo Local Adapter (Adaptador local), seleccione QLogic
<name or model> Adapter (Adaptador <nombre o modelo> QLogic) y, a
continuación, haga clic en OK (Aceptar).
11. Haga clic en OK (Aceptar) otra vez para cerrar Microsoft Initiator.
10–Configuración iSCSI
Descarga de iSCSI en Windows Server
227 AH0054602-09 M
12. Para formatear la partición de iSCSI, utilice el administrador de discos.
Preguntas más frecuentes sobre la descarga iSCSI
Estas son algunas de las preguntas más frecuentes sobre la descarga iSCSI:
Pregunta: ¿Cómo asigno una dirección IP para una descarga de iSCSI?
Respuesta: Utilice la página Configurations (Configuraciones) de la GUI de
QConvergeConsole.
Pregunta: ¿Qué herramientas debo utilizar para crear la conexión con el
destino?
Respuesta: Utilice el Initiator Software de Microsoft iSCSI (versión 2.08 o
posterior).
Pregunta: ¿Cómo sé si la conexión se descargó?
Respuesta: Utilice el Initiator Software de Microsoft iSCSI. Desde una línea de
comando, escriba
oiscsicli sessionlist. En Initiator Name
(Nombre del iniciador), una conexión iSCSI descargada mostrará
una entrada que empieza por
B06BDRV. Una conexión no
descargada muestra una entrada que empieza por
Root.
NOTA
Estas son algunas de las limitaciones de la funcionalidad de equipos:
Los equipos no son compatibles con adaptadores iSCSI.
Los equipos no son compatibles con adaptadores NDIS que se
encuentran en la ruta de inicio.
Los equipos admiten adaptadores NDIS que no se encuentran en
la ruta de inicio iSCSI, pero solo para el tipo de equipo NIC
dependiente del conmutador.
Los equipos dependientes del conmutador (IEEE 802.3ad LACP y
Agregación de enlaces genéricos/estáticos [troncales] no pueden
utilizar un adaptador virtual particionado independiente del
conmutador. Los estándares IEEE requieren que el modo de
equipos dependientes del conmutador (IEEE 802.3ad LACP y
agregación de enlaces genéricos/estáticos [troncales] funcionen
según todo el puerto en lugar de solo según la granularidad de
dirección MAC (fracción de un puerto).
Microsoft recomienda utilizar su servicio de equipos NIC de
sistema operativo de entrada en lugar de otro controlador de
equipos NIC propiedad del proveedor del adaptador en Windows
Server 2012 y posteriores.
10–Configuración iSCSI
Descarga de iSCSI en Windows Server
228 AH0054602-09 M
Pregunta: ¿Qué configuraciones deben evitarse?
Respuesta: La dirección IP no debe ser igual a la de LAN.
Instalación de inicio iSCSI para Windows 2012 R2, 2016 y
2019
Es posible iniciar o instalar Windows Server 2012 R2, Windows Server 2016 y
Windows Server 2019 tanto en las rutas de acceso de descarga como en las de
no descarga. Marvell requiere que utilice un DVD integrado que tenga inyectados
los controladores de Marvell más recientes. Consulte “Inyección (Integración de
la solución) de los controladores del adaptador en los archivos de imagen de
Windows” en la página 136.
El siguiente procedimiento prepara la imagen para la instalación e inicio en las
rutas de descarga y de no descarga.
Para configurar el inicio iSCSI en Windows Server 2012 R2/2016/2019:
1. Retire los discos duros locales en el sistema que se iniciará (sistema
remoto).
2. Prepare el soporte de instalación del sistema operativo Windows siguiendo
los pasos de integración de la solución que se describen en “Inyección
(Integración de la solución) de los controladores del adaptador en los
archivos de imagen de Windows” en la página 136.
3. Cargue las imágenes de inicio iSCSI de Marvell más recientes en NVRAM
del adaptador.
4. Configure el destino iSCSI para permitir una conexión desde el dispositivo
remoto. Asegúrese de que el destino tenga suficiente espacio en el disco
para almacenar la instalación del nuevo sistema operativo.
5. Configure UEFI HII para establecer el tipo de inicio iSCSI (de descarga o de
no descarga), el iniciador correcto y los parámetros de destino para el inicio
iSCSI.
6. Guarde la configuración y reinicie el sistema. El sistema remoto debe
conectarse al destino iSCSI y, a continuación, iniciarse desde el dispositivo
DVD-ROM.
7. Inicie el DVDy comience la instalación.
8. Siga las instrucciones que aparecen en la pantalla.
El disco de destino iSCSI debería aparecer en la ventana que muestra la
lista de discos disponibles para la instalación. Este destino es un disco
conectado a través del protocolo de inicio iSCSI y está ubicado en el destino
iSCSI remoto.
10–Configuración iSCSI
Descarga de iSCSI en entornos Linux
229 AH0054602-09 M
9. Para realizar la instalación de Windows Server 2012 R2/2016, haga clic en
Next (Siguiente), y siga las instrucciones en pantalla. El servidor se
reiniciará varias veces como parte del proceso de instalación.
10. Después de que el servidor se inicie en el sistema operativo, se recomienda
ejecutar el instalador del controlador para completar la instalación de la
aplicación y los controladores Marvell.
Volcado para caída del sistema iSCSI
La funcionalidad de volcado para caída del sistema se admite tanto en inicio
iSCSI de descarga como de no descarga para los Adaptadores de la serie 41xxx.
No se requieren configuraciones adicionales para configurar la generación del
volcado para caída del sistema de iSCSI.
Descarga de iSCSI en entornos Linux
El software iSCSI del 41xxx Marvell FastLinQ consiste en un solo módulo de
kernel llamado
qedi.ko (qedi). El módulo qedi depende de otras partes del
kernel de Linux para algunas funcionalidades concretas:
qed.ko es el módulo de kernel eCore de Linux que se utiliza en las rutinas
de inicialización de hardware habituales de 41xxx Marvell FastLinQ.
scsi_transport_iscsi.ko es la biblioteca de transporte para iSCSI de
Linux que se utiliza para realizar llamadas ascendentes y descendentes en
la administración de sesiones.
libiscsi.ko es la función de biblioteca para iSCSI de Linux necesaria
para la Unidad de datos de protocolo (PDU) y el procesamiento de tareas,
así como para la administración de memoria en las sesiones.
iscsi_boot_sysfs.ko es la interfaz de sysfs para iSCSI de Linux que
proporciona asistentes para exportar la información de inicio de iSCSI.
uio.ko es la interfaz Userspace I/O de Linux, que se utiliza para la
asignación de memoria L2 reducida para iscsiuio.
Para que qedi sea funcional, es necesario cargar antes dichos módulos. Si no se
hace, es posible que tenga un error “unresolved symbol” (símbolo sin resolver). Si
el módulo qedi se instala en la ruta de acceso de distribución, modprobe carga
automáticamente los requisitos.
Esta sección proporciona la siguiente información sobre la descarga iSCSI en
Linux:
Diferencias con bnx2i
Configuración de qedi.ko
Comprobación de interfaces iSCSI en Linux
10–Configuración iSCSI
Descarga de iSCSI en entornos Linux
230 AH0054602-09 M
Diferencias con bnx2i
Hay algunas diferencias fundamentales entre qedi, el controlador del Adaptador
de la serie 41xxx Marvell FastLinQ (iSCSI), y bnx2i, el anterior controlador de
descarga iSCSI de Marvell para los adaptadores de la serie 8400 de Marvell.
Estas son algunas de las diferencias:
qedi enlaza directamente con una función PCI expuesta por el CNA.
qedi no se emplaza sobre el net_device.
qedi no depende de un controlador de red como bnx2x y cnic.
qedi no depende de cnic, sino de qed.
qedi se encarga de exportar la información de inicio en sysfs utilizando
iscsi_boot_sysfs.ko
, mientras que el inicio de bnx2i desde SAN
depende del módulo
iscsi_ibft.ko para exportar la información de inicio.
Configuración de qedi.ko
El controlador qedi enlaza automáticamente con las funciones iSCSI expuestas
del CNA y la detección y los enlaces del destino se realizan mediante las
herramientas Open-iSCSI. Esta funcionalidad y operación se parece a las del
controlador bnx2i.
Para cargar el módulo kernel
qedi.ko, emita los siguientes comandos:
# modprobe qed
# modprobe libiscsi
# modprobe uio
# modprobe iscsi_boot_sysfs
# modprobe qedi
Comprobación de interfaces iSCSI en Linux
Después de instalar y cargar el módulo kernel qedi, debe comprobar si las
interfaces iSCSI se han detectado correctamente.
Para comprobar interfaces iSCSI en Linux:
1. Para comprobar si quedi y los módulos kernel asociados se han cargado
activamente, emita el siguiente comando:
# lsmod | grep qedi
qedi 114578 2
qed 697989 1 qedi
uio 19259 4 cnic,qedi
libiscsi 57233 2 qedi,bnx2i
scsi_transport_iscsi 99909 5 qedi,bnx2i,libiscsi
10–Configuración iSCSI
Descarga de iSCSI en entornos Linux
231 AH0054602-09 M
iscsi_boot_sysfs 16000 1 qedi
2. Para comprobar si las interfaces iSCSI se han detectado correctamente,
emita el siguiente comando. En este ejemplo, se detectan dos dispositivos
CNA iSCSI con los números de host SCSI 4 y 5.
# dmesg | grep qedi
[0000:00:00.0]:[qedi_init:3696]: QLogic iSCSI Offload Driver v8.15.6.0.
....
[0000:42:00.4]:[__qedi_probe:3563]:59: QLogic FastLinQ iSCSI Module qedi 8.15.6.0, FW 8.15.3.0
....
[0000:42:00.4]:[qedi_link_update:928]:59: Link Up event.
....
[0000:42:00.5]:[__qedi_probe:3563]:60: QLogic FastLinQ iSCSI Module qedi 8.15.6.0, FW 8.15.3.0
....
[0000:42:00.5]:[qedi_link_update:928]:59: Link Up event
3. Utilice las herramientas Open-iSCSI para comprobar si la IP está
configurada correctamente. Emita el siguiente comando:
# iscsiadm -m iface | grep qedi
qedi.00:0e:1e:c4:e1:6d
qedi,00:0e:1e:c4:e1:6d,192.168.101.227,<empty>,iqn.1994-05.com.redhat:534ca9b6adf
qedi.00:0e:1e:c4:e1:6c
qedi,00:0e:1e:c4:e1:6c,192.168.25.91,<empty>,iqn.1994-05.com.redhat:534ca9b6adf
4. Para asegurarse de que el servicio iscsiuio se esté ejecutando, emita el
siguiente comando:
# systemctl status iscsiuio.service
iscsiuio.service - iSCSI UserSpace I/O driver
Loaded: loaded (/usr/lib/systemd/system/iscsiuio.service; disabled; vendor preset: disabled)
Active: active (running) since Fri 2017-01-27 16:33:58 IST; 6 days ago
Docs: man:iscsiuio(8)
Process: 3745 ExecStart=/usr/sbin/iscsiuio (code=exited, status=0/SUCCESS)
Main PID: 3747 (iscsiuio)
CGroup: /system.slice/iscsiuio.service !--3747 /usr/sbin/iscsiuio
Jan 27 16:33:58 localhost.localdomain systemd[1]: Starting iSCSI
UserSpace I/O driver...
Jan 27 16:33:58 localhost.localdomain systemd[1]: Started iSCSI UserSpace I/O driver.
5. Para saber cuál es el destino iSCSI, emita el comando iscsiadm:
#iscsiadm -m discovery -t st -p 192.168.25.100 -I qedi.00:0e:1e:c4:e1:6c
192.168.25.100:3260,1 iqn.2003-
04.com.sanblaze:virtualun.virtualun.target-05000007
10–Configuración iSCSI
Descarga de iSCSI en entornos Linux
232 AH0054602-09 M
192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000012
192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-0500000c
192.168.25.100:3260,1 iqn.2003-
04.com.sanblaze:virtualun.virtualun.target-05000001
192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000002
6. Inicie sesión en el destino iSCSI mediante the IQN obtenido en el paso 5.
Para iniciar el procedimiento de inicio de sesión, emita el comando siguiente
(donde el último carácter en el comando es una letra “L” minúscula):
#iscsiadm -m node -p 192.168.25.100 -T
iqn.2003-04.com.sanblaze:virtualun.virtualun.target-0000007 -l
Logging in to [iface: qedi.00:0e:1e:c4:e1:6c,
target:iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000007, portal:192.168.25.100,3260]
(multiple)
Login to [iface: qedi.00:0e:1e:c4:e1:6c, target:iqn.2003-
04.com.sanblaze:virtualun.virtualun.target-05000007, portal:192.168.25.100,3260] successful.
7. Para comprobar si la sesión iSCSI se ha creado, emita el siguiente
comando:
# iscsiadm -m session
qedi: [297] 192.168.25.100:3260,1
iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000007 (non-flash)
8. Para comprobar los dispositivos iSCSI, emita el comando iscsiadm:
# iscsiadm -m session -P3
...
************************
Attached SCSI devices:
************************
Host Number: 59 State: running
scsi59 Channel 00 Id 0 Lun: 0
Attached scsi disk sdb State: running scsi59 Channel 00 Id 0 Lun: 1
Attached scsi disk sdc State: running scsi59 Channel 00 Id 0 Lun: 2
Attached scsi disk sdd State: running scsi59 Channel 00 Id 0 Lun: 3
Attached scsi disk sde State: running scsi59 Channel 00 Id 0 Lun: 4
Attached scsi disk sdf State: running
Para obtener información sobre configuraciones de destino avanzadas, consulte
el archivo README de Open-iSCSI en:
https://github.com/open-iscsi/open-iscsi/blob/master/README
233 AH0054602-09 M
11 Configuración FCoE
Este capítulo ofrece la siguiente información sobre la configuración de Fibre
Channel a través de Ethernet (FCoE):
“Configuración de la descarga FCoE de Linux” en la página 233
Para la información de inicio FCoE desde SAN, consulte Capítulo 6 Configuración
del inicio desde SAN:
Configuración de la descarga FCoE de Linux
El software FCoE del Adaptador de la serie 41xxx Marvell FastLinQ consiste en
un solo módulo de kernel llamado qedf.ko (qedf). El módulo qedf depende de
otras partes del kernel de Linux para algunas funcionalidades concretas:
qed.ko
es el módulo de kernel eCore de Linux que se utiliza en las rutinas
de inicialización de hardware habituales de 41xxx Marvell FastLinQ.
libfcoe.ko
es la biblioteca del kernel FCoE de Linux necesaria para
realizar la petición de reenviador FCoE (FCF) y el inicio de sesión de
estructura (FLOGI) del protocolo de inicialización FCoE (FIP).
libfc.ko
es la biblioteca del kernel FC de Linux necesaria para algunas
funciones como:
Registro e inicio de sesión del servidor de nombres
Administración de sesión vrport
NOTA
La descarga FCoE se admite en todos los Adaptadores de la serie 41xxx.
Es posible que algunas características de FCoE no se puedan activar
completamente en esta versión. Para obtener información detallada,
consulte Apéndice D Limitaciones de las características.
Para habilitar el modo de descarga de iSCSI, consulte Application Note,
Enabling Storage Offloads on Dell and Marvell FastLinQ 41000 Series
Adapters en https://www.marvell.com/documents/5aa5otcbkr0im3ynera3/
.
11–Configuración FCoE
Configuración de la descarga FCoE de Linux
234 AH0054602-09 M
scsi_transport_fc.ko es la biblioteca de transporte para FC SCSI de
Linux que se utiliza para administrar el puerto remoto y el destino SCSI.
Para que qedf sea funcional, es necesario cargar antes dichos módulos, de lo
contrario es posible que se obtengan errores como “unresolved symbol” (símbolo
sin resolver). Si el módulo qedf se instala en la ruta de acceso de actualización de
distribución, modprobe carga automáticamente los módulos requeridos.
Adaptadores de la serie 41xxx Marvell FastLinQ admiten la descarga FCoE.
Esta sección proporciona la siguiente información sobre la descarga FCoE en
Linux:
Diferencias entre qedf y bnx2fc
Configuración de qedf.ko
Comprobación de dispositivos FCoE en Linux
Diferencias entre qedf y bnx2fc
Existen unas diferencias considerables entre qedf, el controlador de 10/25 GbE
41xxx Marvell FastLinQ (FCoE), y bnx2fc, el anterior controlador de descarga
FCoE de Marvell. Estas son algunas de las diferencias:
qedf enlaza directamente con una función PCI expuesta por el CNA.
qedf no necesita las herramientas del espacio de usuario open-fcoe (fipvlan,
fcoemon, fcoeadm) para empezar a detectar.
qedf emite peticiones vLAN FIP directamente y no necesita la utilidad
fipvlan.
qedf no necesita una interfaz FCoE creada por fipvlan para fcoemon.
qedf no se emplaza sobre el net_device.
qedf no depende de controladores de red (como bnx2x y cnic).
qedf iniciará automáticamente la detección de FCoE al conectar (porque no
depende de fipvlan ni de fcoemon para crear la interfaz FCoE).
NOTA
Las interfaces FCoE ya no se encuentran sobre la interfaz de red. El
controlador qedf crea automáticamente interfaces FCoE que son
independientes de la interfaz de red. Por lo tanto, las interfaces FCoE no se
muestran en el cuadro de diálogo de la interfaz FCoE del instalador. En su
lugar, los discos se muestran automáticamente como discos SCSI, igual
que la forma en que trabajan los controladores Fibre Channel.
11–Configuración FCoE
Configuración de la descarga FCoE de Linux
235 AH0054602-09 M
Configuración de qedf.ko
No es necesario realizar una configuración explícitamente para qedf.ko. El
controlador enlaza automáticamente con las funciones FCoE expuestas del CNA
y empieza a detectar. Esta funcionalidad se parece a la funcionalidad y al
funcionamiento del controlador FC de Marvell, qla2xx, al contrario de lo que
sucedía con el antiguo controlador bnx2fc.
El módulo kernel qedf.ko cargado hace lo siguiente:
# modprobe qed
# modprobe libfcoe
# modprobe qedf
Comprobación de dispositivos FCoE en Linux
Realice estos pasos para comprobar si los dispositivos FCoE se han detectado
correctamente después de instalar y cargar el módulo kernel qedf.
Para comprobar dispositivos FCoE en Linux:
1. Compruebe lsmod para comprobar si qedf y los módulos kernel asociados
se han cargado:
# lsmod | grep qedf
69632 1 qedf libfc
143360 2 qedf,libfcoe scsi_transport_fc
65536 2 qedf,libfc qed
806912 1 qedf scsi_mod
262144 14 sg,hpsa,qedf,scsi_dh_alua,scsi_dh_rdac,dm_multipath,
scsi_transport_fc,scsi_transport_sas,libfc,scsi_transport_iscsi,scsi_dh_emc,
libata,sd_mod,sr_mod
2. Compruebe dmesg para comprobar si los dispositivos FCoE se han
detectado correctamente. En este ejemplo, los dos dispositivos CNA FCoE
detectados son los números de host SCSI 4 y 5.
# dmesg | grep qedf
[ 235.321185] [0000:00:00.0]: [qedf_init:3728]: QLogic FCoE Offload Driver
v8.18.8.0.
....
NOTA
Para obtener más información sobre la instalación del controlador FastLinQ,
consulte el Capítulo 3 Instalación del controlador.
11–Configuración FCoE
Configuración de la descarga FCoE de Linux
236 AH0054602-09 M
[ 235.322253] [0000:21:00.2]: [__qedf_probe:3142]:4: QLogic FastLinQ FCoE
Module qedf 8.18.8.0, FW 8.18.10.0
[ 235.606443] scsi host4: qedf
....
[ 235.624337] [0000:21:00.3]: [__qedf_probe:3142]:5: QLogic FastLinQ FCoE
Module qedf 8.18.8.0, FW 8.18.10.0
[ 235.886681] scsi host5: qedf
....
[ 243.991851] [0000:21:00.3]: [qedf_link_update:489]:5: LINK UP (40 GB/s).
3. Compruebe los dispositivos FCoE detectados mediante los comandos
lsscsi
o lsblk -S. A continuación, un ejemplo de cada comando.
# lsscsi
[0:2:0:0] disk DELL PERC H700 2.10 /dev/sda
[2:0:0:0] cd/dvd TEAC DVD-ROM DV-28SW R.2A /dev/sr0
[151:0:0:0] disk HP P2000G3 FC/iSCSI T252 /dev/sdb
[151:0:0:1] disk HP P2000G3 FC/iSCSI T252 /dev/sdc
[151:0:0:2] disk HP P2000G3 FC/iSCSI T252 /dev/sdd
[151:0:0:3] disk HP P2000G3 FC/iSCSI T252 /dev/sde
[151:0:0:4] disk HP P2000G3 FC/iSCSI T252 /dev/sdf
# lsblk -S
NAME HCTL TYPE VENDOR MODEL REV TRAN
sdb 5:0:0:0 disk SANBlaze VLUN P2T1L0 V7.3 fc
sdc 5:0:0:1 disk SANBlaze VLUN P2T1L1 V7.3 fc
sdd 5:0:0:2 disk SANBlaze VLUN P2T1L2 V7.3 fc
sde 5:0:0:3 disk SANBlaze VLUN P2T1L3 V7.3 fc
sdf 5:0:0:4 disk SANBlaze VLUN P2T1L4 V7.3 fc
sdg 5:0:0:5 disk SANBlaze VLUN P2T1L5 V7.3 fc
sdh 5:0:0:6 disk SANBlaze VLUN P2T1L6 V7.3 fc
sdi 5:0:0:7 disk SANBlaze VLUN P2T1L7 V7.3 fc
sdj 5:0:0:8 disk SANBlaze VLUN P2T1L8 V7.3 fc
sdk 5:0:0:9 disk SANBlaze VLUN P2T1L9 V7.3 fc
La información de configuración del host está ubicada en
/sys/class/fc_host/hostX,
donde X es el número del host SCSI. En el
ejemplo anterior,
X es 4. El archivo hostX contiene atributos de la función
FCoE, como el nombre de puerto mundial y el Id. de estructura.
237 AH0054602-09 M
12 Configuración de SR-IOV
La virtualización de entrada/salida de raíz única (SR-IOV) es una especificación
de PCI SIG que permite que un único dispositivo PCI Express (PCIe) aparezca
como varios dispositivos PCI físicos distintos. La SR-IOV permite aislar los
recursos de PCI para obtener rendimiento, interoperabilidad y capacidad de
administración.
En este capítulo se proporcionan instrucciones para:
Configuración de SR-IOV en Windows
“Configuración de SR-IOV en Linux” en la página 245
“Configuración de SR-IOV en VMware” en la página 252
Configuración de SR-IOV en Windows
Para configurar SR-IOV en Windows:
1. Acceda a BIOS System Setup (Configuración del sistema BIOS) del
servidor y haga clic en System BIOS Settings (Configuración del BIOS del
sistema).
2. En la página System BIOS Settings (Configuración del BIOS del sistema),
haga clic en Integrated Devices (Dispositivos integrados).
3. En la página Integrated Devices (Dispositivos integrados) (Ilustración 12-1):
a. Establezca la opción SR-IOV Global Enable (Activación global de
SR-IOV) en Enabled (Activado).
b. Haga clic en Back (Atrás).
NOTA
Es posible que algunas características de SR-IOV no se puedan activar
completamente en esta versión.
12–Configuración de SR-IOV
Configuración de SR-IOV en Windows
238 AH0054602-09 M
Ilustración 12-1. System Setup for SR-IOV: Integrated Devices (Configuración del
sistema para SR-IOV: Dispositivos integrados)
4. En la Main Configuration Page (Página de configuración principal) del
adaptador seleccionado, haga clic en Device Level Configuration
(Configuración de nivel de dispositivo).
5. En la Main Configuration Page > Device Level Configuration (Página de
configuración principal > Configuración de nivel de dispositivo)
(Ilustración 12-2):
a. Establezca Virtualization Mode (Modo de virtualización) en SR-IOV o
NPAR+SR-IOV si está utilizando el modo NPAR.
b. Haga clic en Back (Atrás).
Ilustración 12-2. System Setup for SR-IOV: Device Level Configuration
(Configuración del sistema para SR-IOV: Configuración de nivel de dispositivo)
12–Configuración de SR-IOV
Configuración de SR-IOV en Windows
239 AH0054602-09 M
6. En la Main Configuration Page (Página de configuración principal), haga clic
en Finish (Finalizar).
7. En el cuadro de mensaje Warning - Saving Changes (Advertencia - Guardar
cambios) haga clic en Yes (Sí) para guardar la configuración.
8. En el cuadro de mensaje Success - Saving Changes (Correcto - Guardar
cambios) haga clic en OK (Aceptar).
9. Para activar SR-IOV en el adaptador del minipuerto:
a. Acceda al Administrador de dispositivos.
b. Abra las propiedades del adaptador del minipuerto y, a continuación,
haga clic en la pestaña Advanced (Avanzado).
c. En la página Advanced Properties (Propiedades avanzadas)
(Ilustración 12-3) en Property (Propiedad), seleccione SR-IOV y
después establezca el valor en Enabled (Activado).
d. Haga clic en OK (Aceptar).
Ilustración 12-3. Propiedades del adaptador, Advanced (Avanzado): Activar
SR-IOV
12–Configuración de SR-IOV
Configuración de SR-IOV en Windows
240 AH0054602-09 M
10. Para crear un conmutador de máquina virtual (vSwitch) con SR-IOV
(Ilustración 12-4 en la página 241):
a. Inicie el Hyper-V Manager.
b. Seleccione Virtual Switch Manager (Administrador de conmutadores
virtuales).
c. En el cuadro Name (Nombre) escriba un nombre para el conmutador
virtual.
d. En Connection type (Tipo de conexión), seleccione External
network (Red externa).
e. Seleccione la casilla de verificación Enable single-root I/O
virtualization (SR-IOV) (Activar virtualización de E/S de raíz única
[SR-IOV]) y después haga clic en Apply (Aplicar).
NOTA
Asegúrese de activar SR-IOV cuando cree el conmutador virtual.
Esta opción no está disponible una vez creado el conmutador
virtual.
12–Configuración de SR-IOV
Configuración de SR-IOV en Windows
241 AH0054602-09 M
Ilustración 12-4. Administrador de conmutadores virtuales: Activar SR-IOV
f. El cuadro de mensaje Apply Networking Changes (Aplicar cambios
red) le advierte de que Pending changes may disrupt network
connectivity (Los cambios pendientes pueden interrumpir la
conectividad de la red). Para guardar los cambios y continuar, haga
clic en Yes (Sí).
12–Configuración de SR-IOV
Configuración de SR-IOV en Windows
242 AH0054602-09 M
11. Para obtener la capacidad de conmutador de la máquina virtual, emita el
siguiente comando en Windows PowerShell:
PS C:\Users\Administrator> Get-VMSwitch -Name SR-IOV_vSwitch | fl
La salida del comando Get-VMSwitch incluye las siguientes capacidades
SR-IOV:
IovVirtualFunctionCount : 80
IovVirtualFunctionsInUse : 1
12. Para crear una máquina virtual (VM) y exportar la función virtual (VF) a la
VM:
a. Cree una máquina virtual.
b. Agregue el VMNetworkadapter a la máquina virtual.
c. Asigne un conmutador virtual al VMNetworkadapter.
d. En el cuadro de diálogo Settings for VM <VM_Name> (Configuración
de VM <Nombre_MB>) (Ilustración 12-5), en la página Hardware
Acceleration (Aceleración hardware), en Single-root I/O
virtualization (Virtualización de E/S de raíz única), seleccione la
casilla de verificación Enable SR-IOV (Activar SR-IOV) y, finalmente,
haga clic en OK (Aceptar).
NOTA
Tras crear la conexión virtual con el adaptador, la configuración
SR-IOV puede activarse o desactivarse en cualquier momento
(incluso mientras el tráfico está en ejecución).
12–Configuración de SR-IOV
Configuración de SR-IOV en Windows
243 AH0054602-09 M
Ilustración 12-5. Configuración de VM: Activar SR-IOV
13. Instale los controladores Marvell para los adaptadores detectados en la VM.
Utilice los controladores más actualizados disponibles de su vendedor para
el SO del host (no utilice controladores integrados).
NOTA
Asegúrese de utilizar el mismo paquete de controladores en ambas
VM y en el sistema host. Por ejemplo, utilice la misma versión del
controlador qeVBD y qeND en la VM de Windows y en el host Hyper-V
de Windows.
12–Configuración de SR-IOV
Configuración de SR-IOV en Windows
244 AH0054602-09 M
Una vez que se han instalado los controladores, el adaptador aparece en la
VM. La Ilustración 12-6 muestra un ejemplo.
Ilustración 12-6. Administrador de dispositivos: Máquina virtual con adaptador
QLogic
14. Para ver los detalles de la función virtual (VF) de SR-IOV, emita el siguiente
comando en Windows PowerShell:
PS C:\Users\Administrator> Get-NetadapterSriovVf
La Ilustración 12-7 muestra una salida de ejemplo.
Ilustración 12-7. Comando Windows PowerShell: Get-NetadapterSriovVf
12–Configuración de SR-IOV
Configuración de SR-IOV en Linux
245 AH0054602-09 M
Configuración de SR-IOV en Linux
Para configurar SR-IOV en Linux:
1. Acceda a BIOS System Setup (Configuración del sistema BIOS) del servidor
y haga clic en
System BIOS Settings
(Configuración del BIOS del sistema).
2. En la página System BIOS Settings (Configuración del BIOS del sistema),
haga clic en Integrated Devices (Dispositivos integrados).
3. En la página Integrated Devices (Dispositivos integrados) (véase la
Ilustración 12-1 en la página 238):
a. Establezca la opción SR-IOV Global Enable (Activación global de
SR-IOV) en Enabled (Activado).
b. Haga clic en Back (Atrás).
4. En la página System BIOS Settings (Configuración del BIOS del sistema),
haga clic en Processor Settings (Configuración del procesador).
5. En la página Processor Settings (Configuración del procesador)
(Ilustración 12-8):
a. Establezca la opción Virtualization Technology (Tecnología de
virtualización) en Enabled (Activado).
b. Haga clic en Back (Atrás).
12–Configuración de SR-IOV
Configuración de SR-IOV en Linux
246 AH0054602-09 M
Ilustración 12-8. System Setup: processor Settings for SR-IOV (Configuración del
sistema: Configuración del procesador para SR-IOV)
6. En la página System Setup (Configuración del sistema), seleccione Device
Settings (Configuración del dispositivo).
7. En la página Device Settings (Configuración del dispositivo), seleccione
Port 1 (Puerto 1) para el adaptador Marvell.
12–Configuración de SR-IOV
Configuración de SR-IOV en Linux
247 AH0054602-09 M
8. En la página Device Level Configuration (Configuración de nivel de
dispositivo) (Ilustración 12-9):
a. Establezca Virtualization Mode (Modo de virtualización) en SR-IOV.
b. Haga clic en Back (Atrás).
Ilustración 12-9. System Setup for SR-IOV: Integrated Devices (Configuración del
sistema para SR-IOV: Dispositivos integrados)
9. En la Main Configuration Page (Página de configuración principal), haga clic
en Finish (Finalizar) para guardar sus parámetros y, a continuación, reinicie
el sistema.
10. Para activar y comprobar la virtualización:
a. Abra el archivo
grub.conf y configure el parámetro iommu tal como
se muestra en la Ilustración 12-10. (Para obtener detalles, consulte
“Activación de IOMMU para SR-IOV en instalaciones del sistema
operativo Linux basadas en UEFI” en la página 251).
Para sistemas basados en Intel, agregue
intel_iommu=on.
Para sistemas basados en AMD, agregue
amd_iommu=on.
12–Configuración de SR-IOV
Configuración de SR-IOV en Linux
248 AH0054602-09 M
Ilustración 12-10. Edición del archivo grub.conf para SR-IOV
b. Guarde el archivo grub.conf y reinicie el sistema.
c. Para comprobar si los cambios se han aplicado, emita el siguiente
comando:
dmesg | grep -i iommu
Un ejemplo de salida de comando correcta de la unidad de
administración de memoria de E/S (IOMMU) sería:
Intel-IOMMU: enabled
d. Para ver los detalles de la VF (número de VF y total de VF), emita el
comando siguiente:
find /sys/|grep -i sriov
11. Para un puerto específico, active una cantidad de VF.
a. Emita el siguiente comando para activar, por ejemplo, 8 VF en la
instancia PCI 04:00.0 (bus 4, dispositivo 0, función 0):
[root@ah-rh68 ~]# echo 8 >
/sys/devices/pci0000:00/0000:00:02.0/0000:04:00.0/
sriov_numvfs
12–Configuración de SR-IOV
Configuración de SR-IOV en Linux
249 AH0054602-09 M
b. Revise la salida del comando (Ilustración 12-11) para confirmar que el
VF actual se creó en bus 4, dispositivo 2 (del parámetro
0000:00:02.0), funciones 0 a través de 7. Tenga en cuenta que la Id.
de dispositivo actual es diferente en los PF (8070 en este ejemplo) y
las VF (8090 en este ejemplo).
Ilustración 12-11. Salida de comando de sriov_numvfs
12. Para ver una lista de todas las interfaces PF y VF, emita el siguiente
comando:
# ip link show | grep -i vf -b2
La Ilustración 12-12 muestra una salida de ejemplo.
Ilustración 12-12. Salida de comando del comando ip link show
12–Configuración de SR-IOV
Configuración de SR-IOV en Linux
250 AH0054602-09 M
13. Asigne y compruebe las direcciones MAC:
a. Para asignar una dirección MAC a VF, emita el siguiente comando:
ip link set <pf device> vf <vf index> mac <mac address>
b. Asegúrese de que la interfaz VF esté activa y en funcionamiento con
la dirección MAC asignada.
14. Apague la VM y conecte la VF. (Algunos sistemas operativos admiten la
conexión directa de funciones virtuales en la máquina virtual.)
a. En el cuadro de diálogo de la máquina virtual (Ilustración 12-13), haga
clic en Add Hardware (Agregar hardware).
Ilustración 12-13. RHEL68 Virtual Machine (Máquina virtual RHELs68)
b. En el panel izquierdo del cuadro de diálogo Add New Virtual Hardware
(Agregar nuevo hardware virtual) (Ilustración 12-14), haga clic en PCI
Host Device (Dispositivo host PCI).
c. En el panel derecho, seleccione un dispositivo host.
d. Haga clic en Finish (Finalizar).
12–Configuración de SR-IOV
Configuración de SR-IOV en Linux
251 AH0054602-09 M
Ilustración 12-14. Add New Virtual Hardware (Agregar nuevo hardware virtual)
15. Encienda la VM y emita el siguiente comando:
check lspci -vv|grep -I ether
16. Instale los controladores para los adaptadores detectados en la VM. Utilice
los controladores más actualizados disponibles de su vendedor para el SO
del host (no utilice controladores integrados). La misma versión del
controlador debe estar instalada en el host y el VM.
17. Agregue más VF a la VM cuando lo necesite.
Activación de IOMMU para SR-IOV en instalaciones del
sistema operativo Linux basadas en UEFI
Siga el procedimiento adecuado para su sistema operativo Linux.
NOTA
Para sistemas AMD, reemplace intel_iommu=on por amd_iommu=on.
12–Configuración de SR-IOV
Configuración de SR-IOV en VMware
252 AH0054602-09 M
Para activar IOMMU para SR-IOV en RHEL 6.x:
En el archivo
/boot/efi/EFI/redhat/grub.conf, localice la línea de
kernel y, a continuación, anexe el parámetro de inicio
intel_iommu=on.
Para activar IOMMU para SR-IOV en RHEL 7.x y posteriores:
1. En el archivo
/etc/default/grub, localice GRUB_CMDLINE_LINUX y, a
continuación, anexe el parámetro de inicio
intel_iommu=on.
2. Para actualizar el archivo de configuración grub, emita el siguiente
comando:
grub2-mkconfig -o /boot/efi/EFI/redhat/grub.cfg
Para activar IOMMU para SR-IOV en SLES 12.x:
1. En el archivo
/etc/default/grub, localice
GRUB_CMDLINE_LINUX_DEFAULT y, a continuación, anexe el parámetro de
inicio
intel_iommu=on.
2. Para actualizar el archivo de configuración grub, emita el siguiente
comando:
grub2-mkconfig -o /boot/grub2/grub.cfg
Para activar IOMMU para SR-IOV en SLES 15.x y posteriores:
1. En el archivo
/etc/default/grub, localice
GRUB_CMDLINE_LINUX_DEFAULT y, a continuación, anexe el parámetro de
inicio
intel_iommu=on.
2. Para actualizar el archivo de configuración grub, emita el siguiente
comando:
grub2-mkconfig -o /boot/efi/EFI/sles/grub.cfg
Configuración de SR-IOV en VMware
Para configurar SR-IOV en VMware:
1. Acceda a BIOS System Setup (Configuración del sistema BIOS) del
servidor y haga clic en System BIOS Settings (Configuración del BIOS del
sistema).
2. En la página System BIOS Settings (Configuración del BIOS del sistema),
haga clic en Integrated Devices (Dispositivos integrados).
12–Configuración de SR-IOV
Configuración de SR-IOV en VMware
253 AH0054602-09 M
3. En la página Integrated Devices (Dispositivos integrados) (consulte la
Ilustración 12-1 en la página 238):
a. Establezca la opción SR-IOV Global Enable (Activación global de
SR-IOV) en Enabled (Activado).
b. Haga clic en Back (Atrás).
4. En la ventana System Setup (Configuración del sistema), haga clic en
Device Settings (Configuración del dispositivo).
5. En la página Device Settings (Configuración del dispositivo), seleccione un
puerto para el Adaptador de la serie 41xxx de 25 G.
6. En la página Device Level Configuration (Configuración de nivel de
dispositivo) (consulte la Ilustración 12-2 en la página 238):
a. Establezca Virtualization Mode (Modo de virtualización) en SR-IOV.
b. Haga clic en Back (Atrás).
7. En la Main Configuration Page (Página de configuración principal), haga clic
en Finish (Finalizar).
8. Guarde los parámetros de la configuración y reinicie el sistema.
9. Para activar la cantidad necesaria de VF por puerto (en este ejemplo, 16 en
cada puerto de un adaptador de puerto dual), emita el siguiente comando:
"esxcfg-module -s "max_vfs=16,16" qedentv"
10. Reinicie el host.
11. Para comprobar si los cambios se han aplicado completamente en el
módulo, emita el siguiente comando:
"esxcfg-module -g qedentv"
[root@localhost:~] esxcfg-module -g qedentv
qedentv enabled = 1 options = 'max_vfs=16,16'
12. Para comprobar si las VF se han creado, emita el comando lspci tal como
se muestra a continuación:
[root@localhost:~] lspci | grep -i QLogic | grep -i 'ethernet\|network' | more
0000:05:00.0 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx 10/25
GbE Ethernet Adapter [vmnic6]
0000:05:00.1 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx 10/25
GbE Ethernet Adapter [vmnic7]
NOTA
Cada función Ethernet de Adaptador de la serie 41xxx debe tener su
propia entrada.
12–Configuración de SR-IOV
Configuración de SR-IOV en VMware
254 AH0054602-09 M
0000:05:02.0 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_0]
0000:05:02.1 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_1]
0000:05:02.2 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_2]
0000:05:02.3 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_3]
.
.
.
0000:05:03.7 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_15]
0000:05:0e.0 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_0]
0000:05:0e.1 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_1]
0000:05:0e.2 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_2]
0000:05:0e.3 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_3]
.
.
.
0000:05:0f.6 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_14]
0000:05:0f.7 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series
10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_15]
13. Conecte las VF aVM del siguiente modo:
a. Apague la VM y conecte la VF. (Algunos sistemas operativos admiten
la conexión directa de funciones virtuales en la máquina virtual.)
b. Agregue un host a VMware vCenter Server Virtual Appliance (vCSA).
c. Haga clic en Edit Settings (Editar configuración) de la VM.
14. Complete el cuadro de diálogo Edit Settings (Editar configuración)
(Ilustración 12-15) como se indica a continuación:
a. En el cuadro New Device (Nuevo dispositivo), seleccione Network
(Red) y, a continuación, haga clic en Add (Agregar).
b. En Adapter Type (Tipo de adaptador), seleccione SR-IOV
Passthrough (Acceso directo SR-IOV).
c. En Physical Function (Función física), seleccione la VF de Marvell.
12–Configuración de SR-IOV
Configuración de SR-IOV en VMware
255 AH0054602-09 M
d. Para guardar los cambios realizados en la configuración y cerrar este
cuadro de diálogo, haga clic en OK (Aceptar).
Ilustración 12-15. VMware Host Edit Settings (Edición de la configuración de
host VMware)
12–Configuración de SR-IOV
Configuración de SR-IOV en VMware
256 AH0054602-09 M
15. Para validar las VF por puerto, emita el comando esxcli tal como se
muestra a continuación:
[root@localhost:~] esxcli network sriovnic vf list -n vmnic6
VF ID Active PCI Address Owner World ID
----- ------ ----------- --------------
0 true 005:02.0 60591
1 true 005:02.1 60591
2 false 005:02.2 -
3 false 005:02.3 -
4 false 005:02.4 -
5 false 005:02.5 -
6 false 005:02.6 -
7 false 005:02.7 -
8 false 005:03.0 -
9 false 005:03.1 -
10 false 005:03.2 -
11 false 005:03.3 -
12 false 005:03.4 -
13 false 005:03.5 -
14 false 005:03.6 -
15 false 005:03.7 -
16. Instale los controladores Marvell para los adaptadores detectados en la VM.
Utilice los controladores más actualizados disponibles de su vendedor para
el SO del host (no utilice controladores integrados). La misma versión del
controlador debe estar instalada en el host y el VM.
17. Encienda la VM y emita el comando
ifconfig -a para comprobar si la
interfaz de red agregada aparece en la lista.
18. Agregue más VF a la VM cuando lo necesite.
257 AH0054602-09 M
13 Configuración de NVMe-oF
con RDMA
La Non-Volatile Memory Express over Fabrics (Memoria no volátil rápida a través
de la estructura - NVMe-oF) permite utilizar transportes alternativos a PCIe para
extender la distancia a través de la cual pueda conectar un dispositivo host NVMe
y una unidad de almacenamiento NVMe o un subsistema. NVMe-oF define una
arquitectura común que admite un rango de estructura de funciones de red de
almacenamiento para el protocolo de almacenamiento en bloques NVMe a través
de la estructura de funciones de red de almacenamiento. Esta arquitectura
incluye la activación de una interfaz frontal en sistemas de almacenamiento,
escalando grandes cantidades de dispositivos NVMe y ampliando la distancia
dentro de un centro de datos a través de la cual se puede acceder a los
dispositivos NVMe y a los subsistemas NVMe.
Las opciones y procedimientos de configuración de NVMe-oF descritos en este
capítulo se aplican a protocolos RDMA basados en Ethernet, incluidos RoCE e
iWARP. El desarrollo de NVMe-oF con RDMA se define mediante un subgrupo
técnico de la organización NVMe.
En este capítulo se indica cómo configurar NVMe-oF para una red simple. En la
red de ejemplo se incluye lo siguiente:
Dos servidores: uno iniciador y otro de destino. El servidor de destino está
equipado con una unidad SSD PCIe.
Sistema operativo: RHEL 7.6 y posteriores, RHEL 8.x y posteriores,
SLES 15.x y posteriores
Dos adaptadores: Un Adaptador de la serie 41xxx instalado en cada
servidor. Cada puerto puede configurarse independientemente para utilizar
RoCE, RoCEv2 o iWARP como protocolo RDMA mediante el que se ejecuta
NVMe-oF.
Para RoCE y RoCEv2, se ha configurado un conmutador opcional para el
puente de centro de datos (DCB), la política de calidad de servicio (QoS)
relevante y las vLAN para transferir la prioridad de clase de tráfico DCB
RoCE/RoCEv2 de NVMe-oF. El conmutador no es necesario cuando
NVMe-oF utiliza iWARP.
13–Configuración de NVMe-oF con RDMA
258 AH0054602-09 M
En la Ilustración 13-1 se muestra una red de ejemplo.
Ilustración 13-1. Red NVMe-oF
El proceso de configuración de NVMe-oF cubre los procedimientos siguientes:
Instalación de los controladores de dispositivo en los dos servidores
Configuración del servidor de destino
Configuración del servidor iniciador
Preacondicionamiento del servidor de destino
Prueba de los dispositivos NVMe-oF
Optimización del rendimiento
Adaptador de la
serie 41xxx
Adaptador de la
serie 41xxx
13–Configuración de NVMe-oF con RDMA
Instalación de los controladores de dispositivo en los dos servidores
259 AH0054602-09 M
Instalación de los controladores de dispositivo
en los dos servidores
Tras la instalación del sistema operativo (SLES 12 SP3), instale los controladores
de dispositivo en los dos servidores. Para actualizar el kernel al kernel
ascendente de Linux más reciente, vaya a:
https://www.kernel.org/pub/linux/kernel/v4.x/
1. Instale y cargue los controladores FastLinQ (qed, qede, libqedr/qedr) más
recientes siguiendo todas las instrucciones de instalación del archivo
README.
2. (Opcional) Si ha actualizado el kernel de sistema operativo, debe reinstalar
y cargar el controlador más reciente de la forma siguiente:
a. Instale el firmware de FastLinQ más reciente siguiendo las
instrucciones de instalación del archivo README
b. Instale las bibliotecas y aplicaciones de soporte del RDMA de sistema
operativo emitiendo los mandatos siguientes:
# yum groupinstall "Infiniband Support"
# yum install tcl-devel libibverbs-devel libnl-devel
glib2-devel libudev-devel lsscsi perftest
# yum install gcc make git ctags ncurses ncurses-devel
openssl* openssl-devel elfutils-libelf-devel*
c. Para asegurarse de que el soporte de NVMe OFED se encuentra en el
kernel de sistema operativo seleccionado, emita el mandato siguiente:
make menuconfig
d. En Device Drivers (Controladores de dispositivo), asegúrese de que
las opciones siguientes están activadas (establézcalo en M):
NVM Express block devices
NVM Express over Fabrics RDMA host driver
NVMe Target support
NVMe over Fabrics RDMA target support
e. (Opcional) Si las opciones Device Drviers (Controladores de
dispositivo) no están ya presentes, vuelva a generar el kernel
emitiendo los comandos siguientes:
# make
# make modules
# make modules_install
# make install
13–Configuración de NVMe-oF con RDMA
Configuración del servidor de destino
260 AH0054602-09 M
f. Si se han realizado cambios en el kernel, reinicie en el nuevo kernel
de sistema operativo. Para obtener instrucciones sobre cómo
establecer el kernel de inicio predeterminado, vaya a:
https://wiki.centos.org/HowTos/Grub2
3. Active e inicie el servicio RDMA del modo siguiente.
# systemctl enable rdma.service
# systemctl start rdma.service
Ignore el error RDMA Service Failed. Todos los módulos OFED que
necesita qedr ya están cargados.
Configuración del servidor de destino
Configure el servidor de destino después del proceso de reinicio. Cuando el
servidor está en funcionamiento, no puede cambiar la configuración sin reiniciar.
Si está utilizando un script de inicio para configurar el servidor de destino,
considere pausar el script (utilizando el comando
wait o alguno similar) según
proceda para asegurar que cada comando finaliza antes de ejecutar el siguiente.
Para configurar el servicio de destino:
1. Cargue los módulos de destino. Emita los comandos siguientes después de
cada reinicio de servidor:
# modprobe qedr
# modprobe nvmet; modprobe nvmet-rdma
# lsmod | grep nvme (confirme que los módulos se han cargado)
2. Cree el nombre completo NVMe del subsistema de destino (NQN) con el
nombre indicado por
<nvme-subsystem-name>. Utilice las especificaciones
de NVMe-oF; por ejemplo,
nqn.<YEAR>-<Month>.org.<your-company>.
# mkdir /sys/kernel/config/nvmet/subsystems/<nvme-subsystem-name>
# cd /sys/kernel/config/nvmet/subsystems/<nvme-subsystem-name>
3. Cree varios NQN únicos para los dispositivos NVMe adicionales según sea
necesario.
4. Configure los parámetros de destino, tal como aparecen en la Tabla 13-1.
Tabla 13-1. Parámetros de destino
Comando Descripción
# echo 1 > attr_allow_any_host Permite que se conecte cualquier host.
# mkdir namespaces/1 Crea un espacio de nombres.
13–Configuración de NVMe-oF con RDMA
Configuración del servidor de destino
261 AH0054602-09 M
5. Cree un enlace simbólico (symlink) al subsistema NQN recién creado:
# ln -s /sys/kernel/config/nvmet/subsystems/
nvme-subsystem-name subsystems/nvme-subsystem-name
6. Confirme que el destino NVMe escucha en el puerto, como sigue:
# dmesg | grep nvmet_rdma
[ 8769.470043] nvmet_rdma: enabling port 1 (1.1.1.1:4420)
# echo -n /dev/nvme0n1 >namespaces/
1/device_path
Establece la ruta de acceso al dispositivo NVMe.
La ruta de acceso al dispositivo NVMe puede
diferir entre sistemas. Compruebe la ruta de
acceso al dispositivo mediante el comando
lsblk. Este sistema tiene dos dispositivos NVMe:
nvme0n1 y nvme1n1.
# echo 1 > namespaces/1/enable Activa el espacio de nombres.
# mkdir /sys/kernel/config/nvmet/
ports/1
# cd /sys/kernel/config/nvmet/ports/1
Crea el puerto 1 de NVMe.
# echo 1.1.1.1 > addr_traddr Establezca la misma dirección IP. Por ejemplo,
1.1.1.1 es la dirección IP para el puerto de destino
del Adaptador de la serie 41xxx.
# echo rdma > addr_trtype Establece el tipo de transporte RDMA.
# echo 4420 > addr_trsvcid Establece el número de puerto de RDMA.
Normalmente, el número de puerto del socket para
NVMe-oF es 4420. Sin embargo, se puede utilizar
cualquier número de puerto si se usa de manera
coherente durante la configuración.
# echo ipv4 > addr_adrfam Establece el tipo de dirección IP.
Tabla 13-1. Parámetros de destino (Continuación)
Comando Descripción
13–Configuración de NVMe-oF con RDMA
Configuración del servidor iniciador
262 AH0054602-09 M
Configuración del servidor iniciador
Debe configurar el servidor iniciador después del proceso de reinicio. Cuando el
servidor está en funcionamiento, no puede cambiar la configuración sin reiniciar.
Si está utilizando un script de inicio para configurar el servidor iniciador, considere
pausar el script (utilizando el comando
wait o alguno similar) según proceda
para asegurar que cada comando finaliza antes de ejecutar el siguiente.
Para configurar el servidor iniciador:
1. Cargue los módulos NVMe. Emita los comandos siguientes después de
cada reinicio de servidor:
# modprobe qedr
# modprobe nvme-rdma
2. Descargue, compile e instale la utilidad de iniciador nvme-cli. Emita estos
comandos en la primera configuración; no necesita emitir los comandos
después de cada reinicio.
# git clone https://github.com/linux-nvme/nvme-cli.git
# cd nvme-cli
# make && make install
3. Compruebe la versión de instalación de la manera siguiente:
# nvme version
4. Detecte el destino de NVMe-oF de la manera siguiente:
# nvme discover -t rdma -a 1.1.1.1 -s 1023
13–Configuración de NVMe-oF con RDMA
Configuración del servidor iniciador
263 AH0054602-09 M
Anote el NQN del subsistema (subnqn) del destino detectado
(Ilustración 13-2) para utilizarlo en el paso 5.
Ilustración 13-2. NQN del subsistema
5. Conecte con el destino NVMe-oF detectado (nvme-qlogic-tgt1) mediante
NQN. Emita el comando siguiente después de cada reinicio de servidor. Por
ejemplo:
# nvme connect -t rdma -n nvme-qlogic-tgt1 -a 1.1.1.1 -s 1023
6. Confirme la conexión del destino NVMe-oF con el dispositivo NVMe-oF de
la manera siguiente:
# dmesg | grep nvme
# lsblk
# list nvme
La Ilustración 13-3 muestra un ejemplo.
Ilustración 13-3. Confirmación de la conexión de NVMe-oF
13–Configuración de NVMe-oF con RDMA
Preacondicionamiento del servidor de destino
264 AH0054602-09 M
Preacondicionamiento del servidor de destino
Los servidores de destino NVMe que se prueban de fábrica muestran un
rendimiento mayor de lo previsto. Antes de ejecutar una prueba comparativa, el
servidor de destino tiene que estar prellenado o preacondicionado.
Para preacondicionar el servidor de destino:
1. Efectúe un borrado seguro del servidor de destino con las herramientas
específicas del proveedor (es similar a formatear). Este ejemplo de prueba
utiliza un dispositivo SSD NVMe Intel, que requiere la herramienta Intel Data
Center Tool, disponible en el enlace siguiente:
https://downloadcenter.intel.com/download/23931/Intel-Solid-State-Drive-
Data-Center-Tool
2. Preacondicione el servidor de destino (nvme0n1) con datos, lo que garantiza
que toda la memoria disponible está llena. Este ejemplo utiliza la utilidad de
disco “DD”:
# dd if=/dev/zero bs=1024k of=/dev/nvme0n1
Prueba de los dispositivos NVMe-oF
Compare la latencia de dispositivo NVMe local en el servidor de destino con la del
dispositivo NVMe-oF en el servidor iniciador para comprobar la latencia que
NVMe agrega al sistema.
Para probar el dispositivo NVMe-oF:
1. Actualice el origen del repositorio (Repo) e instale la utilidad de pruebas
comparativas Flexible Input/Output (FIO) en los dos servidores, destino e
iniciador emitiendo los comandos siguientes:
# yum install epel-release
# yum install fio
Ilustración 13-4. Instalación de la utilidad FIO
13–Configuración de NVMe-oF con RDMA
Prueba de los dispositivos NVMe-oF
265 AH0054602-09 M
2. Ejecute la utilidad FIO para medir la latencia del dispositivo NVMe-oF
iniciador. Emita el siguiente comando:
# fio --filename=/dev/nvme0n1 --direct=1 --time_based
--rw=randread --refill_buffers --norandommap --randrepeat=0
--ioengine=libaio --bs=4k --iodepth=1 --numjobs=1
--runtime=60 --group_reporting --name=temp.out
FIO informa sobre dos tipos de latencia: envío y finalización. Submission
latency (Latencia de envío - slat) mide la latencia desde la aplicación al
kernel. Completion latency (Latencia de finalización - clat) mide la latencia
del kernel de extremo a extremo. El método aceptado en el sector es leer
los percentiles de clat en el rango del 99,00.
En este ejemplo, la latencia NVMe-oF del dispositivo iniciador es de
30 µseg.
3. Ejecute FIO para medir la latencia del dispositivo NVMe local en el servidor
de destino. Emita el siguiente comando:
# fio --filename=/dev/nvme0n1 --direct=1 --time_based
--rw=randread --refill_buffers --norandommap --randrepeat=0
--ioengine=libaio --bs=4k --iodepth=1 --numjobs=1
--runtime=60 --group_reporting --name=temp.out
En este ejemplo, la latencia NVMe-oF del dispositivo de destino es de
8µseg. La latencia total que se deriva del uso de NVMe-oF es la diferencia
entre la latencia NVMe-oF del dispositivo iniciador (30 µseg) y la latencia
NVMe-oF del dispositivo de destino (8 µseg), o, 22 µseg.
4. Ejecute FIO para medir el ancho de banda del dispositivo NVMe local en el
servidor de destino. Emita el siguiente comando:
fio --verify=crc32 --do_verify=1 --bs=8k --numjobs=1
--iodepth=32 --loops=1 --ioengine=libaio --direct=1
--invalidate=1 --fsync_on_close=1 --randrepeat=1
--norandommap --time_based --runtime=60
--filename=/dev/nvme0n1 --name=Write-BW-to-NVMe-Device
--rw=randwrite
Donde --rw puede ser randread solo para lectura, randwrite solo para
escritura, o
randrw para lectura y escritura.
13–Configuración de NVMe-oF con RDMA
Optimización del rendimiento
266 AH0054602-09 M
Optimización del rendimiento
Para optimizar el rendimiento tanto en el servidor iniciador como en el
servidor de destino:
1. Configure los siguientes parámetros de BIOS del sistema:
Perfiles de alimentación = “Maximum Performance” (Rendimiento
máximo) o equivalente
TODOS los C-States = desactivados
Hyperthreading = desactivado
2. Para configurar los parámetros del kernel de Linux, edite el archivo
grub
(/etc/default/grub).
a. Agregue parámetros al final de la línea
GRUB_CMDLINE_LINUX:
GRUB_CMDLINE_LINUX="nosoftlockup intel_idle.max_cstate=0
processor.max_cstate=1 mce=ignore_ce idle=poll"
b. Guarde el archivo grub.
c. Recree el archivo
grub.
Para recrear el archivo
grub para un inicio de BIOS heredado,
emita el comando siguiente:
# grub2-mkconfig -o /boot/grub2/grub.cfg (inicio de BIOS
heredado)
Para recrear el archivo grub para un inicio de EFI, emita el
comando siguiente:
# grub2-mkconfig -o /boot/efi/EFI/<os>/grub.cfg (EFI boot)
d. Reinicie el servidor para implementar los cambios.
3. Configure la afinidad de IRQ para todos los Adaptadores de la serie 41xxx.
El archivo
multi_rss-affin.sh es un archivo de script que aparece en
“Afinidad de IRQ (multi_rss-affin.sh)” en la página 267.
# systemctl stop irqbalance
# ./multi_rss-affin.sh eth1
NOTA
Hay una versión distinta del script, qedr_affin.sh, en el paquete de
código fuente de Linux 41xxx en el directorio
\add-ons\performance\roce
. Para obtener una explicación de la
configuración de afinidad de IRQ, consulte el archivo
multiple_irqs.txt del directorio.
13–Configuración de NVMe-oF con RDMA
Optimización del rendimiento
267 AH0054602-09 M
4. Configure la frecuencia de la CPU. El archivo cpufreq.sh es un script que
aparece en “Frecuencia de la CPU (cpufreq.sh)” en la página 268.
# ./cpufreq.sh
En las secciones siguientes se muestran los scripts que se utilizan en el paso 3
y 4.
Afinidad de IRQ (multi_rss-affin.sh)
El script siguiente establece la afinidad de IRQ.
#!/bin/bash
#RSS affinity setup script
#input: the device name (ethX)
#OFFSET=0 0/1 0/1/2 0/1/2/3
#FACTOR=1 2 3 4
OFFSET=0
FACTOR=1
LASTCPU='cat /proc/cpuinfo | grep processor | tail -n1 | cut -d":" -f2'
MAXCPUID='echo 2 $LASTCPU ^ p | dc'
OFFSET='echo 2 $OFFSET ^ p | dc'
FACTOR='echo 2 $FACTOR ^ p | dc'
CPUID=1
for eth in $*; do
NUM='grep $eth /proc/interrupts | wc -l'
NUM_FP=$((${NUM}))
INT='grep -m 1 $eth /proc/interrupts | cut -d ":" -f 1'
echo "$eth: ${NUM} (${NUM_FP} fast path) starting irq ${INT}"
CPUID=$((CPUID*OFFSET))
for ((A=1; A<=${NUM_FP}; A=${A}+1)) ; do
INT='grep -m $A $eth /proc/interrupts | tail -1 | cut -d ":" -f 1'
SMP='echo $CPUID 16 o p | dc'
echo ${INT} smp affinity set to ${SMP}
echo $((${SMP})) > /proc/irq/$((${INT}))/smp_affinity
CPUID=$((CPUID*FACTOR))
if [ ${CPUID} -gt ${MAXCPUID} ]; then
CPUID=1
CPUID=$((CPUID*OFFSET))
fi
13–Configuración de NVMe-oF con RDMA
Optimización del rendimiento
268 AH0054602-09 M
done
done
Frecuencia de la CPU (cpufreq.sh)
El script siguiente establece la frecuencia de la CPU.
#Usage "./nameofscript.sh"
grep -E '^model name|^cpu MHz' /proc/cpuinfo
cat /sys/devices/system/cpu/cpu0/cpufreq/scaling_governor
for CPUFREQ in /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor; do [ -f
$CPUFREQ ] || continue; echo -n performance > $CPUFREQ; done
cat /sys/devices/system/cpu/cpu0/cpufreq/scaling_governor
Para configurar los parámetros de red o memoria:
sysctl -w net.ipv4.tcp_mem="16777216 16777216 16777216"
sysctl -w net.ipv4.tcp_wmem="4096 65536 16777216"
sysctl -w net.ipv4.tcp_rmem="4096 87380 16777216"
sysctl -w net.core.wmem_max=16777216
sysctl -w net.core.rmem_max=16777216
sysctl -w net.core.wmem_default=16777216
sysctl -w net.core.rmem_default=16777216
sysctl -w net.core.optmem_max=16777216
sysctl -w net.ipv4.tcp_low_latency=1
sysctl -w net.ipv4.tcp_timestamps=0
sysctl -w net.ipv4.tcp_sack=1
sysctl -w net.ipv4.tcp_window_scaling=0
sysctl -w net.ipv4.tcp_adv_win_scale=1
# echo 0 > /sys/block/nvme0n1/queue/add_random
# echo 2 > /sys/block/nvme0n1/queue/nomerges
NOTA
Los comandos siguientes solo se aplican al servidor iniciador.
269 AH0054602-09 M
14 Configuración de VXLAN
En este capítulo se proporcionan instrucciones para:
Configuración de VXLAN en Linux
“Configuración de VXLAN en VMware” en la página 271
“Configuración de VXLAN en Windows Server 2016” en la página 272
Configuración de VXLAN en Linux
Para configurar VXLAN en Linux:
1. Descargue, extraiga, y configure el tar ball de openvswitch (OVS).
a. Descargue la versión de openvswitch adecuada de la siguiente
ubicación:
http://www.openvswitch.org/download/
b. Extraiga el tar ball navegando al directorio en el que haya descargado
la versión de openvswitch y, a continuación, emita el siguiente
comando:
./configure;make;make install (compilación)
c. Configure openvswitch emitiendo los siguientes comandos:
modprobe -v openvswitch
export PATH=$PATH:/usr/local/share/openvswitch/scripts
ovs-ctl start
ovs-ctl status
Cuando se ejecuta el estado ovs-ctl, ovsdb-server y ovs-vswitchd
deben ejecutarse con pid. Por ejemplo:
[root@localhost openvswitch-2.11.1]# ovs-ctl status
ovsdb-server is running with pid 8479
ovs-vswitchd is running with pid 8496
14–Configuración de VXLAN
Configuración de VXLAN en Linux
270 AH0054602-09 M
2. Cree el puente.
a. Para configurar el host 1, emita los siguientes comandos:
ovs-vsctl add-br br0
ovs-vsctl add-br br1
ovs-vsctl add-port br0 eth0
ifconfig eth0 0 && ifconfig br0 192.168.1.10 netmask 255.255.255.0
route add default gw 192.168.1.1 br0
ifconfig br1 10.1.2.10 netmask 255.255.255.0
ovs-vsctl add-port br1 vx1 -- set interface vx1 type=vxlan
options:remote_ip=192.168.1.11
(dirección IP del equipo)
b. Para configurar el host 2, emita los siguientes comandos:
ovs-vsctl add-br br0
ovs-vsctl add-br br1
ovs-vsctl add-port br0 eth0
ifconfig eth0 0 && ifconfig br0 192.168.1.11 netmask 255.255.255.0
route add default gw 192.168.1.1 br0
ifconfig br1 10.1.2.11 netmask 255.255.255.0
ovs-vsctl add-port br1 vx1 -- set interface vx1 type=vxlan options:
remote_ip=192.168.1.10
3. Compruebe la configuración.
Ejecute el tráfico entre el host y el equipo mediante iperf. Asegúrese de que
el firewall y iptables se detiene y se limpia, respectivamente.
14–Configuración de VXLAN
Configuración de VXLAN en VMware
271 AH0054602-09 M
4. Configure el puente como acceso directo a las máquinas virtuales (VM) y, a
continuación, compruebe la conectividad de la VM al equipo.
a. Cree una VM a través de virt-manager.
b. Como no hay opción de fijar el puente br1 a través de virt-manager,
cambie el archivo xml de la siguiente forma
Emita el siguiente comando:
comando: virsh edit vm1
Agregue el siguiente código:
<interface type='bridge'>
<source bridge='br1'/>
<virtualport type='openvswitch'>
<parameters/>
</virtualport>
<model type='virtio'/>
</interface>
c. Encienda la VM y compruebe las interfaces br1.
Asegúres de que br1 esté en el sistema operativo. La interfaz br1 se
denomina eth0, ens7; configure manualmente la IP estática mediante
el archivo de dispositivo de red y asigne la misma IP de subred al
equipo (Host 2 VM).”
Ejecute el tráfico del equipo a la VM.
Configuración de VXLAN en VMware
Para configurar VXLAN en VMware, siga las instrucciones de las siguientes
ubicaciones:
https://docs.vmware.com/en/VMware-NSX-Data-Center-for-vSphere/6.3/com.vm
ware.nsx.cross-vcenter-install.doc/GUID-49BAECC2-B800-4670-AD8C-A5292E
D6BC19.html
NOTA
Puede utilizar este procedimiento para probar otros túneles como, por
ejemplo,
Generic Network Virtualization Encapsulation (GENEVE) y Generic
Routing Encapsulation (
GRE), con OVS.
Si no desea utilizar OVS, puede seguir con la opción de puente heredada
brctl.
14–Configuración de VXLAN
Configuración de VXLAN en Windows Server 2016
272 AH0054602-09 M
https://www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/products/n
sx/vmw-nsx-network-virtualization-design-guide.pdf
https://pubs.vmware.com/nsx-63/topic/com.vmware.nsx.troubleshooting.doc/GUI
D-EA1DB524-DD2E-4157-956E-F36BDD20CDB2.html
https://communities.vmware.com/api/core/v3/attachments/124957/data
Configuración de VXLAN en Windows Server
2016
La configuración de VXLAN en Windows Server 2016 incluye:
Activación de la descarga VXLAN en el adaptador
Implementación de una red definida por software
Activación de la descarga VXLAN en el adaptador
Para activar la descarga VXLAN en el adaptador:
1. Abra las propiedades del minipuerto y haga clic en la pestaña Advanced
(Avanzado).
2. En la página Advanced (Avanzado) de las propiedades del adaptador
(Ilustración 14-1), en Property (Propiedad), seleccione VXLAN
Encapsulated Task Offload (Descarga de tareas encapsuladas VXLAN)
Ilustración 14-1. Propiedades avanzadas: Activación de VXLAN
14–Configuración de VXLAN
Configuración de VXLAN en Windows Server 2016
273 AH0054602-09 M
3. Establezca el Value (Valor) en Enabled (Activado).
4. Haga clic en OK (Aceptar).
Implementación de una red definida por software
Para beneficiarse de la descarga de tareas de encapsulación VXLAN en las
máquinas virtuales, debe implementar una pila de Software Defined Networking
(SDN) que utilice la controladora de red de Microsoft.
Para obtener más información sobre Software Defined Networking (Red definida
por software - SDN), consulte el siguiente enlace de Microsoft Technet:
https://technet.microsoft.com/en-us/windows-server-docs/networking/sdn/
software-defined-networking--sdn-
274 AH0054602-09 M
15 Windows Server 2016
Este capítulo ofrece la siguiente información sobre Windows Server 2016:
Configuración de interfaces RoCE con Hyper-V
“RoCE sobre Switch Embedded Teaming (SET)” en la página 280
“Configuración de QoS para RoCE” en la página 281
“Configuración de VMMQ” en la página 290
“Configuración de Storage Spaces Direct” en la página 295
Configuración de interfaces RoCE con Hyper-V
En Windows Server 2016, Hyper-V con Network Direct Kernel Provider Interface
(NDKPI) Mode-2, adaptadores de red virtual de host (NIC virtual de host) admite
RDMA.
En esta sección se describen los siguientes procedimientos de configuración de
RoCE:
Creación de un conmutador virtual Hyper-V con un NIC virtual RDMA
Cómo agregar un Id. de vLAN al NIC virtual del host
Comprobación de que RoCE está activado
Cómo agregar NIC virtuales de host (puertos virtuales)
Asignación de una unidad SMB y ejecución del tráfico de RoCE
NOTA
Se requiere DCBX para RoCE sobre Hyper-V. Para configurar DCBX puede:
Configurar a través de HII (consulte “Prepación de un adaptador” en la
página 144).
Configurar utilizando QoS (consulte “Configuración de QoS para RoCE”
en la página 281).
15–Windows Server 2016
Configuración de interfaces RoCE con Hyper-V
275 AH0054602-09 M
Creación de un conmutador virtual Hyper-V con un NIC virtual
RDMA
Siga los procedimientos que se explican en esta sección para crear un
conmutador virtual Hyper-V y después activar RDMA en el NIC virtual del host.
Para crear un conmutador virtual Hyper-V con un NIC virtual RDMA:
1. En todas las interfaces físicas, establezca el valor del parámetro
NetworkDirect Functionality (Funcionalidad directa de red) en Enabled
(Activada).
2. Inicie Hyper-V Manager.
3. Haga clic en Virtual Switch Manager (Administrador de conmutadores
virtuales) (consulte la Ilustración 15-1).
Ilustración 15-1. Activación de RDMA en NIC virtual de host
4. Cree un conmutador virtual.
5. Seleccione la casilla de verificación Allow management operating system
to share this network adapter (Permitir que el sistema operativo comparta
este adaptador de red).
En Windows Server 2016, se agrega un nuevo parámetro al NIC virtual de host:
Network Direct (RDMA).
15–Windows Server 2016
Configuración de interfaces RoCE con Hyper-V
276 AH0054602-09 M
Para activar RDMA en NIC virtual de host:
1. Abra la ventana Virtual Ethernet Adapter Properties (Propiedades del
adaptador Ethernet Virtual) de Hyper-V.
2. Haga clic en Advanced (Avanzado).
3. En la página Advanced (Avanzado) (Ilustración 15-2):
a. En Property (Propiedad), seleccione Network Direct (RDMA).
b. En Value (Valor), seleccione Enabled (Activado).
c. Haga clic en OK (Aceptar).
Ilustración 15-2. Hyper-V Virtual Ethernet Adapter Properties (Propiedades del
adaptador Ethernet Virtual de Hyper-V)
4. Para habilitar RDMA en PowerShell, emita el siguiente comando en
Windows PowerShell:
PS C:\Users\Administrator> Enable-NetAdapterRdma "vEthernet
(New Virtual Switch)"
PS C:\Users\Administrator>
15–Windows Server 2016
Configuración de interfaces RoCE con Hyper-V
277 AH0054602-09 M
Cómo agregar un Id. de vLAN al NIC virtual del host
Para agregar un Id. de vLAN al NIC virtual de host:
1. Para encontrar el nombre del NIC virtual de host, emita el siguiente
comando en Windows PowerShell:
PS C:\Users\Administrator> Get-VMNetworkAdapter -ManagementOS
La Ilustración 15-3 muestra la salida del comando.
Ilustración 15-3. Comando Windows PowerShell: Get-VMNetworkAdapter
2. Para establecer el Id. de vLAN en el NIC virtual de host, emita el siguiente
comando en Windows PowerShell:
PS C:\Users\Administrator> Set-VMNetworkAdaptervlan
-VMNetworkAdapterName "New Virtual Switch" -VlanId 5 -Access
-ManagementOS
Comprobación de que RoCE está activado
Para comprobar si RoCE está activado:
Emita el siguiente comando en Windows PowerShell:
Get-NetAdapterRdma
NOTA
Tenga en cuenta lo siguiente a la hora de agregar un Id. de vLAN al
NIC virtual de host:
Es necesario asignar un Id. vLAN a un NIC virtual de host. Debe
asignarse el mismo Id. vLAN a los puertos del conmutador.
Asegúrese de que el Id. de vLAN no se asigne a la interfaz física
cuando se utilice un NIC virtual de host para RoCE.
Si está creando más de un NIC virtual de host, puede asignar una
vLAN distinta a cada uno de ellos.
15–Windows Server 2016
Configuración de interfaces RoCE con Hyper-V
278 AH0054602-09 M
La salida del comando muestra los adaptadores compatibles con RDMA, tal
y como se muestra en la Ilustración 15-4.
Ilustración 15-4. Comando Windows PowerShell: Get-NetAdapterRdma
Cómo agregar NIC virtuales de host (puertos virtuales)
Para agregar NIC virtuales de host:
1. Para agregar un NIC virtual de host, emita el siguiente comando:
Add-VMNetworkAdapter -SwitchName "New Virtual Switch" -Name
SMB - ManagementOS
2. Emita RDMA en NIC virtuales de host como explica en “Para activar RDMA
en NIC virtual de host:” en la página 276.
3. Para asignar el Id. de vLAN en el puerto virtual, emita el siguiente comando:
Set-VMNetworkAdapterVlan -VMNetworkAdapterName SMB -VlanId 5
-Access -ManagementOS
Asignación de una unidad SMB y ejecución del tráfico de
RoCE
Para asignar una unidad SMB y ejecutar el tráfico de RoCE:
1. Inicie el Supervisor de rendimiento (Perfmon).
2. Complete el cuadro de diálogo Add Counters (Agregar contadores)
(Ilustración 15-5) como se indica a continuación:
a. En Available counters (Contadores disponibles), seleccione RDMA
Activity (Actividad de RDMA).
b. En Instances of selected object (Instancias del objeto
seleccionado),seleccione el adaptador.
c. Haga clic en Add (Agregar).
15–Windows Server 2016
Configuración de interfaces RoCE con Hyper-V
279 AH0054602-09 M
Ilustración 15-5. Cuadro de diálogo Add Counters (Agregar contadores)
Si se está ejecutando el tráfico de RoCE, los contadores tendrán el aspecto
que se muestra en la Ilustración 15-6.
Ilustración 15-6. El monitor de rendimiento muestra el tráfico RoCE
15–Windows Server 2016
RoCE sobre Switch Embedded Teaming (SET)
280 AH0054602-09 M
RoCE sobre Switch Embedded Teaming (SET)
Switch Embedded Teaming (SET) es una solución de equipos NIC alternativa de
Microsoft que se puede utilizar en entornos que tienen Hyper-V y la pila de
Software Defined Networking (SDN) en una vista previa técnica de Windows
Server 2016. SET incorpora una funcionalidad de equipos NIC limitada en el
conmutador virtual Hyper-V.
Utilice SET para agrupar entre uno y ocho adaptadores de red Ethernet físicos en
uno o varios adaptadores de red virtual basados en software. Dichos adaptadores
ofrecen un rendimiento rápido y una tolerancia a fallos en caso de que se
produzca un fallo en el adaptador de red. Para que puedan formar parte de un
grupo, los adaptadores de red de miembro SET deben instalarse en el mismo
host Hyper-V físico.
Estos son los procedimientos de RoCE sobre SET descritos en esta sección:
Creación de un conmutador virtual Hyper-V con NIC virtuales SET y RDMA
Activación de RDMA en SET
Asignación de un Id. de vLAN en SET
Ejecución de tráfico RDMA en SET
Creación de un conmutador virtual Hyper-V con NIC virtuales
SET y RDMA
Para crear un conmutador virtual Hyper-V con SET y NIC virtuales RDMA:
Para crear SET, emita el siguiente comando en Windows PowerShell:
PS C:\Users\Administrator> New-VMSwitch -Name SET
-NetAdapterName "Ethernet 2","Ethernet 3"
-EnableEmbeddedTeaming $true
La Ilustración 15-7 muestra la salida del comando.
Ilustración 15-7. Comando Windows PowerShell: New-VMSwitch
Activación de RDMA en SET
Para activar RDMA en SET:
1. Para ver SET en el adaptador, emita el siguiente comando de Windows
PowerShell:
PS C:\Users\Administrator> Get-NetAdapter "vEthernet (SET)"
15–Windows Server 2016
Configuración de QoS para RoCE
281 AH0054602-09 M
La Ilustración 15-8 muestra la salida del comando.
Ilustración 15-8. Comando Windows PowerShell: Get-NetAdapter
2. Para activar RDMA en SET, emita el siguiente comando en Windows
PowerShell:
PS C:\Users\Administrator> Enable-NetAdapterRdma "vEthernet
(SET)"
Asignación de un Id. de vLAN en SET
Para asignar un Id. de vLAN en SET:
Para asignar un Id. de vLAN en SET, emita el siguiente comando en
Windows PowerShell:
PS C:\Users\Administrator> Set-VMNetworkAdapterVlan
-VMNetworkAdapterName "SET" -VlanId 5 -Access -ManagementOS
Ejecución de tráfico RDMA en SET
Para obtener información sobre cómo ejecutar tráfico RDMA en SET, consulte:
https://technet.microsoft.com/en-us/library/mt403349.aspx
Configuración de QoS para RoCE
Estos son los dos métodos para configurar la calidad de servicio (QoS):
Configuración de QoS desactivando DCBX en el adaptador
Configuración de QoS activando DCBX en el adaptador
NOTA
Tenga en cuenta lo siguiente a la hora de agregar un Id. de vLAN al NIC
virtual de host:
Asegúrese de que el Id. de vLAN no se asigne a la interfaz física cuando
se utilice un NIC virtual de host para RoCE.
Si está creando más de un NIC virtual de host, puede asignar una vLAN
distinta a cada uno de ellos.
15–Windows Server 2016
Configuración de QoS para RoCE
282 AH0054602-09 M
Configuración de QoS desactivando DCBX en el adaptador
Es necesario realizar la configuración de todos los sistemas en uso antes de
configurar la calidad de servicio (QoS) desactivando DCBX en el adaptador. La
configuración del control de flujo basado en prioridades (PFC), los servicios de
transición mejorada (ETS) y las clases de tráfico debe ser la misma en el
conmutador y en el servidor.
Para configurar QoS desactivando DCBX:
1. Desactive DCBX en el adaptador.
2. En HII, establezca la RoCE Priority (Prioridad RoCE) en 0.
3. Para instalar el rol DCB en el host, emita el siguiente comando en Windows
PowerShell:
PS C:\Users\Administrators> Install-WindowsFeature
Data-Center-Bridging
4. Para establecer el modo DCBX Willing (Dispuesto para DCBX) en False
(Falso), emita el siguiente comando en Windows PowerShell:
PS C:\Users\Administrators> set-NetQosDcbxSetting -Willing 0
5. Active QoS en el minipuerto del siguiente modo:
a. Abra las propiedades del minipuerto y haga clic en la pestaña
Advanced (Avanzado).
b. En la página Advanced (Avanzado) de las propiedades del adaptador
(Ilustración 15-9) en Property (Propiedad), seleccione Quality of
Service (Calidad de servicio) y después establezca el valor en
Enabled (Activado).
c. Haga clic en OK (Aceptar).
15–Windows Server 2016
Configuración de QoS para RoCE
283 AH0054602-09 M
Ilustración 15-9. Propiedades avanzadas: Activación de la QoS
6. Asigne el Id. de vLAN a la interfaz del siguiente modo:
a. Abra las propiedades del minipuerto y haga clic en la pestaña
Advanced (Avanzado).
b. En la página Advanced (Avanzado) de las propiedades del adaptador
(Ilustración 15-10) en Property (Propiedad), seleccione VLAN ID (Id.
de VLAN) y después establezca el valor.
c. Haga clic en OK (Aceptar).
NOTA
Es necesario realizar el paso anterior para el control de flujo de
prioridades (PFC).
15–Windows Server 2016
Configuración de QoS para RoCE
284 AH0054602-09 M
Ilustración 15-10. Propiedades avanzadas: Configuración del Id. de VLAN
7. Para activar PFC para RoCE en una prioridad específica, emita el siguiente
comando:
PS C:\Users\Administrators> Enable-NetQoSFlowControl
-Priority 5
8. Para desactivar el control de flujo de prioridades en cualquier otra prioridad,
emita los siguientes comandos:
PS C:\Users\Administrator> Disable-NetQosFlowControl 0,1,2,3,4,6,7
PS C:\Users\Administrator> Get-NetQosFlowControl
Priority Enabled PolicySet IfIndex IfAlias
-------- ------- --------- ------- -------
0 False Global
1 False Global
2 False Global
3 False Global
NOTA
Si está configurando RoCE sobre Hyper-V, no asigne un Id. de vLAN a
la interfaz física.
15–Windows Server 2016
Configuración de QoS para RoCE
285 AH0054602-09 M
4 False Global
5 True Global
6 False Global
7 False Global
9. Para configurar QoS y asignar la prioridad correspondiente a cada tipo de
tráfico, emita los siguientes comandos (en los que la Prioridad 5 está
etiquetada para RoCE y Prioridad 0 está etiquetada para TCP):
PS C:\Users\Administrators> New-NetQosPolicy "SMB"
-NetDirectPortMatchCondition 445 -PriorityValue8021Action 5 -PolicyStore
ActiveStore
PS C:\Users\Administrators> New-NetQosPolicy "TCP" -IPProtocolMatchCondition
TCP -PriorityValue8021Action 0 -Policystore ActiveStore
PS C:\Users\Administrator> Get-NetQosPolicy -PolicyStore activestore
Name : tcp
Owner : PowerShell / WMI
NetworkProfile : Todas
Precedence : 127
JobObject :
IPProtocol : TCP
PriorityValue : 0
Name : smb
Owner : PowerShell / WMI
NetworkProfile : Todas
Precedence : 127
JobObject :
NetDirectPort : 445
PriorityValue : 5
10. Para configurar ETS para todas las clases de tráfico definidas en el paso
anterior, emita los siguientes comandos:
PS C:\Users\Administrators> New-NetQosTrafficClass -name "RDMA class"
-priority 5 -bandwidthPercentage 50 -Algorithm ETS
PS C:\Users\Administrators> New-NetQosTrafficClass -name "TCP class" -priority
0 -bandwidthPercentage 30 -Algorithm ETS
PS C:\Users\Administrator> Get-NetQosTrafficClass
15–Windows Server 2016
Configuración de QoS para RoCE
286 AH0054602-09 M
Name Algorithm Bandwidth(%) Priority PolicySet IfIndex IfAlias
---- --------- ------------ -------- --------- ------- -------
[Default] ETS 20 1-4,6-7 Global
RDMA class ETS 50 5 Global
TCP class ETS 30 0 Global
11. Para ver el adaptador de red QoS desde la configuración anterior, emita el
siguiente comando en Windows PowerShell:
PS C:\Users\Administrator> Get-NetAdapterQos
Name : SLOT 4 Port 1
Enabled : True
Capabilities : Hardware Current
-------- -------
MacSecBypass : NotSupported NotSupported
DcbxSupport : None None
NumTCs(Max/ETS/PFC) : 4/4/4 4/4/4
OperationalTrafficClasses : TC TSA Bandwidth Priorities
-- --- --------- ----------
0 ETS 20% 1-4,6-7
1 ETS 50% 5
2 ETS 30% 0
OperationalFlowControl : Priority 5 Enabled
OperationalClassifications : Protocol Port/Type Priority
-------- --------- --------
Default 0
NetDirect 445 5
12. Cree un script de inicio para que las configuraciones se mantengan cada
vez que el sistema se reinicie.
13. Ejecute tráfico RDMA y compruébelo tal como se describe en
“Configuración de RoCE” en la página 142.
15–Windows Server 2016
Configuración de QoS para RoCE
287 AH0054602-09 M
Configuración de QoS activando DCBX en el adaptador
Es necesario realizar la configuración de todos los sistemas en uso. La
configuración de PFC, ETS y las clases de tráfico debe ser la misma en el
conmutador y en el servidor.
Para configurar QoS activando DCBX:
1. Active DCBX (IEEE, CEE, o Dinámico).
2. Con HII, establezca la RoCE Priority (Prioridad RoCE) en 0.
3. Para instalar el rol DCB en el host, emita el siguiente comando en Windows
PowerShell:
PS C:\Users\Administrators> Install-WindowsFeature
Data-Center-Bridging
4. Para establecer el modo DCBX Willing (Dispuesto para DCBX) en True
(Verdadero), emita el siguiente comando:
PS C:\Users\Administrators> set-NetQosDcbxSetting -Willing 1
5. Active QoS en las propiedades del minipuerto del siguiente modo:
a. En la página Advanced (Avanzado) de las propiedades del adaptador
(Ilustración 15-11) en Property (Propiedad), seleccione Quality of
Service (Calidad de servicio) y después establezca el valor en
Enabled (Activado).
b. Haga clic en OK (Aceptar).
NOTA
Si el conmutador no tiene forma de designar el tráfico RoCE, puede
que necesite establecer RoCE Priority (Prioridad de RoCE) en el
número usado por el conmutador. Los conmutadores Arista
®
pueden
hacerlo, pero otros conmutadores no.
NOTA
Para esta configuración, establezca el protocolo DCBX en CEE.
15–Windows Server 2016
Configuración de QoS para RoCE
288 AH0054602-09 M
Ilustración 15-11. Propiedades avanzadas: Activación de QoS
6. Asigne el Id. de vLAN a la interfaz (necesario para PFC) del siguiente modo:
a. Abra las propiedades del minipuerto y haga clic en la pestaña
Advanced (Avanzado).
b. En la página Advanced (Avanzado) de las propiedades del adaptador
(Ilustración 15-12) en Property (Propiedad), seleccione VLAN ID
(Id. de VLAN) y después establezca el valor.
c. Haga clic en OK (Aceptar).
15–Windows Server 2016
Configuración de QoS para RoCE
289 AH0054602-09 M
Ilustración 15-12. Propiedades avanzadas: Configuración del Id. de VLAN
7. Para configurar el conmutador, emita el siguiente comando en Windows
PowerShell:
PS C:\Users\Administrators> Get-NetAdapterQoS
Name : Ethernet 5
Enabled : True
Capabilities : Hardware Current
-------- -------
MacSecBypass : NotSupported NotSupported
DcbxSupport : CEE CEE
NumTCs(Max/ETS/PFC) : 4/4/4 4/4/4
OperationalTrafficClasses : TC TSA Bandwidth Priorities
-- --- --------- ----------
0 ETS 5% 0-4,6-7
1 ETS 95% 5
OperationalFlowControl : Priority 5 Enabled
15–Windows Server 2016
Configuración de VMMQ
290 AH0054602-09 M
OperationalClassifications : Protocol Port/Type Priority
-------- --------- --------
NetDirect 445 5
RemoteTrafficClasses : TC TSA Bandwidth Priorities
-- --- --------- ----------
0 ETS 5% 0-4,6-7
1 ETS 95% 5
RemoteFlowControl : Priority 5 Enabled
RemoteClassifications : Protocol Port/Type Priority
-------- --------- --------
NetDirect 445 5
Configuración de VMMQ
La información de configuración de varias colas de máquina virtual (VMMQ)
incluye:
Activación de VMMQ en el adaptador
Creación de un conmutador de máquina virtual con o sin SR-IOV
Activación de VMMQ en el conmutador de máquina virtual
Cómo obtener la capacidad del conmutador de máquina virtual
Creación de una máquina virtual y activación de VMMQ en
VMNetworkAdapters en la máquina virtual
Activación y desactivación de VMMQ en un NIC de administración
Supervisión de las estadísticas de tráfico
NOTA
El ejemplo anterior corresponde a una situación en la que el puerto del
adaptador está conectado a un conmutador Arista 7060X. En este ejemplo,
el PFC del conmutador está habilitado en la Prioridad 5. Se define TLV de
App de RoCE. Las dos clases de tráfico se definen como TC0 y TC1, donde
TC1 se define para RoCE. El modo DCBX Protocol (Protocolo DCBX) se
establece en CEE (CEE). Para la configuración del conmutador Arista,
consulte “Preparación del conmutador Ethernet” en la página 144“. Cuando
el adaptador está en modo Willing (Dispuesto), acepta Remote
Configuration (Configuración Remota) ya la muestra como Operational
Parameters (Parámetros operativos).
15–Windows Server 2016
Configuración de VMMQ
291 AH0054602-09 M
Activación de VMMQ en el adaptador
Para activar VMMQ en el adaptador:
1. Abra las propiedades del minipuerto y haga clic en la pestaña Advanced
(Avanzado).
2. En la página Advanced (Avanzado) de las propiedades del adaptador
(Ilustración 15-13), en Property (Propiedad), seleccione Virtual Switch
RSS (RSS conmutador virtual) y después establezca el valor en Enabled
(Activado).
3. Haga clic en OK (Aceptar).
Ilustración 15-13. Propiedades avanzadas: Activación de RSS del conmutador
virtual
Creación de un conmutador de máquina virtual con o sin
SR-IOV
Para crear un conmutador de máquina virtual con o sin SR-IOV:
1. Inicie el Hyper-V Manager.
2. Seleccione Virtual Switch Manager (Administrador de conmutadores
virtuales) (consulte la Ilustración 15-14).
3. En el cuadro Name (Nombre) escriba un nombre para el conmutador
virtual.
15–Windows Server 2016
Configuración de VMMQ
292 AH0054602-09 M
4. En Connection type (Tipo de conexión):
a. Haga clic en External network (Red externa).
b. Seleccione la casilla de verificación Allow management operating
system to share this network adapter (Permitir que el sistema
operativo comparta este adaptador de red).
Ilustración 15-14. Administrador de conmutadores virtuales
5. Haga clic en OK (Aceptar).
15–Windows Server 2016
Configuración de VMMQ
293 AH0054602-09 M
Activación de VMMQ en el conmutador de máquina virtual
Para activar VMMQ en el conmutador de máquina virtual:
Emita el siguiente comando en Windows PowerShell:
PS C:\Users\Administrators> Set-VMSwitch -name q1
-defaultqueuevmmqenabled $true -defaultqueuevmmqqueuepairs 4
Cómo obtener la capacidad del conmutador de máquina
virtual
Para obtener la capacidad del conmutador de máquina virtual:
Emita el siguiente comando en Windows PowerShell:
PS C:\Users\Administrator> Get-VMSwitch -Name ql | fl
La Ilustración 15-15 muestra una salida de ejemplo.
Ilustración 15-15. Comando Windows PowerShell: Get-VMSwitch
15–Windows Server 2016
Configuración de VMMQ
294 AH0054602-09 M
Creación de una máquina virtual y activación de VMMQ en
VMNetworkAdapters en la máquina virtual
Para crear una máquina virtual (VM) y activar VMMQ en
VMNetworksadapters en la VM:
1. Cree una VM.
2. Agregue el VMNetworkadapter a la VM.
3. Asigne un conmutador virtual al VMNetworkadapter.
4. Para activar VMMQ en la VM, emita el siguiente comando en Windows
PowerShell:
PS C:\Users\Administrators> set-vmnetworkadapter -vmname vm1
-VMNetworkAdapterName "network adapter" -vmmqenabled $true
-vmmqqueuepairs 4
Activación y desactivación de VMMQ en un NIC de
administración
Para activar o desactivar VMMQ en un NIC de administración:
Para activar VMMQ en un NIC de administración, emita el siguiente
comando:
PS C:\Users\Administrator> Set-VMNetworkAdapter –ManagementOS
–vmmqEnabled $true
Para desactivar VMMQ en un NIC de administración, emita el siguiente
comando:
PS C:\Users\Administrator> Set-VMNetworkAdapter –ManagementOS
–vmmqEnabled $false
También estará disponible un VMMQ para la primera ruta más corta de
multidifusión abierta (MOSPF).
15–Windows Server 2016
Configuración de Storage Spaces Direct
295 AH0054602-09 M
Supervisión de las estadísticas de tráfico
Para supervisar el tráfico de la función virtual de una máquina virtual, emita el
siguiente comando en Windows PowerShell:
PS C:\Users\Administrator> Get-NetAdapterStatistics | fl
Configuración de Storage Spaces Direct
Windows Server 2016 presenta Storage Spaces Direct, que le permite construir
sistemas de almacenamiento de alta disponibilidad y muy escalables con
almacenamiento local. Para obtener más información, consulte el siguiente
enlace de Microsoft TechNet:
https://technet.microsoft.com/en-us/windows-server-docs/storage/storage-spaces
/storage-spaces-direct-windows-server-2016
NOTA
Marvell admite el parámetro nuevo agregado a Windows Server 2016 y
Windows Server 2019 para configurar la cantidad máxima de pares de colas
en un puerto virtual. Para obtener detalles, ver “Max Queue Pairs (L2) Per
VPort (Pares de colas máx. [L2] por VPort)” en la página 305.
15–Windows Server 2016
Configuración de Storage Spaces Direct
296 AH0054602-09 M
Configuración del hardware
La Ilustración 15-16 muestra un ejemplo de configuración de hardware.
Ilustración 15-16. Ejemplo de configuración de hardware
Implementación de un sistema hiperconvergente
Esta sección incluye instrucciones para instalar y configurar los componentes de
un sistema hiperconvergente utilizando Windows Server 2016. El proceso de
implementar un sistema hiperconvergente pude dividirse en las siguientes tres
fases de alto nivel:
Implementación del sistema operativo
Configuración de la red
Configuración de Storage Spaces Direct
NOTA
Los discos que se utilizan en este ejemplo son discos 4 × 400 G NVMe
y
12 × 200 G SSD.
15–Windows Server 2016
Configuración de Storage Spaces Direct
297 AH0054602-09 M
Implementación del sistema operativo
Para implementar sistemas operativos:
1. Instale el sistema operativo.
2. Instale los roles de Windows Server (Hyper-V).
3. Instale las siguientes características:
Tolerancia a errores
Clúster
Puente del centro de datos (DCB)
4. Conecte los nodos a un dominio y agregue cuentas de dominio.
Configuración de la red
Para implementar Storage Spaces Direct, el conmutador Hyper-V s debe
implementarse en NIC virtuales de host con RDMA activado.
Para configurar la red en cada servidor:
1. Configure el conmutador de la red física del siguiente modo:
a. Conecte todos los NIC del adaptador al puerto del conmutador.
b. Active el puerto del conmutador y asegúrese de que:
El puerto de conmutador admite el modo de equipos
independientes del conmutador.
El puerto del conmutador forma parte de varias redes vLAN.
Ejemplo de configuración de conmutador de Dell:
no ip address
mtu 9416
portmode hybrid
switchport
dcb-map roce_S2D
protocol lldp
NOTA
En el siguiente procedimiento se presupone que hay cuatro puertos NIC
RDMA.
NOTA
Si su adaptador de prueba tiene más de un puerto NIC, debe
conectar ambos puertos al mismo conmutador.
15–Windows Server 2016
Configuración de Storage Spaces Direct
298 AH0054602-09 M
dcbx version cee
no shutdown
2. Activación de Network Quality of Service (Calidad de servicio de la red).
3. Cree un conmutador virtual Hyper-V con Switch Embedded Teaming (SET)
y NIC virtual RDMA del siguiente modo:
a. Para identificar los adaptadores de la red, emita el siguiente comando:
Get-NetAdapter | FT
Name,InterfaceDescription,Status,LinkSpeed
b. Para crear un conmutador virtual conectado a todos los adaptadores
de red físicos y después activar SET, emita el siguiente comando:
New-VMSwitch -Name SETswitch -NetAdapterName
"<port1>","<port2>","<port3>","<port4>"
–EnableEmbeddedTeaming $true
c. Para agregar NIC virtuales de host al conmutador virtual, emita el
siguiente comando:
Add-VMNetworkAdapter –SwitchName SETswitch –Name SMB_1
–managementOS
Add-VMNetworkAdapter –SwitchName SETswitch –Name SMB_2
–managementOS
d. Para configurar el NIC virtual de host para utilizar vLAN, emita los
siguientes comandos:
Set-VMNetworkAdapterVlan -VMNetworkAdapterName "SMB_1"
-VlanId 5 -Access -ManagementOS
NOTA
La calidad de servicio de la red se utiliza para garantizar que el
sistema de almacenamiento definido por software tenga suficiente
ancho de banda para permitir la comunicación entre los nodos y
garantizar la resiliencia y el rendimiento. Para obtener más
información sobre cómo configurar QoS en el adaptador, consulte
“Configuración de QoS para RoCE” en la página 281.
NOTA
Los comandos anteriores permiten configurar el NIC virtual
desde los conmutadores virtuales que acaba de configurar para
el sistema operativo de administración que se va a utilizar.
15–Windows Server 2016
Configuración de Storage Spaces Direct
299 AH0054602-09 M
Set-VMNetworkAdapterVlan -VMNetworkAdapterName "SMB_2"
-VlanId 5 -Access -ManagementOS
e. Para comprobar si se ha establecido el Id. de vLAN, emita el siguiente
comando:
Get-VMNetworkAdapterVlan -ManagementOS
f. Para desactivar y activar cada adaptador de NIC virtual de host para
que la vLAN esté activada, emita los siguientes comandos:
Disable-NetAdapter "vEthernet (SMB_1)"
Enable-NetAdapter "vEthernet (SMB_1)"
Disable-NetAdapter "vEthernet (SMB_2)"
Enable-NetAdapter "vEthernet (SMB_2)"
g. Para activar RDMA en los adaptadores de NIC virtual de host, emita el
siguiente comando:
Enable-NetAdapterRdma "SMB1","SMB2"
h. Para comprobar las capacidades de RDMA, emita el siguiente
comando:
Get-SmbClientNetworkInterface | where RdmaCapable -EQ
$true
Configuración de Storage Spaces Direct
Para configurar Storage Spaces Direct en Windows Server 2016 hay que realizar
los siguientes pasos:
Paso 1. Ejecución de una herramienta de validación de clústeres
Paso 2. Creación de un clúster
Paso 3. Configuración de un clúster testigo
Paso 4. Limpieza de discos utilizados para Storage Spaces Direct
Paso 5. Activación de Storage Spaces Direct
Paso 6. Creación de discos virtuales
Paso 7. Creación o implementación de máquinas virtuales
NOTA
Dichos comandos pueden estar en la misma VLAN o en varias
vLAN.
15–Windows Server 2016
Configuración de Storage Spaces Direct
300 AH0054602-09 M
Paso 1. Ejecución de una herramienta de validación de clústeres
Ejecute la herramienta de validación de clústeres para asegurarse de que los
nodos del servidor están configurados correctamente para crear un clúster
utilizando Storage Spaces Direct.
Para validar un conjunto de servidores para uso como clúster de Storage Spaces
Direct (Espacios de almacenamiento directos), emita el siguiente comando de
Windows PowerShell:
Test-Cluster -Node <MachineName1, MachineName2, MachineName3,
MachineName4> -Include "Storage Spaces Direct", Inventory,
Network, "System Configuration"
Paso 2. Creación de un clúster
Cree un clúster con los cuatro nodos (lo que se validó para la creación de
clústeres) en el Paso 1. Ejecución de una herramienta de validación de clústeres.
Para crear un clúster, emita el siguiente comando en Windows PowerShell:
New-Cluster -Name <ClusterName> -Node <MachineName1, MachineName2,
MachineName3, MachineName4> -NoStorage
Se requiere el parámetro –NoStorage. Si no se incluye, los discos se agregan
automáticamente al clúster y debe eliminarlos antes de activar Storage Spaces
Direct. De lo contrario, no se incluirán en la agrupación de almacenamiento de
Storage Spaces Direct.
Paso 3. Configuración de un clúster testigo
Configure un testigo para el clúster de tal forma que este sistema de cuatro nodos
pueda soportar que dos nodos fallen o se queden sin conexión. Con estos
sistemas puede configurar testigos para compartir archivos o testigos en la nube.
Para obtener más información, visite:
https://docs.microsoft.com/en-us/windows-server/failover-clustering/manage-clust
er-quorum
Paso 4. Limpieza de discos utilizados para Storage Spaces Direct
Los discos que se quieran utilizar para Storage Spaces Direct deben estar vacíos
y no tener particiones u otros datos. Si alguno de los discos tiene particiones u
otros datos, no se incluirá en el sistema Storage Spaces Direct.
15–Windows Server 2016
Configuración de Storage Spaces Direct
301 AH0054602-09 M
El siguiente comando de Windows PowerShell puede ponerse en un archivo de
script de Windows PowerShell (
.PS1) y ejecutarse desde el sistema de
administración de una consola abierta de Windows PowerShell (o Windows
PowerShell ISE) que tenga privilegios de Administrador.
icm (Get-Cluster -Name HCNanoUSClu3 | Get-ClusterNode) {
Update-StorageProviderCache
Get-StoragePool |? IsPrimordial -eq $false | Set-StoragePool
-IsReadOnly:$false -ErrorAction SilentlyContinue
Get-StoragePool |? IsPrimordial -eq $false | Get-VirtualDisk |
Remove-VirtualDisk -Confirm:$false -ErrorAction SilentlyContinue
Get-StoragePool |? IsPrimordial -eq $false | Remove-StoragePool
-Confirm:$false -ErrorAction SilentlyContinue
Get-PhysicalDisk | Reset-PhysicalDisk -ErrorAction
SilentlyContinue
Get-Disk |? Number -ne $null |? IsBoot -ne $true |? IsSystem -ne
$true |? PartitionStyle -ne RAW |% {
$_ | Set-Disk -isoffline:$false
$_ | Set-Disk -isreadonly:$false
$_ | Clear-Disk -RemoveData -RemoveOEM -Confirm:$false
$_ | Set-Disk -isreadonly:$true
$_ | Set-Disk -isoffline:$true
}
Get-Disk |? Number -ne $null |? IsBoot -ne $true |? IsSystem -ne
$true |? PartitionStyle -eq RAW | Group -NoElement -Property
FriendlyName
} | Sort -Property PsComputerName,Count
NOTA
Ejecutar este script ayuda a identificar los discos de cada nodo que pueden
utilizarse para Storage Spaces Direct. También elimina todos los datos y
particiones de esos discos.
15–Windows Server 2016
Configuración de Storage Spaces Direct
302 AH0054602-09 M
Paso 5. Activación de Storage Spaces Direct
Una vez que haya creado el clúster, emita el comando cmdlet de
Enable-ClusterS2D
de Windows PowerShell. Dicho comando cmdlet hace que
el sistema de almacenamiento se ponga en modo Storage Spaces Direct y realiza
las siguientes operaciones automáticamente:
Crea una agrupación única con un nombre como S2D en Cluster1.
Configura una caché de Storage Spaces Direct. Si hay más de un tipo de
soporte físico disponible para que lo utilice Storage Spaces Direct,
configura el tipo más eficiente como dispositivo de caché (en la mayoría de
los casos, de lectura y escritura).
Crea dos capas o niveles (Capacidad y Rendimiento) como
predeterminadas. El comando cmdlet analiza los dispositivos y configura
cada capa con la combinación de tipos de dispositivos y resiliencia.
Paso 6. Creación de discos virtuales
Si Storage Spaces Direct está activado, crea una agrupación única utilizando
todos los discos. También le pone nombre a la agrupación (por ejemplo, S2D en
Cluster1) para lo que utiliza el nombre del clúster que se especifica en el nombre.
El siguiente comando de Windows PowerShell crea un disco virtual con
resiliencia de paridad y duplicación en la agrupación de almacenamiento:
New-Volume -StoragePoolFriendlyName "S2D*" -FriendlyName
<VirtualDiskName> -FileSystem CSVFS_ReFS -StorageTierfriendlyNames
Capacity,Performance -StorageTierSizes <Size of capacity tier in
size units, example: 800GB>, <Size of Performance tier in size
units, example: 80GB> -CimSession <ClusterName>
Paso 7. Creación o implementación de máquinas virtuales
Puede proporcionar las máquinas virtuales en los nodos del clúster S2D
hiperconvergente. Almacene los archivos de la máquina virtual en el espacio de
nombres CSV (Volumen compartido de clúster) del sistema (por ejemplo,
c:\ClusterStorage\Volume1
), como se hace en las máquinas virtuales en
clúster o los clústeres de conmutación por error.
303 AH0054602-09 M
16 Windows Server 2019
Este capítulo ofrece la siguiente información sobre Windows Server 2019:
RSSv2 para Hyper-V
“Comportamientos de Windows Server 2019” en la página 304
“Nuevas propiedades del adaptador” en la página 305
RSSv2 para Hyper-V
En Windows Server 2019, Microsoft ha agregado compatibilidad para Receive
Side Scaling (Escala en lado de recepción) versión 2 (RSSv2) con Hyper-V
(RSSv2 por vPort).
Descripción de RSSv2
En comparación con RSSv1, RSSv2 disminuye el tiempo entre la medición de
carga de la CPU y la actualización de tabla de indirección. Esta característica
impide la ralentización durante situaciones de tráfico alto. RSSv2 puede esparcir
dinámicamente colas de recepción a través de varios procesadores con mayor
capacidad de respuesta que RSSv1. Si desea más información, visite la siguiente
página web:
https://docs.microsoft.com/en-us/windows-hardware/drivers/network/receive-side-
scaling-version-2-rssv2-
RSSv2 es compatible, de forma predeterminada, con el controlador de Windows
Server 2019 cuando también está activada la opción Virtual Switch RSS (RSS
de conmutador virtual). Esta opción está activada (de forma predeterminada) y el
NIC enlazado al Hyper-V o vSwitch.
16–Windows Server 2019
Comportamientos de Windows Server 2019
304 AH0054602-09 M
Errores de registro de eventos conocidos
En condiciones de funcionamiento normales, el algoritmo dinámico de RSSv2
puede iniciar una actualización de tabla de indirección que sea incompatible con
el controlador y devolver un código de estado inadecuado. En tales casos, se
produce un error del registro de eventos, aunque no exista ningún problema de
funcionamiento. La Ilustración 16-1 muestra un ejemplo.
Ilustración 16-1. Error del registro de eventos de RSSv2
Comportamientos de Windows Server 2019
Windows Server 2019 ha introducido nuevos comportamientos que afectan a la
configuración del adaptador.
VMMQ está activado de forma predeterminada
En el controlador integrado de Windows Server 2019, la opción Virtual Switch
RSS (RSS de conmutador virtual) (VMMQ) está activada de forma
predeterminada en las propiedades de NIC. Además, Microsoft ha cambiado el
comportamiento predeterminado de la opción Virtual NICs (NIC virtuales) para
que tengan VMMQ activado con los 16 pares de colas. Este cambio de
comportamiento afecta a la calidad de los recursos disponibles.
Por ejemplo, supongamos que NIC admite 32 VMQ y 64 pares de colas. En
Windows Server 2016, si agrega 32 NIC virtuales (VNIC), tendrán aceleración de
VMQ. Sin embargo, en Windows Server 2019, tendrá 4 VNIC con aceleración de
VMMQ, cada uno con 16 pares de colas y 30 VNIC sin aceleración.
Debido a esta funcionalidad, Marvell ha introducido una nueva propiedad de
usuario nuevo, Max Queue Pairs (L2) Per VPort (Pares de colas máx. [L2] por
VPort). Para obtener más detalles, ver Nuevas propiedades del adaptador.
16–Windows Server 2019
Nuevas propiedades del adaptador
305 AH0054602-09 M
Inbox Driver Network Direct (RDMA) está desactivado de
forma predeterminada
En el controlador integrado de Windows Server 2019, la opción Network Direct
(RDMA) está desactivada de forma predeterminada en las propiedades de NIC.
No obstante, al actualizar el controlador a un controlador listo para usar, Network
Direct se activa de forma predeterminada.
Nuevas propiedades del adaptador
Las nuevas propiedades configurables por el usuario disponibles en Windows
Server 2019 se describen en las siguientes secciones:
Max Queue Pairs (L2) Per VPort (Pares de colas máx. [L2] por VPort)
Network Direct Technology (Tecnología directa de red)
Recursos de virtualización
Aceleraciones predeterminadas de VMQ y VMMQ
Agrupación de VPort única
Max Queue Pairs (L2) Per VPort (Pares de colas máx. [L2] por
VPort)
Tal como se explica en VMMQ está activado de forma predeterminada,
Windows 2019 (y Windows 2016) ha introducido un nuevo parámetro
configurable por el usuario, Max Queue Pairs (L2) per VPort (Pares de colas
máx. [L2] por VPort). Este parámetro permite mayor control de la distribución de
recursos definiendo la cantidad máxima de pares de colas que se pueden asignar
a lo siguiente:
VPort-VPort predeterminado
PF Non-VPort predeterminado (VMQ/VMMQ)
SR-IOV VPort no predeterminado (VF)
1
El valor predeterminado del parámetro Max Queue Pairs (L2) per VPort (Pares
de colas máx. [L2] por VPort) está establecido en Auto (Automático), que es uno
de los siguientes:
Max Queue Pairs for Default vPort (Pares de colas máx para vPort
predeterminado) = 8
Max Queue Pairs for Non-Default vPort (Pares de colas máx para vPort no
predeterminado) = 4
Si selecciona un valor inferior a 8, entonces:
Max Queue Pairs for Default vPort (Pares de colas máx para vPort
predeterminado) = 8
1
Este parámetro también se aplica a Windows Server 2016.
16–Windows Server 2019
Nuevas propiedades del adaptador
306 AH0054602-09 M
Max Queue Pairs for Non-Default vPort (Pares de colas máx para vPort no
predeterminado) = valor
Si selecciona un valor superior a 8, entonces:
Max Queue Pairs for Default vPort (Pares de colas máx para vPort
predeterminado) = valor
Max Queue Pairs for Non-Default vPort (Pares de colas máx para vPort no
predeterminado) = valor
Network Direct Technology (Tecnología directa de red)
Marvell admite el nuevo parámetro Network Direct Technology (Tecnología
directa de red) que le permite seleccionar la tecnología RDMA subyacente que
cumpla con la siguiente especificación de Microsoft:
https://docs.microsoft.com/en-us/windows-hardware/drivers/network/inf-requirem
ents-for-ndkpi
Esta opción reemplaza al parámetro RDMA Mode (Modo RDMA).
Recursos de virtualización
La Tabla 16-1 muestra las cantidades máximas de recursos de virtualización en
Windows 2019 para adaptadores de la serie 41xxx de Dell.
Tabla 16-1. Recursos de virtualización de Windows 2019 para
adaptadores de la serie 41xxx de Dell
NIC de dos puertos-solo función
única no CNA
Cantidad
Maximum VMQs (Máximo de VMQ) 102
Máximo de VF 80
Máximo de QP 112
NIC de cuatro puertos-solo
función única no CNA
Cantidad
Maximum VMQs (Máximo de VMQ) 47
Máximo de VF 32
Máximo de QP 48
16–Windows Server 2019
Nuevas propiedades del adaptador
307 AH0054602-09 M
Aceleraciones predeterminadas de VMQ y VMMQ
La Tabla 16-2 muestra el valor predeterminado de VMQ y VMMQ y otros valores
para aceleraciones en Windows Server 2019 para adaptador de la serie 41xxx.
Tabla 16-2. Aceleraciones de Windows 2019 VMQ y VMMQ
NIC de dos puertos-solo función
única no CNA
Valor
predeterminado
Otros posibles valores
Maximum Queue Pairs (L2) per VPort
(Pares de colas máx. [L2] por VPort)
a
a
Max Queue Pairs (L2) VPort (Pares de colas máx. [L2] VPort) es un parámetro configurable de las propiedades
avanzadas de NIC.
Auto (Automático) 1 2 4 8 16
Maximum VMQs (Máximo de VMQ) 26 103 52 26 13 6
Default VPort Queue Pairs (Pares de
colas de VPort predeterminado)
8 8 8 8 8 16
PF Non-default VPort Queue Pairs
(Pares de colas de VPort no
predeterminado de PF)
4 124816
NIC de cuatro puertos-solo
función única no CNA
Valor
predeterminado
Otros posibles valores
Maximum Queue Pairs (L2) per VPort
(Pares de colas máx. (L2) por VPort)
a
Auto (Automático)124816
Maximum VMQs (Máximo de VMQ) 10 40 20 10 5 2
Default VPort Queue Pairs (Pares de
colas de VPort predeterminado)
8 888816
PF Non-default VPort Queue Pairs
(Pares de colas de VPort no
predeterminado de PF)
4 1 2 4 8 16
16–Windows Server 2019
Nuevas propiedades del adaptador
308 AH0054602-09 M
Agrupación de VPort única
El Adaptador de la serie 41xxx admite el parámetro Single VPort Pool
(Agrupación de VPort única), que permite al administrador del sistema asignar
cualquier IOVQueuePair disponible a VPort predeterminado, VPort no
predeterminado de PF o VPort no predeterminado de VF. Para asignar el valor,
emita los siguientes comandos de Windows PowerShell:
Default-VPort (VPort predeterminado):
Set-VMSwitch -Name <vswitch name> -DefaultQueueVmmqEnabled:1
-DefaultQueueVmmqQueuePairs:<number>
PF Non-Default VPort (VPort no predeterminado de PF):
Para el host:
Set-VMNetworkAdapter -ManagementOS -VmmqEnabled:1
-VmmqQueuePairs:<number>
Para la VM:
Set-VMNetworkAdapter -VMName <vm name> -VmmqEnabled:1
-VmmqQueuePairs:<number>
VF Non-Default VPort (VPort no predeterminado de VF):
Set-VMNetworkAdapter -VMName <vm name> -IovWeight:100
-IovQueuePairsRequested:<number>
Para aplicar varias cantidades de pares de colas a cualquier vPort:
La cantidad de pares de colas debe ser inferior o igual al número total de
núcleos de CPU en el sistema.
La cantidad de pares de colas debe ser inferior o igual al valor de Max
Queue Pairs (L2) Per VPort (Pares de colas máx. [L2] por VPort). Para
obtener más información, consulte Max Queue Pairs (L2) Per VPort (Pares
de colas máx. [L2] por VPort).
NOTA
Marvell no recomienda que deshabilite VMMQ o disminuya la cantidad de
pares de colas para Default-VPort (VPort predeterminado), porque puede
afectar al rendimiento del sistema.
NOTA
La cantidad predeterminada de QP asignadas para un VF
(IovQueuePairsRequested) sigue siendo 1.
309 AH0054602-09 M
17 Solución de problemas
Este capítulo proporciona la siguiente información de solución de problemas:
Lista de comprobación de solución de problemas
“Cómo asegurarse de que los controladores actuales estén cargados” en la
página 310
“Prueba de conectividad de red” en la página 311
“Microsoft Virtualization con Hyper-V” en la página 312
“Problemas específicos de Linux” en la página 312
“Problemas varios” en la página 313
“Recopilación de datos de depuración” en la página 313
Lista de comprobación de solución de problemas
La siguiente lista de verificación incluye acciones recomendadas para resolver
problemas que puedan surgir al instalar el Adaptador de la serie 41xxx o al
ejecutarlo en el sistema.
Inspeccione todos los cables y conexiones. Asegúrese de que las
conexiones de cables del adaptador de red y de la central sean correctas.
Compruebe la instalación del adaptador volviendo a leer “Instalación del
adaptador” en la página 7. Asegúrese de que el adaptador esté
correctamente encajado en la ranura. Compruebe los problemas
específicos del hardware, tales como el daño obvio a los componentes de la
placa o el conector PCI.
Compruebe la configuración y cámbiela si tiene conflicto con otro
dispositivo.
Asegúrese de que su servidor esté utilizando el último BIOS.
PRECAUCIÓN
Antes de abrir el alojamiento del servidor para agregar o eliminar el
adaptador, consulte “Precauciones de seguridad” en la página 6.
17–Solución de problemas
Cómo asegurarse de que los controladores actuales estén cargados
310 AH0054602-09 M
Intente introducir el adaptador en otra ranura. Si la nueva posición funciona,
la ranura original de su sistema puede estar defectuosa.
Reemplace el adaptador dañado por uno que sepa que funciona
correctamente. Si el segundo adaptador funciona en la ranura en que falló
el primero, el adaptador original probablemente esté dañado.
Instale el adaptador en otro sistema que funcione y ejecute nuevamente las
pruebas. Si el adaptador pasa las pruebas en el nuevo sistema, el sistema
original puede estar dañado.
Extraiga todos los otros adaptadores del sistema y ejecute nuevamente las
pruebas. Si el adaptador pasa las pruebas, los otros adaptadores pueden
estar causando contención.
Cómo asegurarse de que los controladores
actuales estén cargados
Asegúrese de que los controladores actuales estén cargados en su sistema
Windows, Linux, o VMware.
Comprobar controladores en Windows
Consulte el Administrador de dispositivos para ver información fundamental sobre
el adaptador, el estado del enlace y la conectividad de la red.
Comprobar controladores en Linux
Para comprobar si el controlador qed.ko está correctamente cargado, emita el
siguiente comando:
# lsmod | grep -i <module name>
Si el controlador se cargó, la salida de este comando muestra el tamaño del
controlador en bytes. El siguiente ejemplo muestra los controladores cargados
para el módulo qed:
# lsmod | grep -i qed
qed 199238 1
qede 1417947 0
Si reinicia después de cargar un nuevo controlador, puede emitir el siguiente
comando para comprobar si el controlador actualmente cargado es la versión
correcta:
modinfo qede
O bien, puede enviar el siguiente comando:
[root@test1]# ethtool -i eth2
driver: qede
17–Solución de problemas
Prueba de conectividad de red
311 AH0054602-09 M
version: 8.4.7.0
firmware-version: mfw 8.4.7.0 storm 8.4.7.0
bus-info: 0000:04:00.2
Si cargó un controlador nuevo, pero todavía no lo ha reiniciado, el comando
modinfo no mostrará la información del controlador actualizado. En su lugar,
emita el siguiente comando
dmesg para ver los registros. En este ejemplo, la
última entrada identifica el controlador que estará activo tras el reinicio.
# dmesg | grep -i "Cavium" | grep -i "qede"
[ 10.097526] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x
[ 23.093526] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x
[ 34.975396] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x
[ 34.975896] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x
[ 3334.975896] QLogic FastLinQ 4xxxx Ethernet Driver qede x.x.x.x
Comprobar controladores en VMware
Para comprobar si se han cargado los controladores de VMware ESXi, emita el
siguiente comando:
# esxcli software vib list
Prueba de conectividad de red
En esta sección se describen los procedimientos para probar la conectividad de
red en los entornos Windows y Linux.
Cómo probar la conectividad de red en Windows
Pruebe la conectividad de red mediante el comando ping.
Para determinar si la conexión de red funciona, siga el siguiente
procedimiento:
1. Haga clic en Inicio y, a continuación, haga clic en Ejecutar.
2. En el cuadro Abrir, escriba cmd y, a continuación, haga clic en Aceptar.
3. Para ver la conexión de red que se va a probar, emita el siguiente comando:
ipconfig /all
NOTA
Cuando utilice las velocidades de enlace obligatorias, compruebe que tanto
el adaptador como el conmutador estén obligados en la misma velocidad.
17–Solución de problemas
Microsoft Virtualization con Hyper-V
312 AH0054602-09 M
4. Emita el siguiente comando y, a continuación, pulse INTRO.
ping <ip_address>
Las estadísticas de ping que se muestran indican si la conexión de red está
funcionando o no.
Cómo probar la conectividad de red en Linux
Para comprobar si la interfaz Ethernet esté activa y en funcionamiento:
1. Para comprobar el estado de la interfaz Ethernet, emita el comando
ifconfig
.
2. Para ver las estadísticas de la interfaz Ethernet, emita el comando
netstat -i
.
Para comprobar si se ha establecido la conexión:
1. Realice un ping en un host de IP de la red. Desde la línea de comando,
emita el siguiente comando:
ping <ip_address>
2. Pulse INTRO.
Las estadísticas de ping que se muestran indican si la conexión de red está
funcionando o no.
La velocidad de enlace del adaptador se puede forzar a 10 Gbps o 25 Gbps
utilizando la herramienta GUI del sistema operativo o el comando ethtool,
ethtool –s ethX speed SSSS.
Microsoft Virtualization con Hyper-V
Microsoft Virtualization es un sistema de virtualización de hipervisor para
Windows Server 2012 R2. Para obtener más información sobre Hyper-V, visite:
https://technet.microsoft.com/en-us/library/Dn282278.aspx
Problemas específicos de Linux
Problema: Aparecen errores al recopilar el código fuente del controlador.
Solución: Algunas instalaciones de distribuciones de Linux no instalan las
herramientas de desarrollo y fuentes de Kernel de manera
predeterminada. Antes de recopilar el código fuente del
controlador, asegúrese de que estén instaladas las herramientas
de desarrollo para la distribución de Linux que está utilizando.
17–Solución de problemas
Problemas varios
313 AH0054602-09 M
Problemas varios
Problema: El Adaptador de la serie 41xxx se ha apagado y aparece un
mensaje de error que indica que ha fallado el ventilador del
adaptador.
Solución: El Adaptador de la serie 41xxx puede apagarse de forma
intencionada para evitar daños permanentes. Póngase en
contacto con el soporte técnico de Marvell para obtener ayuda.
Problema: En un entorno ESXi, con el controlador iSCSI (qedil) instalado, a
veces, el cliente VI no puede acceder al host. Esto es debido a la
finalización del hostd daemon, que afecta a la conexión con el
cliente VI.
Solución: Póngase en contacto con el soporte técnico de VMware.
Recopilación de datos de depuración
Utilice los comandos de la Tabla 17-1 para recopilar datos de depuración.
Tabla 17-1. Comandos de recopilación de datos de depuración
Datos de
depuración
Descripción
demesg-T Registros de Kernel
ethtool-d Volcado de registro
sys_info.sh Información del sistema; disponible en el paquete de
controladores
314 AH0054602-09 M
A LED del adaptador
En la Tabla A-1 se muestran los indicadores LED que informan sobre el estado de
la actividad y del enlace del puerto del adaptador.
Tabla A-1. LED de actividad y enlace del puerto del adaptador
LED de
puerto
Apariencia del LED Estado de red
LED de
enlace
Apagado
Sin enlace (cable desconectado o puerto
apagado)
Continuamente iluminado VERDE Enlace a la máxima velocidad del
enlace compatible
Continuamente iluminado ÁMBAR Enlace a la mínima velocidad del
enlace compatible
LED de
actividad
Apagado No hay actividad en el puerto
Parpadeante Hay actividad en el puerto
315 AH0054602-09 M
B Módulos ópticos y cables
Este apéndice proporciona la siguiente información sobre los módulos ópticos y
los cables compatibles:
Especificaciones compatibles
“Módulos ópticos y cables probados” en la página 316
“Conmutadores probados” en la página 320
Especificaciones compatibles
Los Adaptadores de la serie 41xxx son compatibles con una serie de módulos
ópticos y cables que cumplen con SFF8024. El cumplimiento del factor de forma
específico es el siguiente:
SFP:
SFF8472 (para mapa de memoria)
SFF8419 o SFF8431 (alimentación y señales de baja velocidad)
Entrada/salida eléctrica de módulos ópticos, cables de cobre activos (ACC)
y cables ópticos activos (AOC):
10G—SFF8431 interfaz límite
25G—IEEE 802.3 por anexo 109B (25GAUI) (no admite RS-FEC)
B–Módulos ópticos y cables
Módulos ópticos y cables probados
316 AH0054602-09 M
Módulos ópticos y cables probados
Marvell no garantiza que todos los cables o módulos ópticos que satisfagan los
requisitos de cumplimiento funcionen con los Adaptadores de la serie 41xxx.
Marvell ha probado los componentes que se enumeran en la Tabla B-1 y ofrece
esta lista para su comodidad.
Tabla B-1. Módulos ópticos y cables probados
Velocidad/
Factor de
forma
Fabricante
Número de
pieza
Tipo
Longitud
de cable
a
Válvula
Cables
10G DAC
b
Brocade
®
1539W SFP+10G-to-SFP+10G 1 26
V239T SFP+10G-to-SFP+10G 3 26
48V40 SFP+10G-to-SFP+10G 5 26
Cisco
H606N SFP+10G-to-SFP+10G 1 26
K591N SFP+10G-to-SFP+10G 3 26
G849N SFP+10G-to-SFP+10G 5 26
Dell
V250M SFP+10G-to-SFP+10G 1 26
53HVN SFP+10G-to-SFP+10G 3 26
358VV SFP+10G-to-SFP+10G 5 26
407-BBBK SFP+10G-to-SFP+10G 1 30
407-BBBI SFP+10G-to-SFP+10G 3 26
407-BBBP SFP+10G-to-SFP+10G 5 26
25G DAC
Amphenol
®
NDCCGF0001 SFP28-25G-to-SFP28-25G 1 30
NDCCGF0003 SFP28-25G-to-SFP28-25G 3 30
NDCCGJ0003 SFP28-25G-to-SFP28-25G 3 26
NDCCGJ0005 SFP28-25G-to-SFP28-25G 5 26
Dell
2JVDD SFP28-25G-to-SFP28-25G 1 26
D0R73 SFP28-25G-to-SFP28-25G 2 26
OVXFJY SFP28-25G-to-SFP28-25G 3 26
9X8JP SFP28-25G-to-SFP28-25G 5 26
B–Módulos ópticos y cables
Módulos ópticos y cables probados
317 AH0054602-09 M
40G QSFP
de cobre
Separador
(4 × 10G)
Dell
TCPM2 QSFP+40G-to-4xSFP+10G 1 30
27GG5 QSFP+40G-to-4xSFP+10G 3 30
P8T4W QSFP+40G-to-4xSFP+10G 5 26
RJ45 de
cobre de 1G
Transceptor
Dell
8T47V SFP+ a 1G RJ 1G RJ45 N/A
XK1M7 SFP+ a 1G RJ 1G RJ45 N/A
XTY28 SFP+ a 1G RJ 1G RJ45 N/A
RJ45 de
cobre de
10G
Transceptor
Dell PGYJT SFP+ a 10G RJ 10G RJ45 N/A
Separador
DAC de
40G
(4 × 10G)
Dell
470-AAVO QSFP+40G-to-4xSFP+10G 1 26
470-AAXG QSFP+40G-to-4xSFP+10G 3 26
470-AAXH QSFP+40G-to-4xSFP+10G 5 26
Separador
DAC de
100G
(4 × 25G)
Amphenol
NDAQGJ-0001 QSFP28-100G-to-
4xSFP28-25G
126
NDAQGF-0002 QSFP28-100G-to-
4xSFP28-25G
230
NDAQGF-0003 QSFP28-100G-to-
4xSFP28-25G
330
NDAQGJ-0005 QSFP28-100G-to-
4xSFP28-25G
526
Dell
026FN3 Rev A00 QSFP28-100G-to-
4xSFP28-25G
126
0YFNDD Rev A00 QSFP28-100G-to-
4xSFP28-25G
226
07R9N9 Rev A00 QSFP28-100G-to-
4xSFP28-25G
326
FCI
10130795-4050LF QSFP28-100G-to-
4xSFP28-25G
526
Tabla B-1. Módulos ópticos y cables probados (Continuación)
Velocidad/
Factor de
forma
Fabricante
Número de
pieza
Tipo
Longitud
de cable
a
Válvula
B–Módulos ópticos y cables
Módulos ópticos y cables probados
318 AH0054602-09 M
Soluciones ópticas
Transceptor
óptico de
10G
Avago
®
AFBR-703SMZ SFP+ SR N/A N/A
AFBR-701SDZ SFP+ LR N/A N/A
Dell
Y3KJN SFP+ SR 1G/10G N/A
WTRD1 SFP+ SR 10G N/A
3G84K SFP+ SR 10G N/A
RN84N SFP+ SR 10G-LR N/A
Finisar
®
FTLX8571D3BCL-
QL
SFP+ SR N/A N/A
FTLX1471D3BCL-
QL
SFP+ LR N/A N/A
Transceptor
óptico de
25G
Dell P7D7R Transceptor óptico SFP28 SR 25G SR N/A
Finisar
FTLF8536P4BCL Transceptor óptico SFP28 SR N/A N/A
FTLF8538P4BCL
Transceptor óptico SFP28 SR
no FEC
N/A N/A
Transceptor
de doble
velocidad
de 10/25G
Dell M14MK SFP28
N/A N/A
Tabla B-1. Módulos ópticos y cables probados (Continuación)
Velocidad/
Factor de
forma
Fabricante
Número de
pieza
Tipo
Longitud
de cable
a
Válvula
B–Módulos ópticos y cables
Módulos ópticos y cables probados
319 AH0054602-09 M
10G AOC
c
Dell
470-ABLV SFP+ AOC 2 N/A
470-ABLZ SFP+ AOC 3 N/A
470-ABLT SFP+ AOC 5 N/A
470-ABML SFP+ AOC 7 N/A
470-ABLU SFP+ AOC 10 N/A
470-ABMD SFP+ AOC 15 N/A
470-ABMJ SFP+ AOC 20 N/A
YJF03 SFP+ AOC 2 N/A
P9GND SFP+ AOC 3 N/A
T1KCN SFP+ AOC 5 N/A
1DXKP SFP+ AOC 7 N/A
MT7R2 SFP+ AOC 10 N/A
K0T7R SFP+ AOC 15 N/A
W5G04 SFP+ AOC 20 N/A
25G AOC
Dell X5DH4 SFP28 AOC 20 N/A
InnoLight
®
TF-PY003-N00 SFP28 AOC 3 N/A
TF-PY020-N00 SFP28 AOC 20 N/A
a
La longitud del cable se indica en metros
b
DAC es un cable de conexión directa.
c
AOC es un cable óptico activo.
Tabla B-1. Módulos ópticos y cables probados (Continuación)
Velocidad/
Factor de
forma
Fabricante
Número de
pieza
Tipo
Longitud
de cable
a
Válvula
B–Módulos ópticos y cables
Conmutadores probados
320 AH0054602-09 M
Conmutadores probados
La Tabla B-2 muestra una lista de los conmutadores que se han sometido a
pruebas de interoperabilidad con los Adaptadores de la serie 41xxx. La lista
incluye conmutadores que están disponibles en el momento en el que el producto
sale al mercado y está sujeta a cambios a medida que, con el paso del tiempo,
nuevos conmutadores empiecen a comercializarse y otros dejen de hacerlo.
Tabla B-2. Conmutadores sometidos a pruebas de interoperabilidad
Fabricante Modelo de conmutador Ethernet
Arista
7060X
7160
Cisco
Nexus 3132
Nexus 3232C
Nexus 5548
Nexus 5596T
Nexus 6000
Dell EMC
S6100
Z9100
HPE FlexFabric 5950
Mellanox
SN2410
SN2700
321 AH0054602-09 M
C Configuración del
conmutador Dell Z9100
Los Adaptadores de la serie 41xxx admiten conexiones con el conmutador
Ethernet Dell Z9100. No obstante, hasta que se estandarice el proceso de
negociación automática, el conmutador debe configurarse explícitamente para
que se conecte al adaptador a 25 Gbps.
Para configurar un puerto de conmutador Dell Z9100 para que se conecte al
Adaptador de la serie 41xxx a 25 Gbps:
1. Establezca una conexión de puerto serie entre su estación de trabajo de
administración y el conmutador.
2. Abra una sesión de línea de comando y, a continuación, conéctese al
conmutador del siguiente modo:
Login: admin
Password: admin
3. Active la configuración del puerto de conmutador:
Dell> enable
Password: xxxxxx
Dell# config
4. Identifique el módulo y puerto que se configurarán. En el siguiente ejemplo
se utiliza el módulo 1, puerto 5:
Dell(conf)#stack-unit 1 port 5 ?
portmode Set portmode for a module
Dell(conf)#stack-unit 1 port 5 portmode ?
dual Enable dual mode
quad Enable quad mode
single Enable single mode
Dell(conf)#stack-unit 1 port 5 portmode quad ?
speed Each port speed in quad mode
Dell(conf)#stack-unit 1 port 5 portmode quad speed ?
10G Quad port mode with 10G speed
C–Configuración del conmutador Dell Z9100
322 AH0054602-09 M
25G Quad port mode with 25G speed
Dell(conf)#stack-unit 1 port 5 portmode quad speed 25G
Para obtener información sobre cómo cambiar la velocidad de enlace del
adaptador, consulte “Prueba de conectividad de red” en la página 311.
5. Asegúrese de que el puerto funcione a 25 Gbps:
Dell# Dell#show running-config | grep "port 5"
stack-unit 1 port 5 portmode quad speed 25G
6. Para desactivar la negociación automática en el puerto de conmutador 5,
realice los siguientes pasos:
a. Identifique la interfaz del puerto de conmutador (módulo 1, puerto 5,
interfaz 1) y confirme el estado de la negociación automática:
Dell(conf)#interface tw 1/5/1
Dell(conf-if-tf-1/5/1)#intf-type cr4 ?
autoneg Enable autoneg
b. Desactive la negociación automática:
Dell(conf-if-tf-1/5/1)#no intf-type cr4 autoneg
c. Asegúrese de que la negociación automática esté desactivada.
Dell(conf-if-tf-1/5/1)#do show run interface tw 1/5/1
!
interface twentyFiveGigE 1/5/1
no ip address
mtu 9416
switchport
flowcontrol rx on tx on
no shutdown
no intf-type cr4 autoneg
Para obtener más información sobre la configuración del conmutador Z9100 de
Dell, consulte la Dell Z9100 Switch Configuration Guide (Guía de configuración de
conmutador Dell Z9100) en el sitio web de Dell Support:
support.dell.com
323 AH0054602-09 M
D Limitaciones de las
características
Este apéndice proporciona información sobre las limitaciones de las
características implementadas en esta versión.
Estas limitaciones de coexistencia con las características pueden eliminarse en
una futura versión. En ese momento, podrá utilizar varias características a la vez
sin necesidad de realizar ningún paso de configuración adicional que no sean los
que normalmente hay que llevar a cabo para activar las características.
No se admite el uso simultáneo de FCoE y iSCSI en el mismo puerto
en modo NPAR
El dispositivo no admite la configuración de la descarga FCOE y la descarga
iSCSI en el mismo puerto cuando está en modo NPAR. La descarga FCoE es
compatible con la segunda función física (PF) y la descarga iSCSI es compatible
con la tercera PF en modo NPAR. El dispositivo no admite la configuración de la
descarga FCOE y la descarga iSCSI en el mismo puerto cuando está en modo
PREDETERMINADO de PF de Ethernet única. No todos los dispositivos admiten
la descarga FCOE y la descarga iSCSI.
Una vez que una PF que tiene una personalidad iSCSI o FCoE se ha configurado
en un puerto utilizando las herramientas de administración de Marvell o HII,
dichas herramientas de administración no permiten configurar el protocolo de
almacenamiento en otra PF.
La personalidad de almacenamiento está deshabilitada de forma predeterminada
por lo que únicamente se escribe en la configuración NVRAM la personalidad que
se ha configurado utilizando las herramientas de administración de Marvell o HII.
Cuando se eliminan estas limitaciones, los usuarios pueden configurar más
funciones físicas (PF) en el mismo puerto de almacenamiento en el modo NPAR.
No se admite el uso simultáneo de RoCE e iWARP en la misma
función física
No se admite el uso simultáneo de RoCE e iWARP en la misma PF. Las
herramientas de administración de Marvell y UEFI HII permiten a los usuarios
configurar ambas opciones simultáneamente, pero la funcionalidad de RoCE
tiene preferencia sobre la funcionalidad de iWARP en este caso, a menos que la
configuración del controlador del SO de entrada la invalide.
D–Limitaciones de las características
324 AH0054602-09 M
El inicio en base de SAN y NIC solo está admitido en algunas
funciones físicas (PF) concretas
Ethernet (por ejemplo, el inicio remoto iSCSI de software) y el inicio PXE solo son
compatibles con la primera PF Ethernet de un puerto físico. En la configuración
del modo NPAR, la primera PF Ethernet (es decir, no las otras PF Ethernet)
admite Ethernet (por ejemplo, el inicio remoto iSCSI del software) e inicio PXE.
No todos los dispositivos admiten la descarga FCOE y la descarga iSCSI.
Cuando las opciones Virtualization (Virtualización) o Multi-Function Mode
(Modo multifunción) están establecidas en NPAR, el inicio de descarga
FCoE es compatible con la segunda PF de un puerto físico, el inicio iSCSI
es compatible con la tercera PF de un puerto físico y Ethernet (por ejemplo,
iSCSI de software) y el inicio PXE son compatibles con la primera PF de un
puerto físico.
El inicio iSCSI y FCoE se limitan a un único destino por sesión de inicio.
Solo se permite un modo de inicio por puerto físico.
El inicio de descarga FCoE y descarga iSCSI solo es compatible en modo
NPAR.
325 AH0054602-09 M
E Historial de revisiones
Historial de revisión de documentos
Revisión A, 28 de abril de 2017
Revisión B, 24 de agosto de 2017
Revisión C, 1 de octubre de 2017
Revisión D, 24 de enero de 2018
Revisión E, 15 de marzo de 2018
Revisión F, 19 de abril de 2018
Revisión G, 22 de mayo de 2018
Revisión H, 23 de agosto de 2018
Revisión J, 23 de enero de 2019
Revisión K, 2 de julio de 2019
Revisión L, 3 de julio de 2019
Revisión M, 16 de octubre de 2019
Cambios Secciones afectadas
Se han agregado los siguientes adaptadores a la
lista de productos Marvell:
QL41164HFRJ-DE, QL41164HFRJ-DE,
QL41164HFCU-DE, QL41232HMKR-DE,
QL41262HMKR-DE, QL41232HFCU-DE,
QL41232HLCU-DE, QL41132HFRJ-DE,
QL41132HLRJ-DE, QL41132HQRJ-DE,
QL41232HQCU-DE, QL41132HQCU-DE,
QL41154HQRJ-DE, QL41154HQCU-DE
“Productos compatibles” en la página xviii
Se ha agregado compatibilidad para la E/S de
VMDirectPath
“Características” en la página 1
E–Historial de revisiones
326 AH0054602-09 M
En la Tabla 2-2, se han actualizado los SO
compatibles para Windows Server, RHEL, SLES,
XenServer.
“Requisitos del sistema” en la página 5
En los apartados tras el segundo párrafo, se ha
agregado texto para describir con más detalle la
instalación de Dell iSCSI HW y SW.
“Configuración de preinicio iSCSI” en la página 76
Se ha movido la sección para que esté más cerca
de otras secciones relevantes.
“Configuración del destino de almacenamientoen
la página 80
En el primer párrafo, se ha corregido la primera
frase a «La opción
Boot Mode (Modo de inicio)
aparece bajo
NIC Configuration…
(Configuración NIC)»
Se han agregado instrucciones para la
configuración del HBA iSCSI UEFI
“Selección del protocolo de inicio iSCSI UEFI” en
la página 80
Se han eliminado las secciones «Configuración de
los parámetros de inicio iSCSI» y «Configuración
del modo de inicio del BIOS».
“Configuración del inicio desde SAN” en la
página 75
Se ha agregado una referencia a Application Note,
Enabling Storage Offloads on Dell and Marvell
FastLinQ 41000 Series Adapters.
“Compatibilidad con FCoE” en la página 40,
“Compatibilidad con iSCSI” en la página 40,
“Configuración de inicio FCoE” en la
página 60,“Configuración del inicio iSCSI” en la
página 62, “Configuración del inicio desde SAN”
en la página 75, “Configuración iSCSI” en la
página 218, “Configuración FCoE” en la
página 233
En el paso 3 se ha aclarado cómo utilizar los
valores de prioridad de RoCE v1.
“Configuración del puente del centro de datos” en
la página 59
Al final de la sección se ha agregado una NOTA
con un ejemplo de cómo instalar BFS iSCSI en
Linux con una configuración MPIO y una ruta
única activa.
“Configuración del inicio iSCSI desde SAN para
RHEL 7.5 y posterior” en la página 105
Se han actualizado los pasos para los
controladores del adaptador de integración de la
solución en los archivos de imagen de Windows.
“Inyección (Integración de la solución) de los
controladores del adaptador en los archivos de
imagen de Windows” en la página 136
Se ha eliminado el apartado que indica «RoCE no
funciona a través de VF en un entorno SR-IOV».
VF RDMA es ahora compatible.
“Planificación para RoCE” en la página 143
E–Historial de revisiones
327 AH0054602-09 M
En la Tabla 7-1,
Se ha eliminado RHEL 7.5; se ha agregado
RHEL 7.7. Para RHEL7.6, se ha agregado
compatibilidad para OFED-4.17-1 GA.
Se ha eliminado SLES 12 SP3; se ha agregado
SLES 12 SP4.
Se ha separado SLES 15 (SP0) y SLES 15
SP1; en SLES 15 SP1, se ha agregado
compatibilidad para OFED-4.17-1 GA.
CentOS 7.6: se ha agregado compatibilidad
para OFED-4.17-1 GA.
“Sistemas operativos admitidos y OFED” en la
página 142
Se ha agregado información sobre la
configuración RoCE para VF RDMA para Windows
y Linux.
“Configuración de RoCE para dispositivos VF
SR-IOV (VF RDMA)” en la página 158
Configuración de RoCE para dispositivos VF
SR-IOV (VF RDMA)
En el paso 1, se ha actualizado el segundo y
tercer apartado a los SO actualmente compatibles
para SLES 12 y RHEL, respectivamente.
“Configuración de RoCE v2 para Linux” en la
página 172
Se ha cambiado el paso 4 parte b para
«Configurar la
Compatibilidad con el
protocolo RDMA
a RoCE/iWARP o iWARP».
“Preparación del adaptador para iWARP” en la
página 195
Se ha eliminado la referencia al apéndice C;
Se ha agregado información de configuración.
“Configuración del conmutador Ethernet Dell
Z9100 para RoCE” en la página 146
Se ha actualizado la lista de SO que son
compatibles con la bandeja de entrada de
OFED.
“Antes de empezar” en la página 206
Se ha eliminado la sección «Compatibilidad
de iWARP RDMA-Core en SLES 12 SP3 y
OFED 4.8x».
“Configuración de iWARP” en la página 195
En la lista de apartados tras el tercer párrafo,
se ha actualizado la lista de SO compatibles
(segunda viñeta).
“Configuración de NVMe-oF con RDMA” en la
página 257
Aclarado el paso 4: «Para habilitar RDMA,
mediante PowerShell emita el siguiente
comando Windows PowerShell:
“Creación de un conmutador virtual Hyper-V con
un NIC virtual RDMA” en la página 275
En el paso 2, se ha corregido la última palabra del
comando PowerShell a -ManagementOS.
“Cómo agregar un Id. de vLAN al NIC virtual del
host” en la página 277
E–Historial de revisiones
328 AH0054602-09 M
Se han cambiado los comandos en el paso 1,
parte c. Se ha agregado un ejemplo de
ovsdb-server
y ovs-vswitchd en
ejecución con
pid.
En el paso 4, parte c, se ha cambiado la segunda
frase del segundo párrafo a
“La interfaz br1 se
denomina eth0, ens7; configure
manualmente la IP estática mediante el
archivo de dispositivo de red y asigne la
misma IP de subred al equipo (Host 2 VM).”
“Configuración de VXLAN en Linux” en la
página 269
Se ha cambiado el comando de PowerShell para
monitorizar el tráfico de la función virtual en una
máquina virtual.
“Supervisión de las estadísticas de tráfico” en la
página 295
Se ha cambiado el enlace para obtener más
información sobre la configuración de un clúster
testigo.
“Paso 3. Configuración de un clúster testigo” en la
página 300
En el primer párrafo, se ha cambiado el cmdlet a
Enable-ClusterS2D.
“Paso 5. Activación de Storage Spaces Direct” en
la página 302
En la Tabla A-1, en la sección LED de enlace, se
han actualizado las columnas Estado de red y
Apariencia del LED.
“LED del adaptador” en la página 314
329 AH0054602-09 M
Glosario
ACPI
La especificación de la Interfaz avanzada
de configuración y energía (ACPI)
proporciona un estándar abierto para
realizar la configuración y administración
de la energía de dispositivos basados en
el sistema operativo de forma unificada.
La ACPI define unas interfaces
independientes de la plataforma para la
detección, configuración, administración
de energía y supervisión de hardware. La
especificación es fundamental para la
Configuración y administración de energía
dirigidas por el sistema operativo (OSPM),
un término que se utiliza para describir
una ACPI que implementa sistemas y que,
por lo tanto, hace que las interfaces de
firmware heredadas ya no tengan que
encargarse de administrar los dispositivos.
acceso directo a memoria remota
Consulte RDMA.
adaptador
La tarjeta que hace de interfaz entre el
sistema principal y los dispositivos
destino. El adaptador es sinónimo de
adaptador HBA, adaptador host y tarjeta.
Adaptador de bus de host
Un adaptador que conecta un sistema
host (el equipo) con otra red y dispositivos
de almacenamiento.
Adaptador de red convergente
Los adaptadores de red convergente de
Marvell admiten tanto tráfico de red de
datos (TCP/IP) como de red de
almacenamiento (Fibre Channel) en un
único adaptador de E/S con dos
tecnologías nuevas: Ethernet mejorada y
Fibre Channel a través de Ethernet
(FCoE).
ancho de banda
Una medida del volumen de datos que se
pueden transmitir a una velocidad de
transmisión específica. Un puerto Fibre
Channel de 1 Gbps o 2 Gbps puede
transmitir o recibir a velocidades
nominales de 1 Gbps o 2 Gbps,
dependiendo del dispositivo al que esté
conectado. Esto corresponde a valores de
ancho de banda real de 106 Mb y 212 Mb
respectivamente.
BAR
Registro de dirección base. Se utiliza para
guardar las direcciones de la memoria que
utiliza un dispositivo o desplazamientos de
direcciones de puerto. Normalmente, los
BAR de dirección de la memoria deben
estar ubicados en la RAM física mientras
que los BAR de espacio E/S pueden estar
en cualquier dirección de la memoria
(incluso en otro lugar que no sea la
memoria física).
330 AH0054602-09 M
Guía del usuario—Adaptadores de red convergente
Serie 41xxx
BIOS
Sistema básico de entrada/salida.
Normalmente en Flash PROM, el
programa (o utilidad) que sirve como una
interfaz entre el hardware y el sistema
operativo, y que permite el inicio desde el
adaptador en el arranque.
calidad de servicio
Consulte QoS.
Capa 2
Se refiere a la capa de enlace de datos del
modelo de comunicación de varias capas,
la Open Systems Interconnection
(Interconexión de sistemas abiertos -
OSI). La función de la capa del enlace de
comunicación de datos es trasferir datos a
través de los enlaces físicos de una red,
donde una conmutador redirige mensajes
de datos a nivel de la Capa 2 utilizando la
dirección MAC de destino para determinar
el destino de los mensajes.
CHAP
El protocolo de autenticación por desafío
mutuo (CHAP) se utiliza para inicio de
sesión remoto, normalmente entre un
cliente y un servidor o un navegador web y
un servidor web. Un desafío/respuesta es
un mecanismo de seguridad para
comprobar la identidad de una persona o
proceso sin revelar una contraseña
secreta que compartan las dos entidades.
También se conoce como protocolo de
acuerdo de tres vías.
CNA
Consulte Adaptador de red convergente.
controlador
El software que hace de interfaz entre el
sistema de archivos y un dispositivo de
almacenamiento de datos físico o de
medios de red.
DCB
Puente del centro de datos. Proporciona
mejoras a las especificaciones de puente
802.1 existentes para satisfacer los
requisitos de protocolos y aplicaciones en
el centro de datos. Dado que los centros
de datos de alto rendimiento existentes
normalmente incluyen varias redes
específicas de aplicaciones que se
ejecutan en diferentes tecnologías de
capa de enlace (Fibre Channel para
almacenamiento y Ethernet para
administración de red y conectividad de
LAN), DCB activa puentes 802.1 para su
uso en el despliegue de una red
convergente en la que todas las
aplicaciones puedan ejecutarse a través
de una única infraestructura física.
DCBX
Protocolo de puente del centro de datos.
Un protocolo utilizado por dispositivos
DCB para intercambiar información de
configuración con compañeros
directamente conectados. El protocolo
también se puede utilizar para la detección
de configuraciones erróneas y para la
configuración del compañero.
descarga de envío grande
Consulte LSO.
destino
El punto final del dispositivo de
almacenamiento de una sesión SCSI. Los
iniciadores requieren datos de los
destinos. Los destinos suelen ser
unidades de disco, unidades de cinta u
otros dispositivos de soporte físico.
Normalmente el destino es un dispositivo
periférico SCSI pero, en algunos casos,
un adaptador también puede ser un
destino. Un destino puede contener
muchos LUN.
331 AH0054602-09 M
Guía del usuario—Adaptadores de red convergente
Serie 41xxx
Un destino es un dispositivo que responde
a una petición de un iniciador (el sistema
principal). Los periféricos son destinos,
pero en algunos comandos (por ejemplo,
un comando SCSI COPY), el periférico
puede actuar como un iniciador.
DHCP
Protocolo de configuración dinámica de
host. Permite a los equipos de una red IP
extraer sus configuraciones de servidores
que tienen información sobre el equipo
únicamente después de que se solicite.
dispositivo
Un destino, normalmente una unidad de
disco. Hardware, como una unidad de
disco, una unidad de cinta, una impresora
o un teclado, que está instalado en un
sistema o conectado a él. En Fibre
Channel, un dispositivo destino.
eCore
Una capa entre el sistema operativo y el
hardware y el firmware. Es específica del
dispositivo e independiente del sistema
operativo. Cuando el código eCore
necesita servicios del sistema operativo
(por ejemplo, para asignar memoria,
acceder al espacio de configuración de
PCI, etc.), llama a una función del sistema
operativo abstracta que está
implementada en capas específicas del
sistema operativo. Los flujos de eCore
pueden estar dirigidos por el hardware
(por ejemplo, mediante una interrupción) o
por la parte de la unidad específica del
sistema operativo (por ejemplo, cargar y
descargar la carga y descarga).
EEE
Ethernet de eficacia energética Un
conjunto de mejoras del par trenzado y de
la familia del plano posterior de Ethernet
de los estándares de las funciones de red
de equipos que permiten un menor
consumo de energía durante periodos de
una actividad menor de datos. La
intención era reducir el consumo de
energía a un 50 por ciento o más,
mientras se retiene la compatibilidad
completa con el equipo existente. El
Instituto de Ingenieros electrónicos y
eléctricos (IEEE) ha desarrollado este
estándar con el grupo de trabajo IEEE
802.3az.
EFI
Interfaz de firmware extensible. Una
especificación que define una interfaz de
software entre un sistema operativo y un
firmware de plataforma. EFI es una
sustituta de la antigua interfaz de firmware
de BIOS presente en todos los equipos
personales compatibles con PC IBM.
equipo con un conjunto de instrucciones
reducido
Consulte RISC.
Ethernet
La tecnología LAN más ampliamente
utilizada que transmite información entre
equipos, normalmente a velocidades de
10 y 100 millones de bits por segundo
(Mbps).
Ethernet de eficacia energética
Consulte EEE.
332 AH0054602-09 M
Guía del usuario—Adaptadores de red convergente
Serie 41xxx
ETS
Selección de transmisión mejorada.
Estándar que especifica la mejora de
selección de transmisión para admitir la
asignación de ancho de banda entre
clases de tráfico. Cuando la carga ofrecida
en una clase de tráfico no utiliza su ancho
de banda asignado, la selección de
transmisión mejorada permite que otras
clases de tráfico utilicen el ancho de
banda disponible. Las prioridades de
asignación de ancho de banda coexisten
con prioridades estrictas. ETS incluye
objetos administrados para dar
compatibilidad a la asignación de ancho
de banda. Para obtener más información,
consulte:
http://ieee802.org/1/pages/802.1az.html
FCoE
Fibre Channel a través de Ethernet Una
nueva tecnología definida por el
organismo de estandarización T11 que
permite que el tráfico de red de
almacenamiento de Fibre Channel
tradicional viaje a través de un enlace de
comunicación Ethernet encapsulando
tramas de Fibre Channel dentro de tramas
Ethernet de Capa 2. Para obtener más
información, visite www.fcoe.com
.
Fibre Channel
Una tecnología de interfaz serie de alta
velocidad que admite otros protocolos de
capa más alta como, por ejemplo, SCSI
e IP.
Fibre Channel a través de Ethernet
Consulte FCoE.
FTP
Protocolo de transferencia de archivos. Un
protocolo de red estándar utilizado para
transferir archivos de un host a otro host
sobre una red basada en TCP, como
Internet. FTP resulta necesario para
cargas de firmware fuera de banda que se
completarán con mayor rapidez que las
cargas de firmware en banda.
HBA
Consulte Adaptador de bus de host.
HII
Infraestructura de interfaz humana (HII).
Especificación (parte de UEFI 2.1) para
administrar entrada de usuarios, cadenas
localizadas, tipos de letra, y formularios,
que permite a los OEM desarrollar
interfaces gráficas para la configuración
de prearranque.
host
Uno o más adaptadores regidos por una
memoria sencilla o un complejo de CPU.
IEEE
Instituto de Ingeniería Eléctrica y
Electrónica. Organización no lucrativa
internacional para el avance de la
tecnología relacionada con la electricidad.
infraestructura de interfaz humana (HII).
Consulte HII.
interfaz avanzada de configuración y
energía
Consulte ACPI.
interfaz de equipo pequeño
Consulte SCSI.
interfaz de equipo pequeño de Internet
Consulte iSCSI.
333 AH0054602-09 M
Guía del usuario—Adaptadores de red convergente
Serie 41xxx
interfaz de firmware extensible (EFI)
Consulte EFI.
interfaz de firmware extensible unificada.
Consulte UEFI.
interfaz virtual (VI)
Consulte VI.
interrupciones señalizadas por mensajes
Consulte MSI, MSI-X.
IP
protocolo de Internet. Un método a través
del cual se mandan datos de un equipo a
otro a través de Internet. El IP especifica
el tamaño de los paquetes, también
llamados datagramas y el esquema de
direcciones.
IQN
Nombre completo iSCS. El nombre del
nodo iSCSI basado en el fabricante del
iniciador y en una sección de nombre del
dispositivo única.
iSCSI
Interfaz de equipo pequeño de Internet.
Protocolo que encapsula datos en
paquetes IP y los emite a través de
conexiones Ethernet.
iWARP
Protocolo de área amplia de Internet
RDMA. Un protocolo para redes de
equipos que implementa RDMA para
transferir datos de forma eficiente a través
de redes IP. El iWARP está diseñado para
diversos entornos, lo que incluye redes
LAN, redes de almacenamiento, redes de
centros de datos y redes WAN.
LLDP
Un protocolo de proveedor neutral Layer 2
que permite que un dispositivo de red
publique su identidad y capacidad en la
red local. Este protocolo remplaza
protocolos de propietario como Cisco
Discovery Protocol, Extreme Discovery
Protocol, y Nortel Discovery Protocol
(también llamado SONMP).
La información reunida con LLDP se
almacena en el dispositivo y puede
consultarse mediante SNMP. La toplología
de la red activada con LLDP puede
detectarse rastreando los hosts y
consultando esta base de datos.
LSO
Descarga de envío grande Característica
del adaptador Ethernet LSO que permite a
la pila de red TCP\IP crear un mensaje de
TCP más grande (de hasta 64 Kb) antes
de enviarlo al adaptador. El hardware del
adaptador segmenta el mensaje en
paquetes de datos más pequeños
(tramas) que pueden enviarse a través del
cable: hasta 1.500 bytes para tramas
estándar de Ethernet y hasta 9.000 bytes
para tramas gigantes de Ethernet. El
proceso de segmentación le evita a la
CPU del servidor tener que segmentar
mensajes de TCP grandes en paquetes
más pequeños que quepan en el tamaño
de trama admitido.
máquina virtual
Consulte VM.
memoria de acceso aleatorio no volátil
Consulte NVRAM.
memoria rápida no volátil
Consulte NVMe.
334 AH0054602-09 M
Guía del usuario—Adaptadores de red convergente
Serie 41xxx
MSI, MSI-X
Interrupciones señalizadas por mensajes
MSI. Una de las dos extensiones definidas
por PCI para permitir interrupciones
señalizadas por mensajes (MSI), en PCI
2.2 y posteriores y PCI Express. Las MSI
representan una forma alternativa para
generar una interrupción a través de
mensajes especiales que permiten emular
una confirmación o negación de pin.
MSI-X (definido en PCI 3.0) permite a un
dispositivo asignar cualquier número de
interrupciones entre 1 y 2.048 y da a cada
interrupción datos y registros de dirección
distintos. Algunas características
opcionales de MSI (direcciones de 64 bits
y enmascaramiento de la interrupción) son
obligatorias en MSI-X.
MTU
Unidad de transmisión máxima. Hace
referencia al tamaño (en bytes) del
paquete más grande (datagrama IP) que
una capa especificada del protocolo de
comunicaciones puede transferir.
NIC
Tarjeta de interfaz de red Tarjeta del
equipo que se instala para permitir una
conexión de red específica.
Nombre completo iSCSI
Consulte IQN.
NPAR
NIC partición. La división de un puerto NIC
en varias funciones físicas o particiones,
cada una de las cuales tiene una
personalidad (tipo de interfaz) y un ancho
de banda configurables por el usuario.
Algunas personalidades son NIC, FCoE
e iSCSI.
NVMe
Método de acceso a almacenamiento
diseñado para unidades de estado sólido
(SSD).
NVRAM
Memoria de acceso aleatorio no volátil. Un
tipo de memoria que guarda los datos
(parámetros de la configuración) incluso
cuando se desconecta la energía. Es
posible configurar manualmente los
parámetros la NVRAM o restaurarlos
desde un archivo.
OFED™
OpenFabrics Enterprise Distribution. Un
software de código fuente abierto para
RDMA y aplicaciones de kernel bypass.
particionamiento NIC
Consulte NPAR.
PCI Express (PCIe)
Un estándar de E/S de tercera generación
que permite mejorar el rendimiento de la
red Ethernet por encima del rendimiento
de la antigua interconexión de
componentes periféricos (PCI) y PCI
extendida (PCI-X) de escritorio y ranuras
de servidor.
PCI™
Interfaz de componentes periféricos. Una
especificación de bus local de 32 bits
introducida por Intel
®
.
PF
Función física.
protocolo de autenticación por desafío
mutuo
Consulte CHAP.
335 AH0054602-09 M
Guía del usuario—Adaptadores de red convergente
Serie 41xxx
protocolo de configuración dinámica de
host
Consulte DHCP.
protocolo de control de transmisión
Consulte TCP.
protocolo de control de
transmisión/protocolo de Internet
Consulte TCP/IP.
protocolo de datagrama del usuario
Consulte UDP.
protocolo de detección de nivel de vínculo
Consulte LLDP.
protocolo de Internet
Consulte IP.
protocolo de puente del centro de datos
Consulte DCBX.
protocolo de transferencia de archivos
Consulte FTP.
protocolo RDMA de área amplia de Internet
Consulte iWARP.
puente del centro de datos
Consulte DCB.
puerto de adaptador
Un puerto en la tarjeta del adaptador.
puerto virtual
Consulte vPort.
QoS
Calidad de servicio Hace referencia a los
métodos utilizados para evitar cuellos de
botella y garantizar la continuidad de
negocio cuando se transmiten datos a
través de puertos virtuales mediante el
establecimiento de prioridades y la
asignación de ancho de banda.
RDMA
Acceso directo a memoria remota.
Capacidad para que un nodo escriba
directamente en la memoria de otro (con
semántica de tamaño y dirección) a través
de una red. Esta capacidad es una
característica importante de las redes
de VI.
RDMA sobre Ethernet convergente
Consulte RoCE.
reactivar en LAN
Consulte WoL.
red de área local virtual
Consulte vLAN.
registro de dirección base
Consulte BAR.
RISC
Equipo con un conjunto de instrucciones
reducido. Un microprocesador informático
que realiza un número menor de tipos de
instrucciones informáticas, lo que permite
el funcionamiento a mayores velocidades.
336 AH0054602-09 M
Guía del usuario—Adaptadores de red convergente
Serie 41xxx
RoCE
RDMA sobre Ethernet convergente. Un
protocolo de red que permite el acceso a
memoria directo remoto (RDMA) a través
de una red convergente o Ethernet no
convergente. RoCE es un protocolo de
capa de enlace que permite la
comunicación entre dos tipos cualesquiera
de hosts en el mismo dominio de difusión
Ethernet.
SCSI
Interfaz de equipo pequeño. Una interfaz
de alta velocidad que se utiliza para
conectar dispositivos, como discos duros,
unidades de CD, impresoras y escáneres
a un equipo. El SCSI puede conectar
muchos dispositivos utilizando un solo
controlador. Se accede a cada dispositivo
a través de un número de identificación
individual del bus de la controladora SCSI.
selección de transmisión mejorada
Consulte ETS.
SerDes
serializador/deserializador. Un par de
bloques funcionales utilizados
habitualmente en comunicaciones de alta
velocidad para compensar la
entrada/salida limitada. Estos bloques
convierten datos entre datos serie e
interfaces en paralelo en cada dirección.
serializador/deserializador (SerDes)
Consulte SerDes.
sistema básico de entrada/salida
Consulte BIOS.
SR-IOV
Virtualización de entrada/salida de raíz
única. Una especificación de PCI SIG que
permite que un único dispositivo PCI
aparezca como varios dispositivos PCI
físicos distintos. La SR-IOV permite aislar
los recursos de PCI para obtener
rendimiento, interoperabilidad y capacidad
de administración.
tarjeta de interfaz de red
Consulte NIC.
TCP
Protocolo de control de transmisión. Un
conjunto de normas para enviar datos en
paquetes a través del protocolo de
Internet.
TCP/IP
Protocolo de control de
transmisión/protocolo de Internet.
Lenguaje básico de comunicación de
Internet.
TLV
Valor-longitud-tipo. Información opcional
que puede codificarse como un elemento
dentro del protocolo. Los campos de tipo y
longitud son fijos en cuanto a su tamaño
(normalmente de 1 a 4 bytes) y el campo
de valor puede tener distintos tamaños.
Estos campos se utilizan del siguiente
modo:
Tipo: Un código numérico que indica el
tipo de campo que representa esta
parte del mensaje.
Longitud: El tamaño del campo del
valor (normalmente en bytes).
Valor: Un conjunto de bytes de tamaño
variable que contiene datos de esta
parte del mensaje.
337 AH0054602-09 M
Guía del usuario—Adaptadores de red convergente
Serie 41xxx
tramas gigantes
Tramas de IP grandes que se utilizan en
redes de alto rendimiento para aumentar
el rendimiento en las distancias grandes.
Las tramas gigantes suelen equivaler a
9.000 bytes por Gigabit Ethernet, pero
pueden referirse a cualquier cosa que se
transmita a través del MTU del IP, lo que
significa 1.500 bytes en una red Ethernet.
UDP
Protocolo de datagrama del usuario. Un
protocolo de transporte sin conexión que
no garantiza la secuencia del paquete ni la
entrega. Funciona directamente sobre IP.
UEFI
Interfaz de firmware extensible unificada.
Una especificación que detalla una
interfaz que ayuda a rechazar el control
del sistema para el entorno de
prearranque (es decir, después de
encender el sistema, pero antes de que se
inicie el sistema operativo) al sistema
operativo, caso de Windows o Linux. UEFI
proporciona una interfaz limpia entre
sistemas operativos y firmware de
plataforma durante el arranque, y admite
un mecanismo independiente a la
arquitectura para inicializar tarjetas de
complemento.
unidad de transmisión máxima
Consulte MTU.
valor-longitud-tipo (TLV)
Consulte TLV.
VF
Función virtual.
VI
Interfaz virtual. Una iniciativa para acceso
a memoria directo remoto a través de
Fibre Channel y otros protocolos de
comunicación. Se utiliza en agrupamiento
en clúster y mensajería.
virtualización de entrada/salida de raíz
única
Consulte SR-IOV.
vLAN
Red de área local virtual (VLAN) Un grupo
de hosts con un conjunto de requisitos en
común que se comunican como si
estuviesen conectados al mismo cable,
independientemente de cuál sea su
ubicación física. A pesar de que una vLAN
tiene los mismos atributos que una LAN
física, permite que las estaciones finales
se agrupen incluso aunque no están
ubicadas en el mismo segmento LAN. Las
vLAN permiten la reconfiguración de la red
a través de software, en lugar de tener que
reubicar físicamente dispositivos.
VM
Máquina virtual Una implementación de
software de una máquina (equipo) que
ejecuta programas como si fuera una
máquina de verdad.
vPort
Puerto virtual Número de puerto o nombre
de servicio asociado con uno o más
servidores virtuales. Un número de puerto
virtual debe ser el mismo número de
puerto TCP o UDP al que los programas
del cliente esperan conectarse.
338 AH0054602-09 M
Guía del usuario—Adaptadores de red convergente
Serie 41xxx
WoL
Reactivar en LAN. Un estándar para redes
de equipos Ethernet que permite encender
o activar un sistema que se encontraba
inactivo de forma remota mediante un
mensaje de red que normalmente suele
enviar un programa sencillo que se
ejecuta en otro equipo de la red.
Marvell. Avanzando más rápidamente
Marvell Technology Group
http://www.marvell.com
Contact Information
  • Page 1 1
  • Page 2 2
  • Page 3 3
  • Page 4 4
  • Page 5 5
  • Page 6 6
  • Page 7 7
  • Page 8 8
  • Page 9 9
  • Page 10 10
  • Page 11 11
  • Page 12 12
  • Page 13 13
  • Page 14 14
  • Page 15 15
  • Page 16 16
  • Page 17 17
  • Page 18 18
  • Page 19 19
  • Page 20 20
  • Page 21 21
  • Page 22 22
  • Page 23 23
  • Page 24 24
  • Page 25 25
  • Page 26 26
  • Page 27 27
  • Page 28 28
  • Page 29 29
  • Page 30 30
  • Page 31 31
  • Page 32 32
  • Page 33 33
  • Page 34 34
  • Page 35 35
  • Page 36 36
  • Page 37 37
  • Page 38 38
  • Page 39 39
  • Page 40 40
  • Page 41 41
  • Page 42 42
  • Page 43 43
  • Page 44 44
  • Page 45 45
  • Page 46 46
  • Page 47 47
  • Page 48 48
  • Page 49 49
  • Page 50 50
  • Page 51 51
  • Page 52 52
  • Page 53 53
  • Page 54 54
  • Page 55 55
  • Page 56 56
  • Page 57 57
  • Page 58 58
  • Page 59 59
  • Page 60 60
  • Page 61 61
  • Page 62 62
  • Page 63 63
  • Page 64 64
  • Page 65 65
  • Page 66 66
  • Page 67 67
  • Page 68 68
  • Page 69 69
  • Page 70 70
  • Page 71 71
  • Page 72 72
  • Page 73 73
  • Page 74 74
  • Page 75 75
  • Page 76 76
  • Page 77 77
  • Page 78 78
  • Page 79 79
  • Page 80 80
  • Page 81 81
  • Page 82 82
  • Page 83 83
  • Page 84 84
  • Page 85 85
  • Page 86 86
  • Page 87 87
  • Page 88 88
  • Page 89 89
  • Page 90 90
  • Page 91 91
  • Page 92 92
  • Page 93 93
  • Page 94 94
  • Page 95 95
  • Page 96 96
  • Page 97 97
  • Page 98 98
  • Page 99 99
  • Page 100 100
  • Page 101 101
  • Page 102 102
  • Page 103 103
  • Page 104 104
  • Page 105 105
  • Page 106 106
  • Page 107 107
  • Page 108 108
  • Page 109 109
  • Page 110 110
  • Page 111 111
  • Page 112 112
  • Page 113 113
  • Page 114 114
  • Page 115 115
  • Page 116 116
  • Page 117 117
  • Page 118 118
  • Page 119 119
  • Page 120 120
  • Page 121 121
  • Page 122 122
  • Page 123 123
  • Page 124 124
  • Page 125 125
  • Page 126 126
  • Page 127 127
  • Page 128 128
  • Page 129 129
  • Page 130 130
  • Page 131 131
  • Page 132 132
  • Page 133 133
  • Page 134 134
  • Page 135 135
  • Page 136 136
  • Page 137 137
  • Page 138 138
  • Page 139 139
  • Page 140 140
  • Page 141 141
  • Page 142 142
  • Page 143 143
  • Page 144 144
  • Page 145 145
  • Page 146 146
  • Page 147 147
  • Page 148 148
  • Page 149 149
  • Page 150 150
  • Page 151 151
  • Page 152 152
  • Page 153 153
  • Page 154 154
  • Page 155 155
  • Page 156 156
  • Page 157 157
  • Page 158 158
  • Page 159 159
  • Page 160 160
  • Page 161 161
  • Page 162 162
  • Page 163 163
  • Page 164 164
  • Page 165 165
  • Page 166 166
  • Page 167 167
  • Page 168 168
  • Page 169 169
  • Page 170 170
  • Page 171 171
  • Page 172 172
  • Page 173 173
  • Page 174 174
  • Page 175 175
  • Page 176 176
  • Page 177 177
  • Page 178 178
  • Page 179 179
  • Page 180 180
  • Page 181 181
  • Page 182 182
  • Page 183 183
  • Page 184 184
  • Page 185 185
  • Page 186 186
  • Page 187 187
  • Page 188 188
  • Page 189 189
  • Page 190 190
  • Page 191 191
  • Page 192 192
  • Page 193 193
  • Page 194 194
  • Page 195 195
  • Page 196 196
  • Page 197 197
  • Page 198 198
  • Page 199 199
  • Page 200 200
  • Page 201 201
  • Page 202 202
  • Page 203 203
  • Page 204 204
  • Page 205 205
  • Page 206 206
  • Page 207 207
  • Page 208 208
  • Page 209 209
  • Page 210 210
  • Page 211 211
  • Page 212 212
  • Page 213 213
  • Page 214 214
  • Page 215 215
  • Page 216 216
  • Page 217 217
  • Page 218 218
  • Page 219 219
  • Page 220 220
  • Page 221 221
  • Page 222 222
  • Page 223 223
  • Page 224 224
  • Page 225 225
  • Page 226 226
  • Page 227 227
  • Page 228 228
  • Page 229 229
  • Page 230 230
  • Page 231 231
  • Page 232 232
  • Page 233 233
  • Page 234 234
  • Page 235 235
  • Page 236 236
  • Page 237 237
  • Page 238 238
  • Page 239 239
  • Page 240 240
  • Page 241 241
  • Page 242 242
  • Page 243 243
  • Page 244 244
  • Page 245 245
  • Page 246 246
  • Page 247 247
  • Page 248 248
  • Page 249 249
  • Page 250 250
  • Page 251 251
  • Page 252 252
  • Page 253 253
  • Page 254 254
  • Page 255 255
  • Page 256 256
  • Page 257 257
  • Page 258 258
  • Page 259 259
  • Page 260 260
  • Page 261 261
  • Page 262 262
  • Page 263 263
  • Page 264 264
  • Page 265 265
  • Page 266 266
  • Page 267 267
  • Page 268 268
  • Page 269 269
  • Page 270 270
  • Page 271 271
  • Page 272 272
  • Page 273 273
  • Page 274 274
  • Page 275 275
  • Page 276 276
  • Page 277 277
  • Page 278 278
  • Page 279 279
  • Page 280 280
  • Page 281 281
  • Page 282 282
  • Page 283 283
  • Page 284 284
  • Page 285 285
  • Page 286 286
  • Page 287 287
  • Page 288 288
  • Page 289 289
  • Page 290 290
  • Page 291 291
  • Page 292 292
  • Page 293 293
  • Page 294 294
  • Page 295 295
  • Page 296 296
  • Page 297 297
  • Page 298 298
  • Page 299 299
  • Page 300 300
  • Page 301 301
  • Page 302 302
  • Page 303 303
  • Page 304 304
  • Page 305 305
  • Page 306 306
  • Page 307 307
  • Page 308 308
  • Page 309 309
  • Page 310 310
  • Page 311 311
  • Page 312 312
  • Page 313 313
  • Page 314 314
  • Page 315 315
  • Page 316 316
  • Page 317 317
  • Page 318 318
  • Page 319 319
  • Page 320 320
  • Page 321 321
  • Page 322 322
  • Page 323 323
  • Page 324 324
  • Page 325 325
  • Page 326 326
  • Page 327 327
  • Page 328 328
  • Page 329 329
  • Page 330 330
  • Page 331 331
  • Page 332 332
  • Page 333 333
  • Page 334 334
  • Page 335 335
  • Page 336 336
  • Page 337 337
  • Page 338 338
  • Page 339 339
  • Page 340 340
  • Page 341 341
  • Page 342 342
  • Page 343 343
  • Page 344 344
  • Page 345 345
  • Page 346 346
  • Page 347 347
  • Page 348 348
  • Page 349 349
  • Page 350 350
  • Page 351 351
  • Page 352 352
  • Page 353 353
  • Page 354 354
  • Page 355 355
  • Page 356 356
  • Page 357 357
  • Page 358 358
  • Page 359 359
  • Page 360 360
  • Page 361 361
  • Page 362 362
  • Page 363 363
  • Page 364 364
  • Page 365 365
  • Page 366 366

Dell QLogic Family of Adapters Guía del usuario

Tipo
Guía del usuario